P. 1
APUNTES_1_2011

APUNTES_1_2011

|Views: 775|Likes:
Published by Tamita Sotomayor

More info:

Published by: Tamita Sotomayor on Jul 23, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

01/02/2013

pdf

text

original

Sections

  • Estad´ıstica Descriptiva
  • 1.1. Introducci´on
  • 1.1.1. Estad´ıstica Descriptiva e Inferencial
  • 1.1.2. Etapas de una Investigaci´on Estad´ıstica
  • 1.1.3. Conceptos B´asicos
  • 1.2. Muestreo
  • 1.2.1. Conceptos b´asicos
  • 1.2.2. El Muestreo
  • 1.2.3. Muestreo Aleatorio Simple
  • 1.2.4. Muestreo Estratificado
  • 1.3. Clasificaci´on de variables
  • 1.3.1. Nominales
  • 1.3.2. Ordinales
  • 1.3.3. Intervalares
  • 1.4. Organizaci´on de la Informaci´on
  • 1.5. Medidas de Tendencia Central y Dispersi´on
  • 1.5.1. Medidas de Tendencia Central
  • 1.5.2. Medidas de tendencia central, posici´on y dispersi´on
  • 1.6. Estad´ısitica Bivariada
  • 1.6.1. Frecuencia Absoluta y Frecuencia Relativa
  • 1.6.2. Tablas de Contingencia
  • 1.6.3. Distribuciones Marginales
  • 1.6.4. Distribuciones Condicionales
  • 1.6.5. Independencia
  • 1.6.6. Asociaci´on, Dependencia o Correlaci´on
  • 1.6.7. Ajuste de Curvas
  • Probabilidades
  • 2.1. Introducci´on
  • 2.2. Modelo de Probabilidad
  • 2.2.1. Espacio Muestral
  • 2.2.2. Eventos
  • 2.2.3. Medida de Probabilidad
  • 2.2.4. Espacios Probabil´ısticos Finitos
  • 2.3. Probabilidad Condicionada e Independencia
  • 2.3.1. Probabilidad Condicional
  • 2.3.2. Probabilidad Total
  • 2.3.3. Teorema de Bayes
  • 2.4. Variables Aleatorias
  • 2.4.1. Introducci´on
  • 2.4.2. Variables Aleatorias Discretas
  • 2.4.3. Variables Aleatorias Continuas
  • 2.4.4. Localizaci´on y dispersi´on de una variable aleatoria
  • 2.4.5. Casos especiales de distribuciones probabilidad
  • 2.4.6. Funciones de Variables Aleatorias
  • 2.4.7. Aproximaci´on de distribuciones
  • 2.5. Vectores Aleatorios
  • 2.5.1. Distribuci´on Conjunta
  • 2.5.2. Distribuciones Conjuntas Especiales
  • 2.5.3. Distribuci´on Marginal y Condicional
  • 2.5.4. Esperanza y Varianza Condicional
  • 2.6. Nociones de Convergencia
  • Inferencia Estadistica
  • 3.1. Introducci´on
  • 3.2. Estimaci´on Puntual
  • 3.2.1. M´etodo de Momentos
  • 3.2.2. M´etodo de M´axima Verosimilitud
  • 3.3. Insesgamiento y eficiencia
  • 3.4. Estimaci´on Intervalar
  • 3.4.1. Intervalo de Confianza para la media
  • 3.4.2. Intervalo de Confianza para una proporci´on
  • 3.4.3. Intervalo de Confianza para la varianza
  • 3.4.4. Intervalo de Confianza para la diferencia de medias
  • 3.4.5. Intervalo de Confianza para la comparaci´on de varianzas
  • 3.5. Pruebas de Hip´otesis
  • 3.5.1. Introducci´on
  • 3.5.2. Prueba de Hip´otesis para la media
  • 3.5.3. Prueba de Hip´otesis para la proporci´on
  • 3.5.4. Prueba de Hip´otesis para la varianza
  • 3.5.5. Prueba de Hip´otesis para la diferencia de medias
  • 3.5.6. Prueba de Hip´otesis para la diferencia de proporciones
  • 3.5.7. Prueba de Hip´otesis para la comparaci´on de varianzas

Universidad T´ecnica Federico Santa Mar´ıa

Departamento de Matem´atica
Probabilidad y Estad´ıstica
Apuntes del curso.
Recopilado por: Francisca Gonz´ alez L´opez
Santiago, 1 de abril de 2011
´
Indice general
1. Estad´ıstica Descriptiva 3
1.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1. Estad´ıstica Descriptiva e Inferencial . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2. Etapas de una Investigaci´ on Estad´ıstica . . . . . . . . . . . . . . . . . . . . . 3
1.1.3. Conceptos B´ asicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1. Conceptos b´ asicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.2. El Muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.3. Muestreo Aleatorio Simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.4. Muestreo Estratificado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Clasificaci´ on de variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1. Nominales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2. Ordinales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3. Intervalares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Organizaci´ on de la Informaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5. Medidas de Tendencia Central y Dispersi´ on . . . . . . . . . . . . . . . . . . . . . . 11
1.5.1. Medidas de Tendencia Central . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5.2. Medidas de tendencia central, posici´ on y dispersi´ on. . . . . . . . . . . . . . . 11
1.6. Estad´ısitica Bivariada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6.1. Frecuencia Absoluta y Frecuencia Relativa . . . . . . . . . . . . . . . . . . . 15
1.6.2. Tablas de Contingencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6.3. Distribuciones Marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6.4. Distribuciones Condicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6.5. Independencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6.6. Asociaci´ on, Dependencia o Correlaci´ on . . . . . . . . . . . . . . . . . . . . . 17
1.6.7. Ajuste de Curvas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2. Probabilidades 22
2.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2. Modelo de Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.1. Espacio Muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.2. Eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.3. Medida de Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.4. Espacios Probabil´ısticos Finitos . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3. Probabilidad Condicionada e Independencia . . . . . . . . . . . . . . . . . . . . . . 31
1
2.3.1. Probabilidad Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.2. Probabilidad Total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3.3. Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4. Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.1. Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.2. Variables Aleatorias Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4.3. Variables Aleatorias Continuas . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.4. Localizaci´ on y dispersi´ on de una variable aleatoria . . . . . . . . . . . . . . . 38
2.4.5. Casos especiales de distribuciones probabilidad . . . . . . . . . . . . . . . . . 40
2.4.6. Funciones de Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . 46
2.4.7. Aproximaci´on de distribuciones . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.5. Vectores Aleatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.5.1. Distribuci´on Conjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.5.2. Distribuciones Conjuntas Especiales . . . . . . . . . . . . . . . . . . . . . . . 52
2.5.3. Distribuci´on Marginal y Condicional . . . . . . . . . . . . . . . . . . . . . . 54
2.5.4. Esperanza y Varianza Condicional . . . . . . . . . . . . . . . . . . . . . . . . 56
2.6. Nociones de Convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3. Inferencia Estadistica 60
3.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2. Estimaci´ on Puntual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.2.1. M´etodo de Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.2.2. M´etodo de M´ axima Verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3. Insesgamiento y eficiencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.4. Estimaci´ on Intervalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.4.1. Intervalo de Confianza para la media . . . . . . . . . . . . . . . . . . . . . . 67
3.4.2. Intervalo de Confianza para una proporci´on . . . . . . . . . . . . . . . . . . 68
3.4.3. Intervalo de Confianza para la varianza . . . . . . . . . . . . . . . . . . . . . 68
3.4.4. Intervalo de Confianza para la diferencia de medias . . . . . . . . . . . . . . 69
3.4.5. Intervalo de Confianza para la comparaci´on de varianzas . . . . . . . . . . . 71
3.5. Pruebas de Hip´otesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.5.1. Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.5.2. Prueba de Hip´otesis para la media . . . . . . . . . . . . . . . . . . . . . . . 74
3.5.3. Prueba de Hip´otesis para la proporci´ on . . . . . . . . . . . . . . . . . . . . . 75
3.5.4. Prueba de Hip´otesis para la varianza . . . . . . . . . . . . . . . . . . . . . . 75
3.5.5. Prueba de Hip´otesis para la diferencia de medias . . . . . . . . . . . . . . . . 76
3.5.6. Prueba de Hip´otesis para la diferencia de proporciones . . . . . . . . . . . . 78
3.5.7. Prueba de Hip´otesis para la comparaci´on de varianzas . . . . . . . . . . . . . 78
2
Cap´ıtulo 1
Estad´ıstica Descriptiva
1.1. Introducci´ on
Por estad´ıstica entendemos los m´etodos cient´ıficos por medio de los cuales podemos recolectar,
organizar, resumir, presentar y analizar los datos num´ericos relativos a un conjunto de individuos u
observaciones y que nos permiten extraer conclusiones v´alidas y efectuar decisiones l´ogicas basadas
en dichos an´ alisis. Utilizamos la estad´ıstica para aquellos casos en los que tenemos una gran canti-
dad de observaciones y cuya aparici´ on se rigen s´olo por las leyes del azar o aleatorias.
1.1.1. Estad´ıstica Descriptiva e Inferencial
La estad´ıstica puede subdividirse en dos amplias ramas: la estad´ıstica inductiva o inferencial y
la estad´ıstica deductiva o descriptiva.
Estad´ıstica Inductiva o Inferencial
Entendemos por estad´ıstica inductiva si a partir de una m.a., suficientemente representativa del
universo, podemos inferir (inducir) conclusiones estad´ısticamente v´ alidas para todo el universo. Es-
to obliga a plantear simult´aneamente las condiciones bajo las cuales dichas conclusiones son v´ alidas.
Estad´ıstica Descriptiva o Deductiva
Entendemos por estad´ıstica descriptiva si al analizar una m.a., s´ olo se pueden obtener conclusio-
nes v´ alidas para la muestra, sin que se puedan o se requieran generalizar sus resultados para todo
el universo.
1.1.2. Etapas de una Investigaci´on Estad´ıstica
A´ un cuando los tipos de problemas a los cuales puede aplicarse la estad´ıstica matem´atica son
bastante heterog´eneos, en muchos casos los pasos de una investigaci´ on estad´ıstica son similares.
a) Formulaci´ on del problema. Para investigar con ´exito un problema dado, primero tenemos
que crear conceptos precisos, formular preguntas claras e imponer limitaciones adecuadas al
3
problema, tomando en cuenta el tiempo y dinero disponible y la habilidad de los investigadores.
Algunos conceptos tales como: Art´ıculo defectuoso, servicio satisfactorio a la clientela, observa-
ciones demogr´aficas, grados de pureza de un mineral, tipo de tr´afico, etc., pueden variar de
caso en caso, y en cada situaci´ on espec´ıfica, necesitamos coincidir en definiciones apropiadas
para los t´erminos que se incluyen.
b) Dise˜ no del experimento. Es deseable obtener un m´aximo de informaci´on empleando un
m´ınimo de costo y tiempo. Esto implica determinar el tama˜ no de la muestra o la cantidad y
tipo de datos.
c) Experimentaci´on o colecci´on de datos. En toda investigaci´on ´esta etapa es la que consume
m´ as tiempo.
´
Esta debe aplicarse con reglas estrictas y con pautas preestablecidas.
d) Tabulaci´on y descripci´ on de los resultados. Los datos experimentales se ilustran en
diagramas, gr´aficos, pictogramas, etc. Obteni´endose adem´ as, medidas descriptivas que repre-
senten el proceso efectuado.
e) Inferencia estad´ıstica y formulaci´on de la respuesta. Al aplicar el m´etodo estad´ıstico
seleccionado en la etapa b), podemos inferir conclusiones obtenidas de la muestra acerca de
la poblaci´on respectiva.
1.1.3. Conceptos B´asicos
Universo: Es el conjunto de todos los datos u observaciones de un suceso. El universo se desig-
na usualmente con la letra U. El universo puede ser finito, infinito contable e infinito no contable
(dependiendo del tipo de universo es el tipo de an´alisis del problema).
Poblaci´ on: Elementos del universo que tienen una caracter´ıstica com´ un y es la que tratamos
de estudiar.
Muestra Aleatoria (m.a.): Es un subconjunto de la poblaci´ on, donde sus elementos son
escogidos al azar (no existe relaci´on en la elecci´ on de los elementos).
4
1.2. Muestreo
1.2.1. Conceptos b´asicos
Marco Muestral: El Marco Muestral es el conjunto de unidades del cual se seleccionar´ a una
muestra.
Unidades de Muestreo: Las unidades del Marco Muestral se llaman Unidades de Muestreo.
Es importante notar que toda unidad de la poblaci´on debe estar asociada a una y s´ olo una unidad del
Marco Muestral. Esto nos permitir´ a dise˜ nar mecanismos de selecci´ on de la muestra de tal forma que
toda unidad de la poblaci´on se encontrar´a en, al menos, una de las posibles muestras seleccionadas
y en el caso del Muesteo Probabil´ıstico nos permitir´ a inducir una probabilidad de selecci´ on a cada
elemento de la poblaci´ on.
1.2.2. El Muestreo
El Muestreo es la disciplina que trata con el conjunto de m´etodos, t´ecnicas y procedimientos
para tomar u obtener una particular muestra a efectos de realizar inferencias inductivas a partir de
la misma. Existen dos grandes categor´ıas de muestreo: el Muestreo Probabil´ıstico y el Muestreo No
Probabil´ıstico.
En el Muestreo No Probabil´ıstico, pueden existir unidades de la poblaci´on que no pueden ser
seleccionadas en ninguna de las muestras posibles, o bien, aunque exista una probabilidad de selec-
ci´ on positiva para cada una de estas unidades de la Poblaci´on, esta probabilidad es desconocida.
Un ejemplo de este tipo de Muestreo No Probabil´ıstico es el Muestreo por Cuotas, muy utilizado
en los estudios de mercadeo y en algunas encuestas de opini´ on.
Con el Muestreo No Probabil´ıstico, en general, las observaciones para una muestra particular
se obtienen m´as r´ apidamente y a menor costo que en el Muestreo Probabil´ıstico. Por otra parte,
los errores “ajenos al muestreo” (errores en las operaciones de recolecci´on y procesamiento de
la informaci´ on), son m´ as f´ aciles de controlar cuando se utiliza Muestreo Probabil´ıstico. En todo
caso, s´ olo con el Muestreo Probabil´ıstico es posible obtener indicadores de confiabilidad del error
inferencial de cada estimaci´ on obtenida a trav´es de la muestra.
1.2.3. Muestreo Aleatorio Simple
Es un dise˜ no muestral bastante utilizado cuando se cuenta con una lista o directorio para usar
como Marco Muestral. Se distinguen dos casos de m.a.s.: Muestreo sin Reemplazo y Muestreo con
Reemplazo. De las N unidades de la poblaci´ on se selecciona “al azar” (igual probabilidad para cada
unidad) una unidad.
´
Esta se separa (sin reposici´ on) y de las N-1 restantes unidades de la poblaci´ on
se selecciona, tambi´en al azar, una segunda unidad. De las N-2 unidades restantes se vuelve a
seleccionar al azar una tercera unidad y as´ı sucesivamente hasta completar las n unidades de la
muestra.
5
1.2.4. Muestreo Estratificado
El Muestreo Estratificado se presenta cuando la Poblaci´ on se encuentra particionada en L gru-
pos y en todos y cada uno de estos grupos se aplica en forma independiente un dise˜ no muestral, no
necesariamente igual en todos ellos. En tal caso, los grupos de la partici´on se llaman Estratos y la
partici´ on de dice que es una Estratificaci´ on.
La Estratificaci´ on puede tener su origen en los propios objetivos del Estudio o en la intenci´ on de
contar con Estratos homog´eneos que pueden hacer m´ as eficiente el Dise˜ no Muestral.
Ejemplos de Estratificaciones en funci´ on de los objetivos del estudio son, por ejemplo, las di-
visiones pol´ıtico administrativas (los Estratos pueden ser Regiones, Provincias, Departamentos o
Distritos, etc.) en una Encuesta Nacional, Ramas de Actividad Econ´ omica en una Encuesta Indus-
trial; P´ ublico y Privado en una Encuesta sobre Educaci´on, etc.
Ejemplos de Estratos creados para obtener una mayor homogeneidad en cada uno de ellos son:
Empresas Grandes, Medianas, Peque˜ nas y Micro, en una Encuesta Industrial: Manzanas con hoga-
res de ingresos mayoritariamente altos, medios y bajos, etc.
6
1.3. Clasificaci´ on de variables
Hay que hacer notar que toda variable puede clasificarse en uno de los niveles de medici´ on, los
que se dar´ an en orden creciente en cuanto a la riqueza de los datos.
1.3.1. Nominales
La variable induce en la poblaci´ on una subdivisi´ on y los datos s e pueden clasificar en clases,
donde cada clase est´ a completamente definida y diferenciada de las dem´ as.
La recopilaci´ on se reduce a contar el n´ umero de individuos de la muestra que pertenecen a cada
clase.
1.3.2. Ordinales
En este nivel la variable de clasificaci´on tiene un orden impl´ıcito (admite grados de calidad u
ordenamiento) entre grupos o clases, esto significa que existe una relaci´ on de orden entre las clases.
No es posible cuantificar la diferencia entre los individuos pertenecientes a una misma clase.
1.3.3. Intervalares
La informaci´on obtenida en este caso es de tipo cuantitativo o num´erico y es posible agruparla
en intervalos. En este nivel se considera no s´olo la informaci´on perteneciente al orden, sino adem´ as,
el tama˜ no relativo de los intervalos a que pertenece cada uno de los individuos. En este nivel es
posible cuantificar la diferencia de dos individuos pertenecientes al mismo intervalo y tambi´en a
intervalos distintos. En esta escala est´a involucrado el concepto de unidad de distancia y la distancia
entre dos medidas puede ser expresada en funci´ on de esta unidad.
7
1.4. Organizaci´ on de la Informaci´on
Una colecci´on de datos tomados de un suceso (sometido a estudio) nada nos dice si no lo orde-
namos convenientemente para extraer as´ı la informaci´ on que se desea.
Los conceptos m´ as usuales se detallan a continuaci´ on:
a.- El n´ umero de clases o intervalos
Es una subdivisi´ on del rango en varios grupos o intervalos (se designa por la letra k),
N´ umero de clases = 1 + 3.3·log(n)
donde n es el n´ umero total de datos. Como el n´ umero de clases debe ser un n´ umero entero,
este se aproxima al entero superior, identific´andolo con la letra k.
Para valores de n menores a 20, el n´ umero de clases corresponde a k =

n.
b.- Intervalo o Clase
Una subdivisi´ on del rango en componentes (de acuerdo a la magnitud, atributos, etc.) se
llaman clases, categor´ıas, intervalos o celdas. Se designan por la letra C con un sub´ındice que
indica la clase a que pertenecen, por ejemplo C
1
, C
2
, . . . , C
k
.
c.- Ancho del Intervalo
El ancho de la clase es la diferencia entre el l´ımite superior e inferior de la clase. Se designa
por la letra . En general, el ancho de cada clase puede o no ser del mismo tama˜ no. En el caso
de que todos sean iguales el valor de se define como:
I =
R + 1
k
donde R = Dato mayor en la muestra - dato menor de la muestra
El valor de I se aproxima al entero superior (cuando los datos son enteros).
d.- Marca de la Clase
La marca de clase es el punto medio de la clase o intervalo. Se designa por las letras MC
i
(el
sub´ındice indica la clase a la que le corresponde).
e.- Frecuencia Absoluta
El n´ umero de datos que pertenecen a una clase se llama frecuencia absoluta de la clase. Se
designa por la letra n con un sub´ındice (que indica la clase a que pertenece) por ejemplo:
n
1
, n
2
, . . . , n
k
.
Nota: La suma de todas las frecuencias absolutas debe ser igual al n´ umero total de datos ”n”.
f.- Frecuencia Relativa
A la proporci´ on de datos que pertenecen a una clase con respecto al total se llama frecuencia
relativa. Se designa por la letra f con un sub´ındice (que indica la clase a que pertenece). Por
8
ejemplo: f
1
, f
2
, . . . , f
k
.
Notas:
i. La suma de todas las frecuencias relativas debe ser igual a 1.
ii. Frecuencia relativa = frecuencia absoluta/n´ umero total de datos =
n
i
n
g.- Frecuencia Absoluta Acumulada
El n´ umero de datos que estan desde la primera clase hasta la clase i-´esima, se llama frecuencia
absoluta acumulada de la clase i-´esima. Se designa por la letra N con un sub´ındice (que indica
la clase a que pertenece) por ejemplo: N
1
, N
2
, . . . , N
k
.
Nota:
N
1
= n
1
N
2
= n
1
+ n
2
= N
1
+ n
2
.
.
.
N
i
= n
1
+ n
2
+ . . . + n
i
= N
i−1
+ n
i
∀ i = 1, 2, . . . , k.
y debe verificarse que N
k
= n (n´ umero total de datos)
h.- Frecuencia Relativa Acumulada
El n´ umero de datos que estan desde la primera clase hasta la clase i-´esima con respecto al
total de datos, se llama frecuencia relativa acumulada de la clase i-´esima. Se designa por la
letra F con un sub´ındice (que indica la clase a que pertenece) por ejemplo: F
1
, F
2
, . . . , F
k
.
Nota:
F
1
= f
1
=
N
1
n
F
2
= f
1
+ f
2
= F
1
+ f
2
=
N
2
n
.
.
.
F
i
= f
1
+ f
2
+ . . . + f
i
= F
i−1
+ f
i
=
N
i
n
∀ i = 1, 2, . . . , k.
y debe verificarse que F
k
= 1.
Ejemplo 1.4.1 Las notas obtenidas en un certamen, en escala 1 a 7 fueron:
3, 5, 6, 3, 4, 4, 7, 2, 1, 2, 3, 3, 4, 4, 6, 2, 7, 5, 3, 4, 4, 1, 2, 2, 3, 5, 4, 6, 5, 5.
Lo que se puede tabular como:
9
Clase Nota n
i
f
i
N
i
F
i
C
1
1 2 0.067 2 0.067
C
2
2 5 0.167 7 0.233
C
3
3 6 0.200 13 0.233
C
4
4 7 0.233 20 0.667
C
5
5 5 0.167 25 0.833
C
6
6 3 0.100 28 0.933
C
7
7 2 0.067 30 1
Suma 30 1
Ejercicios 1 En una empresa se considera la siguiente muestra correspondiente a la resistencia de
50 lotes de algod´on medidas en libras necesarias hasta romper una madeja.
74 87 99 88 90 101 91 83 97 94
105 110 99 94 104 97 90 88 89 90
79 105 96 93 93 90 91 102 94 106
101 96 97 103 108 90 102 91 76 109
110 94 101 97 106 86 88 97 107 107
1. Encuentre el n´ umero de clases y el rango de la muestra
2. Determine la amplitud de la clase
3. Construya un cuadro resumen indicando intervalos, marca de clase, frecuencias absoluta, re-
lativa, absoluta acumulada y relativa acumulada.
4. Grafique las frecuencias absolutas. Comente.
10
1.5. Medidas de Tendencia Central y Dispersi´on
1.5.1. Medidas de Tendencia Central
La idea es resumir los datos en un solo valor; un valor que represente a todo un conjunto
de datos, ´este tiene que ser un n´ umero o una clase hacia el cual tienen tendencia a concentrarse
mayoritariamente el conjunto de datos, usualmente este se ubica en las clases m´ as o menos centrales,
o sea, que es un valor central o de posici´on central a cuyo alrededor se distribuyen todos los datos
del conjunto, de all´ı el nombre de Medidas de Tendencia Central (M.T.C.). Las m´as comunes son
la mediana, moda, media o promedio, media geom´etrica, etc.
Estas y otras medidas nos sirven para resumir la informaci´on presentada en cuadros y poder
relacionar y comparar entre s´ı, de una manera sencilla, un conjunto de distribuciones de frecuencias.
Una vez determinadas las Medidas de Tendencia Central de una distribuci´on, nos interesa de-
terminar c´omo se reparten (dispersan, desv´ıan) los datos a uno y otro lado de la medida central. 0
sea, es necesario cuantificar la representatividad de la medida de tendencia para poder caracterizar
la distribuci´ on. Si la dispersi´ on es peque˜ na indica gran uniformidad y la informaci´ on tiende a con-
centrarse en torno a la medida central, por el contrario, una gran dispersi´on indica que los datos
est´ an alejados de ella.
Las medidas de dispersi´on m´as usuales son: desviaci´on media, desviaci´ on t´ıpica o est´ andar,
rango, rango semi-intercuart´ılico, rango percentil, etc.
1.5.2. Medidas de tendencia central, posici´ on y dispersi´ on.
a. Media
La medida central m´ as representativa es la media o promedio. Como tales valores tienden a
situarse en el centro del conjunto de los datos ordenados seg´ un su magnitud, los promedios se
conocen tambi´en como medidas de centralizaci´on.
La media aritm´etica o media de un conjunto de n n´ umeros X
1
, X
2
, . . . , X
n
se denota por X
y se define como
X =
1
n
n
¸
i=1
X
i
para datos no agrupados. Si los datos est´ an ordenados en una tabla (datos agrupados) en
las que se conocen las respectivas marcas de clase MC
i
, y ellas se presentan con frecuencias
absolutas n
i
, la media aritm´etica es:
X =
1
n
k
¸
i=1
n
i
MC
i
11
b. Moda
La moda cruda de una serie de n´ umeros es aquel que se presenta con la mayor frecuencia, es
decir, es el valor m´ as com´ un.
Una distribuci´on que tiene una sola moda se llama unimodal (caso m´ as usual). Es posible
encontrar variables bimodales, trimodales, etc.
Para datos agrupados, la moda puede obtenerse mediante el n´ umero dado por:
Moda = l
mo
+

1

1
+ ∆
2
I
donde:
m
o
= clase modal (clase con mayor frecuencia absoluta)
l
mo
= l´ımite inferior del intervalo de la clase modal

1
= n
mo
- n

mo

2
= n
mo
- n
+
mo
n
mo
= es la frecuencia de la clase modal
n
+
mo
= es la frecuencia de la clase posterior a la clase modal
n

mo
= es la frecuencia de la clase anterior a la clase modal
I = ancho del intervalo de la clase modal.
Propiedades de la Moda:
- Puede no existir y cuando existe no es necesariamente ´ unica.
- No se ve afectada por valores extremos.
c. Mediana
Es el valor de la variable que ocupa la posici´on central , en un conjunto de datos ordenados.
Si el n´ umero de observaciones es impar, es la observaci´ on central de los valores, una vez que
´estos han sido ordenados en orden creciente o decreciente. Si el n´ umero de las observaciones
es par, se calcula como el promedio de las dos observaciones centrales.
Propiedades de la Mediana:
- La mediana en un conjunto de datos es ´ unica
- No es sensible a la presencia de datos extremos
- En un conjunto de datos, la mitad de ellos son iguales o menores que la mediana, y la otra
mitad, iguales o mayores que la mediana.
Para datos agrupados, el n´ umero mediana viene dada por:
M
e
= l
Me
+
n
2
−N

Me
n
Me
I
donde:
l
Me
= l´ımite inferior del intervalo de la clase mediana
n = n´ umero total de datos
12
N
Me
= frecuencia absoluta acumulada hasta la clase anterior a la clase mediana
n
Me
= es la frecuencia de la clase mediana
I = ancho del intervalo de la clase mediana.
d. Percentiles
El percentil q es un valor de la variable tal que el q % de los datos es menor que ´el y, por lo
tanto, el (1-q) % es mayor. Son una medida de posici´on que no reflejan la tendencia central.
Si X
1
, X
2
, . . . , X
n
es una secuencia ordenada de datos, el percentil q se encuentra en la posici´ on
q(n + 1)
100
Para datos agrupados, nos referimos a la clase en el cual se encuentra al menos el q % de los
datos, digamos C
p
, por lo que
P
q
= l
p
+
n · q/100 −N

p
n
p
· I
p
donde:
l
p
= l´ımite inferior de la clase a la cual pertenece el percentil q
I = ancho del intervalo C
p
.
e. Varianza
Es una constante que representa dispersi´ on media de una variable aleatoria X , respecto a su
valor medio. Puede interpretarse como medida de “variabilidad” de la variable.
Se define la varianza de una serie de observaciones X
1
, . . . , X
n
como
s
2
=
1
n
n
¸
i=1
(X
i
−X)
2
o equivalentemente
s
2
=
1
n
n
¸
i=1
X
2
i
−X
2
La varianza para datos agrupados con sus respectivas frecuencias absolutas n
i
, y las marcas
de clase MC
i
, se representa por:
s
2
=
1
n
k
¸
i=1
n
i
(MC
i
−X)
2
o equivalentemente
s
2
=
1
n
k
¸
i=1
n
i
MC
2
i
−X
2
En ambos casos, se define la desviaci´on est´andar como s =

s
2
, tmabi´en una medida de
dispersi´ on de los datos respecto de la media.
13
Ejemplo 1.5.1 Considere los datos de consumo de enrg´ıa el´ectrica de 80 usuarios:
Consumo (Kwh) N
o
de usuarios
5 - 25 4
25 - 45 6
45 - 65 14
65 - 85 26
85 - 105 14
105 - 125 8
125 - 145 6
145 - 165 2
Total 80
a.- Construya un histograma de la variable consumo
b.- Determine la media y mediana de la variable consumo.
c.- Calcule el percentil 25 y 75 para la variable consumo.
d.- Calcule la varianza de la variable consumo.
e.- ¿Qu´e porcentaje de usuarios consumen m´as de 100 Kwh?
f.- ¿Qu´e porcentaje de los usuarios consume entre 50 y 150 Kwh?
14
1.6. Estad´ısitica Bivariada
Ahora, supongamos que queremos estudiar el comportamiento de la variable de clasificaci´on
bidimensional (X, Y ), asociada a dos variables de clasificaci´on unidimensionales X e Y , respectiva-
mente, en una muestra de tama˜ no n de la poblaci´on. Entonces dividimos la muestra en r clases A
i
,
seg´ un la variable X, y en s clases B
j
, seg´ un Y .
Llamamos n
ij
al n´ umero de elementos de la muestra que pertenecen simult´ aneamente a la clase
A
i
y la clase B
j
. Podemos luego considerar una clase o modalidad A
i
B
j
formada por elementos de
la muestra que pertenecen simult´aneamente a A
i
y a B
j
. Se observa que hay r · s modalidades A
i
B
j
.
1.6.1. Frecuencia Absoluta y Frecuencia Relativa
Definiciones de inter´es:
n
ij
: frecuencia absoluta del n´ umero de elementos pertenecientes a A
i
∩ B
j
f
ij
: frecuencia relativa del n´ umero de elementos en A
i
∩ B
j
con respecto al total n, donde
f
ij
=
n
ij
n
, ∀ i = 1, . . . , r; ∀ j = 1, . . . , s
1.6.2. Tablas de Contingencia
Cuadro de doble entrada donde se puede resumir la informaci´ on acerca de las frecuencias, ya
sean absolutas o relativas, como se muestra a continuaci´on:
Y
B
1
B
2
. . . B
s
X A
1
n
11
n
12
. . . n
1s
n
1+
A
2
n
21
n
22
. . . n
2s
n
2+
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A
r
n
r1
n
r2
. . . n
rs
n
r+
n
+1
n
+2
. . . n
+s
n
1.6.3. Distribuciones Marginales
n
i+
: es el n´ umero de elementos de la muestra que pertenecen a la clase A
i
, sin importar la clase
B
j
a la que est´en asociados (suma de los valores de la fila i-´esima de la tabla de contingencia de
frecuencias)
n
i+
=
s
¸
j=1
n
ij
, ∀ i = 1, . . . , r
n
+j
: es el n´ umero de elementos de la muestra que pertenecen a la clase B
j
seg´ un Y, sin importar
la clase A
i
a la que est´en asociados (suma de los valores de la columna j-´esima de la tabla de
contin-gencia de frecuencias)
n
+j
=
r
¸
i=1
n
ij
, ∀ j = 1, . . . , s
15
f
i+
: frecuencia relativa de las clases A
i
sin importar las clases B
j
.
f
i+
=
n
i+
n
, ∀ i = 1, . . . , r
f
+j
: frecuencia relativa de las clases B
j
sin importar las clases A
i
.
f
+j
=
n
+j
n
, ∀ j = 1, . . . , s
1.6.4. Distribuciones Condicionales
La distribuci´on condicional consiste en estudiar las frecuencias asociadas a las clases de una
variable cuando nos restringimos a los elementos de una clase dada seg´ un la otra variable, esto es,
estudiar el comportamiento de una variable dado un valor fijo de la otra. Para calcular la proporci´on
de individuos muestrales que seg´ un Y caen en B, conociendo que seg´ un X ya pertenec´ıan a A, se
debe evaluar:
f
B/A
=
n
B/A
n
donde f
B/A
es la frecuencia relativa condicional del subconjunto B de Y dado que X pertenece
al subconjunto A.
La distribuci´on de X condicionada a Y se define como
f
i/j
=
f
i/j
f
+j
=
n
ij
n
+j
∀ i = 1, . . . , r
y
r
¸
i=1
f
i/j
= 1
La distribuci´on de Y condicionada a X se define como
f
j/i
=
f
j/i
f
i+
=
n
ij
n
i+
∀ j = 1, . . . , s
y
s
¸
j=1
f
j/i
= 1
Ejemplo 1.6.1 Sea X la edad e Y la categor´ıa correspondiente al puesto de trabajo. Dada la
siguiente tabla de contingencia, calcular la distribuci´on condicional de Y, dado que X es 25-30 y
35-45.
X\Y I II III n
i+
15-20 20 20 5 45
20-25 15 12 8 35
25-30 10 15 10 35
30-35 5 20 25 50
35-40 5 10 30 45
n
+j
55 77 78 210
16
1.6.5. Independencia
Dada una informaci´on en una Tabla de Contingencia, se dice que las variables X e Y son
independientes, s´ı y solo s´ı, la frecuencia relativa conjunta es igual al producto de las frecuencias
relativas marginales.
f
ij
= f
i+
· f
+j
∀i = 1, . . . , r ∀ j = 1, . . . , s
Si las variables X e Y no son independientes entre s´ı, se dice que existe una asociaci´ on entre
ellas. De modo que el conocimiento de una de las variables presente alguna informaci´ on respecto de
la otra. Nuestro objetivo es medir de alguna forma ´esta relaci´ on existente y poder adem´as describir
de que forma (lineal, exponencial, potencial, etc.) est´an relacionadas.
1.6.6. Asociaci´on, Dependencia o Correlaci´ on
En estad´ıstica Descriptiva se dice que dos variables cuantitativas “est´ an asociadas”, “son depen-
dientes”, o “est´ an correlacionadas” si cuando se aumentan los valores de una variable, los valores
de la otra tienden a:
i) o bien a aumentar (y se dice que la asociaci´ on dependencia es directa o que la correlaci´on es
positiva)
ii) o bien a disminuir (y se dice que la asociaci´on o dependencia es inversa o que la correlaci´ on
es negativa)
Cuando no se presenta esta tendencia se dice que las variables no est´ an asociadas o no son depen-
dientes o no est´ an correlacionadas.
La asociaci´ on, correlaci´on o dependencia en Estad´ıstica Descriptiva, no implica relaci´ on causa-
efecto. En otras palabras, si cuando una variable aumenta la otra tiende a aumentar (o a disminuir)
no es posible afirmar que esta ´ ultima aumenta (o disminuye) PORQUE la primera variable aumenta.
Indicadores de Asociaci´on: Covarianza
La covarianza entre dos variables, X e Y est´a dada por:
cov(X, Y ) =
n
¸
i=1
(x
i
− ¯ x)(y
i
− ¯ y)
n
o equvalentemente
cov(X, Y ) =
1
n
n
¸
i=1
x
i
y
i
− ¯ x¯ y
La covarianza es una medida de asociaci´ on lineal, pero tiene la desventaja que su interpretaci´on
depende de las unidades de medici´ on.
Si cov(X,Y)> 0, la asociaci´ on es directa o positiva.
Si cov(X,Y)< 0, la asociaci´ on es inversa o negativa.
Si cov(X,Y)≈ 0, no hay asociaci´ on lineal.
17
Indicadores de Asociaci´on: Correlaci´ on
La correlaci´on lineal entre dos variables se define como
corr(X, Y ) =
n
¸
i=1
(x
i
− ¯ x)(y
i
− ¯ y)

n
¸
i=1
(x
i
− ¯ x)
2
n
¸
i=1
(y
i
− ¯ y)
2
Si corr(X, Y ) = 1, la correlaci´ on es la m´axima correlaci´ on positiva o directa.
Si corr(X, Y ) = −1, la correlaci´ on es la m´ axima correlaci´on negativa o inversa.
Si corr(X, Y ) ≈ 0, no existe correlaci´ on o dependencia.
Una f´ormula alternativa para calcular correlaci´ on es
corr(X, Y ) =
s
XY
s
X
s
Y
donde s
X
y s
Y
son las desviaciones est´andar de X e Y , respectivamente, y donde s
XY
es la covarianza
entre X e Y .
Otra f´ormula alternativa es
corr(X, Y ) =
¸
x
i
y
i

¸
x
i

¸
y
i

/n

¸
x
2
i

¸
x
i

2
/n

¸
y
2
i

¸
y
i

2
/n
Si bien no existe una regla general para decir si una correlaci´ on es alta media o baja, en este
curso podemos adoptar el siguiente criterio:
18
Ejemplo 1.6.2 .
1. Consideremos los siguientes datos, donde X indica la temperatura media diaria en grados
Farenheit e Y , el consumo diario correspondiente de gas natural en pies c´ ubicos.
X,F

50 45 40 38 32 40 55
Y,ft
3
2.5 5.0 6.2 7.4 8.3 4.7 1.8
Realice un diagrama de dispersi´on y calcule el coeficiente de correlaci´on ρ
X,Y
, si adem´as cuenta
con las siguientes medidas de resumen:
¸
x
i
= 300;
¸
y
i
= 35,9;
¸
x
2
i
= 13218;
¸
y
2
i
= 218,67;
¸
x
i
y
i
= 1431,8
2. Considere los siguientes datos donde X, representa el n´ umero de sucursales que 10 bancos di-
ferentes tienen en un ´area metropolitana, e Y es la correspondiente cuota del total de dep´ositos
mantenidos por los bancos.
X 198 186 116 89 120 109 28 58 34 31
Y 22.7 16.6 15.9 12.5 10.2 6.8 6.8 4.0 2.7 2.8
a) Construya un diagrama de dispersi´on entre X e Y.
b) Calcule covarianza y correlaci´on.
19
1.6.7. Ajuste de Curvas
En el problema de ajuste a curvas se desea que dado un par de variables (X, Y ) encontrar una
curva que se ajuste de la mejor manera a los datos. La curva est´ a definida en forma param´etrica, y se
deben encontrar los valores de sus par´ametros para hacer que alguna medida de error se minimice.
Regresi´on Lineal Simple
Con la regresi´ on lineal simple se pretende ir m´ as all´ a de ver la asociaci´ on entre dos variables.
En concreto se quiere:
(i) Investigar la naturaleza de la asociaci´ on.
(ii) Construir un modelo que describa la relaci´on entre ambas variables.
(iii) Predecir
Supongamos que un diagrama de dispersi´ on de los datos de los puntos (x
i
, y
i
) indica una relaci´on
lineal entre las variables X eY o, alternativamente, que el coeficiente de correlaci´ on es cercano a 1
o -1. Entonces el siguiente paso es encontrar la recta L que en lag´ unsentido ajuste los datos.
En general, el modelo de regresi´ on lineal simple lo podemos plantear como la recta :
y
i
= a + bx
i
, i = 1, . . . , n. (1.1)
donde
y
i
: es la variable respuesta o dependiente para el individuo i;
x
i
: es la variable explicativa o independiente para el individuo i,
a : representa el intercepto con el eje Y, y se interpreta como el valor que toma y cuando x=0.
b : representa la pendiente de la recta, y se interpreta como la cantidad que aumenta(disminuye) y
cuando x aumenta(disminuye) en una unidad.
La pendiente y el intercepto pueden calcularse de la siguiente manera:
b =
rs
y
s
x
=
cov(X, Y )
s
2
X
y a = ¯ y −b¯ x
Ejemplo 1.6.3 Considere los datos de los ejemplo 6.2 y 6.3, y encuentre la recta que se ajusta a
los datos.
Algunas veces el diagrama de puntos no indica una relaci´ on lineal entre las variables X e Y pero
se podr´ a observar alguna otra curva t´ıpica y bien conocida Y = f(X) que puede aproximar los datos;
se le llama curva de aproximaci´on. Algunas de esas curvas t´ıpicas son las siguientes analizamos la
relaci´ on entres X e Y y determinamos que esta no se ajusta auna recta podemos analizar, entre
otros, los dos siguientes casos:
20
Ajuste Exponencial
Si entre log(y) y x observamos una relaci´ on lineal, usaremos la curva exponencial:
y
i
= ae
bx
i
, i = 1, . . . , n.
Este ajuste se puede reducir a una regresi´ on lineal de la siguiente forma
log(y
i
) = a

+ b

x
i
, i = 1, . . . , n.
donde
a

=log(a)
b

=b
Ajuste Polinomial
En este caso lo que hacemos es ajustar la relaci´on entre x e y a trav´es de un polinomio de grado
p:
y
i
= β
0
+ β
1
x
i
+ β
2
x
2
i
+ β
3
x
3
i
, . . . , β
p
x
p
i
i = 1, . . . , n.
Al incluir potencias de X logramos mayor flexibilidad en el modelo.
Si p=1, estamos en el caso de regresi´ on lineal.
Si p=2, la regresi´ on se llama cuadr´ atica.
Otros Ajustes
Hip´erbola
Si entre 1/y y x observamos un relaci´ on lineal usaremos la hiperbola:
y =
1
a + bx
o
1
y
= a + bx
Curva Geom´etrica
Si entre log(y) y log(x) observamos una relaci´on lineal usaremos la curva potencial:
y = ax
b
o log(y) = log(a) + b · log(x)
21
Cap´ıtulo 2
Probabilidades
2.1. Introducci´ on
Uno de los problemas que deberemos considerar e intentar evaluar, es el elemento de aleatoriedad
que se asocia a la ocurrencia de ciertos eventos cuando se lleva a cabo un experimento. En muchos
casos debe tenerse la capacidad de resolver un problema de probabilidad mediante el conteo del
n´ umero de casos posibles sin realmente anotar cada uno de ellos.
Teorema 2.1.1 Si una operaci´on puede realizarse de n
1
formas, y si por cada una de ´estas una
segunda operaci´on puede llevarse a cabo de n
2
formas, entonces las dos operaciones pueden realizarse
juntas de n
1
n
2
formas.
Ejemplo 2.1.1 ¿Cu´antos son los resultados posibles cuando se lanza un dado dos veces?
Teorema 2.1.2 (Principio Multiplicativo) Si una operaci´on puede realizarse de n
1
formas, y
si por cada una de ´estas puede efectuarse una segunda en n
2
formas, y para cada una de las dos
primeras se puede efectuar una tercera de n
3
formas, y as´ı sucesivamente, entonces la secuencia de
k operaciones pueden realizarse de n
1
n
2
. . . n
k
formas.
Ejemplo 2.1.2 ¿Cu´antos men´ us que consisten de sopa, postre y bebida existen si se puede selec-
cionar entre 4 sopas diferentes, 5 clases de postres y 4 bebidas?
Ejemplo 2.1.3 ¿Cu´antos n´ umeros pares de tres d´ıgitos pueden formarse con los d´ıgitos 1, 2, 5, 6
y 9?
22
Con frecuencia interesa un conjunto que contiene como elementos todos los posibles ´ ordenes o
arreglos de un grupo de objetos. Por ejemplo, se puede desear conocer cu´ antos arreglos diferentes
son posibles para sentar a 6 personas alrededor de una mesa, o bien, cu´ antas formas diferentes
exiten de tomar 5 ramos de un total de 8.
Definici´ on 2.1.1 Una permutaci´on es un arreglo de todos, o parte de, un conjunto de objetos.
Consid´erense las tres letras a, b y c. Las permutaciones posibles son abc, acb, bca, cab, bac y
cba. Se puede ver que hay 6 distintos arreglos. Con el principio multiplicativo se pueded llegar a
que la respuesta es 6 sin escribir todas las posibles combinaciones. Hay n
1
= 3 posibilidades para la
primera posici´on, despu´es n
2
= 2 para la segunda y unicamente n
3
= 1 posibilidades para la ´ ultima,
lo que da un total de n
1
n
2
n
3
= 3 · 2 · 1 = 6 permutaciones.
En general, se pueden acomodar n objetos distintos en n · (n − 1) · (n − 2) · . . . · (3) · (2) · (1)
formas. Este producto se representa por el s´ımbolo n!, que se lee “n factorial”. Por definici´ on, 1! =
1 y 0! = 1.
Teorema 2.1.3 El n´ umero de permutaciones de n distintos objetos es n!
El n´ umero de permutaciones de las cuatro letras a, b, c y d ser´ a de 4! = 24. Consid´erese ahora
el n´ umero posible de ellas al tomar las cuatro letras, pero de dos a la vez. Ser´ıan ab, ad, ac, ba, ca,
bc, cb, bd, db, cd, dc. De una nueva cuenta con el Teorema 7.1, se tiene dos posiciones para llenar
con laa n
1
= 4 posibilidades para la primera y, por lo tanto, n
2
= 3 posibilidades para la segunda,
para un total de n
1
n
2
= 4 · 3 = 12 permutaciones. En general, n objetos distintos, si se toman r a
la vez, pueden acomodarse en n · (n −1) · (n2) · · · (n −r + 1) formas.
Teorema 2.1.4 El n´ umero de permutaciones de n objetos distintos tomando r a la vez, es:
n
P
r
=
n!
(n −r)!
Ejemplo 2.1.4 ¿De cu´antas maneras se puede programar 3 ayudant´ıas en 3 distintos horarios, si
los alumnos tienen 5 m´odulos disponibles?
Las permutaciones que se dan al acomodar objetos en un c´ırculo se llaman permutaciones
circulares. Dos de ´estas no se consideran diferentes a menos que a los objetos correspondientes en
los dos arreglos les preceda o les siga un objeto diferente al avanzar en el sentido de las manecillas
del reloj. Por ejemplo, si 4 personas juegan a las cartas, no se tiene una nueva permutaci´ on si todas
se mueven una posici´on en esa direcci´on. Al considerar a una en un lugar fijo y acomodar a las otras
tre en 3! formas diferentes, se encuentra que hay 6 acomodos dsitintos para el juego de cartas.
Teorema 2.1.5 El n´ umero de permutaciones de n objetos distintos agregados en un c´ırculo es
(n-1)!
Hasta ahora se han considerado permutaciones de objetos diferentes. Esto es, todos los objetos
eran distintos o totalmente distinguibles. Si consideramos la palabra OSO, entonces las 6 permuta-
ciones de las letras de esta palabra son O
1
SO
2
, O
1
O
2
S, SO
1
O
2
, O
2
SO
1
, O
2
O
1
S, SO
2
O
1
, por lo que
´ unicamente tres son distintas. Por lo tanto, con tres letras, siendo dos iguales, se tienen 3!/2! = 3
diferentes permutaciones.
23
Teorema 2.1.6 El n´ umero de permutaciones diferentes de n objetos de los cuales n
1
son de un
tipo, n
2
son de un tipo, . . ., n
k
de un k- ´esimo tipo, es:
n!
n
1
!n
2
! · · · n
k
!
Ejemplo 2.1.5 ¿De cu´antas formas diferentes pueden acomodarse 3 ampolletas rojas, 4 amarillas
y 2 azules en un panel con 9 espacio para 9 luces?
Con frecuencia interesa el n´ umero de formas en que se pueden repartir n objetos en r subconjun-
tos llamados celdas. La partici´ on se logra si la intersecci´on de cada par posible de r subconjuntos
es el conjunto vac´ıo y si la uni´ on de todos los subconjuntos da como resultado el conjunto original.
No importa el orden de los objetos dentro de una celda.
Teorema 2.1.7 El n´ umero de formas de partir un conjunto de n objetos en r celdas con n
1
ele-
mentos en la primera celda, n
2
elementos en la segunda, y as´ı sucesivamente, es:

n
n
1
n
2
· · · n
r

=
n!
n
1
!n
2
! · · · n
r
!
donde n
1
+ n
2
+· · · + n
r
= n
Ejemplo 2.1.6 ¿De cu´antas formas distintas pueden 7 cient´ıficos acomodarse en un laboratorio
para tres personas y dos laboratorios para dos personas?
En muchos problemas interesa el n´ umero de formas posibles de seleccionar r objetos de un
total de n sin importar el orden. Estas selecciones se llaman combinaciones. Una combinaci´ on es
realmente una partici´ on en dos celdas, una de las cuales contiene los r objetos que se seleccionaron
y la otra, los (n −r) objetos restantes.
Teorema 2.1.8 El n´ umero de combinacioines de n objetos distintos, tomando r a la vez es

n
r

=
n!
r!(n −r)!
Ejemplo 2.1.7 Encuentre el n´ umero de comit´es que pueden formarse con 4 qu´ımicos y 3 f´ısicos y
que comprendan 2 qu´ımicos y 1 f´ısico.
Ejercicios 2 .
1. A los participantes de una convenci´on se les ofrecen 6 recorridos por d´ıa para visitar lugares
de inter´es durante los 3 d´ıas de duraci´on del evento. ¿De cu´antas formas puede una persona
acomodarse para hacer alguno de ellos?
2. Si un experimento consiste en lanzar un dado y despu´es seleccionar aleatoriamente una letra
del alfabeto, ¿cu´ales son los posibles resultados?
3. ¿De cu´antas formas pueden plantarse, a lo largo de la l´ınea divisoria de una propiedad, 3
robles, 4 pinos y 2 arces, si uno no distingue entre los ´arboles de la misma clase?
24
2.2. Modelo de Probabilidad
En el estudio de la estad´ıstica interesa, b´ asicamente, la presentaci´ on e interpretaci´ on de resul-
tados aleatorios que se dan en un estudio planeado o en una investigaci´ on cient´ıfica. Por ejemplo,
es posible registrar el n´ umero de accidentes que ocurren mensualmente en una determinada inter-
secci´ on de calles, con el prop´osito de justificar la instalci´ on de un sem´aforo; clasificar los art´ıculos
que salen de una l´ınea de ensamble como “defectuosos” o “no defectuosos”; o bien, tener inter´es en
conocer el volumen de gas que se libera durante una reacci´ on qu´ımica cuando la concentraci´on de
un ´ acido var´ıa. De aqu´ı que se manejen datos experimentales, que representan conteos o mediciones,
o tal vez datos categ´ oricos que puedan clasificarse de acuerdo con alg´ un criterio.
Necesitamos entonces una forma matem´ atica para cuantificar la incertidumbre.
Utilizaremos la palabra experimento, E, para describir cualquier proceso que genere un conjun-
to de datos. Un ejemplo muy simple de un experimento consiste en el lanzamiento de una moneda
la aire. En este caso s´ olo existen dos resultados posibles: cara o sello. Otro experimento podr´ıa
ser el lanzamiento de un proyectil y la observaci´ on de su velocidad en un per´ıodo de tiempo. Las
opiniones de los votantes respecto de un candidato a alcalde tambi´en pueden considerarse como
observaciones de un experimento. Aqu´ı interesan particularmente las observaciones que se obtienen
en la repetici´on de un experimento. En la mayor parte de los casos los resultados depender´ an del
azar y, por lo tanto, no pueden pronosticarse con certidumbre. Si un qu´ımico realiza varias veces
un an´alisis bajo las mismas condiciones y obtiene diferentes mediciones, ello indica la existencia
de un elemento de aleatoriedad en el procedimiento experimental. Incluso cuando una moneda se
lanza al azar repetidamente, no es posible garantizar que en un lanzamiento dado se obtendr´a co-
mo resultado una cara. No obstante, s´ı se conoce el conjunto completo de posibilidades para cada
lanzamiento.
2.2.1. Espacio Muestral
Definici´ on 2.2.1 Al conjunto de todos los resultados posibles de un experimento estad´ıstico se le
llama espacio muestral y se representa por la letra S.
A cada resultado en un espacio muestral se le llama elemento del espacio muestral o simple-
mente punto muestral.
Ejemplo 2.2.1 Determine el espacio muestral del siguiente experimento: se lanza una moneda y
si sale cara, se lanza un dado; si sale sello, se vuelve a lanzar.
2.2.2. Eventos
Definici´ on 2.2.2 Un evento A, respecto a un espacio muestral S, asociado a un experimento E,es
un subconjunto de resultados posibles.
Es claro que S en s´ı mismo es un evento y tambi´en lo es el conjunto vac´ıo. Cualquier resultado
individual tambi´en puede considerarse como un evento.
25
Definici´ on 2.2.3 El complemento de un evento A con respecto a S es el conjunto de todos los
elementos de S que no est´an en A, es decir, es el suceso que se da si A no ocurre. Denotamos el
complemento de A por el s´ımbolo A
c
, tambi´en escrito
¯
A.
Definici´ on 2.2.4 La intersecci´on de dos eventos A y B, A∩B, es el evento que contiene a todos
los elementos comunes a A y a B, es decir, es el evento que ocurre si A y B ocurren.
Definici´ on 2.2.5 Dos eventos A y B son mutuamente excluyentes o disjuntos si A∩B = ∅,
esto es, si A y B no tienen elemento comunes.
Definici´ on 2.2.6 La uni´on de los dos eventos A y B, A∪B es el evento que contiene a todos los
elementos que pertenecen a A, o a B o a ambos.
Ejemplo 2.2.2 Sea el experimento
E: lanzar un dado y observar el n´ umero que sale,
y sean los eventos:
A: sale un n´ umero par,
B: sale un n´ umero impar,
C: sale un n´ umero primo.
Determinar el espacio muestral y los elementos de los siguientes conjuntos:
a) A ∪ C
b) B ∩ C
c) C
c
Definici´ on 2.2.7 Sea A la clase de eventos (aleatorios) de S. A es un σ- ´ algebra de subconjuntos
de S (no vac´ıo) si:
i) S ∈ A
ii) A ∈ A → A
c
∈ A
iii) A
1
, A
2
, . . . ∈ A →
¸

i=1
A
i
∈ A
Nota: (S,A) se llama espacio medible.
Ejercicios 3 Demuestre las siguientes propiedades:
i) ∅ ∈ A
ii) A
1
, A
2
, . . . , A
n
∈ A →
¸
n
i=1
A
i
∈ A,
¸
n
i=1
A
i
∈ A
iii) A
1
, A
2
, . . . ∈ A →
¸

i=1
A
i
∈ A
26
2.2.3. Medida de Probabilidad
Finalmente, dado un σ- ´ algebra A de eventos de S, para concretar nuestro modelo debemos
introducir una medida de probabilidad sobre (S,A).
Definici´ on 2.2.8 Una medida de probabilidad P sobre (S,A) es una funci´on
P : A →[0, 1]
tal que cumple con los siguientes tres axiomas de Kolmogorov:
A1 P(A) > 0 ∀ A ∈ A
A2 P(S) = 1
A3 Si A
1
, A
2
, . . . ∈ A son disjuntos dos a dos, entonces
P


¸
i=1
A
i

=

¸
i=1
P(A
i
)
(S, A, P)se llama modelo de probabilidad.
Lema 1 Sea (S, A, P) un modelo de probabilidad. Entonces valen las siguientes propiedades:
a) P(∅) = 0
b) Si A
1
, . . . , A
n
∈ A son disjuntos dos a dos, entonces
P

n
¸
i=1
A
i

=
n
¸
i=1
P(A
i
)
Propiedades de P
Dado un modelo de probabilidad (S, A, P) se desprende de A1, A2 y A3 que:
P1) P(A
c
) = 1 −P(A)
P2) A ⊆ B →P(A) ≤ P(B)
P3) P(A ∪ B) = P(A) +P(B) −P(A ∩ B)
P4) P(
¸

i=1
A
i
) ≤
¸

i=1
P(A
i
)
Ejercicios 4 .
1. Un espacio muestral S se compone de cuatro elementos, es decir, S = {a
1
, a
2
, a
3
, a
4
}. ¿Bajo
cu´ales de las siguientes funciones S llega a ser un espacio probabil´ıstico?
a)
P(a
1
) = 1/2 P(a
2
) = 1/3 P(a
3
) = 1/4 P(a
4
) = 1/5
27
b)
P(a
1
) = 1/2 P(a
2
) = 1/4 P(a
3
) = 1/4 P(a
4
) = 1/2
c)
P(a
1
) = 1/2 P(a
2
) = 1/4 P(a
3
) = 1/8 P(a
4
) = 1/8
d)
P(a
1
) = 1/2 P(a
2
) = −1/4 P(a
3
) = 1/4 P(a
4
) = 0
2. Sean tres sucesos A, B y C. Encuentre expresiones para los siguientes sucesos en lenguaje de
conjuntos.
a) S´olo ocurre A.
b) Ocurren tanto B como C, pero no as´ı A.
c) Los tres sucesos ocurren.
d) Ninguno de los tres sucesos ocurre.
e) A lo m´as dos de ellos ocurren.
f) Al menos dos de los sucesos ocurren.
g) Al menos uno de los sucesos ocurre.
h) Exactamente dos de ellos ocurren.
28
2.2.4. Espacios Probabil´ısticos Finitos
Consideremos un espacio muestral S y la clase A de todos los sucesos. S se convierte en un
espacio probabil´ıstico asignando probabilidades a los sucesos de A de tal forma que satisfaga los
axiomas de probabilidad.
Espacios finitos equiprobables
Supongamos que S es un espacio muestral finito con n elementos y supongamos que las caracter´ısti-
cas f´ısicas del experimento sugieren que a varios de los resultados se les asignen probabilidaes iguales.
Entonces S se convierte en un espacio probabil´ıstico, llamado espacio finito equiprobable, si a ca-
da punto se le asigna probabilidad 1/n y si a cada suceso A que contiene r puntos, probabilidad r/n.
Por lo tanto,
P(A) =
n(A)
n(S)
Teorema 2.2.1 Sea S un espacio muestral finito, y para cualquier A∈ S sea
P(A) =
n(A)
n(S)
Entonces P cumple los axiomas A1, A2 y A3.
Ejemplo 2.2.3 Supongamos que se elige aleatoriamente a un estudiante entre 80, de los cuales
30 estudian matem´aticas, 20 qu´ımica y 10, ambas. Hallar la probabilidad p de uqe un estudiante
est´a estudiando matem´aticas o qu´ımica.
Sea S un espacio muestral finito, digamos S ={a
1
, a
2
, . . . , a
n
} un espacio probabil´ıstico finito, o
modelo probabil´ıstico finito, se obtiene asinando a cada punto a
i
de S un n´ umero real p
i
llamado
probabilidad de a
i
, que cumple con las siguientes propiedades:
a) cada p
i
es no negativo, p
i
≥ 0
b)
¸
n
i=1
p
i
= 1
Ejercicios 5 .
1. Supongamos que A y B son sucesos con
P(A) = 0,6; P(B) = 0,3 y P(A ∩ B) = 0,2
Hallar la probabilidad de
a) A no ocurra.
b) B no ocurra.
c) A o B ocurran
d) Ni A ni B ocurran
29
2. Un naipe ingl´es consta de 52 cartas agrupadas en cuatro pintas (coraz´on, pique, tr´ebol y
diamante) y 13 “n´ umeros” (As, 2, . . ., 9, 10, J, Q K). Se elige consecutivamente al azar y
sin reemplazo cinco cartas de este naipe. Calcule las probabilidades de los siguientes eventos
o sucesos:
a) Las primeras tres cartas son diamantes y las dos ´ ultimas son pique.
b) Hay exactamente cuatro cartas del mismo “n´ umero”.
c) Hay tres cartas de un mismo “n´ uumero” y dos de otro.
30
2.3. Probabilidad Condicionada e Independencia
2.3.1. Probabilidad Condicional
Definici´ on 2.3.1 Supongamos que A, B son sucesos de un espacio muestral S. La probabilidad
condicional que A ocurra dado que B ha ocurrido, P(A | B) se define y denota como
P(A | B) =
P(A ∩ B)
P(B)
, P(B) > 0
y
P(A | B) = 0, si P(B) = 0.
P(A | B) mide en cierto modo la probabilidad relativa de A con respecto al espacio reducido de
B.
Ejemplo 2.3.1 Hallar P(B | A) si:
1. A es un subconjunto de B.
2. A y B son mutuamente excluyentes. (Asumimos que P(A) > 0)
Teorema 2.3.1 Supongamos que S es un espacio equiprobable, y que A y B son sucesos. Entonces
P(A | B) =
n(A ∩ B)
n(B)
es una medida de probabilidad
Ejemplo 2.3.2 Se tiran un par de dados y se define
A: salga 2 en al menos uno de los dados
B: la suma es 6.
Encontrar P(A | B) y P(A)
Teorema 2.3.2 (Multiplicaci´on para la probabilidad condicional)
P(A ∩ B) = P(B | A)P(A)
Corolario 1 P(A ∩ B ∩ C) = P(C | A ∩ B) · P(B | A) · P(A)
Ejemplo 2.3.3 Un lote contiene 12 objetos de los cuales 4 son defectuosos. Se sacan tres objetos
al azar del lote, uno detr´as de otro. Hallar la probabilidad de los tres no sean defectuosos.
31
Definici´ on 2.3.2 Los sucesos A y B son independientes si P(A∩B) = P(A)P(B), de cualquier
otra forma ser´ıan dependientes.
Esta definici´on nos lleva a concluir que A y B son sucesos independientes si
P(A | B) = P(A) y P(B | A) = P(B)
Nota:
1.- Se dice que A
1
, A
2
, . . . , A
n
∈ A son dos a dos independientes ssi
P(A
i
∩ A
j
) = P(A
i
) · P(A
j
) ∀ i < j
2.- Independencia dos a dos no implica independencia completa.
3.- La complementaci´on de uno o m´ as eventos no destruye la independencia.
4.- Sea C ∈ A un evento tal que P(C) > 0. Entonces A y B son condicionalmente independientes
dado C,
A⊥B | C ⇔P(A ∩ B | C) = P(A | C) · P(B | C)
5.- Observemos que los eventos disjuntos no son independientes a menos que uno de ellos tenga
probabilidad cero. Es decir, supongamos A ∩ B = ∅ y A y B son independientes. Entonces
P(A)P(B) = P(A ∩ B) = 0
y por lo tanto
P(A) = 0 o P(B) = 0
Ejemplo 2.3.4 .
1. Demostrar que si A y B son sucesos independientes, entonces A

y B

son sucesos indepen-
dientes.
2. Urna de Polya
Una urna contiene a fichas azules y r fichas rojas. El experimento consiste en:
(i) Extraer una ficha y observar su color.
(ii) Devolver la ficha con t fichas adicionales del mismo color.
(iii) Seguir iterando
Para tres ectracciones defina:
A
i
: la i-´esima ficha es azul, i= 1, 2, 3.
Calcule P(A
1
∩ A
2
∩ A
3
)
32
2.3.2. Probabilidad Total
Definici´ on 2.3.3 Una familia de eventos B
1
, . . . , B
n
∈ A se llama partici´on de S si:
k
¸
i=1
A
i
= S y A
i
∩ A
j
= ∅ ∀ i = j.
Teorema 2.3.3 Supongamos que los sucesos A
1
, A
2
, . . . , A
k
forman una partici´on de S. Entonces
para cualquier evento B se tiene que
P(B) =
k
¸
i=1
P(B | A
i
)P(A
i
)
2.3.3. Teorema de Bayes
Teorema 2.3.4 Bajo las mismas condiciones del teorema anterior se tiene que
P(A
i
| B) =
P(B | A
i
)P(A
i
)
¸
k
j=1
P(A
j
)P(B | A
j
)
Ejercicios 6 .
1. Supongamos que tenemos las tres cajas siguientes:
La caja A tiene 3 fichas rojas y 5 blancas.
La caja B tiene 2 rojas y una blanca.
La caja C tiene 2 rojas y 3 blancas.
Se escoge una caja al azar, y una ficha de dicha caja. Si la ficha es roja, hallar la probabilidad
de que sea de la caja A.
2. En una ciudad el 40 % de la gente se considera conservadora (C), el 35 % liberales (L), y el
25 % independientes (I). Durante las elecciones votaron el 45 % de los conservadores, el 45 %
de los liberales y el 60 % de los independientes tambi´en. Si se elige un votante al azar, hallar
la probabilidad de que el votante sea conservador, liberal e independiente. bilidad de que esta
persona tenga el c´ancer en cuesti´on? lidad de que el proceso de llenado de las botellas haya
sido a baja velocidad, si se sabe que la botella est´a efectivamente con un volumen incorrecto?
33
2.4. Variables Aleatorias
2.4.1. Introducci´ on
Informalmente una variable aleatoria puede definirse como una funci´on num´erica sobre Ω, el
espacio muestral:
X : Ω →R
X es una funci´ on tal que asigna a cada ω ∈ Ω un n´ umero.
Nota: Usualmente, el recorrido de X, Rec(X), es un subconjunto de R.
Ejemplo 2.4.1 Sea Ω = {CC, CS, SC, SS} y sea la variable aleatoria definida por
X(ω) = n´ umero de caras, ω ∈ Ω
¿Cu´al es el recorrido de la variable aleatoria X?
Formalmente:
Definici´ on 2.4.1 Dado un modelo de probabilidad (Ω, A, P), diremos que una funci´on
X : Ω →R
es una variable aleatoria ssi
{ω ∈ Ω : X(ω) ≤ x} ∈ A, ∀x ∈ R
∴ X es una variable aleatoria en (Ω, A, P) ssi {ω ∈ Ω : X(ω) ≤ x} es un evento (aleatorio) en
A, ∀ x ∈ R
Notaci´ on: Si el valor de la variable aleatoria se denota por una letra min´ uscula , la variable
se denota por la letra may´ uscula correspondiente. Normalmente se utilizan las ´ ultimas letras del
alfabeto.
El suceso “el valor x de X pertenece al conjunto B”se denota por X ∈ B. Cuando B = {x} se
simplifica la notaci´on a {X = x}.
Definici´ on 2.4.2 Dada una variable aleatoria X definida en (Ω, A, P), la distribuci´on de pro-
babilidad inducida por X en R se define, para un evento B ⊂ R como:
P
X
(B) = P(X
−1
(B))
donde X
−1
(B) = {ω ∈ Ω : X(ω) ∈ B} es un evento en Ω.
Conocer la distribuci´on de probabilidad para un subconjunto B implica que podemos P
X
para
cualquier B ⊂ R (medible).
En general, cada B ⊂ R medible puede generarse a partir de uniones y/o intersecciones de
intervalos de la forma [a
n
, b
n
]. La colecci´ on de estos intervalos de la forma (a, b] genera una σ-
´ algebra en R, llamada σ-´algebra de Borel y denotada por B. Los elementos de B se llaman
Borelianos y son subconjuntos medibles de R.
34
Proposici´on 1 P
X
es una medida de probabilidad en (R, B) → (R, B, P
X
) es una medida de
probabilidad (inducida por la variable aleatoria X).
Definici´ on 2.4.3 La funci´on definida por
F
X
(x) = P
X
((−∞, x])
= P(X ≤ x), x ∈ R
se llama funci´on de distribuci´on acumulada, f.d.a, de la variable aleatoria X.
Propiedades
Sea F
X
(x), x ∈ R, la funci´ on distribuci´on de X,
P1)
l´ım
x→−∞
F
X
(x) = 0 y l´ım
x→∞
F
X
(x) = 1
(0 ≤ F
X
(x) ≤ 1 ∀ x)
P2) Si x
1
< x
2
, entonces F
X
(x
1
) ≤ F
X
(x
2
)
(F
X
es no decreciente en R)
P3)
l´ım
x→x
0
F
X
(x) = F
X
(x
0
) ∀ x
0
∈ R
(F
X
es continua por la derecha)
35
2.4.2. Variables Aleatorias Discretas
F
X
(x), x ∈ R, es discreta ssi la variable aleatoria X es discreta, es decir, X asume valores en
un subconjunto contable de R.
X(ω) ∈ {x
1
, x
2
, . . .} ∀ ω ∈ R
En tal caso, F
X
(x), x ∈ R, puede representarse como:
F
X
(x) =
¸
t≤x
P(X = t), x ∈ S,
donde
P(X = x), x ∈ R, se llama funci´on de probabilidad.
Sigue de la definici´ on de P(X = x), x ∈ R, que:
i)
P(X = x) ≥ 0 ∀ x ∈ R
ii)
¸
x∈R
P(X = x) = 1
iii)
P
X
(B) = P(X ∈ B) =
¸
x∈B
P(X = x)
Ejemplo 2.4.2
Un dado no equilibrado asigna a la cara con el n´ umero x probabilidades dadas por
p(x) = c ×0, 7
x
×0, 3
6−x
, x = 1, . . . , 6
1. Calcule el valor de c.
2. Haga una tabla con los valores de la funci´on de distribuci´on F.
3. Utilice la tabla para calcular la probabilidad que
(i) El n´ umero est´e entre 2 y 4.
(ii) El n´ umero sea mayor que 2.
Ejemplo 2.4.3 Si 50 % de los autom´oviles extranjeros que vende una agencia est´a equipado para
trabajar con di´esel, encuentre una f´ormula para la distribuci´on de probabilidad del n´ umero de modelos
di´esel entre los pr´oximos 4 autom´oviles que venda esta agencia. Determine la f.d.a de la variable
de inter´es.
36
2.4.3. Variables Aleatorias Continuas
F
X
(x), x ∈ R es continua ssi existe una funci´ on no negativa f
X
(x), x ∈ R, tal que:
F
X
(x) =

x
−∞
f
X
(t)dt, ∀ x ∈ R
f
X
(x) =
dF
X
(x)
dx
donde f
X
(x) se denomina funci´on de densidad de la variable aleatoria X.
Note que:
i)
f
X
(x) ≥ 0 ∀ x
ii)


−∞
f
X
(x) dx = 1
iii)
P
X
(B) = P(X ∈ B) =

B
f
X
(x)dx
Si B es un intervalo, por ejemplo, B = (a, b), entonces se tiene lo siguiente:
P
X
(B) = P(a < X < b)
= P(a < X < b)
= P(a < X ≤ b) pues P(X = b) = 0,
= F
X
(b) −F
X
(a)
=

b
−∞
f
X
(x) dx −

a
−∞
f
X
(x) dx =

B
f
X
(x) dx
Ejemplo 2.4.4 Suponga que el error de la temperatura de reacci´on, en

C, para un experimento
controlado de laboratorio es una variable aleatoria continua X, que tiene funci´on de densidad de
probabilidad:
f
X
(x) =

x
2
3
, -1 < x < 2
0, e.o.c.
a) Verifique la condici´on (ii).
b) Encuentre P(0 < X ≤ 1)
Definici´ on 2.4.4 La distribuci´on acumulada F
X
(x) de una variable aleatoria continua X con
densidad f
X
es:
F
X
(x) = P(X ≤ x) =

x
−∞
f
X
(t) dt x ∈ R
Ejemplo 2.4.5 Para la funci´on de densidad del ejemplo anterior, encuentre F
X
y util´ıcela para
calcular P(0 < X ≤ 1)
37
2.4.4. Localizaci´on y dispersi´ on de una variable aleatoria
Definici´ on 2.4.5 La esperanza de una variable aleatoria X se define como:
E(X) =


¸
i=1
x
i
f
x
(x
i
), X discreta


−∞
xf
X
(x)dx, X continua
Notaci´on: µ
X
= E(X)
Propiedades
1.- La esperanza matem´atica es un operador lineal, esto es, si E(X) est´a bien definida, entonces
E(aX + b) = aE(X) + b
2.- Si X e Y son variables aleatorias, entonces
E(X + Y ) = E(X) + E(Y )
3.- Si X e Y son variables aleatorias con esperanzas bien definidas y tales que
X(ω) ≤ Y (ω) ∀ ω
entonces E(X) ≤ E(Y )
Definici´ on 2.4.6 La mediana de una variable aleatoria X es alg´ un n´ umero m tal que:
P(X ≥ m) ≥ 1/2 y P(X ≤ m) = 1/2
Notas:
i) Si X tiene distribuci´on sim´etrica y E(X) < ∞, entonces E(X) es una mediana para X.
ii) Si X tiene distribuci´ on asim´etrica, la mediana de X puede ser una mejor medida de localiza-
ci´ on.
Dos distribuciones pueden tener la misma localizaci´on y ser completamente diferentes, por lo
que hay que considerar una medida de dispersi´ on de la variable, la m´as com´ un, es la varianza.
Definici´ on 2.4.7 La varianza de una variable aleatoria X se define como
V (X) = E[(X −E(X))
2
]
V (X) =


¸
i=1
(x
i
−E(X))
2
P(X = x
i
)


−∞
(x −E(X))
2
f
X
(x)dx
Notaci´on: σ
2
X
= V (X)
38
Propiedades
1.- V (X) = E(X
2
) −(E(X)
2
)
2.- V (X) ≥ 0, V (X) = 0 ↔X = c
3.- V (aX + b) = a
2
V (X)
4.- Si X e Y son variables aleatorias, entonces
V(X + Y ) = V(X) + V(Y ) −2 · Cov(X, Y )
S´ olo en el caso en que X e Y son variables aleatorias independientes, entonces
V(X + Y ) = V(X) + V(Y )
Ejemplo 2.4.6 Sea X la variable aleatoria que cuenta el n´ umero de caras en tres lanzamientos de
una moneda honesta. Determine el recorrido, la funci´on de distribuci´on, valor esperado y varianza
de X.
Ejemplo 2.4.7 Sea A un evento en (Ω, A, P), con P(A) = p, con 0 ≤ p ≤ 1. Usted paga $1 se A
ocurre y $0 si A

ocurre.
Sea X la ganancia obtenida en un ensayo de este experimento. Determine esperanza y varianza de
X.
39
2.4.5. Casos especiales de distribuciones probabilidad
Distribuci´ on Bernoulli
Consideremos un experimento con s´olo dos resultados posibles, uno que se llame ´exito (E) y
otro, fracaso (F). Los resultados sucesivos e independientes de tal experimento se llaman pruebas
o experimentos Bernoulli.
En realidad, cualquier experiemnto puede ser usado para definir un ensayo Bernoulli simplemente
denotando alg´ un evento de inter´es, A, como ´exito y su complemento, A

, como fracaso.
Notaci´ on: X ∼ Bernoulli(p) y su funci´ on de probabilidad est´a dada por
P(X = x) = p
x
(1 −p)
1−x
, x = 0, 1
donde
E(X) = p
V (X) = p(1 −p)
Distribuci´ on Binomial
Un experimento que consiste de n ensayos Bernoulli independientes, cada uno con probabilidad
de ´exito p, se llama un experimento Binomial con n ensayos y par´ametro p.
Al decir “ensayos independientes”significa que los ensayos son eventos indeoendientes esto es, lo
que ocurra en un ensayo no tiene efecto en el resultado observado para cualquier otro ensayo.
Definici´ on 2.4.8 Sea X el n´ umero total de ´exitos observados en un experimento Binomial con n
ensayos y par´ametro p. Entonces X se llama variable aletoria Binomial con par´ametros n y p
y se denota
X ∼ Bin(n, p)
y su funci´on de probabilidad est´a dada por
P(X = x) =

n
x

p
x
(1 −p)
n−x
, x = 0, 1, . . . , n
Teorema 2.4.1 La esperanza y varianza de la distribuci´on Binomial est´an dadas por:
E(X) = n · p
V (X) = n · p · (1 −p)
Ejemplo 2.4.8 Se sabe que el n´ umero de pacientes graves en una urgencia es una variable aleatoria
Binomial con una media de 12 pacientes graves y una varianza de 3. Determine la probabilidad que
en un d´ıa haya a lo menos 2 pacientes en estado grave.
40
Distribuci´ on Geom´etrica
Definici´ on 2.4.9 Si se realizan repetidos experimentos Bernoulli independientes con probabilidad
de ´exito p, entonces la distribuci´on de la variable aleatoria X, el n´ umero de experimentos necesarios
hasta encontrar el primer ´exito sigue una distribuci´on geom´etrica de par´ametro p y se denota
por:
X ∼ Geo(p)
con funci´on de probabilidad dada por
P(X = x) = (1 −p)
x−1
p, x = 1, 2, 3, . . .
Teorema 2.4.2 La esperanza y varianza de la distribuci´on geom´etrica est´an dadas por:
E(X) =
1
p
V (X) =
1 −p
p
2
Ejemplo 2.4.9 Cacule la probabilidad de que deba lanzar un dado por lo menos 6 veces hasta
obtener un 5.
Distribuci´ on Binomial Negativa
Definici´ on 2.4.10 Consideremos ensayos Bernoulli independientes con probabilidad de ´exito p en
cada ensayo. Si X es el n´ umero de ensayos necesarios para observar el r-´esimo ´exito, entonces X
se llama variable aleatoria Binomial negativa con par´ametros r, y p su funci´on de probabilidad
est´a dada por
P(X = x) =

x −1
r −1

p
r
(1 −p)
x−r
, x ∈ {r, r + 1, . . .}
y se denota por
X ∼ BinNeg(r, p)
Teorema 2.4.3 La esperanza y varianza de la distribuci´on Binomial Negativa est´an dadas por:
E(X) =
r
p
V (X) =
r(1 −p)
p
2
Ejemplo 2.4.10 Cacule la probabilidad de que deba lanzar un dado por lo menos 6 veces hasta
obtener 5 tres veces.
41
Distribuci´ on Poisson
Definici´ on 2.4.11 Una variable aleatoria X que cuenta el n´ umero de eventos que ocurren en un
per´ıodo de tiempo tiene distribuci´on Poisson de par´ametro λ > 0, y su funci´on de probabilidad
est´a dada por
P(X = x) =
e
−λ
λ
x
x!
, x = 0, 1, . . .
y se denota por
X ∼ Poisson(λ)
Teorema 2.4.4 La esperanza y varianza de la distribuci´on Poisson est´an dadas por:
E(X) = λ
V (X) = λ
Ejemplo 2.4.11 Se sabe que los pacientes llegan de acuerdo a una distribuci´on Poisson con λ = 3
pacientes/minuto. Cuando llegan m´as de 4 pacientes por minuto la secretaria se ve sobrepasada y
el servivio de atenci´on es calificado como deficiente. ¿Cu´al es la probabilidad de que el sistema sea
calificado como no deficiente?
Distribuci´ on Uniforme
Definici´ on 2.4.12 Una variable aleatoria X tiene distribuci´on uniforme si su densidad se dis-
tribuye por igual entre dos valores cualquiera a y b. Su funci´on de densidad est´a dada por
f
X
(x) =

1
b−a
, a < x < b,
0, e.o.c.
Notaci´on: X ∼ U(a, b)
Teorema 2.4.5 La esperanza y varianza de la distribuci´on Uniforme est´an dadas por:
E(X) =
a + b
2
V (X) =
(b −a)
2
12
Ejemplo 2.4.12 En los d´ıas del verano, X, el tiempo de retraso de un tren del Metro, se puede
modelar como distribuida uniformemente entre 0 y 20 minutos.
1. Calcule la probabilidad de que el tren llegue por lo menos con 8 minutos de retraso.
2. Calcule la desviaci´on est´andar del tiempo de retraso del tren.
42
Distribuci´ on Exponencial
Definici´ on 2.4.13 Suponga que los eventos suceden aleatoriamente a lo largo del tiempo, con un
tiempo esperado entre eventos β. Sea X, la variable aleatoria que cuenta el tiempo para el siguiente
evento, entonces X tiene distribuci´on exponencial y su funci´on densidad est´a dada por
f
X
(x) =

1
β
e
−x/β
, x > 0,
0, e.o.c.
donde β > 0 y se denota por
X ∼ exp(β)
Teorema 2.4.6 La esperanza y varianza de la distribuci´on Exponencial est´an dadas por:
E(X) = β
V (X) = β
2
Ejemplo 2.4.13
En un centro rural para la atenci´on de emergencias el tiempo entre llegadas sigue una distribuci´on
exponencial con un tiempo media de llegadas de 1.25 horas. Encuentre la probabilidad de que el
tiempo entre llegadas sea mayor a 1 hora. Encuentre la probabilidad de que el tiempo entre llegadas
sea mayor a 2 horas.
Distribuci´ on Normal
Definici´ on 2.4.14 La variable aleatoria X tiene distribuci´on normal con media µ y varianza
σ
2
si su funci´on de densidad est´a dada por
f
X
(x) =
1

2πσ
2
e

(x−µ)
2

2
, −∞< x < ∞
Notaci´on: X ∼ N(µ, σ
2
)
Definici´ on 2.4.15 Si Z es una variable aleatoria normal con media 0 y varianza 1, entonces Z se
llama variable aleatoria normal est´andar.
Cualquier variable aleatoria normal X se puede transformar en una variable aleatoria normal
estandarizada Z, sustrayendo el valor esperado µ y dividiendo el resultado por σ.
Ejemplo 2.4.14 Considere la distribuci´on normal est´andar con media µ = 0 y desviaci´on σ = 1.
1. ¿Cu´al es la probabilidad que z sea mayor que 2,6?
2. ¿Cu´al es la probabilidad que z sea menor que 1,3?
3. ¿Cu´al es la probabilidad que z est´e entre -1.7 y 3.1?
4. ¿Cu´al es el valor de z que corta el 15 % menor de la distribuci´on?
43
Ejercicios 7 .
1. Clasifique las siguientes variables como discretas o continuas.
X : el n´ umero de accidentes de autom´ovil por a˜ no en la ciudad de Santiago.
Y : el tiempo que toma jugar 18 hoyos de golf.
M : la cantidad de leche producida anualmente por una vaca en particular.
N : el n´ umero de huevos que pone mensualmente una gallina.
P : el n´ umero de permisos para la construcci´on de edificios que otorga mensualmente una
municipalidad.
Q : la cantidad de kilos de manzanas que exporta una empresa.
2. Si p(x) = c · (5 −x) para x = 0, 1, 2, 3. ¿Cu´al es el valor de c?
3. Ciertos ´ıtemes son producidos por una m´aquina, cada item es clasificado como de primera o
segunda calidad; los ´ıtemes de segunda calidad representan al 5 % de la producci´on total. Si se
inspeccionan ´ıtemes hasta que se encuentra el quinto de segunda calidad,
a) Determine la variable aleatoria y su funci´on de probabilidad.
b) ¿Cu´al es el n´ umero esperado de ´ıtemes que se deben inspeccionar para detectar el quinto
de segunda calidad?
c) ¿Cu´al es la probabilidad de que se tengan que inspeccionar 7 art´ıculos?
4. Una variable aleatoria continua X que puede tomar valores entre x=2 y x=5 tiene una funci´on
de densidad
f
X
(x) =
2(1 + x)
27
Calcule
a) P(X < 4)
b) P(3 < X < 4)
5. Una m´aquina que marca n´ umeros telef´onicos al azar selecciona aleatoriamente cuatro d´ıgitos
entre 0000 y 9999 (incluido ambos). Trate a la variable Y, el n´ umero seleccionado, como
si fuese continua (aun cuando hay solo hay 10000 posibilidades discretas) y uniformemente
distribuida.
a) Encuentre P(0300 < Y < 1300)
b) P(Y > 5555)
c) Encuentre la varianza de Y
6. En una central nuclear ocurren aleatoriamente a lo largo del tiempo “eventos poco comunes”
(problemas menores de operaci´on). El tiempo medio entre dos eventos es 40 d´ıas.
44
a) ¿Cu´al es la probabilidad de que el tiempo para el siguiente “evento poco com´ un” se en-
cuentre entre 20 y 60 d´ıas?
b) ¿Cu´al es la probabilidad de que pasen m´as de 60 d´ıas sin probemas?
c) Encuentre la desviaci´on est´andar del tiempo para el siguiente “evento poco com´ un”.
d) Un an´alisis de los archivos de la central nuclear muestra que los “eventos poco comu-
nes” suceden con mayor frecuencia los fines de semana, ¿qu´e hip´otesis subyacente a las
respuestas de las preguntas anteriores se pone en duda?
7. Sea Z una variable aleatoria normal estandarizada. Calcule:
a) P(0 ≤ Z ≤ 1,96)
b) P(Z > 1,96)
c) P(−1,96 ≤ Z ≤ 1,96)
d) P(0 ≤ Z ≤ 1,96)
8. Los ingresos anuales de los profesores de la universidad siguen una distribuci´on normal con
media 18600 d´olares y una desviaci´on est´andar de 27000 d´olares. Encuentre la probabilidad
de que un profesor seleccionado al azar tenga
a) un ingreso anual inferior a 15000 d´olares.
b) un ingreso mayor a 21000 d´olares.
c) un ingreso mayor a 25000 y de a lo m´as 30000 d´olares.
45
2.4.6. Funciones de Variables Aleatorias
Definici´ on 2.4.16 Sea X una variable aleatoria y sea g una funci´on con dominio en S y valores
en R. El valor esperado de g(X) est´a dado por
E(g(X)) =


¸
i=1
g(x
i
)P(X = x
i
), X discreta


−∞
g(x)f(x)dx, X continua
Momentos y funciones generadoras de momentos
Definici´ on 2.4.17 Dada una variable aleatoria X se definen:
(i)
E(X
k
) =


¸
i=1
x
k
i
f
x
(x
i
), X discreta


−∞
x
k
f
X
(x)dx, X continua
como el k-´esimo momento (no centrado) de X.
(ii)
E((X −µ)
k
) =


¸
i=1
(x
i
−µ)
k
f
x
(x
i
), X discreta


−∞
(x −µ)
k
f
X
(x)dx, X continua
como el k-´esimo momento centrado de X.
Definici´ on 2.4.18 La funci´on generadora de momentos (f.g.m.) de una variable aleatoria X
se define como
M
X
(t) =


¸
i=1
e
tx
i
f
x
(x
i
),


−∞
e
tx
f
X
(x)dx,
con t ∈ R.
Ejemplo 2.4.15 Determine su funci´on generadora de momentos para las siguientes distribuciones:
a) X ∼ Bin(n, p)
b) X ∼ N(0, 1)
Teorema 2.4.7 Sea X una variable aleatoria con funci´on generadora de momentos M
X
(t). Enton-
ces
E(X
k
) =
d
k
M
X
(t)
dt
k

t=0
46
Ejemplo 2.4.16 Utilizando las respectivas f.g.m calcule la media de X si
a) X ∼ Bin(n, p)
b) X ∼ N(0, 1)
Teorema 2.4.8 (Teorema de Unicidad)
Sean X e Y dos avriables aleatorias con funciones generadoras de momentos M
X
(t) y M
Y
(t), res-
pectivamente. Si M
X
(t) = M
Y
(t) para todos los valores de t, entonces X e Y tienen la misma
distribuci´on de probabilidad.
Teorema 2.4.9 Si Y = cX + d, entonces M
Y
(t) = e
td
M
X
(ct)
Ejemplo 2.4.17 Sea X una variable aleatoria con distribuci´on normal est´andar. Determine la
f.g.m. de Y = µ + σX.
Transformaci´on de variables
Frecuentemente, en estad´ıstica, se presenta la necesidad de deducir la distribuci´on de probabili-
dad de una funci´on de una o m´ as variables aleatorias. Por ejemplo supongamos que X es una variable
aleatoria discreta con distribuci´ on de probabilidad f(x) y supongamos adem´as que Y = g(X) de-
fine una transformaci´ on uno a uno entre los valores de X e Y . Se desea encontrar la distribuci´ on
de probabilidad de Y . Es importante resaltar el hecho que la transformaci´ on uno a uno implica
que cada valor de x est´ a relacionado con un, y s´ olo un valor de y = g(x) y que cada valor de y
est´ a relacionado con un, y s´ olo un valor de x = g
−1
(y).
Teorema 2.4.10 Sea X una variable aleatoria discreta con distribuci´on de probabilidad f(x). Si
Y = g(X) define una transformaci´on uno a unn entre los valores de X e Y de tal forma que la
ecuaci´on y = g(x) pueda resolverse ´ unicamente para x en t´erminos de y. Entonces la distribuci´on
de probabilidad de Y es
f
Y
(y) = f
X
(g
−1
(y))
Ejemplo 2.4.18 Sea X una variable aleatoria geom´etrica con distribuci´on de probabilidad
f
X
(x) =
3
4

1
4

x−1
, x = 1, 2, . . .
a) Encuentre al distribuci´on de la variable aleatoria de Y = X
2
b) Encuentre la distribuci´on para la variable aleatoria Z = 4 −5X
Teorema 2.4.11 Suponga que X es una variable aleatoria continua con distribuci´on de probabilidad
f(x). Sea Y = g(X), con g una funci´on uno a uno entre los valores de X e Y . Entonces la
distribuci´on de probabilidad de Y est´a dada por
f
Y
(y) = f
X
(g
−1
(y))|J|
donde J = (g
−1
(y))

y recibe el nombre de Jacobiano de la tranformaci´on.
47
Ejemplo 2.4.19 .
a) Sea X una variable aleatoria continua con funci´on densidad
f
X
(x) =
x
12
, 1 < x < 5
Encuentre la distribuci´on de probabilidad de la variable aleatoria Y = 2X −3.
b) Sea X una variable aleatoria con densidad Beta(a,b), es decir,
f
X
(x) =
Γ(a + b)
Γ(a)Γ(b)
x
a−1
(1 −x)
b−1
, 0 < x < 1.
Determinar la distribuci´on de Y = 1 - X.
Teorema 2.4.12 Sea X una variable aleatoria continua con funci´on densidad f
X
(x). Si Y = g(X)
es una transfromaci´on entre los valores de X e Y que no es uno a uno, es decir, para cada y ∈ R
existen k inversas, x
i
= g
−1
i
(y), i = 1, . . . , k, entonces la distribuci´on de probabilidad de Y es
f
Y
(y) =
k
¸
i=1
f
X
(g
−1
i
(y))|J
i
|
donde
|J
i
| =
d
dy
g
−1
i
(y) i = 1, . . . , k.
Ejemplo 2.4.20 . Sea X una variable aleatoria con densidad
f
X
(x) =
1
2
e
−|x|
, −∞< x < ∞.
Determinar la distribuci´on de Y = |X|.
Ejercicios 8 .
1. Si X ∼ U(0, 1), encontrar al funci´on densidad de Y = e
X
2. Se dice que X tiene distribuci´o Weibull si
f
X
(x) =

λαx
α−1
exp(−λx
α
), x > 0;
0, e.o.c.
Se asume que α > 0 y λ > 0. Determine E(X). ¿Cu´al es la distribuci´on de Y = X
α
?
48
2.4.7. Aproximaci´ on de distribuciones
Sea una variable aleatoria X ∼ Bin(n, p), por ejemplo, suponga que recoge la opini´ on de una
muestra de 1000 electores para saber su sentir en pro del fortalecimiento del gobierno de la ciudad.
¿Cu´ al es la probabilidad de encontrar 460 o menos electores a favor del fortalecimiento si suponemos
que el 50 % de la poblaci´ on est´ a a favor de ´el?
En este caso, sea X el n´ umero de electores en pro del fortalecimiento, con X ∼ Bin(1000, 1/2),
entonces para calcular la probabilidad pedida P(X ≤ 460) debemos sumar 461 t´erminos, lo que no
parece una tarea f´ acil.
En este tipo de situaciones, donde el n´ umero de ensayos es demasiado grande (≥ 20), aproxi-
maremos nuestra distribuci´ on de probabilidad a otro distribuci´on, dependiendo del valor de p, la
probabilidad de ´exito.
Aproximaci´ on Poisson a la distribuci´on Binomial
Se sugiere aproximar a la distribuci´ on Poisson una distribuci´on binomial para valores de n “muy
grandes” y de p “muy peque˜ na”. La regla es aproximar si p < 0,05 y n ≥ 20. Si n ≥ 100 la aproxi-
maci´ on es buena siempre y cuando np > 10.
En ambos casos λ = np y en vez de utilizar X ∼ Bin(n, p) usamos X ∼ P(np).
Ejemplo 2.4.21 Se sabe que el 5 % de los libros encuadernados en cierto taller tienen encuader-
naciones defectuosas. Determine la probabilidad de que 2 de 100 libros encuadernados en ese taller,
tengan encuadernaciones defectuosas, usando,
a) la f´ormula de la distribuci´on Binomial,
b) la aproximaci´on de Poisson a la distribuci´on Binomial.
Aproximaci´ on Normal a la distribuci´on Binomial
Se sugiere aproximar la distribuci´on Normal a una distribuci´on binomial cuando n es “muy
grande” y los valores de p son cercanos a 0.5.
En tal caso, µ = np y σ
2
= np(1 − p). Esta aproximaci´ on deber´ıa utilizarse s´olo si np ≥ 5 y
n(1 −p) ≥ 5.
Ejemplo 2.4.22 Se considera un sindicato laboral en el cual el 40 % miembros est´a a favor de la
huelga. Si se seleccionan 15 miembros de manera aleatoria, ¿cu´al es la probabilidad de que 10 apoyen
un paro? Calcule dicha probabilidad utilizando las distribuciones Binomial y Normal por separado
y compare.
Ejercicios 9 El 45 % de todos los empleados del centro de capacitaci´on gerencial tiene t´ıtulos uni-
versitarios. ¿Cu´al es la probabilidad de que de los 150 empleados seleccionados aleatoriamente, 72
tengan un t´ıtulo univeristario?
49
2.5. Vectores Aleatorios
Definici´ on 2.5.1 X = (X
1
, X
2
, . . . , X
n
) es un vector aleatorio definido en (Ω, A, P) ssi X
1
, X
2
, . . . , X
n
son variables aleatorias definidas en el mismo modelo (Ω, A, P).
2.5.1. Distribuci´ on Conjunta
Definici´ on 2.5.2 La funci´on definida por
F
X
1
,X
2
,...,Xn
(x
1
, x
2
, . . . , x
n
) = P(X
1
= x
1
, X
2
= x
2
, . . . , X
n
= x
n
), x ∈ R
se llama funci´on distribuci´on conjunta de X
1
, X
2
, . . . , X
n
Definici´ on 2.5.3 Sea X = (X
1
, X
2
, . . . , X
n
) un vector aleatorio en (Ω, A, P). Diremos que:
a) X = (X
1
, X
2
, . . . , X
n
) es discreto ssi
Rec(X)= Rec(X
1
, X
2
, . . . , X
n
)
es un subconjunto contable (finito o no) de R
n
.
En tal caso, la distribuci´on de probabilidad puede representarse mediante
P(X
1
= x
1
, X
2
= x
2
, . . . , X
n
= x
n
) = P

n
¸
i=1
{X
i
= x
i
}

As´ı,
(i) P(X = x) ≥ 0 ∀ x ∈ R
n
(ii)
¸
P(X = x
i
) = 1
b) X = (X
1
, X
2
, . . . , X
n
) es continuo ssi existe una funci´on
f
X
1
...Xn
: R
n
→R
no negativa tal que
F
X
1
...Xn
(x
1
, . . . , x
n
) =

x
1
−∞
· · ·

xn
−∞
f
X
1
...Xn
(t
1
, . . . , t
n
)dt
n
· · · dt
1
, ∀ x ∈ R
En tal caso
f
X
1
...Xn
(x
1
, . . . , x
n
) =

n
∂x
1
· · · ∂x
n
F
X
1
...Xn
(x
1
, . . . , x
n
)
Ejemplo 2.5.1 Sean X e Y variables aleatorias con funci´on distribuci´on conjunta dada por
F
XY
(x, y) =

(1 −e
−x
)(1 −e
−y
), x >0, y > 0;
0, e.o.c.
Determine f
XY
.
50
Definici´ on 2.5.4 La distribuci´on de probabilidad de X = (X
1
, X
2
, . . . , X
n
) se define como:
P
X
(B) = P(X ∈ B) ∀ B ⊂ B
n
As´ı, P
X
(B), B ⊂ B
n
, es una medida de probabilidad.
⇒(P
X
, B
n
, R
n
) es una medida de probabilidad.
Proposici´on 2 ∀ B ∈ B
n
P
X
(B) = P(X ∈ B) =

¸
x∈B
P(X = x), X discreta

x∈B
f
X
(x)dx, X continua
Teorema 2.5.1 Sea X un vector aleatorio continuo n- dimensional con densidad f
X
(x). Sea g =
(g
1
, g
2
, . . . , g
n
) una funci´on. Considere el vector aleatorio Y = g(X). Esto significa que se considera
la transformaci´on
y
1
= g
1
(x
1
, . . . , x
n
)
y
2
= g
2
(x
1
, . . . , x
n
)
.
.
.
y
n
= g
n
(x
1
, . . . , x
n
)
Finalamente sup´ongase que g y g
−1
son continuas y dieferenciables. Entonces la densidad de Y es
f
Y
(y) = |J|f
X
(g
−1
(y), g
−1
2
(y), . . . , g
−1
n
(y)) y ∈ R
n
Ejemplo 2.5.2 Sean X e Y dos variables aleatorias continuas con distribuci´on de probabilidad
conjunta
f(x, y) =

4xy, 0 < x < 1, 0 < y < 1;
0, e.o.c.
Encuentre la densidad conjunta de W = X
2
y Z = XY .
51
2.5.2. Distribuciones Conjuntas Especiales
Algunas distribuciones multivariadas conocidas se enuncian a continuaci´ on:
Suponga que realiza N experimentos inpedendientes, en cada uno de los cuales puede obtener
uno de los k resultados posibles, cada uno con probabilidad p
1
, p
2
, . . . , p
k
, respectivamente, y desea
contar cu´ antas repeticiones de cada resultado obtuvo.
Definici´ on 2.5.5 Las variables aleatorias X
1
, X
2
, . . . , X
k
tienen una distribuci´on multinomial
si y s´olo si su distribuci´on de probabilidad conjunta est´a dada por
P(X
1
= x
1
, X
k
= x
k
, . . . , X
k
= x
k
, ) =

n
n
1
n
2
· · · n
k

p
x
1
1
p
x
2
2
. . . p
x
k
k
donde
r
¸
j=1
n
j
= n y
k
¸
i=1
p
i
= 1
Lo que se denota como
(X
1
, . . . , X
k
) ∼ Mult(n, p
1
, p
2
, . . . , p
k
)
Ejemplo 2.5.3 Suponga que los errores de cierto procedimiento de medici´on tienen distribuci´on
normal de media 0 y desviaci´on est´andar 2, en mil´ımetros. Suponga que se toman 10 mediciones
independientes. Calcule la probabilidad que: por lo menos 9 mediciones tengan errores menores a
los 2 mil´ımetros y que no m´as de una medici´on tenga error mayor a los 3 mil´ımetros.
Considere un conjunto de N elementos, de los cuales M
1
son de la primera clases, M
2
de la
segunda clase, y as´ı sucesivamente, hasta M
k
de la k-´esima clase, donde
¸
M
i
= N.
Definici´ on 2.5.6 Las variables aleatorias X
1
, . . . , X
k
tienen una distribuci´on hipergeom´etrica
multivariada si y s´olo si su distribuci´on de probabilidad conjunta est´a dada por
P(X
1
= x
1
, . . . , X
k
= x
k
) =

M
1
x
1

. . .

M
k
x
k

M
n

donde
k
¸
i=1
x
i
= n, y
k
¸
i=1
M
i
= N
Ejemplo 2.5.4 En un panel de presuntos jurados participan 6 hombres casados, tres hombres solte-
ros, siete mujeres casadas y cuatro mujeres solteras. Si la selecci´on es al azar, ¿cu´al es la probabilidad
de que el jurado consita de 4 hombres casados, un soltero, cinco mujeres casadas y dos solteras?
52
Entre las distribuciones multivariadas continuas, la distribuci´ on normal multivariada es de es-
pecial importancia, ya que es una generalizaci´ on de la distribuci´ on normal en una variable.
Definici´ on 2.5.7 El vector aleatorio (X, Y ) tiene una distribuci´on normal bivariada si y s´olo
si su funci´on densidad conjunta est´a dada por
f(x, y) =
1
2πσ
1
σ
2

1 −ρ
2
exp


1
2(1 −ρ
2
)
¸
x −µ
1
σ
1

2
+

y −µ
2
σ
2

2
−2ρ

x −µ
1
σ
1

y −µ
2
σ
2

para x ∈ R, y ∈ R, σ
1
, σ
2
> 0, y −1 < ρ < 1.
Teorema 2.5.2 Si dos variables aleatorias tienen una distribuci´on normal bivariada, son inpeden-
dientes si y s´olo si ρ = 0.
53
2.5.3. Distribuci´ on Marginal y Condicional
Dada la distribuci´ on de probabilidad conjunta f(x, y) de las variables aleatorias X e Y , la
distribuci´ on de probabilidad f(x) de X se obtiene al sumar f(x, y) sobre todos los valores de Y .
De la misma forma, la distribuci´on de probabilidad f(y) se obtiene al sumar f(x, y) sobre todos
los valores de X. Cuando X e Y son variables aleatorias continuas, las sumas se reemplazan por
integrales.
Definici´ on 2.5.8 Las distribuciones marginales de X e Y est´an dadas por
p
X
(x) =
¸
y
f
XY
(x, y) y p
Y
(y) =
¸
x
f
XY
(x, y)
para el caso discreto y
f
X
(x) =

y
f
XY
(x, y)dy y f
Y
(y) =

x
f
XY
(x, y)dx
para el caso continuo.
Definici´ on 2.5.9 Sean X e Y dos variables aleatorias discretas o continuas. La distribuci´on
condicional de la variable aleatoria Y, dado que X=x, est´a dada por:
f
Y |X
(y) =
f
XY
(x, y)
f
X
(y)
, f
X
(x) > 0
Ejemplo 2.5.5 Suponga que la fracci´on X de atletas hombres y la fracci´on Y de atletas mujeres
que terminan la carrera del marat´on puede describirse por la funci´on densidad conjunta
f
XY
(x, y) = 8xy, 0 ≤ x ≤ 1, 0 ≤ y ≤ x.
Encuentre f
X
, f
Y
y f
Y |X
y determine la probabilidad de que menos de 1/8 de las mujeres que se
inscribieron para un marat´on en particular la finalicen, si se sabe que exactamente 1/2 de los atletas
hombres terminaron la carrera.
Definici´ on 2.5.10 Sean X e Y dos variables aleatorias, discretas o continuas, con distribuci´on
de probabilidad conjunta f
XY
y distribuciones marginales f
X
y f
Y
, respectivamente. Las variables
aleatorias X e Y se dice que son independientes estad´ısticamente, ssi
f
XY
(x, y) = f
X
(x)f
Y
(y), ∀ x, y ∈ R
54
Ejercicios 10 . Sea X e Y variables aleatorias independientes con funciones densidades marginales
f
X
(x) = xe
−x
, x > 0 y f
Y
(y) = e
−y
y > 0
Sean
Z = X + Y, y W =
X
X + Y
1. Determine las respectivas densidades marginales de Z y W.
2. ¿Son Z y W variables aleatorias independientes?
3. Obtenga la funci´on generadora de momentos de Z, M
Z
(t).
55
2.5.4. Esperanza y Varianza Condicional
Definici´ on 2.5.11 Dado un vector aleatorio (X,Y) la esperanza condicional de Y dado X=x
se define como
E(Y |X = x) =

¸
y
y P(Y = y|X = x), X discreta


−∞
y f
Y |X
(y)dy, X continua
M´ as generalmente, si g : R −→R
E(g(Y )|X = x) =

¸
y
g(y)P(Y = y|X = x), X discreta


−∞
g(y)f
Y |X
(y)dy, X continua
Proposici´on 3 Si E(|Y |) < ∞
E[E(Y | X)] = E(Y )
Ejemplo 2.5.6 Sea Y |X = x ∼ U(0, 1 −x) y f
X
(x) = 2(1 −x), si 0 < x < 1. Determine E(Y ).
Propiedades:
i) E(c|X = x) = c
ii) E(Y
1
+ Y
2
|X = x) = E(Y
1
|X = x) + E(Y
2
|X = x)
iii) E(cY |X = x) = c · E(Y |X = x)
iv) E(g(X, Y )|X = x) = E(g(x, Y ))
En particular,
E(g
1
(X)g
2
(Y )|X = x) = g
1
(x)E(g
2
(Y )|X = x)
v) E(g(Y )|X = x) = E(g(Y )) ⇔ X es independiente de Y.
Definici´ on 2.5.12 La varianza condicional de Y dado X=x se define como
V(Y |X = x) = E[(Y −E(Y |X = x))
2
|X = x]
=

¸
y
(y −E(Y |X = x))
2
P(Y = y|X = x), X discreta


−∞
(y −E(Y |X = x))
2
f
Y |X
(y)dy, X continua
Teorema 2.5.3 Suponga que E(Y
2
) < ∞
V(Y ) = E(V(Y |X)) + V(E(Y |X))
56
Ejemplo 2.5.7 Sean X e Y variables aleatorias continuas tales que X ∼ U(0, 1) e Y |X = x ∼
U(x, x + 1).
Calcule:
a) E(Y |X = x) y V(Y |X = x).
b) E(Y ) y V(Y ).
c) La densidad condicional de X dado Y = y.
d) E(X|Y = y) y E(Y |X = x).
e) Considere las funciones de variables aleatorias h(Y ) = E(X|Y ) y k(X) = E(Y |X). Calcule la
funci´on de densidad de h(Y ) y la funci´on de densidad de k(X).
Ejercicios 11 .
Sean X e Y variables aleatorias tales que Y |X = x ∼ Bin(x, p) y X ∼ Poisson(λ). Determine la
distribuci´on de Y y calcule su esperanza.
57
2.6. Nociones de Convergencia
El objetivo de esta secci´on es estudiar el comportamiento de una secuencia de variables aleatorias,
{Z
1
, Z
2
, . . . , Z
n
}, cuando n →∞.
Definici´ on 2.6.1 Sea {Z
n
, n ≥ 1} una secuencia de variables aleatorias en (Ω, A, P) y sea θ ∈ R
una constante.
Diremos que Z
n
converge en probabilidad para θ ssi
∀ ε > 0, P(|Z
n
−θ| ≥ ε) →0, cuando n →∞
Notaci´ on: Z
n
P
→θ
Adem´ as, note que Z
n
P
→θ ⇔ (Z
n
−θ)
P
→0
Definici´on 2.6.2 Sea {Z
n
, n ≥ 1} una secuencia de variables aleatorias definidas en (Ω, A, P) y
sea Z otra variable aleatoria, cuya distribuci´on no depende de n, la cual no necesita estar definida
sobre el mismo espacio de probabilidad donde se encuentran definidas las Z
n
’s.
Diremos que Z
n
converge en distribuci´on para Z ssi
F
Zn
(z) = P(Z
n
≤ z) →P(Z ≤ z) = F
Z
(z)
cuando n →∞, ∀ z donde F
Z
es continua.
Notacion: Z
n
D
→Z o F
Zn
→F
Z
Las definiciones anteriores motivan el siguiente teorema:
Teorema 2.6.1 (del L´ımite Central)
Sean X
1
, X
2
, . . . , X
n
una secuencia de variables aleatorias independientes con media µ y varianza
σ
2
< ∞. Entonces,

n
X
n
−µ
σ
D
→N(0, 1)
donde
X
n
=
n
¸
i=1
X
i
n
Aplicaci´ on:
Para n “suficientemente grande”
X
n
→N(µ, σ
2
/n)
58
Ejercicios 12 . La distribuci´on de las p´erdidas mensuales de una empresa en unidades monetarias
(u.m.) es aproximadamente normal, con una media de µ = 3500 y una varianza de σ
2
= 184900.
1. ¿Cu´al es al probabilidad de que las p´erdidas mensuales sean inferiores a 2500 u.m.?
2. ¿Qu´e valor separa el 5 % inferior de la distribuci´on de las p´erdidas mensuales?
3. Describa la distribuci´on de medias muestrales de tama˜ no 5 tomadas de esta poblaci´on.
4. ¿Qu´e valor separa el 5 % inferior de la distribuci´on muestral de tama˜ no 5?
5. Dada una muestra de las p´erdidas de 5 meses, ¿cu´al es la probabilidad de que las p´erdidas
mensuales sean inferiores a 2500 u.m.?
6. ¿Cu´al es al probabilidad de que s´olo uno de los cinco meses se tenga una p´erdida menor a
2500 u.m.?
59
Cap´ıtulo 3
Inferencia Estadistica
3.1. Introducci´ on
La teor´ıa de la inferencia estad´ıstica consiste en aquellos m´etodos por los que se realizan in-
ferencias o generalizaciones acerca de una poblaci´ on. La tendencia actual es la distinci´ on entre el
m´etodo cl´asico de estimaci´ on de un par´ ametro en la poblaci´on, por medio del cual las inferencias se
basan de manera estricta en informaci´ on que se obtiene de una muestra aleatoria seleccionada de la
poblaci´ on, y el m´etodo bayesiano, que utiliza el conocimiento subjetivo previo sobre la distribuci´ on
de probabilidad de los par´ ametros desconocidos junto con la informaci´on que proporcionan los datos
de la muestra. En este curso desarrollaremos los m´etodos cl´ asicos para estimar los par´ametros de
la poblaci´on desconocidos como la media, proporci´ on y varianza mediante el c´ alculo de estad´ısticas
de muestras aleatorias.
La inferencia estad´ıstica se puede dividir en doa ´ areas principales: estimaci´on y pruebas de
hip´ otesis. La estimaci´on de un par´ametro poblacional θ puede ser puntual, es decir, por alg´ un
m´etodo deteminamos una f´ormula en funci´ on de los datos para calcular el valor de este en la mues-
tra, o intervalar, donde adem´ as de calcular el valor del par´ ametro en la muestra establecemos un
grado de precisi´on de nuestra estimaci´ on. Con las pruebas de hip´otesis lo que queremos es llegar a
la decisi´ on correcta acerca de una hip´otesis preestablecida, con alguna medici´ on de la precisi´ on de
nuestra decisi´ on.
Algunos conceptos de inter´es se definen a continuaci´ on.
Definici´ on 3.1.1 Las variables aleatorias X
1
, . . . , X
n
corresponden a una muestra aleatoria de
tama˜ na n de una poblaci´on con funci´on densidad f(x) si
X
1
, . . . , X
n
son mutuamente independientes
X
1
, . . . , X
n
tienen funci´on densidad marginal f(x)
las variables X
1
, . . . , X
n
se denominan independientes e id´enticamente distribuidas, iid, y escribi-
mos
X
i
iid
∼ f(x), i = 1, . . . , n.
60
Definici´ on 3.1.2 Sea Z
1
, . . . , Z
k
un muestra aleatoria de la distribuci´on N(0, 1). Sea Y =
¸
k
i=1
Z
2
i
.
Entonces Y tiene distribuci´on chi-cuadrado de Pearson con k grados de libertad y se denota
por
Y =
k
¸
i=1
Z
2
i
∼ χ
2
k
Teorema 3.1.1 La esperanza y varianza de una distribuci´on χ
2
est´an dadas por
E(Y ) = k
V(Y ) = 2k
Definici´ on 3.1.3 Sea Z
0
, Z
1
, . . . , Z
k
una muestra aleatoria de la distribuci´on N(0, 1) y sea Y =
¸
k
i=1
Z
2
i
. Entonces
X =
Z
0

Y/k
tiene distribuci´on t-Student con n grados de libertad y se denota por
X ∼ t
n
Teorema 3.1.2 Si X
1
, . . . , X
n
es una muestra aleatoria de X ∼ N(µ, σ
2
) entonces:
a)
X =
1
n
n
¸
i=1
X
i
y
s
2
=
1
n −1
n
¸
i=1
(X
i
−X)
2
son independientes.
b)
(n −1)s
2
σ
2
∼ χ
2
n−1
Definici´ on 3.1.4 Sean X, Y dos variables aleatorias independientes que tienen distribuci´on χ
2
con
n y m grados de libertad, respectivamente, es decir,
X ∼ χ
2
n
e Y ∼ χ
2
m
Entonces la variable aleatoria
Z =
X/n
Y/m
se tiene distribuci´on F con n y m grados de libertad y se denota por
Z ∼ F
n,m
61
3.2. Estimaci´ on Puntual
Definici´ on 3.2.1 Un estimador puntual corresponde a cualquier funci´on de la muestra
g(X
1
, X
2
, . . . , X
n
)
3.2.1. M´etodo de Momentos
Definici´ on 3.2.2 Sea X
1
, X
2
, . . . , X
n
una muestra aleatoria de una variable X, proveniente de una
poblaci´on con funci´on de densidad f
θ
, con
θ = (θ
1
, θ
2
, . . . , θ
k
)
El estimador de momentos
¯
θ de θ corresponde a la soluci´on del sistema de ecuaciones
E(X
1
) =
1
n
n
¸
i=1
X
1
i
E(X
2
) =
1
n
n
¸
i=1
X
2
i
=
.
.
.
E(X
k
) =
1
n
n
¸
i=1
X
k
i
Debi´endose plantear tantas ecuaciones como par´ametros se desea estimar.
Ejercicios 13 Si X
1
, X
2
, . . . , X
n
iid
∼ f, encuentre los estimadores de momentos si f es
1. U(θ, 2θ)
2. N(µ, σ
2
)
62
3.2.2. M´etodo de M´axima Verosimilitud
Definici´ on 3.2.3 Sea X
1
, . . . , X
n
una muestra aleatoria proveniente de una poblaci´on con funci´on
densidad f
θ
. Se define la funci´on de verosimilitud como la funci´on densidad conjunta del vector
X
1
, . . . , X
n
y est´a dada por
L(θ, x) =
n
¸
i=1
f
θ
(x
i
)
Ejercicios 14 Si X
1
, X
2
, . . . , X
n
iid
∼ f, encuentre una expresi´on simplificada para la funci´on de
verosimilitud si f es
1. exp(λ)
2. Γ(α, β), con α conocido.
3. Bin(n, p) con n conocido.
4. Poisson(λ)
Definici´ on 3.2.4 Un estimador m´aximo veros´ımil, EMV, de θ, basado en una muestra X
corresponde a
´
θ(X)
el cual se obtiene al resolver

∂θ
j
log(L(θ, x)) = 0 j = 1, . . . , k
Ejercicios 15 Si X
1
, X
2
, . . . , X
n
iid
∼ f, encuentre los estimadores de m´axima verosimilitud si f es
1. exp(λ)
2. Γ(α, β), con α conocido.
3. Bin(n, p) con n conocido.
4. Poisson(λ)
Definici´on 3.2.5 Consideremos una familia de distribuciones con par´ametro θ ∈ Θ para una va-
riable aleatoria X y con funci´on de verosimilitud asociada L(θ, x). Se dice que la log- verosimiltud
de X pertenece a una familia exponencial ssi existen funciones ω
1
, . . . , ω
k
∈ Θ y t
1
, . . . , t
k
∈ R,
tales que
log L(θ, x) = log h(x) + log c(θ) +
k
¸
j=1
ω
j
(θ)t
j
(x)
con h y c funciones positivas definidas en R
63
Ejemplo 3.2.1 Sea la variable aleatoria X con funci´on densidad
f(x) =

θ(1 −θ)
x−1
, x = 1, 2, . . . , θ ∈ (0,1);
0, e.o.c.
Determine si f(x) pertenece a la familia exponencial.
Ejemplo 3.2.2 Sea X
1
, . . . , X
n
una muestra aleatoria de X cuya densidad es
f(x) =
1

2πσ
2
exp


1

2
(x −µ)
2

con x ∈ R, θ = (µ, σ
2
), ∞< µ < ∞, σ
2
> 0, desconocidos. Determine si esta distribuci´on pertenece
a la familia exponencial.
64
3.3. Insesgamiento y eficiencia
Definici´ on 3.3.1 Un estimador puntual
´
θ de θ es insesgado si
E(
´
θ) = θ ∀ θ
Si
´
θ no es insesgado , se denomina sesgo de
´
θ a
b(
´
θ) = E(
´
θ) −θ
Por lo tanto, un estimador es insesgado si su distribuci´ on tiene como valor esperado al par´ ametro
que se desea estimar.
Ejercicios 16 Si X
1
, X
2
, . . . , X
n
iid
∼ f, determine si los estimadores de momentos y m´axima vero-
similitud son insesgados para f
1. exp(λ)
2. Γ(α, β), con α conocido.
3. Bin(n, p) con n conocido.
4. Poisson(λ)
Definici´ on 3.3.2 El error cuadr´ atico medio de un estimador
´
θ de θ corresponde a
ECM(
´
θ) = E(
´
θ −θ)
2
= V(
´
θ) + (b(
´
θ))
2
Ejemplo 3.3.1 Sea X
1
, . . . , X
n
iid
∼ exp(θ) y consideremos
´
θ = 1/x. Calcule el ECM(
´
θ).
Definici´ on 3.3.3 Se define la matriz de informaci´on de Fisher como
I(θ) = E


∂θ
logL(θ, x)

2
Lema 2 Sea la funci´on f
θ
tal que
d

E


∂θ
logL(θ, x)

=


∂θ
¸

∂θ
logf
θ
(x)

f
θ
(x)

dx,
entonces,
E


∂θ
logL(θ, x)

2
= −E


2
∂θ
2
logL(θ, x)

65
Teorema 3.3.1 Cram´er - Rao.
Sea X
1
, . . . , X
n
una muestra con funci´on densidad f
θ
que satisface la conmutatividad entre el opera-
dor integral y diferencial y sea g(X) = g(X
1
, . . . , X
n
) un estimador donde E(g(X)) es diferenciable
como funci´on de θ. Entonces
V(g(X)) ≥
(
d

E(g(X))
2
E


∂θ
log L(θ, x)

2
Observaci´on: La cantidad
(
d

E(g(X))
2
E


∂θ
log L(θ, x)

2
se llama cota de Cram´er-Rao y todo estimador que alcance esta cota ser´a llamado eficiente.
Es claro que si g(X) es un estimador insesgado para θ entonces se cumple que
V(g(X)) ≥
1
E


∂θ
log L(θ, x)

2
es decir, la cota de Cram´er- Rao es igual a I(θ)
−1
.
Definici´ on 3.3.4 Un estimador g(X) de θ se dice eficiente si
I(θ)
−1
V(
´
θ)
= 1
Teorema 3.3.2 Si
´
θ es el EMV de θ, entonces para cualquier funci´on g(θ), el EMV de g(θ) es g(
´
θ)
Ejercicios 17 .
Sea X
1
, . . . , X
n
una muestra aleatorio con funci´on densidad
f
X
(x) =
x
θ
2
e
−x/θ
x > 0, θ > 0
1. Determine el estimador de momentos y el EMV de θ.
2. Determine si
´
θ es insesgado, calcule su varianza y comp´arela con la cota de Cram´er- Rao.
¿Es este estimador eficiente?
66
3.4. Estimaci´ on Intervalar
Adem´ as de las estimaciones puntuales de un par´ ametro, hay estimaciones por intervalos que
estipulan, con un cierto grado de confianza, que el par´ ametro se encuentra entre dos valores del
estad´ıstico estimado. Supongamos una variable aleatoria poblacional X que tiene media µ cuyo
valor es desconocido. De una muestra aleatoria de taman˜ no n, el valor x de la media muestral X
se puede usar para estimar µ al 95 % de confianza como sigue:
Definido E, el margen de error y la significancia α, tal que
P(µ −E ≤ x ≤ µ + E) = 1 −α
lo que es equivalente a la ecuaci´on
P(x −E ≤ µ ≤ x + E) = 1 −α
Entonces (x −E, x + E) se llama intervalo de confianza del 100(1 −α) % para µ.
Formalmente:
Definici´ on 3.4.1 Un estimador intervalar para un par´ametro θ, dados los valores x = (x
1
, . . . , x
n
)
de una variable aleatoria X, es cualquier par de funciones L(x
1
, . . . , x
n
) y U(x
1
, . . . , x
n
) que satisface
L(x) ≤ U(x) para todo x. El intervalo aleatorio [L(X), U(X)] se denomina un estimador intervalar.
Definici´ on 3.4.2 Para un par´ametro cualquiera θ, se define un conjunto de confianza 1 − α
como un conjunto C(x) tal que
P(θ ∈ C(X)) = 1 −α
Definici´on 3.4.3 Una variable aleatoria Q(X, θ) corresponde a un pivote si su distribuci´on no
depende de ning´ un par´ametro. Es decir, la distribuci´on de Q(X, θ) es la misma, para todo θ.
Ejemplo 3.4.1 Encuentre una cantidad pivotal si X
1
, . . . , X
n
son una muestra aleatoria N(µ, σ
2
)
y a partir de esta construya un conjunto o intervalo de confianza para la media poblacional.
3.4.1. Intervalo de Confianza para la media
Sea X
1
, . . . , X
n
iid
∼ N(µ, σ
2
). Un intervalo de confianza para la media poblacional µ cuando la
varianza poblacional es conocida es
x ±E
donde E = z
1−α/2
· σ/

n.
Ejemplo 3.4.2 Una aerol´ınea necesita estimar el n´ umero medio de pasajeros en un vuelo de re-
ciente apertura. Para ello, toma una muestra de 40 d´ıas y encuentra una media muestral de 112.0
pasajeros y una desvaici´on est´andar de 25. Encuentre un intervalo de confianza al 95 % para la
media poblacional.
67
Sea X
1
, . . . , X
n
iid
∼ N(µ, σ
2
). Un intervalo de confianza para la media poblacional µ cuando la
varianza poblacional es desconocida es
x ±E
donde E = t
(n−1,1−α/2)
· s/

n.
Ejemplo 3.4.3 En una aerol´ınea se resgistran los tiempos de espera promedio de atenci´on en mes´on
de 14 d´ıas, obteniendo los siguientes resultados:
4.3 5.2 2.1 6.2 5.8 4.7 3.8 9.3 5.0 4.1 6.0 8.7 0.5 4.9
Encuentre un intervalo de confianza al 95 % para el tiempo de espera medio.
3.4.2. Intervalo de Confianza para una proporci´on
Sea Y ∼ Bin(n, p). Por teorema del l´ımite central sabemos que
´ p ∼ (E(´ p), V(´ p))
Se puede mostrar que E(´ p) = p y V(´ p) =
p(1−p)
n
.
As´ı, el intervalo de confianza al (1 −α)100 % para una proporci´ on est´a dado por
´ p ±E
donde E = z
1−α/2
·

p(1− p)
n
.
Ejemplo 3.4.4 En un colegio de Ense˜ nanza Media hay matriculados 800 alumnos. A una muestra
seleccionada aleatoriamente de un 15 % de ellos, se les pregunt´o si utilizaban la cafeter´ıa del colegio.
Contestaron negativamente un total de 24 alumnos.
a) Estime el porcentaje de alumnos que utilizan la cafeter´ıa del colegio.
b) Determine, con una confianza del 99 %, el error m´aximo cometido con dicha estimaci´on.
3.4.3. Intervalo de Confianza para la varianza
Sea X
1
, . . . , X
n
una muestra aleatoria de una poblaci´on normal con media µ y varianza σ
2
. Un
intervalo de confianza para la varianza poblacional σ
2
est´ a dado por
¸
(n −1)s
2
χ
2
(n−1,1−α/2)
,
(n −1)s
2
χ
2
n−1,α/2

donde s
2
=
1
n−1
¸
n
i=1
(X
i
−X)
2
.
68
Ejemplo 3.4.5 Un vendedor de muebles de madera para armar (desarmados) importa las piezas
desde el norte de Europa para abaratar costos. En cierto modelo, el cliente debe insertar cuatro
patas redondas en hoyos ya perforados. Para un ajuste adecuado, el di´ametro de las patas debe ser
ligeramente menor que un cent´ımetro. Inevitablemente, hay cierta variaci´on en los di´ametros de
las patas. El vendedor compra patas a un proveedor bajo la especificaci´on de que el di´ametro medio
debe ser de 0.995 cm y desviaci´on est´andar menor que 0.03 cm. Como parte del control de calidad
se obtuvo una muestra aleatoria de 121 patas la cual arroj´o una media de 0.99516 y desviaci´on
est´andar de 0.01825. Calcule un IC al 95 % para la desviaci´on est´andar del lote.
En caso de contar dos muestras aleatorias, puede ser de inter´es comparar los siguientes par´ ame-
tros :
3.4.4. Intervalo de Confianza para la diferencia de medias
Sean X
1
, . . . , X
n
iid
∼ N(µ
X
, σ
2
X
) e Y
1
, . . . , Y
m
iid
∼ N(µ
Y
, σ
2
Y
), ambas muestras independientes. Un
intervalo de confianza para la diferencia de media entre poblaciones est´ a dado por
(x −y) ±E
donde E cambiar´a de acuerdo a la informaci´on con respecto a la varianza.
Podemos identificar 3 casos:
a) σ
2
X
y σ
2
Y
conocidas.
E = z
1−α/2
·

σ
2
X
n
+
σ
2
Y
m
es decir

X
−µ
Y
) ∈

(x −y) ±z
1−α/2
·

σ
2
X
n
+
σ
2
Y
m

b) σ
2
X
y σ
2
Y
desconocidas pero iguales (σ
2
X
= σ
2
Y
= σ
2
).
Se utiliza el estimador de σ
2
dado por
s
2
p
=
(n −1)s
2
X
+ (m−1)s
2
Y
n + m−2
con
s
2
X
=
1
n −1
¸
(X
i
−X)
2
y s
2
Y
=
1
m−1
¸
(Y
i
−Y )
2
El margen de error est´a dado por
E = t
(n+m−2,1−α/2)
· s
p

1
n
+
1
m
69
Por lo tanto, el IC para la diferncia de medias cuando las varianzas son iguales pero descono-
cidas est´a dado por

X
−µ
Y
) ∈

(x −y) ±t
(n+m−2,1−α/2)
· s
p

1
n
+
1
m

c) σ
2
X
y σ
2
Y
desconocidas y distintas.
Se define
E = t
(ν,1−α/2)
·

s
2
X
n
+
s
2
Y
m
donde
ν =

s
2
x
n
+
s
2
y
m

2
(s
2
x
/n)
2
n−1
+
(s
2
y
/m)
2
m−1
As´ı, el IC para la diferncia de medias cuando las varianzas son desconocidas y distintas
est´ a dado por

X
−µ
Y
) ∈

(x −y) ±t
(ν,1−α/2)
·

s
2
X
n
+
s
2
Y
m

Ejemplo 3.4.6 .
a) Se realiza un estudio para comparar los contenidos de nicotina de dos marcas de cigarrillos.
10 cigarrillos de la marca A dieron un contenido promedio de nicotina de 3,1ml/gr, con una
desviaci´on est´andar de 0,5ml/gr, mientras que 8 cigarrillos de la marca B dieron un contenido
promedio de nicotina 2,7ml/gr, con una desviaci´on est´andar de 0,7ml/gr. Suponiendo que los
datos son muestras aleatorias provenientes de dos poblaciones normales con varianzas iguales.
Encuentre un IC del 95 % para la verdadera diferencia en el contenido de nicotina de las dos
marcas.
b) Una compa˜ n´ıa tiene dos departamentos que producen id´enticos productos. Se sospecha que las
producciones por hora son diferentes en los dos departamentos. Para averiguar esto se consi-
deran muestras aleatorias de horas de producci´on que proporcionan la siguiente informaci´on:
Departamento 1 n
1
= 64 x
1
= 100 σ
2
1
= 256
Departamento 2 n
2
= 49 x
2
= 90 σ
2
2
= 196
Hallar un IC del 95 % para la diferencia verdadera entre las producciones medias de los de-
partamentos. Comente.
70
3.4.5. Intervalo de Confianza para la comparaci´on de varianzas
Sean X
1
, . . . , X
n
iid
∼ N(µ
X
, σ
2
X
) e Y
1
, . . . , Y
m
iid
∼ N(µ
Y
, σ
2
Y
), ambas muestras independientes y de
media desconocida. Para comparar las varianzas de ambas muestras podemos utilizar el intervalo
de confianza para la diferencia para el cuociente σ
2
x

2
y
dado por
¸
s
2
x
s
2
y
· F
(n−1,m−1,α/2)
,
s
2
x
s
2
y
· F
(n−1,m−1,1−α/2)

Ejemplo 3.4.7 Se realiza un estudio para comparar los contenidos de nicotina de dos marcas de
cigarrillos. 10 cigarrillos de la marca A dieron un contenido promedio de nicotina de 3,1ml/gr, con
una desviaci´on est´andar de 0,5ml/gr, mientras que 8 cigarrillos de la marca B dieron un contenido
promedio de nicotina 2,7ml/gr, con una desviaci´on est´andar de 0,7ml/gr. Suponiendo que los datos
son todos independientes, encuentre un IC del 95 % para la diferencia de varainzas.
71
3.5. Pruebas de Hip´ otesis
3.5.1. Introducci´ on
A menudo los datos muestrales sugieren que algo relevante est´ a sucediendo en la poblaci´ on o
proceso subyacente. Como suponemos que los datos provienen de una muestra aleatorio y por lo
mismo, est´an sujetos a cierto grado de variaci´on aleatoria, la pregunta es si el resultado o el efecto
aparente en la muestra es una indicaci´on de que algo est´ a sucediendo en la pobalci´ on (o proceso)
subyacente o si el resultado observado es posiblemente una casualidad, producto de la variaci´ on
aleatoria.
Por esta raz´on es que postulamos una conjetura (o varias) que nos permita estimar si los resul-
tados aparentes en una muestra indican que en realidad algo est´ a pasando. De manera formal, la
conjetura puede postular en forma de hip´ otesis estad´ıstica.
Definici´ on 3.5.1 Una hip´otesis estad´ıstica es una aseveraci´on o conjetura con respecto a una
o m´as poblaciones.
En nuestro caso en particular, una hip´otesis es una afirmaci´on sobre un par´ametro poblacional.
La verdad o falsedad de una hip´otesis estad´ıstica nunca se sabe con albosuta certeza a menos
que examinemos toda la poblaci´on. Esto, por supuesto, ser´ıa poco pr´ actico en la mayor´ıa de las
situaciones. En su lugar, tomamos una muestra aleatoria de la poblaci´ on de inter´es y utilizamos
los datos contenidos en esta muestra para proporcionar evidencia que apoye o no la hip´otesis. La
evidencia de la muestra que es inconsistente con la hip´ otesis que se establece conduce al rechazo de
´esta, mientras que la evidencia que la apoya conduce a su aceptaci´on.
La estructura de la prueba de hip´ otesis se formular´ a con el uso del t´ermino hip´ otesis nula (H
0
),
hip´ otesis que deseamos probar como verdadera. En caso contrario, es decir, si la rechazamos, esta-
mos aceptando como verdadera la hip´ otesis alternativa (H
1
), que en general escribimos como
H
0
: θ ∈ Θ
0
vs H
1
: θ ∈ Θ

0
Definici´ on 3.5.2 Una prueba de hip´ otesis es una regla de decisi´on que especif´ıca para qu´e va-
lores de la muestra la decisi´on es aceptar H
0
como verdadera y para qu´e valores de la muestra la
decisi´on es aceptar H
1
como verdadera.
Para verificar si H
0
es verdadera debemos resumir la informaci´on de los datos en un estad´ısti-
co de prueba. Dicho estad´ıstico se calcula para ver si la informaci´ on que entregan los datos es
razonablemente compatible con la hip´ otesis nula.
Para decidir a favor de la hip´ otesis nula debemos establecer una regi´on de aceptaci´ on, la cual
identificar´ a los valores del estad´ıstico de prueba que son relativamente probables dada la hip´otesis
nula y los valores que no lo son. ¿En qu´e valor del estad´ıstico de la prueba comenzamos a decir que
los datos apoyan a a la hip´ otesis alternativa? Para contestar esta pregunta se requiere conocer la
distribuci´ on muestral del estad´ıstico de prueba. Los valores del estad´ıstico de prueba que son suma-
mente improbables bajo la hip´otesis nula forman una regi´on de rechazo para la prueba estad´ıstica.
72
Cuando realizamos una prueba, podemos tomar dos decisiones. Por tanto, podemos cometer dos
tipos de error:
Error de tipo I: rechazar la hip´otesis nula, H
0
dado que esta es verdadera.
Error de tipo II: no rechazar la hip´otesis nula H
0
, dado que la hip´ otesis alternativa H
1
es correcta.
Las consecuencias de estos tipos de error son diferentes y generalmente intentaremos minimizar el
error de tipo I.
Ejemplo 3.5.1 Determine los errores de tipo I y II.
1. H
0
: el acusado es culpable
H
1
: el acusado es inocente
2. H
0
: el paciente est´a enfermo
H
1
: el paciente est´a sano
La prueba adecuada ser´ıa aquella que minimizara la probabilidad de cometer los dos tipos de
error simult´ aneamente, lo cual, con estad´ıstica cl´ asica, es imposible.
En consecuencia, se trata de minimizar la probabilidad de cometer Error tipo II, sujeto a que
la probabilidad de cometer Error tipo I no exceda un valor predeterminado α. Este ´ ultimo error es
tambi´en llamado nivel de significancia.
Algunas propiedades importantes respecto de estos errores son:
Los errores de tipo I y tipo II est´ an relacionados. Una disminuci´ on en la probabilidad de uno
por lo general tiene como resultado un aumento en la probabilidad del otro.
El tama˜ no de la regi´on de rechazo, y por tanto la probabilidad de cometer error tipo I, siempre
se puede reducir al ajustar el o los valores cr´ıticos.
Un aumento en el tama˜ no muestral n reducir´ a α y β (error tipo II) de forma simult´ anea.
Si la hip´otesis nula es falsa, β es un m´aximo cuando el valor real de un par´ ametro se aproxima
al valor hipot´etico . Entre m´ as grande sea la distancia entre el valor real y el valor hipot´etico,
ser´ a menor β.
Definici´on 3.5.3 La potencia de una prueba es la probabilidad de rechazar H
0
dado que una
alternativa espec´ıfica es verdadera, y se puede calcular como 1 −β.
Diferentes tipos de pruebas se comparan al contrastar propiedades de potencia.
A pesar de estar fijo, la probabilidad de cometer error de tipo I puede ser calculada y recibe el
nombre de valor-p.
73
Definici´ on 3.5.4 El valor-p de una prueba de hip´otesis es el menor valor de α para el cual
rechazamos la hip´otesis nula.
Calculado este valor, la regla ser´ a rechazar la hip´ otesis nula si valor −p < α.
En este curso estudiaremos pruebas de hip´otesis para tres par´ametros poblacionales: media,
varianza y proporci´on.
3.5.2. Prueba de Hip´otesis para la media
Sea X
1
, . . . , X
n
una muestra aleatoria de una distribuci´ on con media µ y varianza σ
2
> 0.
Considere las hip´ otesis generales
H
0
: µ ∈ Θ
0
vs H
1
: µ ∈ Θ

0
Es decir, queremos probar alg´ un valor o rango de valores para la media, cuando la varianza es
conocida. La estad´ıstica de prueba apropiada se basa en la variable X, que por TCL sabemos
distribuye N(µ, σ
2
/n) y que si estandarizamos obtenemos
Z =
X −µ
σ/

n
∼ N(0, 1)
Entonces distinguiremos tres casos:
Hip´ otesis Nula Hip´ otesis Alternativa Rechazo H
0
si
µ = µ
0
µ = µ
0
|z
0
| ≥ z
1−α/2
µ ≤ µ
0
µ > µ
0
z
0
≥ z
1−α
µ ≥ µ
0
µ < µ
0
z
0
≤ −z
1−α
donde
z
0
=
x −µ
0
σ/

n
Ejemplo 3.5.2 Una muestra aleatoria de 100 muertes registradas en un servicio el a˜ no pasado
muestra una vida promedio de 71.8 a˜ nos. Suponga una desviaci´on est´andar poblacional de 8.9 a˜ nos.
¿esto parece indicar que la vida media hoy en d´ıa es mayor a 70 a˜ nos? Utilice un nivel de signifi-
cancia de 5 %.
Sea X
1
, . . . , X
n
una muestra aleatoria de una distribuci´on con media µ, desconocida y varianza
s
2
> 0, esto quiere decir que la varianza es estimada en la muestra. Considere las hip´otesis generales
H
0
: µ ∈ Θ
0
vs H
1
: µ ∈ Θ

0
Es decir, queremos probar alg´ un valor o rango de valores para la media, cuando la varianza es
desconocida, por lo que la reemplazamos por s
2
, el estimador insesgado de la varianza. La estad´ıstica
de prueba apropiada se basa en la variable X, que por TCL sabemos distribuye N(µ, σ
2
/n) y adem´ as
n−1
σ
2
s
2
∼ χ
2
, con las que podemos construir el estad´ıstico
Z =
X −µ
s/

n
∼ t(n −1)
Entonces distinguiremos tres casos:
74
Hip´ otesis Nula Hip´ otesis Alternativa Rechazo H
0
si
µ = µ
0
µ = µ
0
|t
0
| ≥ t
1−α/2
µ ≤ µ
0
µ > µ
0
t
0
≥ t
1−α
µ ≥ µ
0
µ < µ
0
t
0
≤ −t
1−α
donde
t
0
=
x −µ
0
s/

n
Ejemplo 3.5.3 Se afirma que una aspiradora gasta en promedio 46 kilowatt-hora al a˜ no. Se toma
una muestra aleatoria de 12 hogares indica que las aspiradoras gastan un promedio de 42 kilowatt-
hora al a˜ no con una desviaci´on est´andar de 11.9 kilowatt-hora, ¿esto sugiere que las aspiradoras
gastan, en promedio, menos de 46 kilowatt-hora anualmente con 5 % de significancia?
3.5.3. Prueba de Hip´otesis para la proporci´ on
Es de inter´es probar la hip´ otesis que la proporci´on de ´exitos de un experimento binomial es
igual a un valor espec´ıfico o est´ a en un rango de valores. Sea X la variable aleatoria que cuenta el
n´ umero de ´exitos y sea ´ p = X/n la estimaci´on del par´ ametro p. Entonces, para n grande, podemos
establecer que
Z =
x −np

np(1 −p)
=
´ p −p

p−(1−p)
n
∼ N(0, 1)
Entonces distinguiremos tres casos:
Hip´ otesis Nula Hip´ otesis Alternativa Rechazo H
0
si
p = p
0
p = p
0
|z
0
| ≥ z
1−α/2
p ≤ p
0
p > p
0
z
0
≥ z
1−α
p ≥ p
0
p < p
0
z
0
≤ −z
1−α
donde
z
0
=
´ p −p
0

p
0
(1 −p
0
)/n
Ejemplo 3.5.4 Un medicamento que se prescribe actualmente se considera efectivo en un 60 %.
Resultados experimentales con un nuevo f´armaco se asministar a una muestra aleatoria de 100
personas, de las cuales 70 se aliviaron. ¿Esta es evidencia suficiente para concluir que el nuevo
medicamento es superior al que se receta actualmente? Use α = 5 %
3.5.4. Prueba de Hip´otesis para la varianza
Sean X
1
, . . . , X
n
una muestra de una variable aleatoria con distribuci´ on N(µ, σ
2
), ambos par´ ame-
tros desconocidos. Sabemos que si s
2
es el estimador insesgado de σ
2
, es decir,
s
2
=
1
n −1
¸
(x
i
−x)
2
entonces
(n −1)s
2
σ
2
∼ χ
2
(n−1)
75
Entonces, si es de inter´es probar que la varianza poblacional est´a en un intervalo dado, distinguire-
mos tres casos:
Hip´ otesis Nula Hip´ otesis Alternativa Rechazo H
0
si
σ
2
= σ
2
0
σ
2
= σ
2
0
Q
0
≥ χ
2
n−1,1−α/2
´ o Q
0
≤ χ
2
n−1,α/2
σ
2
≤ σ
2
0
σ
2
> σ
2
0
Q
0
≥ χ
2
n−1,1−α
σ
2
≥ σ
2
0
σ
2
< σ
2
0
Q
0
≤ χ
2
n−1,α
donde
Q
0
=
(n −1)s
2
σ
2
0
Ejemplo 3.5.5 Se tienen los pesos de 10 paquetes de semillas de pasto distribuidas por cierta
compa˜ n´ıa, de la cuales se obtuvo x = 46,12 y s
2
= 0,286. La empresa desea saber si los pesos
registrados presentan evidencia para asegurar que la varianza poblacional es mayor a 0.2, con un
nivel de significancia de 5 %.
3.5.5. Prueba de Hip´otesis para la diferencia de medias
Si tenemos dos muestras de tama˜ no n y m de poblaciones independientes, X e Y, con medias
µ
X
y µ
Y
, ´estas pueden ser comparadas usando la diferencia µ
1
− µ
2
, cuyo estimador es x − y. La
distribuci´ on de esta diferencia depender´ a de la informaci´on respecto de la relaci´on entre las varianzas
poblacionales σ
2
X
y σ
2
Y
, de los cuales podemos identificar tres casos.
Varianzas conocidas.
El estad´ıstico de prueba es
(X −Y ) −d

σ
2
X
n
+
σ
2
Y
m
∼ N(0, 1)
Las hip´otesis a contrastar son:
Hip´ otesis Nula Hip´ otesis Alternativa Rechazo H
0
si
µ
X
−µ
Y
= d µ
X
−µ
Y
= d |z
0
| ≥ z
1−α/2
µ
X
−µ
Y
≤ d µ
X
−µ
Y
> d z
0
≥ z
1−α
µ
X
−µ
Y
≥ d µ
X
−µ
Y
< d z
0
≤ −z
1−α
donde
Z
0
=
(x −y) −d

σ
2
X
n
+
σ
2
Y
m
Ejemplo 3.5.6 Una muestra aleatoria de tama˜ no n
1
= 25, que se toma de una poblaci´on normal
con una desviaci´on est´andar σ
1
= 5,2, tiene una media x
1
= 81. Una segunda muestra aleatoria
de tama˜ no n
2
= 36, que se toma de una poblaci´on normal diferente con una desviaci´on est´andar
σ = 3,4, tiene una media x
2
= 76. Pruebe la hip´otesis de las medias son iguales con un nivel de
significancia del 5 %.
76
Varianzas desconocidas pero iguales.σ
2
X
= σ
2
Y
= σ
Si las varianzas desconocidas, debemos estimarlas, incorporando el hecho que sean iguales. En-
tonces, dados s
2
X
y s
2
Y
, los estimadores insesgados de σ
2
X
y σ
2
Y
, respectivamente, definimos
s
2
p
=
(n −1)s
2
X
+ (m−1)s
2
Y
n + m−2
El estad´ıstico de prueba es
(X −Y ) −d
s
p

1
n
+
1
m
∼ t
ν
con ν = n + m−2.
Las hip´otesis a contrastar son:
Hip´ otesis Nula Hip´ otesis Alternativa Rechazo H
0
si
µ
X
−µ
Y
= d µ
X
−µ
Y
= d T
0
≥ t
ν,1−α/2
µ
X
−µ
Y
≤ d µ
X
−µ
Y
> d T
0
≥ t
ν,1−α
µ
X
−µ
Y
≥ d µ
X
−µ
Y
< d T
0
≤ −t
ν,1−α
donde
T
0
=
(x −y) −d
s
p

1
n
+
1
m
Ejemplo 3.5.7 Una compa˜ n´ıa armadora de autom´oviles grande trata de decidir si compra llantas
de la marca A o de la B para sus nuevos modelos. Se lleva a cabo un experimento, para ayudar a
llegar a una decisi´on, en el que se usan 12 llantas de cada marca. Las llantas se utilizan hasta que
se acaban. Los resultados son
Marca A :x
1
= 37900km s
1
= 5100km
Marca B :x
2
= 39800km s
2
= 5900km
Pruebe la hip´otesis que no hay diferencias entre las dos marcas de llantas con un nivel de signifi-
cancia del 5 %, suponiendo que las varianzas poblacionales son iguales.
Varianzas desconocidas y distintas.
Si las varianzas desconocidas y distintas, el estimador de la varianza de µ
X
−µ
Y
es
s
2
p
=
s
2
X
n
+
s
2
Y
m
El estad´ıstico de prueba es
(X −Y ) −d
s
p
∼ t
ν
con
ν =

s
2
X
n
+
s
2
Y
m

2
¸
(s
2
X
/n)
2
n−1
+ (
(s
2
Y
/m)
2
m−1

Las hip´otesis a contrastar son:
77
Hip´ otesis Nula Hip´ otesis Alternativa Rechazo H
0
si
µ
X
−µ
Y
= d µ
X
−µ
Y
= d |T
0
| ≥ t
ν,1−α/2
µ
X
−µ
Y
≤ d µ
X
−µ
Y
> d T
0
≥ t
ν,1−α
µ
X
−µ
Y
≥ d µ
X
−µ
Y
< d T
0
≤ −t
ν,1−α
donde
T
0
=
(x −y) −d
s
p
∼ t
ν
Ejemplo 3.5.8 Para el ejemplo anterior, realice la prueba para la hip´otesis que las llantas de la
marca A son mejores que las de B, suponiendo que las varianzas poblacionales son distintas.
3.5.6. Prueba de Hip´otesis para la diferencia de proporciones
Si tenemos dos muestras independientes X
1
, . . . , X
n
y Y
1
, . . . , Y
m
de poblaciones Bernoulli de
par´ ametros p
1
y p
2
, respectivamente, ´estas pueden ser comparadas usando la diferencia p
1
− p
2
utilizando que
(p
1
−p
2
) −d

p
1
(1−p
1
)
n
+
p
2
(1−p
2
)
m
∼ N(0, 1)
Las hip´otesis a contrastar son:
Hip´ otesis Nula Hip´ otesis Alternativa Rechazo H
0
si
p
1
−p
2
= d p
1
−p
2
= d |z
0
| ≥ z
1−α/2
p
1
−p
2
≤ d p
1
−p
2
> d z
0
≥ z
1−α
p
1
−p
2
≥ d p
1
−p
2
< d z
0
≤ −z
1−α
donde
z
0
=
(´ p
1
− ´ p
2
) −d

p
1
(1− p
1
)
n
+
p
2
(1− p
2
)
m
Ejemplo 3.5.9 En un estudio para estimar la proporci´on de residentes de cierta ciudad y sus
suburbios que est´an a favor de la construcci´on de una planta de energ´ıa nuclear, se encuentra que
63 de 100 residentes urbanos est´an a favor de la construcci´on mientras que s´olo 59 de 125 residentes
suburbanos la favorecen. ¿Hay una diferencia significativa entre las proporci´on de residentes urbanos
y suburbanos que favorecen la construcci´on de la planta nuclear? Use α = 0,05.
3.5.7. Prueba de Hip´otesis para la comparaci´on de varianzas
Sean X
1
, . . . , X
n
una muestra aleatoria de la distribuci´on N(µ
X
, σ
2
X
), independiente de Y
1
, . . . , Y
m
una muestra aleatoria de una distribuci´ on N(µ
Y
, σ
2
Y
), con todos los par´ ametros son desconocidos.
Las varianzas poblacionales pueden ser comparadas usando el cuociente σ
2
X

2
Y
cuyo estimador es
s
2
X
/s
2
Y
. Entonces
σ
2
X
σ
2
Y
k ∼ F
n−1,m−1
Entonces, si es de inter´es probar que las varianzas poblacionales est´ an en una raz´ on dada es
78
Hip´ otesis Nula Hip´ otesis Alternativa Rechazo H
0
si
σ
2
X
σ
2
Y
=
1
k
σ
2
X
σ
2
Y
=
1
k
F
0
≥ F
n−1,n−2,1−α/2
´ o F
0
≤ F
n−1,n−2,α/2
σ
2
X
σ
2
Y

1
k
σ
2
X
σ
2
Y
>
1
k
F
0
≥ F
n−1,n−2,1−α
σ
2
X
σ
2
Y

1
k
σ
2
X
σ
2
Y
<
1
k
F
0
≤ F
n−1,n−2,α
donde
F
0
=
s
2
X
s
2
Y
k
Ejemplo 3.5.10 Para el ejemplo 16.9, determine si las varianzas son iguales o distintas con 2.5 %
de confianza.
79

´ Indice general
1. Estad´ ıstica Descriptiva 1.1. Introducci´n . . . . . . . . . . . . . . . . . . . . . . . . . . o 1.1.1. Estad´ ıstica Descriptiva e Inferencial . . . . . . . . . 1.1.2. Etapas de una Investigaci´n Estad´ o ıstica . . . . . . . 1.1.3. Conceptos B´sicos . . . . . . . . . . . . . . . . . . a 1.2. Muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1. Conceptos b´sicos . . . . . . . . . . . . . . . . . . . a 1.2.2. El Muestreo . . . . . . . . . . . . . . . . . . . . . . 1.2.3. Muestreo Aleatorio Simple . . . . . . . . . . . . . . 1.2.4. Muestreo Estratificado . . . . . . . . . . . . . . . . 1.3. Clasificaci´n de variables . . . . . . . . . . . . . . . . . . . o 1.3.1. Nominales . . . . . . . . . . . . . . . . . . . . . . . 1.3.2. Ordinales . . . . . . . . . . . . . . . . . . . . . . . 1.3.3. Intervalares . . . . . . . . . . . . . . . . . . . . . . 1.4. Organizaci´n de la Informaci´n . . . . . . . . . . . . . . . o o 1.5. Medidas de Tendencia Central y Dispersi´n . . . . . . . . o 1.5.1. Medidas de Tendencia Central . . . . . . . . . . . . 1.5.2. Medidas de tendencia central, posici´n y dispersi´n. o o 1.6. Estad´ ısitica Bivariada . . . . . . . . . . . . . . . . . . . . . 1.6.1. Frecuencia Absoluta y Frecuencia Relativa . . . . . 1.6.2. Tablas de Contingencia . . . . . . . . . . . . . . . . 1.6.3. Distribuciones Marginales . . . . . . . . . . . . . . 1.6.4. Distribuciones Condicionales . . . . . . . . . . . . . 1.6.5. Independencia . . . . . . . . . . . . . . . . . . . . . 1.6.6. Asociaci´n, Dependencia o Correlaci´n . . . . . . . o o 1.6.7. Ajuste de Curvas . . . . . . . . . . . . . . . . . . . 2. Probabilidades 2.1. Introducci´n . . . . . . . . . . . . . . . . . . o 2.2. Modelo de Probabilidad . . . . . . . . . . . 2.2.1. Espacio Muestral . . . . . . . . . . . 2.2.2. Eventos . . . . . . . . . . . . . . . . 2.2.3. Medida de Probabilidad . . . . . . . 2.2.4. Espacios Probabil´ ısticos Finitos . . . 2.3. Probabilidad Condicionada e Independencia 1 3 3 3 3 4 5 5 5 5 6 7 7 7 7 8 11 11 11 15 15 15 15 16 17 17 20 22 22 25 25 25 27 29 31

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

2.3.1. Probabilidad Condicional . . . . . . . . . . . . . . 2.3.2. Probabilidad Total . . . . . . . . . . . . . . . . . 2.3.3. Teorema de Bayes . . . . . . . . . . . . . . . . . . 2.4. Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . 2.4.1. Introducci´n . . . . . . . . . . . . . . . . . . . . . o 2.4.2. Variables Aleatorias Discretas . . . . . . . . . . . 2.4.3. Variables Aleatorias Continuas . . . . . . . . . . . 2.4.4. Localizaci´n y dispersi´n de una variable aleatoria o o 2.4.5. Casos especiales de distribuciones probabilidad . . 2.4.6. Funciones de Variables Aleatorias . . . . . . . . . 2.4.7. Aproximaci´n de distribuciones . . . . . . . . . . o 2.5. Vectores Aleatorios . . . . . . . . . . . . . . . . . . . . . 2.5.1. Distribuci´n Conjunta . . . . . . . . . . . . . . . o 2.5.2. Distribuciones Conjuntas Especiales . . . . . . . . 2.5.3. Distribuci´n Marginal y Condicional . . . . . . . o 2.5.4. Esperanza y Varianza Condicional . . . . . . . . . 2.6. Nociones de Convergencia . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

31 33 33 34 34 36 37 38 40 46 49 50 50 52 54 56 58 60 60 62 62 63 65 67 67 68 68 69 71 72 72 74 75 75 76 78 78

3. Inferencia Estadistica 3.1. Introducci´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 3.2. Estimaci´n Puntual . . . . . . . . . . . . . . . . . . . . . . . . . o 3.2.1. M´todo de Momentos . . . . . . . . . . . . . . . . . . . . e 3.2.2. M´todo de M´xima Verosimilitud . . . . . . . . . . . . . e a 3.3. Insesgamiento y eficiencia . . . . . . . . . . . . . . . . . . . . . 3.4. Estimaci´n Intervalar . . . . . . . . . . . . . . . . . . . . . . . . o 3.4.1. Intervalo de Confianza para la media . . . . . . . . . . . 3.4.2. Intervalo de Confianza para una proporci´n . . . . . . . o 3.4.3. Intervalo de Confianza para la varianza . . . . . . . . . . 3.4.4. Intervalo de Confianza para la diferencia de medias . . . 3.4.5. Intervalo de Confianza para la comparaci´n de varianzas o 3.5. Pruebas de Hip´tesis . . . . . . . . . . . . . . . . . . . . . . . . o 3.5.1. Introducci´n . . . . . . . . . . . . . . . . . . . . . . . . . o 3.5.2. Prueba de Hip´tesis para la media . . . . . . . . . . . . o 3.5.3. Prueba de Hip´tesis para la proporci´n . . . . . . . . . . o o 3.5.4. Prueba de Hip´tesis para la varianza . . . . . . . . . . . o 3.5.5. Prueba de Hip´tesis para la diferencia de medias . . . . . o 3.5.6. Prueba de Hip´tesis para la diferencia de proporciones . o 3.5.7. Prueba de Hip´tesis para la comparaci´n de varianzas . . o o

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

2

Cap´ ıtulo 1 Estad´ ıstica Descriptiva
1.1. Introducci´n o

Por estad´ ıstica entendemos los m´todos cient´ e ıficos por medio de los cuales podemos recolectar, organizar, resumir, presentar y analizar los datos num´ricos relativos a un conjunto de individuos u e observaciones y que nos permiten extraer conclusiones v´lidas y efectuar decisiones l´gicas basadas a o en dichos an´lisis. Utilizamos la estad´ a ıstica para aquellos casos en los que tenemos una gran cantidad de observaciones y cuya aparici´n se rigen s´lo por las leyes del azar o aleatorias. o o

1.1.1.

Estad´ ıstica Descriptiva e Inferencial

La estad´ ıstica puede subdividirse en dos amplias ramas: la estad´ ıstica inductiva o inferencial y la estad´ ıstica deductiva o descriptiva. Estad´ ıstica Inductiva o Inferencial Entendemos por estad´ ıstica inductiva si a partir de una m.a., suficientemente representativa del universo, podemos inferir (inducir) conclusiones estad´ ısticamente v´lidas para todo el universo. Esa to obliga a plantear simult´neamente las condiciones bajo las cuales dichas conclusiones son v´lidas. a a Estad´ ıstica Descriptiva o Deductiva Entendemos por estad´ ıstica descriptiva si al analizar una m.a., s´lo se pueden obtener conclusioo nes v´lidas para la muestra, sin que se puedan o se requieran generalizar sus resultados para todo a el universo.

1.1.2.

Etapas de una Investigaci´n Estad´ o ıstica

A´n cuando los tipos de problemas a los cuales puede aplicarse la estad´ u ıstica matem´tica son a bastante heterog´neos, en muchos casos los pasos de una investigaci´n estad´ e o ıstica son similares. a) Formulaci´n del problema. Para investigar con ´xito un problema dado, primero tenemos o e que crear conceptos precisos, formular preguntas claras e imponer limitaciones adecuadas al 3

Esta debe aplicarse con reglas estrictas y con pautas preestablecidas. o 1. grados de pureza de un mineral. tipo de tr´fico.. e b) Dise˜ o del experimento. El universo puede ser finito.a.3. Esto implica determinar el tama˜o de la muestra o la cantidad y n tipo de datos. donde sus elementos son o escogidos al azar (no existe relaci´n en la elecci´n de los elementos). c) Experimentaci´n o colecci´n de datos. Conceptos B´sicos a Universo: Es el conjunto de todos los datos u observaciones de un suceso. servicio satisfactorio a la clientela. etc. Algunos conceptos tales como: Art´ ıculo defectuoso. tomando en cuenta el tiempo y dinero disponible y la habilidad de los investigadores.1.): Es un subconjunto de la poblaci´n. o o 4 . Al aplicar el m´todo estad´ o e ıstico seleccionado en la etapa b). El universo se designa usualmente con la letra U. podemos inferir conclusiones obtenidas de la muestra acerca de la poblaci´n respectiva. Los datos experimentales se ilustran en o o diagramas. Obteni´ndose adem´s. etc. a Poblaci´n: Elementos del universo que tienen una caracter´ o ıstica com´n y es la que tratamos u de estudiar. Muestra Aleatoria (m. pueden variar de a a caso en caso. observaciones demogr´ficas. Es deseable obtener un m´ximo de informaci´n empleando un n a o m´ ınimo de costo y tiempo. necesitamos coincidir en definiciones apropiadas para los t´rminos que se incluyen. En toda investigaci´n ´sta etapa es la que consume o o o e ´ m´s tiempo. pictogramas. a d) Tabulaci´n y descripci´n de los resultados. y en cada situaci´n espec´ o ıfica. gr´ficos. e) Inferencia estad´ ıstica y formulaci´n de la respuesta.problema. medidas descriptivas que reprea e a senten el proceso efectuado. infinito contable e infinito no contable (dependiendo del tipo de universo es el tipo de an´lisis del problema).

muy utilizado en los estudios de mercadeo y en algunas encuestas de opini´n. o Con el Muestreo No Probabil´ ıstico. t´cnicas y procedimientos e e para tomar u obtener una particular muestra a efectos de realizar inferencias inductivas a partir de la misma. s´lo con el Muestreo Probabil´ o ıstico es posible obtener indicadores de confiabilidad del error inferencial de cada estimaci´n obtenida a trav´s de la muestra.a. Muestreo Aleatorio Simple Es un dise˜o muestral bastante utilizado cuando se cuenta con una lista o directorio para usar n como Marco Muestral. El Muestreo El Muestreo es la disciplina que trata con el conjunto de m´todos. las observaciones para una muestra particular se obtienen m´s r´pidamente y a menor costo que en el Muestreo Probabil´ a a ıstico. pueden existir unidades de la poblaci´n que no pueden ser o seleccionadas en ninguna de las muestras posibles.: Muestreo sin Reemplazo y Muestreo con Reemplazo. al menos.1. De las N unidades de la poblaci´n se selecciona “al azar” (igual probabilidad para cada o ´ unidad) una unidad. 5 . o bien. son m´s f´ciles de controlar cuando se utiliza Muestreo Probabil´ o a a ıstico.2. En el Muestreo No Probabil´ ıstico.s. Unidades de Muestreo: Las unidades del Marco Muestral se llaman Unidades de Muestreo.2. tambi´n al azar. Muestreo Conceptos b´sicos a Marco Muestral: El Marco Muestral es el conjunto de unidades del cual se seleccionar´ una a muestra. en general. 1. una de las posibles muestras seleccionadas o a y en el caso del Muesteo Probabil´ ıstico nos permitir´ inducir una probabilidad de selecci´n a cada a o elemento de la poblaci´n.2.2. En todo caso. una segunda unidad. Esta se separa (sin reposici´n) y de las N-1 restantes unidades de la poblaci´n o o se selecciona. Es importante notar que toda unidad de la poblaci´n debe estar asociada a una y s´lo una unidad del o o Marco Muestral. Se distinguen dos casos de m. De las N-2 unidades restantes se vuelve a e seleccionar al azar una tercera unidad y as´ sucesivamente hasta completar las n unidades de la ı muestra. los errores “ajenos al muestreo” (errores en las operaciones de recolecci´n y procesamiento de o la informaci´n). o o Un ejemplo de este tipo de Muestreo No Probabil´ ıstico es el Muestreo por Cuotas. Esto nos permitir´ dise˜ar mecanismos de selecci´n de la muestra de tal forma que a n o toda unidad de la poblaci´n se encontrar´ en. esta probabilidad es desconocida.2. o e 1.3. o 1.1. Existen dos grandes categor´ de muestreo: el Muestreo Probabil´ ıas ıstico y el Muestreo No Probabil´ ıstico. Por otra parte. aunque exista una probabilidad de selecci´n positiva para cada una de estas unidades de la Poblaci´n.

Provincias.1. Medianas. no n necesariamente igual en todos ellos. 6 . etc. etc.4.2. Peque˜as y Micro. las dio visiones pol´ ıtico administrativas (los Estratos pueden ser Regiones. en una Encuesta Industrial: Manzanas con hogan res de ingresos mayoritariamente altos. u o Ejemplos de Estratos creados para obtener una mayor homogeneidad en cada uno de ellos son: Empresas Grandes. Departamentos o Distritos. Muestreo Estratificado El Muestreo Estratificado se presenta cuando la Poblaci´n se encuentra particionada en L gruo pos y en todos y cada uno de estos grupos se aplica en forma independiente un dise˜o muestral. En tal caso. medios y bajos. e a n Ejemplos de Estratificaciones en funci´n de los objetivos del estudio son.) en una Encuesta Nacional. etc. los grupos de la partici´n se llaman Estratos y la o partici´n de dice que es una Estratificaci´n. Ramas de Actividad Econ´mica en una Encuesta Induso trial. o o La Estratificaci´n puede tener su origen en los propios objetivos del Estudio o en la intenci´n de o o contar con Estratos homog´neos que pueden hacer m´s eficiente el Dise˜o Muestral. P´blico y Privado en una Encuesta sobre Educaci´n. por ejemplo.

Nominales La variable induce en la poblaci´n una subdivisi´n y los datos s e pueden clasificar en clases.2. Intervalares La informaci´n obtenida en este caso es de tipo cuantitativo o num´rico y es posible agruparla o e en intervalos. Clasificaci´n de variables o Hay que hacer notar que toda variable puede clasificarse en uno de los niveles de medici´n.3. o o a el tama˜o relativo de los intervalos a que pertenece cada uno de los individuos. sino adem´s. En este nivel es n posible cuantificar la diferencia de dos individuos pertenecientes al mismo intervalo y tambi´n a e intervalos distintos. a 1.1.1.3. o 7 . esto significa que existe una relaci´n de orden entre las clases. o o donde cada clase est´ completamente definida y diferenciada de las dem´s. En esta escala est´ involucrado el concepto de unidad de distancia y la distancia a entre dos medidas puede ser expresada en funci´n de esta unidad.3. 1. Ordinales En este nivel la variable de clasificaci´n tiene un orden impl´ o ıcito (admite grados de calidad u ordenamiento) entre grupos o clases. los o que se dar´n en orden creciente en cuanto a la riqueza de los datos. En este nivel se considera no s´lo la informaci´n perteneciente al orden. a a La recopilaci´n se reduce a contar el n´mero de individuos de la muestra que pertenecen a cada o u clase.3.3. 1. o No es posible cuantificar la diferencia entre los individuos pertenecientes a una misma clase.

. identific´ndolo con la letra k. Se designa por la letra f con un sub´ ındice (que indica la clase a que pertenece).4. Como el n´mero de clases debe ser un n´mero entero. n2 .) se o llaman clases. atributos. . el n´mero de clases corresponde a k = u √ n.Ancho del Intervalo El ancho de la clase es la diferencia entre el l´ ımite superior e inferior de la clase. Se u designa por la letra n con un sub´ ındice (que indica la clase a que pertenece) por ejemplo: n1 .. u f. . Por 8 . . d. ındice que indica la clase a que pertenecen.Intervalo o Clase Una subdivisi´n del rango en componentes (de acuerdo a la magnitud. . Ck .... el ancho de cada clase puede o no ser del mismo tama˜o.. e.Frecuencia Relativa A la proporci´n de datos que pertenecen a una clase con respecto al total se llama frecuencia o relativa. Se designan por la letra C con un sub´ ıas. etc. . . b.3·log(n) u donde n es el n´mero total de datos. Organizaci´n de la Informaci´n o o Una colecci´n de datos tomados de un suceso (sometido a estudio) nada nos dice si no lo ordeo namos convenientemente para extraer as´ la informaci´n que se desea.1.El n´ mero de clases o intervalos u Es una subdivisi´n del rango en varios grupos o intervalos (se designa por la letra k). categor´ intervalos o celdas. ı o Los conceptos m´s usuales se detallan a continuaci´n: a o a. Se designa por la letra . Nota: La suma de todas las frecuencias absolutas debe ser igual al n´mero total de datos ”n”. . nk .Marca de la Clase La marca de clase es el punto medio de la clase o intervalo.. o N´mero de clases = 1 + 3. C2 . u u u este se aproxima al entero superior. por ejemplo C1 .Frecuencia Absoluta El n´mero de datos que pertenecen a una clase se llama frecuencia absoluta de la clase. c. En general.dato menor de la muestra El valor de I se aproxima al entero superior (cuando los datos son enteros). Se designa por las letras M Ci (el sub´ ındice indica la clase a la que le corresponde). a Para valores de n menores a 20. En el caso n de que todos sean iguales el valor de se define como: I= R+1 k donde R = Dato mayor en la muestra .

Notas: i.. .ejemplo: f1 . 2. . 4. . 3. 5. . Se designa por la e letra F con un sub´ ındice (que indica la clase a que pertenece) por ejemplo: F1 . 2. Ejemplo 1. 4. en escala 1 a 7 fueron: 3. . . . . Nk . 5. 5.Frecuencia Absoluta Acumulada El n´mero de datos que estan desde la primera clase hasta la clase i-´sima. 7. . . 6. k. Ni = n1 + n2 + . . . 4. . 3. Frecuencia relativa = frecuencia absoluta/n´mero total de datos = u ni n g. 2. 2. .. . 1. + ni = Ni−1 + ni y debe verificarse que Nk = n (n´mero total de datos) u h. 6. 1. 2. 7. . 3. . . . . se llama frecuencia relativa acumulada de la clase i-´sima. 5.4. 6. fk . Se designa por la letra N con un sub´ e ındice (que indica la clase a que pertenece) por ejemplo: N1 . 4. 4. 3. ∀ i = 1. Nota: N1 = n1 N2 = n1 + n2 = N1 + n2 . Fi = f1 + f2 + . . . Fk . F2 . 4. k. . Lo que se puede tabular como: 9 . . Nota: F 1 = f1 = N1 n N2 n Ni n ∀ i = 1. . 4. ii. F2 = f1 + f2 = F1 + f2 = . 5. se llama frecuencia u e absoluta acumulada de la clase i-´sima. 3. 2. . N2 . . .1 Las notas obtenidas en un certamen. 2.Frecuencia Relativa Acumulada El n´mero de datos que estan desde la primera clase hasta la clase i-´sima con respecto al u e total de datos. f2 . La suma de todas las frecuencias relativas debe ser igual a 1. + fi = Fi−1 + fi = y debe verificarse que Fk = 1.

833 0. Grafique las frecuencias absolutas. 10 .067 2 0.067 0.233 20 0.167 7 0. Encuentre el n´mero de clases y el rango de la muestra u 2. 4.067 30 1 Fi 0. relativa. marca de clase. frecuencias absoluta.200 13 0.233 0.167 25 0. Determine la amplitud de la clase 3.667 0.933 1 Ejercicios 1 En una empresa se considera la siguiente muestra correspondiente a la resistencia de 50 lotes de algod´n medidas en libras necesarias hasta romper una madeja.233 0.100 28 0. Comente. o 74 87 99 88 90 105 110 99 94 104 79 105 96 93 93 101 96 97 103 108 110 94 101 97 106 101 91 97 90 90 91 90 102 86 88 83 97 94 88 89 90 102 94 106 91 76 109 97 107 107 1. absoluta acumulada y relativa acumulada.Clase C1 C2 C3 C4 C5 C6 C7 Nota ni 1 2 2 5 3 6 4 7 5 5 6 3 7 2 Suma 30 fi Ni 0. Construya un cuadro resumen indicando intervalos.

Medidas de Tendencia Central y Dispersi´n o Medidas de Tendencia Central La idea es resumir los datos en un solo valor. etc.C. por el contrario. e o La media aritm´tica o media de un conjunto de n n´meros X1 . Como tales valores tienden a a situarse en el centro del conjunto de los datos ordenados seg´n su magnitud. . desv´ o ıan) los datos a uno y otro lado de la medida central.).5.2. media geom´trica. Si los datos est´n ordenados en una tabla (datos agrupados) en a las que se conocen las respectivas marcas de clase M Ci .1. . 1. un valor que represente a todo un conjunto de datos. Medidas de tendencia central. una gran dispersi´n indica que los datos o est´n alejados de ella. Las m´s comunes son ı a la mediana. etc. X2 . un conjunto de distribuciones de frecuencias. . 1. a o sea. los promedios se u conocen tambi´n como medidas de centralizaci´n. a rango.5. desviaci´n t´ o a o o ıpica o est´ndar. nos interesa deo terminar c´mo se reparten (dispersan. la media aritm´tica es: e 1 X= n k ni M C i i=1 11 .T. es necesario cuantificar la representatividad de la medida de tendencia para poder caracterizar la distribuci´n.5. o o a. Si la dispersi´n es peque˜a indica gran uniformidad y la informaci´n tiende a cono o n o centrarse en torno a la medida central. a Las medidas de dispersi´n m´s usuales son: desviaci´n media.1. 0 sea. y ellas se presentan con frecuencias absolutas ni . rango semi-intercuart´ ılico. que es un valor central o de posici´n central a cuyo alrededor se distribuyen todos los datos o del conjunto. Una vez determinadas las Medidas de Tendencia Central de una distribuci´n. e Estas y otras medidas nos sirven para resumir la informaci´n presentada en cuadros y poder o relacionar y comparar entre s´ de una manera sencilla. Xn se denota por X e u y se define como n 1 X= Xi n i=1 para datos no agrupados. media o promedio. ı. . ´ste tiene que ser un n´mero o una clase hacia el cual tienen tendencia a concentrarse e u mayoritariamente el conjunto de datos. de all´ el nombre de Medidas de Tendencia Central (M. moda. posici´n y dispersi´n. rango percentil. Media La medida central m´s representativa es la media o promedio. usualmente este se ubica en las clases m´s o menos centrales.

No se ve afectada por valores extremos. es u decir. iguales o mayores que la mediana. Si el n´mero de las observaciones e u es par.n+ o m nmo = es la frecuencia de la clase modal n+ o = es la frecuencia de la clase posterior a la clase modal m n− o = es la frecuencia de la clase anterior a la clase modal m I = ancho del intervalo de la clase modal.No es sensible a la presencia de datos extremos . Moda La moda cruda de una serie de n´meros es aquel que se presenta con la mayor frecuencia. Es posible o a encontrar variables bimodales. etc. se calcula como el promedio de las dos observaciones centrales. y la otra mitad. una vez que u o ´stos han sido ordenados en orden creciente o decreciente. el n´mero mediana viene dada por: u Me = lMe + n 2 − − NMe I nM e donde: lMe = l´ ımite inferior del intervalo de la clase mediana n = n´mero total de datos u 12 . o Si el n´mero de observaciones es impar. es la observaci´n central de los valores. es el valor m´s com´n.b.n− o m ∆2 = nmo . la moda puede obtenerse mediante el n´mero dado por: u M oda = lmo + ∆1 I ∆1 + ∆2 donde: mo = clase modal (clase con mayor frecuencia absoluta) lmo = l´ ımite inferior del intervalo de la clase modal ∆1 = nmo . Para datos agrupados.Puede no existir y cuando existe no es necesariamente unica. trimodales. la mitad de ellos son iguales o menores que la mediana. Propiedades de la Moda: . c.La mediana en un conjunto de datos es unica ´ .En un conjunto de datos. ´ . en un conjunto de datos ordenados. Mediana Es el valor de la variable que ocupa la posici´n central . Para datos agrupados. Propiedades de la Mediana: . a u Una distribuci´n que tiene una sola moda se llama unimodal (caso m´s usual).

el percentil q se encuentra en la posici´n o q(n + 1) 100 Para datos agrupados. por lo e tanto. digamos Cp . Xn como s2 = o equivalentemente 1 s = n 2 n 1 n n (Xi − X)2 i=1 Xi2 − X i=1 2 La varianza para datos agrupados con sus respectivas frecuencias absolutas ni . . respecto a su o valor medio. y las marcas de clase M Ci . nos referimos a la clase en el cual se encuentra al menos el q % de los datos. se define la desviaci´n est´ndar como s = o a dispersi´n de los datos respecto de la media. Se define la varianza de una serie de observaciones X1 . Xn es una secuencia ordenada de datos. . X2 . e. Varianza Es una constante que representa dispersi´n media de una variable aleatoria X . Son una medida de posici´n que no reflejan la tendencia central. Percentiles El percentil q es un valor de la variable tal que el q % de los datos es menor que ´l y. d. el (1-q) % es mayor.NMe = frecuencia absoluta acumulada hasta la clase anterior a la clase mediana nMe = es la frecuencia de la clase mediana I = ancho del intervalo de la clase mediana. o 13 √ s2 . tmabi´n una medida de e . . o Si X1 . . . se representa por: 1 s = n 2 k ni (M Ci − X)2 i=1 o equivalentemente s2 = 1 n k ni M Ci2 − X i=1 2 En ambos casos. Puede interpretarse como medida de “variabilidad” de la variable. . por lo que Pq = lp + − n · q/100 − Np · Ip np donde: lp = l´ ımite inferior de la clase a la cual pertenece el percentil q I = ancho del intervalo Cp . . .

125 8 6 125 .Determine la media y mediana de la variable consumo. e.85 26 14 85 .Ejemplo 1.1 Considere los datos de consumo de enrg´a el´ctrica de 80 usuarios: ı e Consumo (Kwh) No de usuarios 5 .45 6 14 45 .¿Qu´ porcentaje de los usuarios consume entre 50 y 150 Kwh? e 14 .5...165 2 Total 80 a.¿Qu´ porcentaje de usuarios consumen m´s de 100 Kwh? e a f...65 65 . c. d..Calcule la varianza de la variable consumo.25 4 25 ..Construya un histograma de la variable consumo b.145 145 .105 105 .Calcule el percentil 25 y 75 para la variable consumo.

. .. ∀ j = 1. Y ). en una muestra de tama˜o n de la poblaci´n. nr+ n . . r. sin importar u u la clase Ai a la que est´n asociados (suma de los valores de la columna j-´sima de la tabla de e e contin-gencia de frecuencias) r n+j = i=1 nij .6. Podemos luego considerar una clase o modalidad Ai Bj formada por elementos de la muestra que pertenecen simult´neamente a Ai y a Bj . . como se muestra a continuaci´n: o Y B1 n11 n21 . Estad´ ısitica Bivariada Ahora. . nrs . . .. . s .. Tablas de Contingencia Cuadro de doble entrada donde se puede resumir la informaci´n acerca de las frecuencias. .. nr2 n+2 . 15 ∀ j = 1. Distribuciones Marginales ni+ : es el n´mero de elementos de la muestra que pertenecen a la clase Ai . . . . . y en s clases Bj . . ∀ i = 1. . . donde u nij fij = . Ar n1+ n2+ . ∀ i = 1. . . asociada a dos variables de clasificaci´n unidimensionales X e Y . . .. Frecuencia Absoluta y Frecuencia Relativa Definiciones de inter´s: e nij : frecuencia absoluta del n´mero de elementos pertenecientes a Ai ∩ Bj u fij : frecuencia relativa del n´mero de elementos en Ai ∩ Bj con respecto al total n. a 1. Entonces dividimos la muestra en r clases Ai . . . seg´n Y .2. supongamos que queremos estudiar el comportamiento de la variable de clasificaci´n o bidimensional (X. respectivao mente. n o seg´n la variable X. . ya o sean absolutas o relativas. . .6.6.1. n+s 1.1.6. X A1 A2 . . . sin importar la clase u Bj a la que est´n asociados (suma de los valores de la fila i-´sima de la tabla de contingencia de e e frecuencias) s ni+ = j=1 nij . . s n 1. Se observa que hay r · s modalidades Ai Bj . Bs n1s n2s . u u Llamamos nij al n´mero de elementos de la muestra que pertenecen simult´neamente a la clase u a Ai y la clase Bj . . . . . r n+j : es el n´mero de elementos de la muestra que pertenecen a la clase Bj seg´n Y. nr1 n+1 B2 n12 n22 . .. .3. .

fi+ : frecuencia relativa de las clases Ai sin importar las clases Bj . n n+j . . calcular la distribuci´n condicional de Y.6. r fi/j = 1 i=1 La distribuci´n de Y condicionada a X se define como o fj/i = y s fj/i nij = fi+ ni+ ∀ j = 1. . . Dada la ı siguiente tabla de contingencia.4. esto es. . n ∀ i = 1. s 1.1 Sea X la edad e Y la categor´a correspondiente al puesto de trabajo. . r f+j : frecuencia relativa de las clases Bj sin importar las clases Ai . .6. . La distribuci´n de X condicionada a Y se define como o fi/j = y r fi/j nij = f+j n+j ∀ i = 1. . conociendo que seg´n X ya pertenec´ a A. . . f+j = ∀ j = 1. u estudiar el comportamiento de una variable dado un valor fijo de la otra. se u u ıan debe evaluar: nB/A fB/A = n donde fB/A es la frecuencia relativa condicional del subconjunto B de Y dado que X pertenece al subconjunto A. . Para calcular la proporci´n o de individuos muestrales que seg´n Y caen en B. . . Distribuciones Condicionales La distribuci´n condicional consiste en estudiar las frecuencias asociadas a las clases de una o variable cuando nos restringimos a los elementos de una clase dada seg´n la otra variable. . . dado que X es 25-30 y o 35-45. s fj/i = 1 j=1 Ejemplo 1. X\Y 15-20 20-25 25-30 30-35 35-40 n+j I 20 15 10 5 5 55 II 20 12 15 20 10 77 16 III ni+ 5 45 8 35 10 35 25 50 30 45 78 210 . . fi+ = ni+ .

Independencia Dada una informaci´n en una Tabla de Contingencia. Dependencia o Correlaci´n o o En estad´ ıstica Descriptiva se dice que dos variables cuantitativas “est´n asociadas”.Y)< 0. los valores a de la otra tienden a: i) o bien a aumentar (y se dice que la asociaci´n dependencia es directa o que la correlaci´n es o o positiva) ii) o bien a disminuir (y se dice que la asociaci´n o dependencia es inversa o que la correlaci´n o o es negativa) Cuando no se presenta esta tendencia se dice que las variables no est´n asociadas o no son depena dientes o no est´n correlacionadas. no hay asociaci´n lineal. o “est´n correlacionadas” si cuando se aumentan los valores de una variable. . no implica relaci´n causao efecto. s Si las variables X e Y no son independientes entre s´ se dice que existe una asociaci´n entre ı.6. o Si cov(X.Y)> 0.) est´n relacionadas.Y)≈ 0. X e Y est´ dada por: a n cov(X. . o 17 . En otras palabras. Asociaci´n. ´ Indicadores de Asociaci´n: Covarianza o La covarianza entre dos variables. . . De modo que el conocimiento de una de las variables presente alguna informaci´n respecto de o la otra. la asociaci´n es inversa o negativa. correlaci´n o dependencia en Estad´ o o ıstica Descriptiva.1. Y ) = i=1 (xi − x)(yi − y ) ¯ ¯ n n o equvalentemente 1 cov(X. . o ellas. fij = fi+ · f+j ∀i = 1. . Y ) = n xi yi − xy ¯¯ i=1 La covarianza es una medida de asociaci´n lineal.6. o Si cov(X. pero tiene la desventaja que su interpretaci´n o o depende de las unidades de medici´n. Nuestro objetivo es medir de alguna forma ´sta relaci´n existente y poder adem´s describir e o a de que forma (lineal. o Si cov(X. .6. r ∀ j = 1.5. . se dice que las variables X e Y son o independientes. s´ y solo s´ la frecuencia relativa conjunta es igual al producto de las frecuencias ı ı. potencial. exponencial. relativas marginales. a La asociaci´n. etc. la asociaci´n es directa o positiva. a 1. si cuando una variable aumenta la otra tiende a aumentar (o a disminuir) no es posible afirmar que esta ultima aumenta (o disminuye) PORQUE la primera variable aumenta. “son depena dientes”.

o a o Si corr(X. Y ) = 2 2 xi /n yi /n 2 yi − x2 − i xi yi /n Si bien no existe una regla general para decir si una correlaci´n es alta media o baja. respectivamente. la correlaci´n es la m´xima correlaci´n positiva o directa. Y ) = i=1 n n (xi − i=1 x)2 ¯ i=1 (yi − y )2 ¯ Si corr(X. Y ) = −1. Otra f´rmula alternativa es o xi y i − corr(X. la correlaci´n es la m´xima correlaci´n negativa o inversa.Indicadores de Asociaci´n: Correlaci´n o o La correlaci´n lineal entre dos variables se define como o n (xi − x)(yi − y ) ¯ ¯ corr(X. Y ) ≈ 0. Y ) = sXY sX sY donde sX y sY son las desviaciones est´ndar de X e Y . Y ) = 1. y donde sXY es la covarianza a entre X e Y . o a o Si corr(X. o Una f´rmula alternativa para calcular correlaci´n es o o corr(X. en este o curso podemos adoptar el siguiente criterio: 18 . no existe correlaci´n o dependencia.

9.F◦ Y.6.3 4.8 6. Consideremos los siguientes datos.8 2. u X. donde X indica la temperatura media diaria en grados Farenheit e Y . Considere los siguientes datos donde X. e Y es la correspondiente cuota del total de dep´sitos a o mantenidos por los bancos. si adem´s cuenta o o a con las siguientes medidas de resumen: xi = 300.4 8. X 198 186 116 89 120 Y 22.7 1.2 7.67. representa el n´mero de sucursales que 10 bancos diu ferentes tienen en un ´rea metropolitana.0 2. o 19 .6 15.9 12.0 6. xi yi = 1431.2 109 28 58 34 31 6.5 45 40 38 32 40 55 5. i 2 yi = 218.7 16.2 . el consumo diario correspondiente de gas natural en pies c´bicos.f t3 50 2. x2 = 13218.Y . o b) Calcule covarianza y correlaci´n. yi = 35.Ejemplo 1.8 a) Construya un diagrama de dispersi´n entre X e Y.8 Realice un diagrama de dispersi´n y calcule el coeficiente de correlaci´n ρX. 1.5 10.7 2.8 4.

(1. Y ) encontrar una curva que se ajuste de la mejor manera a los datos. . . el modelo de regresi´n lineal simple lo podemos plantear como la recta : o yi = a + bxi . Entonces el siguiente paso es encontrar la recta L que en lag´nsentido ajuste los datos. a : representa el intercepto con el eje Y. o a a o En concreto se quiere: (i) Investigar la naturaleza de la asociaci´n. n. donde yi : es la variable respuesta o dependiente para el individuo i. o (iii) Predecir Supongamos que un diagrama de dispersi´n de los datos de los puntos (xi . b : representa la pendiente de la recta. o (ii) Construir un modelo que describa la relaci´n entre ambas variables.2 y 6. y se interpreta como la cantidad que aumenta(disminuye) y cuando x aumenta(disminuye) en una unidad. xi : es la variable explicativa o independiente para el individuo i. a Regresi´n Lineal Simple o Con la regresi´n lineal simple se pretende ir m´s all´ de ver la asociaci´n entre dos variables.3. y encuentre la recta que se ajusta a los datos. .7. Algunas veces el diagrama de puntos no indica una relaci´n lineal entre las variables X e Y pero o se podr´ observar alguna otra curva t´ a ıpica y bien conocida Y = f (X) que puede aproximar los datos. La curva est´ definida en forma param´trica. y se a e deben encontrar los valores de sus par´metros para hacer que alguna medida de error se minimice. alternativamente. entre o otros. y se interpreta como el valor que toma y cuando x =0. u En general.3 Considere los datos de los ejemplo 6. Y ) rsy = sx s2 X y a = y − b¯ ¯ x i = 1. los dos siguientes casos: 20 .6. La pendiente y el intercepto pueden calcularse de la siguiente manera: b= cov(X.1. . se le llama curva de aproximaci´n.1) Ejemplo 1. Algunas de esas curvas t´ o ıpicas son las siguientes analizamos la relaci´n entres X e Y y determinamos que esta no se ajusta auna recta podemos analizar. Ajuste de Curvas En el problema de ajuste a curvas se desea que dado un par de variables (X.6. que el coeficiente de correlaci´n es cercano a 1 o o -1. yi ) indica una relaci´n o o lineal entre las variables X eY o.

. . n. n. o a Otros Ajustes Hip´rbola e Si entre 1/y y x observamos un relaci´n lineal usaremos la hiperbola: o y= 1 a + bx o 1 = a + bx y i = 1. . Al incluir potencias de X logramos mayor flexibilidad en el modelo. donde a =log(a) b =b Ajuste Polinomial En este caso lo que hacemos es ajustar la relaci´n entre x e y a trav´s de un polinomio de grado o e p: yi = β0 + β1 xi + β2 x2 + β3 x3 . n. la regresi´n se llama cuadr´tica. o Si p=2. . βp xp i i i i = 1. . . i = 1. Si p=1. . . usaremos la curva exponencial: o yi = aebxi . Curva Geom´trica e Si entre log(y) y log(x) observamos una relaci´n lineal usaremos la curva potencial: o y = axb o log(y) = log(a) + b · log(x) 21 . . Este ajuste se puede reducir a una regresi´n lineal de la siguiente forma o log(yi ) = a + b xi . . estamos en el caso de regresi´n lineal.Ajuste Exponencial Si entre log(y) y x observamos una relaci´n lineal. . . . . . .

u Teorema 2.Cap´ ıtulo 2 Probabilidades 2.1 ¿Cu´ntos son los resultados posibles cuando se lanza un dado dos veces? a Teorema 2.1. entonces la secuencia de ı k operaciones pueden realizarse de n1 n2 .2 (Principio Multiplicativo) Si una operaci´n puede realizarse de n1 formas. . 2. . En muchos casos debe tenerse la capacidad de resolver un problema de probabilidad mediante el conteo del n´mero de casos posibles sin realmente anotar cada uno de ellos. Ejemplo 2. Introducci´n o Uno de los problemas que deberemos considerar e intentar evaluar.1. Ejemplo 2.1. nk formas. entonces las dos operaciones pueden realizarse o juntas de n1 n2 formas. y as´ sucesivamente. y para cada una de las dos e primeras se puede efectuar una tercera de n3 formas.1.1. 5 clases de postres y 4 bebidas? Ejemplo 2. postre y bebida existen si se puede seleca u cionar entre 4 sopas diferentes.1. es el elemento de aleatoriedad que se asocia a la ocurrencia de ciertos eventos cuando se lleva a cabo un experimento.3 ¿Cu´ntos n´meros pares de tres d´gitos pueden formarse con los d´gitos 1. y o si por cada una de ´stas puede efectuarse una segunda en n2 formas. y si por cada una de ´stas una o e segunda operaci´n puede llevarse a cabo de n2 formas.1 Si una operaci´n puede realizarse de n1 formas. 5. 6 a u ı ı y 9? 22 .2 ¿Cu´ntos men´s que consisten de sopa.

que se lee “n factorial”. Con el principio multiplicativo se pueded llegar a que la respuesta es 6 sin escribir todas las posibles combinaciones. Definici´n 2. pueden acomodarse en n · (n − 1) · (n2) · · · (n − r + 1) formas. Consid´rese ahora u a e el n´mero posible de ellas al tomar las cuatro letras. . con tres letras. Esto es. Ser´ ab.1. O2 O1 S. u ıan bc. O2 SO1 . n2 = 3 posibilidades para la segunda.1. Si consideramos la palabra OSO. si 4 personas juegan a las cartas. o bien. se tienen 3!/2! = 3 ´ diferentes permutaciones. ba. En general. se tiene dos posiciones para llenar con laa n1 = 4 posibilidades para la primera y. 23 .Con frecuencia interesa un conjunto que contiene como elementos todos los posibles ordenes o ´ arreglos de un grupo de objetos. se puede desear conocer cu´ntos arreglos diferentes a son posibles para sentar a 6 personas alrededor de una mesa. ca. un conjunto de objetos. todos los objetos eran distintos o totalmente distinguibles. b. se encuentra que hay 6 acomodos dsitintos para el juego de cartas. para un total de n1 n2 = 4 · 3 = 12 permutaciones. acb. o o Consid´rense las tres letras a. o e ´ lo que da un total de n1 n2 n3 = 3 · 2 · 1 = 6 permutaciones.1 Una permutaci´n es un arreglo de todos. Este producto se representa por el s´ ımbolo n!. dc.4 El n´mero de permutaciones de n objetos distintos tomando r a la vez. db. · (3) · (2) · (1) formas. n objetos distintos. Por lo tanto. Teorema 2. por lo tanto. bac y e cba. Al considerar a una en un lugar fijo y acomodar a las otras o o tre en 3! formas diferentes. por lo que unicamente tres son distintas. Se puede ver que hay 6 distintos arreglos.5 El n´mero de permutaciones de n objetos distintos agregados en un c´rculo es u ı (n-1)! Hasta ahora se han considerado permutaciones de objetos diferentes. es: u n Pr = n! (n − r)! Ejemplo 2. SO2 O1 . cb. ad. 1! = o 1 y 0! = 1. ac. cd. bd. cab. Por definici´n. c y d ser´ de 4! = 24. cu´ntas formas diferentes a exiten de tomar 5 ramos de un total de 8. SO1 O2 .4 ¿De cu´ntas maneras se puede programar 3 ayudant´as en 3 distintos horarios. o parte de. se pueden acomodar n objetos distintos en n · (n − 1) · (n − 2) · .1. Teorema 2. Teorema 2. no se tiene una nueva permutaci´n si todas o se mueven una posici´n en esa direcci´n. si se toman r a la vez. siendo dos iguales. si a ı los alumnos tienen 5 m´dulos disponibles? o Las permutaciones que se dan al acomodar objetos en un c´ ırculo se llaman permutaciones circulares. Las permutaciones posibles son abc. pero de dos a la vez.1. Por ejemplo. O1 O2 S.1. En general. entonces las 6 permutaciones de las letras de esta palabra son O1 SO2 . Por ejemplo.1. despu´s n2 = 2 para la segunda y unicamente n3 = 1 posibilidades para la ultima. b y c. Hay n1 = 3 posibilidades para la primera posici´n. .3 El n´mero de permutaciones de n distintos objetos es n! u El n´mero de permutaciones de las cuatro letras a. De una nueva cuenta con el Teorema 7. Dos de ´stas no se consideran diferentes a menos que a los objetos correspondientes en e los dos arreglos les preceda o les siga un objeto diferente al avanzar en el sentido de las manecillas del reloj. bca.

7 Encuentre el n´mero de comit´s que pueden formarse con 4 qu´micos y 3 f´sicos y u e ı ı que comprendan 2 qu´micos y 1 f´sico. Si un experimento consiste en lanzar un dado y despu´s seleccionar aleatoriamente una letra e del alfabeto. 3 a ı robles. ¿De cu´ntas formas pueden plantarse. Estas selecciones se llaman combinaciones. si uno no distingue entre los ´rboles de la misma clase? a 24 .5 ¿De cu´ntas formas diferentes pueden acomodarse 3 ampolletas rojas.1.1. y as´ sucesivamente. una de las cuales contiene los r objetos que se seleccionaron o y la otra.1. . 4 pinos y 2 arces. a lo largo de la l´nea divisoria de una propiedad.8 El n´mero de combinacioines de n objetos distintos. Teorema 2.6 El n´mero de permutaciones diferentes de n objetos de los cuales n1 son de un u tipo. n2 son de un tipo.6 ¿De cu´ntas formas distintas pueden 7 cient´ficos acomodarse en un laboratorio a ı para tres personas y dos laboratorios para dos personas? En muchos problemas interesa el n´mero de formas posibles de seleccionar r objetos de un u total de n sin importar el orden. Teorema 2. La partici´n se logra si la intersecci´n de cada par posible de r subconjuntos o o es el conjunto vac´ y si la uni´n de todos los subconjuntos da como resultado el conjunto original. A los participantes de una convenci´n se les ofrecen 6 recorridos por d´a para visitar lugares o ı de inter´s durante los 3 d´as de duraci´n del evento.1. ¿cu´les son los posibles resultados? a 3. los (n − r) objetos restantes. 4 amarillas a y 2 azules en un panel con 9 espacio para 9 luces? Con frecuencia interesa el n´mero de formas en que se pueden repartir n objetos en r subconjunu tos llamados celdas.7 El n´mero de formas de partir un conjunto de n objetos en r celdas con n1 eleu mentos en la primera celda. n2 elementos en la segunda. tomando r a la vez es u n r = n! r!(n − r)! = n! n1 !n2 ! · · · nr ! Ejemplo 2. ı ı Ejercicios 2 . 1. Una combinaci´n es o realmente una partici´n en dos celdas.Teorema 2.1.. ¿De cu´ntas formas puede una persona e ı o a acomodarse para hacer alguno de ellos? 2. es: ı n n1 n2 · · · nr donde n1 + n2 + · · · + nr = n Ejemplo 2. . nk de un k. ıo o No importa el orden de los objetos dentro de una celda. . es: e n! n1 !n2 ! · · · nk ! Ejemplo 2.´simo tipo.1.

2.2. si sale sello. clasificar los art´ o o o a ıculos que salen de una l´ ınea de ensamble como “defectuosos” o “no defectuosos”. Las opiniones de los votantes respecto de un candidato a alcalde tambi´n pueden considerarse como e observaciones de un experimento. se lanza un dado.2.2 Un evento A.2.1.2. E. 2. no pueden pronosticarse con certidumbre. ello indica la existencia a de un elemento de aleatoriedad en el procedimiento experimental. En la mayor parte de los casos los resultados depender´n del o a azar y. Aqu´ interesan particularmente las observaciones que se obtienen ı en la repetici´n de un experimento. s´ se conoce el conjunto completo de posibilidades para cada ı lanzamiento. Si un qu´ ımico realiza varias veces un an´lisis bajo las mismas condiciones y obtiene diferentes mediciones. asociado a un experimento E. En este caso s´lo existen dos resultados posibles: cara o sello. la presentaci´n e interpretaci´n de resula o o tados aleatorios que se dan en un estudio planeado o en una investigaci´n cient´ o ıfica. Eventos Definici´n 2. se vuelve a lanzar. Ejemplo 2. es posible registrar el n´mero de accidentes que ocurren mensualmente en una determinada interu secci´n de calles. 2.2. Un ejemplo muy simple de un experimento consiste en el lanzamiento de una moneda la aire. a Utilizaremos la palabra experimento. o bien. ´ ıa. Incluso cuando una moneda se lanza al azar repetidamente. No obstante. con el prop´sito de justificar la instalci´n de un sem´foro. Otro experimento podr´ o ıa ser el lanzamiento de un proyectil y la observaci´n de su velocidad en un per´ o ıodo de tiempo. tener inter´s en e conocer el volumen de gas que se libera durante una reacci´n qu´ o ımica cuando la concentraci´n de o un acido var´ De aqu´ que se manejen datos experimentales. A cada resultado en un espacio muestral se le llama elemento del espacio muestral o simplemente punto muestral. no es posible garantizar que en un lanzamiento dado se obtendr´ coa mo resultado una cara. para describir cualquier proceso que genere un conjunto de datos. b´sicamente.es o un subconjunto de resultados posibles. que representan conteos o mediciones. respecto a un espacio muestral S.1 Determine el espacio muestral del siguiente experimento: se lanza una moneda y si sale cara.2. ı o tal vez datos categ´ricos que puedan clasificarse de acuerdo con alg´n criterio. o u Necesitamos entonces una forma matem´tica para cuantificar la incertidumbre.2. Es claro que S en s´ mismo es un evento y tambi´n lo es el conjunto vac´ Cualquier resultado ı e ıo. Espacio Muestral Definici´n 2. e 25 . Modelo de Probabilidad En el estudio de la estad´ ıstica interesa. Por ejemplo. individual tambi´n puede considerarse como un evento. por lo tanto.1 Al conjunto de todos los resultados posibles de un experimento estad´stico se le o ı llama espacio muestral y se representa por la letra S.

Denotamos el a ¯ complemento de A por el s´mbolo Ac . o a B o a ambos.Definici´n 2.5 Dos eventos A y B son mutuamente excluyentes o disjuntos si A∩B = ∅. u C: sale un n´mero primo. es decir. es el suceso que se da si A no ocurre. si A y B no tienen elemento comunes. es decir. u y sean los eventos: A: sale un n´mero par.2. ∈ A → ∞ i=1 n i=1 Ai ∈ A. A es un σ. .2. . A2 . .2 Sea el experimento E: lanzar un dado y observar el n´mero que sale. o esto es. Ejemplo 2. Ejercicios 3 Demuestre las siguientes propiedades: i) ∅ ∈ A ii) A1 . es el evento que ocurre si A y B ocurren. . . A2 . u B: sale un n´mero impar. . A∩B. . Definici´n 2. ∈ A → ∞ i=1 Ai ∈ A Nota: (S.3 El complemento de un evento A con respecto a S es el conjunto de todos los o elementos de S que no est´n en A. u Determinar el espacio muestral y los elementos de los siguientes conjuntos: a) A ∪ C b) B ∩ C c) C c Definici´n 2.2. tambi´n escrito A. es el evento que contiene a todos o o los elementos comunes a A y a B. A2 . .4 La intersecci´n de dos eventos A y B. n i=1 Ai ∈ A Ai ∈ A 26 . A∪B es el evento que contiene a todos los o o elementos que pertenecen a A. Definici´n 2.2.2.A) se llama espacio medible.2.6 La uni´n de los dos eventos A y B. ı e Definici´n 2. An ∈ A → iii) A1 .7 Sea A la clase de eventos (aleatorios) de S.algebra de subconjuntos o ´ de S (no vac´ si: ıo) i) S ∈ A ii) A ∈ A → Ac ∈ A iii) A1 . . .

. . para concretar nuestro modelo debemos ´ introducir una medida de probabilidad sobre (S. A. Un espacio muestral S se compone de cuatro elementos.A) es una funci´n o o P : A → [0. An ∈ A son disjuntos dos a dos. es decir. entonces ∞ ∞ ∀ A∈A P i=1 Ai = i=1 P (Ai ) (S.2. . P) un modelo de probabilidad. . entonces n n P i=1 Ai = i=1 P (Ai ) Propiedades de P Dado un modelo de probabilidad (S. ∈ A son disjuntos dos a dos.8 Una medida de probabilidad P sobre (S. 1. P) se desprende de A1. dado un σ. 1] tal que cumple con los siguientes tres axiomas de Kolmogorov: A1 P(A) > 0 A2 P(S) = 1 A3 Si A1 . ¿Bajo cu´les de las siguientes funciones S llega a ser un espacio probabil´stico? a ı a) P(a1 ) = 1/2 P(a2 ) = 1/3 27 P(a3 ) = 1/4 P(a4 ) = 1/5 . Medida de Probabilidad Finalmente.3. S = {a1 . A2 y A3 que: P1) P(Ac ) = 1 − P(A) P2) A ⊆ B → P(A) ≤ P(B) P3) P(A ∪ B) = P(A) + P(B) − P(A ∩ B) P4) P( ∞ i=1 Ai ) ≤ ∞ i=1 P(Ai ) Ejercicios 4 . . A2 . Lema 1 Sea (S. a3 . P)se llama modelo de probabilidad. . a2 .2. Definici´n 2. A.A). . a4 }. Entonces valen las siguientes propiedades: a) P(∅) = 0 b) Si A1 .algebra A de eventos de S. A.2.

b) P(a1 ) = 1/2 c) P(a1 ) = 1/2 d) P(a1 ) = 1/2 P(a2 ) = −1/4 P(a3 ) = 1/4 P(a4 ) = 0 2. d) Ninguno de los tres sucesos ocurre. g) Al menos uno de los sucesos ocurre. B y C. ı c) Los tres sucesos ocurren. Sean tres sucesos A. o b) Ocurren tanto B como C. Encuentre expresiones para los siguientes sucesos en lenguaje de conjuntos. e) A lo m´s dos de ellos ocurren. a f) Al menos dos de los sucesos ocurren. a) S´lo ocurre A. P(a2 ) = 1/4 P(a3 ) = 1/8 P(a4 ) = 1/8 P(a2 ) = 1/4 P(a3 ) = 1/4 P(a4 ) = 1/2 28 . pero no as´ A. h) Exactamente dos de ellos ocurren.

Espacios finitos equiprobables Supongamos que S es un espacio muestral finito con n elementos y supongamos que las caracter´ ısticas f´ ısicas del experimento sugieren que a varios de los resultados se les asignen probabilidaes iguales. b) B no ocurra. probabilidad r/n. S se convierte en un espacio probabil´ ıstico asignando probabilidades a los sucesos de A de tal forma que satisfaga los axiomas de probabilidad. 1. P(A) = n(A) n(S) Teorema 2. ambas. . . Hallar la probabilidad p de uqe un estudiante a ı est´ estudiando matem´ticas o qu´mica. a2 . Hallar la probabilidad de a) A no ocurra.3 y P(A ∩ B) = 0.2. si a cada punto se le asigna probabilidad 1/n y si a cada suceso A que contiene r puntos. que cumple con las siguientes propiedades: a) cada pi es no negativo. an } un espacio probabil´ ıstico finito.2. A2 y A3. Espacios Probabil´ ısticos Finitos Consideremos un espacio muestral S y la clase A de todos los sucesos. Por lo tanto.2. llamado espacio finito equiprobable. de los cuales 30 estudian matem´ticas. Ejemplo 2. y para cualquier A∈ S sea P(A) = Entonces P cumple los axiomas A1. c) A o B ocurran d) Ni A ni B ocurran 29 P(B) = 0. Entonces S se convierte en un espacio probabil´ ıstico. o modelo probabil´ ıstico finito. Supongamos que A y B son sucesos con P(A) = 0. . 20 qu´mica y 10.3 Supongamos que se elige aleatoriamente a un estudiante entre 80.2 .4.2. a a ı Sea S un espacio muestral finito. . pi ≥ 0 b) n i=1 n(A) n(S) pi = 1 Ejercicios 5 . digamos S ={a1 .1 Sea S un espacio muestral finito.6. se obtiene asinando a cada punto ai de S un n´mero real pi llamado u probabilidad de ai .

Un naipe ingl´s consta de 52 cartas agrupadas en cuatro pintas (coraz´n.2. u c) Hay tres cartas de un mismo “n´umero” y dos de otro. 9. . J. ´ b) Hay exactamente cuatro cartas del mismo “n´mero”. tr´bol y e o e diamante) y 13 “n´meros” (As. Calcule las probabilidades de los siguientes eventos o sucesos: a) Las primeras tres cartas son diamantes y las dos ultimas son pique. . u 30 . 2.. 10. Q K). Se elige consecutivamente al azar y u sin reemplazo cinco cartas de este naipe. . pique.

1 Hallar P(B | A) si: 1. y que A y B son sucesos. Se sacan tres objetos al azar del lote. Hallar la probabilidad de los tres no sean defectuosos.3. 2. Probabilidad Condicionada e Independencia Probabilidad Condicional Definici´n 2.1 Supongamos que A. P(A ∩ B) .1. Encontrar P(A | B) y P(A) Teorema 2. A y B son mutuamente excluyentes.3.2. si P(B) = 0.3 Un lote contiene 12 objetos de los cuales 4 son defectuosos.2 (Multiplicaci´n para la probabilidad condicional) o P(A ∩ B) = P(B | A)P(A) n(A ∩ B) n(B) Corolario 1 P(A ∩ B ∩ C) = P(C | A ∩ B) · P(B | A) · P(A) Ejemplo 2. uno detr´s de otro. 2. Entonces P(A | B) = es una medida de probabilidad Ejemplo 2. (Asumimos que P(A) > 0) Teorema 2. A es un subconjunto de B. La probabilidad o condicional que A ocurra dado que B ha ocurrido. a 31 . Ejemplo 2.3.1 Supongamos que S es un espacio equiprobable. P(B) P(B) > 0 P(A | B) mide en cierto modo la probabilidad relativa de A con respecto al espacio reducido de B. P(A | B) se define y denota como P(A | B) = y P(A | B) = 0.3.3.3. B son sucesos de un espacio muestral S.3.3.2 Se tiran un par de dados y se define A: salga 2 en al menos uno de los dados B: la suma es 6.

32 . (iii) Seguir iterando Para tres ectracciones defina: Ai : la i-´sima ficha es azul.4 . entonces A y B son sucesos independientes.Se dice que A1 ..Definici´n 2.. o a 4. 3. de cualquier o otra forma ser´ dependientes. Urna de Polya Una urna contiene a fichas azules y r fichas rojas. A2 . supongamos A ∩ B = ∅ y A y B son independientes. e Calcule P(A1 ∩ A2 ∩ A3 ) i= 1. ıan Esta definici´n nos lleva a concluir que A y B son sucesos independientes si o P(A | B) = P(A) y Nota: 1. 2. . A⊥B | C ⇔ P(A ∩ B | C) = P(A | C) · P(B | C) 5. 3.Sea C ∈ A un evento tal que P(C) > 0.. An ∈ A son dos a dos independientes ssi P(Ai ∩ Aj ) = P(Ai ) · P(Aj ) ∀ i<j P(B | A) = P(B) 2. Entonces P(A)P(B) = P(A ∩ B) = 0 y por lo tanto P(A) = 0 o P(B) = 0 Ejemplo 2.3..Independencia dos a dos no implica independencia completa.3. Demostrar que si A y B son sucesos independientes. 2. Es decir. . (ii) Devolver la ficha con t fichas adicionales del mismo color. 1. Entonces A y B son condicionalmente independientes dado C..2 Los sucesos A y B son independientes si P(A ∩ B) = P(A)P(B).Observemos que los eventos disjuntos no son independientes a menos que uno de ellos tenga probabilidad cero. . .La complementaci´n de uno o m´s eventos no destruye la independencia. El experimento consiste en: (i) Extraer una ficha y observar su color.

La caja B tiene 2 rojas y una blanca. En una ciudad el 40 % de la gente se considera conservadora (C).4 Bajo las mismas condiciones del teorema anterior se tiene que P(Ai | B) = Ejercicios 6 . si se sabe que la botella est´ efectivamente con un volumen incorrecto? a P(Aj )P(B | Aj ) 33 . liberal e independiente.3. el 35 % liberales (L).2. . Teorema 2.2. 2. . . Ak forman una partici´n de S.3. . Bn ∈ A se llama partici´n de S si: o o Ai = S i=1 y Ai ∩ Aj = ∅ ∀ i = j. . . . 1. Entonces o para cualquier evento B se tiene que k P(B) = i=1 P(B | Ai )P(Ai ) 2. Se escoge una caja al azar. Si se elige un votante al azar. Si la ficha es roja. hallar la probabilidad de que sea de la caja A. hallar e la probabilidad de que el votante sea conservador.3 Supongamos que los sucesos A1 .3 Una familia de eventos B1 . el 45 % de los liberales y el 60 % de los independientes tambi´n. Teorema de Bayes P(B | Ai )P(Ai ) k j=1 Teorema 2. y una ficha de dicha caja. La caja C tiene 2 rojas y 3 blancas.3. Probabilidad Total k Definici´n 2. Supongamos que tenemos las tres cajas siguientes: La caja A tiene 3 fichas rojas y 5 blancas.3.3. y el 25 % independientes (I). bilidad de que esta persona tenga el c´ncer en cuesti´n? lidad de que el proceso de llenado de las botellas haya a o sido a baja velocidad.3. A2 . Durante las elecciones votaron el 45 % de los conservadores. .

la variable o se denota por la letra may´scula correspondiente.4. SC. o Definici´n 2. Rec(X). es un subconjunto de R. El suceso “el valor x de X pertenece al conjunto B”se denota por X ∈ B. Conocer la distribuci´n de probabilidad para un subconjunto B implica que podemos PX para o cualquier B ⊂ R (medible). cada B ⊂ R medible puede generarse a partir de uniones y/o intersecciones de intervalos de la forma [an . P). CS. para un evento B ⊂ R como: PX (B) = P(X −1 (B)) donde X −1 (B) = {ω ∈ Ω : X(ω) ∈ B} es un evento en Ω. Los elementos de B se llaman ´ a Borelianos y son subconjuntos medibles de R. Cuando B = {x} se simplifica la notaci´n a {X = x}. SS} y sea la variable aleatoria definida por X(ω) = n´mero de caras.4. la distribuci´n de proo o babilidad inducida por X en R se define. P) ssi {ω ∈ Ω : X(ω) ≤ x} es un evento (aleatorio) en A. bn ]. En general.2.4.4. ∀ x ∈ R u Notaci´n: Si el valor de la variable aleatoria se denota por una letra min´scula . o u Nota: Usualmente.4.2 Dada una variable aleatoria X definida en (Ω. P).1. A.1 Sea Ω = {CC. el recorrido de X. ∀x ∈ R ∴ X es una variable aleatoria en (Ω.1 Dado un modelo de probabilidad (Ω. Normalmente se utilizan las ultimas letras del u ´ alfabeto. Ejemplo 2. A. b] genera una σo algebra en R. llamada σ-´lgebra de Borel y denotada por B. Variables Aleatorias Introducci´n o Informalmente una variable aleatoria puede definirse como una funci´n num´rica sobre Ω. diremos que una funci´n o o X:Ω→R es una variable aleatoria ssi {ω ∈ Ω : X(ω) ≤ x} ∈ A. A. el o e espacio muestral: X:Ω→R X es una funci´n tal que asigna a cada ω ∈ Ω un n´mero. 34 . La colecci´n de estos intervalos de la forma (a. 2. ω ∈ Ω u ¿Cu´l es el recorrido de la variable aleatoria X? a Formalmente: Definici´n 2.

Proposici´n 1 PX es una medida de probabilidad en (R. Definici´n 2. x ∈ R se llama funci´n de distribuci´n acumulada.4. x ∈ R. x]) = P(X ≤ x). f. B) → (R.d. B. la funci´n distribuci´n de X. o o Propiedades Sea FX (x). de la variable aleatoria X.a. PX ) es una medida de o probabilidad (inducida por la variable aleatoria X).3 La funci´n definida por o o FX (x) = PX ((−∞. o o P1) x→−∞ l´ FX (x) = 0 y ım x→∞ l´ FX (x) = 1 ım (0 ≤ FX (x) ≤ 1 ∀ x) P2) Si x1 < x2 . entonces FX (x1 ) ≤ FX (x2 ) (FX es no decreciente en R) P3) x→x0 l´ FX (x) = FX (x0 ) ım ∀ x0 ∈ R (FX es continua por la derecha) 35 .

donde P(X = x). se llama funci´n de probabilidad. . o Sigue de la definici´n de P(X = x). Calcule el valor de c. X(ω) ∈ {x1 .d. o o 3.3 Si 50 % de los autom´viles extranjeros que vende una agencia est´ equipado para o a trabajar con di´sel. . e 36 . encuentre una f´rmula para la distribuci´n de probabilidad del n´mero de modelos e o o u di´sel entre los pr´ximos 4 autom´viles que venda esta agencia. x ∈ R. u e (ii) El n´mero sea mayor que 2. Variables Aleatorias Discretas FX (x).4. 36−x . FX (x). 7x × 0. 6 1. es discreta ssi la variable aleatoria X es discreta. Haga una tabla con los valores de la funci´n de distribuci´n F.2. x ∈ R.2 Un dado no equilibrado asigna a la cara con el n´mero x probabilidades dadas por u p(x) = c × 0. u Ejemplo 2. que: o i) P(X = x) ≥ 0 ii) P(X = x) = 1 x∈R ∀ x∈R iii) PX (B) = P(X ∈ B) = x∈B P(X = x) Ejemplo 2. 2.} ∀ ω∈R En tal caso. x ∈ R. .4. x ∈ R. Determine la f. x = 1. . . puede representarse como: FX (x) = t≤x P(X = t). Utilice la tabla para calcular la probabilidad que (i) El n´mero est´ entre 2 y 4. x2 .4. x ∈ S. es decir. .2. X asume valores en un subconjunto contable de R. .a de la variable e o o de inter´s.

c.4 Suponga que el error de la temperatura de reacci´n.4. o b) Encuentre P(0 < X ≤ 1) Definici´n 2. = FX (b) − FX (a) b a = −∞ fX (x) dx − −∞ fX (x) dx = B fX (x) dx Ejemplo 2. a) Verifique la condici´n (ii). x ∈ R es continua ssi existe una funci´n no negativa fX (x). o Note que: i) fX (x) ≥ 0 ii) ∞ ∀ x fX (x) dx = 1 −∞ iii) PX (B) = P(X ∈ B) = B fX (x)dx Si B es un intervalo.4. Variables Aleatorias Continuas x FX (x).4. tal que: o FX (x) = −∞ fX (t)dt. x ∈ R.o. fX (x) = ∀ x∈R dFX (x) dx donde fX (x) se denomina funci´n de densidad de la variable aleatoria X.3. en ◦ C.4 La distribuci´n acumulada FX (x) de una variable aleatoria continua X con o o densidad fX es: x FX (x) = P(X ≤ x) = −∞ fX (t) dt x ∈ R Ejemplo 2.5 Para la funci´n de densidad del ejemplo anterior. encuentre FX y util´cela para o ı calcular P(0 < X ≤ 1) 37 . por ejemplo.2. b). e. que tiene funci´n de densidad de o probabilidad: x2 . entonces se tiene lo siguiente: PX (B) = P(a < X < b) = P(a < X < b) = P(a < X ≤ b) pues P(X = b) = 0.4. para un experimento o controlado de laboratorio es una variable aleatoria continua X. -1 < x < 2 3 fX (x) = 0. B = (a.

Si X e Y son variables aleatorias con esperanzas bien definidas y tales que X(ω) ≤ Y (ω) ∀ ω entonces E(X) ≤ E(Y ) Definici´n 2. X discreta  i=1 E(X) =  ∞   xfX (x)dx. por lo o que hay que considerar una medida de dispersi´n de la variable. esto es.7 La varianza de una variable aleatoria X se define como o V (X) = E[(X − E(X))2 ]  ∞    (xi − E(X))2 P(X = xi )  i=1 ∞ P(X ≤ m) = 1/2 V (X) =     Notaci´n: o 2 σX (x − E(X))2 fX (x)dx −∞ = V (X) 38 . la m´s com´n. entonces E(X + Y ) = E(X) + E(Y ) 3.4. o e ii) Si X tiene distribuci´n asim´trica.5 La esperanza de una variable aleatoria X se define como: o  ∞    xi fx (xi ).. entonces E(X) es una mediana para X. X continua  −∞ Notaci´n: µX = E(X) o Propiedades 1. Localizaci´n y dispersi´n de una variable aleatoria o o Definici´n 2.. o a u Definici´n 2. o Dos distribuciones pueden tener la misma localizaci´n y ser completamente diferentes.4.4. entonces a a E(aX + b) = aE(X) + b 2. si E(X) est´ bien definida.La esperanza matem´tica es un operador lineal.4.2. es la varianza..4.6 La mediana de una variable aleatoria X es alg´n n´mero m tal que: o u u P(X ≥ m) ≥ 1/2 y Notas: i) Si X tiene distribuci´n sim´trica y E(X) < ∞.Si X e Y son variables aleatorias. la mediana de X puede ser una mejor medida de localizao e ci´n.

.6 Sea X la variable aleatoria que cuenta el n´mero de caras en tres lanzamientos de u una moneda honesta. con P(A) = p..4. Determine el recorrido. Ejemplo 2.V (X) = E(X 2 ) − (E(X)2 ) 2.Si X e Y son variables aleatorias. valor esperado y varianza o o de X. A. entonces o V(X + Y ) = V(X) + V(Y ) Ejemplo 2. la funci´n de distribuci´n..4.7 Sea A un evento en (Ω. 39 . V (X) = 0 ↔ X = c 3. Determine esperanza y varianza de X.V (aX + b) = a2 V (X) 4. Sea X la ganancia obtenida en un ensayo de este experimento.. Y ) S´lo en el caso en que X e Y son variables aleatorias independientes.V (X) ≥ 0. con 0 ≤ p ≤ 1. Usted paga $1 se A ocurre y $0 si A ocurre. P).Propiedades 1. entonces V(X + Y ) = V(X) + V(Y ) − 2 · Cov(X.

4. como fracaso. En realidad.8 Se sabe que el n´mero de pacientes graves en una urgencia es una variable aleatoria u Binomial con una media de 12 pacientes graves y una varianza de 3. cualquier experiemnto puede ser usado para definir un ensayo Bernoulli simplemente denotando alg´n evento de inter´s. se llama un experimento Binomial con n ensayos y par´metro p. Entonces X se llama variable aletoria Binomial con par´metros n y p a a y se denota X ∼ Bin(n. donde E(X) = p V (X) = p(1 − p) Distribuci´n Binomial o Un experimento que consiste de n ensayos Bernoulli independientes. cada uno con probabilidad de ´xito p. . lo que ocurra en un ensayo no tiene efecto en el resultado observado para cualquier otro ensayo. . e a Al decir “ensayos independientes”significa que los ensayos son eventos indeoendientes esto es. n x = 0.2. Determine la probabilidad que en un d´a haya a lo menos 2 pacientes en estado grave.1 La esperanza y varianza de la distribuci´n Binomial est´n dadas por: o a E(X) = n · p V (X) = n · p · (1 − p) Ejemplo 2. fracaso (F). p) y su funci´n de probabilidad est´ dada por o a P(X = x) = n x p (1 − p)n−x . Definici´n 2. . como ´xito y su complemento. Casos especiales de distribuciones probabilidad Distribuci´n Bernoulli o Consideremos un experimento con s´lo dos resultados posibles. u e e Notaci´n: X ∼ Bernoulli(p) y su funci´n de probabilidad est´ dada por o o a P(X = x) = px (1 − p)1−x .8 Sea X el n´mero total de ´xitos observados en un experimento Binomial con n o u e ensayos y par´metro p. A. 1 Teorema 2.4.4. 1. uno que se llame ´xito (E) y o e otro.4. A . Los resultados sucesivos e independientes de tal experimento se llaman pruebas o experimentos Bernoulli. ı 40 .5. x x = 0. .

r−1 x ∈ {r.10 Cacule la probabilidad de que deba lanzar un dado por lo menos 6 veces hasta obtener 5 tres veces. y p su funci´n de probabilidad a o est´ dada por a P(X = x) = y se denota por X ∼ BinN eg(r. Teorema 2.10 Consideremos ensayos Bernoulli independientes con probabilidad de ´xito p en o e cada ensayo. 2.Distribuci´n Geom´trica o e Definici´n 2. Si X es el n´mero de ensayos necesarios para observar el r-´simo ´xito.9 Cacule la probabilidad de que deba lanzar un dado por lo menos 6 veces hasta obtener un 5. 3.} 41 .4.3 La esperanza y varianza de la distribuci´n Binomial Negativa est´n dadas por: o a r p r(1 − p) V (X) = p2 E(X) = Ejemplo 2. r + 1. entonces la distribuci´n de la variable aleatoria X.4. . .2 La esperanza y varianza de la distribuci´n geom´trica est´n dadas por: o e a 1 p 1−p V (X) = p2 E(X) = Ejemplo 2. . el n´mero de experimentos necesarios e o u hasta encontrar el primer ´xito sigue una distribuci´n geom´trica de par´metro p y se denota e o e a por: X ∼ Geo(p) con funci´n de probabilidad dada por o P(X = x) = (1 − p)x−1 p.4.4. x−1 r p (1 − p)x−r . Distribuci´n Binomial Negativa o Definici´n 2. .4. entonces X u e e se llama variable aleatoria Binomial negativa con par´metros r.4. x = 1. . .9 Si se realizan repetidos experimentos Bernoulli independientes con probabilidad o de ´xito p. p) Teorema 2.

11 Se sabe que los pacientes llegan de acuerdo a una distribuci´n Poisson con λ = 3 o pacientes/minuto. . . a < x < b.5 La esperanza y varianza de la distribuci´n Uniforme est´n dadas por: o a a+b 2 (b − a)2 V (X) = 12 E(X) = Ejemplo 2. b−a 0.12 Una variable aleatoria X tiene distribuci´n uniforme si su densidad se diso o tribuye por igual entre dos valores cualquiera a y b.4. y su funci´n de probabilidad o a o est´ dada por a e−λ λx P(X = x) = .12 En los d´as del verano.4. Calcule la probabilidad de que el tren llegue por lo menos con 8 minutos de retraso.c. X. e.4.4. 42 .o.4 La esperanza y varianza de la distribuci´n Poisson est´n dadas por: o a E(X) = λ V (X) = λ Ejemplo 2. x! y se denota por X ∼ P oisson(λ) Teorema 2.4.Distribuci´n Poisson o Definici´n 2. el tiempo de retraso de un tren del Metro. . se puede ı modelar como distribuida uniformemente entre 0 y 20 minutos.11 Una variable aleatoria X que cuenta el n´mero de eventos que ocurren en un o u per´ ıodo de tiempo tiene distribuci´n Poisson de par´metro λ > 0. x = 0. 2. 1.4. Cuando llegan m´s de 4 pacientes por minuto la secretaria se ve sobrepasada y a el servivio de atenci´n es calificado como deficiente. o a 1 . Calcule la desviaci´n est´ndar del tiempo de retraso del tren. b) o Teorema 2. ¿Cu´l es la probabilidad de que el sistema sea o a calificado como no deficiente? Distribuci´n Uniforme o Definici´n 2. 1. Su funci´n de densidad est´ dada por o a fX (x) = Notaci´n: X ∼ U(a.

Encuentre la probabilidad de que el tiempo entre llegadas sea mayor a 2 horas. ¿Cu´l es el valor de z que corta el 15 % menor de la distribuci´n? a o 1 2πσ 2 e− (x−µ)2 2σ 2 1 −x/β e .6? a 2. sustrayendo el valor esperado µ y dividiendo el resultado por σ. −∞ < x < ∞ 43 .14 Considere la distribuci´n normal est´ndar con media µ = 0 y desviaci´n σ = 1.4. Sea X.13 Suponga que los eventos suceden aleatoriamente a lo largo del tiempo. Encuentre la probabilidad de que el tiempo entre llegadas sea mayor a 1 hora. σ 2 ) o Definici´n 2. ¿Cu´l es la probabilidad que z sea mayor que 2.Distribuci´n Exponencial o Definici´n 2. entonces Z se o llama variable aleatoria normal est´ndar. o a o 1.4. Ejemplo 2. ¿Cu´l es la probabilidad que z sea menor que 1. Distribuci´n Normal o Definici´n 2.4.4. x > 0. e.4.7 y 3.c.4.13 En un centro rural para la atenci´n de emergencias el tiempo entre llegadas sigue una distribuci´n o o exponencial con un tiempo media de llegadas de 1. .15 Si Z es una variable aleatoria normal con media 0 y varianza 1.6 La esperanza y varianza de la distribuci´n Exponencial est´n dadas por: o a E(X) = β V (X) = β 2 Ejemplo 2. ¿Cu´l es la probabilidad que z est´ entre -1.25 horas. a Cualquier variable aleatoria normal X se puede transformar en una variable aleatoria normal estandarizada Z.3? a 3.14 La variable aleatoria X tiene distribuci´n normal con media µ y varianza o o σ 2 si su funci´n de densidad est´ dada por o a fX (x) = √ Notaci´n: X ∼ N(µ. la variable aleatoria que cuenta el tiempo para el siguiente evento.o. con un o tiempo esperado entre eventos β.1? a e 4. entonces X tiene distribuci´n exponencial y su funci´n densidad est´ dada por o o a fX (x) = donde β > 0 y se denota por X ∼ exp(β) Teorema 2. β 0.

a) Encuentre P(0300 < Y < 1300) b) P(Y > 5555) c) Encuentre la varianza de Y 6. Q : la cantidad de kilos de manzanas que exporta una empresa. Ciertos ´temes son producidos por una m´quina. Si p(x) = c · (5 − x) para x = 0. 1. X : el n´mero de accidentes de autom´vil por a˜o en la ciudad de Santiago. los ´temes de segunda calidad representan al 5 % de la producci´n total. En una central nuclear ocurren aleatoriamente a lo largo del tiempo “eventos poco comunes” (problemas menores de operaci´n). ¿Cu´l es el valor de c? a 3. Una variable aleatoria continua X que puede tomar valores entre x=2 y x=5 tiene una funci´n o de densidad 2(1 + x) fX (x) = 27 Calcule a) P(X < 4) b) P(3 < X < 4) 5. o ı 44 . 2. N : el n´mero de huevos que pone mensualmente una gallina. u P : el n´mero de permisos para la construcci´n de edificios que otorga mensualmente una u o municipalidad. como u si fuese continua (aun cuando hay solo hay 10000 posibilidades discretas) y uniformemente distribuida. u o n Y : el tiempo que toma jugar 18 hoyos de golf. 3. ı a) Determine la variable aleatoria y su funci´n de probabilidad. Trate a la variable Y. el n´mero seleccionado. 1. El tiempo medio entre dos eventos es 40 d´as. Clasifique las siguientes variables como discretas o continuas. Una m´quina que marca n´meros telef´nicos al azar selecciona aleatoriamente cuatro d´ a u o ıgitos entre 0000 y 9999 (incluido ambos). Si se ı o inspeccionan ´temes hasta que se encuentra el quinto de segunda calidad. o b) ¿Cu´l es el n´mero esperado de ´temes que se deben inspeccionar para detectar el quinto a u ı de segunda calidad? c) ¿Cu´l es la probabilidad de que se tengan que inspeccionar 7 art´culos? a ı 4. M : la cantidad de leche producida anualmente por una vaca en particular. cada item es clasificado como de primera o ı a segunda calidad.Ejercicios 7 . 2.

a) ¿Cu´l es la probabilidad de que el tiempo para el siguiente “evento poco com´n” se ena u cuentre entre 20 y 60 d´as? ı b) ¿Cu´l es la probabilidad de que pasen m´s de 60 d´as sin probemas? a a ı c) Encuentre la desviaci´n est´ndar del tiempo para el siguiente “evento poco com´n”. Sea Z una variable aleatoria normal estandarizada. Encuentre la probabilidad o o a o de que un profesor seleccionado al azar tenga a) un ingreso anual inferior a 15000 d´lares. o b) un ingreso mayor a 21000 d´lares. o c) un ingreso mayor a 25000 y de a lo m´s 30000 d´lares. Calcule: a) P(0 ≤ Z ≤ 1.96) b) P(Z > 1.96) 8.96) c) P(−1. a o 45 . o a u d) Un an´lisis de los archivos de la central nuclear muestra que los “eventos poco comua nes” suceden con mayor frecuencia los fines de semana.96) d) P(0 ≤ Z ≤ 1. ¿qu´ hip´tesis subyacente a las e o respuestas de las preguntas anteriores se pone en duda? 7. Los ingresos anuales de los profesores de la universidad siguen una distribuci´n normal con o media 18600 d´lares y una desviaci´n est´ndar de 27000 d´lares.96 ≤ Z ≤ 1.

4. X continua −∞ como el k-´simo momento (no centrado) de X. X continua  −∞ Momentos y funciones generadoras de momentos Definici´n 2.15 Determine su funci´n generadora de momentos para las siguientes distribuciones: o a) X ∼ Bin(n.4.4. X discreta  i=1 E(g(X)) =  ∞   g(x)f (x)dx. Ejemplo 2.16 Sea X una variable aleatoria y sea g una funci´n con dominio en S y valores o o en R. El valor esperado de g(X) est´ dado por a  ∞    g(xi )P(X = xi ).  i=1 MX (t) =  ∞ tx   e fX (x)dx. i i=1 ∞ X discreta xk fX (x)dx. p) b) X ∼ N(0. e (ii) E((X − µ) ) = k          ∞ (xi − µ)k fx (xi ). Funciones de Variables Aleatorias Definici´n 2.  −∞ con t ∈ R.g.18 La funci´n generadora de momentos (f.7 Sea X una variable aleatoria con funci´n generadora de momentos MX (t).4. Entono ces dk MX (t) E(X k ) = dtk t=0 46 .2.4.m.17 Dada una variable aleatoria X se definen: o (i) E(X ) = k          ∞ xk fx (xi ). X continua −∞ como el k-´simo momento centrado de X. i=1 ∞ X discreta (x − µ)k fX (x)dx.) de una variable aleatoria X o o se define como  ∞    etxi fx (xi ). e Definici´n 2.6. 1) Teorema 2.4.

4.g. Entonces la o distribuci´n de probabilidad de Y est´ dada por o a fY (y) = fX (g −1 (y))|J| donde J = (g −1 (y)) y recibe el nombre de Jacobiano de la tranformaci´n. . o 47 . 1) Teorema 2. respectivamente.4.11 Suponga que X es una variable aleatoria continua con distribuci´n de probabilidad o f (x).17 Sea X una variable aleatoria con distribuci´n normal est´ndar. entonces X e Y tienen la misma distribuci´n de probabilidad. Si MX (t) = MY (t) para todos los valores de t. entonces MY (t) = etd MX (ct) Ejemplo 2. con g una funci´n uno a uno entre los valores de X e Y . Se desea encontrar la distribuci´n o o de probabilidad de Y . o Teorema 2.9 Si Y = cX + d.Ejemplo 2. p) b) X ∼ N(0. Sea Y = g(X). 2.m calcule la media de X si a) X ∼ Bin(n. de Y = µ + σX.4. Por ejemplo supongamos que X es una variable o a aleatoria discreta con distribuci´n de probabilidad f (x) y supongamos adem´s que Y = g(X) deo a fine una transformaci´n uno a uno entre los valores de X e Y . Transformaci´n de variables o Frecuentemente. a o Teorema 2.8 (Teorema de Unicidad) Sean X e Y dos avriables aleatorias con funciones generadoras de momentos MX (t) y MY (t).m. se presenta la necesidad de deducir la distribuci´n de probabilio dad de una funci´n de una o m´s variables aleatorias.4. y s´lo un valor de x = g (y). . Es importante resaltar el hecho que la transformaci´n uno a uno implica o que cada valor de x est´ relacionado con un. a) Encuentre al distribuci´n de la variable aleatoria de Y = X 2 o b) Encuentre la distribuci´n para la variable aleatoria Z = 4 − 5X o Teorema 2. Entonces la distribuci´n o ´ e o de probabilidad de Y es fY (y) = fX (g −1 (y)) Ejemplo 2.4.16 Utilizando las respectivas f.g.4.18 Sea X una variable aleatoria geom´trica con distribuci´n de probabilidad e o fX (x) = 3 1 4 4 x−1 . en estad´ ıstica. y s´lo un valor de y = g(x) y que cada valor de y a o −1 est´ relacionado con un. x = 1. Si o Y = g(X) define una transformaci´n uno a unn entre los valores de X e Y de tal forma que la o ecuaci´n y = g(x) pueda resolverse unicamente para x en t´rminos de y. Determine la o a f. .4.10 Sea X una variable aleatoria discreta con distribuci´n de probabilidad f(x).

es decir. e.4.Ejemplo 2. 1. o −∞ < x < ∞. xi = gi (y). ¿Cu´l es la distribuci´n de Y = X α ? a o 48 . a) Sea X una variable aleatoria continua con funci´n densidad o fX (x) = x . dy i Ejemplo 2. Γ(a)Γ(b) 0 < x < 1. entonces la distribuci´n de probabilidad de Y es o k fY (y) = i=1 −1 fX (gi (y))|Ji | donde |Ji | = d −1 g (y) i = 1. Se dice que X tiene distribuci´ Weibull si o fX (x) = λαxα−1 exp(−λxα ). 12 1<x<5 Encuentre la distribuci´n de probabilidad de la variable aleatoria Y = 2X − 3.X.c. o b) Sea X una variable aleatoria con densidad Beta(a. . Si Y = g(X) o es una transfromaci´n entre los valores de X e Y que no es uno a uno. x > 0.o. . . . Determinar la distribuci´n de Y = 1 . .b). Determine E(X). encontrar al funci´n densidad de Y = eX o 2. Si X ∼ U (0. . Sea X una variable aleatoria con densidad 1 fX (x) = e−|x| .19 . es decir. fX (x) = Γ(a + b) a−1 x (1 − x)b−1 . Se asume que α > 0 y λ > 0. .4. k. 2 Determinar la distribuci´n de Y = |X|. 1).12 Sea X una variable aleatoria continua con funci´n densidad fX (x). para cada y ∈ R o −1 existen k inversas.4. 0. . i = 1. o Teorema 2.20 . Ejercicios 8 . k.

1/2). ¿Cu´l es la probabilidad de encontrar 460 o menos electores a favor del fortalecimiento si suponemos a que el 50 % de la poblaci´n est´ a favor de ´l? o a e En este caso.21 Se sabe que el 5 % de los libros encuadernados en cierto taller tienen encuadernaciones defectuosas.5.4. a En este tipo de situaciones. tengan encuadernaciones defectuosas. o o Aproximaci´n Normal a la distribuci´n Binomial o o Se sugiere aproximar la distribuci´n Normal a una distribuci´n binomial cuando n es “muy o o grande” y los valores de p son cercanos a 0. o En ambos casos λ = np y en vez de utilizar X ∼ Bin(n. sea X el n´mero de electores en pro del fortalecimiento. donde el n´mero de ensayos es demasiado grande (≥ 20). µ = np y σ 2 = np(1 − p). En tal caso.4.05 y n ≥ 20. Aproximaci´n de distribuciones o Sea una variable aleatoria X ∼ Bin(n. p) usamos X ∼ P (np). dependiendo del valor de p. lo que no e parece una tarea f´cil. Esta aproximaci´n deber´ utilizarse s´lo si np ≥ 5 y o ıa o n(1 − p) ≥ 5. 72 a tengan un t´ ıtulo univeristario? 49 . a) la f´rmula de la distribuci´n Binomial. Si n ≥ 100 la aproxin maci´n es buena siempre y cuando np > 10. p). Ejercicios 9 El 45 % de todos los empleados del centro de capacitaci´n gerencial tiene t´tulos unio ı versitarios. o o b) la aproximaci´n de Poisson a la distribuci´n Binomial. La regla es aproximar si p < 0. Determine la probabilidad de que 2 de 100 libros encuadernados en ese taller. aproxiu maremos nuestra distribuci´n de probabilidad a otro distribuci´n.7. e Aproximaci´n Poisson a la distribuci´n Binomial o o Se sugiere aproximar a la distribuci´n Poisson una distribuci´n binomial para valores de n “muy o o grandes” y de p “muy peque˜a”. u entonces para calcular la probabilidad pedida P(X ≤ 460) debemos sumar 461 t´rminos. ¿Cu´l es la probabilidad de que de los 150 empleados seleccionados aleatoriamente. Ejemplo 2. suponga que recoge la opini´n de una o muestra de 1000 electores para saber su sentir en pro del fortalecimiento del gobierno de la ciudad. Ejemplo 2.4. ¿cu´l es la probabilidad de que 10 apoyen a un paro? Calcule dicha probabilidad utilizando las distribuciones Binomial y Normal por separado y compare. Si se seleccionan 15 miembros de manera aleatoria.2. por ejemplo. usando. con X ∼ Bin(1000. la o o probabilidad de ´xito.22 Se considera un sindicato laboral en el cual el 40 % miembros est´ a favor de la a huelga.

Xn (x1 . . X2 = x2 ... xn ) = −∞ ··· −∞ fX1 .5.. . .5. Diremos que: o a) X = (X1 .5. .5. Xn o son variables aleatorias definidas en el mismo modelo (Ω.X (x1 .. .Xn (x1 .Xn : Rn → R no negativa tal que x1 xn FX1 . X2 . . la distribuci´n de probabilidad puede representarse mediante o n P(X1 = x1 . X2 .o. y > 0. Xn ) es un vector aleatorio definido en (Ω. . .. X2 . P). X2 . .. x∈R Definici´n 2. 50 (1 − e−x )(1 − e−y ). .5.5. . . . A. (i) P(X = x) ≥ 0 (ii) P(X = xi ) = 1 ∀ x ∈ Rn {Xi = xi } i=1 b) X = (X1 . . . En tal caso. . .Xn (x1 . Distribuci´n Conjunta o FX1 . 2. x2 . . Xn = xn ). A.. . P).1 Sean X e Y variables aleatorias con funci´n distribuci´n conjunta dada por o o FXY (x.2 La funci´n definida por o o se llama funci´n distribuci´n conjunta de X1 . . . X2 .3 Sea X = (X1 . . x >0. . . ..c. e. .Xn (t1 . X2 . X2 . . y) = Determine fXY . . Xn ) es continuo ssi existe una funci´n o fX1 . . . . . A. Xn = xn ) = P As´ ı.2. . Xn ) es discreto ssi Rec(X)= Rec(X1 . . . ∂n FX . . . P) ssi X1 .1.1 X = (X1 . . tn )dtn · · · dt1 . . . . . Xn ) un vector aleatorio en (Ω.. .. X2 = x2 . . Xn ) es un subconjunto contable (finito o no) de Rn . . xn ) = Ejemplo 2. xn ) = P(X1 = x1 .. . . . . xn ) ∂x1 · · · ∂xn 1 n ∀ x∈R En tal caso fX1 . . Vectores Aleatorios Definici´n 2.. Xn o o Definici´n 2. . . 0. . .. .. . .X2 .

Definici´n 2.5.4 La distribuci´n de probabilidad de X = (X1 , X2 , . . . , Xn ) se define como: o o PX (B) = P(X ∈ B) As´ PX (B), B ⊂ B n , es una medida de probabilidad. ı, ⇒ (PX , B n , Rn ) es una medida de probabilidad. Proposici´n 2 o ∀ B ∈ Bn        P(X = x), X discreta
x∈B

∀ B ⊂ Bn

PX (B) = P(X ∈ B) =

fX (x)dx, X continua
x∈B

Teorema 2.5.1 Sea X un vector aleatorio continuo n- dimensional con densidad fX (x). Sea g = (g1 , g2 , . . . , gn ) una funci´n. Considere el vector aleatorio Y = g(X). Esto significa que se considera o la transformaci´n o y1 = g1 (x1 , . . . , xn ) y2 = g2 (x1 , . . . , xn ) . . . yn = gn (x1 , . . . , xn )

Finalamente sup´ngase que g y g −1 son continuas y dieferenciables. Entonces la densidad de Y es o
−1 −1 fY (y) = |J|fX (g −1 (y), g2 (y), . . . , gn (y)) y ∈ Rn

Ejemplo 2.5.2 Sean X e Y dos variables aleatorias continuas con distribuci´n de probabilidad o conjunta 4xy, 0 < x < 1, 0 < y < 1; f (x, y) = 0, e.o.c. Encuentre la densidad conjunta de W = X 2 y Z = XY .

51

2.5.2.

Distribuciones Conjuntas Especiales

Algunas distribuciones multivariadas conocidas se enuncian a continuaci´n: o Suponga que realiza N experimentos inpedendientes, en cada uno de los cuales puede obtener uno de los k resultados posibles, cada uno con probabilidad p1 , p2 , . . . , pk , respectivamente, y desea contar cu´ntas repeticiones de cada resultado obtuvo. a Definici´n 2.5.5 Las variables aleatorias X1 , X2 , . . . , Xk tienen una distribuci´n multinomial o o si y s´lo si su distribuci´n de probabilidad conjunta est´ dada por o o a P(X1 = x1 , Xk = xk , . . . , Xk = xk , ) = donde
r

n p x1 p x2 . . . p xk k n1 n2 · · · nk 1 2
k

nj = n
j=1

y
i=1

pi = 1

Lo que se denota como (X1 , . . . , Xk ) ∼ M ult(n, p1 , p2 , . . . , pk ) Ejemplo 2.5.3 Suponga que los errores de cierto procedimiento de medici´n tienen distribuci´n o o normal de media 0 y desviaci´n est´ndar 2, en mil´metros. Suponga que se toman 10 mediciones o a ı independientes. Calcule la probabilidad que: por lo menos 9 mediciones tengan errores menores a los 2 mil´ ımetros y que no m´s de una medici´n tenga error mayor a los 3 mil´metros. a o ı

Considere un conjunto de N elementos, de los cuales M1 son de la primera clases, M2 de la segunda clase, y as´ sucesivamente, hasta Mk de la k-´sima clase, donde ı e Mi = N . Definici´n 2.5.6 Las variables aleatorias X1 , . . . , Xk tienen una distribuci´n hipergeom´trica o o e multivariada si y s´lo si su distribuci´n de probabilidad conjunta est´ dada por o o a P(X1 = x1 , . . . , Xk = xk ) = donde
M1 x1

...
M n

Mk xk

k

k

xi = n,
i=1

y
i=1

Mi = N

Ejemplo 2.5.4 En un panel de presuntos jurados participan 6 hombres casados, tres hombres solteros, siete mujeres casadas y cuatro mujeres solteras. Si la selecci´n es al azar, ¿cu´l es la probabilidad o a de que el jurado consita de 4 hombres casados, un soltero, cinco mujeres casadas y dos solteras?

52

Entre las distribuciones multivariadas continuas, la distribuci´n normal multivariada es de eso pecial importancia, ya que es una generalizaci´n de la distribuci´n normal en una variable. o o Definici´n 2.5.7 El vector aleatorio (X, Y ) tiene una distribuci´n normal bivariada si y s´lo o o o si su funci´n densidad conjunta est´ dada por o a f (x, y) = 1 2πσ1 σ2 1− ρ2 exp 1 − 2(1 − ρ2 ) x − µ1 σ1
2

y − µ2 + σ2

2

− 2ρ

x − µ1 σ1

y − µ2 σ2

para x ∈ R, y ∈ R, σ1 , σ2 > 0, y −1 < ρ < 1.

Teorema 2.5.2 Si dos variables aleatorias tienen una distribuci´n normal bivariada, son inpedeno dientes si y s´lo si ρ = 0. o

53

2.5.3.

Distribuci´n Marginal y Condicional o

Dada la distribuci´n de probabilidad conjunta f (x, y) de las variables aleatorias X e Y , la o distribuci´n de probabilidad f (x) de X se obtiene al sumar f (x, y) sobre todos los valores de Y . o De la misma forma, la distribuci´n de probabilidad f (y) se obtiene al sumar f (x, y) sobre todos o los valores de X. Cuando X e Y son variables aleatorias continuas, las sumas se reemplazan por integrales. Definici´n 2.5.8 Las distribuciones marginales de X e Y est´n dadas por o a pX (x) =
y

fXY (x, y)

y

pY (y) =
x

fXY (x, y)

para el caso discreto y fX (x) =
y

fXY (x, y)dy

y

fY (y) =
x

fXY (x, y)dx

para el caso continuo. Definici´n 2.5.9 Sean X e Y dos variables aleatorias discretas o continuas. La distribuci´n o o condicional de la variable aleatoria Y, dado que X=x, est´ dada por: a fY |X (y) = fXY (x, y) , fX (y) fX (x) > 0

Ejemplo 2.5.5 Suponga que la fracci´n X de atletas hombres y la fracci´n Y de atletas mujeres o o que terminan la carrera del marat´n puede describirse por la funci´n densidad conjunta o o fXY (x, y) = 8xy, 0 ≤ x ≤ 1, 0 ≤ y ≤ x.

Encuentre fX , fY y fY |X y determine la probabilidad de que menos de 1/8 de las mujeres que se inscribieron para un marat´n en particular la finalicen, si se sabe que exactamente 1/2 de los atletas o hombres terminaron la carrera. Definici´n 2.5.10 Sean X e Y dos variables aleatorias, discretas o continuas, con distribuci´n o o de probabilidad conjunta fXY y distribuciones marginales fX y fY , respectivamente. Las variables aleatorias X e Y se dice que son independientes estad´ ısticamente, ssi fXY (x, y) = fX (x)fY (y), ∀ x, y ∈ R

54

Ejercicios 10 . Obtenga la funci´n generadora de momentos de Z. Determine las respectivas densidades marginales de Z y W . y W = x>0 y fY (y) = e−y X X +Y y>0 1. MZ (t). Sea X e Y variables aleatorias independientes con funciones densidades marginales fX (x) = xe−x . ¿Son Z y W variables aleatorias independientes? 3. 2. o 55 . Sean Z = X + Y.

2. E(g1 (X)g2 (Y )|X = x) = g1 (x)E(g2 (Y )|X = x) v) E(g(Y )|X = x) = E(g(Y )) ⇔ X es independiente de Y. Y )) En particular. −∞ X continua E[E(Y | X)] = E(Y ) Ejemplo 2.Y) la esperanza condicional de Y dado X=x o se define como   y P(Y = y|X = x).5.12 La varianza condicional de Y dado X=x se define como o V(Y |X = x) = E[(Y − E(Y |X = x))2 |X = x]   (y − E(Y |X = x))2 P(Y = y|X = x). X discreta   y =  ∞   (y − E(Y |X = x))2 fY |X (y)dy. X continua −∞ M´s generalmente.3 Suponga que E(Y 2 ) < ∞ V(Y ) = E(V(Y |X)) + V(E(Y |X)) 56 .6 Sea Y |X = x ∼ U (0. Determine E(Y ). Esperanza y Varianza Condicional Definici´n 2. X discreta   y E(Y |X = x) =  ∞   y fY |X (y)dy. X continua −∞ Teorema 2.11 Dado un vector aleatorio (X.5.5.4. Definici´n 2. Y )|X = x) = E(g(x. si 0 < x < 1. 1 − x) y fX (x) = 2(1 − x). Propiedades: i) E(c|X = x) = c ii) E(Y1 + Y2 |X = x) = E(Y1 |X = x) + E(Y2 |X = x) iii) E(cY |X = x) = c · E(Y |X = x) iv) E(g(X.5. si g : R −→ R a     E(g(Y )|X = x) =    Proposici´n 3 Si E(|Y |) < ∞ o g(y)P(Y = y|X = x).5. X discreta y ∞ g(y)fY |X (y)dy.

1) e Y |X = x ∼ U(x. Determine la distribuci´n de Y y calcule su esperanza. e) Considere las funciones de variables aleatorias h(Y ) = E(X|Y ) y k(X) = E(Y |X). o 57 . o o Ejercicios 11 . Calcule la funci´n de densidad de h(Y ) y la funci´n de densidad de k(X).5. b) E(Y ) y V(Y ). p) y X ∼ P oisson(λ). Sean X e Y variables aleatorias tales que Y |X = x ∼ Bin(x.7 Sean X e Y variables aleatorias continuas tales que X ∼ U(0. x + 1). c) La densidad condicional de X dado Y = y. Calcule: a) E(Y |X = x) y V(Y |X = x).Ejemplo 2. d) E(X|Y = y) y E(Y |X = x).

. . Nociones de Convergencia El objetivo de esta secci´n es estudiar el comportamiento de una secuencia de variables aleatorias.6. .6. . . Notacion: Zn → Z D o F Zn → F Z Las definiciones anteriores motivan el siguiente teorema: Teorema 2. cuando n → ∞ ⇔ (Zn − θ) → 0 P Definici´n 2. n ≥ 1} una secuencia de variables aleatorias definidas en (Ω.1 Sea {Zn . . . o {Z1 .6. σ 2 /n) 58 . P) y o sea Z otra variable aleatoria. A. Entonces. X2 . Z2 . cuya distribuci´n no depende de n.2 Sea {Zn . la cual no necesita estar definida o sobre el mismo espacio de probabilidad donde se encuentran definidas las Zn ’s. Notaci´n: Zn → θ o Adem´s. Diremos que Zn converge en distribuci´n para Z ssi o FZn (z) = P(Zn ≤ z) → P(Z ≤ z) = FZ (z) cuando n → ∞. note que Zn → θ a P P P(|Zn − θ| ≥ ε) → 0. cuando n → ∞. √ Xn − µ D → N (0. Zn }. Diremos que Zn converge en probabilidad para θ ssi ∀ ε > 0.2. 1) n σ donde n Xi Xn = n i=1 Aplicaci´n: o Para n “suficientemente grande” X n → N (µ. Definici´n 2. n ≥ 1} una secuencia de variables aleatorias en (Ω. A. P) y sea θ ∈ R o una constante. . Xn una secuencia de variables aleatorias independientes con media µ y varianza σ 2 < ∞. ∀ z donde FZ es continua.6.1 (del L´mite Central) ı Sean X1 .

Describa la distribuci´n de medias muestrales de tama˜o 5 tomadas de esta poblaci´n.m. ¿Cu´l es al probabilidad de que s´lo uno de los cinco meses se tenga una p´rdida menor a a o e 2500 u.? 6.m.? a e 2. ¿Cu´l es al probabilidad de que las p´rdidas mensuales sean inferiores a 2500 u. ¿cu´l es la probabilidad de que las p´rdidas e a e mensuales sean inferiores a 2500 u.? 59 . o n o 4.m. con una media de µ = 3500 y una varianza de σ 2 = 184900. La distribuci´n de las p´rdidas mensuales de una empresa en unidades monetarias o e (u. Dada una muestra de las p´rdidas de 5 meses. ¿Qu´ valor separa el 5 % inferior de la distribuci´n de las p´rdidas mensuales? e o e 3. 1.Ejercicios 12 .) es aproximadamente normal.m. ¿Qu´ valor separa el 5 % inferior de la distribuci´n muestral de tama˜o 5? e o n 5.

con alguna medici´n de la precisi´n de o o o o nuestra decisi´n. donde adem´s de calcular el valor del par´metro en la muestra establecemos un a a grado de precisi´n de nuestra estimaci´n. . es decir. . . En este curso desarrollaremos los m´todos cl´sicos para estimar los par´metros de e a a la poblaci´n desconocidos como la media. y el m´todo bayesiano. . i = 1. . e o Definici´n 3. . Xn se denominan independientes e id´nticamente distribuidas. Xn son mutuamente independientes X1 . . Introducci´n o La teor´ de la inferencia estad´stica consiste en aquellos m´todos por los que se realizan inıa ı e ferencias o generalizaciones acerca de una poblaci´n.1 Las variables aleatorias X1 . . 60 . y escribie mos iid Xi ∼ f (x). La tendencia actual es la distinci´n entre el o o m´todo cl´sico de estimaci´n de un par´metro en la poblaci´n. iid. La estimaci´n de un par´metro poblacional θ puede ser puntual. . que utiliza el conocimiento subjetivo previo sobre la distribuci´n o e o de probabilidad de los par´metros desconocidos junto con la informaci´n que proporcionan los datos a o de la muestra. . o intervalar. Con las pruebas de hip´tesis lo que queremos es llegar a o o o la decisi´n correcta acerca de una hip´tesis preestablecida. o Algunos conceptos de inter´s se definen a continuaci´n.Cap´ ıtulo 3 Inferencia Estadistica 3. . por medio del cual las inferencias se e a o a o basan de manera estricta en informaci´n que se obtiene de una muestra aleatoria seleccionada de la o poblaci´n. .1. por alg´n o o a u m´todo deteminamos una f´rmula en funci´n de los datos para calcular el valor de este en la muese o o tra. n. La inferencia estad´ ıstica se puede dividir en doa areas principales: estimaci´n y pruebas de ´ o hip´tesis. . . . . Xn tienen funci´n densidad marginal f (x) o las variables X1 . Xn corresponden a una muestra aleatoria de o tama˜a n de una poblaci´n con funci´n densidad f (x) si n o o X1 . . .1. proporci´n y varianza mediante el c´lculo de estad´ o o a ısticas de muestras aleatorias. . .

.2 Si X1 . σ 2 ) entonces: a) 1 X= n s2 = son independientes.4 Sean X. . Z1 . 1) y sea Y = o o k Zi2 . . . . . . . .1. Xn es una muestra aleatoria de X ∼ N (µ.2 Sea Z1 . b) (n − 1)s2 ∼ χ2 n−1 σ2 Definici´n 3. . Y dos variables aleatorias independientes que tienen distribuci´n χ2 con o o n y m grados de libertad.m 61 .Definici´n 3. . X ∼ χ2 e Y ∼ χ2 n m Entonces la variable aleatoria Z= X/n Y /m n Xi i=1 n y (Xi − X)2 1 n−1 i=1 se tiene distribuci´n F con n y m grados de libertad y se denota por o Z ∼ Fn. respectivamente. . Zk una muestra aleatoria de la distribuci´n N (0. o o i=1 Entonces Y tiene distribuci´n chi-cuadrado de Pearson con k grados de libertad y se denota o por k Y = i=1 Zi2 ∼ χ2 k Teorema 3.1. 1). Zk un muestra aleatoria de la distribuci´n N (0. Entonces i=1 Z0 X= Y /k tiene distribuci´n t-Student con n grados de libertad y se denota por o X ∼ tn Teorema 3.1.1 La esperanza y varianza de una distribuci´n χ2 est´n dadas por o a E(Y ) = k V(Y ) = 2k Definici´n 3. es decir. Sea Y = k Zi2 .1.1.3 Sea Z0 .

.3. .1. σ 2 ) iid 62 . Xn una muestra aleatoria de una variable X.2. 2θ) 2. =. . θk ) El estimador de momentos θ de θ corresponde a la soluci´n del sistema de ecuaciones o E(X 1 ) = E(X 2 ) = 1 n 1 n n Xi1 i=1 n Xi2 i=1 . . .2.1 Un estimador puntual corresponde a cualquier funci´n de la muestra o o 3. e a Ejercicios 13 Si X1 . Xn ) Definici´n 3.2. . . X2 . proveniente de una o poblaci´n con funci´n de densidad fθ . N (µ. . θ2 . Estimaci´n Puntual o g(X1 . X2 . . X2 . .2 Sea X1 . . . E(X k ) = 1 n n Xik i=1 Debi´ndose plantear tantas ecuaciones como par´metros se desea estimar. . Xn ∼ f . U (θ. con o o θ = (θ1 . . . .2. encuentre los estimadores de momentos si f es 1. M´todo de Momentos e Definici´n 3. .

x)) = 0 ∂θj iid j = 1. exp(λ) 2.3. .verosimiltud o de X pertenece a una familia exponencial ssi existen funciones ω1 . .2. . .2. 4. . . . encuentre una expresi´n simplificada para la funci´n de o o verosimilitud si f es 1. x) = log h(x) + log c(θ) + j=1 ωj (θ)tj (x) con h y c funciones positivas definidas en R 63 . Bin(n. .5 Consideremos una familia de distribuciones con par´metro θ ∈ Θ para una vao a riable aleatoria X y con funci´n de verosimilitud asociada L(θ. . Xn ∼ f . . . 3. . . .2. exp(λ) 2. p) con n conocido.3 Sea X1 . Xn y est´ dada por a n L(θ. Bin(n. β). . β). k Ejercicios 15 Si X1 . Xn ∼ f . . . X2 . M´todo de M´xima Verosimilitud e a Definici´n 3. . 4.2. Se define la funci´n de verosimilitud como la funci´n densidad conjunta del vector o o X1 . . . X2 . P oisson(λ) Definici´n 3. ωk ∈ Θ y t1 .4 Un estimador m´ximo veros´ o a ımil. . Γ(α. basado en una muestra X corresponde a θ(X) el cual se obtiene al resolver ∂ log(L(θ. con α conocido. encuentre los estimadores de m´xima verosimilitud si f es a 1. Γ(α. p) con n conocido. Se dice que la log. 3. con α conocido. x). . x) = i=1 iid fθ (xi ) Ejercicios 14 Si X1 . P oisson(λ) Definici´n 3. EMV. . . tales que k log L(θ. .2. Xn una muestra aleatoria proveniente de una poblaci´n con funci´n o o o densidad fθ . de θ. . . . tk ∈ R.

o. . 64 . . Xn una muestra aleatoria de X cuya densidad es f (x) = √ 1 2πσ 2 exp − 1 (x − µ)2 2 2σ con x ∈ R. θ = (µ. ∞ < µ < ∞. . 0. .Ejemplo 3.2. Determine si esta distribuci´n pertenece o a la familia exponencial. . . 2. σ 2 ).2 Sea X1 . Ejemplo 3. e. σ 2 > 0. θ ∈ (0.c.1 Sea la variable aleatoria X con funci´n densidad o f (x) = θ(1 − θ)x−1 . desconocidos.2.1). x = 1. Determine si f(x) pertenece a la familia exponencial. . .

4. E ∂ logL(θ.3. Calcule el ECM(θ). Xn ∼ f . Ejercicios 16 Si X1 .3 Se define la matriz de informaci´n de Fisher como o o ∂ I(θ) = E logL(θ. . p) con n conocido. Insesgamiento y eficiencia E(θ) = θ ∀ θ Definici´n 3. . . se denomina sesgo de θ a b(θ) = E(θ) − θ Por lo tanto. P oisson(λ) Definici´n 3. con α conocido. . Bin(n.3. . .1 Sea X1 . Xn ∼ exp(θ) y consideremos θ = 1/x. x) ∂θ2 = −E 65 . x) dθ ∂θ entonces. Γ(α.2 El error cuadr´tico medio de un estimador θ de θ corresponde a o a ECM(θ) = E(θ − θ)2 = V(θ) + (b(θ))2 Ejemplo 3. . x) ∂θ 2 = ∂ ∂θ ∂ logfθ (x) fθ (x) dx.3. . β).1 Un estimador puntual θ de θ es insesgado si o Si θ no es insesgado .3. x) ∂θ 2 Lema 2 Sea la funci´n fθ tal que o d ∂ E logL(θ. ∂θ ∂2 logL(θ. exp(λ) 2. un estimador es insesgado si su distribuci´n tiene como valor esperado al par´metro o a que se desea estimar.3. X2 . 3. iid iid Definici´n 3.3. determine si los estimadores de momentos y m´xima veroa similitud son insesgados para f 1.

e a Es claro que si g(X) es un estimador insesgado para θ entonces se cumple que V(g(X)) ≥ E 1 ∂ log ∂θ 2 L(θ.Rao.Rao es igual a I(θ)−1 . x) Observaci´n: La cantidad o E d ( dθ E(g(X))2 ∂ log ∂θ L(θ. . Determine el estimador de momentos y el EMV de θ. θ>0 1. . . . e Definici´n 3.2 Si θ es el EMV de θ. Determine si θ es insesgado. entonces para cualquier funci´n g(θ). . . Xn una muestra con funci´n densidad fθ que satisface la conmutatividad entre el operao dor integral y diferencial y sea g(X) = g(X1 . Entonces o d ( dθ E(g(X))2 V(g(X)) ≥ 2 ∂ E ∂θ log L(θ.3.3. el EMV de g(θ) es g(θ) o Ejercicios 17 .Rao. 2. x) 2 se llama cota de Cram´r-Rao y todo estimador que alcance esta cota ser´ llamado eficiente. .1 Cram´r . . . Xn una muestra aleatorio con funci´n densidad o fX (x) = x −x/θ e θ2 x > 0. . e Sea X1 .Teorema 3. .3. Xn ) un estimador donde E(g(X)) es diferenciable como funci´n de θ. x) es decir. . la cota de Cram´r. Sea X1 . calcule su varianza y comp´rela con la cota de Cram´r. a e ¿Es este estimador eficiente? 66 .4 Un estimador g(X) de θ se dice eficiente si o I(θ)−1 V(θ) =1 Teorema 3.

Intervalo de Confianza para la media iid Sea X1 . con un cierto grado de confianza. El intervalo aleatorio [L(X). . . Definici´n 3. el margen de error y la significancia α. σ 2 ).4. . .4. . . hay estimaciones por intervalos que a a estipulan. 67 .1. Xn ∼ N (µ.4.3. σ 2 ) y a partir de esta construya un conjunto o intervalo de confianza para la media poblacional. . . . Estimaci´n Intervalar o Adem´s de las estimaciones puntuales de un par´metro.4. dados los valores x = (x1 . . θ) corresponde a un pivote si su distribuci´n no o o depende de ning´n par´metro. . Formalmente: Definici´n 3. que el par´metro se encuentra entre dos valores del a estad´ ıstico estimado. es cualquier par de funciones L(x1 .1 Encuentre una cantidad pivotal si X1 . xn ) y U (x1 .2 Una aerol´nea necesita estimar el n´mero medio de pasajeros en un vuelo de reı u ciente apertura.1 Un estimador intervalar para un par´metro θ. la distribuci´n de Q(X. Encuentre un intervalo de confianza al 95 % para la o a media poblacional. . Un intervalo de confianza para la media poblacional µ cuando la varianza poblacional es conocida es x±E √ donde E = z1−α/2 · σ/ n. el valor x de la media muestral X n se puede usar para estimar µ al 95 % de confianza como sigue: Definido E. . Supongamos una variable aleatoria poblacional X que tiene media µ cuyo valor es desconocido.4. para todo θ. .0 ı pasajeros y una desvaici´n est´ndar de 25. Para ello. De una muestra aleatoria de taman˜o n. Ejemplo 3. xn ) o a de una variable aleatoria X.2 Para un par´metro cualquiera θ.3 Una variable aleatoria Q(X. u a o Ejemplo 3. Es decir. . xn ) que satisface L(x) ≤ U (x) para todo x. . . tal que P(µ − E ≤ x ≤ µ + E) = 1 − α lo que es equivalente a la ecuaci´n o P(x − E ≤ µ ≤ x + E) = 1 − α Entonces (x − E. θ) es la misma. U(X)] se denomina un estimador intervalar.4. .4. . . se define un conjunto de confianza 1 − α o a como un conjunto C(x) tal que P(θ ∈ C(X)) = 1 − α Definici´n 3. x + E) se llama intervalo de confianza del 100(1 − α) % para µ. toma una muestra de 40 d´as y encuentra una media muestral de 112. Xn son una muestra aleatoria N (µ. 3.

4. se les pregunt´ si utilizaban la cafeter´a del colegio.Sea X1 .7 3.α/2 donde s2 = 1 n−1 n i=1 (Xi − X)2 . . 68 .5 4. a o 3.3 5. 2 χ2 (n−1.0 8. Xn ∼ N (µ. A una muestra n seleccionada aleatoriamente de un 15 % de ellos. . . Un o intervalo de confianza para la varianza poblacional σ 2 est´ dado por a (n − 1)s2 (n − 1)s2 . Ejemplo 3.0 4.1 6. a) Estime el porcentaje de alumnos que utilizan la cafeter´a del colegio.8 9.4. σ 2 ).3 En una aerol´nea se resgistran los tiempos de espera promedio de atenci´n en mes´n ı o o de 14 d´as. p). V(p)) Se puede mostrar que E(p) = p y V(p) = p(1−p) . n Ejemplo 3.1 6.4 En un colegio de Ense˜anza Media hay matriculados 800 alumnos.7 0.3.8 4. Un intervalo de confianza para la media poblacional µ cuando la varianza poblacional es desconocida es x±E √ donde E = t(n−1. Intervalo de Confianza para una proporci´n o Sea Y ∼ Bin(n.2 5. . . Intervalo de Confianza para la varianza Sea X1 . con una confianza del 99 %. .2 2. n As´ el intervalo de confianza al (1 − α)100 % para una proporci´n est´ dado por ı. . o a p±E donde E = z1−α/2 · p(1−p) .3 5. obteniendo los siguientes resultados: ı 4.1−α/2) · s/ n.4. 3.2. el error m´ximo cometido con dicha estimaci´n. Por teorema del l´ ımite central sabemos que p ∼ (E(p).1−α/2) χn−1. ı b) Determine. .4. o ı Contestaron negativamente un total de 24 alumnos.9 iid Encuentre un intervalo de confianza al 95 % para el tiempo de espera medio. Xn una muestra aleatoria de una poblaci´n normal con media µ y varianza σ 2 .

puede ser de inter´s comparar los siguientes par´mee a tros : 3. Xn ∼ N (µX . ambas muestras independientes. σX ) e Y1 .03 cm. σY ).5 Un vendedor de muebles de madera para armar (desarmados) importa las piezas desde el norte de Europa para abaratar costos.4. En cierto modelo. Calcule un IC al 95 % para la desviaci´n est´ndar del lote. a o a En caso de contar dos muestras aleatorias. Inevitablemente.Ejemplo 3. . . El vendedor compra patas a un proveedor bajo la especificaci´n de que el di´metro medio o a debe ser de 0.1−α/2) · sp 69 1 1 + n m . el cliente debe insertar cuatro patas redondas en hoyos ya perforados. Se utiliza el estimador de σ 2 dado por s2 = p con s2 = X 1 n−1 (n − 1)s2 + (m − 1)s2 X Y n+m−2 y s2 = Y 1 m−1 (Yi − Y )2 (Xi − X)2 El margen de error est´ dado por a E = t(n+m−2. a o Podemos identificar 3 casos: 2 2 a) σX y σY conocidas. Ym ∼ N (µY .01825. . . .4. E = z1−α/2 · es decir (µX − µY ) ∈ 2 2 σX σY + n m 2 2 σX σY + n m (x − y) ± z1−α/2 · 2 2 2 2 b) σX y σY desconocidas pero iguales (σX = σY = σ 2 ). .4. Un intervalo de confianza para la diferencia de media entre poblaciones est´ dado por a (x − y) ± E donde E cambiar´ de acuerdo a la informaci´n con respecto a la varianza. .99516 y desviaci´n o o est´ndar de 0. Intervalo de Confianza para la diferencia de medias iid iid 2 2 Sean X1 .995 cm y desviaci´n est´ndar menor que 0. . hay cierta variaci´n en los di´metros de ı o a las patas. Como parte del control de calidad o a se obtuvo una muestra aleatoria de 121 patas la cual arroj´ una media de 0. el di´metro de las patas debe ser a ligeramente menor que un cent´metro. Para un ajuste adecuado.

con una desviaci´n est´ndar de 0. Para averiguar esto se consideran muestras aleatorias de horas de producci´n que proporcionan la siguiente informaci´n: o o Departamento 1 Departamento 2 n1 = 64 n2 = 49 x1 = 100 x2 = 90 2 σ1 = 256 2 σ2 = 196 Hallar un IC del 95 % para la diferencia verdadera entre las producciones medias de los departamentos. el IC para la diferncia de medias cuando las varianzas son iguales pero desconocidas est´ dado por a (µX − µY ) ∈ 2 2 c) σX y σY desconocidas y distintas.1−α/2) · donde ν= s2 x n (s2 /n)2 x n−1 s2 s2 X + Y n m s2 2 y m (s2 /m)2 y m−1 + + As´ el IC para la diferncia de medias cuando las varianzas son desconocidas y distintas ı.7ml/gr.6 .1ml/gr.Por lo tanto.7ml/gr. con una desviaci´n est´ndar de 0. b) Una compa˜´a tiene dos departamentos que producen id´nticos productos. mientras que 8 cigarrillos de la marca B dieron un contenido o a promedio de nicotina 2. (x − y) ± t(n+m−2.1−α/2) · + Y n m Ejemplo 3. Comente. est´ dado por a s2 s2 X (µX − µY ) ∈ (x − y) ± t(ν. a) Se realiza un estudio para comparar los contenidos de nicotina de dos marcas de cigarrillos. Encuentre un IC del 95 % para la verdadera diferencia en el contenido de nicotina de las dos marcas.4. 10 cigarrillos de la marca A dieron un contenido promedio de nicotina de 3. Suponiendo que los o a datos son muestras aleatorias provenientes de dos poblaciones normales con varianzas iguales.1−α/2) · sp 1 1 + n m Se define E = t(ν. 70 .5ml/gr. Se sospecha que las nı e producciones por hora son diferentes en los dos departamentos.

.m−1. ambas muestras independientes y de media desconocida. mientras que 8 cigarrillos de la marca B dieron un contenido o a promedio de nicotina 2. σY ). Xn ∼ N (µX . Para comparar las varianzas de ambas muestras podemos utilizar el intervalo 2 2 de confianza para la diferencia para el cuociente σx /σy dado por s2 s2 x · F(n−1. . 71 .1ml/gr. encuentre un IC del 95 % para la diferencia de varainzas.m−1. 10 cigarrillos de la marca A dieron un contenido promedio de nicotina de 3. x · F(n−1. .α/2) .4.1−α/2) s2 s2 y y Ejemplo 3. Intervalo de Confianza para la comparaci´n de varianzas o iid iid 2 2 Sean X1 .7ml/gr.5ml/gr.3. . . con una desviaci´n est´ndar de 0.4.7ml/gr. σX ) e Y1 . . con una desviaci´n est´ndar de 0.7 Se realiza un estudio para comparar los contenidos de nicotina de dos marcas de cigarrillos. Ym ∼ N (µY . Suponiendo que los datos o a son todos independientes. . .5.

1. Pruebas de Hip´tesis o Introducci´n o A menudo los datos muestrales sugieren que algo relevante est´ sucediendo en la poblaci´n o a o proceso subyacente. mientras que la evidencia que la apoya conduce a su aceptaci´n.5. 3. La o evidencia de la muestra que es inconsistente con la hip´tesis que se establece conduce al rechazo de o ´sta. a En nuestro caso en particular. est´n sujetos a cierto grado de variaci´n aleatoria. Dicho estad´ ıstico se calcula para ver si la informaci´n que entregan los datos es o razonablemente compatible con la hip´tesis nula. producto de la variaci´n o aleatoria. o Para verificar si H0 es verdadera debemos resumir la informaci´n de los datos en un estad´ o ıstico de prueba. Como suponemos que los datos provienen de una muestra aleatorio y por lo mismo. En caso contrario. Definici´n 3. o Para decidir a favor de la hip´tesis nula debemos establecer una regi´n de aceptaci´n. e o La estructura de la prueba de hip´tesis se formular´ con el uso del t´rmino hip´tesis nula (H0 ). o a e o hip´tesis que deseamos probar como verdadera. De manera formal. si la rechazamos. la pregunta es si el resultado o el efecto a o aparente en la muestra es una indicaci´n de que algo est´ sucediendo en la pobalci´n (o proceso) o a o subyacente o si el resultado observado es posiblemente una casualidad.3. una hip´tesis es una afirmaci´n sobre un par´metro poblacional.5. Por esta raz´n es que postulamos una conjetura (o varias) que nos permita estimar si los resulo tados aparentes en una muestra indican que en realidad algo est´ pasando. En su lugar. estao mos aceptando como verdadera la hip´tesis alternativa (H1 ).2 Una prueba de hip´tesis es una regla de decisi´n que especif´ca para qu´ vao o o ı e lores de la muestra la decisi´n es aceptar H0 como verdadera y para qu´ valores de la muestra la o e decisi´n es aceptar H1 como verdadera. Esto. ser´ poco pr´ctico en la mayor´ de las o ıa a ıa situaciones. la a conjetura puede postular en forma de hip´tesis estad´ o ıstica. ¿En qu´ valor del estad´ e ıstico de la prueba comenzamos a decir que los datos apoyan a a la hip´tesis alternativa? Para contestar esta pregunta se requiere conocer la o distribuci´n muestral del estad´ o ıstico de prueba.5. 72 . que en general escribimos como o H0 : θ ∈ Θ0 vs H1 : θ ∈ Θ0 Definici´n 3.1 Una hip´tesis estad´ o o ıstica es una aseveraci´n o conjetura con respecto a una o o m´s poblaciones. es decir. por supuesto. o o a La verdad o falsedad de una hip´tesis estad´ o ıstica nunca se sabe con albosuta certeza a menos que examinemos toda la poblaci´n. la cual o o o identificar´ los valores del estad´ a ıstico de prueba que son relativamente probables dada la hip´tesis o nula y los valores que no lo son. Los valores del estad´ ıstico de prueba que son sumamente improbables bajo la hip´tesis nula forman una regi´n de rechazo para la prueba estad´ o o ıstica.5. tomamos una muestra aleatoria de la poblaci´n de inter´s y utilizamos o e los datos contenidos en esta muestra para proporcionar evidencia que apoye o no la hip´tesis.

a En consecuencia. y por tanto la probabilidad de cometer error tipo I. n a a Si la hip´tesis nula es falsa. Entre m´s grande sea la distancia entre el valor real y el valor hipot´tico. 1. se trata de minimizar la probabilidad de cometer Error tipo II. El tama˜o de la regi´n de rechazo. Un aumento en el tama˜o muestral n reducir´ α y β (error tipo II) de forma simult´nea. siempre n o se puede reducir al ajustar el o los valores cr´ ıticos. Una disminuci´n en la probabilidad de uno a o por lo general tiene como resultado un aumento en la probabilidad del otro.3 La potencia de una prueba es la probabilidad de rechazar H0 dado que una o alternativa espec´ ıfica es verdadera.5. con estad´ a ıstica cl´sica. H0 : el acusado es culpable H1 : el acusado es inocente 2. sujeto a que la probabilidad de cometer Error tipo I no exceda un valor predeterminado α. H0 : el paciente est´ enfermo a H1 : el paciente est´ sano a La prueba adecuada ser´ aquella que minimizara la probabilidad de cometer los dos tipos de ıa error simult´neamente. 73 . lo cual. podemos cometer dos tipos de error: Error de tipo I: rechazar la hip´tesis nula. a Definici´n 3. podemos tomar dos decisiones.5.Cuando realizamos una prueba. Ejemplo 3. Diferentes tipos de pruebas se comparan al contrastar propiedades de potencia. β es un m´ximo cuando el valor real de un par´metro se aproxima o a a al valor hipot´tico . Por tanto. o o Las consecuencias de estos tipos de error son diferentes y generalmente intentaremos minimizar el error de tipo I. o Error de tipo II: no rechazar la hip´tesis nula H0 .1 Determine los errores de tipo I y II. e Algunas propiedades importantes respecto de estos errores son: Los errores de tipo I y tipo II est´n relacionados. e a e ser´ menor β. H0 dado que esta es verdadera. la probabilidad de cometer error de tipo I puede ser calculada y recibe el nombre de valor-p. A pesar de estar fijo. es imposible. Este ultimo error es ´ tambi´n llamado nivel de significancia. dado que la hip´tesis alternativa H1 es correcta. y se puede calcular como 1 − β.

. a o En este curso estudiaremos pruebas de hip´tesis para tres par´metros poblacionales: media.Definici´n 3. por lo que la reemplazamos por s2 . la regla ser´ rechazar la hip´tesis nula si valor − p < α.2 Una muestra aleatoria de 100 muertes registradas en un servicio el a˜o pasado n muestra una vida promedio de 71. Prueba de Hip´tesis para la media o Sea X1 . cuando la varianza es u conocida. queremos probar alg´n valor o rango de valores para la media. cuando la varianza es u desconocida. .8 a˜os.5.5.4 El valor-p de una prueba de hip´tesis es el menor valor de α para el cual o o rechazamos la hip´tesis nula. . La estad´ ıstica de prueba apropiada se basa en la variable X. o Calculado este valor. que por TCL sabemos distribuye N (µ. Sea X1 . el estimador insesgado de la varianza. σ 2 /n) y que si estandarizamos obtenemos Z= Entonces distinguiremos tres casos: Hip´tesis Nula Hip´tesis Alternativa Rechazo H0 si o o µ = µ0 µ = µ0 |z0 | ≥ z1−α/2 µ ≤ µ0 µ > µ0 z0 ≥ z1−α µ ≥ µ0 µ < µ0 z0 ≤ −z1−α donde z0 = x − µ0 √ σ/ n X −µ √ ∼ N (0. esto quiere decir que la varianza es estimada en la muestra. Xn una muestra aleatoria de una distribuci´n con media µ y varianza σ 2 > 0. 1) σ/ n Ejemplo 3.2. Suponga una desviaci´n est´ndar poblacional de 8. o a varianza y proporci´n. Considere las hip´tesis generales o H0 : µ ∈ Θ0 vs H1 : µ ∈ Θ0 Es decir. . o Considere las hip´tesis generales o H0 : µ ∈ Θ0 vs H1 : µ ∈ Θ0 Es decir. queremos probar alg´n valor o rango de valores para la media. . que por TCL sabemos distribuye N (µ.9 a˜os. con las que podemos construir el estad´ ıstico σ2 Z= Entonces distinguiremos tres casos: 74 X −µ √ ∼ t(n − 1) s/ n .5. . Xn una muestra aleatoria de una distribuci´n con media µ. σ /n) y adem´s n−1 2 2 s ∼ χ . La estad´ ıstica 2 a de prueba apropiada se basa en la variable X. . . o 3. n o a n ¿esto parece indicar que la vida media hoy en d´a es mayor a 70 a˜os? Utilice un nivel de signifiı n cancia de 5 %. desconocida y varianza o s2 > 0.

. 1) Z= p−(1−p) np(1 − p) n Entonces distinguiremos tres casos: Hip´tesis Nula Hip´tesis Alternativa Rechazo H0 si o o p = p0 p = p0 |z0 | ≥ z1−α/2 p ≤ p0 p > p0 z0 ≥ z1−α p ≥ p0 p < p0 z0 ≤ −z1−α donde z0 = p − p0 p0 (1 − p0 )/n Ejemplo 3. podemos u e o a establecer que p−p x − np = ∼ N (0. Se toma n una muestra aleatoria de 12 hogares indica que las aspiradoras gastan un promedio de 42 kilowatthora al a˜o con una desviaci´n est´ndar de 11. Sabemos que si s es el estimador insesgado de σ . Sea X la variable aleatoria que cuenta el a n´mero de ´xitos y sea p = X/n la estimaci´n del par´metro p.4 Un medicamento que se prescribe actualmente se considera efectivo en un 60 %. Resultados experimentales con un nuevo f´rmaco se asministar a una muestra aleatoria de 100 a personas.5.9 kilowatt-hora. ¿esto sugiere que las aspiradoras n o a gastan.3.Hip´tesis Nula Hip´tesis Alternativa Rechazo H0 si o o µ = µ0 µ = µ0 |t0 | ≥ t1−α/2 µ ≤ µ0 µ > µ0 t0 ≥ t1−α µ ≥ µ0 µ < µ0 t0 ≤ −t1−α donde t0 = x − µ0 √ s/ n Ejemplo 3. ¿Esta es evidencia suficiente para concluir que el nuevo medicamento es superior al que se receta actualmente? Use α = 5 % 3. . en promedio. menos de 46 kilowatt-hora anualmente con 5 % de significancia? 3. ambos par´meo a 2 2 tros desconocidos. .5.5.4. es decir. Entonces. σ 2 ). Prueba de Hip´tesis para la varianza o Sean X1 . de las cuales 70 se aliviaron. s2 = entonces 1 n−1 (xi − x)2 (n − 1)s2 ∼ χ2 (n−1) 2 σ 75 .3 Se afirma que una aspiradora gasta en promedio 46 kilowatt-hora al a˜o. Prueba de Hip´tesis para la proporci´n o o Es de inter´s probar la hip´tesis que la proporci´n de ´xitos de un experimento binomial es e o o e igual a un valor espec´ ıfico o est´ en un rango de valores. . para n grande.5. Xn una muestra de una variable aleatoria con distribuci´n N (µ.

´stas pueden ser comparadas usando la diferencia µ1 − µ2 .6 Una muestra aleatoria de tama˜o n1 = 25. con un nivel de significancia de 5 %.5. distinguiree a mos tres casos: Hip´tesis Nula Hip´tesis Alternativa o o Rechazo H0 si 2 2 2 2 2 σ = σ0 σ = σ0 Q0 ≥ χn−1. que se toma de una poblaci´n normal n o con una desviaci´n est´ndar σ1 = 5. de los cuales podemos identificar tres casos. de la cuales se obtuvo x = 46. 1) Las hip´tesis a contrastar son: o Hip´tesis o µX − µY µX − µY µX − µY donde Z0 = Nula Hip´tesis Alternativa Rechazo H0 si o =d µ X − µY = d |z0 | ≥ z1−α/2 ≤d µ X − µY > d z0 ≥ z1−α ≥d µ X − µY < d z0 ≤ −z1−α (x − y) − d 2 σX n + 2 σY m Ejemplo 3. cuyo estimador es x − y.4.5.Entonces. 76 . Varianzas conocidas.5. La e distribuci´n de esta diferencia depender´ de la informaci´n respecto de la relaci´n entre las varianzas o a o o 2 2 poblacionales σX y σY . X e Y. tiene una media x2 = 76. La empresa desea saber si los pesos nı registrados presentan evidencia para asegurar que la varianza poblacional es mayor a 0.286.1−α σ > σ0 σ ≤ σ0 2 2 σ 2 ≥ σ0 σ 2 < σ0 Q0 ≤ χ2 n−1. si es de inter´s probar que la varianza poblacional est´ en un intervalo dado. 3. Prueba de Hip´tesis para la diferencia de medias o Si tenemos dos muestras de tama˜o n y m de poblaciones independientes. Pruebe la hip´tesis de las medias son iguales con un nivel de o significancia del 5 %. tiene una media x1 = 81. con medias n µX y µY .5 Se tienen los pesos de 10 paquetes de semillas de pasto distribuidas por cierta compa˜´a.1−α/2 o Q0 ≤ χ2 ´ n−1.2. El estad´ ıstico de prueba es (X − Y ) − d 2 σX n + 2 σY m ∼ N (0.α/2 2 2 2 2 2 Q0 ≥ χn−1.α donde Q0 = (n − 1)s2 2 σ0 Ejemplo 3.2.12 y s2 = 0. que se toma de una poblaci´n normal diferente con una desviaci´n est´ndar n o o a σ = 3. Una segunda muestra aleatoria o a de tama˜o n2 = 36.5.

5. En2 2 tonces. incorporando el hecho que sean iguales.1−α ≥d µ X − µY < d T0 ≤ −tν. Si las varianzas desconocidas y distintas.1−α/2 ≤d µ X − µY > d T0 ≥ tν. para ayudar a llegar a una decisi´n. Las hip´tesis a contrastar son: o Hip´tesis o µX − µY µX − µY µX − µY donde T0 = Nula Hip´tesis Alternativa Rechazo H0 si o =d µ X − µY = d T0 ≥ tν. dados s2 y s2 . respectivamente. debemos estimarlas. los estimadores insesgados de σX y σY .1−α (x − y) − d sp 1 n 1 n (n − 1)s2 + (m − 1)s2 X Y n+m−2 ∼ tν + 1 m + 1 m Ejemplo 3. definimos X Y s2 = p El estad´ ıstico de prueba es (X − Y ) − d sp con ν = n + m − 2. suponiendo que las varianzas poblacionales son iguales.7 Una compa˜´a armadora de autom´viles grande trata de decidir si compra llantas nı o de la marca A o de la B para sus nuevos modelos. Se lleva a cabo un experimento.2 2 Varianzas desconocidas pero iguales. Varianzas desconocidas y distintas. Los resultados son Marca A :x1 = 37900km s1 = 5100km Marca B :x2 = 39800km s2 = 5900km Pruebe la hip´tesis que no hay diferencias entre las dos marcas de llantas con un nivel de signifio cancia del 5 %. el estimador de la varianza de µX − µY es s2 = p El estad´ ıstico de prueba es (X − Y ) − d ∼ tν sp con ν= s2 X n (s2 /n)2 X n−1 s2 s2 X + Y n m + s2 Y m 2 +( (s2 /m)2 Y m−1 Las hip´tesis a contrastar son: o 77 .σX = σY = σ Si las varianzas desconocidas. Las llantas se utilizan hasta que o se acaban. en el que se usan 12 llantas de cada marca.

Prueba de Hip´tesis para la diferencia de proporciones o Si tenemos dos muestras independientes X1 . . Xn una muestra aleatoria de la distribuci´n N (µX . Prueba de Hip´tesis para la comparaci´n de varianzas o o 2 Sean X1 . si es de inter´s probar que las varianzas poblacionales est´n en una raz´n dada es e a o 78 . 1) p1 (1−p1 ) + p2 (1−p2 ) n m Las hip´tesis a contrastar son: o Hip´tesis Nula Hip´tesis Alternativa Rechazo H0 si o o p1 − p2 = d p1 − p2 = d |z0 | ≥ z1−α/2 p1 − p2 ≤ d p1 − p2 > d z0 ≥ z1−α p1 − p2 ≥ d p1 − p2 < d z0 ≤ −z1−α donde z0 = (p1 − p2 ) − d p1 (1−p1 ) n + p2 (1−p2 ) m Ejemplo 3. independiente de Y1 . realice la prueba para la hip´tesis que las llantas de la o marca A son mejores que las de B. . σX ). .6.m−1 2 σY Entonces. Ym de poblaciones Bernoulli de par´metros p1 y p2 . . . Ym o 2 una muestra aleatoria de una distribuci´n N (µY .5.1−α ≥d µ X − µY < d T0 ≤ −tν.5.8 Para el ejemplo anterior.7. . . Entonces 2 σX k ∼ Fn−1.5. .5. o 3. . . .1−α (x − y) − d ∼ tν sp T0 = Ejemplo 3. ¿Hay una diferencia significativa entre las proporci´n de residentes urbanos o y suburbanos que favorecen la construcci´n de la planta nuclear? Use α = 0.1−α/2 ≤d µ X − µY > d T0 ≥ tν. . . se encuentra que a o ı 63 de 100 residentes urbanos est´n a favor de la construcci´n mientras que s´lo 59 de 125 residentes a o o suburbanos la favorecen. ´stas pueden ser comparadas usando la diferencia p1 − p2 a e utilizando que (p1 − p2 ) − d ∼ N (0. . respectivamente.05. con todos los par´metros son desconocidos. Xn y Y1 . . σY ).Hip´tesis o µX − µY µX − µY µX − µY donde Nula Hip´tesis Alternativa Rechazo H0 si o =d µ X − µY = d |T0 | ≥ tν. 3. o a 2 2 Las varianzas poblacionales pueden ser comparadas usando el cuociente σX /σY cuyo estimador es 2 2 sX /sY . . suponiendo que las varianzas poblacionales son distintas.9 En un estudio para estimar la proporci´n de residentes de cierta ciudad y sus o suburbios que est´n a favor de la construcci´n de una planta de energ´a nuclear.

5.Hip´tesis Nula Hip´tesis Alternativa o o Rechazo H0 si 2 2 σX σX 1 1 F0 ≥ Fn−1. 79 .1−α/2 o F0 ≤ Fn−1.α/2 ´ =k =k σ2 σ2 2 σX 2 σY 2 σX 2 σY Y ≤ ≥ 1 k 1 k 2 σX 2 σY 2 σX 2 σY Y > < 1 k 1 k F0 ≥ Fn−1.n−2.1−α F0 ≤ Fn−1.10 Para el ejemplo 16. determine si las varianzas son iguales o distintas con 2.n−2.n−2.5 % de confianza.n−2.α s2 X k s2 Y donde F0 = Ejemplo 3.9.

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->