You are on page 1of 64

Probabilidad y Estadsticas

Pgina 1 de 64

1. ESTADSTICA DESCRIPTIVA
Qu es la estadstica?
Como recoleccin de datos numricos: datos ordenados segn algn criterio.
Como ciencia: Estudia fenmenos en masa, buscando sus caractersticas generales. A
partir de un hecho particular se analizan una cantidad de casos particulares, donde se
aprecia una regularidad o estabilidad en el comportamiento.
El propsito de la estadstica es precisamente hallar las regularidades de los
fenmenos en masa, regularidades que adems de servir para describir un fenmeno
pueden utilizarse con fines de prediccin.
Significado
Fin
Como recoleccin de datos
numricos
Descripcin
Bsqueda de
Como ciencia
regularidades
La estadstica elabora tcnicas y mtodos que nos ayuden a tomar decisiones.
MATERIA PRIMA (datos numricos o categoras)PRODUCTO (informacin til o
conclusiones).
INDEC (Instituto Nacional de Estadsticas y Censos)
Hasta 1968 no haba nada unificado respecto a la estadstica oficial, eran todas leyes
de organismos nacionales, provinciales y municipales. Resolviendo este problema se
promulga una ley.
Estadstica Descriptiva e Inferencial
Estadstica descriptiva: ciencia que se dedica a descubrir las regularidades dentro de
un conjunto de datos. Obtiene, resume y transforma datos para interpretar la
informacin. Proceso de induccin: con la informacin de la muestras se conocen las
caractersticas de la poblacin. Es la mas conocida de las ciencias estadsticas.
Estadstica Inferencial: es la parte de la Estadstica que nos permite extraer
conclusiones de una poblacin a partir del anlisis de una "parte" de ella (a la cual
denominamos muestra aleatoria). El conjunto de estos puede analizarse de la misma
forma que la muestra. Describir el propio conjunto de observaciones predecir que
pasa en la poblacin.
Conceptos bsicos de la estadstica
Unida de anlisis: es el objeto al cual se le desea obtener la informacin. Pueden ser
naturales (personas, maestros) o artificiales como el tiempo (da, semana, ao).
Poblacin o universo [P]: conjunto de unidades de anlisis que satisfacen a una
definicin comn y en los que interesa analizar una o varias caractersticas. Debe estar
perfectamente definida en tiempo y espacio (responder a QUIEN, CUANDO y DONDE).
A la cantidad de elementos que conforma la poblacin la llamaremos [N].
Muestra aleatoria [M]: es una parte o subconjunto de la poblacin, para obtener
informacin sobre esta. Se saca un grupo dentro de toda la poblacin. Al tamao de la
muestra la simbolizaremos con [n].
Variable: es la cualidad o cantidad medible que se estudia de las unidades de anlisis y
que varan de una unidad a otra.
Niveles de medicin
Resumen

Probabilidad y Estadsticas

Pgina 2 de 64

Normal: en este nivel se tienen dos o ms categoras del tem o variable. Las
categoras NO tienen orden o jerarqua. Lo que se mide es colocado en una u otra
categora, lo que indica que solamente diferenciamos respecto de una o ms
caractersticas. Los nmeros aqu no se manipulan automticamente.
Ordinal: en este nivel se tienen varias categoras, pero estas adems mantienen un
orden de mayor a menor. Las etiquetas o smbolos de las categoras SI indican
jerarqua. No se aplican las operaciones aritmticas simples.
Por intervalo: adems de haber orden y jerarqua entre categoras, se establecen los
intervalos iguales en la medicin. Las distancias entre categoras son todas las mismas
a lo largo de toda la escala. Hay intervalos constantes, una unidad de medida. Ej.:
Temperatura.
El cero de la medicin, es un cero arbitrario, no es real (se asigna arbitrariamente a una
categora el valor de cero y a partir de esta se construye la escala).
De razn: aparte de las caractersticas del nivel por intervalos, el cero es real, es
absoluto. Cero absoluto implica que hay un punto en la escala de intervalo, agrega la
existencia de un origen real que indica la ausencia de la propiedad medida por la
variable.
SE DEBE INDICAR EL NIVEL DE MEDICIN E ITEMS.
Relacin de variables
1. Indicar la manera de codificar los datos en cada tem y variable.
2. Codificar los datos (colocar un valor numrico que los identifique).
La codificacin se puede hacer antes (precodificado) o despus (a posteriori).
La codificacin es necesaria para poder cuantitativamente analizar los datos (anlisis
estadstico)
Tipo de variables
Cualitativas: son las medidas en escala nominal u ordinal (mide una cualidad).
Cuantitativas: las medidas en escala de intervalos o razn.
Discretas: cuando solo pueden asumir valores sobre nmeros enteros.
Ej.: alumnos.
Continuas: cuando puede asumir cualquier valor sobre los nmeros reales.
Ej.: peso.
Dato u observacin: es el valor que toma la variable para cada unidad de anlisis y se
obtiene mediante algn mtodo de captacin.
Etapas de una investigacin estadstica
a) Planeamiento: se analiza el problema definiendo conceptos y variables, se hace
operable a los conceptos, se elige el procedimiento de recoleccin, se prepara el
plan de tabulacin y codificacin, pruebas experimentales.
b) Ejecucin: se recolectan los datos a travs del organismo que realiza la
investigacin u otro organismo (primario o secundario), luego estos datos son
procesados: se comprueba su calidad, se codifican (smbolo a cada categora),
se tabulan y se analizan (utilizando estadstica descriptiva), se miden los
cambios de las variables y sus relaciones.
Mtodos de relevamiento
Muestra: permite estudiar el universo de intereses, con una parte de los elementos que
componen a dicho universo. Debe ser representativa de la poblacin. Su uso va en

Resumen

Probabilidad y Estadsticas

Pgina 3 de 64

aumento porque con personal entrenado se reducen los errores ajenos al muestreo.
Caractersticas: cumple con la condicin de universabilidad y puede no ser simultnea.
Censo: la informacin se obtiene de la totalidad de la poblacin (diferencia con la
muestra) cumple con la universabilidad (censa a todos los elementos) y simultaneidad
(en un tiempo determinado). La informacin se obtiene tal como se necesita, para fines
estadsticos (diferencia con el registro administrativo).
Registro administrativo: es un proceso de recoleccin por el cual un servicio
administrativo obtiene informacin para sus propios fines. Esta informacin puede ser
usada con fines estadsticos y se obtiene tal como esta disponible para los fines
administrativos, que no siempre coinciden con fines estadsticos, para eso se deberan
hacer las modificaciones necesarias.
Presentacin de datos
Texto: para pocos datos y cuando se necesita resaltar cosas importantes.
Cuadros: permite gran cantidad de informacin pero de fcil lectura. Los cuadros
complejos estn formados por ttulos, encabezados, su cuerpo, notas al pie, fuente. NO
deben ser largos y las variables deben estar ordenadas.
Grficos: permiten tener una visin de conjunto ms rpida que la de los nmeros y se
recuerdan ms fcilmente. La representacin grfica puede ser geomtrica (de gran
exactitud) o de smbolos alusivos para impresionar. Las partes del grafico son: titulo,
diagrama, variable, escala, fuente. Existen distintos tipos, entre ellos tenemos:
Grafico de lnea: para la variacin de la variable a travs del tiempo.
De barras: cada barra representa un valor, para pocos datos.
De sectores: un crculo representa a la poblacin y se divide en sectores que
representan la participacin.
Mapas estadsticos: es un artificio grafico para mostrar datos o informacin
cuantitativa sobre una base geogrfica. Permite representar simultneamente
variables cuantitativas con su correspondiente distribucin geogrfica.
Tratamiento de variables cualitativas
La primer operacin a realizar con variables cualitativas es contabilizar el nmero de
casos que pertenecen a cada una de las categoras de la variable.
Estas medidas permiten comparaciones entre diversos grupos, basndose
esencialmente en el tamao de los mismos. De fundamental utilidad cuando las
medidas son medidas nominal u ordinal.
Proporciones: nmero de casos en una categora dividido por el nmero total de casos.
Pi N i / N
Porcentajes: se obtienen multiplicando a las proporciones por 100. Pi ( N i / N )*100
Razones: la razon de un numero A con respecto a un numero B se define como A
dividido B. La cantidad que presede se pone en el numerador y la que sigue en el
denominador. Ej.: No repetidores/repetidorescada tantos no repetidores hay tantos
repetidores.
R A/ B
Observe que, a diferencia de la proporcin, la razn es un nmero que puede ser
mayor que 1.
Las proporciones representan un caso particular de las razones, en las que el
denominador es el nmero total de los casos y el numerador es una fraccin del total.
En las proporciones el numerador siempre es una cantidad que est contenida en el
denominador.

Resumen

Probabilidad y Estadsticas

Pgina 4 de 64

Tratamiento de variables cuantitativas


Nos ocuparemos de mtodos para el resumen de datos medidos en escalas de
intervalo o razon.
S los datos medidos en escala de intervalo o de razn (variables cuantitativas) han de
resumirse de igual modo, hay que tener en cuenta si la variable es discreta o continua.
Dicho resumen, consiste en organizar tablas que resuman los datos originales o
valores observados.
Tablas para datos agrupados en serie de frecuencias
Una tabla de distribucin de frecuencias es una tabla que presenta en forma ordenada
a los distintos valores de una variable y sus correspondientes frecuencias. Definimos
como frecuencia al nmero de veces que se presenta cada valor de la variable.
Ejemplo: En una planta procesadora de alimentos se observ, durante 30 das
laborables, el nmero de interrupciones (por da de trabajo) debidas a fallas mecnicas.
Los resultados que se obtuvieron son los siguientes:

Las frecuencias relativas no son mas que proporciones, ya que representan la


importancia relativa de cada valor de la variable en el total de casos.
En la columna (4) sumarnos los das acumulados hasta cada uno dejos valores de la
variable
Finalmente, en la columna (5) efectuarnos el cociente entre los valores de la columna
(4) dividido por el total de das, lo que nos indica el peso relativo de los casos
acumulados hasta cada uno de los valores de la variable, y llamamos a esta columna
frecuencia relativa acumulada.
Nota: las frecuencias relativas fri y relativas acumuladas Fri suelen expresarse en
porcentajes.
Representacin grafica
Para representar grficamente se utiliza un par de ejes coordenados. En el eje de
abscisas se representara la variable estudiada y en el eje de ordenadas a las
correspondientes frecuencias (absolutas o relativas).
El grafico de bastones es la representacin grafica de las frecuencias de una variable
discreta, cuyas abscisas son los valores de la variable y cuyas ordenadas son las
frecuencias relativas o absolutas.

Resumen

Probabilidad y Estadsticas

Pgina 5 de 64

A estos grficos se los denomina grficos escalonados

Tablas para datos agrupados en intervalos de clase


Intervalos de clase: subdivisiones o intervalos en que se ha dividido el dominio o campo
de variabilidad de la variable, de modo tal que cada intervalo estar compuesto tramos
del recorrido de la variable.
Limites de clases: valores que definen los extremos de un intervalo. Por lo tanto,
tendremos, para cada intervalo, un lmite inferior que lo simbolizaremos L i y un lmite
superior que lo simbolizaremos Ls. La amplitud del intervalo vendr dada por la
diferencia entre el lmite superior y el lmite inferior.
Amplitud: la llamamos h, siendo: Amplitud de intervalos: h = Ls Li.
Adems, al punto medio de cada intervalo lo llamaremos marca de clase y lo
simbolizaremos con mi.
Cuando los datos se agrupan en intervalos, el problema fundamental es pensar en una
amplitud adecuada para los mismos. Generalmente, se aconseja entre 10 y 15 la
cantidad razonable de intervalos, de modo que no haya tantos como para que no sea
manejable la tabla, ni tan pocos como para que la amplitud sea tan grande que nos
haga perder mucha precisin en nuestro trabajo.
Para calcular la amplitud del intervalo se busca primero la amplitud o rango de la
variable, es decir, la diferencia entre el mayor y el menor de los valores que toma la
variable y, luego, el resultado se divide por la cantidad de intervalos que se quieren
formar.
Rango de la variable: R = mx(xi) - mn(xi)
Amplitud del intervalo: h = R / cantidad de intervalos
Cantidad de intervalos:
Cantidad de intervalos: R/ k-->amplitud/cantidad de intervalos.
Nota: Cuando escribimos un intervalo (Li - Ls], el smbolo "]" indica que el valor que le
precede est contenido en dicho intervalo; el smbolo "(" indica que el valor que le
sucede no est contenido en el intervalo.
Representacin Grfica
Para representar grficamente una distribucin de frecuencias para datos agrupados
usamos el histograma y el polgono de frecuencias.
Histograma: es la representacin, en un sistema de coordenadas cartesianas
ortogonales, de la distribucin de frecuencias (absolutas o relativas) de una variable
Resumen

Probabilidad y Estadsticas

Pgina 6 de 64

agrupada en intervalos, mediante un grfico de superficies. Sobre el eje de las abscisas


se presentan los intervalos y se levanta, sobre cada uno de ellos, un rectngulo cuya
rea es igual a la respectiva frecuencia.
Polgono de frecuencias: es una lnea poligonal obtenida en un histograma uniendo los
puntos medios de los lados superiores de los rectngulos. Los lados extremos crean
dos intervalos hipotticos con frecuencia cero, colocando cada uno de ellos en ambos
extremos del histograma, y con amplitud igual a la del intervalo posterior y anterior,
respectivamente.
Ojiva: es la representacin grfica de las frecuencias acumuladas (relativas o
absolutas) de una variable agrupada en intervalos, mediante una lnea poligonal
obtenida uniendo los puntos que tienen, por abscisas, los limites superiores del
intervalo y, por ordenadas, las respectivas frecuencias acumuladas. A este grfico
tambin s lo conoce como polgono de frecuencias acumuladas.

2. MEDIDAS CARACTERSTICAS
Medidas de tendencia central
Son promedios. Cuando nos referimos a ellos como medidas de tendencia central;
stas son medidas que nos dan idea de cual es el centro de distribucin de datos.
Media aritmetica
Es el numero que se obtiene al dividir la suma de todas las observaciones por la
cantidad de observaciones sumadas. La simbolizamos con x
Clculo de la media aritmtica para datos agrupados en series de frecuencia:
j

x . fa
i

i 1

fa

i 1

Donde el subndice i se usa para indicar los distintos valores que toma la variable y j es
la cantidad de valores distintos q toma la variable
j

x . fa
i 1

n
Cuando calculamos la media aritmetica, multiplicamos a cada valor de la variable por
su correspondiete frecuencia, decimos que la media est ponderada.
j

x xi . fri
i 1

En este caso, el ponderador nos est indicando la importancia relativa de cada valor
de la variable sobre el total de las observaciones.
Clculo de la media aritmtica para datos agrupados en intervalos de clase:
En este caso, emplearemos la frmula anterior pero, en lugar de multiplicar tos valores
de la variable por la frecuencia absoluta (en el numerador), multiplicaremos las marcas
de clase por la frecuencia absoluta. Estamos suponiendo, entonces, que la frecuencia
del intervalo corresponde en su totalidad a la marca de clase. Obviamente, en realidad
esto no es asi, por lo tanto, en este caso, estamos obteniendo una media aritmtica
aproximada.Si tuviramos los datos sin agrupar, obtendramos una media aritmtica
exacta
Resumen

Probabilidad y Estadsticas

Pgina 7 de 64
j

m . fa
i

i 1

fa
i 1

, mi es la marca de clases.

Propiedades de la media aritmtica


La media aritmtica es un valor mnimo valor observado de la misma.
La unidad de medida de la media aritmtica es igual a la unidad de medida de la
variable.
Si la variable toma siempre el mismo valor, la media aritmtica es igual a dicho
valor.
La suma de los desvos de cada valor de la variable a la media aritmtica es
igual a 0. Esta propiedad demuestra el efecto compensador que tiene este
promedio respecto a la distribucin de los datos,
( xi x ) 0 Para datos no agrupados

( x x ) fa 0 Para series de frecuencias y


(m x ) fa 0 Para datos agrupados.
i

Si a los valores de una variable se les suma o se les resta una constante, la
media aritmtica de la nueva variable es igual a la media aritmtica de la
variable anterior ms o menos dicha constante.
Si a los valores de una variable se los multiplica por una constante, la media
aritmtica de la nueva variable es igual a la media aritmtica de la variable
anterior multiplicada por dicha constante.

Mediana
Si todos los valores observados de la variable se ordenan en sentido creciente (o
decreciente), la mediana es el valor de la variable que ocupa el lugar central, es decir,
el que deja a un lado y a otro el mismo nmero de observaciones. Para su obtencin se
considerar la forma en que estn disponibles los datos.
Para simbolizar la mediana utilizaremos x%.
Clculo de la mediana para datos no agrupados:
Si el nmero de observaciones es par, se toma como mediana a la media aritmetica de
los dos valores centrales. Para los franceses no existe la mediana cuando la cantidad
es par.
x
x x
Para par x% n / 2 n / 21 Para impar x% ( n 1)
2
2
EI subndice de x indica la posicin que ocupa ese valor de la variable; una vez
ordenados los datos.
Clculo de la mediana para datos agrupados como serie de frecuencias:
Determinacin Analtica
El problema consiste en hallar el valor de la variable que corresponde a la observacin
central.
Veamos el clculo de la mediana para el nmero de interrupciones en la planta
procesadora de alimentos. La primera operacin que hay que realizar es obtener las

Resumen

Probabilidad y Estadsticas

Pgina 8 de 64

Fai. La segunda operacin es calcular n/2, El tercer paso es localizar la primera


frecuencia acumulada mayor que la de n/2.
Determinacin Grfica
Utilizando el grfico de distribucin de frecuencias absolutas acumuladas, calculamos
la mediana de la siguiente forma:
a) Ubicamos el resultado de hacer n/2 sobre el eje de ordenadas (Fa i).
b) Trazamos una lnea horizontal, a la altura de dicho valor, hasta tocar el grfico.
c) Luego, bajamos hasta el eje de abscisas. El punto que encontrarnos, es el valor
correspondiente a la mediana.

Calculo de la mediana para datos agrupados en intervalos de clase


Determinacin Analtica:
No puede obtenerse exactamente el valor de la mediana porque se desconocen las
observaciones individuales de la variable.
n / 2 fa(i 1)
x% Li
fai
Siendo:
Li: el lmite Inferior del intervalo correspondiente a la frecuencia absoluta acumulada
que contiene a la cantidad n/2.
Fa(i+1): la frecuencia absoluta acumulada hasta el intervalo anterior al que contiene a la
mediana.
fai: la frecuencia absoluta del intervalo en el que ubicamos a la mediana.
hi: la amplitud del intervalo en el que se encuentra la mediana.
Observacin
Si definimos como fractiles a aquellos valores de la variable que fraccionan a la
distribucin en partes iguales, es decir, en partes que contienen la misma cantidad de
datos, la mediana resulta ser un fractil. Diramos entonces: la mediana es el fractil que
divide a la distribucin en dos partes iguales, siendo la mitad de los datos menor o igual
que ella y la otra mitad mayor o igual que ella.
Existen otros fractiles que dividen a la distribucin en 4, 10 y 100 partes iguales. Se
conocen con el nombre de cuartiles, deciles y percentiles.
Cuartiles: Son 3 y dividen a los datos en 4 partes iguales. Se simbolizan Q 1, Q2 y
Q3. Por ejemplo, el cuartil 1 deja por debajo el 25% de las observaciones y el
75% restante por encima, mientras que el cuartil 2 coincide con la mediana, ya
que deja a cada lado el 50% de las observaciones.
Deciles: Son 9 y dividen a los datos en 10 partes iguales. Se simbolizan D 1,
D2, .., D9. Por ejemplo, el decil 1 deja por debajo el 10% de las observaciones y
el 90% restante por encima.
Percentiles: Son 99 y dividen a los datos en 100 partes iguales. Se simbolizan
P1, P2,, P99. Por ejemplo, el percentil 1 deja por debajo el 1% de las
observaciones y el 99% restante por encima,
Resumen

Probabilidad y Estadsticas

Pgina 9 de 64

Para calcular cualquiera de los fractiles, se emplea la misma metodologa que para el
clculo de la mediana: siempre se debe determinar, en primer lugar, el intervalo al cual
pertenece la medida, ya que los distintos parmetros que aparecen en la frmula se
refieren a este intervalo.
( j / *)n fa(i 1)
Q j Li
hi
fai
j=1,2,3
* si Es CUARTIL vale 4, si es DECIL vale 10 si es PERCENTIL vale 100.
Determinacin Grfica:
Este procedimiento grfico puede utilizarse para cualquiera de los fractiles.
Representamos la ojiva y luego determinamos, sobre el eje de ordenadas, el valor que
nos interesa; por ejemplo, para el caso de la mediana, determinamos n/2. La abscisa
de este punto en la grfica de la ojiva es la mediana.
Modo
El modo es el valor de la variable que ms veces se repite, o _sea,_el valor que
presenta mayor frecuencia. En el caso del modo no existe una frmula general para
expresarlo. Lo simbolizaremos con x .
Veamos cmo se encuentra el modo para los distintos tipos de disposicin de los datos.
Si los mismos estn en forma de serie simple, la determinacin del modo es
prcticamente inmediata. Por ejemplo, si x = 1,2, 2, 2, 4, 5, entonces x = 2.
Clculo del modo para datos agrupados como serie de frecuencias:
En este caso, el modo se obtiene con extrema rapidez: en la distribucin de frecuencias
se observa cul es la frecuencia absoluta mayor y el modo ser el valor de la variable
correspondiente a dicha frecuencia.
El modo tambin puede obtenerse grficamente, observando el grfico de frecuencias
absolutas para datos sin agrupar:
Clculo del modo para datos agrupados en intervalos de clase:
Una aproximacin del mismo se obtiene mediante la siguiente expresin:
d1
x Li
hi
d1 d 2
Siendo:
Li: lmite inferior del intervalo de clase al que corresponde l absoluta, que llamaremos el
intervalo modal,
d1: diferencia absoluta entre la frecuencia absoluta del intervalo de mayor frecuencia o
intervalo modal y la frecuencia absoluta del intervalo anterior.
d2: diferencia absoluta entre la frecuencia absoluta del intervalo de mayor frecuencia o
intervalo modal y la frecuencia absoluta del intervalo posterior.
hi: amplitud del intervalo modal.
Nota: Esta frmula es aplicable solamente en caso de que todos los intervalos tengan
la misma amplitud.
Comparacin entre Las distintas medidas de tendencia central de uso ms frecuente
Al exponer los principales promedios -media aritmtica, mediana y modo- hemos
aplicado los mismos ejemplos para el clculo de cada uno de ellos. Si tomamos el
Resumen

Probabilidad y Estadsticas

Pgina 10 de 64

ejemplo de los montos de ventas del establecimiento comercial, podemos apreciar ias
diferencias entre los distintos promedios calculados. Recordemos cules fueron dichos
valores: x = $6070, x%= $6400 y x =$6880.
Puede observarse que, para una misma distribucin, rara vez coinciden tos valores
obtenidos mediante los tres promedios. Si la distribucin es unimodal y simtrica, estas
tres medidas coinciden. Para una distribucin asimtrica, la media se aleja de la moda
hacia el lado de la cola ms larga, con la mediana entre ellas.
Lo vemos grficamente;

En nuestro caso x x% x por tratarse de una distribucin asimtrica a izquierda.


Nos preguntamos entonces: cundo conviene usar una u otra de las medidas de
tendencia central estudiadas? A continuacin vamos a resumir las caractersticas de
cada uno de los tres promedios considerados, as como sus ventajas e inconvenientes.
Media Aritmtica: La meda aritmtica es el centro de gravedad de la distribucin. El
punto x es el punto de equilibrio de la figura que representa la distribucin.
La media aritmtica es un valor de la variable que depende de todas las observaciones,
porque en su clculo intervienen todas ellas. Por lo tanto, la presencia de un valor
observado anormalmente grande o anormalmente chico influye sensiblemente en el
valor del promedio, lo cual, evidentemente, es un inconveniente de la media aritmtica.
Frente a esto, tiene la ventaja de utilizar toda la informacion. recogida.
En Estadstica se trabaja frecuentemente con muestras. Con una muestra no puede
obtenerse el valor exacto de un promedio de la poblacin, slo se obtiene una
estimacin de l. Una condicin esencial de cualquier promedio es que su valor en la
muestra no vare mucho al pasar de una muestra a otra, es decir, que el promedio
calculado sea lo ms estable posible. Esta condicin de la mxima estabilidad la posee
la media aritmtica.
Finalmente, la media aritmtica por venir definida mediante una expresin algebraica,
puede someterse a clculos matemticos necesarios para deducir cuestiones
importantes.
Mediana: Por definicin, sabemos que la mediana es el valor de la variable que deja a
un lado y a otro el mismo nmero de observaciones, bajo el supuesto de que los datos
estn ordenados en sentido creciente o decreciente. En la grfica, la ordenada
correspondiente a la mediana divide el rea total en dos partes iguales.
Para determinar el valor de la mediana, no es necesario conocer el valor de todas las
observaciones, slo es preciso saber el valor de la observacin central y que las
restantes son mayores o menores que sta. No se utiliza, pues, toda la informacin
recogida para su clculo, lo cual es un inconveniente. En cambio, tiene la ventaja de

Resumen

Probabilidad y Estadsticas

Pgina 11 de 64

que los valores observados anormalmente grandes o anormalmente pequeos no


influyen en ei promedio.
Otra ventaja es que puede obtenerse con datos incompletos, por ejemplo, en las
distribuciones de frecuencias con intervalos de clase que comienzan con un intervalo
"menos de ..." o finalizan con intervalos "ms de ...".
Un serio inconveniente es que la mediana no viene definida mediante una expresin
matemtica. La frmula de aproximacin es, simplemente, un aditicio que se utiliza en
el caso de las distribuciones para datos agrupadas en intervalos de clase. En
consecuencia, no puede someterse al clculo algebraico para deducir cuestiones
importantes de comportamiento.
Modo: Como ya vimos, es el valor ms frecuente, es decir, el punto donde se concentra
el mayor nmero de observaciones. En la grfica, el modo es el punto de la variable al
cual le corresponde la altura mxima de la curva.
Este promedio tampoco utiliza toda la informacin, pues basta con saber tan solo cul
valor de la variable es el ms frecuente. Esto hace, al Igual que en el caso de la
mediana, que este promedio no se vea afectado por los valores anormalmente grandes
o anormalmente pequeos, Tampoco el modo se define algebraicamente y, por ello, no
puede utilizarse para obtener deducciones matemticas.
El modo es un promedio muy interesante cuando existe, en la distribucin, una clara y
decidida tendencia a que los valores se concentren alrededor de un solo valor.
Una vez vistas las propiedades de cada promedio separadamente, conviene repasar
algunas cuestiones que afectan a todos ellos. Recordemos, primeramente, que un
promedio tiene por objeto obtener un valor de la variable alrededor del cual se
distribuyen las observaciones. Esta condicin se cumple muy bien en las distribuciones
simtricas o moderadamente asimtricas. Si la distribucin de la variable es de este
tipo, los tres promedios (media aritmtica, mediana y modo) son perfectamente
representativos del conjunto de observaciones. En este caso, es difcil sealar una
preferencia de uno sobre otro desde el punto de vista de su representatividad. Si
tomamos en cuenta las restantes propiedades, el mejor promedio es la media
aritmtica por sus propiedades matemticas y de estabilidad en el muestreo.
Si la distribucin es fuertemente asimtrica, es decir, tiene forma de J o de L,
entonces la mediana es el promedio ms apto.

Si la distribucin tiene forma de "U", los tres promedios tienen poca fuerza
representativa. Generalmente, las distribuciones de esta forma suelen ser difciles de
tratar desde el punto de vista de los promedios.

Resumen

Probabilidad y Estadsticas

Pgina 12 de 64

Nota: recuerde siempre que el tipo de distribucin que presentan los datos es
importante para la seleccin del promedio mas adecuado. En caso de duda, seguir
siempre la misma regla: emplear la media aritmetica.
Media geometrica
La simbolizamos con xg y se calcula como:
xg n x1.x2 ...xn
Si los datos estn agrupados, la expresin de clculo es la siguiente:
xg n x1fa1 .x2fa2 ....xnfan
donde m es la cantidad de valores mustrales distintos, o reemplazando los x i, por las marcas de
clase mi, si los datos estn agrupados en intervalos.
Este tipo de promedio se utiliza, generalmente, cuando los valores de la variable crecen
de acuerdo a una progresin geomtrica.
Media Armnica
La simbolizaremos con xa , de n observaciones de una variable se calcula como:
n
xa n
1/ xi
i 1

Si los datos estn agrupados, la calculamos as


n

xa

fa
i 1
n

1/ x
i 1

O reemplazamos los xi por mi si tenemos intervalos de clases.


Se utiliza generalmente, para promediar valores que provienen de resultados de un
cociente entero entre variables.
Medidas de dispersin
Medidas de dispersin absoluta
Rango "R"
Se define como la diferencia entre el valor mximo y el valor mnimo que toma la
variable. Descuidando por completo los valores intermedios.
Podra suceder que un valor observado estuviese accidentalmente desplazado. En este
caso, el rango sera exagerado y la dispersin aparecera distorsionada.
Resumen

Probabilidad y Estadsticas

Pgina 13 de 64

Rango entre Fractiles


Es una medida que se define como la diferencia entre un par de fractiles. De alguna
manera, evita el inconveniente de los valores extremos que presenta el rango. Por
ejemplo: si consideramos el 1 y el 3 cuartil, se define el rango intercuartlico R 1 = Q3Q1.
Desviacin media
Se define como el promedio de los valores absolutos de los desvos:
m

Para serie simple

DM

x x
i 1

Para serie agrupada DM

x x
i 1

fai

fa
i 1

Si los datos estn agrupados en intervalos, debemos cambiar x i por mi en la frmula


anterior.
A xi x se le llama desvos de la variable respecto de la media aritmtica.
Debemos trabajar con valor absoluto pues, de lo contrario, la desviacin media
resultara igual a cero para cualquier variable x i.
Comparada con el rango, esta medida utiliza una cantidad mayor de informacin, pero
su clculo resulta engorroso.
Observacin: La desviacin media es mnima si se calcula respecto de la mediana.
Variancia
La simbolizaremos con S2 variancia muestral.
La calculamos as:
Para datos no agrupados:
n

S2

(x x )
i 1

Para series de frecuencia


n

S
2

( x x ) . fa
i 1

fa
i 1

Para intervalos de clase


k

S2

(m x ) . fa
i 1

fa
i 1

Esta medida toma en cuenta, para su calculo, todos los valores de la variable, pero
tiene como inconveniente que no esta expresada en la misma unidad de medida que la
variable sino en el cuadrado de la misma.
En este caso, la variancia muestral, tal como la hemos definido es un buen estimador
de la variancia poblacional cuando el tamao de la muestra n es mayor o igual que 30
(aproximadamente). Si n < 30, resulta mejor estimador la llamada variancia muestral
corregida que, para el caso de datos no agrupados, se define as:
Resumen

Probabilidad y Estadsticas

Pgina 14 de 64
n

S2

(x x )

i 1

n 1

Desviacin Tpica (S)


Raiz cuadrada de la variancia para obtener la misma unidad de estudio. Se calcula con:
n

(x x )

S S2

i 1

para datos no agrupados

frmula de trabajo de S:
n

(x x )

i 1

fai

fa

i 1

Desarrollamos el cuadrado del binomio


n

(x
i 1

2
i

2 xi x x ) fai
n

fa

i 1

Aplicamos propiedad distributiva


n

x
i 1
n

2
i

fai

fa
i 1

2x

x fa
i 1
n

fa
i 1

fa

2 i 1
n

fa
i 1

x
i 1
n

2
i

fai

fa
i 1

2x x
2

x
i 1
n

2
i

fai

fa
i 1

x2

Propiedades de la desviacin tpica


Si a los valores de una variable se les suma o resta una constante, la desviacin
tpica no se ve afectada por dicha transformacin. Grficamente, al sumar (o restar)
una constante a la variable, la curva se traslada con todo hacia la derecha (o hacia la
izquierda) sobre el eje x, sin alterar su forma.
Si a los valores de una variable se los multiplica por una constante, la desviacin
tpica se ve afectada por dicha transformacin. Grficamente, al multiplicar por una
constante, la curva que representa el polgono de frecuencias suavizado altera su
forma.
Observaciones:
Supongamos que, de una poblacin, se sacan muestras de tamao cada vez ms
grande, por lo tanto, el nmero de intervalos aumenta y, cuando ese nmero se hace
infinitamente grande, ocurre que:
- La poligonal que limita superiormente al histograma tiende a ser una curva, o sea, el
polgono de frecuencias se va suavizando, pues los segmentos que lo determinan son
cada vez ms cortos, tiende a ser una curva que denominaremos curva de frecuencias
y representa una funcin que llamaremos funcin de densidad de probabilidad. El rea
encerrada entre la curva y el eje x tiende a valer uno.
- La poligonal que limita superiormente al diagrama de frecuencias acumuladas, es
decir, la ojiva, tiende a una curva y se llama curva de distribucin
La meda muestral ( x ) permite estimar a la media poblacional que simbolizaremos
y la variancia muestral(S2) permite estimar a la variancia poblacional. Si el tamao n es
Resumen

Probabilidad y Estadsticas

Pgina 15 de 64

menor que 30, preferimos la variancia muestral corregida (S 2i) para estimar la variancia
poblacional.

Cuando la funcin de densidad de probabilidad (curva continua que aproxima a los


histogramas de reas) de una variable (que, en este caso, llamaremos variable
aleatoria) tiene forma de campana simtrica se llama curva normal o de Gauss. En esta
distribucin se cumple:
- x = es el eje de simetra de la curva.
- El rea entre la curva y el eje, desde - hasta + es 0.68 (contiene el 68% de las
observaciones, aproximadamente).
- El rea entre la curva y el eje, desde -2 c hasta +2 es 0.95 (contiene el 95% de
las observaciones, aproximadamente).

Diagrama de tallo y hojas


En general, en un experimento que involucra una variable aleatoria continua, la funcin
de densidad f(x) se desconoce y slo se asume su forma. Para aproximar la forma de
la distribucin, se usa actualmente el grfico denominado diagrama de tallo y hojas.
ste es realizado automticamente cuando se ejecuta el procedimiento estadstico
Explorar Datos de la mayora de los paquetes estadsticos.
Para ejemplificar la elaboracin de un diagrama de tallo y hojas, considrense los datos
de la tabla siguiente que representan las duraciones de 40 bateras de automvil
similares. Las mismas estaban garantizadas para durar 3 aos:

Primero, se divide cada observacin en dos partes que consisten en un tallo y una hoja,
de tal forma que el primero represente el dgito que es el entero y la hoja corresponda a
la parte decimal del nmero. En otras palabras, para el nmero 3.7 el dgito 3 se
designa como el tallo y el dgito 7 como la hoja. Los cuatro tallos: 1, 2, 3 y 4 quedan
listados consecutivamente en el lado izquierdo de la lnea vertical de la tabla que se

Resumen

Probabilidad y Estadsticas

Pgina 16 de 64

muestra a continuacin. Las hojas se escriben en el lado derecho de la lnea, en


contraposicin al valor de tallo apropiado.

Entonces, la hoja 6 del nmero 1.6 se escribe a la altura del tallo 1, la hoja 5 del
nmero 2.5 se escribe a la altura del tallo 2, y asi sucesivamente. La cantidad de hojas
registradas para cada tallo se resume en la columna de frecuencia.
Medidas de dispersin relativas
Toda medida de variacin absoluta tiene significacin solamente con relacin al
promedio respecto del cual se midieron las desviaciones.
La medida de variacin relativa ms usada es el llamado coeficiente de variacin (que
a veces, se expresa como porcentaje):
S
S
CV
CV .100 para porcentaje
x
x
El coeficiente de variacin es un nmero abstracto, una medida de variacin relativa de
los datos que se estudian que puede compararse con valores similares procedentes de
otras distribuciones.
Medidas de asimetra y de curtosis
Medidas de asimetra
La asimetra o sesgo de una distribucin se refiere a la falta de simetra. Si la curva
de frecuencias (el polgono de frecuencias suavizado) de una distribucin tiene una
cola ms larga a la derecha del mximo central que a la izquierda, se dice que la
distribucin est sesgada a la derecha o que tiene sesgo positivo. Si es lo contrario, se
dice que est sesgada a la izquierda o que tiene sesgo negativo.

Si la distribucin es unimodal y simtrica, estas tres medidas coinciden. Para una


distribucin asimtrica, la media se aleja de la moda hacia el lado de la cola ms larga,
con la mediana entre ellas. Estas relaciones las vimos grficamente en el punto 2.1.4.
Luego, podramos medir la asimetra haciendo: Cuanto mayor sea la diferencia,
negativa o positiva, tanto ms asimtrica ser la distribucin (a la derecha o a la
izquierda).
Esta medida presenta dos inconvenientes:
Es una medida absoluta, o sea, que el resultado se expresa en las unidades
originales de la variable en estudio.
Resumen

Probabilidad y Estadsticas

Pgina 17 de 64

La misma cantidad absoluta de asimetra tiene un significado diferente para


distintas series con distintos grados de variabilidad. Luego, esta medida puede
adimensionarse dividindola por una medida de dispersin, como la desviacin
tpica. As definimos:
x x
SP1
1 coeficiente de sesgo de Pearson
S
)
Utilizando la relacin para distribuciones moderadamente asimtricas x x 3.( x x%
resulta:
3.( x x%
)
SP 2
2 coeficiente de sesgo de Pearson
S
Esta medida vale 0 para una distribucin simtrica, es negativa para una distribucin
asimtrica a la izquierda y positiva para una distribucin asimtrica a la derecha.
Aplicaciones:
Se cree que la asimetra positiva es producida por fuerzas multiplicadores. Las
distribuciones asimtricas negativas son muy raras y a menudo es difcil ofrecer una
explicacin racional de su existencia.
Medidas de curtosis
Es el grado de agudeza o apuntamiento de una distribucin. Al coeficiente de curtosis
lo simbolizamos con CC y lo definimos de la manera siguiente:
Los tres tipos de curtosis son:
Distribucin leptocrtica: presenta un elevado grado de concentracin alrededor
de los valores centrales de la variable.
Distribucin platicrtca: presenta un reducido grado de concentracin alrededor
de los valores centrales de la variable.
Distribucin mesocrtica: presenta un grado de concentracin medio alrededor
de los valores centrales de la variable (el mismo que presenta una distribucin
normal).

Cuando la amplitud de una variable se aproxima al infinito, y para una curva


completamente plana, CC se aproxima a 0. Para mesocrtica CC = 0,263,
platicrtca CC = menor a 0,623; leptocrtica CC = mayor a 0,263.
Coeficiente de Curtosis percentlico
Q3 Q1
CC
2( P90 P10 )

Resumen

Probabilidad y Estadsticas

Pgina 18 de 64

3. PROBABILIDAD
Importancia del tema y breve resea histrica

Los jugadores siempre han recurrido a las probabilidades para realizar sus apuestas a
lo largo de la historia escrita. Pero fue recin en el siglo XVII cuando un noble francs,
puso en tela de juicio el fundamento matemtico del xito y del fracaso en las mesas de
juego.
La teora de la probabilidad fue aplicada con buenos resultados a las mesas de, juego
y, lo que es an ms importante para nuestro estudio, con el tiempo tambin se aplic a
otros problemas socioeconmicos.
En la actualidad, la teora matemtica de la probabilidad constituye el fundamento de
las aplicaciones estadsticas, tanto en la investigacin social como en la toma de
decisiones.
La probabilidad forma parte de nuestra vida diaria. En las decisiones de carcter
personal y gerencial, enfrentamos la incertidumbre y nos valemos de la teora de la
probabilidad, sin importar si admitimos o no el empleo de una cosa tan refinada.
Triangulo de pascal
El tringulo de Pascal es un tringulo de nmeros enteros, infinito y simtrico Se
empieza con un 1 en la primera fila, y en las filas siguientes se van colocando nmeros
de forma que cada uno de ellos sea la suma de los dos nmeros que tiene encima. Se
supone que los lugares fuera del tringulo contienen ceros, de forma que los bordes del
tringulo estn formados por unos. Aqu slo se ve una parte; el tringulo contina por
debajo y es infinito.
Nos permite obtener los resultados de los nmeros combinatorios sin necesidad de
realizar operaciones muy complicadas:
Los nmeros del tringulo de Pascal coinciden con los nmeros combinatorios.
m
El nmero combinatorio Cn (n sobre m) se encuentra en el tringulo en la fila n+1, en
el lugar m+1.
m
El nmero combinatorio Cn (n sobre m) que representa el nmero de grupos de m
elementos que pueden hacerse de entre un conjunto de n (por ejemplo, (4 sobre 2) nos
da el nmero de parejas distintas que podran hacerse en un grupo de cuatro
personas), se encuentra en el tringulo en la fila n+1, en el lugar m+1.
1
1
1
1

1
2

1
3

1 4 6 4 1
1 5 10 10 5 1
...

Podemos saber que el nmero de parejas posibles que decamos antes es 6 si


miramos el tercer nmero de la quinta fila.
Esto hace que el tringulo sea til como representacin de estos nmeros, y
proporciona una buena forma de intuir sus propiedades.
Por el contrario, a la frmula de los nmeros combinatorios se le puede dar el carcter
de frmula general del tringulo para saber, sin necesidad de construir todas las filas
Resumen

Probabilidad y Estadsticas

Pgina 19 de 64

anteriores, cul es el nmero que ocupa un lugar determinado:

Relacin de la Probabilidad con las partes de la Estadstica


El estudio de las probabilidades es una herramienta fundamental, sin la cual no
podemos introducirnos en el estudio de la Estadstica Inferencial.
La Probabilidad y la Estadstica son dos campos ajenos entre s pero relacionados de
las Matemticas. Se dice que la Probabilidad es el vehculo de la Estadstica, es decir,
si no fuera por las leyes de la probabilidad, la teora de la estadstica no sera posible.
Observe la diferencia: la Probabilidad pregunta sobre la posibilidad de que ocurra algo
especfico (una muestra) cuando se conocen las posibilidades (es decir, se conoce la
poblacin). Por otra parte, la Estadstica pide extraer una muestra, describirla
(Estadstica Descriptiva) y luego hacer inferencias sobre la poblacin, con base en la
informacin que se obtuvo de la muestra (Estadstica Inferencial).
LAS PROBABILIDADES SE EXPRESAN COMO FRACCIONES O COMO DECIMALES
ENTRE O Y 1 O COMO PORCENTAJES.
Asignar una probabilidad de O significa que algo nunca ocurrir, mientras que una
probabilidad de 1 indica que algo suceder siempre.
Conceptos bsicos de probabilidad
Evento o Suceso
En la teora de la probabilidad, un evento o suceso es uno o varios de los resultados
posibles que se pueden obtener al hacer una experiencia. Simbologa: S
Experimento Aleatorio
En la teora de la probabilidad, se le llama experimento a la actividad que produce un
evento. Simbologa: E
Luego, podemos decir que un experimento aleatorio es un proceso que presenta las
siguientes caractersticas:
Es posible repetir cada experimento indefinidamente, sin cambiar esencialmente
las condiciones.
Aunque, en general, no podemos indicar cul ser un resultado particular,
podemos describir el conjunto de todos los resultados posibles del experimento.
A medida que el experimento se repite, los resultados individuales parecen
ocurrir en forma caprichosa, Sin embargo, cuando el experimento se repite un
gran nmero de veces, aparece un modelo definido de regularidad. Esta
regularidad hace posible la construccin de un modelo matemtico preciso, con
el cual podemos analizar el experimento.
Caractersticas esenciales de un experimento aleatorio:
Constancia de las condiciones en que se realiza.
Conocimiento de todos los resultados posibles.
Regularidad de resultados cuando el nmero de observaciones tiende a infinito.
Resumen

Probabilidad y Estadsticas

Pgina 20 de 64

Sus resultados estn influidos por el azar.

Espacio Muestral
El conjunto de todos los resultados posibles de un experimento recibe el nombre de
espacio muestral. Luego, estamos en condiciones de decir que todo subconjunto del
espacio muestral es un suceso.
Simbologa: A, B, C, ..., o bien, A1,A3, A4,
Sucesos compatibles e incompatibles o sucesos mutuamente excluyentes
Se dice que dos eventos son mutuamente excluyentes o incompatibles si uno y slo
uno de ellos puede tener lugar a la vez. Como ejemplo tomamos el lanzamiento de una
moneda, puede salir cara o seca, pero NUNCA LOS DOS. Por ello, los eventos
"lado cara" y "lado seca" en un lanzamiento individual de la moneda son mutuamente
excluyentes. He aqu la pregunta decisiva que es preciso formular al decidir si los
eventos son mutuamente excluyentes: "Pueden presentarse al mismo tiempo?". Si la
respuesta es afirmativa, los eventos no son mutuamente excluyentes; en este caso,
decimos que son compatibles. Si la respuesta es negativa, concluimos que los sucesos
son incompatibles o mutuamente excluyentes.
Cuando una lista de los eventos que pueden resultar de un experimento incluye todos
los resultados posibles, se dice que es colectivamente exhaustiva.
Distintos enfoques en la definicin de probabilidad
Enfoque clsico o "a prior"
La probabilidad clsica define la probabilidad de que un evento
o suceso ocurra como:
N de resultados favorables al evento
Probabilidad de un suceso =
N total de resultados posibles igualmente probables
sta tambin se conoce como la definicin de Laplace.
Debemos recalcar que, a fin de que sea vlida la frmula anterior, cada uno de los
resultados posibles debe tener la misma probabilidad y ser sucesos mutuamente
excluyentes.
Decimos que es a priori porque no es necesario que realicemos experimentos para
hacer nuestras afirmaciones de probabilidad sino que, por el contrario, hallamos las
probabilidades basndonos en el razonamiento lgico, antes de efectuar el
experimento.
El enfoque clsico supone un mundo que no existe en la realidad; descarta situaciones
que son muy poco probables pero que podran presentarse.
Enfoque de frecuencia relativa o "a posterior"
Define la probabilidad como la proporcin de las veces que un evento sucede a la
larga, cuando las condiciones son estables.
Este mtodo utiliza, como probabilidades, las frecuencias relativas de ocurrencias
pasadas: determinamos la frecuencia con que algo ha sucedido en el pasado y,
mediante esa cifra, predecimos la probabilidad de que vuelva a suceder en el futuro.
Vemos que el nombre de probabilidad a posteriori, que tambin se le da, tiene su
explicacin porque en este enfoque necesitamos la experimentacin previa para poder
determinar el valor de la probabilidad de un evento.
Resumen

Probabilidad y Estadsticas

Pgina 21 de 64

As pues, cuando usamos la frecuencia relativa para establecer las probabilidades, la


cifra de stas ser ms exacta a medida que aumentemos el nmero de
observaciones.
Podemos decir: para un suceso cualquiera A, si llamamos con f (A) a la cantidad de
veces que ocurre A en n pruebas repetidas de un experimento E, la probabilidad de A
ser:
f ( A)
P ( A) lim
n
n
Este lmite es "lmite en probabilidad" y significa que debemos hallar el resultado del
cociente f(A) / n cuando el nmero de pruebas u observaciones es lo ms grande
posible.
Enfoque subjetivo
Las probabilidades subjetivas se basan en las creencias e ideas del que realiza la
evaluacin de las mismas. En efecto, podemos definir la probabilidad subjetiva como
aquella que un individuo asigna a un evento, basndose en la evidencia disponible.
Las asignaciones de probabilidad subjetiva se dan frecuentemente cuando los eventos
ocurren una sola vez y, a lo mximo, unas cuantas veces.
Las decisiones sociales y administrativas de nivel superior se ocupan de situaciones
especficas y singulares, y no de una larga serie de situaciones idnticas, por lo cual,
en este nivel, los ejecutivos se apoyan constantemente en las probabilidades
subjetivas.
Enfoque axiomtico
Sea un experimento aleatorio E, S el espacio muestral asociado con l y A un suceso
cualquiera de S, la probabilidad de A, que simbolizamos P(A), es un nmero real que
cumple con los siguientes axiomas:
Axioma de probabilidad 1: O =P(A) = 1
Axioma de probabilidad 2: P(S) = 1
Axioma de probabilidad 3: Si A y B son dos sucesos mutuamente excluyentes,
entonces P(A u fi) = P(A) + P(B).
Axioma de probabilidad 4: Si A1, A2, ..., Ai, ..., son sucesos mutuamente
excluyentes, entonces P(ui=1A) = P(A + P(AZ) + ... + P(A) + ...
Algunas probabilidades especiales
La mayor parte de los gerentes que utilizan las probabilidades se interesan en dos
situaciones:
a) caso en que ocurra uno u otro evento.
b) La situacin donde ocurran dos o ms eventos.
Algunos smbolos, definiciones y reglas de uso comn

Diagramas de Venn
En estos diagramas, el espacio muestral se representa ntegramente por medio de un
rectngulo y los eventos o sucesos se representan con las partes del mismo. Si dos
eventos son mutuamente excluyentes, sus partes del rectngulo no se superpondrn,
Resumen

Probabilidad y Estadsticas

Pgina 22 de 64

segn se aprecia en la figura (a). Si dos eventos son no mutuamente excluyentes, sus
partes del rectngulo se superpondrn, como se observa en la figura (b).

Probabilidad del suceso contrario


Con A simbolizaremos al suceso contrario de A, es decir, aquel que consiste en que no
ocurra el suceso A. Luego: P ( A) 1 P( A)
P ( A) P ( A) P ( S ) 1
Probabilidad del suceso imposible
La probabilidad del suceso imposible es igual a O, es decir:
P () 0 , o bien: si A " P(A) = O (la recproca es falsa).
Probabilidad de un suceso contenido en otro
(En B todos los de A mas otros)
Si un suceso A est contenido en otro suceso B, luego la probabilidad de A es menor o
igual que la probabilidad de B. Es decir: Si A B, luego P(A) P(B)
Tengamos presente que, al contener el suceso B al suceso A, el suceso B est
constituido por todos los puntos muestrales de A y otros que le son propios.
Regla de adicin para eventos no mutuamente excluyentes o compatibles
Si dos eventos son no mutuamente excluyentes, es posible que ambos ocurran juntos.
Probabilidad de que ocurran juntos:
P ( A B ) P ( A B ) P ( AoB ) P ( A) P ( B ) P ( A B )

Probabilidad condicional e independencia


Probabilidad condicional
P(A/B) se lee A dado B o A condicional B
Deberamos saber si el suceso A ocurri o no. Este ejemplo indica la necesidad de
presentar el siguiente concepto importante:
Sean A y B dos sucesos asociados con un experimento E, indiquemos con P(B/A) a la
probabilidad condicional del suceso B dado que A ha ocurrido.

Resumen

Probabilidad y Estadsticas

Pgina 23 de 64

Cada vez que calculamos P(B/A), estamos esencialmente calculando P(B) con
respecto al espacio muestral reducido de A, en vez del espacio muestral original S.
Consideremos el diagrama de Venn de la figura anterior. Cuando calculamos P(B), nos
preguntamos qu tan probable es que estemos en B, sabiendo que debemos estar en
S y, cuando evaluamos P(B/A), nos preguntamos qu tan probable es que estemos en
6, sabiendo que debemos estar en A. Esto es, el espacio muestral se ha reducido de S
a A.
Para calcularlo
P( A B)
P( A B)
P( A / B)
Y P ( B / A)
. Se diferencia que P(A/B) es distinto a
P ( B)
P ( A)
P(B/A).
Si A y B son sucesos aleatorios, deseamos definir un cierto valor que permita
determinar la probabilidad condicional del evento A dada previamente la ocurrencia del
suceso B: P(A/B). Dado el conocimiento de que B ocurri, A slo puede ocurrir
juntamente con B. Parece razonable definir la probabilidad condicional proporcional a
P(AB) y, teniendo en cuenta que P(B/B) = 1 , podemos establecer la siguiente
definicin:
Dados dos sucesos, siendo ninguno de ellos el suceso imposible, se define la
probabilidad de ocurrencia del suceso A sujeta a la previa aparicin del suceso B como:
P ( AB )
P( A / B)
con P ( B ) 0
P( B)
La frmula de probabilidad condicional admite ser generalizada a n sucesos, aleatorios.
Por ejemplo, para n = 3 resulta:
P ( A1 A2 A3 )
P ( A3 / A1 , A2 )
P ( A1 A2 )
Para n sucesos se deduce que:
P ( A1 A 2... An ) P ( A1 ) * P ( A2 / A1 )* P( A3 / A2 A1 ) *...* P( An / A1... An 1 )
Esta frmula se la conoce bajo el nombre de ley del producto o ley multiplicativa.
Sucesos independientes
Dados los sucesos aleatorios referidos al mismo espacio muestral, ninguno de los
cuales es el evento imposible diremos que son independientes si se verifica alguna de
estas condiciones:
P(A/B) = P(A)
o
P(B/A) = P(B)
En consecuencia, la aparicin de uno de ellos es independiente de la presencia o
ausencia del otro.
Cuando los sucesos son independientes, la ley del producto toma la forma: P(AB) =
P(A) * P(B)
Resumen:
Luego, si dos sucesos son mutuamente excluyentes, la probabilidad de la alternativa es
la suma de las probabilidades. Si dos sucesos son independientes, la probabilidad de
la aparicin simultanea es el producto de las probabilidades: P(AB)=P(A) * P(B)
Resumen

Probabilidad y Estadsticas

Pgina 24 de 64

Teorema
Dados dos sucesos aleatorios A y B referidos a un mismo experimento, si ambos son
independientes, entonces no son mutuamente excluyentes.
Demostracin:
Para que A y B sean mutuamente excluyentes, se debera verificar que P(AB) = 0.Pero
P(AB) = P(A) * P(B), pues ambos son independientes. Dicho producto valdr cero si
alguno (o ambos sucesos) es el suceso imposible, en cuyo caso carece de sentido
hablar de independencia. Luego P(AB) 0, lo que implica que ambos sucesos no son
mutuamente excluyentes.

Particin del espacio muestral


Decimos que los sucesos A1,A2, ..., Ak representan una particin del espacio muestral S
si:
a) Ai A j ; i j
k
b) i 1 Ai S
c) P ( Ai ) 0; i
En otras palabras, cuando se efecta el experimento E, ocurre uno y slo uno de los
sucesos Ai. Tambin se suele decir que los sucesos Ai completan el espacio muestral S.

Teorema de Bayes
Planteemos la siguiente situacin en un proceso de produccin. Tres mquinas, A1 , A2
y A3, producen un mismo tipo de pieza mecnica. El ingeniero de Control de Calidad
sabe, por experiencia, cul es la proporcin de piezas que pueden resultar defectuosas
por da. Las piezas que producen las tres mquinas se depositan en un lugar comn y
ah se mezclan. Al final de cada jornada laboral, se prueba una muestra de piezas para
verificar si la proporcin de defectuosas est dentro de la tolerancia. (Los ensayos son
de tipo destructivo.) Cierto da, se observa un porcentaje de defectuosas superior a la
tolerancia; se sospecha que alguna de las mquinas est fallando. Revisar una
mquina implica pararla y desarmarla, lo cual lleva consigo un costo para la fbrica,
tanto porque se para la produccin de esa mquina como porque, adems, revisarla
tiene un costo. Luego, sera importante conocer cul de las tres mquinas es ms
probable que est fallando.
Describamos cules son los sucesos:
A1 "la pieza es producida por la mquina 1"
A2 "la pieza es producida por la mquina 2"
Resumen

Probabilidad y Estadsticas

Pgina 25 de 64

A3 "la pieza es producida por la mquina 3"


B: "la pieza producida es defectuosa"
Luego, habindose observado pieza defectuosa, nos preguntamos: "cul es la
probabilidad de que la haya producido la mquina 1 , la 2 o la 3?. En smbolos,
queremos hallar: PAJB), P(AJB) y P(A3/B).
La idea de obtener tas posibilidades posteriores (a posteriori), con limitada informacin
disponible, se atribuye al reverendo Thomas Bayes, y a la frmula bsica de la
probabilidad condicional bajo dependencia se le llama teorema de Bayes.
El teorema de Bayes ofrece un poderoso mtodo estadstico para evaluar nueva
informacin y revisar nuestras estimaciones precedentes (basadas en escasa
informacin solamente) sobre la probabilidad de que las cosas se hallen en uno u otro
estado. Si se usa correctamente, el teorema hace innecesario reunir grandes
cantidades de datos durante largos perodos a fin de tomar decisiones basadas en las
probabilidades.
Sean los sucesos A1, ...A2, An una particin del espacio muestral S (o sea, dos de ellos
no pueden ocurrir simultneamente, pero uno de ellos debe ocurrir) y sea B un suceso
aleatorio en S.
Luego, P(B) = P(B/A1) * P(A1) + ... + P(B/An) * P(An) por la frmula de probabilidad total.
Este teorema es conocido bajo el nombre de frmula de Bayes. Las probabilidades
P(B/Ai) y P(Ai) reciben el nombre de probabilidades a priori o previas ya que,
generalmente, se pueden conocer antes de que obtengamos informacin alguna del
experimento mismo. A menudo, dichas probabilidades son arbitrarias y/o subjetivas.
Las probabilidades P(A/B) se llaman probabilidades a posteriori porque se determinan
despus de que se conocen los resultados del experimento.
Retomamos nuestro ejemplo introductorio. Se conocen las proporciones de piezas que
produce cada mquina, es decir, sabemos que: P(A 1) = 0,30, P(A2) = 0,45 y P(A3) =
0,25
Adems, el ingeniero sabe, por experiencia y por conocimiento de las caractersticas de
cada mquina, la probabilidad de pieza defectuosa de cada una. Es decir: P(B/A 1) =
0,02, P(B/A2) = 0,04 y P(B/A3) = 0,03
Luego, aplicando la formula de Bayes obtenemos:
P ( A1 ) * P ( B / A1 )
P ( A1 / B ) 3
P ( A j ) * P( B / Aj )
J 1

0, 02*0,30
0,19
0, 02*0,30 0, 04*0, 45 0, 03*0, 25
Anlogamente: P ( A2 / B ) 0,57 y P ( A3 / B ) 0, 24 . Luego concluimos que es ms
probable que la mquina 2 haya producido pieza defectuosa, por lo que comenzaremos
revisando esta mquina. Observemos que:
P ( A / B1 ) P ( A / B2 ) P( A / B3 ) 0,19 0,57 0, 24 1

4. VARIABLES ALEATORIAS UNIDIMENSIONALES


Variables aleatorias y distribuciones de probabilidad
Concepto de variable aleatoria
Una variable aleatoria es una funcin que asocia a cada elemento del espacio muestral
un nmero real.
Resumen

Probabilidad y Estadsticas

Pgina 26 de 64

Una variable aleatoria se llama variable aleatoria discreta si se puede contar o


enumerar su conjunto de resultados posibles. Cuando una variable aleatoria puede
tomar valores en una escala continua, se le llama variable aleatoria continua.

Experimento aleatorio
Trmino que se utiliza para describir cualquier proceso mediante el cual se generan
varias observaciones al azar.
Espacio muestral
En el que se consideran cada uno de los posibles resultados, por ejemplo cuando se
verifican tres componentes electrnicos, puede escribirse: S =
{NNN.NND,NDN,DNN,NDD,DND,DDN,DDD} donde N significa "no defectuoso" y D
"defectuoso".
Si un espacio muestral contiene un nmero finito de posibilidades, o una infinita
numerable, se le llama espacio muestral discreto.
Si un espacio muestral contiene un nmero infinito de posibilidades igual al nmero de
puntos en un segmento de recta, se le llama espacio muestral continuo.
Ejemplo:
Sea el experimento aleatorio E = arrojar dos monedas al aire. El espacio muestral
asociado es:
S = {(C,C), (C,S), (S,C), (S,S)}
Definimos la variable aleatoria X como el nmero de caras que se obtienen. Luego, los
posibles valores de X son; O, 1 y 2. A stos los llamaremos el rango de /a va-riable
aleatoria X: R,= {0,1,2}
Distribuciones discretas de probabilidad
Una variable aleatoria discreta asume cada uno de sus valores con una cierta
probabilidad. Al conjunto de los posibles valores y las respectivas probabilidades de
una variable aleatoria discreta se te llama distribucin de probabilidad, es decir la
distribucin de probabilidad de la v.a. X es el conjunto de pares ordenados (x,f(x)). A la
funcin f(x) se le llama funcin de probabilidad o funcin de cuanta.
Definicin
El conjunto de pares ordenados (x,f(x)) es una distribucin de probabilidad de la
variable aleatoria discreta X si se cumple:
a) f ( x) 0x (Condicin de no negatividad.)
b) f ( x) 1 (Condicin de cierre.)
No cualquier funcin que se d ser una funcin de probabilidad. Para que io sea, debe
cumplir con las condiciones a) y b), es decir, debe cumplir la condicin de no
negatividad y la condicin de cierre.
Funcin de distribucin o de probabilidades acumuladas
Hay muchos problemas en los cuales se desea calcular la probabilidad de que el valor
observado de una variable aleatoria X sea menor que o igual a algn nmero real x. Si
se escribe F ( x) P ( X x) para cada nmero real x, se define que F(x) es la funcin de
distribucin o de probabilidades acumuladas de la variable aleatoria X.
Resumen

Probabilidad y Estadsticas

Pgina 27 de 64

Definicin
La funcin de distribucin o de probabilidades acumuladas F(x) de una variable
aleatoria discreta X, cuya distribucin de probabilidad es f(x), es:
F ( x) P ( X x) f (t ) x
tx

Debe notarse, en forma muy particular, el hecho de que la distribucin acumulada se


define no slo para los valores que asume la variable aleatoria dada, sino para todos
los nmeros reales.
Distribuciones continuas de probabilidad
Cualquier valor del intervalo.
Una variable aleatoria continua tiene una probabilidad cero de asumir cualquiera de sus
valores exactamente. Consecuentemente, su distribucin de probabilidad no puede
darse en forma tabular. Por ejemplo, en las alturas de las personas, de 1,69 m a 1,71 m
hay infinitos valores. No se representa como tabla pero s puede tener una frmula. La
misma, necesariamente, debe ser una funcin de los valores numricos de la variable
continua X y, como tal ser expresada por la notacin funcional f(x). Al tratar con
variables continuas, f(x) por lo general se llama funcin de densidad de probabilidad
(f.d.p.) o, simplemente, funcin de densidad de X.
Una funcin de densidad de probabilidad se construye de tal manera que el rea
comprendida bajo su curva es igual a 1.

f ( x)dx 1

La probabilidad de que X asuma un valor entre a y b es igual al rea sombreada bajo la


funcin de densidad, entre las ordenadas x = a y x = b y, utilizando el clculo integral,
esta rea est dada por:
b

P (a X b) f ( x)dx
a

Funcin de densidad de probabilidad


La funcin f(x) es una funcin de densidad de probabilidad para la variable aleatoria
continua X, definida en el conjunto de los nmeros reales, si:
a) f ( x) 0 R
b)

f ( x)dx 1
b

c) P (a X b) f ( x )dx f(x)dx , si x es V.A.C.


a

Vernos que, para un valor particular de la variable x0, P(X = x 0) = 0. pues no existe
intervalo de integracin.
Funcin de distribucin o de probabilidades acumuladas
La funcin de distribucin o de probabilidades acumuladas F(x) de una variable
aleatoria continua X, con una funcin de densidad f(x), es:
Resumen

Probabilidad y Estadsticas

F ( x) P( X x )

f (t )dt

Pgina 28 de 64

Como una consecuencia inmediata de la definicin, se pueden escribir los dos


resultados siguientes:
a) P(a X b) = P(a < X < b) = F(b) - F(a)
b) f(x) = dF(x) / dx ; si la derivada existe
Principales valores caractersticos de una variable aleatoria
Suponemos que conocemos a toda la poblacin.
Valor esperado o esperanza matemtica de una variable aleatoria
Para obtener el valor esperado de una variable aleatoria discreta, multiplicamos cada
valor que sta puede asumir por la probabilidad de ocurrencia de ese valor, y luego
sumarnos los productos.
Definicin:
Sea X una variable aleatoria cualquiera, simbolizaremos con E ( x) al valor
esperado o esperanza matemtica de X:

Observacin: Para una V.A. X usaremos p(x) o f(x) para designar a la funcin de
probabilidad o funcin de cuanta de X.
Podemos decir, entonces, que la media aritmtica tiende a la esperanza matemtica
cuando aumentamos el tamao de la muestra, es decir, cuando nos vamos
aproximando al conocimiento de la poblacin completa.
Variancia y desviacin tpica de una variable aleatoria
Variancia
2
Sea X una variable aleatoria, definamos la variancia de X, que se denota con V(X) o x
, como sigue:
V ( X ) E[ X E ( X )]2
La raz cuadrada positiva de V(X) se llama desviacin estndar de X y se designa con
x

x V (X )
Observaciones:
El nmero V(X) est expresado en unidades cuadradas de X, Esto es, si X se
mide en hs, entonces V(X) est expresada en hs2. sta es una razn para
considerar la desviacin estndar, ya que sta se expresa en las mismas
unidades que X.
Otra medida posible podra haber sido E|X - F(X)|. Por diferentes razones, una
de las cuales es que X2 es una funcin "con mejor comportamiento" que |X|, se
prefiere la variancia.
S interpretamos a E(X) como el centro de una masa unitaria distribuida sobre
una recta, podemos interpretar a V(X) como el momento de inercia de esa masa
respecto a un eje perpendicular a travs del centro de la misma.

Resumen

Probabilidad y Estadsticas

Pgina 29 de 64

V(X), como se defini en la ecuacin anterior, es un caso especial del concepto


ms general siguiente: "el k-simo momento de la variable aleatoria X respecto a
k
su esperanza se define como k E[ X E ( X )] . Evidentemente, para k = 2
obtenemos la variancia.

Propiedades del valor esperado de una variable aleatoria


Propiedad 1:
Si X = C, donde C es una constante, entonces E(X)=C
Demostracin:

E ( X ) Cf ( x )dx C

f ( x )dx C . Algunas veces esta variable aleatoria se llama

degenerada.
Propiedad 2:
Si Y = a + X, donde a es una constante, entonces E(Y) = a + E(X). Parecido a la media
aritmtica.
Propiedad 3:
Supongamos que C es una constante y X es una variable aleatoria. Entonces,
E(C*X) = C*E(X). Parecido a la media aritmtica.
Demostracin:

E (C * X ) Cxf ( x)dx C

xf ( x)dx C * E ( X )

Propiedad 4:
Sean X e Y dos variables aleatorias cualesquiera, entonces E(X+Y) = E(X) + E(Y).
Observaciones:
Combinando las propiedades 2, 3 y 4 observarnos el siguiente hecho importante:
si Y = a * X +b, donde a y b son constantes, entonces E(Y) = a * E(X) + b. En
palabras, la esperanza de una funcin lineal es esa misma funcin lineal de las
esperanzas. Esto no es cierto, a menos que est implicada una funcin lineal, y
es un error comn creer que sea de otro modo.
En general, es difcil obtener expresiones para E(1/X) o E(X 1/2), por ejemplo, en
trminos de 1/E(X) o [E(X)]1/2. Sin embargo, hay algunas desigualdades que son
muy fciles de derivar.
Propiedad 5:
Sean X1,, Xn variables aleatorias, entonces E(X1 + ... + Xn) = E(X1) + ... + E(Xn).
Definicin previa 1: Dadas dos variables aleatorias discretas X e Y se define su
distribucin conjunta por una tabla de contingencia (o tabla de probabilidades a doble
entrada) de la siguiente forma:

Donde pij p( xi yi ) representa la probabilidad conjunta de los sucesos (X = x i) y (Y =


yi).
Definicin previa 2: Dada la distribucin conjunta de dos variables aleatorias discretas
X e Y, se dice que X e Y son variables aleatorias independientes si slo si
pij p ( xi yi ) p( xi ). p ( yi ) , Para todo i, para todo j.
Propiedad 6:
Resumen

Probabilidad y Estadsticas

Pgina 30 de 64

Sean X e Y dos variables aleatorias independientes, entonces E(X*Y)=E(X)-E(Y).


Teorema
El clculo de V(X) se simplifica usando:
V ( X ) E ( X 2 ) [ E ( X )]2
Propiedades de la variancia de una variable aleatoria
Hay varias propiedades importantes, en parte anlogas a las expuestas para la
esperanza de una variable aleatoria, que se mantienen para la variancia.
Propiedad 1:
Si X = C, donde C es una constante, luego V(X) = V(C) = 0.
Es bastante obvio que, si tenemos una constante, su variabilidad es nula.
Propiedad 2:
Si C es una constante, V(X+C) = V(X).
Demostracin:
V(X+C) = E(X+C) [E(X+C)]2 = E[(X+C)-E(X)-C]2 = E[X-E(X)]2 = V(X)
Propiedad 3:
Si C es una constante, V(C*X) = C * V(X).
Propiedad 4:
SI X e Y son dos variables aleatorias independientes, entonces V(X+Y) = =V(X} + V(Y).
Observacin: es importante establecer que, en general, la variancia no es aditiva como
lo es el valor esperado. Con la suposicin adicional de independencia, la aditividad de
variancias es vlida. Adems, la variancia no posee la propiedad de linealidad que
dimos para la esperanza, es decir: V(a*X+b) a * V(X)+ b. En su lugar, tenemos
V(a*X+b) = a2* V(X).
Propiedad 5:
Sean X1, , Xn n variables aleatorias independientes de dos a dos, entonces
V(X1++Xn) =V(X1)++V(Xn)
Desigualdad de Chebyshev
Si conocemos la distribucin de probabilidades de una variable aleatoria (la f.d.p. en el
caso continuo o la probabilidad puntual en el caso discreto), podemos calcular E(X) y
V(X), si existen. Sin embargo, lo recproco no es verdadero. Nunca la probabilidad va a
ser exacta, pero si en una cota inferior y en otra superior.
Sin embargo, resulta que, aunque no podemos evaluar tales probabilidades (a partir de
un conocimiento de E(X) y lV(X)), es posible dar una cota superior (o inferior} muy til
para las mismas. Este resultado est contenido en lo que se conoce como la
desigualdad de Chebyshev.
Desigualdad de Chebyshev
Sea X una variable aleatoria con E ( X ) y sea k un nmero real cualquiera mayor o
2
igual que 1, entonces: P ( X k * ) 1/ k en forma equivalente:

P ( X k * ) 1 1/ k 2
Esta ultima forma indica, especialmente, cmo la variancia mide el "grado de
concentracin" de probabilidad prxima a E ( X ) . Podemos expresarla en palabras
diciendo: dado un nmero k mayor o igual que 1 y un conjunto de n observaciones, al
menos (1 - 1/k2) .100 % de las observaciones caen dentro de k desviaciones
estndares de la media.
Esta desigualdad es vlida tanto para una muestra como para una poblacin. Cuando
se trabaja con una muestra aleatoria, se utiliza S en lugar de y x en lugar de . Si n
< 30, conviene utilizar S' en lugar de S.
Resumen

Probabilidad y Estadsticas

Pgina 31 de 64

5. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS


Distribucin discreta uniforme
Es aquella en la cual la variable aleatoria asume cada uno de sus valores con idntica
probabilidad. Es la ms simple de todas las distribuciones discretas de probabilidad.
Teorema
La media y la variancia de la distribucin uniforme discreta f(x) estn dadas por:
k

xi
i 1

(x )
i 1

EI proceso aleatorio de Bernoulli


Por ejemplo, una lnea de produccin se prueban cada uno de los artculos para ver si
son defectuosos o no. Los intentos o ensayos repetidos son Independientes y la
probabilidad de xito permanece constante. Este proceso se conoce como proceso de
Bernoulli. Cada intento se llama experimento de Bernoulll.
Propiedades
Estrictamente hablando, el proceso de Bernoulli debe tener las siguientes propiedades:
El experimento consiste en un solo intento,
Los resultados del intento pueden clasificarse como xito o fracaso. Luego, la
distribucin de probabilidad de la v.a. y (variable aleatoria de Bernoulli) se puede
presentar en forma tabular de la manera siguiente: Distribucin de probabilidades de y:
0: fracaso; q: probabilidad de fracaso 1: xito; p: probabilidad de xito
y
p(y)
Donde: p + q = 1, por lo tanto, q = 1 - p
0
q
Esperanza y variancia de la variable aleatoria de Bemoulli
1
p
Esperanza matemtica de y
E ( y ) y. p ( y ) 0* q 1* p p
yRy

Variancia de y
V ( y ) y2 E ( y 2 ) [ E ( y )]2 y 2 p ( y ) p 2 0 2 * q 1* p p 2 p p 2 p (1 p ) p.q
V ( y ) p.q
Desviacin tpica de y
D( y ) y V ( y ) p.q
Distribucin binomial
El nmero X de xitos en n experimentos de Bernoulli recibe el nombre de variable
aleatoria binomial, La distribucin de probabilidad de esta variable aleatoria discreta se
llama distribucin binomial y sus valores se representan por B(x;n,p), dado que estos
ltimos dependen del nmero de intentos y de la probabilidad de xito en un intento
determinado.
La funcin de probabilidad de la variable aleatoria binomial X, el nmero de xitos en n
experimentos independientes, es:
P ( X x) ( nx ) p x .q n x x=0,1,2,,n.
Donde n es el nmero de observaciones, p es la probabilidad de xito, q es la
probabilidad de fracaso y p + q = 1.
Las caractersticas del modelo binomial son:
El experimento consiste en n intentos repetidos.

Resumen

Probabilidad y Estadsticas

Pgina 32 de 64

Los resultados de cada uno de los intentos pueden clasificarse como xito o como
fracaso,
La probabilidad de xito, representada por p, permanece constante para todos los
intentos.
Los intentos repetidos son independientes.
Por ejemplo, si n = 4 y p = 1/4, la distribucin de probabilidad de X, es decir, el nmero
de artculos defectuosos que pueden obtenerse en una muestra de cuatro artculos,
puede escribirse corno:
P ( X ) ( 4x )(1/ 4) x .(3 / 4) 4 x x = 0,1,2,3,4
Funcin de distribucin o de probabilidades acumuladas
x0

F ( xo ) P( X x0 ) p ( x)
0

sta se aplica en cualquier situacin de tipo industrial donde se presentan las


caractersticas siguientes:
El resultado de un proceso es dicotmico,
Los resultados posibles son independientes, y
La probabilidad de xito es constante de una observacin a otra.
Esperanza y variancia de la variable aleatoria binomial
Teorema
La esperanza matematica y la variancia de la distribucin nominal estan dadas por:
E ( x) p.q y V ( x ) 2 n. p.q
Asimetra de la distribucin binomial
Es posible predecir la asimetra de toda distribucin binomial en funcin del valor de
sus parmetros, especialmente, de la probabilidad de xito p. Resulta:
a) Si p<1/2, n >30 entonces la distribucin binomial ser asimtrica a derecha.
b) Si p>1/2, n > 30 entonces tal distribucin resultar asimtrica a izquierda.
c) Si p = 1/2, entonces esta distribucin resulta simtrica, sin importar el tamao de
muestra n.
Experimentos multinomiales
Si cada prueba u observacin tiene ms de 2 resultados posibles, entonces el
experimento binomial se convierte en un experimento multinomial.
Para derivar la frmula general se procede como en el caso binomial. Dado que los
intentos son independientes, cualquier orden especificado que produzca x 1 resultados
x
x
x
para E1, x2 para E2, , xk para Ek ocurrir con una probabilidad p1 1 p2 2 ... pk k . El nmero
total de rdenes que producen resultados similares para los n intentos es igual al
nmero de particiones de n intentos en k grupos con x 1 en el primer grupo, x2 en el
segundo, ..., y xk en el grupo k. Esto puede realizarse en:
n!
n
x1 , x2 ,..., xn
x1 ! x2 !...xn !
maneras, Dado que todas las particiones son mutuamente excluyentes y ocurren con
igual probabilidad, se obtiene la distribucin multinomial al multiplicar la probabilidad
para un orden especifico por el nmero total de particiones.

Distribucin multinomial

Resumen

Probabilidad y Estadsticas

Pgina 33 de 64

Si en un experimento aleatorio determinado cada observacin puede resultar en k


resultados distintos, con probabilidades p1, p2,..., pk respectivamente, entonces la
distribucin de probabilidades de las v.a. x1, x2, ..., xk, que representan el nmero de
ocurrencias para los resultados en n observaciones independientes, viene dada por:
p ( x1 , x2 ,..., xn ) nx1 , x2 ,..., xn p1x1 p2x2 ... pnxn

Distribucin hipergeomtrica
El esquema del tipo de experimentos aleatorios donde se puede aplicar una
distribucin hipergeomtrica es similar al de la binomial. La diferencia radica en que en
la binomial las distintas observaciones eran independientes, mientras que en la
hipergeomtrica son dependientes.
Las caractersticas de un experimento aleatorio donde se puede aplicar el modelo
hipergeomtrico son las siguientes:
La poblacin posee N elementos, de los cuales N 1 son de una clase determinada y N2
son de otra clase, tal que N1 + N2 = N. Ambas clases son mutuamente excluyentes y
exhaustivas.
Se extrae una muestra de n elementos sin reemplazo.
Luego, la funcin de probabilidad de la distribucin hipergeomtrica viene dada
P ( X x) N1 , N2 , N n

donde x = 0,1,2,...,n y

N1
x

N2
n x

N1 N 2
n

N 1 + N2 = N

Esperanza y variancia de la variable aleatoria hipergeomtrica


Teorema
La esperanza matemtica y la variancia de la distribucin hipergeomtrica estn dadas
por:
N n N1
N
N
n 1 1
E ( x) n 1 y V ( x) 2
N 1 N
N
N
Distribucin de Poisson
Se denominan experimentos de Poisson a aquellos que describen el comportamiento
de una variable aleatoria que representa el nmero de resultados observados, con una
determinada caracterstica, durante un intervalo de tiempo dado o en una unidad de
espacio especfica.
Un experimento de Poisson surge del proceso de Poisson y tiene las siguientes
caractersticas:
El nmero de resultados que ocurren en un intervalo de tiempo o regin especficos
es independiente del nmero que ocurre en cualquier otro intervalo disjunto de tiempo
o espacio. De esta manera, se dice que el proceso de Poisson no tiene memoria.
La probabilidad de que un resultado sencillo ocurra en un intervalo de tiempo muy
corto o en una regin pequea es proporcional a la longitud del intervalo de tiempo o al
tamao de la regin, y no depende del nmero de resultados que ocurren fuera de este
intervalo o regin.
La probabilidad de que ms de un resultado ocurra en ese intervalo de tiempo tan
corto o en esa regin tan pequea es despreciable.
El nmero X de resultados que ocurren en un experimento de Poisson se llama variable
aleatoria de Poisson y su distribucin de probabilidad recibe el nombre de distribucin
de Poisson.
Distribucin de Poisson
Resumen

Probabilidad y Estadsticas

Pgina 34 de 64

La funcin de probabilidad de la variable aleatoria de Poisson X, que representa el


nmero de resultados que ocurren en un intervalo de tiempo dado o de espacio, es:
e t ( t ) x
x=0,1,2
p ( x; t )
x!
Donde es el nmero promedio de resultados por unidad de tiempo o espacio y e =
2.71828...
Esperanza y variancia de la variable aleatoria de Poisson
Teorema
La media y la variancia de la distribucin de Poisson tienen, ambas, el valor
V (X ) 2
E( X ) V ( X ) 2 x
La distribucin de Poisson como lmite de la binomial
Cuando n , p 0 y n.p permanece constante la distribucin Binomial se aproxima
a la de Poisson. De aqu que, si n es grande y p es cercana a O, la distribucin de
Poisson puede utilizarse con n. p para aproximar distribuciones binomiales. Si p es
cercana a 1, se puede utilizar la distribucin de Poisson para aproximar a la distribucin
binomial, intercambiando lo que se defini como un xito por un fracaso, cambiando de
esta manera p por un valor cercano a 0.
Teorema
Sea X una variable aleatoria bnomial con distribucin de probabilidad B(n,p). Cuando
n , p 0 y n. p permanece constante: se aproxima a la de Poisson.
Aplicacin de las distribuciones de probabilidad al muestreo de aceptacin
En los problemas que vimos, donde se usaba la distribucin binomial, la probabilidad'
de xito p se supona conocida. Imaginemos ahora que no se conoce p y, en base a
resultados mustrales, se quieren hacer inferencias con respecto a p.
Supongamos que se reciben grandes lotes de artculos manufacturados, digamos lotes
de 500 artculos, y se desea rechazar y devolver al fabricante aquellos lotes que
contengan una proporcin alta de artculos defectuosos. Digamos que el comprador
slo aceptar lotes que no contengan una proporcin mayor de p =
0.05 artculos defectuosos. Luego, siendo p la proporcin de artculos defectuosos en el
lote:
Si p 0, 05 El lote es aceptado.
Si p 0, 05 El lote es rechazado.
Luego, se determina un plan de muestreo que consiste en establecer un tamao de
muestra n que ser la cantidad de artculos que se inspeccionarn del lote. Tambin se
selecciona de antemano un nmero a que representa el nmero de defectuosos que se
est dispuesto a aceptar. Siendo X el nmero de artculos defectuosos en la M n:
Si X a Se acepta el lote.
Si X a Se rechaza el lote y se devuelve al fabricante.
Los ingenieros de control de calidad caracterizan la bondad de un plan de muestreo
mediante el clculo de la probabilidad de aceptar un lote para distintos valores de la
proporcin de defectuosos. La representacin grfica del resultado se denomina curva
caracterstica de operacin del plan de muestreo.
Un buen plan de muestreo debe dar probabilidades altas de aceptar lotes con una baja
proporcin de defectuosos y probabilidades bajas de aceptar lotes con una alta
proporcin de defectuosos.
Resumen

Probabilidad y Estadsticas

Pgina 35 de 64

6. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS


Distribucin uniforme o rectangular
Definicin
Supongamos que X es una v.a. continua que toma todos los valores en el intervalo [a,
b], donde a y b son finitos. Si la funcin de densidad de probabilidad est dada por:
1
a x b, con a b

f ( x) b a
Para cualquier otro valor
0
Diremos que x est distribuida uniformemente en el [a, b].
Funcin de Densidad de Probabilidad
f(x) debe cumplir las siguientes condiciones para ser una funcin de densidad de
probabilidad:
x R
a) f(x)0
b)

f ( x)dx 1

a b

Si queremos calcular, por ejemplo, P x


hacemos:
2

a b
2

1
dx 1/ 2
ba

a y b son los extremos de los intervalos.


Funcin de Distribucin
F ( x)

xa
(despus de integrar)
ba

X<a
0
xa

a = x = b y Varancia
f ( x)
Esperanza
b

x>b
1

ab
2
( a b) 2
V (X )
12
E ( x)

Distribucin normal o de Gauss


Es la distribucin ms importante en la Estadstica. Esto se debe, principalmente, a las
siguientes razones:
a) La distribucin normal constituye una muy buena aproximacin de otras
distribuciones de probabilidad discretas y continuas.
b) Muchas variables que se observan en la vida diaria siguen una distribucin normal,
Podemos citar: el peso, la estatura, el cociente intelectual de las personas.
c) Independientemente de la distribucin de probabilidades que tenga una poblacin, si
Resumen

Probabilidad y Estadsticas

Pgina 36 de 64

extraemos muestras aleatorias y hallamos luego la distribucin muestral de los


estadsticos, muchos de ellos sern normales.
Funcin de Densidad de Probabilidad
Si x R y tiene una distribucin normal, su f.d.p. es la siguiente:
1 x

1
f ( x)
e 2
2
La notacin x ~ N (,) se lee: "x es una v.a. normal con esperanza y desviacin
tpica ". R y R
Recordemos tambin que, para una v.a. continua, las probabilidades se calculaban
integrando la funcin de densidad de probabilidad en el intervalo de inters, es decir:

P x a, b P (a x b) f ( x )dx
b

En el caso

1 x


1
2
a 2 e
b

1
dx
2

de la distribucin normal:

1 x

dx

Estos valores se encuentran en la tabla de probabilidades normales del apndice


Algunas caractersticas de la distribucin normal:
Toda el rea bajo la curva es igual a 1. Esto es obvio si pensamos que, por ser
una f.d.p., la ley normal o de Gauss verifica las condiciones de la misma, que segn
ya vimos eran:
a) Condicin de no negatividad: f(x)0 x R
b) Condicin de cierre:

f ( x) dx 1

Esta ltima condicin es la que nos permite afirmar que el rea bajo la curva es igual a
1.
La distribucin tiene forma de campana simtrica, por eso vulgarmente se habla de
"campana de Gauss". El punto mximo es la ordenada de , que adems coincide con
la mediana y con el modo, por tratarse de una distribucin simtrica,
El eje x es asntota de la curva, es decir, a partir de la curva se extiende indefinidamente hacia la izquierda y hacia la derecha, tendiendo al eje x pero sin tocarlo
nunca. En la prctica, a una distancia 3 de (hacia la derecha y hacia la izquierda), el
valor de f (x) es muy prximo a 0.
El eje de simetra de la curva es x = (es decir, la vertical que pasa por ).
Los valores de y determinan, respectivamente, la ubicacin de la curva sobre el
eje x y la forma de la misma.
La curva tiene sus puntos de inflexin en x = ; es cncava hacia abajo si -
< x < + y es cncava hacia arriba en cualquier otro punto.
Distribucin normal tpica o estndar
Sea z una v.a. normal tipificada o estandarizada, la f.d.p. de z es:
1
z2
1
f ( x)
e 2 ;
2

Resumen

zR

Probabilidad y Estadsticas

Para hacer el traspazo de:

Pgina 37 de 64

1
f ( x)
e
2

1 x

1
z2
1
f ( x)
e 2
2

se

usa:
Si X

~N(;) Z~N(0;1)

E (z) = 0 y V(Z)=1
A esta transformacin a veces se la llama proceso de tipificacin de la variable
Las tablas son para Z, donde Z(0;1), si es otro distinto hay que hacer la
transformacin para poder usarlas
Todos los valores x entre xt y x2 de la primera distribucin tienen sus correspondientes
valores z entre z, y z2 en la segunda distribucin. Por lo tanto, las reas sombreadas
son equivalentes. Luego, con una so!a tabla (la de la distribucin normal tpica)
resolvemos nuestro problema de clculo de probabilidades.
Ejemplo de Uso de la Tabla
Reproducimos una parte de la tabla P (Z z1)
z
0,00 0,01
0.0 0.1 0.2 0,3 0.6985
0.4 0.5

0.02

0.03

Grficamente:

Veremos cuatro casos:


Caso 1: En una distribucin normal tpica, encontrar probabilidades para determinados
valores de la variable.
Caso 2: En una distribucin normal tpica, encontrar valores de la variable para
determinadas probabilidades,
Caso 3: En una distribucin normal cualquiera, encontrar probabilidades para
determinados valores de la variable,
Caso 4: En una distribucin normal cualquiera, encontrar valores de la variable para
determinadas probabilidades.
LOS EJEMPLOS DE LOS CASOS ESTAN EN EL LIBRO PAGINAS 174 A 177
Resumen

Probabilidad y Estadsticas

Pgina 38 de 64

Propiedades
a) Linealidad: Si x ~ N (;) y tenemos, adems, una v.a, y = a * x + b, luego: y ~ N (a
* + b , a * ).
b) Reproductividad: Si x1 ~ N (1;1) y x2 ~ N (2;2), y x1 y x2 son variables

2
2
independientes entonces y=x 1+ x2 resulta con distribucin: y ~ N 1 2 ; 1 2

Aproximacin de la distribucin binomial a la normal


Al aumentar el tamao de la muestra, la distribucin binomial se acerca a la forma lisa y
acampanada. Si X es aproximadamente normal, su valor se puede transformar en un
valor de Z aplicando la frmula:
X n. p
Correccin de continuidad: por ejemplo, P (X = 3) = 0. Por lo tanto, en este
n. p.q
caso deber cambiarse por P (2.5 X' 3.5), o sea, que la probabilidad de que la
variable binomial sea 3 es equivalente a la probabilidad de que la variable aleatoria
continua est entre 2,5 y 3.5,P (a X b) s P (a - 0.5 X b + 0.5), donde Xes una
variable normal transformada.
Vamos a ver ahora cmo la aproximacin de la binomial a la normal es mejor a medida
que n crece. Supongamos que x ~ B (10,0.5) y se desea hallar la P (2 x 4) = 0.0439
+ 0.1172 + 0.2051 = 0.3662. Para la aproximacin normal de la binomial debemos
primero hacer la correccin de continuidad: P (2 x 4) = P (2 - 0.5 x' 4 + 0.5)
Entonces, si x ~ B (10,0,5):
E(x)=n.p = 10*0.5 = 5
( x) n. p.q 2,5 1,58
X n. p
1,5 5
4,5 5
Z
Z1
2, 22 y Z 2
0,32
1,58
n. p.q
1,58
Z

P (-2.22 z -0,32) = 0,3745 -0,0132 = 0,3613


En general, a medida que aumenta el tamao de n la aproximacin resulta mejor, es
decir, los valores de probabilidad que se obtienen con la aproximacin son ms
cercanos a los valores que resultan de aplicar directamente la distribucin binomial
Distribucin exponencial
Definicin
Se dice que una variable aleatoria continua X que toma todos los valores no i
negativos tiene una distribucin exponencial con parmetro a > 0 si su f.d.p. est dada
por:
a.e ax
f
(
x
)

valor
Para cualquier otro
0
X>0

Representacin Grfica

Resumen

Probabilidad y Estadsticas

Se puede probar que:

Pgina 39 de 64

f ( X )dx 1

La distribucin exponencial desempea un papel importante en la descripcin de una


gran clase de fenmenos, especialmente en el rea de la teora de la confiabilidad de
equipos electromecnicos.
Funcin de Distribucin

X0
f (t )dt
Para cualquier
0 valor
f ( x) otro

1 e X

Esperanza y variancia
E ( X ) 1/ a
V ( X ) 1/ a 2

La distribucin exponencial tiene una propiedad importante. Considerando cualesquiera


u, v > 0, tenemos:
P( X u v / X u )

Por lo tanto:

P( X u v / X u ) P( X v)

P ( X u v ) e ( u v )
u e v
P( X u )
e

Generalmente, a las distribuciones que cumplen con esta propiedad se les dice que "no
tienen memoria".En otras palabras, la informacin de ningn xito es "olvidada" en lo
que se refierea clculos subsecuentes
Distribucin chi-cuadrado
Definicin
Una variable aleatoria continua X tiene una distribucin chi-cuadrado, con v grados de
libertad, si su funcin de densidad es la siguiente:

1
X v / 21e x / 2
v/2
f ( x ) 2 (v / 2)
Para cualquier otro caso
0

X0

Donde v es un entero positivo y dnde (v / 2) es el valor de la funcin gamma para


v/2, estando la funcin gamma definida por:

t v 1e t dt
0

Con v>o
Esta distribucin juega un papel vital en la Inferencia estadstica
La media
v
La variancia
2 2v
Distribucin t de Student

Resumen

Probabilidad y Estadsticas

Pgina 40 de 64

La mayora de las veces no se tiene la suerte suficiente como para conocer la variancia
de la poblacin de la cual se seleccionan las muestras aleatorias. Para muestras de
tamao n > 30, se proporciona una buena estimacin de a 2 al calcular
un valor de S2. Qu le ocurre entonces al estadstico X / / n del Teorema

Central del Lmite si se reemplaza 2 por S2?


Si el tamao muestral es pequeo, los valores de S 2 fluctan considerablemente de
muestra en muestra y la distribucin de la variable aleatoria X / S / n se desva

en forma apreciable de una distribucin normal estndar. Ahora se est tratando con la
distribucin de un estadstico que recibe el nombre de T, donde: para n<30
Al derivar la distribucin muestral de T, se asumir que la muestra aleatoria se
seleccion de una poblacin normal. Se puede expresar entonces:
T

X / / n
S2 / 2

V /(n 1)

X
S/ n

X
/ n
Tiene la distribucin normal estndart y
Donde Z es: Z

(n 1) S 2
2
tiene una distribucin chi-cuadrado con v = n -1 grados de libertad. Ai muestrear
poblaciones normales, puede demostrarse que X x y S2 son independientes y, en
consecuencia, lo son Z y V.
V

Valores caractersticos
E(tn-1) = 0 para n>1
V(tn-1) = n/(n-2), para n>2.
Obsrvese que si n < 1 la distribucin T-Student carece de esperanza matemtica, y si
n < 2, carece de varianza.
Teorema
Sea Z una variable aleatoria normal estndar y V una variable aleatoria chi-cuadrado
con v grados de libertad. Si Z y V son independientes, entonces la distribucin de la
variable aleatoria T, donde:
Z
T
V /v
est dada por;
(v 1) / 2

( v 1) / 2

t 2
t
h(t )
1

v
(v / 2) v
y se conoce como distribucin t con v grados de libertad.
Los grados de libertad como una medicin de la informacin muestral
Se sabe que, cuando una muestra aleatoria se toma de una distribucin normal, la
variable aleatoria:

Resumen

Probabilidad y Estadsticas

Pgina 41 de 64

( X i )2

2
i 1
Tiene una distribucin x2 con n grados de libertad. Es muy simple observar que, en las
mismas condiciones, la variable aleatoria:
n
( xi x ) 2
(n 1) S 2

2
2
i 1
Tiene una distribucin c2 con n -1 grados de libertad. Se puede indicar que, cuando m
no se conoce y se considera la distribucin de:
n
( xi x ) 2

2
i 1
Existe un grado de libertad menos, o se pierde un grado de libertad en la estimacin de
(es decir, cuando es reemplazada por x ). Cuando los datos (los valores en la
muestra) se utilizan para calcular la media, hay 1 grado de libertad menos en la
informacin utilizada para estimar 2.
n

Aproximaciones entre distribuciones continuas


1 Aproximacin de la distribucin T-Student por la distribucin Normal: si n>30 se
cumple que tn-1 se distribuye aproximadamente como una normal tpica Z
2 Aproximacin de la distribucin Chi-cuadrado por la distribucin Normal:
a) Para clculos de probabilidades: si n>30 se cumple que la distribucin Chi-cuadrado
con n-1 grados de libertad se distribuye aproximadamente como una normal con
esperanza matemtica n-1 y desvo standard [2.(n-1)] 1/2
b) Para clculos de percentiles: si n>30 el percentil p de la distribucin Chi-cuadrado
con n-1 grados de libertad se puede aproximar por la expresin 1/2.[z p + (2.n-3)1/2]2.

7. DISTRIBUCIONES EN EL MUESTREO
El muestreo estadstico
El muestreo estadstico es un enfoque sistemtico para seleccionar unos cuantos
elementos (una muestra) de un grupo de datos (una poblacin), a fin de hacer algunas
inferencias sobre el total.
Razones del muestreo
Probar el producto ntegramente lo destruye a menudo, adems de ser innecesario.
Para averiguar las caractersticas de un todo, basta muestrear una parte de l.
Podemos mencionar entre las principales razones para realizar el muestreo a las
siguientes:
a)Ensayos de tipo destructivo.
b)Imposibilidad de conocer todas las unidades elementales que componen la
poblacin.
c)Tiempo que insume analizar la poblacin completa cuando su tamao es muy
grande.
d)Alto costo que a veces implica relevar los datos.
Censo y muestra
En ocasiones, es posible y prctico examinar a todas las personas o miembros de la
poblacin que deseamos describir. A esto lo llamamos enumeracin completa o censo. Recurrimos al muestreo cuando no es posible contar o medir cada elemento de la poblacin. Los estadsticos usan la palabra "poblacin" para designar no

Resumen

Probabilidad y Estadsticas

Pgina 42 de 64

slo a las personas, sino a todos los elementos, que han sido escogidos para ser
estudiados.
Estadsticos y parmetros
Desde el punto de vista matemtico, podemos describir las muestras y poblaciones
mediante medidas como la media, la mediana, el modo y la desviacin estndar.
Cuando estos trminos describen las caractersticas de una muestra, se les llama
estadsticos. Cuando describen las caractersticas de una poblacin, reciben el nombre
de parmetros. El estadstico es una caracterstica de la muestra; el parmetro es una
caracterstica de la poblacin.
Para ser
Definicin

Poblacin: P
Grupo de elementos
que van a ser
"Parmetros"

Medidas
caracterstica
Smbolos
Tamao de la
poblacin: N Media
poblacional:
Desviacin estndar

Muestra: M
Parte o porcin de la
poblacin seleccionada
"Estadsticos"
Tamao de la muestra: n
Media muestral: x
Desviacin estndar de la
muestra: S

Muestreo de juicio y muestreo probabilstico


Se dispone de dos mtodos para seleccionar las muestras de poblaciones: muestreo
no aleatorio o de juicio y muestreo aleatorio o probabilstico. En el muestreo
probabilstico, todos los elementos de la poblacin tienen posibilidad de figurar en la
muestra. En el muestreo de juicio, se usan el conocimiento y la opinin personal para
identificar los elementos de la poblacin que van a incluirse en la muestra.
Una muestra seleccionada por muestreo de juicio se basa en el conocimiento de la
poblacin por parte de alguien. Por ejemplo, un analista econmico sabr, por
experiencia, qu acciones deben tenerse en cuenta para conocer el movimiento de las
tasas de inversin en el mundo. En ocasiones, el muestreo de juicio sirve de muestra
piloto para decidir cmo seleccionar despus una muestra aleatoria. Nos ahorra,
adems, el anlisis estadstico que es indispensable efectuar para tomar muestras
probabilsticas. El muestreo de juicio es ms adecuado y da buenos resultados, aun
cuando no sea posible medir su validez. Pero, si en un estudio se aplica este mtodo y
se pierde un grado significativo de "representatividad", habr que pagar un alto precio
por la comodidad. Puede decirse que una gran ventaja del muestreo aleatorio es que
permite aplicar mtodos de Inferencia estadstica a los datos, mientras que el muestreo
de juicio no lo permiten.
Generalmente, una muestra pequea no arroja buenos resultados
No podemos estar seguros sin ms informacin completa o sin una investigacin
realizada basndonos en encuestas estadsticamente bien realizadas. Sin embargo, s
podemos estar alertas ante el riesgo que corremos cuando no pedimos informacin
complementaria. La persona que conoce el problema del muestreo estadstico puede
estar alerta para no dejarse convencer rpidamente y solicitar ms informacin.
Distintos tipos de muestreo aleatorio
Muestreo aleatorio simple
En el muestreo aleatorio simple, se seleccionan las muestras mediante mtodos que
permiten a

Resumen

Probabilidad y Estadsticas

Pgina 43 de 64

cada muestra posible tener igual probabilidad de ser seleccionada y a cada elemento
de la poblacin entera tener igual probabilidad de quedar incluido en la muestra.
Por finita entendemos la poblacin que posee un tamao formulado o limitado, es decir,
hay un nmero entero (N) que nos indica cuntos elementos existen en la poblacin.
La poblacin infinita es aquella en que, tericamente, es imposible observar todos los
elementos. As pues, en la prctica emplearemos la expresin "poblacin infinita"
cuando hablemos de una poblacin que no puede ser enumerada en un perodo
razonable. De este modo, usaremos el concepto terico de "poblacin infinita" como
una aproximacin de una gran poblacin finita.
Cmo hacer el muestreo aleatorio
La forma ms fcil de seleccionar una muestra al azar consiste en usar nmeros
aleatorios, los cuales pueden generarse con una computadora programada para
mezclar nmeros o con una tabla de nmeros aleatorios.
Empleo de una tabla de nmeros aleatorios
a)Pasamos de la parte superior a la parte inferior de las columnas, comenzando con la
columna de la izquierda, y leemos slo los dos primeros dgitos de cada rengln. Es
decir que leemos la tabla por columnas.
b)Si llegamos a la parte inferior de la ltima columna de la derecha y todava no
obtuvimos nuestros 10 nmeros deseados de dos dgitos de 99 y menos, podemos
volver al inicio (la parte superior de la columna de la izquierda) y comenzar a leer los
dgitos tercero y cuarto de cada nmero.
Muestreo sistemtico
En el muestreo sistemtico, los elementos se seleccionan de la poblacin con un
intervalo uniforme, que se mide en el tiempo, en el orden o en el espacio.
Si quisiramos entrevistar a todo vigsimo estudiante de un campus universitario, por
ejemplo, escogeramos un punto aleatorio de arranque en los primeros veinte nombres
en el directorio del alumnado, y luego seleccionaramos cada vigsimo nombre. En este
caso veinte es el llamado intervalo de muestreo. En general, este valor SE simboliza
con k y se calcula como el cociente entre el tamao de la poblacin y el tamao de la
muestra, es decir, k = N/n.
Caractersticas del muestreo sistemtico
El muestreo sistemtico difiere del muestreo aleatorio simple en que cada elemento
tiene iguales posibilidades de ser seleccionado, pero cada muestra no tiene esa misma
probabilidad.
Deficiencias del muestreo sistemtico
En el muestreo sistemtico, se corre el riesgo de introducir un error en el proceso
muestral.
El muestreo sistemtico tiene tambin sus ventajas. Aun cuando no sea apropiado si
los elementos presentan un patrn secuencial, tal vez requiera menos tiempo y,
algunas veces, cuesta menos que el simple mtodo de muestreo aleatorio.
Muestreo estratificado
Para aplicar el muestreo estratificado, dividimos la poblacin en grupos homogneos
relativos, llamados estratos. Despus recurrimos a uno de dos mtodos posibles:
seleccionamos al azar, en cada estrato, un nmero especificado de elementos
correspondiente a la proporcin del estrato de la poblacin total, o bien extraemos un
nmero igual de elementos de cada estrato y damos un peso a los resultados, de
acuerdo con la proporcin del estrato en la poblacin total. En uno y otro mtodo, el
muestreo estratificado garantiza que todos los elementos de la poblacin tengan una
Resumen

Probabilidad y Estadsticas

Pgina 44 de 64

posibilidad de ser seleccionados. El muestreo estratificado es adecuado cuando la


poblacin ya est dividida en grupos de diferentes tamaos, y queremos reconocer ese
hecho. La ventaja de las muestras estratificadas estriba, pues, en que, cuando se disean bien, reflejan ms exactamente las caractersticas de la poblacin de donde se
extrajeron que otras clases de muestreo.
Muestreo por conglomerados
En el muestreo por conglomerados, dividimos la poblacin en grupos o conglomerados
y luego seleccionamos una muestra aleatoria de ellos. Suponemos que esos
conglomerados son representativos de la poblacin entera.
Por ejemplo, si un equipo de investigacin de mercados est tratando de determinar,
por muestreo, el nmero promedio de televisores por familia en una gran ciudad, podra
utilizar un mapa de la misma para dividir el territorio en manzanas, y luego seleccionar
cierto nmero de manzanas (conglomerados) para realizar entrevistas. Cada familia
que habita en esas manzanas ser entrevistada.
Un procedimiento bien diseado de muestreo por conglomerados puede producir una
muestra ms precisa, a un costo mucho menor, que la de un simple muestreo aleatorio.
Comparacin entre los distintos tipos de muestreo
El muestreo sistemtico, el muestreo estratificado y el muestreo por conglomerados se
proponen aproximar al muestreo aleatorio simple] Todos son mtodos que han sido
ideados para lograr mayor precisin, un ahorro y un manejo fsico sencillo.
Definicin:
Sea X una variable aleatoria con cierta distribucin de probabilidades y sean X1,..., Xn n
variables aleatorias independientes, cada una con la misma distribucin que X,
llamamos entonces a (X1,,Xn) muestra aleatoria de la variable aleatoria X.
Establezcamos de una manera ms informal lo anterior: una muestra aleatoria de
tamao n de una variable aleatoria X corresponde a n mediciones repetidas de X,
hechas bsicamente en las mismas condiciones.
Por ejemplo, supngase que la variable aleatoria que se considera es X = "nmero de
llamadas que llegan a una central telefnica el mircoles entre las 4 PM y las 5 PM". A
fin de obtener una muestra aleatoria de X, posiblemente deberamos elegir n mircoles
al azar y anotar el valor de X1,Xn. Tendramos que estar seguros de que todos los
mircoles son mircoles "tpicos". Por ejemplo, podramos no incluir un mircoles
particular si coincide con Navidad.
Distribuciones en el muestreo
La distribucin de probabilidad de todas las medias posibles de las muestras es una
distribucin de medias mustrales. A esto, los estadsticos lo llaman distribucin
muestral de la media. Tambin podramos tener una distribucin de muestreo de una
proporcin. Hemos tomado un extenso nmero de dichas muestras. Si graficamos una
distribucin de probabilidad de las proporciones posibles en todas ellas, veremos una
distribucin de las proporciones mustrales. En Estadstica, a esto se le llama
distribucin muestral de la proporcin
Descripcin de las distribuciones de muestreo
Toda distribucin de probabilidad (y, por lo mismo, cualquier distribucin de muestreo)
puede describirse, en parte, mediante su media y su desviacin estndar.
Va tabla pag 200

Resumen

Probabilidad y Estadsticas

Pgina 45 de 64

En general, la distribucin muestral de un estadstico se podr describir mediante la


media y la desviacin estndar.

Concepto de error estndar


En vez de usar "la desviacin estndar de la distribucin de las medias mustrales"
para describir una distribucin de las medias mustrales, los estadsticos hablan del
error estndar de la media. De manera anloga, la "desviacin estndar de la distribucin de las proporciones mustrales" se abrevia en el error estndar de la proporcin.
Error por muestreo debido al azar, es decir, existen diferencias entre cada muestra y la
poblacin, lo mismo que entre varias muestras, debido exclusivamente a los elementos
que seleccionamos de ellas en forma aleatoria.
La desviacin estndar de la distribucin de las medias mustrales mide el grado en
que esperamos que las medias de las diferentes muestras varen por este error
accidental en el proceso de muestreo. Por consiguiente, la desviacin estndar de la
distribucin de un estadstico muestral recibe el nombre de error estndar del
estadstico.
Tamao del error estndar
El error estndar indica no slo el tamao del error accidental que se ha cometido, sino
adems la exactitud que seguramente alcanzaremos si usamos un estadstico muestral
para estimar un parmetro de la poblacin.
Sin embargo, algn cuidado deber, tenerse para asegurarnos de obtener, en realidad,
una muestra aleatoria.
Distribuciones tericas de muestreo
En la terminologa estadstica, la distribucin de muestreo que obtenemos al tomar
todas las muestras de determinado tamao es una distribucin terica de muestreo.
Los expertos en Estadstica han desarrollado frmulas para estimar las caractersticas
de estas distribuciones mustrales tericas, haciendo innecesario reunir grandes
nmeros de muestras. En la generalidad de los casos, basta extraer una sola muestra
de la poblacin, calcular sus estadsticos y, a partir de ellos, inferir algo sobre los
parmetros de la poblacin entera.
Distribucin en el muestreo
Distribucin en el muestreo de la media
La primera, que corresponde a la parte (a) de la figura, muestra una distribucin de la
poblacin, suponiendo que la misma est constituida por todas las medidas de los
espesores de lminas de acero fabricadas por una compaa. La distribucin de dichos
espesores tiene una media y una desviacin estndar .
Supngase que, de alguna manera, podemos tomar todas las muestras posibles de
tamao 10 procedentes de la poblacin (en realidad, habra demasiadas para poder
incluirlas a todas). A continuacin, calculamos la media y la desviacin estndar de
Resumen

Probabilidad y Estadsticas

Pgina 46 de 64

cada una de estas muestras, representadas en la parte (b) de la figura. En


consecuencia, cada muestra tendr su propia media y su propia desviacin estndar.
Ninguna de las medias mustrales individuales ser la misma que la media de la
poblacin: tendern a estar cerca de sta, pero rara vez sern exactamente ese valor.
En el ltimo paso, produciremos una distribucin de todas las medias de cada muestra
que pueda tomarse. Esta distribucin, denominada distribucin muestra! de las medias,
es ilustrada en la parte (c) de la figura. Dicha distribucin de la media muestral tendr
su propia media y su propia desviacin o error estndar.
Distribucin de la poblacin:
Representa los espesores de todas las lminas de acero
fabricadas por la

compaa.
Tiene:
= media de la distribucin.
= desviacin estndar de la distribucin.
Si, de alguna manera, pudiramos tomar todas las muestras posibles de determinado
tamao en esta distribucin de la poblacin y calcular su media y desviacin estndar,
algunas de las posibles distribuciones podran representarse grficamente como sigue.

Distribuciones mustrales de frecuencia:


Estas son algunas de las posibles distribuciones
mustrales.
Cada una es una distribucin discreta y tiene:
x = su propia media aritmtica S = su propia desviacin
estndar

Ahora bien, si pudiramos tomar las medias de todas


las distribuciones mustrales y producir una
distribucin de las mismas, la representacin grfica
sera la que sigue a continuacin.
Distribucin de muestreo de la media: Representa a
todas las medias mustrales y tiene x =media de la
distribucin muestral de las media x = error estndar de la media (desviacin estndar
de la distribucin muestral de las medias)
Resumen

Probabilidad y Estadsticas

Pgina 47 de 64

Valores caractersticos de la media


a)El valor esperado de la media muestral es igual a la esperanza de la poblacin de la cual
se seleccionaron las muestras aleatorias.
E( X )
b)La desviacin estndar de la media muestral es igual a la desviacin estndar de la
poblacin, dividida por la raz cuadrada del tamao de la muestra.
Sin reposicin D( X ) / n
N n
N 1
El incremento en el tamao de la muestra conduce a una distribucin de muestreo ms
normal.

Con reposicin D( X ) / n *

Teorema del lmite central


La relacin existente entre la forma de la distribucin de la poblacin y la forma de la
distribucin muestral de la media recibe el nombre de teorema del lmite central. Este
teorema es, acaso, el ms importante de todos en la Inferencia Estadstica; garantiza que
la distribucin muestral de la media se acerque a la distribucin normal a medida que
crece el tamao de la muestra.
Los estadsticos recurren a la distribucin normal como una aproximacin de la distribucin
muestral siempre que el tamao de la muestra sea 30, por lo menos, pero la distribucin
muestral de la media puede ser casi normal con las muestras que tengan incluso la mitad
de ese tamao. La importancia del teorema del lmite central radica en que nos permite
usar el estadstico muestral para hacer inferencias sobre los parmetros de la
poblacin, sin conocer nada sobre la forma de la distribucin de probabilidades de esa
poblacin, salvo la informacin que logremos recabar de la muestra.
Teorema del lmite central
Si x es la variable aleatoria que resulta al seleccionar muestras de tamao n de una
poblacin cualquiera y calcular sus medias aritmticas, entonces la distribucin de x
es aproximadamente normal cuando n , siendo:
E( X ) y x / n
Donde es la esperanza de la poblacin y es la desviacin tpica de la misma.
Relacin entre el tamao de la muestra y el error estndar
Conforme decrece el error estndar, aumenta la precisin con que la media muestral
puede emplearse para estimar la media de la poblacin. Un estadstico dira lo
siguiente: "el aumento de la precisin no justifica el incremento adicional en el costo del
muestreo". En trminos estadsticos, rara vez conviene extraer muestras
excesivamente grandes.
Distribucin en el muestreo de la proporcin
Con frecuencia, es necesario hacer una estimacin de una proporcin de poblacin.
Por ejemplo: la estimacin del porcentaje de artculos defectuosos en un lote, el
porcentaje de personas que miran un programa de TV, el porcentaje de personas
desocupadas en un rea geogrfica determinada, etc. A la proporcin de la poblacin la
designaremos con:
= k/N Siendo:
k: el nmero de elementos que poseen el rasgo o caracterstica en estudio.
Resumen

Probabilidad y Estadsticas

Pgina 48 de 64

N: el nmero total de unidades de la poblacin.


El estadstico que generalmente se utiliza para estimar la proporcin de la poblacin es
la proporcin de la muestra:
p = x/n
Siendo:
x: el nmero de unidades de la muestra que poseen la caracterstica en estudio.
n: el tamao de la muestra.
Muestreo con reposicin
Obedece a una ley de probabilidad binomial
E ( p ) ( para los dos casos)
p [ (1 )]/ n
Muestreo sin reposicin
Obedece a una ley de probabilidad hipergeomtrica.
p [ (1 )]/ n * ( N n) /( N 1) (por el factor de correccin de la poblacin finita)
Pero, si la muestra es pequea con relacin a la poblacin (n < 5% de N), el factor de
correccin se aproxima a 1 y puede calcularse p sin l.
Por lo tanto, para un n suficientemente grande, es vlido el teorema central del lmite,
p ~ N(, p) donde Z = (p - ) I p ~ N(0,1)
Regla emprica
La aproximacin normal es buena cuando n. y n (1 - ) son > 5.
Distribucin en el muestreo de la variancia
Si consideramos como variable aleatoria al estadstico S2, nos interesa calcular su
esperanza, o sea, E(S2).
A S2 lo escribimos de la siguiente manera:
S

(x )

n( x ) 2

1/ n ( xi ) 2 n( x ) 2

Aplicando la esperanza
E ( S 2 ) 2 2 / n (n * 2 2 ) / n [(n 1) / n] 2
Vemos que E(S2) 2. Para que S2 sea un buen estimador de 2, ms adelante veremos que uno de los requisitos que debe cumplir es que sea insesgado, o sea
)
E

Analizaremos esta situacin en nuestra frmula:


a) Si n es grande (n > 30):
Si n (n 1) / n 1 1/ n 1 talque.E ( S 2 ) 2
b) Si n es chico (n < 30), se hara necesario corregir el sesgo ya que:
S i n (n 1) / n 1 1/ n 1 talque.E ( S 2 ) 2 Para corregir el sesgo,
establecemos la siguiente frmula:
( xi x ) 2
2
E

n 1

A la variancia as definida (es decir, con n - 1 en el denominador) la llamaremos


variancia muestral corregida y la simbolizaremos S'2.
En lugar de hallar la distribucin muestral de S 2 o S'2, es conveniente hallar la
distribucin muestral de una variable aleatoria relacionada:
Resumen

Probabilidad y Estadsticas

2
Que se distribuye como n 1

Pgina 49 de 64

n * S 2 (n 1) S2
2
2

(x )
i

~ n

Pero, si en el clculo de c2 no conocemos el valor de m, lo podemos estimar usando el


promedio muestral, y nos queda:
1
( xi x ) 2 ~ n21 (*)
2

Los grados de libertad son n - 1 porque hemos impuesto la condicin de que x y, al


imponer una condicin, tenemos un grado de libertad menos. Haciendo:
( xi x ) 2

2
S
n * S 2 ( xi x ) 2
n
( xi x ) 2

2
S
n 1 * S2 ( xi x ) 2
n 1
Y reemplazando en (*) nos queda:
n*S2
2
~ n 1
2

n 1 * S2 ~ 2
n 1
2
2

8. ESTIMACIN DE PARMETROS
Cuando estimamos parmetros, hacemos inferencias respecto de las caractersticas de la
poblacin a partir de la informacin contenida en las muestras.
Se pueden realizar dos tipos de estimaciones:

Realizamos una estimacin puntual si, a partir de las observaciones de la muestra, se


calcula un solo valor como estimacin de un parmetro de poblacin desconocido.
Podemos advertir que una estimacin puntual tiene como inconveniente que no nos da
ningn margen de error y, por lo tanto, no podemos decir nada sobre la confiabilidad de
la estimacin. La estimacin puntual es mucho ms til si se le agrega la informacin
adicional de la estimacin del error que puede haber. Esta informacin adicional nos la
da el clculo de un intervalo de confianza:
La estimacin por intervalo de confianza nos permite encontrar un intervalo que
comprenda a un parmetro de una poblacin, midiendo el error de dos formas: por la
amplitud del intervalo y por la probabilidad de que el intervalo cubra al verdadero
parmetro de la poblacin.
Estimacin puntual
Si, a partir de las observaciones de una muestra, se calcula un solo valor como
estimacin de un parmetro de poblacin desconocido, el procedimiento se llama

Resumen

Probabilidad y Estadsticas

Pgina 50 de 64

estimacin puntual, ya que se utiliza como estimacin un solo punto del conjunto de
todos los posibles valores.
Para poder utilizar la informacin que se tenga de la mejor manera posible, se necesita
identificar los estadsticos que sean buenos estimadores. Hay cuatro propiedades que
debe cumplir un buen estimador
Estimador insesgado
)
estimador de es una variable aleatoria y, por lo tanto, tiene una distribucin de
probabilidad con su media y variancia. Entonces, se puede definir un estimador
insesgado diciendo:
)
Si se utiliza un estadstico muestral para estimar el parmetro de poblacin , se dice
)
)
que es un estimador insesgado de si E
O sea que, es de esperar que, si se toman muchas muestras de igual tamao, a partir de la
)
misma poblacin, y si de cada una se obtiene un valor de , la media de todos los valores
)
de ha de estar muy cerca de .

Estimador eficiente
Si se utilizan dos estadsticos como estimadores del mismo parmetro, entonces aqul
cuya distribucin muestral tenga menos error tpico es un estimador ms eficiente que el
otro. El mas eficiente es el que tenga menor error tpico.
Conclusin: Es natural que un estimador con un error estndar menor (con menos
variacin) tenga mayores probabilidades de producir una estimacin ms cercana al
parmetro que estamos queriendo estimar
Estimador consistente
)
Si es un estimador muestral calculado a partir de una muestra de tamao n y si es
)
el parmetro de poblacin que se va a estimar, entonces es un estimador
consistente de si para todo nmero positivo y arbitrariamente pequeo e se tiene:
)
P e 1 cuando n
)
Es decir, la probabilidad de que est a menos de cierta distancia e del parmetro
tiende a 1 al tender n a infinito.
Por ejemplo, se sabe que la media muestral y la variancia son estimadores consistentes. Pero, un estadstico muestral puede ser un estimador sin consistencia. Por
ejemplo, si el valor de la primera observacin, o la media entre la primera y ltima
observacin, de una muestra se utilizara para estimar la media de la poblacin, tal
estimador no sera consistente porque no tiende a acercarse ms y ms al valor de la
poblacin cuando se aumenta el tamao de la muestra. Algunos autores llaman a esta
propiedad congruencia del estimador.

Estimador suficiente
Un estimador suficiente del parmetro es el que agota toda la informacin pertinente
sobre 6 que se pueda disponer en la muestra.
La media muestral, la proporcin muestral y la forma corregida de la variancia muestral
son estadsticos que satisfacen los criterios o propiedades de "buenos" estimadores.
En el siguiente cuadro presentamos un resumen de parmetros y estimadores
puntuales:
Poblacin: P
Parmetros

Muestra: M
Estadsticos (estimadores
Resumen

Probabilidad y Estadsticas

Pgina 51 de 64

x
S2 o S'2
S o S
P

Estimacin por intervalos de confianza


El procedimiento de determinar un intervalo [l i;ls] que comprenda a un parmetro de
poblacin con cierta probabilidad 1 - se llama estimacin por intervalo de
confianza. Esta probabilidad indica, pues, la confianza que tenemos de que la estimacin por intervalo comprenda al parmetro de la poblacin; una probabilidad mayor
significa ms confianza en la estimacin. Los niveles de confianza ms utilizados son:
0.90, 0.95 y 0.99, es decir, 90, 95 y 99%. A (1 - ) se lo denomina el coeficiente o nivel
de confianza de la estimacin.
Por lo que ya vimos en la distribucin en el muestreo de la media, hay una probabilidad
de aproximadamente el 95.50% de que la media de una muestra se encuentre dentro
de dos errores estndares positivos y negativos de la media de la poblacin.

Analizaremos intervalos de confianza para la media poblacional, la proporcin


poblacional y la variancia poblacional.
Intervalo de confianza para la media poblacional n Distinguiremos diferentes casos
segn
La distribucin de la poblacin (si es normal o no).
La desviacin tpica de la poblacin (si es conocida o no).
El tamao de la muestra (si es pequea o grande).
1) Si la poblacin es normal y...
a) ... es conocido

El intervalo de confianza para es x z1 / n ; x z1 / n donde z1 z1 / 2


Colocaremos la variable, por ejemplo z, y como subndice el rea que sta deja por
debajo, por ejemplo z es el valor de la variable tipificada normal que deja por debajo
un rea , es decir, que la P (z z) = .
Grficamente:

Resumen

Probabilidad y Estadsticas

Pgina 52 de 64

Representando grficamente la P {-z1< z < z1} = 1 - , tenemos:

Luego, el intervalo para la media poblacional de una poblacin normal con variancia
conocida es:

x z1

Correccin: En el caso en que las muestras se tomen sin reposicin de una poblacin
finita de tamao N, debe emplearse el factor de correccin finita y el intervalo ser:

x z1

N n

N n
.
;x z
.

1
N

1
n N 1
n
2

Tamao ptimo de la Muestra:

e Donde z z1 / 2 ,
n
Determina el error del muestreo, nos indica la precisin de la estimacin.
Pero z depende del valor de y, al hacer mayor el coeficiente de confianza 1 - , el valor de
z ser mayor y, por lo tanto, el error e aumentar. Esto se puede regular aumentando el
tamao de la muestra, con lo que el error disminuir.

e n z
Si z
e
n
z.

z 2 . 2
e2

b) ... es desconocido
Si o es desconocido, no podemos utilizar z

x
/ n

x
/ n
Pero esta variable del denominador es diferente para cada media de la muestra.
y lo reemplazamos por z

La distribucin t de Student es adecuada para las inferencias relacionadas con la


media cuando no se conoce y la poblacin est normalmente distribuida,
cualquiera fuese el tamao de la muestra.
Resumen

Probabilidad y Estadsticas

Pgina 53 de 64

Sin embargo, a medida que aumenta el tamao de la muestra, la distribucin t se


acerca en su forma a la normal. (Una ~ t puede ser aproximada por una normal cuando
n 30.)
Luego, segn sea el valor de n, tendremos dos casos diferentes:
b1) Si a es desconocido y n > 30
Se utiliza la distribucin normal como aproximacin de t .
Entonces, en este caso el intervalo de confianza para ser:

S
S
P x z
x z 1
1
1
n
n

2
2
b2) Si o es desconocido y n pequeo (generalmente < 30)
Para estimar debemos utilizar el desvo estndar muestral corregido
S

(x x )

n 1
Por lo tanto, el intervalo de confianza para ser:

o bien:

S
S
P x t
x t 1
1
1
n
n

2
2
S
S

P x tn 1
x tn 1
1
n 1
n 1

2) Si la poblacin no es normal y...


a)
... conocido, el intervalo de confianza para m ser:

P x z
x z 1
1
1
n
n

2
2

P x t
x t 1
1
1
n
n

2
2

si n >30
si n < 30

b)

... desconocido y n > 30, el intervalo de confianza para ser:


S
S

P x z1
x z1 1 , donde z1 z1 / 2 . Se utiliza el teorema central del
n
n

lmite y Z como una aproximacin de t.


c)
Cuando la muestra es pequea y se supone que la poblacin no est normalmente
distribuida y es desconocido, no se puede utilizar ni la distribucin normal ni la t de
Student para construir un intervalo de confianza para , debiendo recurrirse en este
caso a la desigualdad de Chebyshev para obtener una aproximacin del intervalo de
confianza.
Intervalo de confianza para la proporcin poblacional
Resumen

Probabilidad y Estadsticas

Pgina 54 de 64

El procedimiento para estimar una proporcin poblacional es similar al de estimar una


media poblacional, o sea:
a)Debemos encontrar la proporcin de la muestra p, que es un estimador puntual de
y posee las propiedades de un buen estimador.
b)Debemos calcular el error estndar de la proporcin, o sea, p.

(1 ) N n
(Sin reposicin)
.
n
N 1
(1 )
(Con reposicin)
p
n

Pero si p es desconocido y el muestreo es con reposicin y, a su vez, depende de ,


que es el parmetro que deseamos estimar, dicha expresin no nos sirve y debemos
estimar p a travs de los valores mustrales.
p (1 p)
(Estimacin insesgada cuando n es grande; n 30)
Sp
n
Cuando se hace muestreo sin reposicin, el desvo estndar debe ser calculado con el
factor de correccin finito:
p (1 p) N n
Sp

n
N 1
Debera tenerse en cuenta que, cuando Sp, una estimacin puntual de p, es usada
para obtener una estimacin del intervalo de una proporcin poblacional , el tamao
de la muestra deber ser suficientemente grande a fin de usar la distribucin normal.
De otro modo, deber usarse la distribucin binomial.
Si n. y n(1- ) > 5 se usa la distribucin normal
Intervalo de Confianza para :

(1 )
n
Los lmites de confianza para el caso de ser n suficientemente grande son:
E ( p) y p

p z1 / 2 .

p (1 p)
p (1 p )
; p z1 / 2 .

n
n

Si el muestreo es sin reposicin sobre una poblacin finita de N elementos, entonces


los lmites de confianza para p resultan ser:

p z1 / 2 .

p (1 p) N n
p (1 p ) N n
.
; p z1 / 2 .
.

n
N 1
n
N 1

Determinacin del Tamao ptimo de Muestra


e = z. p determina el error de muestreo, o sea, la diferencia entre una proporcin
muestral p y la proporcin poblacional.Reemplazando, si
z 2 (1 )
(1 )
(1 )
p
e z.
n 1 / 2 2
n
n
e
Cuando no tenemos a usamos informacin del pasado y si no, suponemos /2
Resumen

Probabilidad y Estadsticas

Pgina 55 de 64

Intervalo de confianza para la variancia poblacional


Habamos visto que:
nS 2
2
~ n 1
2

2
Como es una distribucin asimtrica, entonces, para determinar su intervalo de
confianza para 2, fijado 1-, debemos establecer la probabilidad siguiente:
P a n21 b 1 y despus de operar y utilizar la tabla de 2 obtenemos:

2
2
2
1
n.S
n
.

S
P 2

2 2
1
P 2
2
2



1 ;n 1 n.S

; n 1
1 ; n 1
; n 1

2
2

2
2
Observacin: el intervalo de confianza del desvo poblacional es:

n.S 2
n.S 2

P

1
2
2

1 ;n 1
; n 1
2
2

9. PRUEBA DE HIPTESIS
Conceptos bsicos de las pruebas de hiptesis
En el procedimiento denominado prueba de hiptesis trataremos de determinar cundo
es razonable concluir, a partir del anlisis de una muestra aleatoria, que la poblacin
entera posee determinada propiedad, y cundo no es razonable llegar a tal conclusin.
Tales decisiones se denominan decisiones estadsticas.
Las desviaciones "grandes" se conocen como desviaciones significantes, ya que el hecho
de que stas ocurran significa que se necesita alguna otra razn que explique los
resultados del muestreo.
Una hiptesis estadstica es una afirmacin o conjetura acerca de una o ms poblaciones.
Pueden definirse como explicaciones tentativas del fenmeno investigado, formuladas a
manera de proposiciones.
La prueba de hiptesis estadstica es el proceso que permite tomar una decisin con
respecto a una hiptesis.
Para que una hiptesis sea digna de tomarse en cuenta para la investigacin cientfica deben
existir tcnicas adecuadas para probarla. Al formular una hiptesis, tenemos que analizar si
existen tcnicas o herramientas de la investigacin (instrumentos para recolectar datos,
diseos, anlisis estadsticos o cualitativos, etc.) para poder verificarla, si es posible
desarrollarlas y si se encuentran a nuestro alcance.
Las dos hiptesis presentes en un proceso de toma de decisin se denominan hiptesis
nula e hiptesis alternativa. Cuando estamos probando hiptesis acerca del valor de un
parmetro, la hiptesis nula, por lo general, es una afirmacin sobre un valor especfico del
parmetro. sta se denomina as porque es el "punto inicial" de la investigacin (en su
interpretacin se suele decir "no hay diferencia con el valor supuesto del parmetro 0",
de ah el nombre de hiptesis nula).
Se simboliza con H0, La hiptesis alternativa es una afirmacin que especifica que el
parmetro de la poblacin tiene un valor diferente al proporcionado en la hiptesis
nula. Se simboliza con H1.

Resumen

Probabilidad y Estadsticas

Pgina 56 de 64

Hiptesis estadstica de estimacin:


Son diseadas para evaluar la suposicin de un investigador respecto al valor de algn
parmetro de poblacin. En este caso, se calcula un estadstico muestral (que estime
correctamente al parmetro de poblacin de nuestra hiptesis) y se compara el
estadstico con el parmetro que propone la hiptesis.
Hiptesis estadstica de correlacin:
El sentido de estas hiptesis es el de traducir una correlacin entre dos o ms variables en
trminos estadsticos. Por ejemplo, si decimos: "quienes obtienen puntuaciones ms altas
en el examen de Algebra tienden a tener las puntuaciones ms elevadas en el examen de
Estadstica".
Esto ocurre en la correlacin mas no en la relacin de causalidad, en donde s importa el
orden de las variables.
Hiptesis estadstica de diferencia de parmetros:
En este tipo de hiptesis se compara un mismo parmetro entre dos o ms poblaciones.
Es decir, un investigador tiene una suposicin que luego convierte en hiptesis de
investigacin y, a continuacin, en hiptesis estadstica.
Nosotros presentaremos en este texto solamente hiptesis estadsticas de estimacin.
Errores de decisin: errores tipo I y II
Al tomar una decisin sobre una hiptesis, se pueden cometer dos tipos de errores:
Error tipo I: Es aquel que se comete cuando se rechaza una hiptesis que debera ser
aceptada. La probabilidad de cometerlo se designa con = P(E I) = P(Rechazar H0/H0 es
Verdadero).
Error tipo II: Es aquel que se comete cuando se acepta una hiptesis que debera ser
rechazada. La probabilidad de cometerlo se designa con = P(E II) = P(Aceptar H0 / H0
es Falsa).
Tengamos presente que, cuando se realizan tests de prueba estadsticos, estamos
sacando conclusiones sobre una poblacin basndonos en informacin extrada a
partir de una muestra.
Al error tipo I actualmente se lo llama falso positivo; ocurre cuando no existe realmente
diferencia en el valor del estadstico que plantea la H 0.
El error tipo II o falso negativo se comete cuando efectivamente hay diferencia en la
poblacin, pero el test estadstico de muestra no da significativo, llevando a una
conclusin falsa de no efecto o no relacin. Para explicarlo brevemente, un verdadero
efecto permanece sin ser descubierto.
La nica forma de reducir al mismo tiempo ambos tipos de errores es incrementar el tamao muestral.
Si n es fijo: decrece crece (y viceversa)
Si n crece: y decrecen.
Llamamos nivel de significacin, y lo denotaremos por a, a la probabilidad mxima con
la que se puede cometer un error del tipo I en el ensayo de una hiptesis.
En general se toma = 0.01 o a = 0.05.
El mximo, cuando se permite que el valor crtico O + c vare, tambin se denomina
extensin del test.
Resumen

Probabilidad y Estadsticas

Pgina 57 de 64

Cuando se establece un procedimiento de prueba para investigar estadsticamente la


factibilidad de una hiptesis enunciada, existen muchos factores que deben ser
considerados. Aceptando que se ha hecho un enunciado claro del problema y que las
hiptesis asociadas se han expresado en trminos matemticos, dichos factores son:
a) La naturaleza del experimento que producir los datos debe ser definida.
b) La prueba estadstica debe ser seleccionada. Esto es, el mtodo para analizar los
datos debe ser seleccionado.
c)La naturaleza de la regin crtica debe ser establecida.
d) El tamao de la regin crtica () debe ser elegido.
e) Cuando menos para un valor de , distinto del valor de especificado por H 0,
deber asignrsele un valor a (). Esto es equivalente a establecer qu diferencia
debe detectarse entre el valor supuesto del parmetro y el valor verdadero, y con qu
probabilidad debemos confiar en detectarlo.
f) El tamao de la muestra (esto es, el nmero de veces que se efectuarn las
observaciones o el nmero de observaciones) debe ser determinado.
Clasificacin de los ensayos o pruebas de hiptesis
1 0 .....Bilateral (a )

1 0 .....Unilateral..Derecha (b1 )
1 0 .....Unilateral..Izquierda (b2 )

Error tipo I y II
La cantidad = 1 - se llama potencia del test sera la probabilidad de no cometer error
tipo II.
Podemos resumirlo en el siguiente cuadro:

Resumen

Probabilidad y Estadsticas

Pgina 58 de 64

En el grfico anterior se observa claramente que, a medida que uno crece, el otro
decrece. En la prctica se procede de la manera siguiente: primero se escoge , luego
determinamos c y por ltimo calculamos . Si b resulta tan grande como para que la
potencia = 1 - sea pequea, se debe repetir la prueba escogiendo un mayor.
Prueba de hiptesis para la media poblacional con conocida (n > 30; el
teorema central del lmite es vlido)
Se utilizan las frmulas del apndice para realizar los clculos.

Pasos de un test de hiptesis


Se considera apropiado en este momento resumir los diferentes pasos a seguir en un
procedimiento para prueba de hiptesis:
a) Establecer la hiptesis nula H0 de que = 0.
b) Seleccionar una hiptesis alternativa apropiada H1 de una de las alternativas
posibles: < 0, > 0 o o.
c) Seleccionar un nivel de significacin de tamao .
d) Seleccionar el estadstico de prueba apropiado y establecer la regin crtica. (Si la
decisin se va a basar en un valor P no es necesario establecer la regin crtica.)
e) Calcular el valor del estadstico de prueba de los datos mustrales.
f) Decidir rechazar H0 si el estadstico de prueba tiene un valor en la regin crtica (o
si el valor calculado de P es menor o igual que el nivel de significacin deseado
); de otra forma, no rechazar H0.
Prueba de hiptesis acerca de una proporcin de poblacin
En este caso, nos interesamos en verificar un supuesto acerca de la proporcin de
xitos en la poblacin: 71.
Luego, desearamos probar la hiptesis = 0 con la proporcin de la muestra p como
estadstica de prueba.

(1 )
n
p 0
: N (0,1)
La estadstica de la prueba es z
p
Planteamos los tres casos como hicimos con la media poblacional. Y utilizamos las
frmulas del apndice.
Recordemos que: E ( p ) y p

Prueba de hiptesis acerca de la variancia de una poblacin


Resumen

Probabilidad y Estadsticas

Pgina 59 de 64

Utilizamos las frmulas del apndice

10. REGRESIN Y CORRELACIN. ASOCIACIN ENTRE


VARIABLES MEDIDAS A NIVEL DE INTERVALO O DE
RAZN
Resumen
Si de cada unidad estadstica efectuamos dos mediciones entonces queda defini
da una poblacin bivariable.
Dada una poblacin bivariable (X;Y) pueden ocurrir tres casos al respecto:
1) Que no exista ninguna relacin entre ellas.
2) Que exista una relacin funcional entre ambas.
3) Que no exista una relacin funcional entre X e Y, pero que s podamos ver una cierta
dependencia estadstica (no matemtica, es decir ms dbil) entre esas dos variables.
En materia de prediccin, a pesar de que los valores de Y pueden ser estimados
mediante una lnea de regresin a mano alzada, la precisin de nuestras predicciones
es mejor si usamos una lnea de regresin de mnimos cuadrados, definida como una
lnea que mejor ajusta los datos minimizando la variacin en Y.
Usando la frmula que define la lnea de regresin de mnimos cuadrados
Y = a + b X.
El coeficiente r de Pearson es una estadstica que mide la asociacin lineal entre X e Y.
Podemos obtener mayor informacin sobre la asociacin entre variables medidas en
escala intervalar o de razn que para las variables medidas en escala norminal u
ordinal.
Introduccin
Para analizar las relaciones entre varias variables.
Dispersiogramas o diagramas de dispersin
En Excel: ASISTENTE PARA GRAFICOSXY DISPERSIN
Los dispersiogramas o diagramas de dispersin son una tcnica de representaciones
grficas que funcionan de una forma anloga a la de una tabla bivariada o de doble
entrada, ya que permite al investigador tener una rpida percepcin de importantes
aspectos de la relacin.
Para construir el dispersiograma, comience dibujando un sistema de ejes coordenados.
La variable X (variable independiente) sobre el eje de horizontal y la variable Y(esta
ltima se supone que es la variable dependiente). Luego ubique sus puntos datos en el
sistema de ejes coordenados dibujado. La relacin (X;Y) se marca con puntos.
El modelo de relacin entre las variables puede verse ms claro si dibujamos una lnea
recta tan cercana a los puntos cuanto sea posible. Esta lnea de resumen que se ha
dibujado en el diagrama de dispersin recibe el nombre de recta de regresin.
Para comprobar la existencia de una relacin recordemos que dos variables estn
asociadas si las distribuciones de Y cambian para las distintas condiciones de X. La
existencia de una asociacin es reforzada por el hecho de que la lnea de regresin
forma un ngulo no nulo con el eje X.Si estas dos variables no estuvieran asociadas,
las distribuciones condicionales de Y no cambiaran y la recta de regresin sera
paralela al eje X.
La direccin de la relacin puede verse observando el ngulo de la lnea de regresin
Resumen

Probabilidad y Estadsticas

Pgina 60 de 64

con respecto al eje X.


Para simplificar las cosas y por falta de tiempo para desarrollar ms contenidos en esta
parte vamos a suponer que entre las variables existe una relacin lineal.
Los puntos observados en el dispersiograma deben formar un modelo que puede
aproximarse mediante una lnea recta.
Regresin y prediccin
Un ltimo uso del diagrama de dispersin es para predecir valores de casos en una
variable a partir de su valor en la otra variable. Prolongando la lnea de regresin
podemos hacer esto: sobre el eje X se levanta una recta parelela al eje Y en el punto
que queremos. Esta interseccin entre la recta y la regresin da el valor de Y.
El valor predictivo en Y, que simbolizaremos Y para distinguir nuestras predicciones de
Y de los valores observados de Y.
Por supuesto que esta tcnica para calcular Y' es limitada. La limitacin ms seria de
esta tcnica de prediccin informal es que Y' puede cambiar de valor, dependiendo del
grado de aproximacin a los puntos que tenga la recta que dibujamos. Una forma de
eliminar esta fuente de error podra ser encontrar la lnea recta que mejor ajusta a los
puntos observados y por lo tanto que mejor describe la relacin entre las dos variables.
Recordemos nuestro criterio para trazar la lnea de regresin a mano alzada era que
dicha lnea toque todos los puntos o se acerque lo ms posible a ellos.
Dentro de la distribucin condicional de Y, podemos buscar un punto en torno del cual
la variacin se minimiza. Este punto de mnima variacin no es otro que la media de la
distribucin condicional de Y.
Vimos que la media de cualquier distribucin de datos es el punto en torno al cual la
desviacin de los valores, al cuadrado, es mnima.
( X i X )2 Minimo
Luego, si se ajusta la lnea de regresin, sta pasa por cada una de las medias de las
distribuciones condicionales de Y, con lo cual podemos tener una lnea recta que sea lo
ms cercana posible a todos los valores. Una lnea como esta minimizar las
desviaciones de los valores de Y porque contendr todas las medias condicionales de
Y, y la media de cualquier distribucin es el punto de variacin mnima.
Las medias condicionales se encuentran sumando todos los valores Y para cada valor
de X y luego dividiendo por la cantidad de valores sumados.
Ecuacin de la recta
Y= a + bX
Donde:
Y = valor en la variable dependiente
a = ordenada al origen, punto donde la lnea de regresin corta al eje Y
b = la pendiente de la recta de regresin, es la cantidad de aumento que se produce en
promedio en Y por una unidad de aumento en X
X = valor de la variable independiente
Esta frmula describe la recta de regresin de "mnimos cuadrados", o la recta de regresin
que mejor ajusta el modelo de los puntos datos. Esta frmula introduce dos nuevos
conceptos:
1. La ordenada al origen, Y, es el punto en el cual la recta de regresin corta al eje Y.
2. La pendiente b de la recta de regresin de mnimos cuadrados es la cantidad de cambio
producido en la variable dependiente Y por una unidad de cambio en la variable
independiente X. Piense en la pendiente de la recta de regresin como una medida del
efeto de la variable X en la variable Y,
A medida que el efecto de X en Y disminuye, disminuye la asociacin entre las variables y
Resumen

Probabilidad y Estadsticas

Pgina 61 de 64

el valor de la pendiente b disminuye. Si las dos variables no estn relacionadas, la recta de


regresin de mnimos cuadrados ser paralela al eje de abcisas, y b ser igual a 0, la recta
no tendra pendiente.
El clculo de a y b
b

( X X )(Y Y )
(X X )
2

El numerador de esta frmula es proporcional a la llamada covariacin de X e Y, la cual se


expresa mediante la frmula siguiente:
( X X )(Y Y )
COV ( X ; Y )
n
Es una medida de cmo X e Y varan juntos, y su valor reflejar tanto la direccin como la
fuerza de la relacin entre ambas variables. En lugar de la frmula de b anterior
usaremos otra que es ms accesible:
n XY X Y
b
2
n ( X 2 ) X
donde:
b = la pendiente
n = nmero de casos
X = la sumatoria de los valores de X

XY = sumatoria de los productos cruzados


Y = la sumatoria de los valores de Y
X = la sumatoria de los cuadrados de X
2

Es fcil de aplicar si se utiliza una tabla con rtulos: X, Y, X2, Y2, XY


En Clculo Diferencial, b es La derivada de la uncin Y = a + b.X con respecto a X
dY
b
dX
La aproximacin por incrementos nos da
Y
b
X
Calculo de a
a Y bX
Luego la ecuacin completa de la recta de regresin en nuestro caso, resulta: Y = a +
bX .Esta frmula puede utilizarse para estimar o predecir valores en Y para cualquier
valor dado de X.
Podemos decir que cuanto ms se ajusten los puntos a la recta de regresin de
mnimos cuadrados, ms seguros estaremos de nuestras predicciones de Y en Dicho
en otras palabras, designar las variables como dependientes o independientes se refiere
aqu al significado matemtico o funcional de dependencia; no implica dependencia
estadstica ni esquema causa-efecto.
Supuestos del modelo de regresin
En regresin, una relacin funcional no significa que, dado un valor de X, el valor de Y deba
ser a + b. X, sino ms bien que la esperanza matemtica de Y es a + b.X.
El ms comn de los modelos de regresin (el llamado modelo tipo I) est basado en
Resumen

Probabilidad y Estadsticas

Pgina 62 de 64

cuatro supuestos:
1.La variable X se mide sin error. Por esto decimos que los valores de X son "fijos", o sea que
la variable X es conocida por el observador. Esto significa que solamente Y, la variable
dependiente, es una variable aleatoria. X no vara al azar sino que est bajo control del
observador y por lo tanto es una variable estadstica.
2.El valor esperado de Y para un determinado valor de X est descrito por la funcin
lineal:
y X
Esto equivale a suponer que la relacin entre X e Y es lineal y que la esperanza matemtica
de los errores ei de las Yi es cero, o sea que: E(i) = 0, para todo i.
3.Para cualquier valor dado xi, las observaciones Yi son variables aleatorias que se
distribuyen independiente y normalmente. Es decir que el error aleatorio ei de cada
observacin Yi, es una variable aleatoria normalmente distribuida con esperanza
matemtica cero. En smbolos: i ~ N(0;), E(i, j)=0
4.La varianza de la distribucin condicional de Y dado que X = xo, se representa por Y/X=x0 y
se la llama directamente varianza de la distribucin condicional de Y dado que X = x0. Se
supone que esta medida es constante, cualquiera que sea el valor de X y es un valor al que
representaremos directamente por 2Y/X, llamndola varianza de la regresin. Esta
propiedad se llama a veces homoscedasticidad.
El coeficiente de correlacin r de Pearson
Como una medida de la asociacin entre dos variables de razn o de intervalo, los
investigadores casi exclusivamente confan en una medida llamada r de Pearson o
coeficiente de correlacin.
El coeficiente de Pearson vara entre -1 y +1. 0 indica que no hay asociacin, +1 indica
una relacin perfecta positiva y -1 indica una relacin perfecta negativa.
La frmula de clculo de r es la siguiente:
( X X )(Y Y )
r
( X X )2 . (Y Y )2
Observe que el numerador de esta frmula es proporcional a la covariacin de X e Y ,
como ocurra en la frmula de b.
Para simplificar los clculos preferimos la frmula siguiente:
n XY X Y
r
n X 2 X n Y 2 Y

Este valor indica una relacin moderada positiva entre las variables.
Interpretacin del coeficiente de determinacin r2
El coeficiente r no nos permite una interpretacin integral de los valores que se
encuentran entre -1 y +1.
Podemos realizar una interpretacin ms directa, afortunadamente, calculando el
llamado coeficiente de determinacin, que no es ms que r 2.
Recordemos el concepto del principio de variacin mnima, expresado como:
(Y Y )2 Minimo

Si predecimos la media de Y para cada caso, cometeremos la menor cantidad de


errores de prediccin que si predecimos cualquier otro valor de Y
Concretamente, se pueden encontrar dos sumatorias diferentes y luego comparar con
la variacin total para construir un estadstico que indique el cambio en la prediccin.
La primera suma, llamada la variacin explicada, representa la mejora en nuestra
Resumen

Probabilidad y Estadsticas

Pgina 63 de 64

habilidad para predecir Y cuando X es tenida en cuenta


Variacin Explicada:
(Y Y )2

Luego el resultado puede ser comparado con la variacin total en Y, expresada por la
Variacin Total
(Y Y )2

A medida que una de estas sumas aumenta en valor, la otra disminuye.


Esta comparacin mejora nuestra habilidad para predecir Y a partir del conocimiento de
X.
Matemticamente lo mostramos as:
(Y Y )2

2
r = variacin explicada / variacin total
(Y Y )2
r2 indica en qu medida el conocimiento de X nos ayuda a predecir o entender o
explicar a Y.
La proporcin de variacin total en Y que no es explicada por X se puede encontrar
restando el valor de r2 de 1. Es decir que dicha expresin representa la llamada
variacin residual, resultando: Variacin residual = 1 r 2.
La variacin no explicada normalmente es atribuida a la influencia de la combinacin de
otras variables, a la medida del error, y los cambios aleatorios.
Como usted podr ver, la variacin explicada y no explicada guardan una relacin
reciprocada cada una con la otra.
Cuanto ms fuerte es la relacin lineal entre X e Y, cuanto mayor es el valor de la
variacin explicada, menor es la variacin no explicada.
En el caso de una relacin perfecta (r = +1 o r = -1), la variacin no explicada ser igual
a 0 y r2 = 1. Esto indica que X explica toda la variacin en Y y que podemos predecir Y
a partir de X sin error.
Por otra parte, cuando X e Y no estn relacionadas linealmente (r = 0), la variacin
explicada ser igual a 0 y r2 ser 0 tambin.
El test de significatividad de Pearson para r
Cuando la relacin medida por el coeficiente r de Pearson est basada en datos que
provienen de una muestra aleatoria, se deber probar la significatividad estadstica de
r.
El parmetro poblacional es simbolizado por (rho), y la distribucin de muestreo
apropiada es la distribucin t- de Student.
Para realizar este test, debemos realizar algunas suposiciones:
1.Debemos suponer que ambas variables tienen distribucin normal.
2.La relacin entre las dos variables es lineal en cuento a su forma.
3.Homoscedasticidad, significa que la variancia de Y es uniforme para todos los valores
de X.
Luego realizaremos el test de significatividad en 5 pasos:
Paso 1: Suposiciones
Muestra aleatoria
Nivel de medicin intervalar o de razn
Distribucin bivariada normal
Relacin lineal entre X e Y
Homoscedasticidad
Distribucin en el muestreo normal
Paso 2: Fijando la hiptesis nula
H 0: =0 contra H1: 0
Resumen

Probabilidad y Estadsticas

Pgina 64 de 64

Paso 3: Seleccionando la distribucin en el muestreo y estableciendo la regin crtica


Suponiendo la hiptesis nula de no relacin en la poblacin, la distribucin en el
muestreo de todas las muestras posibles de r es aproximada por la distribucin t de
Student. El nmero de grados de libertad es (n-2)
Tomando = 0.05, resulta t(crtico) = 2.228
Paso 4: Realizando el test estadstico
n2
t(obtenido) = r
1 r2
10
1,83
t ( obtenido ) = 0,5
0, 75
Paso 5: Tomando una decisin
Con los resultados obtenidos, no debemos rechazar la hiptesis nula al 5% de
significacin.
A pesar de que las variables estn relacionadas en la muestra, no tenemos suficiente
evidencia para concluir que las variables estn tambin relacionadas en la poblacin.
El test indica que el valor de muestra de r = 0.50 puede haber ocurrido por azar y las
variables en la poblacin no estn relacionadas.

Resumen

You might also like