You are on page 1of 30

UNIDAD I.

MANEJO DE DATOS USANDO ESTADISTICA DESCRIPTIVA PARA LA SOLUCION DE


PROBLEMAS.

1.1.1. ESTADISTICA DESCRIPTIVA.

* Definición de estadística descriptiva.

La estadística descriptiva es una parte de la estadística que se dedica a analizar y representar los
datos. Este análisis es muy básico, pero estudio. Aunque hay tendencia a generalizar a toda la
población las primeras conclusiones obtenidas tras un análisis descriptivo, su poder inferencial es
mínimo y debería evitarse tal proceder. Otras ramas de la estadística se centran en el contraste de
hipótesis y su generalización a la población.

Algunas de las técnicas empleadas en este primer análisis de los datos se enumeran más abajo en
el listado de conceptos básicos. Básicamente, se lleva a cabo un estudio calculando una serie de
medidas de tendencia central, para ver en qué medida los datos se agrupan o dispersan en torno a
un valor central.

* Población tangible ʹ conceptual.

La población tangible es cuando los votantes pueden ser identificados y geográficamente


ubicados. Existen, sin embargo, poblaciones de otra naturaleza. Considere por ejemplo la
población que contiene todos los tiempos de espera posibles cuando una persona va a solicitar un
servicio a determinado banco en su hora pico. Desde luego que esta población es infinita, pero no
sólo eso, sus elementos ya no pueden ser identificados sino sólo observados mediante, por
ejemplo, un proceso de muestreo. Además, los tiempos de espera ya no pueden ser representados
por variables discretas, sino que caen dentro de la categoría de lo que hemos llamado variables
continuas.

La población conceptual: También se conoce con población hipotética es cuando existen otras
situaciones donde los integrantes de la población no pueden ser listado, por ejemplo, si se trata de
comparar dos políticas de venta de un producto, es claro,que lo que se pretende es que las
políticas de venta se puedan aplicar a futuros productos("todos los productos producidos en el
presente y en el futuro͟) y en consecuencia sería imposible en el momento del estudio hacer una
lista de ellos, en tales casos se dirá quenuestra población es una población hipotética. Cuando el
objetivo es estudiar las características y/o comportamientos de poblaciones finitas, ellas deben
estar claramente definidas a través de los criterios deinclusión y exclusión. Pero cuando el estudio
intenta sacar conclusiones hacia una poblaciónhipotética lo que se debe describir son las
características del grupo sobre los cuales se quiere trabajar.

* Muestra aleatoria simple.


En estadística se conoce como muestreo a la técnica para la selección de una muestra a partir de
una población.Al elegir una muestra se espera conseguir que sus propiedades sean extrapolables a
la población. Este proceso permite ahorrar recursos, y a la vez obtener resultados parecidos a los
que se alcanzarían si se realizase un estudio de toda la población.

Cabe mencionar que para que el muestreo sea válido y se pueda realizar un estudio adecuado
(que consienta no solo hacer estimaciones de la población sino estimar también los márgenes de
error correspondientes a dichas estimaciones), debe cumplir ciertos requisitos. Nunca podremos
estar enteramente seguros de que el resultado sea una muestra representativa, pero sí podemos
actuar de manera que esta condición se alcance con una probabilidad alta.En el muestreo, si el
tamaño de la muestra es más pequeño que el tamaño de la población, se puede extraer dos o más
muestras de la misma población. Al conjunto de muestras que se pueden obtener de la población
se denomina espacio muestral. La variable que asocia a cada muestra su probabilidad de
extracción, sigue la llamada distribución muestral.

* Conveniencia ponderada.

Muestra aleatoria ponderada. Cuando la población incluye un grupo muy pequeño pero esencial,
hay el riesgo de que ningún miembro de ese grupo quede dentro de una muestra aleatoria. Tales
grupos claves de usuarios de productos son, entre otros, gente corto de vista, duro de oído o con
la capacidad reducida del movimiento, véase una lista de tal gente. Otras minorías a menudo
significativas originan de religiones, de nacionalidades y de lenguas.

Para asegurar por lo menos algunos de una minoría clave (marcada con x en el diagrama a la
derecha) en la muestra, podemos incrementar deliberadamente la razón de la muestra sobre este
grupo de especial importancia. Por supuesto que esto generará un desequilibrio en las mediciones
que se obtengan a partir de la muestra ponderada, pero será fácil restaurar el equilibro original.
Esto se hace así cuando se combinan los resultados; por ejemplo, al calcular la media de todas las
mediciones daremos a las mediciones de cada grupo su peso apropiado correspondiente a los
porcentajes genuinos en la población.

* Estadística de datos agrupados

Como se ha señalado anteriormente, el objetivo de la estadística descriptiva, es la descripción de


los datos y no la inferencia partiendo de los datos.Una población de unidades es un grupo de
entidades que tienen alguna característica cuantificable en común.Las unidades pueden ser
personas, árboles, bacterias, compuestos químicos, etc.. Pueden ser finitas o infinitas en número.
La característica cuantificable puede ser una variable continua o discreta.

Una población de observaciones es un grupo que consiste en los valores numéricos de una
característica cuantificable determinada en cada elemento de una población de unidades.

La misma población de unidades tendrá en ocasiones mas de una población de observaciones


asociada.Una muestra de unidades es un número finito de unidades procedentes de una población
de unidades.Una muestra de observaciones es un número finito de observaciones procedentes de
una población de observaciones.Es decir una muestra es una parte de una población que aislamos
para estudiarla.

Este concepto es de importancia para el análisis estadístico porque por lo general uno dispone de
una muestra de una población para el estudio que intenta realizar. Por ejemplo, si necesitáramos
hacer un promedio de todas las alturas de los habitantes de un país de 200.000.000 de habitantes
(esta sería la población estadística), es lógico suponer lo engorroso que sería medir la altura de
todos. Esto se realiza midiendo las alturas de una muestra de esta población, por ejemplo 10.000
habitantes. Este procedimiento es inductivo ya que el investigador saca conclusiones acerca de la
población basándose en el análisis de una muestra de esa población; esto es hacer una inferencia
acerca de una población partiendo de una muestra.

Se llama inferencia estadística una conclusión que se refiere a una población de observaciones,
obtenida sobre la base de una muestra de observaciones.

Una característica descriptiva global de una población de observaciones se llama parámetro.Una


característica descriptiva global de una muestra de observaciones se llama estadígrafo.

* Tipos de poblaciones.

POBLACIÓN: Es el conjunto de todos los posibles elementos que intervienen en un experimento o


en un estudio.

CENSO: Al estudio completo de la población.

TIPOS DE POBLACIÓN:

POBLACIÓN FINITA: Es aquella que indica que es posible alcanzarse o sobrepasarse al contar.

Es aquella que posee o incluye un número limitado de medidas y observaciones.

POBLACIÓN INFINITA: Es infinita si se incluye un gran conjunto de medidas y observaciones que no


pueden alcanzarse en el conteo.

Son poblaciones infinitas porque hipotéticamente no existe límite en cuanto al número de


observaciones que cada uno de ellos puede generar.
MUESTRA: Un conjunto de medidas u observaciones tomadas a partir de una población dada. Es
un subconjunto de la población.

MUESTRA REPRESENTATIVA: Un subconjunto representativo seleccionado de una población de la


cual se obtuvo.

MUESTREO: Al estudio de la muestra representativa.

PARÁMETRO: Son las características medibles en una población completa. Se le asigna un símbolo
representado por una letra griega.

ESTADÍSTICO O ESTADÍGRAFO: Es la medida de una característica relativa a una muestra. La


mayoría de los estadísticos muestrales se encuentran por medio de una fórmula y suelen
asignárseles nombres simbólicos que son letras latinas.

DATOS ESTADÍSTICOS (VARIABLES): Los datos son agrupaciones de cualquier número de


observaciones relacionadas.

Para que se considere un dato estadístico debe tener 2 características:

a) Que sean comparables entre sí.

b) Que tengan alguna relación.

VARIABLE: Una característica que asume valores.

CLASES DE DATOS:

VARIABLE CUANTITATIVA O ESCALAR: Será una variable cuando pueda asumir sus resultados en
medidas numéricas.

VARIABLE CUANTITATIVA DISCRETA : Es aquella que puede asumir sólo ciertos valores, números
enteros.
Ejemplo: El número de estudiantes (1,2,3,4)

VARIABLE CUANTITATIVA CONTINUA: Es aquella que teóricamente puede tomar cualquier valor en
una escala de medidas, ya sea entero o fraccionario.

Ejemplo : Estatura : 1.90 m

VARIABLES CUALITATIVAS O NOMINALES: Cuando no es posible hacer medidas numéricas, son


susceptibles de clasificación.

Ejemplo: Color de autos: rojo, verde, azul.

EXPERIMENTO: Es una actividad planificada, cuyos resultados producen un conjunto de datos.

Es el proceso mediante el cual una observación o medición es registrada.

Ejemplo: ¿Cuál será la preferencia del consumidor ante dos marcas de refresco con similares
características en un ambiente armónico y sin publicidad?

1.1.2 Representación grafica de datos:

* Grafica da tallo y hojas.

Gráficos de tallo y hoja: es una forma rápida de obtener una representación visual ilustrativa del
conjunto de datos, para construir un diagrama de tallo y hoja primero se debe seleccionar uno ó
más dígitos iniciales para los valores de tallo, el dígito o dígitos finales se convierten en hojas,
luego se hace una lista de valores de tallo en una columna vertical. Prosiguiendo a registrar la hoja
por cada observación junto al valor correspondiente de tallo, finalmente se indica las unidades de
tallos y hojas en algún lugar del diagrama, este se usa para listas grandes y es un método resumido
de mostrar los datos, posee la desventaja que no proporciona sino los datos, y no aparece por
ningún lado información sobre frecuencias y demás datos importantes.

TIENDA | Enero | Febrero | Marzo | abril | mayo | Junio |

A | 800 | 600 | 700 | 900 | 1100 | 1000 |

B | 700 | 500 | 600 | 1000 | 900 | 1200 |

* Distribución de frecuencias.

Distribución de frecuencias es como se denomina en estadística a la agrupación de datos en


categorías mutuamente excluyentes que indican el número de observaciones en cada categoría.
Esto significa una de las cosas más importantes de la matemática, su estadística con la agrupación
de datos. La distribución de frecuencias presenta las observaciones clasificadas de modo que se
pueda ver el número existente en cada clase.

Elementos fundamentales para elaborar una distribución de frecuencia:

1) RANGO.

Es una medida de dispersión que se obtiene como la diferencia entre el número mayor y el
número menor de los datos.

R = N_max - N_min

Ejemplo.

Dados los números: 5, 10, 12, 8, 13, 9, 15

R= 15- 5

2) AMPLITUD TOTAL.

Simplemente se obtiene sumándole 1 al rango.

AT = (R+1)

3) LAS CLASES.

Están formadas por dos extremos. el menor se llama límite inferior el mayor se llama límite
superior. hay distintos tipos de clases.

Ej. Notas (20-26) Edades (20-26.5) Salarios (20-26.99)


4)EL NUMERO DE CLASES.

Se determina a través de la formula de stuger, la cual es valida cuando el No de observaciones sea


menor o igual a 500. Formula.

Nc= 1 + 3.33log ( N )

Donde:

Nc es el número de clases. N es la cantidad de muestras tomadas.

5) VALOR DEL INTERVALO O AMPLITUD

Se Obtiene por medio de la ecuación de dicta:

Vi = AT / Nc

Donde:

Vi es el valor de intervalo AT es la amplitud total Nc es el número de clase.

* Clases --- limites de clases

Organización de datos agrupados

Limites Reales: Sirven para mantener la continuidad de las clases

Anchura o tamaño del intervalo: es la diferencia entre los límites reales de una clase

Número de clases: es el número total de grupos en que se clasifica la información, se recomienda


que no sea menor que 5 ni mayor que 15

Marca de Clase: Es el punto medio del intervalo de clase, se recomienda observar que los puntos
medios coincidan con los datos observados para minimizar el error.

Frecuencia: es el número de veces que aparece un valor

Frecuencia Acumulada: Indica cuantos casos hay por debajo o arriba de un determinado valor o
límite de clase.

Frecuencia Relativa: Indica la proporción que representa la frecuencia de cada intervalo de clase
en relación al total, es útil para comparar varias distribuciones con parámetros de referencia
uniformes.

Frecuencia Acumulada Relativa: Indica la proporción de datos que se encuentra por arriba o
debajo de cierto valor o límite de clase.

Gráficos de una Distribución de Frecuencias


Los gráficos son útiles porque ponen en relieve y aclaran las tendencias que no se captan
fácilmente en la tabla, ayudan a estimar valores con una simple ojeada y brinda una verificación
gráfica de la veracidad de las soluciones.

Histograma:

Esta formado por rectángulos cuya base es la amplitud del intervalo y tiene la característica que la
superficie que corresponde a las barras es representativa de la cantidad de casos o frecuencia de
cada tramo de valores, puede construirse con clases que tienen el mismo tamaño o diferente (
intervalo variable). La utilización de los intervalos de amplitud variable se recomienda cuando en
alguno de los intervalos , de amplitud constante, se presente la frecuencia cero o la frecuencia de
alguno o algunos de los intervalos sea mucho mayor que la de los demás, logrando así que las
observaciones se hallen mejor repartidas dentro del intervalo.

Polígono de Frecuencias

Se puede obtener uniendo cada punto medio (marca de clase) de los rectángulos del histograma
con líneas rectas, teniendo cuidado de agregar al inicio y al final marcas de clase adicionales, con el
objeto de asegurar la igualdad del áreas.

Curvas de frecuencia

No es más que la curva suavizada que se traza sobre el polígono y representa la asimetría y la
curtosis que tiene la distribución, permite visualizar un esquema más claro del patrón de datos.
Existen varios tipos de curva de frecuencia: Curvas J, Simétricas o Asimétricas (sesgada a la
derecha o a la izquierda), Unimodales, Bimodales y Multimodales.

Ojivas: Cuando se trata de relacionar observaciones en un mismo aspecto para dos colectivos
diferentes no es posible ejecutar comparaciones sobre la base de la frecuencia, es necesario tener
una base estándar, la frecuencia relativa. La ojiva representa gráficamente la forma en que se
acumulan los datos y permiten ver cuantas observaciones se hallan por arriba o debajo de ciertos
valores. Es útil para obtener una medida de los cuartiles, deciles , percentiles.

1.2.1 MEDIDAS DE TENDENCIA CENTRAL.

Los promedios son una medida de posición que dan una descripción compacta de como están
centrados los datos y una visualización más clara del nivel que alcanza la variable, pueden servir de
base para medir o evaluar valores extremos o raros y brinda mayor facilidad para efectuar
comparaciones.

Es importante poner en relieve que la notación de promedio lleva implícita la idea de variación y
que este número promedio debe cumplir con la condición de ser representativo de conjunto de
datos.

El promedio como punto típico de los datos es el valor al rededor del cual se agrupan los demás
valores de la variable.
MEDIA ARITMÉTICA

Es una medida matemática, un número individual que representa razonablemente el


comportamiento de todos los datos.

Para datos no agrupados X = S xi / n

Para datos agrupados X = S fi Xi / S fi

donde Xi es la marca de clase para cada intervalo y fi es la frecuencia de clase

Características de la Media:

1. En su cálculo están todos los valores del conjunto de datos por lo que cada uno afecta la media.

2. La suma algebraica de las desviaciones de los valores individuales respecto a la media es cero.

3. La suma del cuadrado de las desviaciones de una serie de datos a cualquier número A es mínimo
si A = X

4. Aunque es confiable porque refleja todos los valores del conjunto de datos puede ser afectada
por los valores extremos, y de esa forma llegar a ser una medida menos representativa, por lo que
si la distribución es asimétrica, la media aritmética no constituye un valor típico.

La media aritmética es el valor obtenido sumando todas las observaciones y dividiendo el total por
el número de observaciones que hay en el grupo.

La media resume en un valor las características de una variable teniendo en cuenta todos los
casos. Solamente puede utilizarse con variables cuantitativas.

Por ejemplo, las notas de 5 alumnos en una prueba:

Alumno Nota

1 6,0 ·Primero, se suman las notas:

2 5,4 6,0+5,4+3,1+7,0+6,1 = 27,6

3 3,1 ·Luego el total se divide entre la cantidad de alumnos:

4 7,0 27,6/5=5,52
5 6,1 ·La media aritmética en este ejemplo es 5,52

La media aritmética es, probablemente, uno de los parámetros estadísticos más extendidos.[2] Se
le llama también promedio o, simplemente, media.

LA MODA

La moda es el dato más repetido, el valor de la variable con mayor frecuencia absoluta.[5] En
cierto sentido la definición matemática corresponde con la locución "estar de moda", esto es, ser
lo que más se lleva.

Su cálculo es extremadamente sencillo, pues sólo necesita un recuento. En variables continuas,


expresadas en intervalos, existe el denominado intervalo modal o, en su defecto, si es necesario
obtener un valor concreto de la variable, se recurre a la interpolación.

Por ejemplo, el número de personas en distintos vehículos en una carretera: 5-7-4-6-9-5-6-1-5-3-7.


El número que más se repite es 5, entonces la moda es 5.

Hablaremos de una distribución bimodal de los datos, cuando encontremos dos modas, es decir,
dos datos que tengan la misma frecuencia absoluta máxima. Cuando en una distribución de datos
se encuentran tres o más modas, entonces es multimodal. Por último, si todas las variables tienen
la misma frecuencia diremos que no hay moda.

Cuando tratamos con datos agrupados en intervalos, antes de calcular la moda, se ha de definir el
intervalo modal. El intervalo modal es el de mayor frecuencia absoluta.

La moda, cuando los datos están agrupados, es un punto que divide el intervalo modal en dos
partes de la forma p y c-p, siendo c la amplitud del intervalo, que verifiquen que:

Siendo ni la frecuencia absoluta del intervalo modal y ni о 1 y ni + 1 las frecuencias absolutas de los
intervalos anterior y posterior, respectivamente, al

Las calificaciones en la asignatura de Matemáticas de 39 alumnos de una clase viene dada por la
siguiente tabla (debajo):

Calificaciones | 1 |2 |3 |4 |5 |6 |7 |8 |9 |

Número de alumnos |2 |2 |4 |5 |8 |9 |3 |4 |2 |
LA MEDIANA

La mediana es un valor de la variable que deja por debajo de sí a la mitad de los datos, una vez
que éstos están ordenados de menor a mayor.[7] Por ejemplo, la mediana del número de hijos de
un conjunto de trece familias, cuyos respectivos hijos son: 3, 4, 2, 3, 2, 1, 1, 2, 1, 1, 2, 1 y 1, es 2,
puesto que, una vez ordenados los datos: 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 4, el que ocupa la posición
central es 2:

En caso de un número par de datos, la mediana no correspondería a ningún valor de la variable,


por lo que se conviene en tomar como mediana el valor intermedio entre los dos valores
centrales. Por ejemplo, en el caso de doce datos como los anteriores:

Se toma como mediana

Existen métodos de cálculo más rápidos para datos más númerosos (véase el artículo principal
dedicado a este parámetro). Del mismo modo, para valores agrupados en intervalos, se halla el
"intervalo mediano" y, dentro de éste, se obtiene un valor concreto por interpolación.

Cálculo de la mediana para datos agrupados [editar]

Primero hallamos las frecuencias absolutas acumuladas Fi (ver tabla del margen derecho).

Así, aplicando la formula asociada a la mediana para n impar, obtenemos X(39+1)/2 = X20 y
basándonos en la fórmula que hace referencia a las frecuencias absolutas:

Ni-1< n/2 < Ni = N19 < 19.5 < N20

Por tanto la mediana será el valor de la variable que ocupe el vigésimo lugar. En nuestro ejemplo,
21 (frecuencia absoluta acumulada para Xi = 5) > 19.5 con lo que Me = 5 puntos (es aconsejable no
olvidar las unidades; en este caso como estamos hablando de calificaciones, serán puntos)

La mitad de la clase ha obtenido un 5 o menos, y la otra mitad un 5 o más.

Ejemplo (N par)

Las calificaciones en la asignatura de Matemáticas de 38 alumnos de una clase viene dada por la
siguiente tabla (debajo):

Calificaciones | 1 |2 |3 |4 |5 |6 |7 |8 |9 |

Número de alumnos |2 |2 |4 |5 |6 |9 |4 |4 |2 |

xi | fi | Fi |
1 |2 |2 |

2 |2 |4 |

3 |4 |8 |

4 |5 | 13 |

5 |6 | 19 = 19 |

6 |9 | 28 |

7 |4 | 32 |

8 |4 | 36 |

9 |2 | 38 |

Calculemos la Mediana:

Primero hallamos las frecuencias absolutas acumuladas Fi (ver tabla margen derecho).

Si volvemos a utilizar la fórmula asociada a la mediana para n par, obtenemos X(38/2) = X19 y
basándonos en la fórmula que hace referencia a las frecuencias absolutas --> Ni-1< n/2 < Ni = N18
< 19 < N19

Con lo cual la mediana será la media aritmética de los valores de la variable que ocupen el
decimonoveno y el vigésimo lugar.

En nuestro ejemplo, el lugar decimonoveno lo ocupa el 5 y el vigésimo el 6, (desde el vigésimo


hasta el vigésimo octavo)

con lo que Me = (5+6)/2 = 5,5 puntos.

La mitad de la clase ha obtenido un 5,5 o menos y la otra mitad un 5,5 o más

* Coeficiente de variación.

En estadística el coeficiente de variación o de Pearson, es una medida de dispersión útil para


comparar dispersiones a escalas distintas pues es una medida invariante ante cambios de escala.
Uno de sus usos más comunes es para expresar la desviación standar como porcentaje de la media
aritmética, mostrando una mejor interpretación porcentual del grado de variabilidad que la
desviación típica o estandar. Por otro lado presenta problemas ya que a diferencia de la desviación
típica este coeficiente es variable ante cambios de origen. Por ello es importante que todos los
valores sean positivos y su media de por tanto un valor positivo. A mayor valor de C.V. mayor
heterogeneidad de los valores de la variable; y a menor C.V., mayor homogeneidad en los valores
de la variable. Suele representarse por medio de las siglas C.V..

Exigimos que:

Se calcula:

Donde ʍ es la desviación típica. Se puede dar en tanto por ciento calculando:

Propiedades y aplicaciones

El coeficiente de variación es típicamente menor que uno.

Para su mejor interpretación se lo expresa como porcentaje.

Depende de la desviación típica y en mayor medida de la media aritmética, dado que cuando esta
es 0 o muy próxima a este valor C.V. pierde significado, ya que puede dar valores muy grandes,
que no necesariamente implican dispersión de datos.

El coeficiente de variación es común en varios campos de la probabilidad aplicada, como Teoría de


renovación, Teoría de colas y. En estos campos la distribución exponencial es a menudo más
importante que la distribución normal. La desviación típica de una distribución exponencial es
igual a su media, por lo que su coeficiente de variación es 1. La distribuciones con un C.V. menor
que uno, como la distribución de Erlang se consideran de "baja varianza", mientras que aquellas
con un C.V. mayor que uno, como la distribución hiperexponencial se consideran de "alta
varianza". Algunas fórmulas en estos campos se expresan usando el cuadrado del coeficiente de
variación, abreviado como S.C.V. (por su siglas en inglés).

1.2.2. Medios de varidalidad.

Amplitud

Para presentar lo que es la modulación en amplitud, comencemos con una etapa amplificadora,
donde la señal de entrada "Eo" se amplifica con una ganancia constante "A". En ese caso la salida
del amplificador, "Em", es el producto de A y Eo.

Supongamos ahora que la ganancia de la etapa amplificadora "A" es variable en función del
tiempo, entre 0 (cero) y un valor máximo, regresando a 0 (cero). Lo anterior significa, que la etapa
amplificadora multiplica el valor de entrada "Eo" por un valor diferente de "A" en cada instante. La
descripción efectuada en el proceso anterior, es lo que denominamos Modulación en Amplitud.
Por lo tanto, la modulación en amplitud es un proceso de multiplicación y se muestra en la
próxima figura. Al multiplicador lo podemos considerar también, como un dispositivo de ganancia
controlada por una tensión. En este caso, la entrada de control de ganancia corresponde con la
entrada "x". La forma de onda mostrada en la figura pertenece a un modulador balanceado; mas
adelante explicaremos esa denominación. En ella podemos observar que la envolvente de "Em",
tiene la misma forma que la señal de entrada "Es".

UNIDADII. MANEJO DE LA PROBABILIDAD, PARA LA SOLUCION DE PROBLEMAS.

2.1.1. PROBABILIDAD

* Conteo diagrama de árbol

Mientras mas pequeña sea la desviación típica es más probable. Obtener un valorcercano a la
media, mientras mayor sea la desviación típica, es mas probable encontrar u obtener un valor a
cercano a la media, mientras mayor sea la desviación, es mas probable encontrar u obtener un
valor alejado de la media. Todo esto se resume de la sig. Forma:

La proporción de cualquier conjunto de observaciones que caen dentro de desviaciones típicas,


medidas a partir medidas a partir de la media es al menos.

, esto es que estén en y

Donde es cualquier numero mayor 1

Ejemplo

* Permutaciones

El número de permutaciones de n objetos es el número de formas en los que pueden acomodarse


esos objetos en términos de orden.

Permutaciones En n Objetos

Permutaciones de n elementos tomando n a la vez es igual a:

nPn = n! = (n) x (n-1) x͙ x (2) x (1)

Ejemplo

Los cinco individuos que componen la dirección de una pequeña empresa manufacturera serán
sentados juntos en un banquete. Determinar el número de diferentes posiciones posibles de los
asientos para los cinco individuos.
Solución

n Pn = n! = 5! = (5)(4)(3)(2)(1) = 120

Permutaciones En Subgrupo De n Objetos

El número de permutaciones de n objetos tomados r a la vez, donde r es menor que n es igual a:

nPr = n!

(n-r)!

* Combinaciones

En el caso de las combinaciones, lo importante es el número de agrupaciones diferentes de


objetos que pueden incurrir sin importar su orden.

Por lo tanto en las combinaciones se busca el número se subgrupos diferentes que pueden
tomarse a partir de n objetos.

El número de combinaciones de n objetos tomados r a la vez es igual a:

nCr = n!

r! (n-r)!

Ejemplo

Supongamos que se elegirá a tres miembros de una pequeña organización social con un total de
diez miembros para que integren un comité. ¿Cuál es el número de grupos diferentes de tres
personas que pueden ser elegidos, sin importar el diferente orden en el que cada grupo podría
elegirse?

Solución

nCr =10C3 = n! = 10! =10×9x8×7!=10×9x8=720= 120


------- ------- --------- ------ ---

r(n - r)! 3!(10ʹ3)! 3!x7! 3×2x1 6

Combinaciones representando la probabilidad

En términos de combinaciones, frecuentemente podemos determinar la probabilidad de un


evento determinado, el número de combinaciones de resultados que incluyen ese evento en
comparación con el número total de combinaciones

* Probabilidad.

La probabilidad mide la frecuencia con la que se obtiene un resultado (o conjunto de resultados) al


llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles, bajo
condiciones suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas
como la estadística, la física, la matemática, la ciencia y la filosofía para sacar conclusiones sobre la
probabilidad de sucesos potenciales y la mecánica subyacente de sistemas complejos.

* Ley de los números grandes.

La ley de los grandes números es un teorema en probabilidades que describe el comportamiento


del promedio de una sucesión de variables aleatorias según el número total de variables aumenta.
El teorema describe hipótesis suficientes para afirmar que dicho promedio converge (en los
sentidos explicados abajo) al promedio de las esperanzas de las variables aleatorias involucradas.
En particular, si todas las variables son idénticamente distribuidas e independientes, el promedio
tiende al valor de la esperanza individual. Las leyes de los grandes números implican que el
promedio de una muestra al azar de una población de gran tamaño tenderá a estar cerca de la
media de la población completa. Varias formulaciones de la ley de los grandes números (y sus
condiciones asociadas) especifican la convergencia de formas distintas.

Cuando las variables aleatorias tienen una varianza finita, el teorema central del límite extiende
nuestro entendimiento de la convergencia de su promedio describiendo la distribución de
diferencias estandarizadas entre la suma de variables aleatorias y el valor esperado de esta suma.
Sin importar la distribución subyacente de las variables aleatorias, esta diferencia estandarizada
converge a una variable aleatoria normal estándar.

2.1.2 Reglas de la probabilidad.


* Espacios muéstrales y eventos a conjuntos.

En estadística se llama espacio muestral al conjunto de todos los posibles resultados individuales
de un experimento aleatorio. Se suele representar por ɏ.

Sus elementos se representan por letras minúsculas (w1,w2,...) y se denominan eventos o sucesos
elementales. Los subconjuntos de ɏ se designan por medio de letras mayúsculas (A,B,C,D,...) y se
denominan eventos o sucesos. Los sucesos representan los posibles resultados del experimento
aleatorio.

Tipos de espacio muestral

Un espacio muestral ɏ es discreto, cuando ɏ es un conjunto discreto, es decir, finito o numerable;


y es continuo, cuando no es numerable.

Particiones

Es posible definir particiones sobre el espacio muestral. Formalmente hablando, una partición
sobre ɏ se define como un conjunto numerable:

tal que

1.

2.

3.

Ejemplos

Por ejemplo, en el caso del experimento aleatorio "lanzar un dado", el espacio muestral del
experimento sería: ɏ={1,2,3,4,5,6}. Por otro lado, si cambiamos ligeramente la experiencia
pensando en el número resultante de la suma de 2 dados, entonces tenemos 2 espacios
muestrales:

ɏ={(1,1),(1,2),(1,3),(1,4),(1,5),(1,6),(2,1),(2,2),...(6,6)} = {1,2,3,4,5,6}x{1,2,3,4,5,6}

ɏ'={2,3,4,...,12}

La elección del espacio muestral es un factor determinante para realizar el cálculo de la


probabilidad de un suceso.
* Operaciones con conjuntos.

Operaciones con conjuntos

Sean y dos conjuntos.

Unión

Diagrama de Venn que ilustra

Para cada par de conjuntos A y B existe un conjunto Unión de los dos, que se denota como el cual
contiene todos los elementos de A y de B. De manera más general, para cada conjunto S existe
otro conjunto denotado como de manera que sus elementos son todos los tales que . De esta
manera es el caso especial donde .

Es claro que el hecho de que un elemento x pertenezca a es condición necesaria y suficiente para
afirmar que x es un elemento de A o al menos de B. Es decir

Ejemplos: si tenemos los conjuntos

Entonces

Intersección n

Diagrama de Venn que ilustra

Los elementos comunes a y forman un conjunto denominado intersección de y , representado por


. Es decir, es el conjunto que contiene a todos los elementos de A que al mismo tiempo están en B:

Si dos conjuntos y son tales que , entonces y se dice que son conjuntos disjuntos.

Es claro que el hecho de que es condición necesaria y suficiente para afirmar que y . Es decir
* Postulados de la probabilidad.

Desde el punto de vista de la escuela lógica, todos los sistemas tienen en común la relación lógica
entre dos proposiciones q/p como relación indefinida (esto es, que sólo está definida por los
axiomas o postulados), que se lee ͞probabilidad de q dado p͟. Todo cuanto satisface a estos
axiomas será una interpretación de la probabilidad, y cabe esperar el que haya diversas
interpretaciones, por ejemplo, las de las axiomáticas de Keynes y Jeffreys, pero todas tienen el
mismo punto de arranque, y es la definición anteriormente expresada. Los axiomas o postulados
requeridos fueron recogidos por C.D. Broad (1920), y son los siguientes:

I. Dados p y q, hay sólo un valor q/p.

II. Los posibles valores de q/p son todos los números reales en el intervalo (0,1).

III. Si p implica q, entonces q/p = 1.

IV. Si p no implica q, entonces q/p = 0.

V. La probabilidad de q y r dado p es la probabilidad de q dado p multiplicada por la probabilidad


de r dado p (axioma conjuntivo).

VI. La probabilidad de q o r dado p es la probabilidad de q dado p más la probabilidad de r dado p


menos la probabilidad de q y r dado p (axioma disyuntivo).

Esta axiomática puede considerarse como la antitesis de la teoría de la frecuencia representada


por Venn, Von Mises y Reichenbach.

* Probabilidades y posibilidades.

Se habla muy comúnmente en sitios de apuestas, como en las autódromos o hipódromos, de que
"las apuestas a tal o cual participante es de x a y", es decir, que las posibilidades de que gane es de
x a y. Esta manera de expresarse se refiere al uso de razones.

En términos generales, la posibilidad de que ocurra un evento se determina mediante la razón de


la probabilidad de que ocurra a la probabilidad de que no ocurra.

Esto quiere decir que si la probabilidad de que un evento ocurra es p, entonces las posibilidades
de que ocurra son x a y, es decir

Tales que x y y son enteros positivos.


Por ejemplo: Si se tiran dos monedas normales (no trucadas), la probabilidad de que las dos
monedas caigan cara es de ¼. Esto quiere decir si alguien apuesta a que las dos monedas no caen
simultáneamente en cara, la posibilidad de ganar la apuesta es dees decir, 3 a 1. |

Hemos de considerar que si es mayor la probabilidad de que no ocurra un evento, entonces se


acostumbra mencionar las posibilidades en contra del evento.

Por ejemplo: Si se tira un dado no trucado, sabemos que la probabilidad de obtener un cuatro es
1/6, es decir que la posibilidad de obtener un cuatro es de 1 a 6; pero se acostumbra decir que las
posibilidades en contra, esto es, de no obtener un cuatro es de 6 a 1. |

* Reglas de adicción

Regla especial de la adición. Establece que si dos eventos A y B son mutuamente excluyentes la
probabilidad de que uno u otro evento ocurra es igual a la suma de sus probabilidades. De lo
anterior se puede deducir que la probabilidad de que ocurra A más la probabilidad de que no
ocurra A debe sumar 1. A esto se le llama la regla del complemento. Esta regla establece que para
determinar la probabilidad de que ocurra un evento se puede restar de 1 la probabilidad de que
no ocurra.

La Regla de la Adición expresa que: la probabilidad de ocurrencia de al menos dos sucesos A y B es


igual a: P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente P(A o B) = P(A) +
P(B) - P(A y B) si A y B son no excluyentes Siendo: P(A) = probabilidad de ocurrencia del evento A
P(B) = probabilidad de ocurrencia del evento B P(A y B) = probabilidad de ocurrencia simultanea de
los eventos A y B

ejemplo: Si A y B son dos eventos que no son mutuamente excluyentes, entonces P(A o B) se
calcula con la siguiente fórmula: P(A o B) = P(A) + P(B) - P(A y B) El Diagrama de Venn ilustra esta
regla

ejemplo: En una muestra de 500 estudiantes, 320 dijeron tener un estéreo,

175 dijeron tener una TV y 100 dijeron tener ambos Si un estudiante es seleccionado
aleatoriamente, ¿cuál es la probabilidad de que tenga sólo un estéreo, sólo una TV y uno de cada
uno? P(S) = 320 /500 = .64. P(T) = 175 /500 = .35. P(S y T) = 100 /500 = .20.

Si un estudiante es seleccionado aleatoriamente, ¿cuál es la probabilidad de que tenga un


estéreo o una TV en su habitación? P(S o T) = P(S) + P(T) - P(S y T) = .64 +.35 - .20 = .79.

* Probabilidad de condicional.

Probabilidad condicionada es la probabilidad de que ocurra un evento A, sabiendo que también


sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee «la probabilidad de A
dado B.
No tiene por qué haber una relación causal o temporal entre A y B. A puede preceder en el tiempo
a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B, viceversa o pueden no tener
relación causal. Las relaciones causales o temporales son nociones que no pertenecen al ámbito
de la probabilidad. Pueden desempeñar un papel o no dependiendo de la interpretación que se le
dé a los eventos.

* Eventos independientes.

Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un evento no


tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos). Un caso típico de
eventos independiente es el muestreo con reposición, es decir, una vez tomada la muestra se
regresa de nuevo a la población donde se obtuvo.

Ejemplo:

lanzar al aire dos veces una moneda son eventos independientes por que el resultado del primer
evento no afecta sobre las probabilidades efectivas de que ocurra cara o sello, en el segundo
lanzamiento.

* Reglas de la multiplicación.

Se relacionan con la determinación de la ocurrencia de conjunta de dos o más eventos. Es decir la


intersección entre los conjuntos de los posibles valores de A y los valores de B, esto quiere decir
que la probabilidad de que ocurran conjuntamente los eventos A y B es:

P(A y B) = P(A B) = P(A)P(B) si A y B son independientes

P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes

P(A y B) = P(A B) = P(B)P(A|B) si A y B son dependientes

* Teorema de bayes.

El teorema de Bayes, enunciado por Thomas Bayes, en la teoría de la probabilidad, es el resultado


que da la distribución de probabilidad condicional de un evento aleatorio A dado B en términos de
la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad
marginal de sólo A.

Teorema
Sea {A1,A2,...,Ai,...,An} un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que
la probabilidad de cada uno de ellos es distinta de cero. Sea B un suceso cualquiera del que se
conocen las probabilidades condicionales P(B | Ai). Entonces, la probabilidad P(Ai | B) viene dada
por la expresión:

donde:

* P(Ai) son las probabilidades a priori.

* P(B | Ai) es la probabilidad de B en la hipótesis Ai.

* P(Ai | B) son las probabilidades a posteriori.

Esto se cumple

2.2.1 Esperanza Matemática.

* Definición de esperanza matemática.

En estadística la esperanza matemática (también llamada esperanza, valor esperado, media


poblacional o media) de una variable aleatoria X, es el número que formaliza la idea de valor
medio de un fenómeno aleatorio.

Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada


posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la
cantidad media que se "espera" como resultado de un experimento aleatorio cuando la
probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número
de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no
ser "esperado" en el sentido más general de la palabra - el valor de la esperanza puede ser
improbable o incluso imposible.

Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos
hacer el cálculo

y cabe destacar que 3,5 no es un valor posible al rodar el dado. En este caso, en el que todos los
sucesos son de igual probabilidad, la esperanza es igual a la media aritmética.

Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar. Por
ejemplo, la ruleta americana tiene 38 casillas equiprobables. La ganancia para acertar una apuesta
a un solo número paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos apostado y
recuperamos la apuesta, así que recibimos 36 veces lo que hemos apostado). Por tanto,
considerando los 38 posibles resultados, la esperanza matemática del beneficio para apostar a un
solo número es:
que es -0,0526 aproximadamente. Por lo tanto uno esperaría, en media, perder unos 5 céntimos
por cada euro que apuesta, y el valor esperado para apostar 1 euro son 0.9474 euros. En el mundo
de las apuestas, un juego donde el beneficio esperado es cero (no ganamos ni perdemos) se llama
un "juego justo".

Nota: El primer paréntesis es la "esperanza" de perder tu apuesta de $1, por eso es negativo el
valor. El segundo paréntesis es la esperanza matemática de ganar los $35. La esperanza
matemática del beneficio es el valor esperado a ganar menos el valor esperado a perder.

* Uso de la esperanza matematica en la toma de decisiones.

La Investigación de Operaciones o Investigación Operativa, es una rama de las Matemáticas


consistente en el uso de modelos matemáticos, estadística y algoritmos con objeto de realizar un
proceso de toma de decisiones. Frecuentemente, trata del estudio de complejos sistemas reales,
con la finalidad de mejorar (u optimizar) su funcionamiento. La investigación de operaciones
permite el análisis de la toma de decisiones teniendo en cuenta la escasez de recursos, para
determinar cómo se puede optimizar un objetivo definido, como la maximización de los beneficios
o la minimización de costes.

2.2.2 Solucion de problemas de decisión estadística.

LA TEORÍA DE LA DECISIÓN

Es un estudio formal sobre la toma de decisiones. Los estudios de casos reales, que se sirven de la
inspección y los experimentos, se denominan teoría descriptiva de decisión; los estudios de la
toma de decisiones racionales, que utilizan la lógica y la estadística, se llaman teoría preceptiva de
decisión. Estos estudios se hacen mas complicados cuando hay mas de un individuo, cuando los
resultados de diversas opciones no se conocen con exactitud y cuando las probabilidades de los
distintos resultados son desconocidas.

La toma de decisión es también un proceso durante el cual la persona debe escoger entre dos o
más alternativas. Todos y cada uno de nosotros pasamos los días y las horas de nuestra vida
teniendo que tomar decisiones. Algunas decisiones tienen una importancia relativa en el
desarrollo de nuestra vida, mientras otras son gravitantes en ella.

En los administradores, el proceso de toma de decisión es sin duda una de las mayores
responsabilidades. La toma de decisiones en una organización se circunscribe a una serie de
personas que están apoyando el mismo proyecto. Debemos empezar por hacer una selección de
decisiones, y esta selección es una de las tareas de gran trascendencia.
Con frecuencia se dice que las decisiones son algo así como el motor de los negocios y en efecto,
de la adecuada selección de alternativas depende en gran parte el éxito de cualquier organización.
Una decisión puede variar en trascendencia y connotación.

UNIDAD III. MANEJO DE LAS FUNCIONES DE DISTRIBUCION ESTADISTICAPARA LA SOLUCION DE


PROBLEMAS.

3.1.1. Distribución de probabilidad.

* Variables aleatorias discretas y continuas.

Para comprender de una manera mas amplia y rigurosa los tipos de variables, es necesario
conocer la definición de conjunto discreto. Un conjunto es discreto si está formado por un número
finito de elementos, o si sus elementos se pueden enumerar en secuencia de modo que haya un
primer elemento, un segundo elemento, un tercer elemento, y así sucesivamente.[3]

Variable aleatoria discreta: una v.a. es discreta si su recorrido es un conjunto discreto. La variable
del ejemplo anterior es discreta. Sus probabilidades se recogen en la función de cuantía (véanse
las distribuciones de variable discreta).

Variable aleatoria continua: una v.a. es continua si su recorrido no es un conjunto numerable.


Intuitivamente esto significa que el conjunto de posibles valores de la variable abarca todo un
intervalo de números reales. Por ejemplo, la variable que asigna la estatura a una persona extraída
de una determinada población es una variable continua ya que, teóricamente, todo valor entre,
pongamos por caso, 0 y 2,50 m, es posible.[4] (véanse las distribuciones de variable continua)

* Funciones de distribución discretas.

Se denomina distribución de variable discreta a aquella cuya función de probabilidad sólo toma
valores positivos en un conjunto de valores de X finito o infinito numerable. A dicha función se le
llama función de masa de probabilidad. En este caso la distribución de probabilidad es el
sumatorio de la función de masa, por lo que tenemos entonces que:

Y, tal como corresponde a la definición de distribución de probabilidad, esta expresión representa


la suma de todas las probabilidades desde hasta el valor x.

* Distribución binominal.

En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el


número de éxitos en una secuencia de n ensayos independientes de Bernoulli con una
probabilidad fija p de ocurrencia del éxito entre los ensayos.

Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos
resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro,
fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se
repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado
número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.

Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p,
se escribe:

La distribución binomial es la base del test binomial de significación estadística.

* La distribución hipergeometrica.

En teoría de la probabilidad la distribución hipergeométrica es una distribución discreta


relacionada con muestreos aleatorios y sin reemplazo. Supóngase que se tiene una población de N
elementos de los cuales, d pertenecen a la categoría A y N-d a la B. La distribución
hipergeométrica mide la probabilidad de obtener x () elementos de la categoría A en una muestra
de n elementos de la población original.

* La distribución de poisson.

En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de


probabilidad discreta. Expresa la probabilidad de un número k de eventos ocurriendo en un
tiempo fijo si estos eventos ocurren con una frecuencia media conocida y son independientes del
tiempo discurrido desde el último evento.

Fue descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su trabajo Recherches
sur la probabilité des jugements en matières criminelles et matière civile (Investigación sobre la
probabilidad de los juicios en materias criminales y civiles).

3.1.2 Las medidas de tendencia, central de una distribución de probabilidad.

* La medida de una distribución de probabilidad.

Media de una Distribución de Probabilidades.-Valor promedio a largo plazo de la variable


aleatoria, también es conocido como valor esperado. Esta media es un promedio ponderado, en el
que los valores posibles se ponderan mediante sus probabilidades correspondientes de
ocurrencia, se calcula con la formula:

Donde P(X) es la probabilidad que puede tomar la variable aleatoria X.


* La desviación estándar de una distribución de probabilidad.

Toda distribución de probabilidad es generada por una variable aleatoria x, la que puede ser de
dos tipos:

1. Variable aleatoria discreta (x). Se le denomina variable porque puede tomar diferentes
valores, aleatoria, porque el valor tomado es totalmente al azar y discreta porque solo puede
tomar valores enteros y un número finito de ellos.

Ejemplos:

x Variable que nos define el número de burbujas por envase de vidrio que son generadas en un
proceso dado.

x0, 1, 2, 3, 4, 5, etc, etc. burbujas por envase

xVariable que nos define el número de productos defectuosos en un lote de 25 productos.

x0, 1, 2, 3,....,25 productos defectuosos en el lote

xVariable que nos define el número de alumnos aprobados en la materia de probabilidad en un


grupo de 40 alumnos.

x0, 1, 2, 3, 4, 5,....,40 alumnos aprobados en probabilidad

Con los ejemplos anteriores nos damos cuenta claramente que los valores de la variable x siempre
serán enteros, nunca fraccionarios.

2. Variable aleatoria continua (x). Se le denomina variable porque puede tomar diferentes
valores, aleatoria, porque los valores que toma son totalmente al azar y continua porque puede
tomar tanto valores enteros como fraccionarios y un número infinito de ellos.

3.2.1 La distribuciones continúas.

Es aquella que puede asumir cualquier valor en un intervalo específico; significa entonces que
entre cualquiera de dos valores que puede tomar la V. A. continua, existe un número infinito de
valores.
Naturaleza de la distribución de una variable continua

Consideremos la representación gráfica del histograma polígono de frecuencias de una muestra de


tamaño n. Qué sucede cuando aumentamos el tamaño de la muestra (n), es decir cuando el
número de valores de la V. A. continua es muy grande, con:

el número de intervalos de clase (K)?

la amplitud () de los intervalos de clase??

Consecuencias:

El polígono de frecuencias se aproxima a una curva suave que sirve para representar gráficamente
las distribuciones de probabilidad de una V. A. continua.

El área total bajo la curva es igual a 1 y, es equivalente al área bajo el histograma.

La frecuencia relativa (probabilidad para n ! ") de ocurrencia para los valores entre dos puntos
específicos del eje de las x, es igual área total delimitada por la curva, el eje de las abcisas y las
rectas perpendiculares levantadas sobre ambos puntos.

La probabilidad de cualquier valor específico de la variable es cero, por lo que sólo podremos
hablar de probabilidad dentro de intervalos.

El cálculo de probabilidad se basa en el cálculo integral del área bajo la curva entre dos puntos
cualesquiera del eje de abcisas, generándose la función de densidad de probabilidad.

* La distribución normal.

La distribución normal fue reconocida por primera vez por el francés Abraham de Moivre (1667-
1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró desarrollos más profundos y
formuló la ecuación de la curva; de ahí que también se la conozca, más comúnmente, como la
"campana de Gauss". La distribución de una variable normal está completamente determinada
por dos parámetros, su media y su desviación estándar, denotadas generalmente por y . Con esta
notación, la densidad de la normal viene dada por la ecuación:

Ecuación 1: | |

que determina la curva en forma de campana que tan bien conocemos (Figura 2). Así, se dice que
una característica sigue una distribución normal de media y varianza , y se denota como , si su
función de densidad viene dada por la Ecuación 1.

Al igual que ocurría con un histograma, en el que el área de cada rectángulo es proporcional al
número de datos en el rango de valores correspondiente si, tal y como se muestra en la Figura 2,
en el eje horizontal se levantan perpendiculares en dos puntos a y b, el área bajo la curva
delimitada por esas líneas indica la probabilidad de que la variable de interés, X, tome un valor
cualquiera en ese intervalo. Puesto que la curva alcanza su mayor altura en torno a la media,
mientras que sus "ramas" se extienden asintóticamente hacia los ejes, cuando una variable siga
una distribución normal, será mucho más probable observar un dato cercano al valor medio que
uno que se encuentre muy alejado de éste.

* Áreas bajo la curva normal.

El estudio detenido que acabamos de realizar, desde el punto de vista del análisis matemático, de
las distribuciones normales tipificadas y sin tipificar, nos permitirá aprovechar los conocimientos
que la ciencia estadística proporciona acerca de dicha distribución teórica de frecuencias para
obtener ciertas conclusiones de tipo cuantitativo, de gran aplicación en el análisis de la
uniformidad de las variables psicológicas que tendremos ocasión de llevar a cabo, por ejemplo, en
el Anexo 2.

Y así, se tendrá lo siguiente:

Del mismo modo, en la página siguiente pueden verse expresadas, de manera conjunta las
diversas áreas existentes bajo una curva de distribución normal tipificada o no en función de las
unidades de desviación típica o ͞standard͟ que se adicionen a la media aritmética por el eje de
abscisas. Esto es:

En la siguiente tabla se presentan las áreas: (multiplicadas por 1.000) bajo la curva de distribución
normal. A saber:

De aquí, pueden resolverse las siguientes cuestiones:

a) Área total bajo la curva normal y probabilidad de que la variable psicológica tome un valor
cualquiera de su recorrido o campo de variación (de - ).a +

La simple observación de la tabla anterior nos dice que el área bajo la curva normal, desde 0 a 3'9,
toma el valor:

0'5499'95 / 1.000 = 0'49995

Por la simetría de la curva de Gauss, ésta es la mitad del área total, que vale la unidad. Por otra
parte, la probabilidad de que la variable psicológica en estudio x tome cualquier valor es la certeza
absoluta; por ello, su valor es la unidad, en virtud del axioma o postulado que reza que ͞la
probabilidad de un suceso cierto vale 1͟ (probabilidad total).

b) Área bajo la curva determinada por las ordenadas en los extremos de los intervalos (1, 2) y (-1, -
2). ¿Cuál es el valor de la probabilidad de que la variable psicológica x tome un valor comprendido
entre 1 y 2? ¿Y entre -2 y -1?

Según puede verse en la tabla anterior, las áreas bajo la curva comprendidas entre el eje de
ordenadas (x=0) y las ordenadas x=2 y x=1, son, respectivamente:
477 / 1.000 = 0'477 y 341 / 1.000 = 0'341 ;

entonces, el área pedida será la diferencia:

que es también la probabilidad de que la variable psicológica x tome un valor comprendido entre 1
y 2, por la propiedad aditiva del intervalo de integración en las integrales definidas.

El área comprendida entre las ordenadas x = -2 y x = -1 es la misma anterior y la probabilidad de


que x tome un valor del intervalo (-2, -1) es también igual, en virtud de la simetría de la figura, a:

y P(-2 < x < -1) = 0'136 .

c) Intervalo (-a, a) cuyas ordenadas extremas delimiten el 50 por 100 del área total existente bajo
la curva normal y su expresión probabilística.

Hemos de encontrar ahora un valor x = a, tal que delimite hasta el eje de ordenadas el 25 por 100
del área total (por simetría, el intervalo [-a, 0] delimitará el otro 25 por 100).

Según la tabla, este valor comprendido entre x = 0'6 y x = 0'7, y las áreas respectivas, a saber,
0'226 y 0'258, incluyen la de valor 0'250 pedido.

De la proporción:

obtendremos el valor: a = 0'68, con lo que:

y P(-0'68 < x < 0'68) = 0'50 .

d) Valor de a tal que las colas (áreas a la izquierda de -a y a la derecha de +a) que existen bajo la
curva normal sumen el 5 por 100 del área total.

El área de cada cola debe medir el 2'5 por 100 del área total; entonces el valor de a ha de
satisfacer la condición:

Según la tabla, este valor de a está comprendido entre 1'9 y 2'0 y se puede estimar según la
proporción:

En la práctica, se suelen tomar los valores de -2 y 2 para definir la cola del 5 por 100, o lo que es
igual:

P(-2 < x < 2) = 0'95 .

Habida cuenta de su interés para la realización de este tipo de cálculos dada la dificultad de
resolver integrales definidas de funciones de densidad normales como las que venimos estudiando
en el presente capítulo de nuestro libro, a continuación se presenta una tabla que ofrece las áreas
existentes bajo la curva normal tipificada, limitadas por la ordenada z = 0 y cualquier valor positivo
de z. A partir de esta misma tabla, se pueden encontrar las áreas comprendidas entre dos
ordenadas cualesquiera, utilizando la simetría de la curva de Gauss en relación al eje de ordenadas
z = 0. La tabla siguiente se refiere a las áreas hasta z. Por último, seexistentes bajo la curva normal
tipificada, desde - incluye también una tabla con los valores de las ordenadas (y) de la curva
normal tipificada para los diferentes valores de z.

3.2.2. Aplicaciones de la distribución normal.

Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio nombre


indica su extendida utilización, justificada por la frecuencia o normalidad con la que ciertos
fenómenos tienden a parecerse en su comportamiento a esta distribución.

Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma
de campana.

En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un mismo valor de p y
valores de n cada vez mayores, se ve que sus polígonos de frecuencias se aproximan a una curva
en "forma de campana".

En resumen, la importancia de la distribución normal se debe principalmente a que hay muchas


variables asociadas a fenómenos naturales que siguen el modelo de la normal.

Caracteres morfológicos de individuos (personas, animales, plantas,͙) de una especie, p. ejm.


Tallas, pesos, envergaduras, diámetros, perímetros͙

Caracteres fisiológicos, por ejemplo; efecto de una misma dosis de un fármaco, o de una misma
cantidad de abono.

Caracteres sociológicos, por ejemplo: consumo de cierto producto por un mismo grupo de
individuos, puntuaciones de examen.

Caracteres psicológicos, por ejemplo: cociente intelectual, grado de adaptación a un medio͙͙

Errores cometidos al medir ciertas magnitudes.

Valores estadísticos maestrales, por ejemplo: la media.

Otras distribuciones como la binomial o la de Poisson son aproximaciones normales

You might also like