You are on page 1of 6

1 CONCEPTOS GENERALES

Estadística
Es una ciencia que estudia la recolección, análisis e interpretación de datos que buscan
explicar las condiciones de fenómenos de tipo aleatorio y que se fundamenta en el uso de
las matemáticas.
Es una ciencia transversal y funcional a una amplia variedad de disciplinas que requieren
del análisis e interpretación cuestiones que hacen a sus objetos de estudio. La física, la
mayoría de las ciencias sociales, las ciencias vinculadas a la salud y áreas como el control
de calidad y los negocios.
La Estadística se divide en dos ramas:
 Estadística descriptiva
 Estadística inferencial
La estadística descriptiva estudia los métodos de recolección, visualización, descripción y
resumen de los datos que se originan a partir de los fenómenos que se encuentran bajo su
estudio. Este tipo de estadística resume los datos que recolecta numérica o gráficamente.
La estadística inferencial, genera modelos, inferencias y predicciones asociadas a los
fenómenos tomando en cuenta la aleatoriedad de las observaciones. Esta rama de la
estadística se usa mayormente para modelar patrones en los datos y extraer inferencias
acerca de la población que se encuentra bajo estudio. Las inferencias pueden asumir la
forma de respuestas a preguntas tipo si, no, estimaciones numéricas, pronósticos de futuras
observaciones, descripciones de asociación, modelamiento de relaciones entre variables.

1.1 ESTADÍSTICA MODERNA
Etapas históricas
Primera etapa: Los censos
Desde el momento en que se constituye una autoridad política, surgió la necesidad de
inventariar de una forma más o menos regular la población y las riquezas existentes en el
territorio están ligadas a la conciencia de soberanía y a los primeros esfuerzos
administrativos.
Edad Antigua
Los faraones lograron recopilar, hacia el año 3050 a.C, prolijos datos relativos a la
población y la riqueza del país. Ramsés II (1290 a.C), realizó un censo de las tierras para
verificar su reparto.
La Biblia da referencias, (Números), de los datos estadísticos obtenidos en dos recuentos de
la población hebrea. El rey David por otra parte, ordenó hacer un censo de Israel con la
finalidad de conocer el número de la población.
China y Grecia. En China y Grecia se efectuaron censos periódicamente con fines
tributarios, sociales (división de tierras); y militares (cálculo de recursos y hombres
disponibles).
Imperio Romano. Cada cinco años realizaban censos de la población; los funcionarios
públicos tenían la obligación de anotar nacimientos, defunciones y matrimonios, sin olvidar
los recuentos periódicos del ganado y de las riquezas contenidas en las tierras conquistadas.
Para el nacimiento de Cristo sucedía uno de estos empadronamientos de la población bajo
la autoridad del Imperio.
Edad Media:
Durante el siglo IX se realizaron en Francia algunos censos parciales de siervos. En
Inglaterra (1086), Guillermo el Conquistador recopiló el DomesdayBook, libro del Gran
Catastro, un documento de la propiedad, extensión y valor de las tierras de Inglaterra. Esa
obra fue el primer compendio estadístico de Inglaterra.
Edad Moderna:
Para el año 1532 empezaron a registrarse en Inglaterra las defunciones debido al temor que
Enrique VII tenía por la peste. Más o menos por la misma época, en Francia la ley exigió a
los clérigos registrar los bautismos, fallecimientos y matrimonios. Por el año 1540 el
alemán Sebastián Muster realizó una compilación estadística de los recursos nacionales con
datos sobre organización política, instrucciones sociales, comercio y poderío militar.
Segunda Etapa: De la descripción a la aritmética política
Las ideas mercantilistas extrañan una intensificación de la investigación.
La escuela inglesa proporciona un nuevo progreso al superar la fase puramente descriptiva.
Sus tres principales representantes son Graunt, Petty y Halley. El penúltimo es autor de la
famosa Aritmética Política.
Edad Moderna:
John Graunt (1620-1674) es el primer experto en demografía y epidemiología, autor de la
primera tabla de vida (mortalidad). Efectuó predicciones sobre el número de personas que
morirían de varias enfermedades y sobre las proporciones de nacimientos de varones y
mujeres que cabría esperar, basado en los registros de 30 años.
Gaspar Neumann (1648-1715), investiga sobre las defunciones para demostrar que no
morían más personas en los años terminados en 7. El astrónomo Halley (1656-1742),
desarrolla los procesos de Neumann para realizar un análisis de la edad en situación de
muerte, el cual permite al gobierno británico vender rentas vitalicias a un precio adecuado
en función de la edad del comprador, poniendo las bases del Cálculo Actuarial.
Godoferdo Achenwall (1760) acuñó la palabra Estadística, por cuanto la estadística revela
el sentido cuantitativo de las más variadas situaciones, siendo el aliado más eficaz de los
gobernantes. Etimología: la palabra estadística viene de la raíz latina: Statista = Estadista.
Status = estado o situación
Tercera etapa: Estadística y cálculo de probabilidades
A partir del s. XVIII, la Teoría de Probabilidades amplió la esfera de sus aplicaciones. Sus
métodos penetraron en la Estadística, en particular en la Demografía, en los asuntos de
seguros y en la teoría de errores en las observaciones.
Edad Moderna:
Matemáticos como Pascal (1654), Fermat, J. Bernoulli (1713) y otros encontraron en el
caos de los sucesos aleatorios una cantidad determinada de regularidades, de las cuales la
más importante fue la forma más simple de la ley de los grandes números. El problema del
cálculo de probabilidades de las causas a través de los efectos observados condujo a las
fórmulas de Bayes (1742)
Edad Contemporánea: fines del s. XVIII y s. XIX
Laplace(1774) , Legendre (1805), De Moivre (1718), generalizaron la ley de los grandes
números. Poisson(1837) establece la distribución de probabilidad o ley que lleva su
nombre. La teoría de los errores en las observaciones recibió el método de los mínimos
cuadrados elaborado por Legendre (1805), Laplace y Gauss (1809).
Jacques Quetelet (1796-1874), interpretó la teoría de la probabilidad para su uso en las
ciencias sociales y resolver la aplicación del principio de promedios y de la variabilidad a
los fenómenos sociales. El índice de Quetelec o de masa corporal es actualmente utilizado
para determinar la obesidad.
El matemático ruso Chebishev (1821-1894), logró demostrar de manera rigurosa varios
teoremas, entre ellos el teorema central del límite en su versión más general. Andréi
Kolmogorov (1903-1987), desarrolló la base axiomática de la probabilidad utilizando teoría
de la medida, su trabajo es un pilar fundamental en la Teoría de Probabilidades, que se
aplica a través de la estadística.
Pearson (1857-1936), Fisher (1890-1962), Neyman (1894-1981) y Tukey (1915-2000),
desarrollan una intensa investigación sobre el desarrollo y aplicación de los métodos de
inferencia estadística y análisis de datos en diversos ámbitos de la ciencias naturales y
sociales.
En la actualidad
El uso de computadores y software especializado facilitan la aplicación de los métodos de
análisis e inferencia estadística al tiempo que impulsan la investigación y crecimiento de
esta Ciencia.
Conclusiones
La Ciencia Estadística surge como una respuesta a problemas de toma de decisiones y
planificación de los Estados. La Teoría de Probabilidades proporciona el sustento teórico
necesario para el desarrollo de la Estadística como ciencia. Hoy el uso de la estadística se
ha extendido más allá de sus orígenes como un servicio al Estado o al gobierno. Personas y
organizaciones usan la estadística para entender datos y tomar decisiones en ciencias
naturales y sociales, medicina, negocios y otras áreas.
Una vez sentadas las bases de la teoría de probabilidades, podemos situar el nacimiento de
la estadística moderna y su empleo en el análisis de experimentos en los trabajos de Francis
Galton y Kurt Pearson. Este último publicó en 1892 el libro The Grammar of Science (La
gramática de la ciencia), un clásico en la filosofía de la ciencia, y fue él quien ideó el
conocido test de Chi -cuadrado. El hijo de Pearson, Egon, y el matemático nacido en
Polonia Jerzy Neyman pueden considerarse los fundadores de las pruebas modernas de
contraste de hipótesis.
Pero es sin lugar a dudas Ronald Arnold Fisher la figura más influyente de la estadística,
pues la situó como una poderosa herramienta para la planeación y análisis de experimentos.
Contemporáneo de Pearson, desarrolló el análisis de varianza y fue pionero en el desarrollo
de numerosas técnicas de análisis multivariante y en la introducción del método de máxima
verosimilitud para la estimación de parámetros. Su libro Statistical Methods for Research
Workers (Métodos estadísticos para los investigadores), publicado en 1925, ha sido
probablemente el libro de estadística más utilizado a lo largo de muchos años.
Mientras tanto, en Rusia, una activa y fructífera escuela de matemáticas y estadística aportó
asimismo –como no podía ser de otro modo– su considerable influencia. Desde finales del
siglo XVIII y comienzos del XIX cabe destacar las figuras de Pafnuty Chebichev y Andrei
Harkov, y posteriormente las de Alexander Khinchin y Andrey Kolmogorov.

1.2 ESTADÍSTICA E INGENIERÍA
Ingeniería
Disciplina y profesión que aplica los conocimientos, métodos o instrumentos de la ciencia
para el diseño, desarrollo, construcción, operación y mantenimiento de estructuras,
maquinas, aparatos, dispositivos y procesos de la industria y otros campos.
Aplicaciones de la estadística en la ingeniería
La Estadística es aplicada por la ingeniería en los procesos probabilísticos y estadísticos de
análisis e interpretación de datos o características de un conjunto de elementos con la
finalidad de ayudar en la toma de decisiones y en control de procesos industriales y
organizacionales
Los sistemas de procesamiento de datos (uno de los campos de aplicación más importantes)
se justifican cuando los volúmenes de datos recogidos son muy grandes. La única manera
de obtener información útil de grandes volúmenes de datos es mediante el análisis
estadístico.
La importancia de la estadística en la ingeniería se basa en la participación de la industria
en el aumento de la calidad, ya que las técnicas estadísticas pueden emplearse para
describir y comprender la variabilidad, que es el resultado de cambios en las condiciones
bajo las que se hacen las observaciones.
La estadística es una ciencia que trata de entender, organizar y tomar decisiones que estén
de acuerdo con los análisis efectuados que son aplicadas actualmente por la ingeniería
tomando un rápido y sostenido incremento, debido al poder de cálculo de la computación
desde la segunda mitad del siglo XX y su posterior aplicación en la simulación.
Una de las aplicaciones más importantes es la utilización de técnicas de optimización,
permitiendo una reducción en los costos de la materia prima y un incremento en la
productividad.

1.3 CONCEPTOS FUNDAMENTALES
Población
Es un conjunto finito o infinito de personas u objetos que presentan características comunes
que se constituyen en objeto de estudio, acerca de los cuales se intenta sacar conclusiones.
Muestra:
Es un subconjunto de la población a estudiar qué sirve para representarla.
A menudo es imposible o poco práctico observar la totalidad de los individuos, sobre todos
si estos son muchos. En lugar de examinar el grupo entero llamado población o universo, se
examina una pequeña parte del grupo llamada muestra.
Muestra representativa
Una muestra que contiene las características relevantes de la población en las mismas
proporciones que están incluidas en tal población.
Muestreo:
Es el procedimiento empleado para obtener una o más muestras de una población. Este se
realiza una vez que se ha establecido un marco muestral representativo de la población, se
procede a la selección de los elementos de la muestra aunque hay muchos diseños de la
muestra.
Variables
Caracteres cuantitativos, que pueden ser expresados mediante números. Son caracteres
susceptibles de medición. Como por ejemplo, la estatura, el peso, el salario, la edad, etc.
De acuerdo a lo anterior las podemos clasificar como discretas o continuas
Las discretas son variables con un rango finito (o infinito contable)
Las continuas son variables que pueden asumir cualquier valor en un intervalo o conjunto
de intervalos
Atributos
Caracteres cualitativos, que no son susceptibles de medición, es decir que no se pueden
expresar mediante un número.
Parámetro
Es una característica cuantitativa de una población estadística de valor desconocido que se
pretende estimar en un estudio.
Estimador
Índice calculado de una muestra con la intención de generalizarla a la población (media,
varianza, curtosis, asimetría…)
Estadístico
Es el valor que toma un determinado índice en su distribución teórica de probabilidad. El
estadístico es el valor que según se encuentre en la región critica o en la región de
aceptación, nos permitirá aceptar o rechazar la hipótesis nula. Es una característica
cuantitativa de una muestra probabilística que se emplea para estimar un parámetro
poblacional.
Valor p de Fisher (también p-valor o simplemente p)
Es la probabilidad de que un determinado estadístico se deba al azar. Es deseable que su
valor sea alto, así una p = 0,894, implica que de 1000 muestras que se hubiese extraído de
esa población, 894 da un estadístico como el obtenido por efectos del azar. Un p = 0,004
significa que de 1000 muestras, 4 muestran un estadístico como el hallado por el mero
efecto del azar, lo cual no es en ninguna medida deseable. Por tanto:
Si p > α “Se acepta ”
Si p ≤ α “Rechazamos ”
Error tipo I
Se comete al rechazar una hipótesis nula verdadera. El error tipo I es mas grave que el error
tipo II. El error tipo I es equivalente a un falso positivo.
Error tipo II
Se comete al aceptar una hipótesis nula falsa. El error tipo II implica que el tratamiento si
tiene efecto pero no lo percibimos. Aceptar una hipótesis no prueba que sea cierta. El error
tipo II es equivalente a un falso negativo
Nivel de significancia
Es la probabilidad de tomar la decisión de rechazar la hipótesis nula cuando ésta es
verdadera (decisión conocida como error de tipo I, o "falso positivo").
Valor crítico
Es el valor que delimita la región de aceptación de la hipótesis nula de la región crítica o
región de rechazo de la hipótesis nula.
Nivel de confianza
Es la probabilidad de que el parámetro a estimar se encuentre en el intervalo de confianza.
El nivel de confianza se designa mediante 1 − α, y se suele tomar en tanto por ciento.