You are on page 1of 5

DEFINICIONES

La estadística descriptiva es una gran parte de la estadística que se dedica a analizar y representar los datos. Este análisis es muy básico. Aunque hay tendencia a generalizar a toda la población, las primeras conclusiones obtenidas tras un análisis descriptivo, es un estudio calculando una serie de medidas de tendencia central, para ver en qué medida los datos se agrupan o dispersan en torno a un valor central. esto es lo que podria ser un concepto aproximado. La estadística inferencial o inferencia estadística es una parte de la estadística que comprende los métodos y procedimientos para deducir propiedades (hacer inferencias) de una población, a partir de una pequeña parte de la misma (muestra). Población estadística es el conjunto de elementos de referencia sobre el que se realizan las observaciones. muestra estadística es un subconjunto de casos o individuos de una población estadística. Una variable es una característica que al ser medida en diferentes individuos es susceptible de adoptar diferentes valores. Variables cualitativas Son las variables que expresan distintas cualidades, características o modalidad. Cada modalidad que se presenta se denomina atributo o categoría y la medición consiste en una clasificación de dichos atributos. Las variables cualitativas pueden ser dicotómicas cuando sólo pueden tomar dos valores posibles como sí y no, hombre y mujer o son politómicas cuando pueden adquirir tres o más valores. Dentro de ellas podemos distinguir: Variable cualitativa ordinal o variable cuasicuantitativa: La variable puede tomar distintos valores ordenados siguiendo una escala establecida, aunque no es necesario que el intervalo entre mediciones sea uniforme, por ejemplo: leve, moderado, grave.

Variable cualitativa nominal: En esta variable los valores no pueden ser sometidos a un criterio de orden como por ejemplo los colores o el lugar de residencia.

Variables cuantitativas Son las variables que se expresan mediante cantidades numéricas. Las variables cuantitativas además pueden ser: Variable discreta: Es la variable que presenta separaciones o interrupciones en la escala de valores que puede tomar. Estas separaciones

o interrupciones indican la ausencia de valores entre los distintos valores específicos que la variable pueda asumir. Ejemplo: El número de hijos (1, 2, 3, 4, 5). Variable continua: Es la variable que puede adquirir cualquier valor dentro de un intervalo especificado de valores. Por ejemplo la masa (2,3 kg, 2,4 kg, 2,5 kg, ...) o la altura (1,64 m, 1,65 m, 1,66 m, ...), que solamente está limitado por la precisión del aparato medidor, en teoría permiten que siempre exista un valor entre dos variables, también puede ser el dinero o un salario dado.

Variables independientes • Son las que el investigador escoge para establecer agrupaciones en el estudio, clasificando intrínsecamente a los casos del mismo. Un tipo especial son las variables de control, que modifican al resto de las variables independientes y que de no tenerse en cuenta adecuadamente pueden alterar los resultados por medio de un sesgo. Es aquella característica o propiedad que se supone ser la causa del fenómeno estudiado. En investigación experimental se llama así a la variable que el investigador manipula. Son las variables de respuesta que se observan en el estudio y que podrían estar influenciadas por los valores de las variables independientes. Hayman (1974 : 69) la define como propiedad o característica que se trata de cambiar mediante la manipulación de la variable independiente. La variable dependiente es el factor que es observado y medido para determinar el efecto de la variable independiente.

Variables dependientes •

• •

Variable interviniente Son aquellas características o propiedades que de una manera u otra afectan el resultado que se espera y están vinculadas con las variables independientes y dependientes. Variable moderadora Según Tuckman: representan un tipo especial de variable independiente, que es secundaria, y se selecciona con la finalidad de determinar si afecta la relación entre la variable independiente primaria y las variables dependientes. Frecuencia absoluta (ni) de una variable estadística Xi, es el número de veces que aparece en el estudio este valor . A mayor tamaño de la muestra, aumentará el tamaño de la frecuencia absoluta; es decir, la suma total de todas las frecuencias absolutas debe dar el total de la muestra estudiada (N).

Frecuencia relativa (fi), es el cociente entre la frecuencia absoluta y el tamaño de la muestra (N). Es decir,

Frecuencia absoluta acumulada (Ni), es el número de veces ni en la muestra N con un valor igual o menor al de la variable. La última frecuencia absoluta acumulada deberá ser igual a N.

Frecuencia relativa acumulada (Fi), es el cociente entre la frecuencia absoluta acumulada y el número total de datos, N. Es decir,

La media aritmética (también llamada promedio o simplemente media) de un conjunto finito de números es igual a la suma de todos sus valores dividida entre el número de sumandos. La moda es el valor con una mayor frecuencia en una distribución de datos tambien es el valor o numero que se encuentra mas frecuente mente se le denomina moda o se representa con

La mediana, representa el valor de la variable de posición central en un conjunto de datos ordenados. De acuerdo con esta definición el conjunto de datos menores o iguales que la mediana representarán el 50% de los datos, y los que sean mayores que la mediana representarán el otro 50% del total de datos de la muestra. La media armónica , denominada H, de una cantidad finita de números es igual al recíproco, o inverso, de la media aritmética de los recíprocos de dichos valores Así, dados n números x1, x2, ... , xn la media armónica será igual a:

Cuartil Uno de los tres puntos que dividen un conjunto de datos numéricamente ordenados en cuatro partes iguales. A estos tres puntos se les llama primer cuartil (también llamado el cuartil inferior), segundo cuartil (el cuartil medio; es la mediana) y el tercer cuartil (cuartil superior), respectivamente. Se pueden utilizar para darnos una idea de la dispersión de los datos. Percentil El concepto es sencillo. Si tenemos una muestra con muchos valores y la dividimos en 100 partes, cada una de ellas es un percentil. El percentil está referenciado de 0 a 100. El Percentil 0 es el menor valor de la muestra y el Percentil 100 el mayor valor El recorrido o rango es la diferencia entre el mayor y el menor de los datos de una distribución estadística Varianza: es el promedio del cuadrado de las distancias entre cada observación y la media aritmética del conjunto de observaciones.

Desviación típica: se define como la raíz cuadrada positiva de la varianza.

Recorrido: Es la diferencia entre el valor de las observaciones mayor y el menor.

Cuasivarianza: Es una medida de dispersión, cuya única diferencia con la varianza es que dividimos por N-1. la curtosis es una medida de la forma o apuntamiento de las distribuciones. Así las medidas de curtosis (también llamadas de apuntamiento o de concentración central) tratan de estudiar la mayor o menor concentración de frecuencias alrededor de la media y en la zona central de la distribución. Coeficiente de asimetría de Fisher En teoría de la probabilidad y estadística, la medida de asimetría más utilizada parte del uso del tercer momento estándar. La razón de esto es que nos interesa mantener el signo de las desviaciones con respecto a la media, para obtener si son mayores las que ocurren a la derecha de la media que las de la izquierda. Sin embargo, no es buena idea tomar el momento estándar con respecto a la media de orden 1. Debido a que una simple suma de todas las desviaciones siempre es cero. En efecto, si por ejemplo, los datos están agrupados en k clases, se tiene que:

en donde xi representa la marca de la clase i-ésima y fi denota la frecuencia relativa de dicha clase. Por ello, lo más sencillo es tomar las desviaciones al cubo. El coeficiente de asimetría de Fisher, representado por γ1, se define como:

donde μ3 es el tercer momento en torno a la media y σ es la desviación estándar. Si γ1 = 0, la distribución es simétrica. Si γ1 > 0, la distribución es asimétrica positiva o a la derecha. Si γ1 < 0, la distribución es asimétrica negativa o a la izquierda. Coeficiente de asimetría de Pearson Sólo se puede utilizar en distribuciones uniformes, unimodales y moderadamente asimétricas. Se basa en que en distribuciones simétricas la media de la distribución es igual a la moda.

Si la distribución es simétrica, μ = moda y Ap = 0. Si la distribución es asimétrica positiva la media se sitúa por encima de la moda y, por tanto, Ap > 0. Coeficiente de asimetría de Bowley Está basado en la posición de los cuartiles y la mediana, y utiliza la siguiente expresión:

En una distribución simétrica el tercer cuartil estará a la misma distancia de la mediana que el primer cuartil. Por tanto AB = 0. Si la distribución es positiva o a la derecha, AB > 0.