You are on page 1of 15

REPUBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA DEFENSA UNIVERSIDAD NACIONAL EXPERIMENTAL POLITCNICA DE LA FUERZA ARMADA

UNEFA- ACARIGUA

Chi Cuadrado

Integrantes: Alvarado Gnesis Prez Maria Jos Gutirrez Kimberlym 3er Semestre Ing. En azcar

Acarigua, Junio de 2011 Chi-cuadrado (X2)

Definicin: Una variable Chi cuadrado se define como la suma de n variables normales estandarizadas elevadas al cuadrado. El llamado Test de Chicuadrado es muy usual la necesidad de hacer una comparacin global de grupos de frecuencias. Para este problema el mtodo es diferente, pues el test que se utiliza se denomina Chi-Cuadrado de Pearson, y con ese test lo que queremos determinar es si la frecuencia observada de un fenmeno es significativamente igual a la frecuencia terica prevista, o s, por el contrario, estas dos frecuencias acusan una diferencia significativa Caractersticas: Por definicin, una variable 2 adopta valores positivos o a 2. La distribucin es asimtrica positiva. A medida que aumenta el tamao de la muestra la curva es menos asimtrica, aproximndose a una curva normal. Para cada tamao muestral, se tendr una distribucin 2 diferente. El parmetro que caracteriza a una distribucin2, son sus grados de libertad (n-1), originando una distribucin para cada grado de libertad.

Distribucin de chi- cuadrado: La distribucin chi-cuadrado es una de las distribuciones de probabilidad ms ampliamente utilizada en la estadstica inferencial. Su utilidad reside en que, bajo algunos supuestos razonables y poco exigentes, existen variables que al calcularse pueden dar lugar a una distribucin aproximada a la chi-cuadrado. Las situaciones mejor conocidas del uso de esta distribucin, est en la comn prueba chicuadrado de bondad de ajuste de una distribucin observada a una distribucin terica, y la de independencia de dos criterios de clasificacin de datos cualitativos. Sin embargo, muchos otros test utilizan esta distribucin. La distribucin chi-cuadrado est asociada a un parmetro conocido como grado de libertad, La forma de la distribucin depende del valor de este parmetro .Para muestras extradas de una poblacin normal, con varianza, con tamao (n< 30), siendo S la varianza de la muestra.

La distribucin (de Pearson), es una distribucin de probabilidad continua con un parmetro k que representa los grados de libertad (gl) de la variable aleatoria: Donde Zi: Son variables de distribucin normal, de media cero y varianza uno. El que la variable aleatoria X tenga esta distribucin se representa habitualmente as: X2=n-1s22 DONDE: N= tamao de la muestra. s2=varianza muestral. 2=varianza de la poblacin de donde se extrajo la muestra. Otra forma de expresar ji-cuadrado es: X2 =(x-) 2

Distribucin de ji-cuadrado para algunos valores de grados de libertad: Pruebas no paramtricas: Se denominan pruebas no paramtricas aquellas que no presuponen una distribucin de probabilidad para los datos, por ello se conocen tambin como de distribucin libre (distribucin free). En la mayor parte de ellas los resultados estadsticos se derivan nicamente a partir de procedimientos de ordenacin y recuento, por lo que su base lgica es de fcil comprensin. Cuando trabajamos con muestras pequeas (n < 10) en las que se desconoce si es vlido suponer la normalidad de los datos, conviene utilizar pruebas no paramtricas, al menos para corroborar los resultados obtenidos a partir de la utilizacin de la teora basada en la normal. En estos casos se emplea como parmetro de centralizacin la mediana, que es aquel punto para el que el valor de X est el 50%de las veces por debajo y el 50% por encima. Prueba de Wilcoxon de los rangos con signo:

Esta prueba nos permite comparar nuestros datos con una mediana terica (por ejemplo un valor publicado en un artculo). Llamemos M0 a la mediana frente a la que vamos a contrastar nuestros datos, y sea X1, X2. Xn los valores observados. Se calcula las diferencias X1-M0, X2-M0...Xn-M0. Si la hiptesis nula fuera cierta estas diferencias se distribuiran de forma simtrica en torno a cero. Para efectuar esta prueba se calculan las diferencias en valor absoluto |Xi-M0| y se ordenan de menor a mayor, asignndoles su rango (nmero de orden). Si hubiera dos o ms diferencias con igual valor (empates), se les asigna el rango medio (es decir que si tenemos un empate en las posiciones 2 y 3 se les asigna el valor 2.5 a ambas). Ahora calculamos R+ la suma de todos los rangos de las diferencias positivas, aquellas en las que Xi es mayor que M0 y R- la suma de todos los rangos correspondientes a las diferencias negativas. Si la hiptesis nula es cierta, ambos estadsticos debern ser parecidos, mientras que si nuestros datos tienen a ser ms altos que la mediana M0, se reflejar en un valor mayor de R positivo, y al contrario si son ms bajos. Se trata de contrastar si la menor de las sumas de rangos es excesivamente pequea para ser atribuida al azar o lo que es equivalente si la mayor de las dos sumas de rangos es excesivamente grande. Prueba de Wilcoxon para contrastar datos pareados: El mismo razonamiento lo podemos aplicar cuando tenemos una muestra de parejas de valores, por ejemplo antes y despus del tratamiento, que podemos denominar (X1, Y1), (X2, Y2),..., (Xn, Yn). De la misma forma, ahora calcularemos las diferencias X1-Y1, X2-Y2..., XnYn y las ordenaremos en valor absoluto, asignndoles el rango correspondiente. Calculamos R+ la suma de rangos positivos (cuando Xi es mayor que Yi), y la suma de rangos negativos R-. Ahora la hiptesis nula es que esas diferencias proceden de una distribucin simtrica en torno a cero y si fueran ciertos los valores de R+ y R- sern parecidos. Prueba de Mann-Whitney para muestras independientes: Si tenemos dos series de valores de una variable continua obtenidas en dos muestras independientes: X1, X2... Xn, Y1, Y2...Ym, procederemos a ordenar conjuntamente todos los valores en sentido creciente, asignndoles su rango, corrigiendo el rango medio de los empates. Calculamos luego la suma de rangos para las observaciones

de la primera muestra Sx, y la suma de rangos de la segunda muestra Sy. Si los valores de la poblacin de la que se extrajo la muestra aleatoria de X se localizan por debajo de los valores de Y, entonces la muestra de X tendr probablemente rangos ms bajos, lo que se reflejar en un valor menor de Sx tericamente probable. Si la menor de las sumas de rangos es excesivamente baja, muy improbable en el caso de que fuera cierta la hiptesis nula, sta ser rechazada. Existen ms pruebas no paramtricas entre las cuales tenemos:

Prueba de Kruskal-Wallis para comparar K muestras Prueba de Friedman para comparar K muestras (bloques) Coeficiente de correlacin de Spearman para rangos Prueba de rachas de Wald-Wolfowitz

pareadas

Propiedades: La distribucin es asimtrica a la derecha La variable toma toma valores desde 0 + La distribucin depende de un parmetro gl=n-1. La asimetra de la curva disminuye a medida que crece el grado de libertad. ( si este nmero tiende a infinito dicha curva tiende a una distribucin normal) La distribucin se encuentra tabulada en la forma , 1-.

a) Funcin de Densidad: La distribucin tiene una funcin de densidad que est dada por la ecuacin:

Donde: : Es la funcin gamma (la funcin gamma extiende el concepto de factorial a los nmeros complejos) El parmetro k de, se denomina grados de libertad de la distribucin. La Distribucin ji-cuadrado no tiene sentido para valores negativos de x. Para k = 1 y k = 2 la funcin de densidad para x = 0, se hace infinito.

b) Funcin de distribucin acumulada: La funcin de distribucin de est dada por la ecuacin:

Donde: R (k, z) es la funcin gamma incompleto, el valor esperado y la varianza e una variable aleatoria X con distribucin X 2, son respectivamente k y 2k. APROXIMACION NORMAL DE LA JI-CUADRADO. Si una variable aleatoria X tiene distribucin ji-cuadrado con k grados de libertad, Entonces si k es grande la variable aleatoria Z = Xk (2k) tiene distribucin aproximada Normal estndar.

En la prctica, si k es grande, si se requiere la probabilidad acumulada F(x) con F distribucin ji-cuadrado, se puede obtener su valor aproximado buscando en la Tabla normal F(n) _ x k (2k) En que F(n) es la distribucin normal estndar y se puede utilizar como criterio de la Condicin k > 200. CONSTRUCCION DE UNA JI-CUADRADO A PARTIR DE NORMALES Si Z1, Z2, ...., Zn son n variables aleatorias normales estndar estadsticamente Independientes. Chi-cuadrado con n grados de libertad. Si X1, X2, ....,Xn son n variables aleatorias normales con valor esperado y Varianza 2, independientes. ji-cuadrado con n 1 grados de libertad. Adems esta expresin es estadsticamente independiente del promedio X. La tabla chi-cuadrado: La tabla Chi-cuadrado es usada para realizar pruebas de independencia, que nos permite determinar si existe una relacin entre dos variables categricas. La prueba nos indica si existe o no una relacin entre las variables, pero no indica el grado o el tipo de relacin; es decir, no indica el porcentaje de influencia de una variable sobre la otra o la variable que causa la influencia. La tabla tiene dos entradas: Alfa (): Este valor hace referencia al nivel de confianza que deseamos que tengan los clculos de la prueba; es decir, si queremos tener un nivel de confianza del 95%, el valor de alfa debe ser del 0.05, lo cual corresponde al complemento porcentual de la confianza. Grados de Libertad (k): Es un estimador del nmero de categoras independientes en la prueba de independencia o experimento estadstico. Se encuentran mediante la frmula n-r,

donde n=nmero de sujetos y r es el nmero de grupos estadsticamente dependientes. Relacin de chi-cuadrado con otras distribuciones

La distribucin X2 es un caso especial de la distribucin gamma. De hecho,

La distribucion X2 es una distribucion exponencial de k=2, cuando k es suficientemente grande, como consecuencia del teorema central del limite puede aproximarse por una distribucion normal:

Aplicaciones: La distribucin tiene muchas aplicaciones en inferencia estadstica. La ms conocida es la denomina prueba X2 utilizada como prueba de independencia y como prueba de bondad de ajuste y en la estimacin de varianzas. Pero tambin est involucrada en el problema de estimar la media de una poblacin normalmente distribuida y en el problema de estimar la pendiente de una recta de regresin lineal a travs de su papel en la distribucin T de student, aparece tambin en todos los problemas de anlisis de varianza por su relacin con la distribucin F de Snedecor que es la distribucin del cociente de dos variables aleatorias independientes con distribucin X2 Pruebas de bondad de ajuste. Medidas sobre que tan cerca se ajustan los datos mustrales observados a una forma de distribucin particular planteada como hiptesis. Si el ajuste es razonablemente cercano, puede concluirse que si existe la forma de distribucin planteada como hiptesis.

La toma de decisiones en los negocios muchas veces requiere que se pruebe alguna hiptesis sobre una distribucin poblacional desconocida. Por ejemplo, se puede plantear la hiptesis que la distribucin poblacional es uniforme y que todos los valores posibles tienen la misma probabilidad de ocurrir. Las hiptesis que se probaran son: HO: la distribucin poblacional es uniforme. HA: la distribucin poblacional no es uniforme. La prueba de bondad de ajuste se utiliza entonces para determinar si la distribucin de los valores en la poblacin se ajusta a una forma en particular planteada como hiptesis, en este caso, una distribucin uniforme. De la misma manera que con todas las pruebas estadsticas de esta naturaleza, los datos mustrales se toman de la poblacin y estos constituyen la base de los hallazgos.

Prueba de independencia (Chi Cuadrado) La prueba de independencia chi cuadrado nos permite determinar si existe una relacin entre dos variables categricas. Es necesario resaltar que esta prueba nos indica si existe o no una relacin entre las variables, pero no indica el grado o el tipo de relacin; es decir, no indica el porcentaje de influencia de una variable sobre la otra o la variable que causa la influencia. Prueba de Homogeneidad Prueba de Homogeneidad de varias muestras cualitativas, consiste en comprobar si varias muestras de un carcter cualitativo proceden de la misma poblacin (por ejemplo: estas tres muestras de alumnos provienen de poblaciones con igual distribucin de aprobados? Es necesario que las dos variables medibles estn representadas mediante categoras con las cuales construiremos una tabla de contingencia. .

Prueba de x2 de Person: La prueba de Pearson es considerada como una prueba no paramtrica que mide la discrepancia entre una distribucin observada y

otra terica (bondad de ajuste), indicando en qu medida las diferencias existentes entre ambas, de haberlas, se deben al azar en el contraste de hiptesis. Tambin se utiliza para probar la independencia de dos variables entre s, mediante la presentacin de los datos en tablas de contingencia. La frmula que da el estadstico es la siguiente:

Cuanto mayor sea el valor de 2, menos verosmil es que la hiptesis sea correcta. De la misma forma, cuanto ms se aproxima a cero el valor de chi-cuadrado, ms ajustadas estn ambas distribuciones

Anexos

Distribucin de ji-cuadrado para algunos valores de grados de libertad.

Grafica funcin de densidad

Funcin de Distribucin

Referencias http://es.wikipedia.org/wiki/Distribuci%C3%B3n_chicuadrado http://html.rincondelvago.com/estadistica_45.html http://tgrajales.net/chicuadrada.pdf http://html.rincondelvago.com/distribuciones-deprobabilidad_1.html http://www.monografias.com/trabajos20/estadistica/est adistica.shtml#chi http://www.buenastareas.com/ensayos/DistribucionChi-Cuadrado/632509.html http://es.scribd.com/doc/6784174/Distribucion-Chi