Desarrollo

Conceptos

Inferencia Estadística

Es una parte de la Estadística que permite realizar afirmaciones de naturaleza probabilística respecto a una población, en base a los resultados obtenidos en una muestra seleccionada de esa población. Puesto que las poblaciones son descritas por medidas numéricas descriptivas, llamados parámetros, se puede hacer Inferencias acerca de la población haciendo Inferencias respecto a sus parámetros.

 Estimación
En inferencia estadística se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra. Por ejemplo, una estimación de la media de una determinada característica de una población de tamaño N podría ser la media de esa misma característica para una muestra de tamaño n. El término estimación también se utiliza en ciencias aplicadas para hacer referencia a un cálculo aproximado, que normalmente se apoya en la herramienta estadística aunque puede no hacerlo. En este sentido, un ejemplo clásico son los poco conocidos pero útiles en economía problemas de Fermi.

 Prueba de Hipótesis
Es una aseveración de una población elaborado con el propósito de poner a prueba, para verificar si la afirmación es razonable se usan datos. En el análisis estadístico se hace una aseveración, es decir, se plantea una hipótesis, después se hacen las pruebas para verificar la aseveración o para determinar que no es verdadera. Por tanto, la prueba de hipótesis es un procedimiento basado en la evidencia muestral y la teoría de probabilidad; se emplea para determinar si la hipótesis es una afirmación razonable.

. puntuales y por intervalo.Las pruebas de hipótesis. Una estimación puntual es un único valor estadístico y se usa para estimar un parámetro. .Estimaciónciones: puntual y por intervalos de confianza ESTIMACION El objetivo principal de la estadística inferencial es la estimación. esto se consigue con las Técnicas de muestreo. Existen dos tipos de estimaciones para parámetros.(definición página……) En la Inferencia Estadística hay varios métodos. Una estimación por intervalo es un rango. los estadísticos varían mucho dentro de sus distribuciones muestrales. pero en cualquier caso es necesario utilizar una muestra que represente a la población. que se espera que contenga el parámetro.Obtener valores aproximados de parámetros poblacionales: Estimaci poblacionales: Estimación puntual. Existen dos formas de hacer Inferencia Estadística: .  Estimación puntual La Estadística Inferencial estudia cómo sacar conclusiones generales para toda la población a partir del estudio de una muestra. generalmente de ancho finito. y mientras menor sea el error estándar de un estadístico.La estimación de parámetros. A partir de una muestra nos proponemos dos objetivos: . más cercanos serán unos de otros sus valores.En el caso de que investiguemos una variable cuantitativa: a) Para la media de la población μ tomaremos como aproximación la media de la muestra. Esencialmente son tres los parámetros de interés: . El estadístico usado se denomina estimador. Como vimos en la sección anterior. esto es que mediante el estudio de una muestra de una población se quiere generalizar las conclusiones al total de la misma.

). PROPIEDADES DE UN ESTIMADOR Existe una propiedad que comprende conjuntamente las propiedades de insesgamiento y eficiencia.) sean pequeños. El error cuadrático medio de T. Se trata del error cuadrático medio. Si éste es pequeño. Sea T un estimador del parámetro .)2] ¿Cuál es la información que nos proporciona el error cuadrático medio? Nos referimos al promedio de los cuadrados de las observaciones. y así lo será también la diferencia (T.Si el estudio se centra en el estudio de un carácter cualitativo el parámetro de interés será la proporción de elementos de la población que pertenecen a cierta categoría C que lo aproximaremos con la correspondiente proporción en la muestra. lo que quiere decir que T tiende a producir respuestas numéricas próximas al parámetro .= b) Para la varianza de la población σ2 tomaremos la cuasivarianza de la muestra. ECM(T) = E[(T.Estas dos condiciones matemáticamente establecidas y precisadas en el teorema siguiente: quedan . El poder que tenga T para producir valores próximos a depende de dos condiciones básicas. = . se define como el valor esperado de (T.)2 . debemos aceptar que hay una tendencia para que los valores (T. denotado ECM(T). Una es la “fuerza” o intensidad con la que tiende a dar esos valores (insesgamiento) y la otra es la “fuerza” que tenga para no permitir que se aparte de del camino que lo conduce a (eficiencia).

el hecho de que tiende al valor a medida que el experimento se repite. Pero nosotros pretendemos es contar con criterios que garanticen una . lo que indica que T tiende a dar valores próximos al parámetro.TEOREMA Si T es un estimador del parámetro Demostración: ECM(T) = E[(T. La diferencia -E(T) se llama sesgo del estimador. Para ello debemos tomar aquel que tenga menor error cuadrático medio. ECM(T) = V[T] – [ -E(T)]2 ] = E(T2)-E(2 T)+E( 2 2 ) = E(T2) -2 ) = E(T2) – [E(T)]2 + [E(T)]2 .2 E(T) + ) = V(T) + [ . Trabajando con las fórmulas podemos observar que va a depender del valor de la media.E(T)]2. De esta expresión deducimos que el error cuadrático medio sera pequeño en la medida que lo sea su varianza y lo mismo ocurra con [ -E(T)]2. si obtenemos el error cuadrático medio para el primer estimador utilizando el teorema anterior obtenemos mismo para el segundo estimador obtenemos .. -E(T) sea pequeño quiere decir que E(T) El valor pequeño de la varianza quiere decir que T presenta poca variabilidad. X2. En este ejemplo observamos que para escoger el mejor estimador tendríamos que saber cuál es el verdadero valor de la media poblacional.. es decir -E(T).2 T + E(T) + E( 2 2 . . haciendo lo Supongamos que tenemos que escoger uno de los dos estimadores..2 E(T) + 2 = (E(T2) –[E(T)]2) + ([E(T)]2 . Estudiaremos un ejemplo que nos muestra como las dos propiedades anteriores pueden no ser suficientes paradeterminar el mejor estimador: Ejemplo: Sea X1.)2] = E[T2 . Xn una muestra aleatoria de una población de media desconocida y varianza =81. Consideremos T1= yT2= como estimadores de la media.

si se Se dice que una estadística T es un estimador insesgado de cumple que E(T)= para cualquier valor de .. También podemos decir que un estimador insesgadoes aquel que tiene sesgo igual a cero. . Xn una muestra aleatoria de cierta distribución de media varianza a)T1= . sin importar el valor particular del parámetro objeto de estudio. Entonces: . Para precisar estos criterios estudiaremos el error cuadrático medio en sus partes y así iniciamos el estudio de la diferencia . .E(T). Volviendo al ejemplo anterior tendríamos que la media muestral es un estimador insesgado de la media de la población mientras queT2 no lo es. X2.buena selección del estimador. TEOREMA: Sea X1. . Los siguientes gráficos ilustran el significado de estimador insesgado y estimador sesgado ... y es un estimador insesgado de b)T2=S2 es un estimador insesgado de La propiedad de insesgamiento nos garantiza que las estimaciones que hagamos con el estimador se encuentran alrededor del parámetro en cuestión. entonces escoja el insesgado. y uno de ellos Continuando con el ejemplo escogeríamos la media muestral como mejor estimador de la media. de esto podemos deducir la siguienteREGLA DE PROCEDIMIENTO: REGLA 1 : Si tenemos T1 y T2 estimadores del parámetro es insesgado.

la varianza muestral y la proporción muestral son buenos estimadores. Un estimador T del parámetro es suficiente cuando es capaz de sustraer de la muestra toda la información que ésta contengaacerca del parámetro. otras propiedades ambos de los La consistencia se refiere al comportamiento de un estimador. Los estimadores de mayor uso como la media muestral. T es un estimador consistente para cuando n tiende a infinito. Es decir un estimador es consistente si a medida que aumenta el tamaño de la muestra. . Tenemos que tener en cuenta estimadores consistencia y eficiencia. la probabilidad de que se acerque al parámetro va siendo mayor. a medida que la muestra se va tomando de un tamaño mayor. si se cumple que .Una vez que tenemos dos estimadores con el mismo sesgo deberíamos tener otra regla que nos permita elegir uno en lugar del otro. . así llegamos a la SEGUNDA REGLA DE PROCEDIMIENTO : REGLA 2: Si tenemos T1 y T2 estimadores del parámetro insesgado. entonces escoja el de menor varianza.

Ahora vamos a calcular la probabilidad de obtener 4 respuestas sí de acuerdo con la proporción verdadera que pueda darse en la población universitaria. Es decir n=10.1.x=4.. dados todos los valores posibles del parámetro. donde X= número de estudiantes que respondieron si.. Si tomamos x=4 tenemos Calcularemos las probabilidades respectivas para los distintos valores de y los reflejamos en la siguiente tabla: P[X=4] 0´0 0´1 0´2 0´3 0´4 0´5 0´6 0´0000 0´0112 0´0881 0´2001 0´2508 0´2051 0´1115 . ESTIMACIÓN DE MÁXIMA VEROSIMILITUD La estimación de máxima verosimilitud consiste en considerar todos los valores posibles del parámetro de la población y calcular la probabilidad de que se obtenga ese estimador particular. Ejemplo: Deseamos conocer la proporción de estudiantes de cierta universidad que están a favor de un cambio de sede. Consideraremos que la variable aleatoria definida sigue una binomial con lo que : .10.. método de los momentos muestrales y método de los mínimos cuadrados. x=0. Se escogieron aleatoriamente 10 estudiantes y 4 de ellos respondieron “si”.La pregunta que nos podemos hacer es ¿cómo se obtiene un estimador? Los métodos más comunes son el de máxima verosimilitud.2..

podemos recurrir a la herramienta matemática conocida como criterio de la derivada para obtención de valores extremos . De esta forma la función anterior es la probabilidad condicional de X = 4 dado = p y su gráfica es la siguiente: Aunque en la gráfica se puede observar el máximo. 0 1. Naturalmente la proporción verdadera puede ser distinta del valor muestral obtenido. Esta función la llamaremos función de verosimilitud y formalmente queda definida como: L( )=210 4 (1.1]. Es decir.)6. el valor de la proporción muestral que hace máxima la función.0´7 0´8 0´9 1´0 0´0368 0´0055 0´0001 0´0000 En la tabla podemos notar que la máxima probabilidad se da para =0´4 que coincide precisamente con la proporción muestral. También podríamos haber tomado otros valores de distintos a los de la tabla anterior y de esta manera sería más preciso considerar la función L( ) como una función continua definida en el intervalo [0. Pero es un riesgo que viene producido por proceder por muestreo y no investigar a toda la población. L( )=210 4(1. Veamos que ocurre en general: .)6.

. Este estimador se emplea para estimar 5. Se emplea para estimar y se escribe 2. llama estimador de máxima verosimilitud de ESTIMADORES DE LOS PARÁMETROS MÁS USUALES: 1. Desviación Típica Muestral. T=N . S2= estimar . X2. Total Poblacional.. Este estimador se emplea para y se escribe =S2. S= . es aquel ). Media Muestral. ) determinada por el parámetro . Con estos datos formamos el producto f(x1. Este estimador se emplea para estimar y se escribe = S. = .. .xn.. ) f(x2. llama función de máxima verosimilitud.f(xn. y se escribe . L( ) = f(x1.Sea X una variable aleatoria con función de densidad f(x. ) . Supongamos que de la población extraemos una muestra de tamaño n que proporciona los datos x1. Total Poblacional. ... T=N . f(xn. )f(x2. . 3. Este producto se Una estimación de máxima verosimilitud para el parámetro valor de donde la función de verosimilitud asuma su máximo La expresión de en términos de la muestra aleatoria X1. Este estimador se emplea para estimar el y se escribe =N .. Varianza Muestral. Proporción Muestral. = . . Xn se . x2. 4. ) .. total poblacional 6. ). Este estimador se emplea para estimar el total poblacional de individuos que poseen una determinada característica y se escribe =N ..

Sin embargo. Lo que haremos es dar un intervalo donde afirmaremos o pronosticaremos que en . como estimador de es la desviación . Así por ejemplo. El error estándar de un estimador T de un parámetro estándar del estimador. En realidad por cada valor estimado del parámetro se tiene un error de estimación por lo general diferente. es posible fijar un intervalo dentro del cual se encontrarán la mayoría de los valores de error de estimación para un estimador y parámetro dados. Por lo tanto deberíamos tener una medida de la variabilidad del estimador respecto del parámetro que se trata de estimar. PARÁMETRO ESTIMADOR ERROR ESTÁNDAR ESTIMADOR ERROR DEL = N =  Estimación por Intervalo de Confianza A diferencia de la estimación puntual donde la estimación la efectuábamos dando un valor concreto. En la tabla siguiente se dan las fórmulas de los errores de estimación para algunos estimadores y los estimadores para tales errores. entonces el error Error de estimación es el valor absoluto de la diferencia entre una estimación particular y el valor del parámetro. si tomamos estándar está dado por . en esta ocasión el planteamiento es otro. Los estimadores se usan cuando los parámetros que se incluyen en las fórmulas de los errores de estimación son desconocidos. Esta variabilidad se mide en términos de la desviación estándar del estimador.EL ERROR ESTÁNDAR Un mismo estimador ofrece distintos valores para distintas muestras del mismo tamaño extraídas de la misma población. la cual recibe el nombre de error estándar.

es decir que el margen de error se hará más grande cuanto más precisión exijamos.su interior se encontrará el parámetro a estimar. y la llamaremos nivel de confianza. con una probabilidad de acertar previamente fijada y que trataremos que sea la mayor posible.α. el intervalo en cuestión es (a. A mayor valor de 1. con una probabilidad de acierto alta.b). por tanto eso implica que α tendrá que ser pequeño. Por ejemplo. Para interpretar bien estos conceptos veamos un ejemplo: Supongamos que deseamos estimar la media de la estatura de una población mediante un intervalo de confianza al 95% de nivel de confianza. se dice que el nivel de confianza es del 90%. que representaremos por n. esto quiere decir que si elegimos 100 muestras de tamaño 50 y cada vez calculamos el intervalo de confianza resultante. Así cuando. es el tamaño de la muestra.9 y por tanto α vale 0. Un dato importante como es de esperar. más probabilidad de acierto en nuestra estimación. cuanto mayor tamaño tenga la muestra. con una muestra de tamaño 50.α vale 0. acertaremos en nuestro pronóstico en 95 de las 100 veces que realizaríamos la estimación con cada muestra. pero . Si el tamaño de la muestra permanece constante y variamos 1.1. Recordemos que 1. a igual nivel de confianza. si para dar un intervalo de confianza de la media de la estatura de una población de adultos de un país. si bien en la mayoría de los enunciados de los problemas suele ser enunciado en términos de tanto por ciento. el tamaño del intervalo se hará más grande cuanto más aumente 1. Supongamos que tras los cálculos necesarios. por ejemplo. Al valor de esta probabilidad la representaremos por 1-α.α representa siempre una probabilidad por lo que será un valor entre 0 y 1. es decir próxima a 1. Es evidente que.α. Para ello se establecerá la notación a utilizar: Se dicho que vamos a proponer un intervalo donde se encontrará el parámetro a estimar. próximo a 0.α. 190 cm). significa que 1. Pues bien. el intervalo de confianza se reducirá puesto que el valor obtenido en la muestra se acercará más al valor real de la población y por tanto el margen de error cometido (radio del intervalo) se hará más pequeño. es seguro que acertaría al cien por cien si el intervalo que diese fuese (150 cm.

sería una estimación absurda ya que no sabría apreciar realmente la media. Método del pivote. sigue una distribución normal de media μ y desviación típica como probaremos a continuación: Calculemos la esperanza y la varianza de X: . sigue una distribución de probabilidad conocida que se encuentra tabulada.  Cálculo de intervalos de confianza. la media poblacional. llamada t-Student con n-1 grados de libertad. Se utiliza es estadístico pivote: que sigue una N(0. conocida la desviación típica de la población en una variable aleatoria normal. el proceso para obtener el intervalo es dar una variable aleatoria donde intervenga el parámetro a estimar y el correspondiente de la muestra. la cuasi desviación típica y el tamaño muestral. por lo que nosotros vamos a suponer siempre que la variable con la que vamos a trabajar sigue una distribución normal. Por tanto se trata de dar un intervalo lo más reducido posible. El cálculo de intervalos de confianza no es un proceso fácil cuando la variable en estudio no sigue unas pautas de normalidad. esa expresión donde interviene la media muestral.b) de modo que . Una vez establecida esa desigualdad.1) Recordemos que es la media muestral. Se trata pues de dar un intervalo (a. siendo g el estadístico pivote correspondiente. Dicho esto. Por ejemplo para el cálculo de un intervalo de confianza de la media se utiliza el siguiente estadístico pivote: Pues bien. A esta variable se le llama estadístico pivote y debe seguir una distribución de probabilidad conocida. despejamos el parámetro poblacional que es el que queremos centrar en el intervalo.  Cálculo del intervalo de confianza para la media.

3 minutos. Tip. Sabiendo por otras pruebas que la desviación típica de esta variable para este nadador es de 0. para lo cual se cronometran 10 pruebas. obtener un intervalo de confianza con un 95% de confianza.Por tanto la desv. obteniéndose una media de 41. ¿Cuantas pruebas habría que cronometrar para que el margen de error en la estimación de la media fuese inferior a tres segundos. Obsérvese que se trata del radio del intervalo. Veamos un ejemplo práctico: Se desea estimar la media del tiempo empleado por un nadador en una prueba olímpica.5 minutos. Es Estamos pues ante la siguiente situación: A la expresión se le denomina margen de error y en ocasiones se expresa en tanto por ciento. (Suponemos .

59%. es decir a la izquierda. nos piden el tamaño de la muestra para que en las mismas condiciones el margen de error sea inferior a 3 seg. Como la función de distribución de probabilidad de la tabla N (0. es decir 0. que se corresponde para un valor de z=1. tengo que ver que valor de z me deja a la izquierda 0. es decir 0. (Recordemos que el margen de error cometido en la estima es el radio del intervalo.5 más menos un margen de error del 18. .96.siempre que la variable que mide el tiempo del nadador sigue una distribución normal.05 minutos. de modo que en la distribución N(0.05 minutos (Debemos pasar todo a las mismas unidades).1) deje una área de probabilidad a la derecha igual a α/2. para obtener un error inferior a 0. Así pues el intervalo buscado es: También se puede expresar así: Se estima que la media es 41. Del enunciado del problema se desprenden directamente los siguientes datos: Tenemos que buscar un valor zα/2. Que el error sea inferior al 5% es acotar el radio del intervalo de confianza con ese valor: En consecuencia. es decir 0.) Estamos en el caso de un intervalo de confianza para la media conociendo la desviación típica de la población.1859) En cuanto a la segunda parte del problema.1) me da el área de probabilidad acumulada.975.025. deberemos tomar una muestra de al menos 139 pruebas cronometradas.

.

.

quien introdujo en 1889 el término regresión en Estadística. Hoy día. que si los padres son altos. consideradas sobre la misma población objeto de estudio (por ejemplo la talla y el peso). Observó. pueden considerarse independientes. o másde una. y si los padres son bajos los hijos son también de menor estatura. En muchas ocasiones. y suena como "ir hacia atrás". Empleó este concepto para indicar la relación que existía entre la estatura de los niños de una muestra y la estatura de su padre. Hay muchos casos en los que ya de antemano se "sospecha" que puede existir algún tipo de relación. por el contrario. Fue un biólogo y estadístico inglés. . La utilizan los biólogos. por cierto. "volver al pasado". se desea conocer algo acerca de la relación o dependencia entre dos características cuantitativas. y por consiguiente... SIR FRANCIS GALTON*. y realmente este esverdadero significado del vocablo. se pretende saber por ejemplo. están muy alejados. de modo que sus hijos retroceden hacia la media de la que sus padres. aparece una perceptible "regresión" hacia la estatura media de la población.Análisis de Regresión y Correlación Regresión es una palabra un tanto rara. los médicos.. en el caso de que tengamos únicamente dos variables: 1. Pero ocurría un hecho curioso: cuando el padre es muy alto o muy bajo.Si ambas variables están realmente relacionadas entre sí o si. el término no se utiliza en ese sentido. los hijos generalmente también lo son. los psicólogos.

3.Si existe dependencia. de modo que para cada individuo tenemos un para de valores (xi. sea una parábola). yi. Por ejemplo. y si es así. lo que suele ocurrir es que no existe una dependencia funcional perfecta. podríamos escribirla (en el caso de la figura 6. entre otros. es necesario conocer el "grado de relación". errores aleatorios o de medida. los puntos del diagrama de dispersión correspondiente. xi. la relación entre X e Y.. cada individuo vendrá representado por un punto en el gráfico.. Seguidamente. aparecen sobre la función Y=f(X). debido por ejemplo. Al dibujar la nube de puntos. podemos encontrarnos.. y cuyos efectos sean diferentes a los de X.2. y X a la variable independiente o regresora). el caso de la figura 1d sería Y=a+bX. yi) (i=1. o simplemente a que estamos especificando mal el modelo (por ejemplo. podremos obtener una primera idea acerca de la forma y de la dispersión de la nube de puntos.. consiste en tomar una muestra aleatoria. donde e es un error o un residual. que es considerada independiente. denotando con Y a la variable dependiente. sino otra dependencia o relación menos rigurosa que se denomina dependencia estocástica (figura 1b y c). los casos a los que hace referencia la figura 1 En primer lugar deberemos distinguir entre dependencia funcional y dependencia estocástica. De esa forma.. con qué precisión. Sin embargo. lo primero que suele hacerse para ver si dos variables aleatorias están relacionadas o no (de ahora en adelante las llamaremos X e Y. En el primer caso la relación es perfecta: Y=f(X) (ver figura 1 grafica e). Así. .1. a no incluir variables en el modelo que sean importantes a la hora de explicar el comportamiento de Y. entonces.b) de la forma Y=a+bX+e. representamos dichos valores en unos ejes cartesianos. así como el "tipo" de relación entre ambas. de coordenadas.n). que en lugar de ser una recta. es decir.Si puede predecirse la variable que es considerada como dependiente a partir de los valores de la otra. Sobre cada individuo de la muestra se analizan las dos características en estudio. dando lugar al diagrama conocido como diagrama de dispersión o nube de puntos. ¿Cuándo existe regresión? De una forma general..

¿Existe dependencia estocástica entre las variables? b.Análisis de Correlación (* El orden de exposición de los dos Análisis es arbitrario. En la dependencia estocástica. : a.¿Cuál es el grado de dicha dependencia? El Análisis de regresión.¿Cuál es el tipo de dependencia entre las dos variables? . El orden para su estudio puede invertirse) El Análisis de correlación.Análisis de Regresión 2..Figura 1: Tipos de relación entre dos variables X e Y El caso de la figura 6. o independencia... tiene como fin dar respuesta a las preguntas: a. se distinguen dos tipos de técnicas: 1..1a se corresponde con el de ausencia de relación..

etc. el estadístico . Potencial. están variando conjuntamente. ¿Con qué precisión?. Exponencial.¿Pueden estimarse los valores de Y a partir de los de X?. a la ecuación que nos describe la relación entre las dos variables la denominamos ecuación de regresión.. Tipos de regresión Si las dos variables X e Y se relacionan según un modelo de línea recta. Si existe regresión.. la variable X se conoce como variable independiente. y la Y como variable dependiente. Definiremos como covarianza de dos variables X e Y. hablaremos de Regresión múltiple. Cuando las variables X e Y se relacionan según una línea curva. cuando hay alguna línea. Aquí podemos distinguir entre Regresión parabólica. se hacen necesarios métodos estadísticos objetivos. En cambio. Cuando tenemos más de una variable independiente (X1. pero en sentido contrario. los de la otra disminuyen. ya que depende del autor o del estado de ánimo de la persona en un momento determinado. a las variables Xi. y en el mismo sentido. cuando al aumentar los valores de una. predictoras o independientes. hablaremos de Regresión no lineal o curvilínea. y una sola variable dependiente Y. regresoras.. Se dice que dos variables están variando conjuntamente. X2. Por ejemplo: Y=a+bX Y=a+bX+cX2 En general. diremos que existe regresión de los valores de una variable con respecto a los de otra.. Por lo tanto. y denotaremos por SXY. para determinar la existencia o no de relación y el tipo de la misma. De modo general. Evidentemente puede ser arbitrario el determinar la existencia de regresión así como el tipo de la misma..b. Xp). independientes del investigador. cuando al crecer los valores de una de las variables también aumentan los de la otra. hablaremos de Regresión Lineal Simple: Y=a+bx. se las denomina. llamada línea de regresión que se ajusta más o menos claramente a la nube de puntos.

que nos permite analizar la variación conjunta de dos variables. Viene dado por la siguiente expresión: Si cada pareja de observaciones (xi. deberíamos introducir en la expresión anterior la correspondiente frecuencia. observaremos detenidamente el gráfico de la figura 2 Figura 2: Gráfico que pone de manifiesto la importancia de la covarianza como medida de la asociación lineal . La covarianza. Para ello.yi) se repitiese un número de veces. análogamente a como se hace en la expresión de la varianza. puede ser utilizada como una medida inicial de la asociación lineal entre las dos variables.

.

Referencias bibliográficas http://www.html http://maralboran.iesxunqueira1.org/wiki/Estimacion_estadistica http://thales.slideshare.com/Download/pdf/teointervalos.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo8/B0C8 m1t7.php/Estimaci%C3%B3n_puntual http://www.pdf .htm http://www.wikipedia.es/ALUMNOS/BIOLOGIA/5BIOLOGIA/Regresionsimple.net/requeabaddorothy/inferencia-estadstica-1554972 http://es.cica.es/rd/Recursos/rd99/ed99-0018-04/MESTPUNT.pdf http://biplot.usal.org/wikipedia/index.