Ciencia Ergo Sum

Universidad Autónoma del Estado de México
ergo_sum@uaemex.mx
ISSN (Versión impresa): 1405-0269
MÉXICO

2007
Manuel R. Piña Monarrez / Manuel A. Rodríguez Medina / Jesús J. Aguirre Solís
REGRESIÓN RIDGE Y LA DISTRIBUCIÓN CENTRAL T
Ciencia Ergo Sum, julio-octubre, año/vol. 14, número 002
Universidad Autónoma del Estado de México
Toluca, México
pp. 191-196

Red de Revistas Científicas de América Latina y el Caribe, España y Portugal

Universidad Autónoma del Estado de México

http://redalyc.uaemex.mx

a través de un método de regresión.. Palabras clave: regresión ridge. Dado que la Regresión Ridge Ridge Regression and Central t Student *División de Ciencias de la Ingenieria y Tecnología..edu. To l u c a .. México. student’s t distribution. La prueba de este use in the hypothesis test in OLS. Durante el proceso de optimización de las superficies de res. para un nivel de ßt ß1 . hypothesis test. 191. x 2 . México. es vital establecer las biased estimation. Aguirre Solís* Recepción: 24 de mayo de 2006 Aceptación: 7 de noviembre de 2006 Resumen. important result is given in this article. Primero se plantean dos hipótesis.n-p donde (n-p) son los grados de libertad del cuadrado medio del error. Jesús J. C I E N C I A S E XACTAS Y APLICADAS Regresión Ridge y la distribución central t Manuel R..... ß 2 k / 2 B . X x1 . Manuel A. The proof of this artículo. La regla Yˆ ß0 ßtX X t BX (1) de decisión de rechazar o no la hipótesis establecida consis- te en especificar una región crítica para un nivel de significancia preestablecido ( ) de acuerdo con una distri- donde bución teórica que para nuestro caso es la distribución t de Student. por ejemplo.2. 114. ß1k / 2 Así.. es la varianza estimada y Cjj es el j-ésimo elemento diagonal A ee rrgg oo su C I EN C I A s um m . 1987).. y ción (1).2. that begins with the **División de Ciencias de la Ingeniería y condiciones para las que la distribución Ordinary Least Square (OLS) solution.196. Pp . es una estimación sesgada que parte de Distribution Nuevo Casas Grandes. julio- 4. VV ooll. se ajusta un modelo polinomial del tipo de la ecua. distribución t. ß 2 . Piña Monarrez*. 2 para determinar la significancia de sus componentes. sea también the central Student’s t distribution that we aplicable a la regresión RR. Instituto Tecnológico Superior de (RR).com Cuadrados (MC). la nula que establece que los coeficientes de regresión ß̂ j no puestas.. prueba de hipótesis. is importante resultado se presenta en este applicable to the RR too.. Since Ridge Regression (RR). is a la solución de la regresión de Mínimos Correo electrónico: mpina@itsncq. tienen efecto sobre la variable de respuestas (H0: ß̂ j = 0). 191 . ordinary least cuadrados. it is Tecnología.n-p. M é x i c o .. Introducción El procedimiento para realizar estas pruebas es conocido como prueba de hipótesis. por lo que se realizan pruebas donde ß̂ j es el j-ésimo coeficiente de regresión estimado. xk y significancia de está dada por ta/2. Rodríguez Medina**. Abtract. el valor crítico dado por ta/2.edu. es comparado con el ß 22 . ß k . U n i v e r si d a d A u t ó n o m a d e l Es t a d o d e M é x i c o .. Instituto Tecnológico de Ciudad central t de Student que se utiliza en la vital to establish the conditions for which Juárez. a los datos de un la alterna que establece que al menos un coeficiente tiene diseño experimental (Box y Draper. Chihuahua. julio-oc oc tub re2 0 tubre 2 07 0 0 7. Correo electrónico: mrodriguez@itcj. square.mx prueba de hipótesis en MC. efecto sobre la variable de respuesta (H1: ß̂ j 0). valor del estadístico de prueba dado por: sym ß kk ˆj t (2) 2 La funcionalidad del modelo dado en (1) para representar a la C jj superficie de respuestas depende del grado que este polinomio representa al sistema modelado.mx Correo electrónico: jesaguir@yahoo.. ß11 ß12 / 2 . cuya región crítica. mínimos Key words: ridge regression.

sean me- j k 1. se espera que tanto el coeficiente prueba de hipótesis de la regresión RR. Dado que el estimador RR es la estimación detección de las pruebas. donde ˆ es el R= R – bt) / var para la regresión RR dada por t(R) = ( bi t t R estimador ordinario de MC dado por ˆ = (X X X Yy donde var( R – bi) es una estimación insesgada de la varianza t Z = [I + K (X X es la matriz que transforma a ˆ en del numerador y R. para realizar las pruebas.. Si el valor del estadístico de prueba dado en (2). 2005): mente condicionada o cercana a singular es posible agregar p 2 constantes positivas a los elementos de la diagonal para ase- Sesgo 2 k2 i . es decir. cuando los errores de los eigenvalues j de la matriz de covarianzas (X X) tienden a cero.. REG RESIÓ N RI DG E Y LA DI STRI BUC I Ó N C EN TRA L T . haciendo que el poder de la prueba t sea pobre para son pequeños (como es el caso de los diseños experimen- detectar cuando j comienza a ser significante (Halawa y El tales).C I E N C I A S E XACTAS Y APLICADAS t -1 sido controversial ya que depende de la dirección del de la matriz de precisión (X X) (Montgomery Peck y Vining. 0. a través de mayor que el valor crítico de la distribución teórica. Halawa y El Bassiouni (2000). en- j tonces. de la estimación. 2000: 62-63) con parámetro de ses. donde g es la j-ésima fila de G Sujeto a: R R r2 que representa los cosenos directores que orientan los ejes principales en relación con los ejes del regresor dado. es usado para trabajar error de RR. Fue propues- el poder de detección de la prueba. es váli. 2002). no hubo diferencia significativa entre los niveles de Bassiouni. algunos cuando el error es grande su prueba supera en poder de t detección a la prueba central t de MC. con el de respuesta.05. Dado que el uso de RR mejora el óptima sesgada para determinar los coeficientes del polinomio poder de detección de la prueba al disminuir la varianza cuando éste presenta multicolinealidad (ver Piña et al.90 y = 0. 2005c). sólo en la direc- realizarse a través del método de RR. El vector de coeficientes de RR está dado por: por lo que es necesario mostrar que debido a que RR es un t t múltiplo de MC. gurar que la matriz resultante no sea altamente condiciona- 1 ( i k )2 da. la cuantificación del sesgo emplearon una prueba t no za la hipótesis nula y se concluye que el coeficiente es central para probar la hipótesis H 0: bi = 0. es Prueba: a través de los multiplicadores de Lagrange esta una matriz de (p x p) con elementos diagonales dados por función es representada por: = i / ( i + k) (error estándar R) y ei es el j-ésimo ele- t mento de la matriz identidad. Este procedimiento es ampliamente aplicado algoritmo dado en Halawa y Assma en 1995. en la sección 3 se presenta la validación matemática para el uso de la distribución central t en la y como para el sesgo de RR. El cuadrado medio del to por Hoerl y Kennard (1970a y b). se recha. por lo que su ajuste deberá de 0. presenta de forma inherente el pro. y haciendo cuando el modelo polinomial se ajusta a través de MC. la aplicación del estadístico central t. El estudio significante para predecir el comportamiento de la variable consistió en generar una matriz de regresores X. el uso de esta prueba ha Min: ( R – ˆ) X X ( R – ˆ) + K ( R R – r2 192 PI Ñ A M O N A RREZ. La idea del método es t (ver Cheng-Ming Kuan. El uso de tres niveles pre-establecidos de desviación ( = polinomio dado en (1).5 y 1) y dos niveles de correlación dados por = blema de multicolinealidad.95. mejorando así de un modelo de regresión del tipo Y = Xt ˆ + . Regresión Ridge (RR) 2 1 nor que el coeficiente ß̂ j y su varianza V( ß̂ j ) = . 2000). sigue una distribución chi-cuadrada no central con modelos que presentan sesgo. ya que cuando la ción del máximo y mínimo eigenvalor. Obenchain en 1977 derivó una prueba “exacta t” el cual se puede reescribir como Z ˆ . simple y consiste en que dado que la matriz (X X) es alta- go dado por (Piña et al. es regresor dado. se espera que sea mayor que el de MC. En este sentido. Encontraron que multicolinealidad inherente al polinomio es fuerte. 0. t Min: ( R – ˆ) X X ( R – ˆ) es el estimador insesgado de varianza mínima de R bajo la hipótesis nula H 0: i = 0. el valor absoluto esperado del estadístico de prueba El método de RR permite detectar la multicolinealidad dentro de RR. R= (X X + K X Y (3) da para la prueba de hipótesis de la regresión RR. M . 2 j Rj estimado como su varianza V( Rj) = . R es la solución al problema de optimización: 1 bi g it G t I ( X t X ) 1 eit ei ( X t X ) 1 eit ei ˆ . ET A L.

respecti- parámetro de sesgo ya que cuando K = 0. por lo que el valor de tenemos que: K deberá estimarse a partir del estimador propuesto por Lawless y Wang (1976). Para ver por qué analizamos la función del cuadrado Este producto define otra variable aleatoria t. El valor de la constante de proporcionalidad K depende Por lo que la función densidad de probabilidad conjunta de de la varianza poblacional y del vector de coeficientes ver. absoluto del jacobiano de la transformación es |J| = u r . al parámetro K se le conoce como densidad de probabilidad normal y chi-cuadrada. por lo que los coeficientes de R. está dada por: C I EN C I A e r g o su m . – w< 0<v< 0 en otro caso. el valor nes para utilizar la prueba central t al probar la significancia de los coeficientes ajustados. entonces: nal cuyos elementos diagonales sean la raíz cuadrada del t t valor de K dado por (6) y el vector de respuestas con un R(X X+K X Y=0 vector de ceros si se está trabajando con variables escala- t –1 t das.1). formación uno a uno. o con un vector constante equivalente a la media de Y R = (X X + K X Y si las variables no están escaladas. la cual mapea al conjunto A = {(w. V o l .2. C I E N C I A S E XACTAS Y APLICADAS derivando la función con respecto a R e igualándola a cero daderos. v). Para un procedimiento X tY detallado de la aplicación de RR ver Piña (2006). es el producto de las funciones En la estimación RR. las variables aleatorias T y U = V. la regresión RR puede ser tratada como una regresión de MC. definen la trans- significancia de sus coeficientes estimados deberá de hacer. 0 < v < . 1965). donde W y V son independientes. Dado que RR es – w < . v) = e r v2 e 2 2 1 2 de la estimación de R a es menor que la varianza de r 2 2 la estimación de ˆ a . R ˆ Además como ˆ es insesgado entonces la estimación ridge es una estimación w2 r v 1 2 1 1 sesgada y aunque posee esta característica. R = I K (X t X ) 1 (X t X ) 2. dado por: por: j ß 2j CME 2 k 2j W R= ( j k j )2 ( j k j )2 (5) T (7) V/r La función dada en (5). en la sección 3 se derivan las condicio- < Además. se a través de la distribución no central t.. representada por (w. u). Así.v). sigue una distribución chi-cuadrada no central (Chung-Ming.oc tubre 2 0 07 193 . Al aplicar la técnica de cambio de variable (Hogg y Graig. representada medio del error de R. julio. desde que w = t u r y v = u. Distribución t t –1]–1 t –1 t R = [I + K (X X (X X X Y Sea W una variable aleatoria con distribución N(0. – t< . por lo vamente dada por: que R= ˆ y cuando K 0. debido al parámetro de sesgo. la ecuación t = w/ v/r y u = v. y sea V una variable aleatoria que sigue una distribución chi-cua- R = Z ß̂ . que está dado por: t df/d R = 2X X( R – ˆ ) + 2K R Psˆ 2 t t K (6) X X R – X X ˆ +K R =0 ˆ (X t X ) ˆ t t t R(X X+K X X ˆ =0 Una vez conocido el valor de K. obtenemos la función densidad de probabilidad g(t) 2000: 62-63) que implica directamente que la prueba de de T. son más estables que los de ˆ (ver Piña et al. los cuales son desconocidos. Z = I.0<u un múltiplo de MC. por lo que la distribución conjunta de W y lo cual completa la prueba. 2005a). 1 4. (4) 2 drada (r) con r grados de libertad. V. en B = {(t. con tan sólo incre- t t mentar la matriz de información X con una matriz diago- dado que ß̂ está dada por ß̂ = (X X)–1X Y. la varianza (w.

está dado por: g1 (t ) exp dz 0 2 r ( r / 2) 2 r / 2 1 t 2 / r 1 t2 / r 1 ti ß *i bi / s 2Wi 2 2 (11) [(r 1) / 2] 1 g1 (t ) . 1 A la distribución de la variable aleatoria T. por lo que el estadístico ( r 1) / 2 1 1 2z z 2 de prueba para RR. por lo que (11). Además. u ) . bajo la hipótesis H 0: i = 0. Note Si W está N(0. (9) lo cual completa la demostración. con el objetivo de maximizar la salida de una reac- Para simplificar los argumentos.5) través del estadístico de prueba t dado por: X1 Temperatura en el estado 1.1) y V sigue una distribución 2(r) y si W t que s2 = Y [I – X (Xt X)–1X ]Y / (n-p). de (8) tenemos que los valores de t están dados por: 1 ߈i / s 2(X t X) 1 2 t [(r 1) / 2] g1 (t ) dw . si hacemos z = u[1+(t2/r)]/2. recordemos que la hipótesis ge. está dada por H 0: i = 0 generalmente contra H 1: i 0. – <t< .– <t< . Dado que R =Z ˆ. 2I). 1 u t2 u (r 1) / 2 1 exp 1 du Demostración: permita a i* denotar el j-ésimo ele- 0 2 r ( r / 2) 2 r / 2 2 r mento de R y sea bi el estimador lineal insesgado de Para esta integral. en donde la prueba de su significancia se realiza a (T1 122.0<u< 0 en otro caso dístico t. De igual forma el estadístico t para H 0: i = 0 es: utilizando el estimador RR. ET A L. Prueba de hipótesis de la regresión ridge El experimento fue originalmente realizado por Box (1954).u J r de precisión (Xt X)–1. puede ser establecido directa- mente de (10) como sigue. REG RESIÓ N RI DG E Y LA DI STRI BUC I Ó N C EN TRA L T . ti ߈i 0 / s 2 ( X t X ) ii1 2 ߈i / s 2 ( X t X ) ii1 2 . el esta- – t< . se le conoce ti Z i ߈i Z i bi / s 2 Z i2(X t X) 1 2 como distribución t. (10) log 2 194 PI Ñ A M O N A RREZ.5 2(log t1 log 5) 1 1 X2 1 tiempo de reacción en el estado 1. (8) r (r / 2) (1 t 2 / r )( r 1) / 2 donde Wi 2 Z i2 ( X t X ) ii1 es una constante conocida y s2W i es 2 el estimador insesgado de la varianza del numerador. entonces la variable aleatoria entonces i* = i i y bi = Zi bi. es el estadístico de prueba t de Mínimos Cuadrados. Finalmente. el cual representa los grados de libertad de la 1 Z i ߈i 0 /Z i s 2(X t X) 1 2 variable aleatoria que sigue una distribución 2(r). El estadístico de prueba t para la Regresión Ridge. s2 es la estimación de la varianza dada t por s2 = Y [I – X (Xt X)–1X ]Y / (n-p) y [s2 ( X t X ) ii1 ]1/2 es 1 u t2 u u r / 2 1 exp 1 la estimación insesgada del numerador bajo el supuesto de 2 ( r / 2) 2 r / 2 2 r r que los errores están N(0. ción química sujeta a dos estados y cinco factores. tiene una distribución central con (n-p) grados de Así. M . 7 . r (r / 2)(1 w2 / r ) ( r 1) / 2 4. como el valor esperado de E( i) = 0. cuyas neral para determinar la significancia del j-ésimo componente de variables codificadas son: regresión en MC. la función densidad de probabilidad marginal de T libertad. y está completamente determinada por el parámetro r. puede ser T = w / V r tiene una función densidad de probabilidad escrita como: marginal dada por (8). entonces: varianza mínima de i* con valor esperado E(bi) = 0 cuando H 0: i = 0 es verdadera. g1 (t ) g (t .1. u)du Teorema 3. Una aplicación 3. y V son independientes. es el i-séavo elemento diagonal de la matriz g (t .C I E N C I A S E XACTAS Y APLICADAS t u donde ( X t X ) ii1 .

60 1 1 –1 1 –1 64.30 0.76 1.09917 X 3 X 5 0.48 1.29870 X 1 X 3 4 5 1 –1 –3 1 1 53. 1 1 –1 –1 1 52.51027 X 3 X 4 0.15118 X 2 X 5 0.13 0.46031X 32 1 –3 –1 1 1 63.05477 X 4 X 5 El diseño inicial fue factorial.2.38 –0.38 0.30 0.10 –1 1 1 –1 1 59.60 2 1 1 1 –1 –1 67.80 1. 11 puntos centrales) y ajustar un polinomio de segundo grado S = 0.093 0.21641X 3 0. K = (21)(0.5% R -Sq(adj) = 92. por lo que el experimentador agregó corridas experimentales Tot a l 31 1.259868 R -Sq(pred) = 74.5 2 2 0. 2002) es: 0.580 1.27755 X 1 X 2 0.20259 X 1 0.14082 X 5 0.08 Residual error 31 0. julio.37443X 2 0.10397 X 2 0.50 –0. X3 concentración del reactante. C I E N C I A S E XACTAS Y APLICADAS (C 70) Regression analysis: Y versus b0.55 –0.634 unitario (Montgomery et al.001450 –2. y 7.68 –1. La matriz de diseño en variables codificadas y el vector Porción de la matriz de precisión (Xt X)–1 que contiene los (Cjj) de respuestas.584 Tabla 1.93 63.56 –0..54 1.98659 1 –1 –1 1 1 70. utilizados en la ecuación (2) para este ajuste dado por MC.7% R -Sq(adj) = 96. 10 Yˆ 0.25 0.40 Yˆ 0.40416X 4 0.20 70. V o l .82 1.04442 X 4 X 5 1..05 –0.000 –0.06955 X 2 X 3 0.23 –0.25629.30388 X 1 X 3 2(log t 2 log 1.80 No replicates.06660 X 1 X 4 0.30 3 –1 –1 1 1 63.24471X 22 0.06 0. X1.31404 X 4 1 1 1 1 1 64.000000 –0. X2.40 –1 de K.21210 X 3 0.20 1 ˆ 2 = (0.564 0.697 0.25) 0.000427 para convertir el diseño en un diseño central compuesto (con No replicates.52389 X 3 X 4 0.21343 X 22 0.987193 0.40 2. Cannot do pure error test.74 1.40 2.20969 X 1 0. Con este valor –1 –1 –1 1 –1 59.001204 región actual modelada contenía el punto estacionario óptimo.90 ecuación (6). log 5 0.08 –1.510 0.69 0.15 1.756 0.330 1.15 71.03470) = 0.01686 X 1 X 5 0. Cannot do pure error test.00 está dado por: –1 –1 1 1 1 53.00597 X 1 X 5 0.26317 X 5 0.04 –0.09590 X 3 X 5 0.000 Draper.10 1.24 Tot a l 51 1.401 0.00 0.06 –0.14708 X 2 X 5 0.30 –0.29227 X 12 0.32 64.48295 X 32 X4 Temperatura en el estado 2. .64 –0.13 –0.20 X= –1 1 1 1 –1 Y = 58.03808 R -Sq = 95. 1 –1 1 1 –1 63.40 2 –1 –1 1 –1 –1 49. se presenta en la tabla 1.01381X 2 X 4 1 –1 –1 1 3 67.40 0.70 72.510 2. fraccionado estándar 25–1.63 72.77 57.38 –1.047752 32.50 0.10 Regression Analysis: Y versus X1.955046 0. Matriz de variables codificadas 0.80 0.584 0.20 –1 1 –1 –1 –1 50.03470 R -Sq = 98.30 –0.53 Sou r ce DF SS MS F P 0.40 2.93 0.013244 0.30 0.10 Análisis de varianza 1.98659 .02281X 2 X 4 X5 1 tiempo de reacción en el estado 2.75 0. hasta que el experimentador determinó que la Residual error 11 0.647 –1 –1 –1 –1 1 49.3% PRESS = 0.14190 X 5 0.50 0.30 –1.710 0.634 0.69 –0.12 62.5) 0.044954 0.50 1 –1 –1 3 1 66. tenemos que p = (k 1)(k 2) = 21 parámetros.02% completo para realizar la caracterización y exploración de esa región. S = 0.049359 41.956 0. es: El polinomio cuadrático completo ajustado por Minitab a los datos escalados a través del método de escalonamiento 1.78 Regression 20 0.47 –0. por lo que de la –1 1 –1 1 67.496 0.88 0.28808 X 1 X 2 0. 1 –1 1 1 69.62 53. al Análisis de varianza Sou r ce DF SS MS F MS cual se le aplicó el método de ascenso acelerado a un polinomio de primer grado ajustado por MC a este diseño (ver Box y Regression 20 0.580 X1 X2 X3 X4 X5 Y 0.31819 X 4 (T2 32.12 2.27 61.756 (Xt X)–1 = (12) 0.6% C I EN C I A e r g o su m .00 0.05279 X 1 X 4 0.51 1.32 1.oc tubre 2 0 07 195 . 1987).07616 X 2 X 3 0.00 1.80 1 –1 –1 –1 –1 51.03470)2 y ˆ t (Xt X) ß̂ = 0.835 0.00 0.697 0.00 0.03 0. el polinomio ajustado a través de RR utilizando Minitab.710 1.496 0.93 0.24 72.31763 X 12 0..77 –0.40 Del ajuste.00 0.330 0.401 0.10896 X 2 0.23595 X 2 0.38 –0.80 0. 1 4.

859 0.515 0. ET A L. Macmillan Company. enero- Surface Models’’. y A. ‘‘Determinación de la wan. por el teorema 3.753 0.29227 tar este polinomio de forma inherente el problema de 11( RR ) 6. ‘‘A Simulation _________ (2005b). Metodología para la caracterización _________ (1970b). Universidad _________ (1970a). la distri- para ambos modelos es: bución central t. Introducción al Análisis de Regresión Linneal. Chihuahua. cuadrados’’. Tesis doc- cations to Non-orthogonal Problems’’. Introduction to Technometrics. y B.573 0. E. (1977). ‘‘Test f regresión general ridge sobre mínimos for the Eigenvalues in Second Order Response Regression Coefficients Under Ridge Re.678 0. 12. R. M. Institute of Economics. Empirical Model. J.646 1.579 multicolinealidad. Bibliografía Box. Catalog Card Number:65-10243. R. A. Vining México. y R. Mongomery. gression Models’’. por presen- ˆ 0. Craig (1965). Núm. tenemos por ejemplo que del error de RR sigue una distribución chi-cuadrada el valor del estadístico de prueba para el coeficiente ß̂11 no central. E. T. ‘‘Standard Errors Halawa. 196 PI Ñ A M O N A RREZ. Editorial Continental.519 1.. Theory.03470) 2 (1. CULCYT. Rodríguez y J. W. México. Obenchain R. L.292 1. Taipei. New York. C. 36. A. _________ (2005a). 12. se recomien- da utilizar el estimador RR para su ajuste. (2000). y haciendo uso de la ecuación (2) y los como una estimación de MC.982 0. CULCYT. Technometrics. Kennard mators’’. Draper (1987).362 0. Peck y G.573 0. ‘‘Ridge Regression: Appli. Introduction to Econometric tion.1 de la sección 3. Wang (1976). enero-febrero. El Bassiouni (2000). S. A. es ampliamente 0. Núm 1. Chih. Technometrics.519 utilizada para el ajuste del polinomio cuando existe 0.757 Para al ajuste del polinomio cuadrático completo con (0. Chihuahua. Universidad Autónoma de Ciudad Chung-Ming. K. Aunque el cuadrado medio coeficientes dados en (12) y (13). y N. Una vez determinada la constante de proporcionalidad K. la estimación RR puede ser tratada Con estos datos. Mathematical Statistics. P. y M. constante k en la regresión ridge’’. Vol.1.361 (0. ˆ 0. Communication in Statistics – Theory Año 2. Núm. Juárez.443 0. Vol. F. Instituto Tecnológico de Ciudad Juárez Technometrics. Confidence Regions for Ridge Regression’’. R. Statistics Computer Simula.623 0. y exploración desuperficies derespuestas.03470) 2 (1. R.835) que se modelan las superficies de respuesta. 6. Vol. V. (2002).533 0.533 (13) Aunque la regresión ridge es sesgada. G. Autónoma de Ciudad Juárez. A. México.Díaz Nueva York. febrero. G.443 0. Hoerl. ‘‘Classical F–Test and toral. M. es posible construir un estadístico de prue- utilizados en la ecuación (2) para este ajuste de RR es: ba t j para cada uno de los coeficientes ß̂ j estimados ya sea por MC o por RR. Estimation for Non-orthogonal Problems’’. Building and Response-surfaces. E. Piña. D. Y. 19(4). 11. ‘‘Ridge Regression: Biased and Method.753) multicolinealidad. (2006). 65. ‘‘Superioridad de la Bisgaard. Vol. México. M . REG RESIÓ N RI DG E Y LA DI STRI BUC I Ó N C EN TRA L T . Hogg. Ankenman (1998). y P. es perfectamente aplicable para probar la significancia de los coeficientes estimados por RR.678 Conclusiones (Xt X)–1 = 0..452 1.362 0. Año 2. 1. Lawless.292 0. M.C I E N C I A S E XACTAS Y APLICADAS Porción de la matriz de precisión (Xt X)–1que contiene los (Cjj) De igual forma. John Wiley & Sons.623 0.31763 11( MC ) 6. Núm. Tai.646 0. A5(4). Study of Ridge and Other Regression Esti. J. Piña. M.452 0. 3a ed.