1

Sistemas sobredeterminados.

A un sistema lineal con más ecuaciones que incógnitas se le denomina sobredeterminado. En general no tiene solución, pero en muchas ocasiones es necesario dar una solución que tenga cierto sentido con el problema planteado. Una de las posibles alternativas es la llamada solución por mínimos cuadrados. Un ejemplo :  = 2  α+β α−β = 0  α + 2β = 4 Consideramos la función :

J(α, β) = (α + β − 2)2 + (α − β)2 + (α + 2β − 4)2
que mide lo cerca o lejos que estamos de la solución. Si para una pareja de valores de α, β la función vale cero es que son solución del sistema. Entonces se elije como solución a la pareja de valores α, β donde se alcance el mínimo y se le denomina solución en sentido mínimos cuadrados. El cálculo diferencial nos dice que debemos calcular las derivadas parciales e igualarlas cero . Nos llevaría a resolver un sistema lineal (en este caso 2 × 2 ). Problema : Hx = b El proceso anterior es equivalente a lo siguiente :  Sea H la matriz del sistema. Tamaño m × n  Sea b el vector columna con el término independiente.Tamaño m × 1  Sea x el vector columna solución . Tamaño n × 1  El sistema a resolver es :

H T Hx = H T b
de tamaño n × n que se denomina ecuaciones normales.  Al vector b − Hx se le denomina vector de residuos. Y a su norma (que es la raíz cuadrada del valor mínimo de la función J ) error o error cuadrático. Se ha minimizado

J(x) = ||b − Hx||2 =< b − Hx, b − Hx >= (bT − xT H T )(b − Hx) 2 J = −2 < b − Hx, H >= −2H T (b − Hx)
que si igualamos al vector nulo quedan las ecuaciones normales.

j=1 Ahora si se siguen los mismos pasos que en interpolación tendremos un sistema lineal : n λj vj (xi ) = yi j=1 i = 1. . . En el caso lineal haremos lo que viene a continuación. vn } y cualquier elemento de V es de la forma v = n λj vj para unos λj (incógnitas). La particularidad será que tendremos más datos que parámetros por lo que el sistema de ecuaciones a resolver no es cuadrado. . Una base de V que denotaremos {v1 . . . xi yi x1 . Se va a considerar un problema similar a interpolar una tabla de datos o una función. j = 1. . . . . . la solución al problema. que es la raíz cuadrada del mínimo del funcional. es necesario hacer algunos pasos previos. . . Este enfoque encuentra dónde se minimiza el funcional anterior y. A la matriz H = (hij ) = (vj (xi ))) con i = 1. ym Conjunto de funciones con el que ajustamos (aproximamos) la tabla V Problema de ajuste por mínimos cuadrados : Hallar u ∈ V tal que ∀v ∈ V se verica m m yi − u(xi ) i=1 2 ≤ i=1 yi − v(xi ) 2 que es un problema de minimización de un funcional. xm y1 . . . A los valores yi − u(xi ) i = 1. será sobredeterminado (m > n). . es el error cometido en la aproximación m yi − u(xi ) i=1 2 Cuando V es un espacio vectorial de dimensión nita se podrá proceder de forma similar a lo que se hizo en interpolación junto con lo visto en sistemas sobredeterminados. . En el caso en que V no es un espacio vectorial. . . . . n se le . m denomina matriz de Gram. . Se dice entonces que u es la mejor aproximación en sentido mínimos cuadrados de la tabla (función) en V . . . m que. en general. . por lo tanto.2 Ajuste de curvas. m se les denomina residuos y su norma.

Cuando V no es un espacio vectorial al buscar el mínimo del funcional no se llega a un problema lineal. Muchas veces es necesario dar más importancia a unos datos que a otros (bien por su relevancia o por arse más de unos que de otros). yi − v(xi ) 2 = i=1 yi − j=1 λj vj (xi ) 2 El proceso de construcción de las ecuaciones normales H T Hx = H T b y su resolución puede presentar problema de condicionamiento. xm y1 . . . wm m Hallar u ∈ V tal que i=1 wi yi − u(xi ) 2 ≤ i=1 wi yi − v(xi ) 2 ∀v ∈ V A la hora de resolverlo (se puede observar la similitud entre este funcional y el anterior) podemos ver que es como si hubiéramos multiplicado cada sumando √ por wi (que se traduce en multiplicar por wi dentro de cada cuadrado que √ a su vez implica multiplicar por wi cada ecuación del sistema asociado). xi yi wi El problema es ahora : m x1 . En este caso es mejor manipular las ecuaciones (y/o los parámetros) para llegar a un problema lineal. . . . 3 Pesos. . . Normalmente se lleva a cabo con factorizaciones ortogonales. Y el nuevo término independiente es √ diag( wi )b 4 No lineal.Este procedimiento nos lleva al mismo problema que si se hubiese intentado minimizar directamente el funcional m m n J(λ1 . en particular MatLab usa la descomposición QR de la matriz H . . λn ) = i=1 Nota. ym w1 . . . √ Entonces la nueva matriz asociada Hw es Hw = diag( wi )H donde diag() indica una matriz diagonal (sólo los elementos de la diagonal pueden ser no nulos y toman los valores del vector) . En este caso se modica el funcional (y por tanto la norma y la distancia) mediante unos pesos wi que son números estrictamente positivos (más grande más relevancia) . .

.Ejemplo. y >= y T x = xT y • ||x||2 = 6 √ < x. Las funciones de V son de la forma v(x) = αeβx Solución. • J es el gradiente de la función J (vector que contiene las derivadas parciales). siendo el usual < x. Al evaluar en cada xi quedaría una ecuación de la forma αeβxi = yi tomando logaritmos Ln α + βxi = Ln yi Si se llama γ = Ln α estamos ante un problema lineal. • Los vectores son vectores columnas si no se especica lo contrario. • < . > designa el producto escalar de dos vectores. x > = n i=1 x2 i Bibliografía. 5 Notación.