Professional Documents
Culture Documents
Repblica Bolivariana De Venezuela Ministerio Del Poder Popular Para La Defensa Universidad Nacional Experimental Politcnica De la Fuerza Armada UNEFA - Ncleo Barinas
Diciembre de 2012
Optimizacin No Lineal
Optimizacin No Lineal
En optimizacin, mtodos Cuasi-Newton (tambin conocido como mtodos mtricos variables) son los algoritmos bien conocidos para encontrar locales mximos y mnimos de funciones. Los mtodos Cuasi-Newton se basan en el mtodo de Newton para encontrar el punto fijo de una funcin, donde el gradiente es 0. El mtodo de Newton supone que la funcin puede localmente aproximarse como una ecuacin cuadrtica en la regin alrededor del grado ptimo, y utiliza las primeras y segundas derivadas para encontrar el punto estacionario. En dimensiones ms altas, el mtodo de Newton utiliza el gradiente y la matriz hessiana de segundas derivadas de la funcin que debe reducirse al mnimo. Los mtodos Quasi-Newton se basan en utilizar aproximaciones sucesivas de la matriz Hessiana para acelerar el proceso de convergencia. Teniendo en cuenta que:
Matriz Hessiana: matriz simtrica formada por las derivadas parciales del
Optimizacin No Lineal
Cuando no es posible evaluar analticamente las primeras y segundas derivadas, se pueden emplear mtodos de diferencias finitas para calcularlas:
Descripcin del mtodo: Como en el mtodo de Newton , se utiliza una aproximacin de segundo orden para encontrar el mnimo de una funcin una iteracin es: . La serie de Taylor de alrededor de
donde (
) Es el gradiente y
La aproximacin de Hesse
que se llama la ecuacin secante (la serie de Taylor de la propia gradiente). En ms de una dimensin es bajo determinado . En una dimensin, para resolver y la etapa de
aplicacin de Newton con el valor actualizado es equivalente al mtodo de la secante .Los diversos mtodos cuasi-Newton difieren en su eleccin de la solucin a la ecuacin de la secante (en una dimensin, todas las variantes son equivalentes). La mayora de los mtodos (aunque con excepciones, como el mtodo de Broyden ) buscan una solucin simtrica ( ), Por otro lado, las variantes que figuran a continuacin pueden que est tan cerca como sea donde es
estar motivados por la bsqueda de una actualizacin posible a en algunos norma , es decir,
Optimizacin No Lineal
cierta matriz definida como matriz positiva que define la norma. Un valor aproximado inicial de desconocido a menudo es suficiente para lograr una rpida convergencia. Lo se actualiza aplicando el paso de Newton, que se calcula utilizando la :
Con
,Y
, O directamente su
Una propiedad clave de los BFGS y actualizaciones de DFP es que si positiva y se elige para satisfacer las condiciones Wolfe luego
es definida Tambin es
definida positiva. Otra manera de interpretar este mtodo es de la siguiente manera: Calcular la matriz Hessiana de una funcin y su inversa puede ser un
procedimiento muy costoso e imprctico. Una solucin a este problema es utilizar aproximaciones a la inversa de la matriz
Hessiana en lugar de la inversa real. Esta es la idea subyacente de los mtodos Cuasi Newton Las aproximaciones se construyen a partir de informacin del gradiente durante
n
un proceso de descenso. Sea f(x) en R una funcin con segundas derivadas parciales continuas. Para dos y matriz Hessiana constante F se cumple:
; (1)
Optimizacin No Lineal
direcciones linealmente independientes y sus respectivos valores del gradiente. Si llamamos P a la matriz cuyas columnas son los vectores pk y Q la matriz cuyas columnas son los vectores qk, a partir de (1), se cumple: F=QP-1 Ejemplo Ilustrativo: Mtodo: Descenso ms rpido
Primera Iteracin:
Optimizacin No Lineal
Segunda Iteracin:
Tercera Iteracin:
Optimizacin No Lineal
Cuarta Iteracin:
Condicin Cuasi Newton: Es natural intentar construir aproximaciones sucesivas Hk de F-1 de forma tal que para todas las direcciones
; 0ik
Hn = F-1, si la matriz Hessiana es constante, o Hn ~= F (xk)-1 en caso contrario. Para k < n existen infinitas soluciones a este problema ya que hay ms grados de
libertad que restricciones Aproximacin de rango a uno: Una solucin sencilla es actualizar iterativamente aadiendo una matriz simtrica
de (a lo sumo) rango uno que satisfaga la condicin Quasi-Newton. Una forma de conseguir esto es hacer:
Optimizacin No Lineal
Siendo
y
Este proceso se inicia a partir de una matriz simtrica H0 cualquiera. Este algoritmo no garantiza que la aproximacin a la inversa de la matriz hessiana
sea positiva definida. Adems puede presentar dificultades numricas. Ejemplo Ilustrativo: Descripcin y Puntos Iniciales: Mtodos: Descenso Rpido, Actualizacin del Hessiano de rango a uno
Optimizacin No Lineal
Primera Iteracin:
Segunda Iteracin:
Optimizacin No Lineal
Tercera Iteracin:
Cuarta Iteracin:
Optimizacin No Lineal
Optimizacin No Lineal
Existe una gran similitud entre los esfuerzos actuales por mejorar los mtodos de mtrica variable y aquellos que buscan mejorar los mtodos de gradiente conjugado. Por tanto, mucho de lo descrito en mtodos de gradiente conjugado aplica tambin para los mtodos de mtrica variable. Davidon (1975) ha propuesto una clase de actualizaciones que permiten bsquedas lineales inexactas. Powell (1977) estableci posteriormente la propiedad de terminacin cuadrtica de estos mtodos en la ausencia de bsquedas lineales. Pareciera ser que un mtodo de mtrica variable con terminacin cuadrtica pero sin la necesidad de bsquedas lineales costosas seria robusto y rpido en funciones generales. Goldfarb (1977) se cuenta entre los que han explorado esta promisoria lnea de investigacin. En general, el mtodo de Davidon-Fletcher-Powell suele reinicializarse (es decir, hacemos A = I) despus de N actualizaciones. Esto es usualmente una medida muy conservadora, ya que pueden requerirse muchos ms pasos antes de que realmente se requiera una reinicializacin. La necesidad de reinicializar se incrementa conforme empeora el valor de condicionamiento de la matriz:
son los
valores de mayor y menor modulo, respectivamente. Una matriz con un valor de condicionamiento grande est mal condicionada. Una matriz con un valor de condicionamiento cercano a 1 est bien condicionada. Es importante hacer notar que aunque las reinicializaciones proporcionan un cierto grado de seguridad (o robustez) en los mtodos de mtrica variable, estas tpicamente hacen ms lento el progreso a la solucin, puesto que se desecha una estimacin de segundo orden.
Optimizacin No Lineal
McCormick (1972), Shanno (1978) y Shanno & Phua (1979) han investigado de manera extensiva la relacin entre el gradiente conjugado y los mtodos de mtrica variable. Shanno ve a los mtodos de gradiente conjugado como mtodos de mtrica variable sin memoria. La mayor parte de los investigadores coinciden en la actualidad en afirmar que estas 2 clases de mtodos comparten mucho ms de lo que originalmente se crea. Adems, resulta claro que las muchas variantes de los mtodos de mtrica variable tienen mucho en comn en la prctica (Dixon, 1972), lo que hace que se tenga que sopesar cuidadosamente el costo computacional adicional de los mtodos ms complejos. Shanno & Phua (1978) proporcionan numerosos resultados que favorecen el uso del mtodo de Broyden-Fletcher-Goldfarb-Shanno. Los mtodos de mtrica variable han sido utilizados de manera extensiva para el desarrollo de tcnicas de optimizacin para problemas con restricciones. Tambin hay una cantidad importante de trabajo en torno a hacer los mtodos de mtrica variable ms atractivos para problemas grandes. Los mtodos de gradiente conjugado son los que suelen considerarse como los mejores para problemas de alta dimensionalidad (o sea, aquellos con muchas variables de decisin). Sin embargo, se han logrado muchos avances en lo que a los mtodos de mtrica variable se refiere, sobre todo en aquellos casos en los que la matriz Hessiana es dispersa. Algoritmo de la mtrica variable: 1. Elegir X0 IRn y B0 matriz n n denida positiva; k = 0. 2. Test de convergencia: (por ejemplo f(xk) < , pequeo dado) Si se verica, PARAR Si no se verica, continuar
Optimizacin No Lineal
(BK)dK = f(xK)
4. Calcular tK > 0 por una regla de bsqueda lineal adecuada. Hacer xK+1 = xK + tkdk 5. Calcular BK+1 = (BK, yK, sK) , con sk = xK+1 xk, e yk = f(xK+1)
f(xK). Hacer k = k + 1. Ir a 2.
Optimizacin No Lineal