Professional Documents
Culture Documents
poco práctico para más de tres o cuatro variables. Robustez (la capacidad de lograr
problema:
Los procedimientos iterativos más efectivos alternan entre dos fases en la optimización.
donde aki es un escalar positivo llamado tamaño de paso. El tamaño del paso está
determinado por un
en esa dirección La búsqueda se detiene en función de algunos criterios, y luego una nueva
llevarse a cabo con varios grados de precisión. Por ejemplo, podríamos usar un simple
duplicación sucesiva del tamaño del paso como método de detección hasta que detectamos el
óptimo
Usted ha sido puesto entre corchetes. En este punto, la búsqueda de detección puede finalizar
y
un método más sofisticado empleado para producir un mayor grado de precisión. En cualquier
evento, refiérase a las técnicas discutidas en el Capítulo 5 para formas de llevar a cabo la línea
buscar.
Los métodos NLP (programación no lineal) que se discutirán en este capítulo difieren
los métodos requieren información sobre los valores derivados, que otros no
los sustitutos se pueden usar en lugar de derivados como se explica en la Sección 8.10. por
se utilizan Los códigos simbólicos se pueden usar para obtener derivados analíticos pero
esto puede requerir más tiempo de computación que la diferenciación finita para obtener
derivadas. por
funciones no relacionadas, un método de solo valores de función puede. ser más exitoso que
métodos y luego presentar una serie de métodos que utilizan información derivada. Nosotros
efectivamente, pero pueden ser ineficientes en comparación con los métodos discutidos en
luego selecciona aleatoriamente otro vector x1 y evalúa flx) en xl. En efecto, tanto un
la dirección de búsqueda y la longitud del paso se eligen simultáneamente. Después de uno o
más
dirección de búsqueda y luego minimizar (posiblemente por pasos aleatorios) en esa búsqueda
dirección como una serie de ciclos. Claramente, la solución óptima se puede obtener con un
probabilidad de 1 solo como k + oo pero como una cuestión práctica, si la función objetivo
es eliminar plano, una solución subóptima puede ser bastante aceptable. A pesar de
un buen punto de partida para otro método. Puede ver la búsqueda aleatoria como
extensión del método de estudio de casos. Consulte a Dixon y James (1980) para algunos
algoritmos prácticos
aplicado igual de bien para minimizar flf) (ver Capítulo 2). Tienes una serie de
los ejes de coordenadas) para una función objetiva de n variables. Thenflx) se minimiza
porque las direcciones de búsqueda se alinean con los ejes principales como se indica en la
Figura
6.2a. Sin embargo, no funciona satisfactoriamente para un objetivo cuadrático más general
funciones de la forma
como se ilustra en la Figura 6.2b. Para el último caso, los cambios en x disminuyen a medida
se acerca el óptimo, por lo que se necesitarán muchas iteraciones para lograr una alta
precisión.
6.1.4 Método de búsqueda Simplex
Himsworth (1962) selecciona puntos en los vértices del símplex en el que evaluar
tres dimensiones, esta figura se convierte en un tetraedro regular, y así sucesivamente. Cada
búsqueda
puntos de dirección lejos del vértice que tiene el mayor valor offlx) a la otra
vértices en el símplex. Por lo tanto, la dirección de búsqueda cambia, pero el tamaño del paso
es
arreglado para un tamaño dado simplex. Usemos una función de dos variables para ilustrar el
procedimiento.
En cada iteración, para minimizar f (x), f (x) se evalúa en cada uno de los tres vértices de
el triangulo. La dirección de búsqueda está orientada fuera del punto con la más alta
valor para la función a través del centroide del símplex. Al hacer la búsqueda
dirección biseque la línea entre los otros dos puntos del triángulo, la dirección
pasa por el centroide Se selecciona un nuevo punto en esta dirección reflejada (como
continúa, rechazando un vértice a la vez hasta que el símplex se extiende a lo óptimo. Varios
las reglas se usan para evitar la repetición excesiva del mismo ciclo o símiles.
apunte o esté a una distancia del orden de su tamaño del óptimo (examine
de modo que el tamaño de símplex debe reducirse, como reducir a la mitad la longitud de
todos los
lados del símplex que contiene el vértice donde comenzó la oscilación. Un nuevo símplex
compuesto por los puntos medios del final simplex está construido. Cuando el simplex
el tamaño es menor que una tolerancia prescrita, la rutina se detiene. Por lo tanto, el óptimo
la posición se determina dentro de una tolerancia influenciada por el tamaño del símplex.
Nelder y Mead (1965) describieron una versión más eficiente (pero más compleja)
del método simplex que permitió a las figuras geométricas expandirse y contraerse
La experiencia ha demostrado que las instrucciones conjugadas son mucho más efectivas en la
búsqueda
se dice que es conjugado con respecto a una matriz cuadrada positiva definida Q si
Para una definición cuadrática f (x) de n variables, en las que H es una matriz constante, usted
es
existen direcciones para una matriz Q dada. Sin embargo, en dos dimensiones, si elige
transformaciones para alinear los nuevos ejes principales de H (x) con los vectores propios
f (x) (consulte las Figuras 4.12 a 4.13, luego la conjugación puede interpretarse como
Aunque los autores y los profesionales se refieren a una clase de optimización sin restricciones
métodos como "métodos que utilizan direcciones conjugadas", para un general no lineal
función, las direcciones conjugadas existen solo para una aproximación cuadrática de
función en una sola etapa k. Una vez que la función objetivo es modelada por un nuevo
aproximación en la etapa (k + I), es poco probable que las instrucciones en la etapa k sean
conjugadas
a cualquiera de las direcciones seleccionadas en la etapa (k + 1).
la dirección inicial es tan = [-4 -2IT. Encuentre una dirección conjugada a la dirección inicial
asi que.
Solución
Necesitamos resolver la ecuación (6.2) para st = [s ', s: lT con Q = H y así = [-4 -2IT.
Podemos alcanzar el mínimo de solución) en dos etapas usando primero so y luego sl. Poder
usamos las direcciones de búsqueda en orden inverso? Desde x0 = [l 1IT podemos llevar a cabo
un
búsqueda numérica en la dirección so = [-4 -2IT para llegar al punto xl. Cuadrático
a = 0.27778. Entonces
Para la siguiente etapa, la dirección de búsqueda es s1 = [_1 -4IT, y la longitud de paso óptima
como se esperaba
6.1.6 Resumen
la presencia de funciones como las declaraciones abs, min, max o if-then-else, que pueden
causa derivadas, o la función en sí misma, ser discontinua en algunos puntos. Sin restricciones
Los métodos de optimización que no usan derivados a menudo son capaces de resolver
problemas
Problemas de PNL, mientras que los métodos que usan derivados pueden fallar. Métodos
emplear derivados puede "atascarse" en un punto de discontinuidad, pero -el valor de función-
solo los métodos son menos afectados. Para funciones suaves, sin embargo, métodos que
los derivados de uso son más precisos y rápidos, y su ventaja crece a medida
número de variables de decisión aumenta. Por lo tanto, ahora volvemos nuestra atención a sin
restricciones
métodos de optimización que usan solo primeras derivadas parciales del objetivo
función.
Una buena dirección de búsqueda debería reducir (para minimizar) la función objetivo de
modo
en cualquier punto
Para ver por qué, examine los dos vectores Vf (xk) y sk en la figura 6.5. El ángulo
f (x). Si 0 5 8 <90 °, no es posible ninguna mejora y f (x) aumenta. Solo si 8> 90 "
¿la dirección de búsqueda produce valores más pequeños de f (x), por lo tanto VTf (xk) sk <0.
Primero examinamos el método clásico de descenso más inclinado para usar el gradiente y
reducido. Porque un paso en la dirección del descenso más empinado no será, en general,
llegar al mínimo offlx), la ecuación (6.4) debe aplicarse repetidamente hasta que.
El tamaño del paso ak se determina mediante una búsqueda en línea, usando métodos como
los
descrito en el Capítulo 5. Aunque las búsquedas de línea son inexactas (no continúan hasta la
f (x) = x: + x :, cuyos contornos son círculos concéntricos como se muestra en la Figura 6.6.
FIGURA 6.6
Observe que s es un vector que apunta hacia el óptimo en (0, 0). De hecho, el gradiente
Por otro lado, para funciones que no están tan bien escaladas y que tienen un valor no nulo
fuera de diagonal
xlx2), entonces es poco probable que la dirección del gradiente negativo pase directamente a
través del
óptimo. La Figura 6.7 ilustra los contornos de una función cuadrática de dos variables
eso incluye un término de interacción. Observe que los contornos están inclinados con
respecto a
ejes. Los términos de interacción más escalas deficientes corresponden a valles estrechos, o
crestas,
gk (a) = f (t + preguntar)
disminución.
FIGURA 6.8
En una búsqueda de línea exacta, elegimos ak como la a que minimiza gk (a), ASÍ
como se muestra en la Figura 6.8. Pero cuando el producto interno de dos vectores es cero, los
vectores
son ortogonales, por lo que si se utiliza una búsqueda de línea exacta, el gradiente en el nuevo
punto
los gradientes en los puntos xk y xk + 'son ortogonales. Esto se ilustra en la Figura 6.7,
que muestra que la ortogonalidad de las direcciones de búsqueda sucesivas conduce a una
muy
4. Usa la relación
Xk + l = x k + aksk
para obtener el valor de xk + l. Para obtener una minimización de gk (a) numéricamente, como
se describe en
Capítulo 5.
5. Compare f (xk + l) con f (xk): si el cambio en f (x) es menor que cierta tolerancia,
detener. De lo contrario, regrese al paso 2 y configure k = k + 1. También se puede especificar
la terminación.
punto donde los elementos del gradiente de f (x) son cero. Por lo tanto, debe determinar
si el mínimo presunto es de hecho un mínimo local (es decir, una solución) o una silla de
montar
punto. Si es un punto de silla de montar, es necesario emplear un método sin gradiente para
moverse
lejos del punto, después del cual la minimización puede continuar como antes. El estacionario
La dificultad básica con el método de descenso más empinado es que es demasiado sensible
al escalado (x), por lo que la convergencia es muy lenta y lo que equivale a oscilación
en el espacio x puede ocurrir fácilmente. Por estas razones, el descenso o el ascenso más
empinado
El primer método de gradiente conjugado fue ideado por Fletcher y Reeves (1964).
son conjugados El método representa una mejora importante sobre el descenso más
empinado
(una función de memoria) para obtener la nueva dirección de búsqueda. Usted calcula el
dirección de búsqueda por una combinación lineal del gradiente actual y el anterior
dirección de búsqueda. La principal ventaja de este método es que requiere solo un pequeño
cantidad de información que se almacenará en cada etapa de cálculo y, por lo tanto, puede
aplicado a problemas muy grandes. Los pasos se enumeran aquí.
minimizando f (x) con respecto aa en esa dirección (es decir, llevar a cabo unidimensional
buscar aO).
Paso 3. Calcule f (xl), Vf (xl). La nueva dirección de búsqueda es una combinación lineal
de so y Vf (xl): -,
Para una función cuadrática se puede demostrar que estas direcciones de búsqueda sucesivas
son
tolerancia escrita.
Tenga en cuenta que si la relación de los productos internos de los gradientes de la etapa k + 1
relativa
para la etapa k es muy pequeña, el método de gradiente conjugado se comporta de forma muy
similar a
método con una búsqueda de descenso impregnado (paso 1). La prueba de que la ecuación
(6.6) rinde
las direcciones conjugadas y la convergencia cuadrática fueron dadas por Fletcher y Reeves
(1964)
dirección de búsqueda. Esto significa que para calcular el valor de (I! Para la relación xk- '=
con el resultado
especialmente a problemas a gran escala y escasos, refiérase a Fletcher (1980), Gill et al.
Desde un punto de vista, la dirección de búsqueda del descenso más inclinado puede
interpretarse como
punto xk; examine la Figura 6.9a. Ahora supongamos que hacemos una aproximación
cuadrática
offlx) en xk
donde H (xk) es la matriz Hessiana de 'f (x) definida en el Capítulo 4 (la matriz de segundo
mas tarde.
Axe) en xk y, por lo tanto, emplea información de segundo orden sobre flx), es decir,
información
x e identificar mejores direcciones de búsqueda que las que se pueden obtener a través del
gradiente
obtenido al diferenciar (6.10) con respecto a cada uno de los componentes de Axe y
(6. l l). Si JTx) es realmente cuadrático, solo se requiere un paso para alcanzar el mínimo
offlx). Para una función objetivo no lineal general, sin embargo, el mínimo de
JTx) no se puede alcanzar en un solo paso, por lo que la ecuación (6.12) se puede modificar
para cumplir
y que la longitud del paso es ak. La longitud del paso ak se puede evaluar numéricamente
como
los criterios están satisfechos Para la versión "pura" del método de Newton, a = 1 en cada
paso. Sin embargo, esta versión a menudo no converge si el punto inicial no está cerca
También tenga en cuenta que para evaluar Ax en la ecuación (6.12), una inversión de matriz no
es necesariamente
necesario. Puedes tomar su precursor, Ecuación (6.1 I), y resolver los siguientes
de una matriz