You are on page 1of 203

OPTIMIZACIÓN

TEMA 2:
PROGRAMACIÓN NO LINEAL

Desarrollo
• Problemas irrestrictos de una variable
• Problemas irrestrictos de dos variables
• Problemas restringidos

2

Problemas irrestrictos de una variable
• Revisión
Continua

Discontinua
FUNCIÓN
Monotónica

Unimodal

3

Problemas irrestrictos de una variable
• Revisión
– Función f(x): Regla que asigna a cada valor de x un único valor
y=f(x)

4

Problemas irrestrictos de una variable • Revisión – Función f(x): Irrestricta f ( x)  x 3  2 x 2  x  3 xR 5 .

Problemas irrestrictos de una variable • Revisión – Función f(x): Restringida f ( x)  x 3  2 x 2  x  3 x  S  x  5  x  5 6 .

Problemas irrestrictos de una variable • Revisión – Función f(x): Monotónica 7 .

Problemas irrestrictos de una variable • Revisión – Función f(x): Unimodal 9 8 7 6 5 4 3 2 1 0 -3 -2 -1 0 1 2 3 8 .

Problemas irrestrictos de una variable • Conceptos – Óptimo Local y Global: Mínimo y Máximo a X1 X2 X3 X4 b 9 .

Problemas irrestrictos de una variable • Conceptos – ¿Cómo identificar el óptimo? 10 .

Problemas irrestrictos de una variable • Conceptos – ¿Cómo identificar el óptimo? 11 .

Problemas irrestrictos de una variable • Conceptos – Condición necesaria df x x* 0 dx d2 f xx*  0 ( 0) dx 2 12 .

Problemas irrestrictos de una variable
• Conceptos
– Punto estacionario

df
x x*
0
dx

13

Problemas irrestrictos de una variable
• Conceptos
– Punto de inflexión

30

20

10

0
y

-10

-20

-30
-3 -2 -1 0 1 2 3
x

14

Problemas irrestrictos de una variable
• Teorema
– En el punto x* la primera derivada es cero
– La primera derivada de orden superior diferente de cero es n
– Si n es impar, entonces x* es un punto de inflexión
– Si n es par, entonces x* es un óptimo local

15

Problemas irrestrictos de una variable
• Aplicación
f ( x)  x 3
df
x 0  0 30

dx 20

d2 f
0
10

2 x 0
dx 0
y

-10
3
d f
x0 6 -20

dx3 -30
-3 -2 -1 0 1 2 3
x

16

Problemas irrestrictos de una variable • Ejemplo – Encuentre los puntos estacionarios de la siguiente función f ( x)  5 x 6  36 x 5  165 2 x 4  60 x 3  36 17 .

Problemas irrestrictos de una variable • Ejemplo (continuación) df  30 x 5  180 x 4  330 x 3  180 x 2  30 x 2 ( x  1)( x  2)( x  3) dx d2 f 2  150 x 4  720 x 3  990 x 2  360 x dx 18 .

0 -120 3 5.0 0 1 27.2. Problemas irrestrictos de una variable • Ejemplo (continuación) – Al igualar a CERO la primera derivada se encuentra que x= 0.5 60 2 44.3 y se tiene lo siguiente: X f(x) d2f/dx2 0 36.1.5 540 19 .

Problemas irrestrictos de una variable • Ejemplo y Actividad – ¿Qué puede interpretar de la última tabla? – Escriba el algoritmo para encontrar los puntos estacionarios de una función y decidir a qué corresponden 20 .

Problemas irrestrictos de una variable • Actividad – Encuentre los puntos estacionarios y determine a qué corresponden 40 f ( x)   x 3  3x 2  9 x  10 35 30 2  x  4 25 20 15 10 5 -2 -1 0 1 2 3 4 21 .

Problemas irrestrictos de una variable • Determinación del óptimo • Primera derivada Métodos Exactos • Segunda derivada • Métodos de eliminación Métodos • Aproximación Aproximados polinomial • Métodos con derivadas 22 .

Problemas irrestrictos de una variable • Determinación del óptimo • Interval halving Eliminació • Golden search n • Búsqueda cuadrática Polinomial • Powell • Newton-Raphson Con • Bisección derivadas 23 .

5(3). App. Soc. J. 3. el más eficiente es el de 3 puntos (KIEFER. 4 y 5 puntos. Optimum sequential search and approximation methods under minimum regularity assumptions”. Math. Ind. 105-125 (1957)) 24 .. Problemas irrestrictos de una variable • Interval halving – Se conoce como THREE-POINT EQUAL-INTERVAL SEARCH – En cada iteración elimina exactamente la mitad del intervalo – Trabaja con tres puntos espaciados a la misma distancia – De todos los intervalos equidistantes de 2.

Problemas irrestrictos de una variable • Interval halving 25 .

Problemas irrestrictos de una variable • Interval halving 26 .

Problemas irrestrictos de una variable • Interval halving – En el intervalo [60. b= 150 y L= 150-60= 90 – El punto medio es xm  2 (60  150)  105 1 27 . 150]. minimizar la función – Se tiene a= 60.

Problemas irrestrictos de una variable • Interval halving 28 .

Problemas irrestrictos de una variable • Interval halving 29 .

Problemas irrestrictos de una variable • Interval halving 30 .

Problemas irrestrictos de una variable • Interval halving 31 .

Problemas irrestrictos de una variable • Interval halving 32 .

Problemas irrestrictos de una variable • Interval halving 400 350 300 250 200 150 100 50 0 80 85 90 95 100 105 33 .

Problemas irrestrictos de una variable • Golden search – Término usado en la antigua Grecia para conceptos de arquitectura – El Partenón se construyó con esta medida – Se basa en la proporción igual a 0.618 – La misma proporción se encuentra al tomar las proporciones de la serie de números Fibonacci 34 .

Problemas irrestrictos de una variable • Golden search – Para la solución debe definirse en cual situación está el problema • CASO 1: f(x1)<f(x2) • CASO 2: f(x1)=f(x2) • CASO 3: f(x1)>f(x2) 35 .

entonces corresponde a un caso en el cual el óptimo estará entre (x1. b] 36 . Problemas irrestrictos de una variable • Golden search – CASO 1 • Como f(x) es creciente para parte del intervalo [x1. x2] y es Unimodal.

x2] 37 . Problemas irrestrictos de una variable • Golden search – CASO 2 • Como f(x) es decreciente para parte del intervalo [x1. x2] entonces corresponde a un caso en el cual el óptimo estará entre (a.

x2] 38 . Problemas irrestrictos de una variable • Golden search – CASO 3 • Como f(x) comienza a disminuir antes de que x llegue a x2. entonces corresponde a un caso en el cual el óptimo estará entre (a.

se conoce como el intervalo de incertidumbre – La mayor parte de algoritmos planteados para la búsqueda dorada buscan reducir el intervalo de incertidumbre 39 . Problemas irrestrictos de una variable • Golden search – El intervalo en el cual queda el valor x*.

25 40 .618k  0. Problemas irrestrictos de una variable • Golden search – Es posible determinar el número apropiado de iteraciones a partir de la longitud L del intervalo inicial. basado en que la longitud final deberá ser menor de ¼ L  0.

Problemas irrestrictos de una variable • Golden search – A partir de L se pueden calcular los puntos así: x1  b  0.618  L  41 .618  L  x2  a  0.

2008) Max f ( x)   x 2  1 Para  1  x  0.75 42 . Problemas irrestrictos de una variable • Golden search – Ejemplo (Winston.

6180 (0.618k)=0.618 = Ln Control 0.25 Proporción 0.7500 1.06 (aprox. Problemas irrestrictos de una variable • Golden search – Ejemplo (continuación) L= 1.1429 k Ln 0.618k)=0. 5) 43 .2500 0.1429 k = 4.75 (0.

3315 0.0815 -1.3315 0.3315 0.0816 0.0000 0.0066 1 (x1.6684 -0.3369 0.0762 0.0762 -1.0816 0.3315 0. b] -0.0159 0. x2) -0.1737 -0.0816 0.0815 0.4131 -0.0067 -1.0003 1 (x1. b] -0.7500 1.0058 1 (x1.0058 -1. b] -0.0762 -0.1737 0.7500 -0.1578 -0. Problemas irrestrictos de una variable • Golden search – Ejemplo (continuación) a b L x1 x2 f(x1) f(x2) CASO Nvo Interv -1.0816 0.3369 -1.1135 3 [a.7500 1.1099 -1.0027 44 .0067 3 [a. x2) -0.0160 -1.0213 Óptimo 0.0762 0.2553 -0.0058 -1.0302 -1.0816 -1.

Problemas irrestrictos de una variable • Aproximación cuadrática 45 .

Problemas irrestrictos de una variable • Aproximación cuadrática 46 .

Problemas irrestrictos de una variable • Aproximación cuadrática 47 .

Problemas irrestrictos de una variable • Aproximación cuadrática – Ejemplo • En el intervalo de 1 a 5 encontrar el mínimo de 16 f ( x)  2 x  2 x 48 .

Problemas irrestrictos de una variable • Aproximación cuadrática – Ejemplo (continuación) 49 .

Problemas irrestrictos de una variable • Aproximación cuadrática – Ejemplo (continuación) 50 .

5 3 3.5 2 2. Problemas irrestrictos de una variable • Aproximación cuadrática – Ejemplo (continuación) 55 50 45 40 35 30 25 20 15 1 1.5 5 51 .5 4 4.

Problemas irrestrictos de una variable • Powell – Usa estimaciones sucesivas cuadráticas – Powell. M. “An efficient method for finding the minimum of a function of several variables without calculating derivates”. D. 155-162 (1964) 52 . J. Computer J 7.

Problemas irrestrictos de una variable • Powell 53 .

Problemas irrestrictos de una variable • Powell 54 .

Problemas irrestrictos de una variable • Powell – Ejemplo 16 • Encuentre el mínimo para la función f ( x)  2 x 2  x • Tome un valor inicial de x1  1 • El valor del paso es x  1 • La convergencia está dada por Diferencia _ en _ x Diferencia _ en _ F  3 102  3 103 x F 55 .

Problemas irrestrictos de una variable • Powell – Ejemplo (continuación) 56 .

Problemas irrestrictos de una variable • Powell – Ejemplo (continuación) 57 .

Problemas irrestrictos de una variable • Powell – Ejemplo (continuación) 58 .

que corresponde a la aproximación del punto estacionario f ' ( x)  0 – Se calcula el nuevo punto f ' ( xk ) xk 1  xk  f ' ' ( xk ) 59 . Problemas irrestrictos de una variable • Newton-Raphson – Requiere que la función sea doblemente diferenciable – Inicia con un punto x1.

Problemas irrestrictos de una variable • Newton-Raphson – Ejemplo 16 • Determinar el mínimo de la función f ( x)  2 x 2  x • El punto de inicio es x1  1 • Las derivadas son: 16 32 f ' ( x)  4 x  2 f ' ' ( x)  4  x x3 60 .

f ' ' ( x1 )  36 x2  1   1.6 61 .33 36 • Paso 2: x2  1.6  3.54 17.73 x3  1   1. f ' ( x1 )  12.33.73. f ' ' ( x2 )  17. Problemas irrestrictos de una variable • Newton-Raphson – Ejemplo (continuación) • Paso 1:  12 x1  1. f ' ( x2 )  3.

Problemas irrestrictos de una variable • Newton-Raphson – Ejemplo (continuación) • Se continúa hasta que f ' ( xk )   • Épsilon corresponde a la tolerancia permitida • Suponga que para el problema la tolerancia es 0.002 62 .

0000 -12.0000 0.0000 0.5501 12.0000 12.5861 -0.7131 0.0001 1.3333 -3.0001 1.0001 1.5000 0.0001 1. Problemas irrestrictos de una variable • Newton-Raphson – Ejemplo (continuación) Xk f'(Xk) f''(Xk) Tolerancia 1.5429 -0.6667 17.0000 36.5874 0.0001 63 .0193 0.0153 12.

Problemas irrestrictos de una variable • Bisección – Método de Bolzano – Si la función f(x) es unimodal sobre el intervalo de búsqueda. entonces el punto óptimo será uno en donde f’(x)=0 64 .

Problemas irrestrictos de una variable • Bisección – Se tienen dos puntos L y R. y se calcula otro z que corresponde al punto medio – Se tiene el intervalo a  x  b – Se tiene el criterio de terminación ξ 65 .

Problemas irrestrictos de una variable • Bisección 66 .

Problemas irrestrictos de una variable • Bisección – Ejemplo 16 • Suponga la función f ( x )  2 x 2  x • El intervalo es 1  x  5 • La tolerancia permitida es   0.010 67 .

563 -0.441 0.010 1.000 10. Problemas irrestrictos de una variable • Bisección – Ejemplo (continuación) L R Z f'(z) Toleranc 1.563 1.625 1.588 0.010 1.586 1.006 0.500 1.750 1.578 1.586 1.000 2.000 2.625 1.500 1.625 0.010 1.000 3.750 1.000 4.500 2.590 1.010 1.578 -0.304 0.076 0.563 1.776 0.590 0.000 1.222 0.010 1.000 5.594 1.010 1.000 0.594 1.000 3.112 0.010 1.111 0.010 1.594 0.586 -0.010 68 .029 0.594 1.010 1.000 1.018 0.500 -1.010 1.

Problemas irrestrictos de dos variables • Introducción – Se consideran x1 y x2 como variables independientes – Las funciones son continuas – La diferenciación es posible (por lo menos hasta segundo orden) – Utiliza el concepto de derivada parcial 69 .

x2 1 2 70 . x2 )    f . x2 ) cuando todas las variables. excepto una. f  f f T T x1 . son constantes – El vector gradiente es un vector que contiene la primera derivada parcial de la función f ( x1. Problemas irrestrictos de dos variables • Introducción – La derivada parcial denota el cambio f ( x1.

x2 )   2   f 21 f 22  f 2 '  71 . Problemas irrestrictos de dos variables • Condición de optimalidad – Se asume que las derivadas existen y son continuas – Los puntos óptimos están dados por f *  0 – La matriz hessiana representa las segundas derivadas  f11 f12  f1 '  H   f ( x1.

Problemas irrestrictos de dos variables • Condición de optimalidad – El máximo se presenta cuando f11  0( f 22  0) – El mínimo se da en el caso contrario 72 .

Problemas irrestrictos de dos variables • Condición de optimalidad 73 .

Problemas irrestrictos de dos variables • Condición de optimalidad 74 .

Problemas irrestrictos de dos variables • Condición de optimalidad – Si la matriz hessiana es – Definida positiva se tiene un mínimo – Definida negativa se tiene un máximo – Indefinida se tiene un punto de inflexión (saddle point) 75 .

Problemas irrestrictos de dos variables • Condición de optimalidad – Si la matriz hessiana es – Definida positiva se tiene un mínimo – Definida negativa se tiene un máximo – Indefinida se tiene un punto de inflexión (saddle point) 76 .

x2 )    x1    x2  P1 x1  P2 x2 S  2S  S S 77 . Problemas irrestrictos de dos variables • Ejemplo – Los componentes de desplazamiento x1 y x2 del nodo R de dos barras se pueden encontrar mediante la minimización de la energía potencial. expresada por la siguiente ecuación: 2 2 EA  l  2 EA  h  2 f ( x1 .

Problemas irrestrictos de dos variables • Ejemplo (continuación) – En donde E es el módulo de Young. De otro lado. S es la longitud de cada miembro y P1 y P2 son las cargas aplicadas en dirección horizontal y vertical. A es la sección de área de cada miembro. se tiene que: h  30" l  s  20 3 78 .

Problemas irrestrictos de dos variables • Ejemplo (continuación) P2=500 lbs P1=1000 lbs 30" 60° l/2 l/2 79 .

886025  106 x22  1000 x1  500 x2 80 .21650625  10 6 x12  0. con un valor de A=1 m2. Problemas irrestrictos de dos variables • Ejemplo (continuación) – Reemplazando los datos en la ecuación. se tiene que: f ( x1 . x2 )  0.

772050 106 x2  500  0 x2 81 .43301125 106 x1  1000  0 x1 f  1. Problemas irrestrictos de dos variables • Ejemplo (continuación) – La condición necesaria para el mínimo es f  0.

Problemas irrestrictos de dos variables • Ejemplo (continuación) – Por lo tanto se tiene que x1*  2.28216 10 3 82 .309402 10 3 x2*  0.

Problemas irrestrictos de dos variables • Ejemplo (continuación) – La matriz hessiana es 2 f 2 f x12 x1x 2 0.4330125 106 0 A  2 f  f 2 0 1.772050 106 x1x 2 x 22 83 .

Problemas irrestrictos de dos variables • Ejemplo (continuación) – Para determinar a qué corresponde se tiene que A1  a11  0.67 1011  0 84 .772050 106 )  (0)(0)  7.4330125 106 0 A2   a21 a22 0 1.772050 106  (0.4330125 106 )(1.4330125 106  0 a11 a12 0.

se tiene que el punto corresponde a un mínimo 85 . Problemas irrestrictos de dos variables • Ejemplo (continuación) – Como es una matriz definida positivamente.

x2 )  ( x1  1) 2  ( x2  2) 2 86 . Problemas irrestrictos de dos variables • Ejemplo – Encontrar los puntos estacionarios de la siguiente función y determinar a qué corresponden f ( x1 .

Problemas irrestrictos de dos variables • Ejemplo (continuación) – La función es (x-1)2+(y-2)2 120 100 80 60 40 20 0 5 5 0 0 -5 -5 y x 87 .

x2  2  2  88 . x1  1. Problemas irrestrictos de dos variables • Ejemplo (continuación) – Con el vector gradiente se tiene  f   x1   2( x1  1)  f     2( x  2) f  x2   2   2( x1  1)  2( x  2)  0.

Problemas irrestrictos de dos variables • Ejemplo (continuación) – La matriz hessiana es  2 f 2 f   x12 x1 x2   f11 f12  2 0  2     f  f 2  f 21 f 22  0 2 2   x1 x2 x2  89 .

Problemas irrestrictos de dos variables • Ejemplo (continuación) – Con el toolbox del Matlab se puede encontrar 90 .

encuentre los puntos estacionarios y determine a qué corresponden f ( x)   x1  2 x1 x2  x22 2 91 . Problemas irrestrictos de dos variables • Ejemplo – Para la siguiente función de dos variables.

Problemas irrestrictos de dos variables • Ejemplo (continuación) -x 2+2 x y-y 2 0 -50 -100 -150 5 5 0 0 -5 -5 y x 92 .

Problemas irrestrictos de dos variables • Ejemplo (continuación)  f   x1   2 x1  2 x2  f      2x  2x  f  x2   1 2   2 x1  2 x2   2 x  2 x   0. x1  x2  1 2  93 .

Problemas irrestrictos de dos variables • Ejemplo (continuación)  2 f 2 f   x12 x1 x2   f11 f12   2 2   f  2 2     f  f 2  f 21 f 22   2  2 2   x1 x2 x2  94 .

Problemas irrestrictos de dos variables • Ejemplo (continuación) – Los eigenvalores indican la existencia de un máximo porque f11  0. f 22  0 95 .

x2 )  x  x2 3 3 1 96 . Problemas irrestrictos de dos variables • Ejemplo – Encontrar los puntos estacionarios y determinar a qué corresponden f ( x1 .

Problemas irrestrictos de dos variables • Ejemplo (continuación) x 3+y 3 500 0 -500 5 5 0 0 -5 -5 y x 97 .

x1  x2  0 3x2  98 . Problemas irrestrictos de dos variables • Ejemplo (continuación)  f   x1 3 x 2  f     3x 2  1 f  x2   2  3x12   2   0.

Problemas irrestrictos de dos variables • Ejemplo (continuación)  2 f 2 f   x12 x1 x2   f11 f12  6 x1 0   f  2 2    f  f 2  f 21 f 22   0 6 x2   2   x1 x2 x2  99 .

Problemas irrestrictos de dos variables • Ejemplo (continuación) – Al reemplazar los puntos x1  x2  0 en la matriz. da como resultado un punto de inflexión 100 .

x2 )  1  x12  x22 101 . Problemas irrestrictos de dos variables • Ejemplo – Encontrar los puntos estacionarios y determinar a qué corresponden f ( x1 .

Problemas irrestrictos de dos variables • Ejemplo (continuación) 1+x 2-y 2 60 40 20 0 -20 -40 5 5 0 0 -5 -5 y x 102 .

x1  x2  0  2 x2  103 . Problemas irrestrictos de dos variables • Ejemplo (continuación)  f   x1   2 x1  f      2 x  f  x2   2  2 x1     0.

Problemas irrestrictos de dos variables • Ejemplo (continuación)  2 f 2 f   x12 x1 x2   f11 f12  2 0   f  2 2     f  f 2  f 21 f 22  0  2 2   x1 x2 x2  104 .

Problemas irrestrictos de dos variables • Ejemplo (continuación) – La matriz es indefinida. por lo que se tiene un punto de inflexión 105 .

x3 )  5 x12  2 x22  x34  32 x3  6 x1 x2  5 x2 106 . x2 . Problemas irrestrictos de dos variables • Ejemplo – Encuentre los puntos estacionarios de la siguiente función de tres variables y determine a qué corresponden f ( x1 .

5  4 x  6 x  5  0 x*   12. Problemas irrestrictos de dos variables • Ejemplo (continuación)  f   x1   10 x1  6 x2     f  f   4 x2  6 x1  5 x2 f   4 x 3  32   x   3   3  10 x1  6 x2   7.5  2 1   4 x3  32  3  2  107 .

Problemas irrestrictos de dos variables • Ejemplo (continuación)  2 f 2 f 2 f   x12 x1x2 x1x3   f  2  11 f12 f13  10 6 0   f  2  f  2 f  f 2    f 21 f 22 f 23    6 4 0   x2x1 x22 x2x3    2 f 2 f 2 f   f31 f32 f33   0 0 12 x32   x3x1 x3x2 x32   108 .

f 22  0. f33  0 109 . Problemas irrestrictos de dos variables • Ejemplo (continuación) – Se tiene un mínimo porque f11  0.

Problemas irrestrictos de dos variables • Métodos numéricos – Métodos iterativos – Conjunto inicial de valores para las variables X 0 – Algoritmo para encontrar el siguiente valor X k 1 – Regla de decisión para decidir cuántas iteraciones 110 .

Problemas irrestrictos de dos variables • Métodos numéricos – Downhill simplex – Uphill simplex – Búsqueda secuencial univariada 111 .

Problemas irrestrictos de dos variables • Downhill simplex – Nelder y Mead (1965) – Método heurístico de búsqueda de cualquier función N- dimensional – Fundamentos de tipo geométrico – Solución de problemas irrestrictos con función no lineal 112 .

Problemas irrestrictos de dos variables
• Downhill simplex
– Para dos variables, el simplex es el triángulo (unión de tres
puntos)
– Para tres variables, el simplex es un tetraedro (pirámide)
formada por cuatro puntos en diferente plano
– El simplex se forma por la combinación de n+1 puntos en
diferente hiperplano n-dimensional

113

Problemas irrestrictos de dos variables
• Downhill simplex
– Requiere pocas evaluaciones
– No necesita derivadas
– Actualiza (iterativamente) el peor punto por cuatro operaciones:
Reflexión, Expansión, Contracción y Contracción múltiple

114

Problemas irrestrictos de dos variables
• Downhill simplex
– Evolución (Pérez, 2005)

115

Problemas irrestrictos de dos variables
• Downhill simplex
– Las operaciones (Hiwa et al., 2005)

116

2004) – Para dos variables el simplex es un triángulo – El peor vértice es el mayor valor en la función – El peor vértice es rechazado y reemplazado por un nuevo vértice – Se forma un nuevo triángulo – El proceso continúa hasta encontrar un valor aceptable 117 . Problemas irrestrictos de dos variables • Algoritmo Downhill simplex (Mathews y Fink.

Problemas irrestrictos de dos variables • Algoritmo Downhill simplex (continuación) 118 .

Problemas irrestrictos de dos variables • Algoritmo Downhill simplex (continuación) 119 .

Problemas irrestrictos de dos variables • Algoritmo Downhill simplex (continuación) 120 .

Problemas irrestrictos de dos variables • Algoritmo Downhill simplex (continuación) 121 .

Problemas irrestrictos de dos variables • Algoritmo Downhill simplex (continuación) 122 .

Problemas irrestrictos de dos variables • Algoritmo Downhill simplex (continuación) 123 .

Problemas irrestrictos de dos variables • Algoritmo Downhill simplex (continuación) 124 .

Problemas irrestrictos de dos variables • Algoritmo Downhill simplex (continuación) 125 .

Problemas irrestrictos de dos variables • Algoritmo Downhill simplex (continuación) 126 .

Problemas irrestrictos de dos variables • Algoritmo Downhill simplex (continuación) 127 .

se evalúan los puntos en la función 128 . Problemas irrestrictos de dos variables • RESUMEN Algoritmo Downhill simplex – Se definen los valores de inicio para los vértices (tres puntos) – Se evalúan los puntos en la función y se ordenan de mejor (BEST) a peor (WORST) – Se calcula el punto medio M y el punto R.

Problemas irrestrictos de dos variables • RESUMEN Algoritmo Downhill simplex – Si f(R) es menor que f(Best). entonces el punto R entra a formar parte del vértice 129 . se mira cuál de los puntos R y E es mejor – Si f(R) es menor que f(Worst). pero mayor que f(Best). entonces debe calcularse el punto E.

en donde el primero corresponde al punto medio de la línea M y Worst. y el segundo al punto medio de la línea M y R. Problemas irrestrictos de dos variables • RESUMEN Algoritmo Downhill simplex – Si f(R) es mayor que f(Worst). El mejor punto de los dos se toma – En cualquier caso. los puntos deben ordenarse otra vez de Best a Worst 130 . es decir es un punto peor. entonces deben calcularse dos puntos C1 y C2.

y)  x 2  4 x  y 2  y  xy V1  (0.2.V2  (1.0). Problemas irrestrictos de dos variables • Ejemplo – A través del método Downhill simplex.0.0).8) 131 .V3  (0. encuentre el mínimo de la función en los puntos indicados f ( x.

88 1.800 1.440 (1.05 y 1.88 3.2) = -5.6 y 1.075 1.24 (3.375 2.07 y 1.800 1.075 1.200 0.6) = -6.4 y 2.160 (1.160 (1.100 -6.581 (3 y 0.8 y 1.8) = -0.44 (1.911 (3.2) = -5.700 2.36 3.72 3.000 -6.800 -0.36 0.6) = -6.88 3.600 -6.240 (2.000 -3.910 (2.2 y 0) = -3.700 2.24 3.200 0.6) = -6.800 -0.6 y 1.7 y 2)= -6.720 9 3.910 (2.400 1.72 3.000 0.1)= -6.000 -3.36 0.6) = -6.4) = -6.581 (3 y 0.2 y 0) = -3.400 -6.581 6 2.910 (3.360 4 1.700 -6.6 y 1.200 -5.000 0.7 y 2)= -6.87)= -6.600 1.400 2. Problemas irrestrictos de dos variables • Ejemplo V1 V2 V3 k X y f x y f x y f Best Point Good Point Worst Point 1 0.910 (2.440 5 1.400 1.720 (3.88 2.44 (3.07 y 1.875 -6.1)= -6.240 (2.8 y 1.720 (3.000 1.7 y 2)= -6.8 y 1.600 -6.000 -6.4) = -4.800 1.400 -6.600 -6.37 y 2.4 y 2.8 y 1.360 (0 y 0.580 (1.360 (0 y 0.88 3.974 (2.88 1.600 -6.240 8 2.240 (1.056 1.8) = -0.912 (3.882 (2.6) = -6.200 -5.2) = -5.000 -6.6) = -6.24 (2.88 2.240 (1.160 (0 y 0) = 0 2 1.800 1.37 y 2.000 0.000 0.6 y 1.700 -6.600 -6.000 -6.887 132 .400 -4.400 1.882 10 3.24 2.7)= -6.200 -5.910 (2.700 2.7)= -6.88 3.160 3 1.24 2.600 1.000 -3.100 -6.7 y 2)= -6.700 2.400 -4.24 2.887 (3.4) = -6.600 1.72 3.600 -6.375 2.400 2.4 y 1.4 y 1.000 0.600 -6.600 1.000 0.4 y 1.6) = -6.2 y 0) = -3.200 0.240 7 2.4) = -4.912 (3.2) = -5.200 -5.97 2.

6 -6.5 0.6 0.6 1. Problemas irrestrictos de dos variables • Ejemplo (continuación) K x y función 2 M= 0.4 -2.8 -4.2 -5.8 1.92 R= 3.52 R= 1.4 -4.24 ok como f( R)<f(B) se calcula el punto E E= 4.89 R= 3 0.2 0.6 -4.44 ok 4 M= 2.8 2.8 -5.4 0.32 133 .48 como f( R)<f(B) se calcula el punto E E= 1.4 -4.88 ok 3 M= 1.

8 -4.4 -6.2 -6.72 7 M= 3 1.73 R= 2.4 1.7 2 -6.88 como f( R)= f(W) debe probarse otro punto C1 (W-M)= 2.4 -6.6 0.4 -6. Problemas irrestrictos de dos variables • Ejemplo (continuación) 5 M= 2.03 134 .24 ok 6 M= 3 2 -7 R= 4.91 ok C2 (M-R)= 3.8 -5.72 ok C2 (M-R)= 3.4 2.2 2.7 1.6 -6.6 -6.3 1.84 R= 3.48 como f( R) es peor que W C1 (W-M)= 2.6 2.

55 1.85 -6.886875 ok 10 M= 3.01875 2.974179688 ok C2 (M-R)= 3.9 -6. Problemas irrestrictos de dos variables • Ejemplo (continuación) 8 M= 2.1 -6.875 -6.05 -6.881875 ok C2 (M-R)= 2.0375 2.84 como f( R)= f(W) debe probarse otro punto C1 (W-M)= 3.375 2.99796875 R= 3 2.953242188 135 .075 1.225 -6.05625 1.4 -6.136875 9 M= 2.8875 1.8475 R= 1.98171875 R= 3.5 2 -4.025 1.8 -6.75 como f( R) es peor que W C1 (W-M)= 3.7 -6.

0). Problemas irrestrictos de dos variables • Ejemplo – Encontrar el mínimo de f ( x.V2  (1.1) 136 .V3  (0.0). y )  x 2  y 2  4 x  5 y  5 V1  (0.

8438 2.0000 -9.9981 2.6655 -15.0000 0.2487 2.0000 -15.4752 -15.9688 1.5879 -15.8438 2.1485 2.0000 3.0000 3.1957 2.0059 2.9981 2.0000 1.5000 2.3750 2.0000 9 1.5000 2.0000 3.0000 -15.5879 -15.5598 -15.3028 2.2423 2.0000 -15.5879 -15.5000 -14.0000 1.3203 -15.1881 2.5000 -13.0000 7 1.4471 -15.0000 6 2.0000 1.0000 5 2.Good V3 .5879 -15.4471 -15.0000 1.1485 2.0000 -5.5000 -14.5879 137 -15.9981 2.2423 2.0000 0.5000 1.2423 2.0000 0.0000 -15.5000 1.2487 1.5879 -15.0000 0.3203 -15.1957 1.Worst k • Ejemplo (continuación) X Y f x y f x y f 1 0.0000 -9.0000 1.Best V2 .5000 1.0313 -15.1307 2.2359 2.1485 2.2359 15 1.5598 -15.9981 2.0000 1.1065 2.2423 2.9739 2.5000 1.1485 2.0000 2.0463 2.5000 1.2293 2.0000 3.0000 2.2477 1.2293 14 1.2423 2.0000 -8.0000 -14.5000 -14.5000 -14.5879 -15.1957 2.0059 10 1.9739 2.0000 3.5000 -13.2423 .9981 2.0000 4 2.0059 2.1065 2.0000 2 1.1250 -14.0000 -9.5000 -14.9981 2.0313 -15.9688 8 2.8438 2.3203 -15.0000 0.0000 1.0000 0.9981 2.3203 -15.0000 2.8769 -15.3750 2.0163 11 1.1957 1.0313 -15.3203 -15.4752 -15.0000 0.4893 -15.0000 0.0000 -15.1485 2.1872 12 1.1250 -14. Problemas irrestrictos de dos variables V1 .1957 13 1.0000 -8.1307 2.2423 2.0000 3.0000 3 1.

Optimización restringida
• Generalidades
– En este caso se hace referencia a los problemas de optimización
que tienen una función objetivo y unas restricciones
– La función objetivo y/o las restricciones son no lineales

138

Optimización restringida
• Ejemplo “Paquete Postal” (Castillo, E. et ál., 2001)
– Un paquete postal es una caja de dimensiones x, y, z, que debe
verificar los siguientes requisitos para ser aceptado en la oficina
de correos: La altura más el perímetro de la base no puede
exceder los 108 centímetros y las longitudes negativas no son
admisibles. Encuentre las tres dimensiones que maximizan el
volumen

139

Optimización restringida
• Ejemplo “Paquete Postal” (Castillo, E. et ál., 2001)
– El volumen a maximizar es V ( x, y, z )  xyz

– Las restricciones son
z  2 x  2 y  108
x, y , z  0

140

Optimización restringida
• Ejemplo de “La Tienda” (Castillo, E. et ál., 2001)
– Una tienda tiene una base cuadrada de lado 2a, cuatro paredes
verticales de altura b, y un tejado que una pirámide de altura h

141

Optimización restringida • Ejemplo de “La Tienda” (continuación) – Si el volumen total V y la altura total H de la tienda están dados. b y h tales que la tienda resultante tenga una superficie mínima y requiera el mínimo de material 142 . encontrar los valores óptimos a.

h)  4  2ab  a h 2  a 2  – Las condiciones de volumen total. b. Optimización restringida • Ejemplo de “La Tienda” (continuación) – Se pretende minimizar la superficie total que corresponde a la superficie de las 4 paredes más el tejado  S (a. h  0 143 . b. altura total y no negatividad son V  4a b  3  2 h H bh a.

y al inverso de la distancia d de la bombilla. et ál. Optimización restringida • Ejemplo de “La bombilla” (Castillo. E. de tal manera que la intensidad en la circunferencia sea máxima 144 . 2001) – Una bombilla está situada justo encima del centro de un círculo de radio r=30 centímetros. Encontrar la altura óptima de la bombilla.. Suponiendo que la intensidad de la luz en cualquier punto de la circunferencia es proporcional a la raíz cuadrada del seno del ángulo con el que el rayo de luz llega a tal punto.

Optimización restringida • Ejemplo de “La bombilla” (continuación) – Se debe maximizar la intensidad de luz en los puntos de la circunferencia de radio r=30 centímetros 145 .

medida en unidades de intensidad. En el triángulo de la figura se aprecia que h seno   h2  r 2 d  h2  r 2 146 . Optimización restringida • Ejemplo de “La bombilla” (continuación) – Sea I la intensidad. la cual está en función del seno del ángulo formado por el rayo de luz y el horizonte.

Optimización restringida • Ejemplo de “La bombilla” (continuación) – Por lo tanto la expresión a maximizar es h I ( h)  k h 2 r 2  3 4 – Se tiene k>0 como una constante de proporcionalidad y h≥0 147 .

2001) – Se desea diseñar un voladizo de sección rectangular y longitud dada para conseguir peso mínimo y a la vez asegurar una deformación máxima transversal bajo la acción de una carga vertical actuando en el extremo libre.. Optimización restringida • Ejemplo del “Voladizo” (Castillo. El material para construir el voladizo tiene una peso específico conocido 148 . et ál. E.

Optimización restringida • Ejemplo del “Voladizo” (continuación) – La siguiente figura representa la situación planteada: 149 .

la carga en el extremo libre (F). la deformación máxima (S) y el peso específico (γ) – El objetivo es minimizar el peso W ( x. Optimización restringida • Ejemplo del “Voladizo” (continuación) – Las medidas de ancho y alto que se buscan son x. y – Otras medidas son: Longitud (L). y )   L xy 150 .

Optimización restringida
• Ejemplo del “Voladizo” (continuación)
– La anchura debe ser mayor que 0.5
3
– La deformación en el extremo libre viene dada por FL
3EI
– Módulo de Young (E) xy 3
I
– Momento de inercia de la sección rectangular (I) 12

151

Optimización restringida
• Ejemplo del “Voladizo” (continuación)
– Las restricciones son
4 FL3
3
S
Exy
x  0.5
x, y  0

152

Optimización restringida
• Ejemplo de la “Estructura de dos barras” (Castillo, E. et ál.,
2001)
– Se desea diseñar una estructura con dos barras, teniendo en
cuenta tres objetivos: peso mínimo, la tensión máxima no debe
exceder cierto umbral y el desplazamiento en el pivote 3 no debe
superar un cierto valor

153

Optimización restringida
• Ejemplo de la “Estructura de dos barras” (continuación)
– La siguiente figura representa la situación planteada

154

Optimización restringida • Ejemplo de la “Estructura de dos barras” (continuación) – Los componentes del problema son: – Peso específico del material de las barras (γ) – Módulo de Young del material de la estructura (E) – Carga que actúa en el pivote fijo con un ángulo de 45˚ a la izquierda del eje Y (F) – Tensión máxima admisible (S0) – Desplazamiento máximo admisible en el pivote (D0) 155 .

Optimización restringida • Ejemplo de la “Estructura de dos barras” (continuación) – Y además – Altura de la estructura (h) – Desplazamiento del pivote 3 (D) – Tensión en el pivote 1 (S1) – Tensión en el pivote 2 (S2) – Peso total de la estructura (W) 156 .

Optimización restringida • Ejemplo de la “Estructura de dos barras” (continuación) – Las variables de decisión son – Distancia desde los pivotes fijos al eje Y (x) – Área de la sección de los brazos de la estructura (z) 157 .

z )    S0 2 2 xz F ( h  x ) x 2  h 2 S 2 ( x. z )  F   h x2 h x 2  3 2 4 4  1 2  D0 2 2 Eh 2 x2 z F ( x  h ) x 2  h 2 S 1 ( x. z  0 158 . Optimización restringida • Ejemplo de la “Estructura de dos barras” (continuación) – La función a minimizar es W ( x. z )    S0 2 2 xz x. z )  2 z x 2  h 2 – Las restricciones son D ( x.

Optimización restringida • Ejemplo de la “Matriz equilibrada” (Castillo. et ál.. E. 2001) – La información experimental requerida puede ser estructurada en las llamadas tablas de contingencia 159 .

Optimización restringida • Ejemplo de la “Matriz equilibrada” (continuación) – El contenido de las celdas puede variar con el tiempo – El problema planteado está relacionado con la actualización de las tablas suponiendo que se conocen las sumas en filas y columnas de tablas actualizadas 160 .

Optimización restringida • Ejemplo de la “Matriz equilibrada” (continuación) – Por ejemplo interesa conocer la gente que emigra y cómo las migraciones cambian con el tiempo – Cada emigración debe conocerse por su origen y destino – El objetivo consiste en estimar el número de personas que emigra desde cada par de ciudades 161 .

por lo que se tienen de información anual sobre las emigraciones netas de cada ciudad – Suponga que tiene una tabla de contingencias desactualizada de mxn y con entradas {tij} – Suponga que la tabla actualizada es T=(Tij). en donde Tij es el contenido de la celda i-j 162 . Optimización restringida • Ejemplo de la “Matriz equilibrada” (continuación) – Suponga datos del censo.

Optimización restringida • Ejemplo de la “Matriz equilibrada” (continuación) – Suponga que se conocen las sumas de las columnas y filas de la nueva matriz T. j  1. es decir se debe respetar lo siguiente n T j 1 ij  ri .. n – Los parámetros ri y cj son conocidos 163 .. m m T i 1 ij  c j ....... i  1.

... i  1.. n 164 . j  1. Optimización restringida • Ejemplo de la “Matriz equilibrada” (continuación) – Se requieren condiciones adicionales que reflejen que la celda representa contadores de elementos Tij  0.. m....

t ) 165 . Optimización restringida • Ejemplo de la “Matriz equilibrada” (continuación) – El objetivo es obtener una matriz con la misma estructura de la anterior verificando las restricciones en la suma de filas y columnas – La función objetivo es una distancia entre {tij} y {Tij} Z  F (T .

Optimización restringida • Ejemplo de la “Matriz equilibrada” (continuación) – Una posibilidad es usar la función ponderada de mínimos cuadrados Z   ij Tij  tij  m n 2 i 1 j 1 – Los pesos ωij son escalares positivos dados 166 .

Optimización restringida • Ejemplo de la “Matriz equilibrada” (continuación) – Otra alternativa es la función de entropía con signos cambiados m n Tij log Tij Z    Tij  tij i 1 j 1 tij 167 .

Optimización restringida • Ejemplo de la “Matriz equilibrada” (continuación) – En resumen se tienen entonces las restricciones y una función objetivo (de las dos alternativas) – Los datos del problema son – La suma de todos los elementos de la fila i (ri) – La suma de todos los elementos de la columna j (cj) – Contenido observado en la celda i-j (tij) – La variable es – Contenido estimado de la celda i-j (Tij) 168 .

. 2001) – Corresponde a un problema práctico que encaja en el tipo de problemas de la matriz equilibrada – La situación planteada contempla la predicción de la matriz de distribución T de viajes en una ciudad 169 . Optimización restringida • Ejemplo de la “Distribución de viajes” (Castillo. et ál. E.

Optimización restringida • Ejemplo de la “Distribución de viajes” (continuación) – Un área pequeña se ha dividido en cuatro zonas y producto de una encuesta origen/destino se tiene la siguiente matriz de viajes 170 .

i  1...... Optimización restringida • Ejemplo de la “Distribución de viajes” (continuación) – Las restricciones reflejan el conocimiento sobre la generación y atracción de los viajes en las zonas del área bajo estudio n T j 1 ij  ri ..m m T i 1 ij  c j .n 171 ... j  1.

Optimización restringida • Ejemplo de la “Distribución de viajes” (continuación) – Interesan las entradas de la matriz que puedan interpretarse como viajes – Los movimientos futuros estimados entre las zonas y las estimaciones sobre el número total de viajes en el futuro que acaban en cada zona son los siguientes 172 .

se obtiene la siguiente solución 173 . Optimización restringida • Ejemplo de la “Distribución de viajes” (continuación) – Las variables intrazonales se han eliminado – Utilizando la función objetivo de entropía.

.a....... xn   0 g1  x1 ......... xn   0 ... xn  s. g m  x1 .. hl  x1 .. Optimización restringida • Formulación del problema z  f  x1 . xn   0 ... xn   0 174 .... h1  x1 .

h X   0 gX   0 175 . Optimización restringida • Formulación del problema – Vector de variables de decisión (X) – Restricciones de igualdad (h) y desigualdad (g) min z  f  X  s.a.

Optimización restringida • Formulación del problema – Solución factible: Cualquier vector XЄRn que satisface las restricciones – Región factible: Es el conjunto de todas las soluciones factibles 176 .

Optimización restringida • Características de los problemas – Son más difíciles de resolver – Planteamiento de Pierre de Fermat en el libro Methodus ad disquirendam maximan et miniman (Siglo XVII): Solución a partir del estudio de la posición de las rectas tangentes 177 .

Optimización restringida • Características de los problemas – Es importante saber si existe al menos una solución al problema de optimización – Existen condiciones suficientes que lo garantizan. como por ejemplo la del Teorema de Weierstrass. el cual garantiza la existencia de soluciones cuando f es una función continua y el conjunto factible S es cerrado y acotado 178 .

. x2 .. xn   b1 h2  x1 .. xn  s.. Optimización restringida • Solución: Multiplicadores de Lagrange – Para problemas no lineales con restricciones de igualdad min z  f  x1 . xn   bm 179 ... hm  x1 ... h1  x1 .a. x2 .... xn   b2 . x2 ...... x2 ...

..... x2 . 1 ... 2 . m   f x1 ... x2 . xn    i bi  hx1 . xn  i 1 180 .... Optimización restringida • Solución: Multiplicadores de Lagrange – Para resolver se asocia un ki con la i-ésima restricción y se forma la FUNCIÓN DE LAGRANGE m Lx1 .. xn . x2 ....

.... m  – PARA TENER EN CUENTA: En muchas ocasiones el punto corresponde a la solución óptima 181 .. xn .. x n .... x2 . Optimización restringida • Solución: Multiplicadores de Lagrange  – Se trata de encontrar un punto x1 .... 1 .  2 ..  1 ... x 2 . 2 ..  m  – El punto maximiza o minimiza L x1 .

x2 . si el punto mencionado anteriormente maximiza a L. entonces L  bi  hx1 .. xn   0 i 182 . Optimización restringida • Solución: Multiplicadores de Lagrange – En un problema de maximización.... por ejemplo.

x'n  183 ... x'2 . se supone un punto cualquiera de la región factible x'1 .. Optimización restringida • Solución: Multiplicadores de Lagrange – Lo anterior demuestra que el punto solución va a satisfacer las restricciones – Para demostrar que el punto es solución..

......  1 .... x 2 ...  '1 .  m  L x'1 . x'n .  '2 ..  'm  184 ..  '2 .. x'2 .  'm  entonces se tiene que   L x1 ..  2 . Optimización restringida • Solución: Multiplicadores de Lagrange – Como L es maximizado por  x'1 ...... x'n .. x'2 ... x n ..  '1 .

. Optimización restringida • Solución: Multiplicadores de Lagrange – Como los valores de x son factibles. x'n  185 ..... x 2 . x n  f  x'1 .. x'2 . los términos en la función de Lagrange que están relacionados con λ son CERO y la ecuación se convierte en   f x1 ...

... la solución es x1 .  m  entonces... x n .  2 .  1 ... x 2 . Optimización restringida • Solución: Multiplicadores de Lagrange – CONCLUSIÓN: Si el problema de maximización irrestricta de L es   resuelto por x1 .. x 2 ..... x n  186 .

..  0 x1 x2 xn 1 2 m 187 ..     . Optimización restringida • Solución: Multiplicadores de Lagrange – CONCLUSIÓN: Para que resuelva el problema de maximización irrestricta de L es necesario que L L L L L L   ..

    ..  2 ....  0 x1 x2 xn 1 2 m 188 .....  1 . x n . x 2 .  m produce una solución – Para lo anterior es necesario que el punto satisfaga la ecuación L L L L L L   .. si f(X) es una función cóncava y cada h(X) es una función lineal... entonces para   cualquier punto x1 . Optimización restringida • Solución: Multiplicadores de Lagrange – TEOREMA A: Para el problema de maximización..

... Optimización restringida • Solución: Multiplicadores de Lagrange – INTERPRETACIÓN GEOMÉTRICA: Se sabe que para que exista la   solución x1 .. n x j 189 .. x n es necesario que L  0 j  1... x 2 ..

tal que la solución m f   i hi i 1 190 . Optimización restringida • Solución: Multiplicadores de Lagrange – INTERPRETACIÓN GEOMÉTRICA: Lo anterior significa que existen números “Lambda”.

Optimización restringida • Solución: Multiplicadores de Lagrange – INTERPRETACIÓN GEOMÉTRICA: El j-ésimo componente del lado izquierdo es f x j m hi El j-ésimo componente del lado derecho es  i 1 i x j 191 .

…. Optimización restringida • Solución: Multiplicadores de Lagrange – INTERPRETACIÓN GEOMÉTRICA: Lo anterior implica que para j=1.n se tiene f m h   i i  0 x j i 1 x j Lo cual se resume como L 0 x j 192 .

y en radio de $1. El costo de anunciarse en TV es de $3. entonces el ingreso se ha estimado en f ( x.000 dólares en publicidad. z )  2 x 2  z 2  xz  8 x  3z ¿Cómo puede la empresa maximizar su beneficio? 193 . 2008) Una compañía planea gastar $10.000 dólares el minuto. Optimización restringida • Solución: Multiplicadores de Lagrange – EJEMPLO: (Tomado de Winston.000 dólares el minuto. Si la empresa compra x minutos de TV y z minutos en radio.

3x  z  10 194 . Optimización restringida • Solución: Multiplicadores de Lagrange – EJEMPLO: (continuación) El problema queda formulado así Max f ( x.a. z )  2 x 2  z 2  xz  8 x  3z s.

z .  )  2 x 2  z 2  xz  8 x  3z   (10  3x  z ) L L L Se establece   0 x z  195 . Optimización restringida • Solución: Multiplicadores de Lagrange – EJEMPLO: (continuación) La función de Lagrange es L( x.

Optimización restringida • Solución: Multiplicadores de Lagrange – EJEMPLO: (continuación) De acuerdo a lo anterior se resuelve L  4 x  z  8  3  0  z  4 x  8  3 x L  2 z  x  3    0  x  2 z  3   z L  10  3 x  z  0  196 .

Optimización restringida • Solución: Multiplicadores de Lagrange – EJEMPLO: (continuación) reemplazando la segunda en la primera z  4 x  8  3  4(2 z  3   )  8  3 z  8 z  12  4  8  3 20 7 z  7  20  z    7 197 .

Optimización restringida • Solución: Multiplicadores de Lagrange – EJEMPLO: (continuación) Reemplazando el valor de z se encuentra x x  2 z  3    2   207   3   x  2  407  3      197 198 .

Optimización restringida • Solución: Multiplicadores de Lagrange – EJEMPLO: (continuación) Reemplazando los valores de x. z en la tercera se tiene L  10  3 x  z  0  10  3197      207     0 10  577  3  207    0 10  11  4  0    1 4 199 .

z )     1  2 200 . Optimización restringida • Solución: Multiplicadores de Lagrange – EJEMPLO: (continuación) La hessiana es  4 1  H ( x.

z )  (4)(2)  (1)(1)  7  0 201 . Optimización restringida • Solución: Multiplicadores de Lagrange – EJEMPLO: (continuación) Es cóncava porque cada menor de primer orden es negativo y H 2 ( x.

Optimización restringida • Solución: Multiplicadores de Lagrange – EJEMPLO: (continuación) 202 .

Optimización restringida • Solución: Multiplicadores de Lagrange – EJEMPLO: (continuación) 203 .