P. 1
Tema3 Optimizacion Nolineal ParteI

Tema3 Optimizacion Nolineal ParteI

|Views: 1|Likes:
Published by Demetrio Hinojosa E

More info:

Published by: Demetrio Hinojosa E on Apr 24, 2013
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

04/24/2013

pdf

text

original

´ n No Lineal I El Problema de la Programacio

El problema m´ as general de programaci´ on no lineal (PPNL), puede plantearse como: Minimizar Z = f (x1, . . . , xn) sujeta a h1(x1, . . . , xn) = 0 . . . . . . h (x1, . . . , xn) = 0 g1(x1, . . . , xn) ≤ 0 . . . . . . gm(x1, . . . , xn) ≤ 0 En forma compacta el modelo anterior puede escribirse: Minimizar Z = f (x) sujeta a h(x) = 0 g(x) ≤ 0 donde x = (x1, . . . , xn)T es el vector de las variables de deon objetivo, y g : IR n → IR m cisi´ on, f : IR n → IR es la funci´ y h : IR n → IR , donde g(x) = (g1(x), . . . , gm(x))T y h(x) = (h1(x), . . . , h (x))T , son las restricciones de desigualdad y de igualdad, respectivamente.
227

´ n No Lineal II El Problema de la Programacio

La figura (a) muestra que el m´ ınimo del problema se alcanza en el conjunto de puntos en los que la tangente es horizontal.
f(x) |x-1| + 1 1

x* (a)

X

x* = 1 (b)

Sin embargo, si se busca el m´ ınimo de la funci´ on:: f (x) = (x + 2)2/3 − (x − 2)2/3 en IR, se encuentra uno con dificultades, pues no tiene puntos con derivada nula. Sin embargo, el hecho de que f tienda a cero cuando x tiende a ±∞ y que tome valores negativos, indica que f debe alcanzar su m´ ınimo en alg´ un lugar. Un an´ alisis m´ as profundo de f revela que el m´ ınimo se alcanza en x = −2, pero f no es diferenciable en este punto. Este simple ejemplo muestra que se debe tener especial cuidado cuando las funciones que intervienen no son diferenciables.
2 1

-4

-2 -1 -2

2

4

228

´ n No Lineal III El Problema de la Programacio

Hay adem´ as otro problema igualmente relevante, referente a los problemas nolineales diferenciables. Para ilustrarlo, se considera la funci´ on objetivo siguiente (ver figura) f (x) = (1/10)x2 + 10(sin x − x cos x).
400 300 200 100 -30 -20 -10 -100 -200 10 20 30

Esta funci´ on es diferenciable en todo IR, pero tiene un conjunto infinito de puntos con tangente horizontal (puntos en los que f (x) = 0). Estos puntos reciben el nombre de puntos estacionarios y todos ellos, salvo uno, son o ´ptimos locales. Puesto que si se restringe la atenci´ on a un peque˜ no entorno de ellos, se convierten en m´ aximos o m´ ınimos locales. La ecuaci´ on f (x) = 0 no puede ser resuelta en forma cerrada, por lo que se deben utilizar m´ etodos num´ ericos. La existencia de un conjunto infinito de puntos candidatos y la ausencia de un m´ etodo para generarlos expl´ ıcitamente, conducen a la imposibilidad de conocer, con total certidumbre, si un determinado candidato es el o ´ptimo global.
229

´ n No Lineal IV El Problema de la Programacio

Estamos interesados en la clase de funciones tales que sus m´ ınimos locales sean tambi´ en globales. En la figura se da una funci´ on que no cumple esta condici´ on. an por encima del Hay puntos en el intervalo [¯ x, x∗] que est´ segmento que une los m´ ınimos. La convexidad es aqu´ ı suficiente para evitar este comportamiento. Para ser convexa se exige que el grafo est´ e por debajo del intervalo que une los extremos.
f(x)

x

x*

X

Un PPNL puede no tener soluci´ on por: 1. La funci´ on no es acotada en S . Por ejemplo, f (x) = x, donde x ∈ IR decrece sin l´ ımite hasta −∞ cuando x tiende a −∞. En este caso se escribe ´ Infimo
x∈S

f (x) = −∞

2. La funci´ on es acotada en S pero no se alcanza la cota on inferior: ´ Infimox∈S f (x) en S . Por ejemplo, la funci´ a acotada en S = IR y la cota inferior es f (x) = e−x est´ 0 pero es inalcanzable por f (x).
230

Si acotado) de IR n y f : S → IR una funci´ x→∞. admite al menos una soluci´ on ´ optima. Estos resultados pueden hacerse m´ as expl´ ıcitos cuando la funci´ on f es convexa. Corolario 1 (Existencia de soluciones o ´ptimas) Sea S un conjunto cerrado y no vac´ ıo (posiblemente no on continua.´ n No Lineal V El Problema de la Programacio Teorema 1 (Existencia de soluciones o ´ptimas) Sea S un conjunto cerrado. admite al menos una soluci´ on ´ optima.x∈S lim f (x) = +∞ entonces el problema Minimizar Z = f (x ) sujeta a x ∈ S. El problema Minimizar Z = f (x ) sujeta a x ∈ S. acotado y no vac´ ıo de IR n y f : S → IR una funci´ on continua. 231 .

sii existe un n´ umero positivo ε tal que f (¯ x) ≤ f (x) (respectivamente. 0< x De ello se concluye que un m´ ınimo global es tambi´ en un m´ ınimo local. x2} es En la figura. S es el segmento [a. de S . sii f (x∗) ≤ f (x) (f (x∗) < f (x)) para todo x en S .´ n No Lineal VI El Problema de la Programacio Definici´ on 1 (M´ ınimo global) Una funci´ on f (x) tiene un m´ ınimo global (m´ ınimo global estricto) en el punto x∗. ¯ = {a. Definici´ on 2 (M´ ınimo local) Una funci´ on f (x) tiene ¯. x1. b]. S el conjunto de los m´ ınimos locales. un m´ ınimo local (m´ ınimo local estricto) en el punto x de S . f (¯ x) < f (x)) para todo x en S tal que ¯ − x < ε. x2} es el conjunto de los m´ ınimos globales. En una dimensi´ on es f´ acil ilustrar los conceptos anteriores. y S ∗ = {a. Objective function f(x) f(x) f(x1) f(x2) = f(a) a x1 feasible region S 232 x2 b X Decision variable .

Se considera el siguente PPNL: Minimizar Z = f (x) sujeta a h(x) = 0 g(x) ≤ 0 (2) (1) donde f : IR n → IR. . i = 1.. En todas las derivadas parciales son continuas en x este caso... n. h : IR n → IR con g(x) = (g1(x). . ..´ n No Lineal VII El Problema de la Programacio Definici´ on 3 (Diferenciabilidad) Se dice que f : IR n → IR es diferenciable en x si existen las ∂f . . gm(x))T y h(x) = (h1(x). es el gradiente de f  ∂x1 ∂xn T Definici´ on 4 (Diferenciabilidad continua) Una ¯ si funci´ on f se dice continuamente diferenciable en x ¯ . . 233 . . lim y→x y−x  donde ∇f (x) = en x    ∂f (x)  ∂f (x)  ... g : IR n → IR m. h (x))T son funciones continuamente diferenciables en la regi´ on factible S = {x|h(x) = 0. . . .. g(x) ≤ 0}. y derivadas parciales ∂xi f (y) − f (x) − ∇f (x)T (y − x) = 0. . tambi´ en es diferenciable.

sea ´ este local o global. Mientras que en los problemas diferenciables sin restricciones el gradiente se anula en los m´ ınimos locales. ya sea lineal o no lineal. Kuhn and Tucker constituyen el resultado m´ as importante de programaci´ on no lineal. ´ esto no ocurre para problemas con restricciones. Deben ser satisfechas por cualquier ´ optimo restringido. Las condiciones de Karush-Khun-Tucker conditions generalizan las condiciones necesarias de o ´ptimo para los problemas con restricciones. f(x) Optimal solution f'(a) < 0 a f'(b) = 0 f'(c) = 0 S b 234 c d X . Adem´ as. Esto figura en el punto x se debe a las restricciones del problema.´ n No Lineal VIII El Problema de la Programacio Condiciones de Karush. los criterios de parada de los m´ etodos iterativos se basan en estas condiciones. y para cualquier funci´ on objetivo. tal como ilustra la ´ ¯ = a. Kuhn y Tucker Las condiciones de Karush.

. La condici´ on (6) es la condici´ on complementaria de holgura. µ. . µ. . µ. Con el Lagrangiano L(x. . m Los vectores µ y λ son los multiplicadores de KhunTucker. λ) = f (x) + λT h(x) + µT g(x) las condiciones KKT se escriben como x. k = 1. λ) = 0 ∇xL(¯ ∇λL(¯ x. µ. hk (¯ µj gj (¯ x) = 0. m gj (¯ x) = 0. λ) = 0 ∇µL(¯ x. Las (7) son las condiciones duales de factibilidad y requieren la no-negatividad de los multiplicadores de las restricciones de desigualdad. . . . j = 1. . . .´ n No Lineal IX El Problema de la Programacio Condiciones de Karush. . . . j = 1. . m µj ≥ 0. Las condiciones (4)-(5) se llaman condiciones primales de factibilidad. . j = 1. µ. . Kuhn y Tucker Definici´ on 5 (Condiciones Karush-Khun-Tucker) ¯ ∈ IR n satisface las condiciones de KarushEl vector x Khun-Tucker para el PPNL (1)-(2) si existe un par de vectores µ ∈ IR m y λ ∈ IR tales que ∇f (¯ x) + k =1 λk ∇hk (¯ x) + m j =1 µj ∇gj (¯ x) = 0 (3) (4) (5) (6) (7) x) ≤ 0. λ) ≤ 0 µT ∇µL(¯ x. λ) = 0 µ≥0 235 .

Kuhn y Tucker Ilustraci´ on de las condiciones de Karush-Khun-Tucker para el caso de una igualdad: Contours of f Decreasing f h h h h h h =0 f f f f f Ilustraci´ on de las condiciones de Karush-Khun-Tucker para el caso de una desigualdad: Contours of f g2 g1 f=1 f=2 f=3 Decreasing f Decreasing g1 g1 > 0 g1 < 0 Decreasing g2 g1 < 0 g2 = 0 g2 = -1 x* Contours of g2 g2 = -2 Feasible Contours of g2 region g1 = 0 g = -1 f g1 = -2 1 Contours of g1 236 .´ n No Lineal X El Problema de la Programacio Condiciones de Karush.

Las condiciones de KKTC resultan ∇f (¯ x) + m j =1 µj ∇gj (¯ x) = 0 x) ≤ 0. Kuhn y Tucker Casos Especiales Si falta una restricci´ on en un PPNL. . m gj (¯ x) = 0. . j = 1.) En este caso s´ olo se tiene la condici´ on: ∇f (¯ x) = 0. . el multiplicador asociado a la restricci´ on “ausente” es nulo. y la restricci´ on se elimina de la formulaci´ on de las condiciones de KKT. (Problemas sin restricciones. k = 1. Las condiciones de KKT son una extensi´ on del principio cl´ asico del m´ etodo de los multiplicadores de Lagrange. 2. . . resultando: ∇f (¯ x) + k =1 λk ∇hk (¯ x) = 0 x) = 0. .´ n No Lineal XI El Problema de la Programacio Condiciones de Karush. . En estos casos resulta: 1. (Problemas con restricciones de igualdad solamente). . . . . . (Problemas con restricciones de desigualdad solamente). hk (¯ (8) 3. Este m´ etodo s´ olo surge con problemas que s´ olo tienen restricciones de igualdad. j = 1. . j = 1. . m 237 (9) . . m µj g (¯ µj ≥ 0. .

Las condiciones primales de factibilidad: 2 + x x2 1 2−4≤0 −x1 ≤ 0 −x2 ≤ 0 −x2 1 + x2 = 0 (11) 3. µ2 and µ3 los multiplicadores asociados a la igualdad y las desigualdades.´ n No Lineal XII El Problema de la Programacio Condiciones de Karush. Las condiciones de KKT resultan: 1. La condici´ on de estacionariedad del lagrangiano es  0  −1   2x1   −1    −2x1   + µ1   + µ2   + µ3  +λ 1 0 −1 2x2 1            0   =   0 (10)   2. Las condiciones complementarias de holgura son: 2 µ 1 (x 2 1 + x2 − 4) = 0 µ2(−x1) = 0 µ3(−x2) = 0 238 (12) (13) (14) . Kuhn y Tucker Ejemplo 1 Minimizar Z = −x1 + x2 sujeta a −x2 1 + x2 = 0 2 x2 1 + x2 − 4 ≤ 0 −x1 ≤ 0 −x2 ≤ 0 Sean λ y µ1. respectivamente.

µ3 ≥ 0 (15) Caso I: µ2 = 0. Caso III: µ1 = 0.´ n No Lineal XIII El Problema de la Programacio Condiciones de Karush. µ2. Kuhn y Tucker Ejemplo 1 4. x1 = 0. Si µ1 = 0 entonces 2 on usando (12) resulta x2 1 + x2 − 4 = 0. y (10) implica −1 − µ2 = 0 1 + 2x2µ1 − µ3 + λ = 0. −x2 1 + x2 = 0. 239 . y µ2 = 0. por lo que todo punto KKT debe satisfacer µ3 = 0. Si µ2 = 0 entonces usando (13). resulta el sistema de ecuaciones 2 + x x2 1 2 − 4 = 0. Puesto que µ2 = −1 y no se cumple la condici´ entonces los puntos KKT deben satisfacer µ2 = 0. y con la condici´ de factibilidad. Caso II: µ3 = 0. on (15). y µ2 = µ3 = 0. y la relaci´ 1 + x2 = 0 de (11) se obtiene x1 = 0. y con (10) resulta −1 = 0. Si µ3 = 0 entonces usando on −x2 (14). x2 = 0. Las condiciones duales de factibilidad son: µ1.

µ1 = 2δ (1 + 2δ ) √ 2δ − δ −1 √ . resulta ( δ. Kuhn y Tucker Ejemplo 1 La u ´nica condici´ on que satisface el sistema (11) es x ¯ = √ √ −1 + 17 y. + λ = 2 δ 2δ (1 + 2δ ) que es un punto KKT. Case IV: El u ´ltimo caso es µ1 = µ2 = µ3 = 0. cuya soluci´ on es 2δ − δ > 0. 1 + λ = 0. √ 240 . Usando (10). con (10). donde δ = 2 √ √ −1 + 2 δµ1 − 2 δλ = 0. y puesto que se trata de un punto factible.´ n No Lineal XIV El Problema de la Programacio Condiciones de Karush. se obtiene x2 = x2 1 = 1/4. es tambi´ en un punto KKT. 1 + 2δµ1 + λ = 0. De (11). δ ). resulta el sistema de ecuaciones −1 − 2λx1 = 0. y se obtiene la soluci´ on λ = −1 y x1 = 1/2.

. Kuhn y Tucker Seguidamente se justifica por qu´ e las CKKTC son necesarias para la mayor´ ıa de los PPNL. La restricci´ on de desigualdad gj (x) ≤ 0 ¯ si se dice que es una restricci´ on activa en el punto x x) = 0. Lema 1 las CKKT son necesarias para un o ´ptimo local de “la mayor´ ıa” de PPNL. gj (¯ El conjunto de los ´ ındices de las restricciones activas de denota por I (¯ x). es decir.´ n No Lineal XV El Problema de la Programacio Condiciones de Karush. ¯ ∈ IR n. se dice inactiva si gj (¯ x) < 0. mientras que para una restricci´ on activa esto puede no ser. x) = 0}. I (¯ x) = {j |gj (¯ La raz´ on para distinguir entre restricciones activas e inactivas es que una restricci´ on inactiva en un punto permite encontrar un entorno de ese punto en el que permanece inactiva. cierto. y Definici´ on 6 (Restricci´ on activa) Sea x j ∈ {1. por el contrario. . Para ello es necesaria la definici´ on siguiente. . y de hecho no ser´ a. 241 . . m}.

respectivamente (µ ≥ 0 si m´ ınimo. y la funci´ on continua. 242 . Kuhn y Tucker Ejemplo 2 3 3 Maximizar y minimizar Z = x3 1 + x2 + x3 sujetos a 2 2 x2 1 + x2 + x3 − 4 = 0 x1 + x2 + x3 ≤ 1. con µ y λ los multiplicadores de la desigualdad e igualdad. Caso I: µ = 0.´ n No Lineal XVI El Problema de la Programacio Condiciones de Karush. puesto que el conjunto factible es cerrado y acotado. El sistema se simplifica a 3x2 1 + λ2x1 3x2 2 + λ2x2 3x2 3 + λ2x3 2 2 x2 1 + x2 + x3 − 4 x1 + x2 + x3 = = = = ≤ 0 0 0 0 1. y µ ≤ 0 si m´ aximo). Las CKKT son: 3x2 1 + µ + λ2x1 3x2 2 + µ + λ2x2 3x2 3 + µ + λ2x3 2 2 x2 1 + x2 + x3 − 4 µ(x1 + x2 + x3 − 1) x 1 + x2 + x3 = = = = = ≤ 0 0 0 0 0 1. Ambos existen.

Caso I. 0. 0).a: x1 = x2 = x3 = 0. x3 = 0. Las ecuaciones en λ implia la soluci´ can x 2 = x 3 y sus restricciones conducen √ √ √ on √ − 2) y sus permutaciones (− 2. − 2). x3 = 0. −2. √ − 2. Imposible por la restricci´ 2 2 + x + x x2 1 2 3 − 4 = 0. Caso I. Kuhn y Tucker Ejemplo 2 Por simetr´ ıa respecto a permutaciones basta considerar: on Caso I. 0). pues µ es nulo. x3 = 0.c: x1 = 0. (0.´ n No Lineal XVII El Problema de la Programacio Condiciones de Karush. x2.d: x1. En principio todos los puntos pueden conducir a m´ aximos o m´ ınimos. −2). Las ecuaciones en λ conducen a ´nico candidato x1 = x2 = x3. Caso II: µ = 0. x2. 0. Caso I. − 2. 0) y (−2.b: x1 = x2 = 0. −2/ 3. En este caso el sistema es: 3x2 1 + µ + λ2x1 3x2 2 + µ + λ2x2 3x2 3 + µ + λ2x3 2 2 + x + x x2 1 2 3−4 x1 + x2 + x3 243 = = = = = 0 0 0 0 1. −2/ 3). 0. √ (− 2. (0. . y las restricciones. al u √ √ √ (−2/ 3. Las dos restricciones y sus permutaciones conducen a las soluciones (0.

Sustituyendo esta condici´ dos ecuaciones se llega a x3 + 2x1 = 1. Este determinante es un Vandermondiano. 2 + 2 22). cuyo valor. 3x2 . eliminando los multiplicadores de esta forma se resuelve el sistema equivalente (x1 − x2)(x1 − x3)(x2 − x3) = 0 2 2 + x + x x2 1 2 3−4 = 0 x1 + x2 + x3 = 1. 2 − 2 22) 6 y √ √ √ 1 (2 − 22. 6 244 . 2x2. 2 − 22.´ n No Lineal XVIII El Problema de la Programacio Condiciones de Karush. 1. por la simetr´ ıa. De nuevo. 2 + 22. Kuhn y Tucker Ejemplo 2 Las soluciones con µ > 0 ser´ an candidatas al m´ ınimo y las que verifican µ < 0 lo ser´ an al m´ aximo. Por tanto. por lo que el determinante asociado debe anularse. es suficiente considerar el caso on en las otras particular x1 = x2. 2 2x2 1 + (1 − 2x1 ) = 4. (1. salvo el signo. 3x3 ). 1) y (2x1. Por lo que se obtienen las dos soluciones √ √ √ 1 (2 + 22. 2x3) son linealmente dependientes. Las tres primeras 2 2 ecuaciones expresan que los vectores (3x2 1 . es (x1 − x2)(x1 − x3)(x2 − x3).

−2. 3x1(4 − x1) . (0. que da la relaci´ on entre los dos multiplicadores. 0. Resolviendo en µ y llevando el resultado a la primera ecuaci´ on se obtiene 3x2 1 + µ − x1 (12 + 3µ) = 0. (0. 0). el m´ ınimo se alcanza en (−2. En este ejemplo. −2) √ y su valor es aximo se al√ −8. con un 68 − 11 22 . 0. Kuhn y Tucker Ejemplo 2 Por otra parte. 0). 2 − 2 22). valor de 18 y por ello 245 . se llega a 12 + 3µ + 2λ = 0. es f´ acil comprobar que en ambos casos µ < 0 por lo que estos dos puntos para el Caso II son candidatos al m´ aximo. 2 + 22. µ= Una vez identificados los candidatos al m´ aximo y m´ ınimo. y el m´ √ canza en (1/6)(2√ + 22. basta calcular los valores de la funci´ on objetivo para cada uno de ellos y decidir los valores extremos. si se a˜ naden las primeras tres ecuaciones y se consideran las restricciones. 1 − 3x1 √ Usando el valor obtenido (x1 = (2 − 22)/6).´ n No Lineal XIX El Problema de la Programacio Condiciones de Karush.

´ n No Lineal El Problema de la Programacio Condiciones suficientes I Puesto que la diferenciabilidad de una funci´ on es un concepto local (s´ olo implica un entorno del punto en estudio). Similarmente. (16) Si se cumple la desigualdad estricta en (16). Todo m´ es tambi´ en un m´ ınimo global de f en S . 246 . si f es estr´ ıctamente convexa hay a lo sumo un u ´nico m´ ınimo global. se tiene f tx1 + (1 − t)x2 ≤ tf (x1) + (1 − t)f (x2). Para ello. Definici´ on 7 (Funci´ on convexa) Sea f : S → IR . para las que los o ´ptimos locales y globales coinciden. ´ Teorema 2 (Optimo global y local) Consid´ erese la funci´ on convexa f : S → IR . se introduce el concepto de funciones convexas. si (−f ) es convexa. La funci´ on f se dice que es convexa en S si para cada par de puntos x1 y x2 y cualquier escalar t tal que 0 ≤ t ≤ 1. donde S es un conjunto convexo no vac´ ıo de IR n. Adem´ as. es necesario introducir otros conceptos que dependan del comportamiento de la funci´ on en todo su dominio de definici´ on. una funci´ on f es concava si (16) se cumple con la desigualdad al rev´ es. donde S es un conjunto ınimo local de f en S convexo no vac´ ıo de IR n. es decir. f se dice que es estr´ ıctamente convexa.

f(x) Convex function f(x2) λ f(x1) + (1. y la u ´ltima. otra c´ oncava. una convexa.λ) f(x2) f(x2) x1 f(x) Neither concave nor convex function λx1+(1-λ)x2 x2 X f(x1) f(x2) x1 x2 X Antes de proceder a entender mejor la convexidad debemos convencernos de que se trata de una propiedad que garantiza la no existencia de m´ ınimos locales que no son globales (es lo que afirma el Teorema 2). 247 . ni convexa ni c´ oncava.´ n No Lineal I El Problema de la Programacio La figura muestra tres ejemplos de funciones.λ) f(x2) f(x1) f(λx1+(1-λ)x2) x1 f(x) λx1+(1-λ)x2 x2 X Concave function f(λx1+(1-λ)x2) f(x1) λ f(x1) + (1.

Por tanto. f (x2)]. la convexidad puede entenderse en funci´ on de la derivada de la funci´ on. mientras que f (tx1 +(1 − t)x2) da el valor de f en el punto tx1 +(1 − on convexa f . Cuando una funci´ on de una variable es diferenciable. para una funci´ en el punto tx1 + (1 − t)x2 es menor o igual que la altura de la cuerda que une los dos puntos [x1. N´ t)f (x2) da la media ponderada de f (x1) y f (x2). como se ve seguidamente.´ n No Lineal I El Problema de la Programacio Veamos la interpretaci´ on geom´ etrica de la convexidad. Entonces f es convexa en S sii f (x1) − f (x2) ≥ ∇f (x1)T (x2 − x1). x2 ∈ S con x1 = x2. f es extr´ ıctamente convexa en S sii f (x1)−f (x2) > ∇f (x1)T (x2−x1). Teorema 3 (Convexidad y diferenciabilidad) Sea S ⊂ IR n un conjunto convexo y f : IR n → IR diferenciable en S . f (x1)] y [x2. Cuando la funci´ on es dos veces diferenciable. Para una funci´ on c´ oncava. Para funciones de varias variables. Esencialmente requiere que su derivada sea creciente. el valor de f t)x2. 1). tambi´ en se tienen estos dos criterios. y consid´ otese que tf (x1)+(1 − tx1 +(1 − t)x2 ∈ S para t ∈ (0. (17) Adem´ as. ∀x1. 248 . la cuerda est´ a por debajo de la funci´ on misma. Sea erese el punto x1 y x2 dos puntos diferentes de S . x2 ∈ S. las funciones convexas pueden identificarse comprobando si su derivada segunda es positiva o no negativa. ∀x1.

si las derivadas parciales son continuas. es necesario recordar los conceptos de funci´ on dos veces diferenciable y matriz semidefinida positiva. entonces f se dice dos veces continuamente diferenciable y. 2 y→x y−x La matriz ∇2f (x) se llama la matriz hesiana de f en el punto x. Definici´ on 8 (Funci´ on dos veces diferenciable) n Se dice que f : IR → IR es dos veces diferenciable en el punto x si existe un vector columna ∇f (x). si la igualdad olo cuando x = 0. tal que 1 f (y) − f (x) − ∇f (x)T (y − x) − (y − x)T ∇2f (x)(y − x) 2 lim = 0. 249 . entonces xT Ax = 0 se cumple s´ A se llama definida positiva. Definici´ on 9 (Matrix semidefinida positiva) Una matriz sim´ etrica A es semidefinida positiva si xT Ax ≥ 0 para cualquier vector x. Por otra parte. y una matriz n × n ∇2f (x). El elemento ij − de ∇2f (x) es la segunda derivada parcial ∂ 2f (x)/∂xi∂xj . entonces ∇2f (x) es una matriz sim´ etrica. A es definida positiva si todos sus autovalores son positivos. Adem´ as. La matriz A es semidefinida positiva si todos sus autovalores son no negativos. si los valores de λ que satisfacen det(A − λI) = 0 son no negativos.Matrices definidas positivas Para tratar con el criterio de la derivada segunda. es decir.

Puesto x) = 0 para todo x hesiana es ∇2f (˜ que esta funci´ on satisface el Teorema 4. ∀y ∈ IR n. es dematriz semidefinida positiva para todo x cir. es decir. Si la matriz C es semidefinida positiva. Funciones afines: Sea f (x) = bT x + a. Formas cuadr´ aticas: Sea f (x) = x Cx + bT x + a 2 una forma cuadr´ atica. N´ otese que f es tambi´ en c´ oncava puesto que x) es igual a cero. entonces f es una funci´ on convexa. ∇2(−f )(˜ 1 T 2. f es una funci´ on estr´ ıctamente convexa en S sii x) es una matriz definida positiva para todo ∇2f (˜ ˜ ∈ S . x∈ IR n. ∀y ∈ IR n. donde a ∈ IR on afin.Funciones convexas I Teorema 4 (Funciones convexas) Sea S ⊂ IR n un conjunto abierto y convexo y sea f : IR n → IR dos veces diferenciable en S . la matriz y b. es una funci´ ˜ ∈ IR n. yT ∇2f (˜ Algunas funciones convexas relevantes son: 1. yT ∇2f (˜ 2. x)y ≥ 0. x x)y > 0. f es una funci´ on convexa en S sii ∇2f (˜ ˜ ∈ S . es una funci´ on convexa. 250 . Entonces. ya que la matriz hesiana de f es ∇2f (x) = C para todo x. Entonces. se cumple: x) es una 1.

. y h es una funci´ on convexa no decreciente de una variable. Composici´ on segunda. y erese sean λi i = 1.Funciones convexas II Cuando se trata con funciones convexas. . la composici´ on f = h(g ) tambi´ en es convexa. a veces se combinan varias de ellas de alguna forma. 3. . Composici´ on primera. . la composici´ on g = h(T) tambi´ en es convexa. resulta que h es una funci´ on convexa. Si h es convexa y T es una transformaci´ on lineal (o afin). Consid´ la funci´ on h(x) = k i=1 λi fi (x). Puesto que la suma de matrices semidefinidas positivas es tambi´ en semidefinida positiva. k escalares positivos. El supremo de una familia de funciones convexas es tambi´ en una funci´ on convexa. Si g es convexa. . i = 1. Es importante conocer qu´ e tipo de operaciones conservan la convexidad y cu´ ales no lo hacen. 4. . 251 . Algunas de las operaciones que conservan la convexidad son: 1. . 2. Combinaciones lineales no negativas de funciones convexas. Sean fi(x). . k funciones convexas. Supremo.

donde f es convexa y diferenciable y S es un conjunto ´ptimo global sii convexo. Por ejemplo. Lema 2 (Problema de programaci´ on convexa) Consid´ erese el problema de programaci´ on convexa (PPC) Minimizar Z = f (x) sujeta a x ∈ S. no hay forma de garantizar que lo sea global.Suficiencia de las condiciones de Karush-Khun-Tucker I Las CKKT no son suficientes para un m´ ınimo local. Entonces x∗ ∈ S es un o ∇f (x∗)T (x − x∗) ≥ 0. El lema que sigue da una condici´ on necesaria y suficiente de optimo global para una clase importante de PPNL con una ´ restricci´ on definida impl´ ıcitamente. el problema Minimizar Z = x3 sujeta a x ∈ IR . 252 . tiene un punto KKT en x = 0. Incluso si se sabe que un punto es m´ ınimo local. ∀x ∈ S. pero no es un m´ ınimo local.

253 . ¯ ) que satisface ¯. Sea K + = {k |λ x) y hk (x) Sup´ ongase que f (x). gi(x) para todo i ∈ I (¯ para todo k ∈ K + son funciones convexas en IR n. hk (x) para todo k ∈ K − son funciones c´ ¯ es una soluci´ Entonces x on global del PPNL. µ ¯ k > 0} y K − = {k |λ ¯ k < 0}. Teorema 5 (Suficiencia de las condiciones de Karush-Khun-Tucker) Consid´ erese el PPNL Minimizar Z = f (x) sujeta a h(x) = 0 g(x) ≤ 0.Suficiencia de las condiciones de Karush-Khun-Tucker II El teorema que sigue da condiciones suficientes para asegurar que los puntos KKT sean tambi´ en m´ ınimos globales. λ Sup´ ongase que existe una tripleta (¯ x. las CKKT. y que oncavas en IR n.

x ∈ IR n sii ∇f (x∗) = 0. donde las funciones f y g son convexas y continuamente diferenciables. Un caso particular importante es el problema de programaci´ on lineal.Suficiencia de las condiciones de Karush-Khun-Tucker III Ejemplo 1 (Caso especial: Sin restricciones) Para todos los problemas sin restricciones las CKKT son necesarias. La clase m´ as importante de PPNL para los que las CKKT son siempre necesarias y suficientes es la de los llamados programas convexos (PC). Entonces x∗ es una soluci´ optima del problema ´ Minimizar Z = f (x). es decir: Minimizar Z = f (x) sujeta a h(x) = 0 g(x) ≤ 0. Sea f : IR n → IR convexa en IR n y on global diferenciable en x∗. que consisten en minimizar una funci´ on objetivo convexa con un conjunto de restricciones tales que las desigualdades son funciones convexas y las igualdades funciones afines. 254 . por lo que los resultados anteriores son totalmente aplicables a este problema. y h es una funci´ on afin.

Ajuste por m´ ınimos cuadrados I En muchos casos tiene uno que enfrentarse al problema Minimizar f (α. y las CKKT resultan: ∂f (α. se trata de un problema sin restricciones. Puesto que α y β no est´ an restringidos. respectivamente. ∂α ∂f (α. β ) = i (αr(xi) + β − s(yi))r(xi) = 0. β ) = i (αr(xi) + β − s(yi)) = 0. r(xi)α + nβ = La soluci´ on de este sistema es: n i r (x i )s (y i ) − i r (x i ) i s (y i ) α = (n i r(xi)2 − ( i r(xi))2) β = i r (x i ) − i r (x i ) i r (x i )s (y i ) . donde r(x) y s(y ) son funciones de dos variables x e y . ∂α que tras una reordenaci´ on de t´ erminos se transforma en: i r (x i ) 2 α + i i r (x i )β = i i r (x i )s (y i ) s (y i ). 2 2 (n i r(xi) − ( i r(xi)) ) 2 i s (y i ) 255 . β ) = i (αr(xi) + β − s(yi))2 .

Se probar´ a´ esto usando el Teorema 4. β > 0 son constantes. Este es un PPC.El problema de Cobb-Douglas I Teniendo en cuenta que maximizar una funci´ on es lo mismo que minimizar la misma funci´ on cambiada de signo. el problema consiste en β x Minimizar Z = −xα 1 2 sujeta a x1 +ax2 = C ≤ 0 −x1 (18) −x2 ≤ 0 donde α > 0. y la matriz hesiana:  ∇ f ( x 1 . Adem´ as hay una restricci´ on de dinero disponible C . respectivamente. x2 son los niveles de inversi´ β x on de Cobb Douglas. tales que α+β ≤ 1. 256 . y a es el coste por unidad de trabajo. que da el y f ( x 1 . x1 y on y de trabajo. El vector gradiente es   ∇ f ( x 1 . x2 ) =    −1 β −αxα 1 x2 β −1 −βxα x 1 2      . x2 ) = x α 1 2 es la funci´ nivel de producci´ on como funci´ on de ambas variables. pues las restricciones son lineales y la funci´ on objetivo es convexa. x2 ) = 2     −2 β −α(α − 1)xα 1 x2 −1 β −1 −αβxα 1 x2 −1 β −1 −αβxα 1 x2 β −2 −β (β − 1)xα x 1 2      .

det(∇2f (x1. x2) es definida positiva y el Teorema 5 justifica que cualquier punto KKT es un o ´ptimo. por lo que xα 1 x2 ≥ 0. y en la regi´ on factible. x1 ≥ 0 y x2 ≥ −2 β as. a > 0 se obtiene β x1 x2 = aα y utilizando (18) se llega finalmente a β α C. y por las condiciones complementarias de holgura µ1 = µ2 = 0. x1 = α+β a(α + β ) 257 . el sistema −1 β −αxα 1 x2 + λ = 0 β −1 + λa = 0 −βxα 1 x2 conduce a −1 β −1 Dividiendo por xα 1 x2 −1 β −αxα 1 x2 β α β −1 = − x1 x2 . y es no negativa en la regi´ on αβ (1 − α − β )x1 factible. 0 1 a 0        Se supone que x1 > 0 y x2 > 0. Por tanto. La condici´ on de estacionariedad del lagrangiano conduce a      −1 β −αxα 1 x2 β −1 −βxα x 1 2       + µ1    1  0   1   0          + µ2   + λ  =  . x2)) = 0. Adem´ 2(α−1) 2(β −1) x2 . x2 = C. pues 0 < α < 1 y −α(α − 1) > 0. por tanto. ∇2f (x1.El problema de Cobb-Douglas II La matriz hesiana es definida positiva.

µ)) 258 (19) (20) (21) (22) (23) (24) . Seguidamente se generalizan los resultados obtenidos para programaci´ on lineal al caso de problemas de programaci´ on convexa. µ) = Infx {f (x) + λT h(x) + µT g(x)}. g(x) ≤ 0. µ) = f (x) + λT h(x) + µT g(x) se puede reescribir (D) como Maxµ≥0 ( Infx L(x. donde f : IR n → IR. λ.Dualidad I La dualidad juega un papel muy importante en programaci´ on no lineal. µ) sujeta a µ ≥ 0. Consid´ erese el siguiente problema primal (P ): Minimizar ZP = f (x) sjeto a h(x) = 0. g : IR n → IR m. El problema dual (D) es Maximizar ZD = θ(λ. El problema dual requiere introducir la funci´ on dual: θ(λ. λ. h : IR n → IR . Usando el lagrangiano L(x.

y por tanto. µ)) + λT ∇h(x(λ. µ) = [∇f (x(λ. bajo las hip´ otesis de convexidad de f y g. µ)) + λT h(x(λ. µ) = f (x(λ. que la operaci´ on “´ ınfimo” en (21) y (24) puede reemplazarse por la “m´ ınimo”. (25) Estas dos u ´ltimas identidades pueden utilizarse para derivar una expresi´ on para el gradiente de la funci´ on dual y su hesiano. si se denota por x(λ. µ)) + λT ∇h(x(λ. Similarmente ∇λθ(λ. µ)). µ))]T ∇µx(λ. µ)). se puede escribir θ(λ. µ) = g(x(λ. µ)). el gradiente debe anularse: ∇f (x(λ. µ)) + µT ∇g(x(λ. de afinidad de h y de positividad de µ. ∇µθ(λ. µ) + g(x(λ. µ)). µ) = h(x(λ. En este caso. considerada como funci´ on de los multiplicadores. en un m´ ınimo global. por la regla de la cadena.Dualidad II Se supone que f. µ) a los puntos en los que se alcanza el m´ ınimo de la lagrangiana. y por (25) ∇µθ(λ. Por otra parte. el lagrangiano es convexo en x. µ)) + µT g(x(λ. µ)) = 0. es decir. 259 (26) (27) . En verdad. h. µ)) +µT ∇g(x(λ. y g son tales que el ´ ınfimo de la lagrangiana es alcanzable en alg´ un punto x.

260 . λ. resultando ∇2 x L(x(λ. µ)) ∇µx(λ. µ))[∇xL(x(λ. µ)] ∇xg(x(λ. µ) = ∇xg(x(λ. µ). se deriva (25) con respecto a µ y λ. µ) = ∇xh(x(λ. µ ) . λ . µ )] ∇xg(x(λ. µ ) = −∇ x x λµ Todas estas f´ ormulas son relevantes para los m´ etodos de c´ alculo posteriores. µ) + ∇x g(x(λ. µ). µ)) = 0. λ. µ)) ∇λx(λ. µ). µ). λ. Finalmente. n´ otese que derivando (26) y (27) con respecto a µ y λ. µ) = −∇xg(x(λ. µ). respectivamente. µ). los mismos c´ alculos conducen a 2 −1 ∇2 λ µθ(λ. µ). si se est´ a intersado en las derivadas segundas cruzadas ∇2 λ µθ(λ. Para obtener ∇µx(λ.Dualidad III Con respecto al hesiano. µ ))[ ∇ L ( x ( λ . µ)). µ)] ∇xh(x(λ. respectivamente. y similarmente 2 −1 ∇2 h ( x ( λ . se llega a 2 −1 ∇2 µθ(λ. µ) ∇µ x(λ. µ))[∇xL(x(λ. µ). y (29) ∇2 µθ(λ. µ)). µ) y ∇λx(λ. se obtiene ∇2 λθ(λ. θ ( λ . (28) y la f´ ormula paralela para ∇2 λθ(λ. µ)). µ) = −∇xg(x(λ. Reemplazando ´ estas en (29) y (28). y una ecuaci´ on similar intercambiando λ por µ y h por g.

Si son alcanzables. entonces θ(λ. g(x) ≤ 0} = −∞. 4. ambos tienen soluciones o ´ptimas. son finitos. Teorema 6 (Dualidad d´ ebil) Para cualquier soluci´ on factible x del problema primal (19)-(20) y cualquier soluci´ on factible del problema dual (22)-(23). Si sup{θ(λ. El siguiente corolario tiene una gran importancia pr´ actica. Corolario 2 (Optimalidad primal y dual) 1. Si f (x∗) = θ(λ∗. entonces x∗ y (λ∗. ni el supremo ni el ´ ınfimo tienen por qu´ e alcanzarse en alg´ un punto factible. µ). Se cumple: sup{θ(λ. entonces el problema primal no tiene soluci´ on factible. entonces (30) conduce a que si ambos son factibles. µ∗) son soluciones optimas de los problemas primal y dual.Dualidad IV El teorema siguiente muestra que cualquier valor del problema dual es una cota inferior del o ´ptimo del problema primal. respectivamente. ´ 3. entonces (30) implica que sup θ y inf f . se cumple f (x) ≥ θ(λ. Esto tiene importancia pr´ actica pues permite determinar cuando se para un proceso iterativo. 261 . µ)|µ ≥ 0} ≤ inf {f (x)|h(x) = 0. Si Inf{f (x) : h(x) = 0. Por supuesto. (30) Si las dos regiones factibles de ambos problemas son no vac´ ıas. (31) 2. µ∗) para alguna soluci´ on factible x∗ del problema primal (19)-(20) y para alguna soluci´ on factible (λ∗. µ∗) del problema dual (22)-(23). µ) = −∞ para todo λ ∈ IR y µ ≥ 0. g(x) ≤ 0}. ambos considerados con respecto a sus conjuntos de restricciones. µ) : µ ≥ 0} = +∞.

Si x∗ resuelve el problema primal su vector de multiplicadores asociado (λ∗. Rec´ on. y existe una soluci´ x∗. las soluciones del problema lagrangiano asociado a este vector de multiplicadores son soluciones o ´ptimas del problema primal.Dualidad V Si un vector de multiplicadores resuelve el problema dual y la holgura dual no existe. Teorema 7 (Dualidad para programas convexos) Consid´ erese un problema de programaci´ on convexo como el (19)-(20). Este resultado suministra una forma de resolver el primal resolviendo el dual. la relaci´ on (31) no se satisface estr´ ıctamente. µ∗) resuelve le problema dual. si el problema dual. es decir. (λ∗. entonces. 262 . del problema lagrangiano asociado a este vector de multiplicadores tal que µ∗g(x∗) = 0 entonces x∗ es una soluci´ on o ´ptima del primal. y µ∗g(x∗) = 0. µ∗) resuelve ıprocamente. El resultado principal consiste en encontrar condiciones que garanticen la no existencia de hol´ gura dual. Este es el caso cuando se trata con programas convexos.

−x2 ≤ 0. Este es un problema de programaci´ on convexa trivial. µ3): x∈IR 1 2 min2{x2 1 + x2 + µ1 (x1 + x2 − 4) + µ2 (−x1 ) + µ3 (−x2 )} 2 2 2 { x + ( µ − µ ) x } + min { x = min 1 2 1 1 2 + (µ1 − µ3 )x2 } − 4µ1 . 0) con un valor de Z = 0. µ2. x x Tras algunos c´ alculos se obtiene la lagrangiana: 1 θ(µ) = − [(µ1 − µ2)2 + (µ1 − µ3)2] − 4µ1. primero obteniendo la funci´ on objetivo dual θ(µ1. 4 y el problema dual (D) resulta: sup {θ(µ)|µ ≥ 0} N´ otese que la funci´ on dual es c´ oncava. ∗ La u ´nica soluci´ on o ´ptima de este problema es (x∗ 1 . El o ´ptimo del dual ∗ ∗ ∗ ∗ se alcanza en µ∗ 1 = µ2 = µ3 = 0 y ZD = θ (µ ) = 0. El problema dual (D) se obtiene. x2 ) = ´ (0.Dualidad VI Consid´ erese el problema (primal) (P): 2 + x Minimizar ZP = x2 1 2 sujeta a x1 + x2 ≤ 4. 263 . −x1 ≤ 0.

(32) Se comienza por caracterizar los puntos KKT. Seguidamente se especifica la clase de PPNL para las que las se satisfacen las CKKT. . ∀i = 1. De hecho. g(x) ≤ 0. . s´ olo si se cumplen siertas condiciones de regularidad se convierten en necesarias. }. } F (¯ x) = {d ∈ IR n|∇f (¯ x)T d ≤ 0. 264 . . no siempre son necesarias para la optimalidad.Condiciones de regularidad I Contours of f h g K2(x) F(x) h x* Contours of g K1(x) f K(x) h =0 Se ha visto la importancia de las CKKT para resolver problemas de programaci´ on no lineal. Sin embargo. Se considera el problema Minimizar Z = f (x) sujeta a h(x) = 0. Las hip´ otesis que aseguran esta regularidad se denominan como “Condiciones de regularidad”. El teorema que sigue utiliza los conos: x)T d < 0. . ∀i ∈ I (¯ x)} ∩ K (¯ x) = {d ∈ IR n|∇gi(¯ {d ∈ IR n|∇hi(¯ x)T d = 0.

Sea x un m´ ınimo local de (1). En¯ tales que (¯ ¯) ¯ y λ ¯. en la regi´ de x on factible no reduce el valor de la funci´ on objetivo. en la direcci´ on de d en el punto x erdese tambi´ en que I (¯ x) es el conjunto de restricciones activas en el punto correspondiente. (33) Este teorema define completamente los puntos KKT. existen dos vectores µ x. Recu´ mente. λ tonces. gi y hi. ¯ Veamos las condiciones necesarias para m´ ınimo local. Teorema 8 (Caracterizaci´ on de un punto KKT) ¯ es una soluci´ Sup´ ongase que x on factible de (32). δ ) ¯ < δ }. Veremos que el m´ ınimo local impone condiciones m´ as d´ ebiles que este teorema. De la definici´ donde B (¯ x. ∇gi(¯ son precisamente las derivadas de f . µ satisface las CKKT dadas por (3)-(7) sii se satisface la condici´ on K (¯ x) ∩ F (¯ x) = ∅. ∇hi(¯ x)T d. respectiva¯ . ∇f (¯ x)T d. δ ) = {x | x − x on es claro que un desplazamiento suficientemente peque˜ no des¯ . 265 . entonces existe un δ > 0 tal que f (¯ x) ≤ f (x) ∀x ∈ S ∩ B (¯ x.Condiciones de regularidad II N´ otese que los productos escalares x)T d.

se puede pensar en cualquier tipo de peque˜ no desplazamiento desde el m´ ınimo relativo. ∀k . dado un punto factible x ¯ es un vector d = 0 tal que x + td ∈ S recci´ on factible en x ¯) donde t ¯ es positivo. ¯ ∈ S . La figura ilustra el para todo t ∈ (0. Definici´ on 10 (Cono de las direcciones admisibles) ¯ ∈ Cl(S ). Inicialmente. s´ olo desplazamientos lineales en direcciones diferentes. Sea S un conjunto no vac´ ıo de IR n. es un cono. Supondremos sin embargo. estamos interesados en aquellas en las que se pueden elegir desplazamientos tan peque˜ nos como se desee sin dejar de estar en la regi´ on factible. De todas las posibilidades. y sea x ¯ si existe Un direcci´ on d se dice factible para S en x ¯ + tk d ∈ S una secuencia {tk } tal que tk > 0. t conjunto de direcciones factibles en un punto 266 . se introduce el concepto de direcci´ on factible.Condiciones de regularidad III D(x) x D(x) (a) (b) X Para entender el comportamiento de un m´ ınimo local. Estas direcciones se llaman direcciones admisibles. que se denota por D(¯ factibles de S en x x). x y limk→+∞ tk = 0 El conjunto de todas las direcciones ¯ . una diM´ as precisamente.

Este valor se llama la derivada direccional. las derivadas direccionales pueden calcularse por medio del vector gradiente. d). entonces las derivadas direccionales deben ser mayores o iguales a cero. Para estudiar el grado de cambio de f a lo largo de la l´ ınea recta en la direcci´ on d. se puede definir la funci´ on ω (t) = f (x + td) El grado de cambio de la funci´ on ω (t) es la primera derivada on. ya que de otra forma w podr´ ıa ser decreciente en (0. Si x es un m´ ınimo local y d es una direcci´ on factible. f (¯ Esta propiedad es tambi´ en cierta para un cono mayor que D(x). que se llama cono tangente. f (x. lo que contradice la condici´ on de m´ ınimo local ¯ . y se denota por f (x. ∀d ∈ D(¯ (34) Si f es diferenciable en x. Cuanω (t). ∀d ∈ D(¯ x). δ ) para alg´ un δ > 0. d) = ∇f (¯ x)T d ≥ 0. el signo de ω (0) decide si la funci´ creciente o decreciente en esta direcci´ on. 267 . que caracteriza la monotonicidad de la funci´ on es do t es igual a cero.Condiciones de regularidad IV Sea x un punto factible y d ∈ D(x) una direcci´ on. y la condici´ on (34) puede reformularse como x. d) ≥ 0. Esto conduce a la siguiente condici´ en x on necesaria para m´ ınimo local x).

Para clarificar ´ esto se da un ejemplo. para cada k .Condiciones de regularidad V La definici´ on de cono tangente es como sigue. Definici´ on 11 (Cono tangente) Sea S un conjunto ¯ ∈ Cl(S ). y xk → x cono cerrado. es el conjunto de todas las direcciones d tales que existe tk > 0 con ¯ ). El cono de tangentes no vac´ ıo de IR n. denotado por T (¯ de S en x x). (35) N´ otese que T (¯ x) ⊂ K (¯ x). En un cierto sentido el cono tangente es el cierre del cono de las direcciones factibles. N´ otese que hay PPNL para los que las CKKT no son necesarias. Teorema 9 (Condiciones necesarias de optimalidad) ¯ es un m´ Si x ınimo local de (1) entonces T (¯ x) ∩ F (¯ x) = ∅. 268 . y una condici´ on necesaria para m´ ınimo local no implica necesariamente las CKKT. y sea x ¯ . d = lim tk (xk − x k →+∞ ¯ . Se trata de un donde xk ∈ S .

sin embargo.x2 ≤ 0 S x * = (1. que ´ punto KKT.0) X1 Consid´ erese el problema Minimizar Z = −x1 sujeta a x2 − (x1 − 1)2 ≤ 0.Condiciones de regularidad VI X2 x2 . 0). x2) = −x2. g2(x1.x1 ≤ 0 . x2) = −x1 y g3(x1. x2) = x2 − (x1 − 1)2 . El o ´ptimo de este problema se alcanza en los puntos donde la axima. −x1 ≤ 0. Las restricciones funcionales son g1(x1. −x2 ≤ 0. El gradiente de la funci´ on lagrangiana es:     −1   −2(x1 − 1)   −1   0   0            + µ1   + µ2   + µ3   =   0 1 0 −1 0 269          .(x1-1)2 ≤ 0 . que definen la regi´ on factible (ver figura). Es claro que la soluci´ on o ´ptima componente x1 es m´ este no es un es x∗ = (1. Mostraremos.

pero K (x∗). i ∈ I (x∗) . si gi(x∗) es inactiva su multiplicador µi = 0. y usando la condici´ on complementria de holgura. Sea  ∇g1(x∗) =    0 0    ∇g3(x∗) =  . por tanto. µ1 − µ3 = 0. por lo que el l´ ımite es tambi´ en no positivo. En este ejemplo g2(x∗) < 0 y µ2 = 0. ya que T (x∗) = on ⊂ se cumple para cualquier PPNL. d2)T ∈ IR 2 | − d2 ≤ 0. ¯ ∈ ¯ = (1. lo que prueba que x∗ no es un punto KKT. es decir. No es dif´ ıcil comprobar que existe una ¯∈ ¯ ∈ K (x∗) tal que d / T (x∗). se obtiene d 270 y . y. T (x∗). diferente de 1. Puesto que x∗ es el elemento de S con la mayor componente primera. resultando el sistema inconsistente : −1 = 0. el vector tk (xk − x∗) tiene primera componente no positiva.   1 −1    K (x∗) = (d1. Se probar´ a que d / T (x∗).Condiciones de regularidad VII Sustituyendo en x∗. 0)T ∈ K (x∗). Ello ¯ y por definici´ on de muestra que limk→+∞ tk (xk − x∗) = d ¯∈ / T (x∗). Recordando la definici´ on d K (x∗) = d ∈ IR 2 | ∇gi(x∗)T d ≤ 0. La inclusi´ la inversa no siempre. Por ello d Sea xk un elemento de S . d2)T ∈ IR 2 | d2 = 0 . d2 ≥ 0 = (d1.

El punto x satisface las condiciones de Abadie si T (¯ x) = K (¯ x). . y las CKKT son necesarias para problemas con restricciones lineales. 271 . . • Independencia lineal. Por otra parte. Puesto que en la mayor´ ıa de los PPNL uno se encuentra en la pr´ actica con que se verifican algunas CCC. Las funciones gi(x) para todo x) para todo k = 1. Los gradientes de las restricciones activas son linealmente independientes. . Este esquema valida que las CKKT sean necesarias para un m´ ınimo local. . son linealmente inand ∇hk (¯ dependientes. . existe ˜ ∈ IR n tal que gi(˜ x) < 0 para todo i ∈ I (¯ x) y hk (˜ x) = x 0 para todo k = 1. simplemente se dan algunas de ´ estas: • Condiciones de Slater. El proceso para elaborar las CQC consiste en definir un nuevo cono C (¯ x) ⊂ T (¯ x) para garantizar que C (¯ x) = K (¯ x) bajo unas cierta CCC. y una discusi´ on completa de estas resulta excesivo para los objetivos que se persiguen. . ¯ ∈ S se dice que • Condiciones de Abadie. . y ∇hk (¯ son linealmente independientes. . .Condiciones de regularidad VIII Se deben imponer nuevas condiciones para asegurar que T (¯ x) = K (¯ x). i ∈ I (¯ x) son convexas. Estas condiciones se conocen como las condiciones de regularidad (CQC). ∇g (¯ x) c) para todo k = 1. . . . . es decir. Esta condici´ on se satisface por problemas con restricciones lineales.

272 .Condiciones de regularidad IX Teorema 10 (Condiciones necesarias de KarushKhun-Tucker). entonces existe (λ ¯. . . µ ¯ ) satisface las CKKT dadas por las ecuaciones (¯ x. Problemas con solo restricciones de desigualdad. En este caso S = IR n y las condiciones de Abadie se cumplen trivialmente. Consid´ erese el PPNL Minimizar Z = f (x) sujeta a h(x) = 0 (36) g(x) ≤ 0 ¯ es un o ¯. . T (¯ x) = K (¯ x). µ ¯ ) tal que es decir. El ¯ es un m´ teorema se formula: Si x ınimo local y f es ¯ entoncces ∇f (¯ diferenciable en x x) = 0. En este caso no existen condiciones para la restricci´ on h(x) = 0. 2. deben ser linealmente inde∇hk (¯ pendientes. . λ (3)-(7). 3. Si x ´ptimo global y se cumple una CCC en x ¯. Casos especiales 1. Problemas con s´ olo restricciones de igualdad: multiplicadores de Lagrange. Problemas sin restricciones. En este caso las CCC previas son: x) para k = 1.

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->