FACULTAD DE INGENIERIA MECANICA Y HJECTRICA

DIVISION DE ESTUDIOS DE POSTGRADO

PROGRAMACION

NO

LINEAL

POR
LIC. RAMON CANTU CUELLAR

T E S I S

EN OPCION AL GRADO DE MAESTRO EN CIENCIAS H DE LA ADMINISTRACION CON ESPECIALIDAD EN INVESTIGACION DE OPERACIONES

SAN NICOLAS DE LOS GARZA, N. L., MAYO 1996

/

I

PROGRAMACION NO LINEAL POR LIC. HAMON ( A N T Ü CUhLLAfc T E S i S N OPCION \L GRADO DE MAESTRO EN CIENCIA P F LA ADMINISTRACION CON ESPECIALIDAD FN • NVESTÍGACION DE OPERACIONES .

y ^ .

FACULTAD DE INGENIÉ Di VISION DE Er Vii J" PROGRAMACION NO LINEAL POR LIC.. RAMON OANTU CUELLAR T E S I S N OPCION XI GRADO DE MAESTRO EN U E Ne.:-A. DE LA ADMINISTRACION CON ESPECIALIDAD F \ INVESTIGACION DE OPERACIONES .

N. David Oliva Alvarez San Nicolás de los Garza. El C o m i t é de Tesis División de Estudios de Postgrado M.C.L. a Diciembre de 1995. R a m ó n C a n t ú Cucllar sea aceptada c o m o opción para obtener el grado de M a e s t r o de Ciencias de la Administración con especialidad en investigación de O p e r a c i o n e s .UNIVERSIDAD AUTONOMA DE NUEVO LEON FACULTAD DE INGENIERÍA MECANICA Y ELECTRICA DIVISION DE ESTUDIOS DE POST-GRADO Los m i e m b r o s del Comité d e tesis r e c o m e n d a m o s que la presente tesis realizada p o r el Lic. .

mas recientemente del método de Karmarkar. así como la de su resolución en un intervalo razonable de tiempo mediante el uso del método Simplex. Esta tesis presenta estos desarrollos cu una forma lógica e independiente.:>lución de problemas en sus respectivos campos de trabajo como apoyo o referencia e>. Sin embargo muchos problemas reales no pueden ser adecuadamente representados o aproximados como un programa lineal debido a la naturaleza de la no linealidad de la función objetivo y/o la no linealidad de cualquiera de las restricciones.cursos de programación no lineal o de investigación de operaciones que en sus programas de estudio incluyan la programación no lineal. Asimismo.PROLOGO La programación no lineal se ocupa del problema de optimizar una función objetivo con h. y de las computadoras. por parte de los usuarios. incluyendo su habilidad para modelar problemas grandes y complejos. La popularidad de la programación 'ineal puede atribuirse a muchos factores. el programa es no lineal y su resolución es el problema de estudio en esta tesis. presencia de restricciones tipo de igualdad y/o desigualdad. . esta tesis contiene material de consulta para profesionales que requieren aplicar técnicas de programación no lineal en la re:. Si todas las funciones son lineales tenemos un programa lineal de lo contrario. Los esfuerzos por resolver tales problemas no lineales en forma eficiente pro\ ocarot) un rápido progreso durante las pasadas tres décadas.

7.INTRODUCCION SINTE-IS CONCF..L P R O ü K A M ACION PROGRAMACION PR()( iRAM \C ION PR('(il'.. .5.3 4...A) B) C) D) 8.Mb Página 3 5 7 15 38 39 47 57 57 67 87 98 ... APENDICF 120 Gl O S <I< A U T O B K '< JRAl I \ .INDICE Capítulo 1. 121 124 .PTOS BASICOS DE P R O G R A M A C I O N N O LINEAL C O N D I C I O N E S DE O P T I M A L I D A D Y D U A L I D A D L A G R A N G I A N A O P T I M I Z A C I O N N O L I N E A L SIN R E S T R I C C I O N E S A) B U S Q U E D A EN UN I N T E R V A L O SIN D E R I V A D A S B) B U S Q U E D A EN UN I N T E R V A L O C O N D E R I V A D A S M E T O D O S DE B U S Q U E D A M U L T I D I M E N S I O N A L A) SIN UÍ-AR D E R I V A D A S B) U S A N D O D E R I V A D A S 6.2.. O S E S P E C I A L E S D E P R O G R A M A C I O N N O LINE/'.AMAUON CUADRATICA SEPARABLE FRACCIONAL GEOMETRICA CONCLUSIONES Y RECOMENDACIONES B I B I I O ( J | < \L I \ .109 116 . 98 101 105 ... 1 1 9 fonos DE DIRECCIONES FACTIBLES M O l K I .

CAPITULO 1 INTRODUCCION El objetivo de esta tesis esta encaminado a que cualquier. aunque por si misma constituye un tópico muy importante. sino que dependiendo de la naturaleza del problema. sin perder la continuidad de las ideas. eliminando las demostraciones matemáticas que ofrecen la ma>oría de los texios especializados en el tema. enfocándose mas en la aplicación de tales técnicas. enfocada a los aspectos intuitivos en el desarrollo y formulación de dichos algoritmos. ya sea de la función objetivo o de las restricciones si existen en el problema. La leona de la convergencia de algoritmos. Desgraciadamente en programación no lineal no existe un algoritmo matemático que pueda resolver cualquier problema no lineal. . se aplica un método en particular para la solución de tal problema. persona. El contenido de esta tesis es contemplado hacia la investigación v/o docencia referente al área de investigación de operaciones. no ha sido incluida en esta tesis. familiarizada con los conceptos de programación lineal pueda de una manera comprensible entender las técnicas de programación no lineal. La metodología de esta tesis consiste en desarrollar bases técnicas de los algoritmos y modelos no lineales considerados y ejemplos de su aplicación. La programación lineal cuenta con los algoritmos Simplex y Karmarkar para la resolución de cualquier problema lineal. para motivar a la posible aplicación de los mismos en las diferentes áreas de trabajo. concretamente a la programación no lineal. siempre y cuando este tenga solución.

donde la literatura que existe actualmente del tema. especializada.Un facior que motivo al temá de esta tesis es el no encontrar ninguna elaborada anteriormente que trate en su totalidad el tema de programación no lineal. . son obras en ingles en su gran mayoría.

A continuación se presenta un resumen del contenido de los temas a tratar en esta tesis "Programación no lineal". así como también la formulación del problema dual y la posible solución de tal problema para conocer ia solución del problema pi imal a partir del dual.CAPITULO 2 SINTESIS En esta tesis analizaremos el tema de la programación no lineal. Los capítulos 5. se hará una comparación del modelo no lineal con los modelos lineales v se presentara el planteamiento de algunos problemas no lineales. 6 y 7 son independientes completamente. . se discutirán las características de este tipo de problemas. Capítulo 4 Se analizará en este capítulo conceptos fundamentales en la teoría de programación no lineal. Existe dependencia de los capítulos 3 y 4 con los tres siguientes. Capítulo 3 En esta sección se definirá el modelo matemático de programación no lineal. salvo las aplicaciones del capítulo 3 que pueden ser omitidas sin que se pierda la ilación o continuidad de las ideas. en cinco capítulos y uno final de conclusiones y recomendaciones. de manera que puede tratarse cada uno como una unidad por separado. las condiciones de optimalidad para problemas no lineales.

que pueden ser resueltos con el método Simplex de programación lineal. Capítulo 8 Se presentan en este capítulo las conclusiones > recomendaciones del presente trabajo. donde. partiendo de un punto factible conocido a otro punto factible mejorado. haciendo ciertos ajustes al modelo matemático. usando derivadas o sin usar derivadas. . un modelo muy interesante llamado programación geométrica. para funciones de una o varias variables. Aquí se consideran problemas no lineales restringidos. Capítulo 7 Se estudiará en este capítulo algunos modelos especiales de programación no lineal.Capítulo 5 E l objetivo de este capítulo es analizar algunos de los métodos de búsqueda que existen para resolver problemas de programación no lineal no restringidos. mas cercano a un punto óptimo. se utilizan estos conceptos para el lema a tratar. se presenta un glosario de términos para lograr la comprensión de tales conceptos que son necesarios en el planteamiento y desarrollo de los algoritmos no lineales. Como en esta tesis se suponen conocidos algunos conceptos de álgebra lineal y análisis matemático. Analizaremos. Capítulo 6 Esta sección presenta algunos de los métodos existentes que utilizan direcciones factibles. por ultimo.

.2 m 1 donde f. h b h 2 . son funciones definidas en L„. ..x n ..1. .CAPITULO 3 C O N C E P T O S B A S I C O S DE P R O G R A M A C I O N N O LINEAL Programación no lineal Se considera-como tal al conjunto de métodos utilizados para optimizar una función objetivo..x n que satisfacen las restricciones y que minimicen la función f. Cada una de las restricciones para i 1.. ... ..x 2 . g-... gj. l es llamada restricción de igualdad.. y x es un \ector de componentes x.l . La función f es llamada usualmenle la función objetivo o la función criterio. 2 j . 2 . el espacio euclidiano de n dimensiones. Un vector x que satisface todas las restricciones es llamado una solución factible al problema. g m . sujeta a una serie de restricciones en los que una o mas de las variables incluidas es no lineal.2 m es llamada restricción de desigualdad y cada una de las restricciones h-Jx) para j ... C o m o ejemplo considere el siguiente problema de programación no lineal Minimizar f(x) sujeta a g¡(x) < 0 h¡(x)-0 i .1. h.. x 2 . X es un subconjunto de L n . El problema anterior puede ser resuelto para los valores de las variables x|..

Si existe mas de un punto óptimo. Por tal motivo. puede ser representado por desigualdades lineales y/o ecuaciones lineales. 1. el problema anterior es llamado un problema lineal.V. Un punto tal x es llamado una solución óptima o simplemente una solución al problema. 2. En el caso especial cuando la función objetivo es lineal y cuando todas las restricciones. Lo anterior indica que la programación lineal es un caso particular de la programación no lineal. un problema de programación no lineal puede expresarse como un problema de maximización y las restricciones de desigualdad pueden estar escritas en la forma g/x) > 0 para i = 1. Programación lineal Programación no lineal 1. La solución óptima se encuentra en un punto extremo de la región de factibilidad.. No siempre la solución óptima se encuentra en un punto extremo de la región de factibilidad. . estos son referidos como soluciones alternativas óptimas.m.La colección de todas las posibles soluciones forman la región factible. 2. Asimismo. Haciendo un análisis de las características de los problemas lineales y no lineales tenemos la siguiente comparación entre ambos problemas. incluyendo al conjunto .. Hay casos donde el punió óptimo esla en el interior de la región factible. los problemas no lineales son mucho mas difíciles de resolver que los de programación lineal.. El problema de programación no lineal es encontrar un punto factible x tal que f(x) >f(X) para cada punto factible a*. El punto óptimo nunca esta dentro de la región de factibilidad.2..

5.3. mas no el óptimo global ó absoluto. 4. Se pueden generar que regiones no de son factibilidad necesariamente convexas.. La región de factibilidad es un conjunto convexo. 4. Sus métodos de optimización absolutos ó 3.3 ) 2 + (x.Y. . . . < La figura muestra la región factible ~ i¡ lllw / 1 \ V 1 K1 problema es encontrar un punto en la región factible ion el valor mas pequeño posible de (jc.y. considere el siguiente problema Minimizar (x. .1 < 0 0 -. —-Y-. las restricciones ó ambas pueden ser no lineales. Sus funciones objetivo y 5. Generalmente se encuentra un generan globales. . C o m o ilustración.2 ) " sujeta a -V .3) + (* 2 .3< 0 . óptimos óptimo local ó relativo.2 ) " . restricciones son lineales. La función objetivo.

Nótese que los puntos ( x h x 2 ) con (x. Esta no puede contraer y si puede expandir al conjunto factible 2 Aumentar (disminuir) el lado derecho de una restricción estrecha la lestiicuón. Por otra parte existen algunas condiciones o postulados que se cumplen para los dos modelos. Este círculo es llamado curva de nivel de la función objetivo teniendo el valor c. 4. Puesto que deseamos minimizar c.1) y tiene un valor objetivo igual a 2. Obviamente este enfoque de resolver geométricamente el problema es solamente conveniente para problemas pequeños y no es practico para problemas con mas de dos variables o aquellos con restricciones y funciones objetivo complicadas o complejas. C o m o muestra la figura el tal círculo mas pequeño tiene c . .3) 2 + (x 2 . sino quizá perjudicar.2) 2 representan un círculo con radio y centro (3.2 e intersecta a la región factible en el punto (2. Por lo tanto la solución óptima se obtiene en el punto (2. \ Ina restricción no puede perjudicar. debemos encontrar el círculo con el radio mas pequeño que intersecte la región factible. I'streehar una restricción no puede ayudar. Esto no puede expandir pero si contraer el conjunto no restringido. 3.2). El método utilizado en el ejemplo anterior consiste en encontrar una solución óptima determinando la curva de nivel con el mas pequeño valor objetivo que intersecta la región factible. los de programación lineal y los de programación no lineal: 1.1). al valor óptimo de la función objetivo. al \alnr óptimo de la función objetivo. sino quizá ayudar. . Al aumentar (disminuir) el lado derecho de una restricción < o ¿r ->e relaja la restricción.

Cada comercial en una telenovela cuesta 5000 dólares y cada comercial en un juego de fútbol cuesta 10000 dolares.I I que vean sus comerciales. una compañía puede producir x. . obteniendo modelos de programación no lineal. Para maximizar las ganancias. para buscar luego métodos de solución a problemas no lineales en los siguientes capítulos.x 2 unidades de un bien manufacturado. ¿ Como puede la compañía maximizar la cantidad de bienes que se pueden fr-bricar ? Variables: . unidades de capital y x2 unidades de trabajo. los clientes pedirán Dfx) unidades. Se puede conseguir el capital a N $ 3 0 /unidad \ el trabajo a N$7/unidad . comerciales en novelas serán vistos por 5-Jx hombres j por 20^Jx] mujeres (los dalos vienen en millones de espectadores). Si se compran as comerciales en juegos de fútbol serán vistos por 7yj~x. Company se anuncia en telenovelas y juegos de fútbol.Planteamiento de problemas Analicemos ahora el planteamiento de problemas. > 0 x2>0 Ejemplo 3: Q&II.

i l'nidades de capital x2 L'nidades de trabajo Función objetivo: Maximizar z= X|X? Restricciones 3¡) + 7 x .v. Por lo menos 40 millones de hombres y por lo menos 60 millones de mujeres quiere Q&.c) Dfx) sin restricciones.v dólares por unidad del producto. Si la compañía cobra . mujeres y por 17 hombres. Ejemplo 1: A una compañía le cuesta c dólares por unidad fabricar un producto. < 600 x. Ejemplo 2: Si se utilizan . Se dispone de un total de NS600 para conseguir capital y trabajo. ¿ Que precio tendrá que poner la compañía ? : Variable: x Función objetivo: Maximizar z~ fx . Si se compran x.

> 0 + 7 ^ .k-/-c/k 0<k< /k> 0 h P k .k . + 1000x 2 Restricciones: 17-N/*7 > 4 0 2 0 ^ A-. Supóngase que se tienen trabajadores suficientes cuando se necesite y despedirlos si son innecesarios. k . de cualquier manera. También es incurrido un costo proporcional al inventario suma > sigue de un periodo a otro.1./.I + l k tal que se satisfaga la demanda y el costo sea k /k-/k-/+/. 2 minimizado.i\el de imentario /. Variables: / k . « * + c2 k\ Restricciones: I k . no fomentar las fluctuaciones de trabajo pesado incurre un costo provisional a el cuadrado de la diferencia en la fuerza de trabajo en cualquiera de los dos periodos sucesivos. Encontrar la fuerza de trabajo de inventaría) durante los periodos 1 . La cantidad de producción máxima durante cualquier periodo esta restringida por la capacidad de producción del equipo disponible de modo que este no puede exceder b unidades.2 n . supóngase que el inventario de la producción puede determinarse en un total de k periodos La demanda durante cualquier periodo puede encontrarse a partir del inventario en el principio del período y de la producción durante el periodo. >60 >0 x2 Ejemplo 4: Una compañía produce un cierto articulo y desea encontrar una demanda conocida.fuerza de trabajo en el fin del periodo k i k ' luer/a de trabajo adquirida durante el periodo k n Función objetivo: minimizar z= ^ ( c ./.Variables: x¡ Anuncios en telenovelas x7 Anuncios en fútbol Función objetivo: minimizar z = 5000x. r.

. el espesor y e) diámetro promedio de la armazón de tubos de acero. . la altura de la estructura no puede exceder b. tal que esta pueda soportar una carga de 2W y minimizando la altura total de la armazón. esto es. Debido a limitaciones de espacio. Se presentan las siguientes restricciones adicionales: 1. El radio del diámetro del tubo entre el espesor del tubo no debe exceder b2. la distancia entre los dos pivotes es fijada en 2s. El peso de la estructura es 2npX]X2(s2 + donde p es la densidad del tubo de acero. Ejemplo 5: Considere la armazón en un plano mostrada en la figura 3 1 a armazón consiste en dos tubos de acero juntos en un extremo y fijos en dos puntos pivotes en el otro extremo. 2.Asimismo: I Q : Inventario inicial LQ : Fuerza de trabajo inicial d k : Demanda conocida durante k periodos p : Numero de unidades producidas por trabajador durante cualquier periodo. El espacio. El problema de diseño es elegir la altura de la armazón.

' X . La altura.v^Cy 2 Restricciones: w(52 + . > 0 . Y.x 2 x 3 < 0 -b4x. q u e origina la siguiente restricción donde b es constante W(S2 + X3)'¿ < b3x{x2x} 4.x2x-i(x~ +x:)< 0 x. x.3.<b.ó . La tensión de compresión en los tubos de acero no puede exceder la tensión dada del acero. X . Esta restricción puede ser expresada con b 4 c o m o un parámetro conocido >l'(5" + X 2 ) ' < b 3X 1x 2 x 3 Función objetivo: Minimizar z = ..y2 M'(r . diámetro y espesor pueden ser elegidos tal que los tubos no se doblen b a j o la carga.

x entonces /br. debe pertenecer a X.X | \ 2 ) l'( x | ) + (1 . Ejemplo: Un conjunto convexo Un conjunto no convexo 1-unciones convexas y cóncavas Definición: Sea X un convexo no vacío en h n .X)x2 pertenece al conjunto Xpara cada Xe[0. x2 en .X ) f( x2) .'/ ) f ( x : ) I a función / es llamada cóncav a si -/ es convexa. La función f sobre X es una función convexa si para cada x ( . + (\ . La convexidad de X se puede interpretar geométricamente como sigue: Para cada par de puntos x¡ y x2 en X. I]. 11 cumple f ( > X| ' I 1 " /-iN') f(x. esto es l'( Ax | • ¡1 . el segmento de recta que los une.CAPITULO 4 C O N D I C I O N E S DE OPT1MALIDAD Y D U A L I D A D L A G R A N G I A N A Conjuntos convexos Definición: Un conjunto X en E n se llama un conjunto convexo si dados dos puntos A'|. x 2 e X y para cada Áe fü.) j Í 1 .

si X es un conjunto convexo y si f e s convexa sobre X. Figura 1 Ejemplos de funciones cóncavas y convexas La figura 1 muestra que f es convexa si y solo si el segmento de recta que une dos puntos cualesquiera de la curva y = f(x) nunca se encuentra por debajo de la curva y=f(x).2 n n i . Geométricamente en dos dimensiones. Trabajando únicamente con funciones cóncavas y convexas. se dice que la función es estrictamente convexa y estrictamente cóncava.Si las desigualdades de esta definición son estrictas. Veamos los siguientes resultados. f(x) es una función cóncava si y solo si el segmento rectilíneo que une dos puntos cualesquiera de la curva y _ f ( x ) .(x) h.1. 2. de donde se tienen ciertas propiedades importantes referentes a este tipo de funciones.(xj 0 0 i 1. . De manera similar. nunca se encuentra por arriba de esta curva. T e o r e m a : Para el problema no lineal Minimizar ffx) sujeta a g. respectivamente. se caería en el campo de la programación convexa. entonces cualquier mínimo local del problema no lineal anterior es una solución óptima de este problema. En base a esta definición se tiene que f es convexa si y solo si -f es cóncava y viceversa.

x)\ CXTX„ â2J(x) H(x)= âx-. Entonces f(x) es una función c o n \ e x a sobre X si y solo si f ' ( x ) > 0 para loda x en X. Enlonces f(x) es una función convexa sobre X si y solo si para cada x en X los menores principales de H(x) son no negativos. â2f(x) ¿a Partiendo de este concepto tenemos los dos teoremas siguientes para funciones de una sola variable. à2fix) rv. x 2 x n ) en X.v. Entonces f(x) es una función cóncava sobre X si \ solo si f ' ( x ) < 0 para loda x en X.Ahora bien. faf(x) âc à2f{x) â\f{. la manera de saber si f(x) es cóncava o convexa es mediante la segunda derivada de f(x).x â\f{x) â\f{x) c\zx„ <?VU) Kâc„x. es decir. Teorema: Supóngase que f ' ( x ) existe para toda x en X. Y para funciones de mas de una sola variable se tiene: Teorema: Supóngase que f(x) tiene d e m u d a s parciales continuas de segundo orden para cada punto x (X|. Teorema: Supóngase que f (x) existe para toda x en X. analizando el signo de f (x) c o m o se efectuaba en calculo diferencial para funciones de una sola variable y mediante la matriz hessiana de f para funciones de mas de una variable. .

tienen el mismo signo que (-1)\ E j e m p l o : Determinar si las siguientes funciones son cóncavas... f ( x ) " 3 x + 4 3 . 4. I'(x) T(x) 3x + 4 3 . \ 2 ) -X. Entonces t\x) es una función cóncava sobre X si y solo si para cada x en X y k _ 1..x 2 .... x 2 ) - x: + 2X|X 2 + x. .Definición: E l i-ésimo menor principal de una matriz nxn es el determinante de columnas cualquier matriz ixi que se obtiene al quitar renglones y las n . f(X|." .X|X2 . f(x. f(x) es una función convexa.2. convexas o ninguna de las dos 1. f(x) = x 2 2. Definición: El k-ésimo menor principal dominante de una matriz nxn es el determinante de la matriz kxk que se obtiene al quitar los últimos n . fixj X2 f (x) = 2x f'(x) _ 2 > l) Como f"(x) > 0.n .k renglones y columnas de la matriz.-X.x n ) en X. x 2 2x2 Solución: 1.. los menores principales diferentes de cero.2x¡ 5. l ( x .i correspondiente a la matriz. T e o r e m a : Supóngase que f(x) tiene derivadas parciales continuas de segundo orden para cada punto x = (x|. x2) . 2. .3 x ..

V. .x 2 + .-2x.f'(x) = O f(x) es cóncava y convexa simultáneamente dado que cumple con estas definiciones.x. f(x|.1 CX~ íx: C-F(X) (X. '7U) = -x. ex. + 2x.x 2 ) es una función convexa. Calculando la matriz hessiana para f(X|. 4. = 2 ¿Vi*) dx\ = 2 = i f 2 1> H (x)- .2 2j Los primeros menores son los elementos de la diagonal principal iguales ambos a 2 > 0 2 2 2 2 = 2(2)-2(2) = 0> 0 Como los menores principales de H son no negativos para cualquier punto.X r f(x í-2 H (x)-1 -r -4. "' = 2 M * ) = 2. 4. . < f(x) = . 3.x. x 2 )= X| + 2x.Y. £JM ex: = 2x. df{x) ac. + 2 r . Siguiendo el mismo procedimiento que en el ejemplo anterior ff(x) ex .

el segundo menor principal tiene el mismo signo que (-1) .1 = 7 > 0 Y para k . . Entonces f(x) será c o n \ e \ a si el segundo menor principal.3. Para k = 1 (-1)' = .Los primeros menores principales son los elementos de la diagonal del hessiano.] ) = .x.1.2 (-1) = 1. Por lo tanto f(x) es una función cóncava. 5.3 x . -2 y -4.1)* = ( . Nuevamente ¿A*) 3c.9 = . = 2x. + 4a\ â2f(x) ex: = 2 à2f(x) dx\ = 4 — —j â2f(x) '2 H (a-) = ^ 4 k k-j k Los primeros dos menores principales son positivos y para k~l (. df{x) = . ambos negativos. . f(> ) tampoco es una función convexa.L entonces los dos menores principales tienen el m i s m o signo.1o cual significa que f(x) no es cóncava. entonces tenemos que 2 _3 -3 4 =2(4)-( 3)(-3) = 8 . el determinante del hessiano es mayor o igual a cero. pues son negativos El segundo menor principal es: -2 -1 -1 -4 = (-2)(-4) .1 < 0 Por lo tanto como el segundo menor principal es negativo.(-1) = 8 .

Analizaremos estos nuevos conceptos. es decir si f(A. la definición de función cuasi-cóncava indica que si f es cuasi-cóncava es imposible encontrar tres puntos colineales tales que el punto del centro tenga el mas pequeño valor objetivo que los oims dos puntos. A. Figura 2 a) b) c) La figura 2 a j muestra que f es una función cuasi-convexa si es imposible encontrar tres puntos colineales tal que el punto del centro tiene el mayor valor objetivo al evaluar estos puntos en f. Generalización de funciones cóncavas y convexas Funciones cuasi-convexas y cuasi-cóncavas D e f i n i c i ó n : Una función f es una función cuasi-convexa bajo un conjunto convexo X en Kn si para cada x ( .-+-[ I -?. f(x 2 )} para todo. que son generalizaciones de estos conceptos. x 2 en X f(AX¡-t | 1-a]x2) < mínimo {f(x. una función cuasicóncava y una que no cumple ninguna de las dos condiciones.Las funciones convexas y cóncavas desempeñan un papel muy importante en el estudio de los problemas de programación n o lineal.]x : ) > mínimo { f ( X | ) . Siniilarmente. . tal que 0 < X < 1 La figura 2 muestra un ejemplo de una función cuasi-convexa. para luego pasar a analizar las condiciones de optimalidad partiendo de estos conceptos fundamentales.x. por la definición de función cuasi-convexa.). así c o m o también algunos otros tipos de funciones que son similares a estas. f(x 2 )} La función f e s llamada cuasi-cóncava si .f es cuasi-convexa.

al tomar tres puntos en el eje x b la imagen del punto central no es ni mayor ni menor que la de los otros dos puntos colineales.. . Una función lineal es simultáneamente cóncava. convexa... Definición: Sea X un conjunto no vacío en En. x 2 . y una función a : En — E. es necesario conocer cuando una función convexa es diferenciable. porque si f es convexa entonces es también cuasi-convexa.. expresada rfix) ' como rj\x) ||x £/fx) f \ x ¡| - .V) +||x . el espacio Euclidiano en n dimensiones y sea f: X—> Entonces f es una función diferenciable en un punto x perteneciente a X si existe un \ e c t o r Vf(x) llamado el vector gradiente. x)= 0. cuasi-cóncava y cuasiconvexa.x | | es la norma del vector x . dado que cumple estas dos definiciones. La figura 2c) muestra una función que no cumple con ninguna de estas condiciones. x„. > tal que U\) l( -V) T Vf(x/(x .x .x 2 )-+.+(x„ .La figura 2b) muestra una función que es cuasi-convexa y cuasi-cóncava. pero el reciproco no es cierto.X ||(X...x. Este mismo criterio puede ser aplicado para funciones cóncavas y cuasi-cóncavas..)- y _ I os componentes del vector gradiente son las derivadas parciales de f con respecto a las variables x. Funciones Pseudo-convexas y Pseudo-cóncavas Antes de definir estos dos nuevos tipos de funciones. Lina función si es cuasi-convexa no necesariamente es convexa.. ||x . donde lima i >> (x. X) para cada x en X..

. Habiendo definido estos conceptos fundamentales analicemos las condiciones de óptima!¡dad para funciones convexas. x 2 en X con Vf(X|)' (x 2 . diferenciable en X. La figura 3 muestra algunos tipos de funciones pseudo-convexas y pseudoconcavas. cuasi-concavas. La función f e s llamada pseudo-convexa si para cada X|.X |) < 0 La función f es llamada pseudo-concava si -f es una función pseudo-convexa. Estas definiciones de funciones cuasi-convexas.» E . así como una que no es ninguna de las dos. Figura 3 a) b) c) a) Función pseudo-convexa. b j i unción pseudo-concava y pseudoconvexa. ) ' (X 2 . si f(x 2 ) < f(X|) entonces V f ( x . pseudo- convexas y pseudo-concavas se convierten en estrictas cada una de ellas si la desigualdad correspondiente de la dclìnición de cada tipo de función es estricta.X|) ^ 0 se tiene que f^x 2 ) ^ f(X|) o equivalentemente.Definición: Sea X un conjunto no vacío en En y sea f: X . c) Función que no es ni pseudo-convexa ni pseudo-concava.

5). si el problema es de maximización.y es una solución óptima a este problema si y solo si f tiene un subgradiente ^ ( x ) (x .Y) (X . donde f es una función convexa y X es un conjunto convexo no vacío en E„. . en base a lo anterior. El conjunto poliédrico convexo X es representado en la figura 4.5) sujeta a -x. se tiene que .Condiciones de optimalidad Teorema: Sea la función f: E n E h el problema Min f(x) sujeto a x € X. . x es una solución óptima si y solo si Corolario: El (. Asimismo. + x 2 ¿2 2x| + 3x 2 < 11 -x.3/2) + (x 2 . <0 -x2< 0 Solución: La función objetivo es una función convexa que representa el cuadrado de la distancia del punto (3/2.x ) ~ 0 y Vf(x) = ( x ) } Ejemplo: Para el siguiente problema: 2 2 Minimizar f(x) = (x.x) < 0 para todo x en X óptimas alternativas puede ser definido en x tal que conjunto de soluciones equivalentemente como X X*={ x e X: V f ( x )l (x .x ) > 0 para todo x en X.

-4) 1 Se observa geométricamente que e) vector (-1.l ( x .. x es el vector de n componentes X[.3/2].4 ( 3 ) + 13 = -13 + 13= 0 lo cual indica que (1. .5])'= (-1 . donde (x.. Entonces la condición de optimalidad establecida anteriormente f u e verificada. para problemas de programación no lineal. se observa claramente que el punto ó p t i m o es (1.3) es el punto óptimo. analicemos el concepto de los multiplicadores de Laurange. 3 ) tenemos Vf(x) = (x.1.(x) _ 0 i~ 1 ~ m donde f.3/2]. Condiciones d e Optimalidad de Fritz-John Antes de definir las condiciones de optimalidad de Fritz-John.3) Vf(x) . sujeta a g. g|.1) + (-4)(X 2 .4xi + 12 = -x. x 2 . 2[X 2 . g. x„ y la palabra optimizar puede significar m u x i m i / a c i ó n o minimi/aeión. . E l vector gradiente en el p u n t o (1.3) = .. Método de optimización por lagrangianos El problema a resolver es: Optimizar ffx.3) = -x. g m son funciones definidas en 1:. -4x-> + 13 m .1. Sustituyendo en el vector gradiente x = ( 1 . x 2 ) e X.3). 2[3 .. x 2 .3).. -4) f o r m a un ángulo < 90° con cada vector de la f o r m a (x( .3) es: Vf(x) = (2 [ X l . x 2 . + 1 .(2[1 .. ..De la figura.5])' con x = (1.

. m. el problema P de minimizar f(x) sujeta a \ en X \ I. Esto se realiza definiendo de la siguiente manera una nueva función objetivo. Considcn..¡g¡(x) 0 para i= 1.(x) < 0 para i ..jg. m.. Sea x una solución factible y sea I }i: g..f(x) . es decir que X. m..Y) = 0}.xn.... = 0 T e o r e m a : (Condiciones de I rit/-... para resolver este problema en teoría (dado que ocasionalmente es imposible resolverlo por métodos exactos y se requieren métodos de aproximación a analizar en los capítulos siguientes) hay que obtener todas las derivadas parciales de primer orden para cada variable e igualarlas a cero y resolver el sistema de ecuaciones resultantes F (X -0 d F =0 f b .(. C o m o el lagrangiano no tiene restricciones.0 d F = 0 . es equivalente a la función objetivo original f con n variables independientes porque se están restando únicamente ceros.El m é t o d o clásico para resolver este problema. y g: F„ para i 1. llamada el lagrangiano F ( x b x 2 .Kgm (x) E l lagrangiano F con m+n variables independientes..A.k 2 g 2 (x) ... es utilizando los multiplicadores de Lagrange (X¡)..lohn) Sea X un conjunto no vacío y sea f: F„-> F. g..0 ' v r F ok.• • • . cuando las restricciones están igualadas a cero (cuando son desigualdades este método requiere de ciertos ajustes que complican bastante la situación).Cx) .Xl. .X2 XJ .

supóngase que f y g¡ son d i f e r e n c i a l e s en x y que g¡ para i e 1 son continuas en x. es el vector cuyas componentes son u. m mencionadas donde u es el vector eu>as componentes son n.. u) * 0 para i=l. Además. para i £ I. > 0 para i e I (u 0 .Vg... u.. > 0 (u„..2Y x. P. entonces las condiciones anteriormente pueden ser escritas en la siguiente forma equivalente: m UoVf(x)+ Zu. Si x resuelve localmente el problema. i I ¡empio: Minimizar sujeta a 1 ¡ + (x~ .(x) = 0 > i u¡. u¡) * (0. 0) donde u. gj (x) = 0 u„.Vg¿x) = 0 IrX u 0 .. u..m. si g¡ para i e I son también d i f e r e n c i a l e s en x .Además. + x 2 < 5 x.. m para i=l.. + 2 x 2 < 4 -x. tales que u0Vf(x)+ £u.. <0 -x 2 < 0 Se tiene ta siguiente región factible . entonces existen escalares u 0 y u¡ para i e l .. para i=l .

Figura 5 (0. u/ Si U| u(.-2)' Vg(\) 4. / 3 y u 2 = 2 u 0 / 3 para cualquier u 0 se satisfacen las condiciones de Fritz- John dado que se encuentra un vector diferenk k cero (u ( . 1 )\ Calculando los gradientes para la Por lo tanto. hay que encontrar un vector diferente de cero (n 0 .u h u 2 ) > 0 . 2j para x función objeliu) \ restricciones Vf(x)-(-2.U|. para satisfacer las condiciones d^ ! rii7-John. 0 ) ivi 0) Las condiciones de Fritz-John se cumplen en el punto óptimo (2.u 2 ) > Ü que satisfaga / N M M J ' v N ur. .1). 21 (0. es decir aquellas que funcionan como igualdad en el punto considerado son I = {1. Nótese que el conjunto de restricciones activas.2)' V g 2 ( x ) = ( l . 2)' 2..

) 3 < 0 -x2<0 Gráficamente Figura 6 *7 Las condiciones de Fritz-John se cumplen en el punto (1.Ejemplo: Considere el siguiente problema Minimizar -x. 0)'. u 2 ) > 0.0)' Vg. El conjunto de restricciones activas en x es dado por 1= { 1 . 4}y se tiene que u.x. 2 } . sujeto a x 2 . Calculando los gradientes Vi(x) de lo cual \ (1.-1/ / 0' \ / N 0 + U2 + UI (s v<. Entonces las condiciones de Fritz-John son verdaderas en x lomando u 0 -() y u. u¡. Esta condición solo se cumple si u () =0. ( x ) = (0. u 2 0.0) 1 . Analicemos ahora si las condiciones de Fritz-John se cumplen en el punto (0. . 1) Vg2(x) = (0. El conjunto de restricciones activas e I ¡3. donde u es un escalar positivo para obtener el vector (u„. u 2 = a .(1 .

(-6. u 4 ) es diferente de cero. y sean i:E n ->L| Y gi:E n -^E| para i .(x) 0J. pero si u 0 >0 se tiene que restricciones de no negatividad.Además Vf(x) .1 1 m. Para pioblemas de programación no lineal las condiciones de Fritz-John y de K K T son necesarias \ suficientes para optimalidad cuando la función objetivo. . O)1 V g 4 = (0. Si F > g..-0 entonces u 3 =u 4 =0 lo cual contradice la condición de que el vector (u 0 . Condiciones de Optimalidad de Karush-kuhn-Tucker (KKT) En problemas de programación lineal el método Simplex se puede interpretar como un procedimiento sistemático para alcanzar un punto extremo óptimo de la región de factibilidad que satisface las condiciones de KKT. Si x resuelve localmente el problema . u 4 =-4u 0 .0) 1 . Para cualquier problema de programación lineal si un punto es óptimo es porque cumple con estas condiciones. -4)' Vg 3 = (-1. T e o r e m a : ( C o n d i c i o n e s de Karush-Kuhn-Tueker) Sea X un conjunto no vacío abierto en En. El origen no es un punto óptimo local. Las condiciones de Fritz-John no son suficientes para la optimalidad de los problemas de programación lineal. Por lo tanto las condiciones de Fritz-John no se cumplen en x =(0. u 3 . para cada i e I son diferenciabas x .6 u 0 . Sea x una solucion factible y denótese {i'g.-1)' Las condiciones de Fritz-John se cumplen si y solo si / + \li(A +U4 W 0 \ / 0\ = W u 4 <0 contradiciendo las entonces u . Por otra parte si u ( . las restricciones de igualdad se encuentran bajo apropiadas suposiciones de convexidad.

tienen las mismas características que el problema de minimización. m para i = 1.m g¡(x) < O deben existir escalares ui para i e I tal que m VUxJ+Xu. <=i U ¡U¡( * ) = O u¡ > O para i = 1.3 x : ) V f ( x ) = (3. 6)' V g .. v ¿ ' .x ' + 8x 2 . De la primera condición »i Yl(x) • Xu.g... tenemos que u^ u^-O. <0 x2<0 Verificaremos si se cumplen las condiciones de KKT en el punto (1... Calculando los gradientes Vf = l .Minimizar f(x) sujeta a x € x i=l.. Ejemplo: Para el problema Minimizar 10X] -2x.1) para determinar si es o no óptimo...x * sujeta a X[ + x 2 < 0 -x. ..(x) = 0 .1)' Como solo la primera restricción es activa. ( x ) = 11.. I-] conjunto de restricciones activas I = {1} ..Vg. m Estas mismas condiciones también son validas para que x sea punto óptimo para el problema Maxim i zar f(x) sujeta a g¡(x) > 0 i= 1 m donde f \ g..

+ x 2 < -3 X! >0 x2> 0 Para el punto (3.152 y u2 . + u 2 = -140 So tiene que Ui .-1) 1 Resoh iendo el sistema resultante -U| . Para 1.12. existe un problema que es estrechamente asociado con este llamado dual lagrangiano.i4oy Vfj(x) = (2. Dualidad Lagmngianu Dado un probloma de programación no lineal llamado primal.3) verifiquemos las condiciones de KKT.x 2 sujeta a -x. . . .(x)-(1. Ejemplo: Minimizar xf + xt + 12x2 + 6x 2 .3).{1.x 2 ^ -6 -2x.C o m o debe ser u. > 0 se describe un sistema incompatible.2U2 = -176 -u.x. x 2 . Por lo tanto el punto x = (1.2} u3=u4-0 :) Vg.x . iV no es óptimo.1)1 vf(x)-d76. dando a estos parámetros estos valores se cumplen las condiciones de KKT en el punto (3.

m i=l. 1 donde f. Problema Dual lagrangiano D: Maximizar 0(u.(x) I i X v 1 h (x) 1 + + Asimismo. E l multiplicador u¡ asociado con la restricción de desigualdad g. h¡: E n ->E] y X es un conjunto no vacío en E n . En este problema.(x) = 0 es no restringido en signo. dado un problema de programación no lineal.. las restricciones g¡(x) < 0 y h¡(x) pueden ser incorporadas en la función objetivo usando los multiplicadores de Lagrange u¡ y v¡. algunos problemas duales lagrangianos pueden concebirse dependiendo en cuales restricciones son lomadas como g.fx) . en tanto que el multiplicador v¡ asociado con la restricción h. Sean g y h las m y 1 funciones vectoriales con componentes i-ésimos g¡ y h¡. Entonces el problema dual consiste de maximizar el Infimum (máxima cota inferior) de la función Í(x) » < Xu..fx) < 0 v h. v ) ~ i n f j f ( x ) + ¿ u1g1(x) + ¿ v i h i ( x ) : x e x j Los vectores u y v pertenecen a E m y E b respectivamente.g. v) sujeta a u > 0 donde 9(u. g¡. respectivamente..0 .Estos dos problemas son dados a continuación Problema Primal P: Minimizar f(x) sujeta a gi(x) < 0 hi(x) = 0 i=I..íxj < 0 es no negativo.

x 2 > 0 Para este problema. la solución óptima ocurre en el punto (2.u = 0 x 2 .x 2 + 4 < 0 X|. La función dual es dada por 0(u) . Ejemplo: Para el siguiente problema primal Minimizar X|2+ x 2 2 sujeta a -x. . -x 2 + 4 y X = {(x b x 2 ) : x]? x 2 > 0}. Mediante esta técnica pueden resolverse problemas no lineales convexos o no convexos. .u/2 0.ux 2 : x 2 > Oj + 4u La máxima cota inferior se obtiene para 0(u) de la siguiente forma: Para x.y cuales restricciones son tomadas por el conjunto X. Esta elección puede afectar el valor óptimo de D (en un problema no convexo) y complicar el procedimiento que consiste en evaluar y actualizar la función dual c durante el curso de la resolución del problema dual. entonces X| = x 2 0(u) inf ¡ ( f ) 2 + ( f ) ~ + i / ( .^ + 4 ) : x .ux. . \ derivando de la función anterior 2x.x 2 + 4) : x. u/2 2x 2 .inf |X| 2 + x 2 2 + u(-x. También en problemas de optimización discreta donde todas o algunas de las variables pueden ser restringidas a ser números enteros. de lo cual si u > 0 \: lo anterior es válido si u > 0. . > 0} + inf !x 2 2 . Si u < 0. x 2 > o) . 2) con valor objetivo igual a 8..u = 0 X. Sea g(x) = -X. : x. x 2 > 0} .inf ¡ \ f .

(4. 4). Ejemplo: Para el problema de minimización Minimizar f(x) sujeta a -2\ + X] + x 2 -3 = 0 (Xj.{(0. 1). (2.O + 4)¡ = inf {4w} = 4v Í AH si ii O j'n'+JII si ll ¿ O El valor máximo de 9 (u) se obtiene para u = 4 . 4). Aquí surge otra diferencia entre los problemas de programación lineal y no lineal. que mientras en programación lineal los problemas primal y dual tienen los mismos valores objetivos óptimos. 2) y (2. (1. entonces 8(w) = 8. 2). 0). 1 De los seis puntos solo cumplen la restricción de igualdad ( I . .0(u) = inf { f u 2 + 4u} = 4 u 2 + 4u Si u < 0 9(u) = inf {O2 + O' + i/(-0 . (4. El valor objetivo mínimo óptimo es -3. 0). en la mayoría de los casos no es valido. pero esto. x : ) e X donde X . en general el valor objetivo óptimo del primal es mayor o igual que el valor óptimo del problema dual. en programación no lineal. los problemas primal y dual tienen el mismo valor objetivo óptimo y por lo tanto es posible resolver el problema primal indirectamente resolviendo el problema dual. Los valores óptimos de los problemas primal y dual son ambos iguales a 8. 1) de los cuales el óptimo es (2. Bajo ciertas suposiciones de convexidad y teniendo como requisito apropiadas restricciones. (0. como en el ejemplo anterior.

3 ) : ( x „ x 2 ) e X} inf {-2X| + vX|i x.1.X 2 = {0. tomando el punto (4. y x 2 . -5) ( 1.0.-3v Entonces . 2 .inf {-2(0) + 0 + v(0 + 0 .La función objetivo dual es dada por G(v) = inf {(-2X[ + x 2 ) + v(X| + x 2 . e igualando a cero se tiene -2 + v = 0 v =2 l+v-0 v — -] con v < -1.3)} .1 < V <2 -3v si v > 2 La gráfica de la función dual es mostrada en la figura 7 y la solución óptima es v = 2 con valor objetivo -6 . 4 } Derivando la primera y segunda ecuaciones con respecto a x. tomando el punto (4.4 + 5v -8 + v SI V < - si .inf {-2(4) + 4 + v(4 + 4 .-9) 0 (v) . para minimizar.0) 9(v) . tomando para minimizar 9(v) el punto (0. 4) v sustituyendo en la ecuación 0(v) .3)} .) se tiene 6(v) = inf {-2(4) + 0 + v[4 + 0 -3]}= inf {-8 + v) = -8 + v SÍ v 2. Figura 7 (2. respectivamente.inf {-4 + 5v}= -4 + 5v Para -1 < v < 2. e X|} + inf {x 2 + vx 2 : x 2 e X }-3v con X | .

u + si 2 < u < K siK < n < 3 si 3 < u 17 2n + 20 para la función dual el valor óptimo es u . X.5x 3 + 7): x. = 0 ó 1 El valor mínimo es calculado haciendo Xj = 0 si este coeficiente de costo reducido es positivo y haciendo x¡ = 1 si el coeficiente de costo reducido es negativo.Ejemplo: Para el problema Minimizar f(x) = 3x¡ + 7x 2 + 10x 3 sujeta a -x.5u)x 3 + 7u} X. x 3 = 0 ó l } R inf{(3 .7X2 + 10x 3 + u(-x. x 2 .. XY = 0 Ó 1 La función lagrangiana dual obtenida a partir del problema anterior es : 9(u) = inf{3x. .5x 3 + 7 < 0 X|.. x-.. E l resultado es la familia de soluciones X) 0 < u <2 2<u <73 7/3 < 3 < u u < 3 x2 0 0 1 1 Xi 0 0 0 1 0 1 1 1 de lo cual tenemos que si 0 < u < 2 2w + 1 0 0(u) .3x 2 . .7 3 y su valoi objetivo y su valor objetivo es igual a 44 3 . .3x 2 . X 2 . + (7 -3u) + (10 .u)x.

A continuación analizaremos algunos de los métodos de búsqueda que existen para resolver problemas de programación no lineal no restringidos. después de presentar algunos conceptos fundamentales. Existen métodos de búsqueda del valor óptimo de una función f(x) que pueden ser aplicados para funciones de una ó varias variables. entonces (para el caso de nviximi/ación). es decir l'(x)<f(\*) para loda \ Dada una función f(x) estrictamente unimodal y dos puntos x( > x_ con x. usando derivadas o sin usar derivadas. cuando tiene un solo punto mínimo o máximo. Si Kx) es estrictamente unimodal. < x 2 . que trata el problema de minimizar o maximizar una función en ausencia de cualquier restricción. existen tres posibilidades a analizar para efectuar la eliminación. Por cicmplo para el caso de maximización .CAPITULO 5 OPTIMIZACION NO LINEAL SIN R E S T R I C C I O N E S Métodos de búsqueda U n o de los principales campos de la programación no lineal es el de la optimización no restringida u optimización libre. Métodos de optimización de funciones unimodales de una sola \ariable en problemas no restringidos Definición: Se dice que una función de una sola \ a r i a b l e es unimodal. para x( < x 2 < x* entonces f(x.) < f(x 2 ) < f(x*) > x* < x 3 < Xj entonces f(x*) > f(x 3 ) > f(x 4 ) siendo x* el valor que optimiza la función f(x).

< x* < x 2 Suponiendo que se requieren hacer k evaluaciones de una función f(x). y x r los puntos a la izquierda y derecha de x p . La distancia x r . que es estrictamente unimodal. . se denomina intervalo de incertidumbre. < x* < x r . f(X) x 0 Xt Xp xr xn Una medida de la efectividad de los métodos de búsqueda de puntos óptimos en funciones unimodales de una sola variable es la siguiente: B ú s q u e d a en un intervalo con d e r i v a d a s Método de búsqueda de Fibonacci El método de l-'ibonacci es un método de búsqueda en un intervalo para minimizar una función estrictamente cuasi-convexa. Obviamente el punto óptimo x* debe encontrarse en el intervalo x. respectivamente. sea x p el mejor punto obtenido y sean x.x. sean x 0 y x n los extremos izquierdo y derecho del intervalo de búsqueda. respectivamente.) = f(x 2 ) entonces x.a) Si f(X|) > f(x 2 ) entonces x* < x 2 b) Si f(X|) < f(x 2 ) entonces X| < x* c) Si fl^x.

un punto m í n i m o o m á x i m o en funciones unimodales de una sola variable..b .1) F -2 A.Se efectúa la eliminación de la forma siguiente (para el caso de minimizacióni.( Í + 1) Ftl . entonces .H i m i n a r el intervalo x 2 < x *-.hacer x 2 = x 3 y f(x 2 j Xl X.Hacer b = x 2 .Con el porcentaje de aproximación requerido. !'(\|) f(Xj) f í x j en caso contrario. .) > . entonces .Se continua con el paso 6 Si f(X|) > f(x 2 ).a + A h x 2 = b .I lacer I .. =Lo — se calcula A para i = 1 4.a + A ( y evaluar f(x 3 ) .x. a < x* < b. Este método tiene la ventaja de que. Lo . se determina el valor de F n .Con la expresión A-Li-1 F " . b . y se procede a evaluar f(x.Se procede a calcular los valores de xh x2> x . -Hacer x .. . 2 . como no utiliza derivadas.I lacer i b-a i i. f(x 2 ) f(x.Este método es bastante eficiente para aproximar..Con el intervalo de búsqueda dado inicial.. puede calcular puntos óptimos en funciones no d i f e r e n c i a l e s . Si f(\[) t'(x : ). 5.N i m i n a r el intervalo a < x ^ \ . hacer x 2 . b a j o cierta tolerancia de error.a 3.Si .(i .l y calcular A. que deberá de utilizarse. Este método supone que se conoce un rango inicial de búsqueda. Procedimiento 1.\| < x.) \ f(x 2 ). se d e f i n e el valor inicial L..A.

2353 Aproximación F : 3.Se continua con el paso 5 hasta que i = n .b .6x + 2 con un 3% de error o menos.0000 0.0769 0. f(X|) = f(x . f(x 2 ) = f(x 3 ) en caso contrario. en el rango 0 < x < 10 n 0 1 2 3 4 5 6 7 8 9 Fn 1 1 2 3 5 8 13 21 34 55 1/Fn 1. ) y x 2 = x 3 .os cálculos para obtener esta solución se presentan en la siguiente tabla .Se continua con el paso 6 6.9412 x 3.0182 (margen de error) I a solución x* esta en el intervalo -2.0294 10-0 I 1 valor mínimo encontrado para la función es: -6.Si x 2 < x 3 hacer X[ = x 2 . Ejemplo: Encontrar el punto mínimo de la función unimodal f(x) _ x 2 .0476 0.0000 1.1250 0.1.Hacer L j = b .996 I..5000 0 3333 0. = x 3 y l"(X|) — f(x 3 ) . hacer x.Hacer x 3 .Hacer a = X| ..Hacer i = i + I y calcular Ai .942 — = 0.02 l )4 0.2353-2.2000 0.A¡ y evaluar f(x 3 ) .a .

r-l cc sO f O o Cs sO r-i O >n r« *t (-1 o xi O O O O O rl C ro O 1 4706 2.C X — oo co cs •n co tS 00 C O 8235 . o -r C S 00 oo o .3529 > r.3529 C S ~t Cs es C S cri CS oo 00 - ro r) 1—*CS -t Tt Cs C S r- o< N sC C o S m rco T T C S CS T CS « A C O C S r-l t -t Os r-l r-J -rf O S C r-i S TjOs <s c \o O t» t T fn — C S C Tf O 00 Os S •n C — -r 'r. \r.2353 £ o o as o co 00 co C 00 S C VI O so 1 C S O 00 — C o C i— O C ÎC vo zc S •Ä C U1 O ^ >£> t 1 so <n VI C O S pi r. co C S oo S co O 1/1 V. * "3 V ra >n o >o oû rV o o o i i — io se rso V X V «n co es »0 co >o o r» V o o o o o V os <o (S ro N •n C ro 00 C C S O V V X ? V S C O O O VI O r. C O (S C O 2 647] O Li in so V.3 co i 00 <n Os O S O so 7 «n so Os Os •o 1 <s It Os es IO C O (S 00 co V X V Os es •o C O C S \o rf Os S O C O C O <s C O C O T) C O C S -t <n t00 SI O 1c — tTf sO C S S O Os Os Si O C S -t o-.3529 cS C O C O in c C O >r. C S C O W| C O CS C O V X V C S 11 — -1O N <s r-l^ — -t Os < N V X V rso C S S O Os Os S O IT) sc Os Os sc i n X <n o >o r2P S eá $ X o V o Z Os \o r-J o •O tro rt «S en es 00 V o »o co es 00 sO o r- V V X s C O <o C O C S C O V X X V V Os l-H es r» «n Tf co S O C C N S rS O C S V x V Cs C S in C O C S S O Os Os sj £ > m r» 00 S O (S U. O r 1 rl .C CS C O •n so so t Cs C O S S S so O 1 <n S O Os Cs S O .23 53 2. C rr. ve ro r.

1 .0..a y los \ alores de Xj y x 2 x? I(b-a) a v se procede a evaluar f(x t ) y f(x 2 ) 0. Si el rango de incertidumbre original es: a < x < b..'1 )( b . el proceso reduce este intervalo en cada evaluación. en un valor constante T (representa la letra griega tao) Este valor constante llamado "Sección de Oro" se calcula de la siguiente manera: Supóngase que se esta examinando el intervalo de búsqueda a < x < b con dos valores X| y x 2 conocidos.a ) ' a .Método de búsqueda de la Sección de Oro Este método también requiere que la función sea de una sola variable y unimodal que sea estrictamente cuasi-convexa. resolv iendo se tiene que T = 0. a < x* < b y el valor de T calcula Lo x| b . b 1— s \ | U 1 t | V Sea 7 - )• I donde r 1 > entonces u - si al hacer la búsqueda se eliminara el rango x 2 < x < b lo que se requiere es que en la siguiente evaluación se mantenga el valor de T para encontrar el nuevo v <tlur de u r s r r _ s r r r 1 1 ] I T I de donde se obtiene la ccuauón ! . se ( 1 .6)8.Con el intervalo de búsqueda dado inicial.61 K Procedimiento 1. tales que a < x < b Gráficamente a xi — —I— X9 F .Establecer el valor de la aproximación que se requiere le) 2.

8722 — = 0.b .6655 Aproximación 0.a 5 -(-1) .) . y f(x 2 ) = f(x.6655--0.3.Hacer x 2 _ x.Continuar con el paso 4 4.) . entonces .Calcular x 2 = T ( b . la solución esta en el intervalo -0.os cálculos e iteraciones del método se presentan en la siguiente tabla. Partiendo de ello. = ( 1 . en el interv alo -1 < x < 5 Lo .Calcular x. entonces .Si b—a Lo < e s e ha cumplido la tolerancia.Hacer b .8722 x -0. Ejemplo: Encontrar el punto mínimo de la función unimodal f(x) ~ 5x" + 8x .0344 .a ) + a .Evaluar f(x.Hacer X| = x 2 y f(X|) = f(x 2 ) .Evaluar f(x 2 ) .a ) + a .x 2 .T )( b ...Se efectúa la eliminación de la forma siguiente (Para el caso de minimización) Si f(X]) > f(x 7 ).6 I. en caso contrario continuar con el paso 3.Continuar con el paso 4 S i f ( X | ) < f(x 2 ).Hacer a = xx .2 con un 5% de error o menos.

( ? V X X V V c vi D 0 So o-i s O — 00 o N r. f. X ir. o O o — o 00 o t(Ñ S D C N <s < N C r* m C3 T f — Nuevo Rango ir. A e.Cs N X X se •c Ci se ( fS -1r in i N »/• </~. (N s£ -r ¡r T r" n Cs -T T rT r~ S O "l A >n S sD D < 'A £> •r cC O O M —r rrN <r. sZ sC C T r-J r^ x C i /-.< 1 O ce ri ir-. fi / ro dC O o rj 00 so cs n' f O S ( fN (N X sC r. ss se < v ? N cl T V X X V V V V X X X V V V \X V V V (-1 1 • i n •n v. e. y.cs m T CJ oc <n l/"l vi C T O i C N cc C v CI i r^ v cO c oo S T -t 'A <n r i O Os C -o O "O O 2 c-t o < ci N X s D ir. x O ri C n r-l •o -r ri -T — T X V -T J " . C ^ -r 50 n -r T ra • .•es Lo o o oo Cs C — (N sO Tf < 00 m Ci >o C. S -r E C N N Cs C oc rJ >n r-r 50 e O 1 V "T V V X V X X x \ 1 V V T. -r r4 n O n C >n se -T ve oo i o zc o e o TU G < U c re e c — in i• V X E ra V -OH •— O o < U c/l c3 (Ñ O S N t. i r.

2. a < a * < c. 16 a. se utiliza para resolver estos problemas de programación no lineal el método de interpolación cuadrada. Definición: Una función de una sola variable es multimodal si tiene mas de un valor óptimo.50x en el punto x dirección s 1 como valores iniciales. como en las funciones multimodalcs. otc. Para funciones multimodales no d i f e r e n c i a b a s en los puntos de discontinuidad. 3.Evalúe g ( a ) para 0.Dados valores del punto arbitrario x y una dirección arbitraria s. se encuentra en el rango a < a * < c.Lna vez que se conocen los valores de g(a).... 4.x"1 . dado por: a I u(a)(c 2 -b 2 ) + i i l b K r ^ e J . El valor óptimo de i. c. si g ( a c ) > g(b) se loma a * ~ b.qtc)lb"-a 2 ) 2 g(a)(c-b) + g(b)(a-L) -t g(c)(b-a) Si g ( a c ) < g(b) entonces u* = a c . De otra manera. 3 y la . 2. ya sea máximo ó mínimo. 1. donde c es el primer \ alor de a para el cual g ( a ) se ha incrementado.Método de Interpolación Cuadrada Los métodos de Fibonacci y de la sección de oro son utilizados para funciones unimodales. ~ Kjcmplo: Minimizar la luncion Kx) . g(b) y g(c) se ajusta un polinomio cuadrado a f(x) y se calcula el mínimo local del polinomio. Procedimiento 1. pero si una función no es de este tipo. no pueden aplicarse los métodos anteriores. b. 8.l()x% t 35x 2 . evalúe g ( a ) = f(x + a s ) El punto x es el punto de partida de la búsqueda del óptimo local. mientras que s es la dirección de búsqueda.

= 1 g<a)(c z -b 2 ) ^ q(b)(a 2 -c Z i + q(c)(b : -a 2 . b = 1 y a = 0. Pero dado que g(ot>.b) .0 ) g(ae)-g^0-50) -24.2 V 0 ( l z .l ) . Sustituyendo los valores citados de a. Fase 3 El mínimo a c del polinomio cuadrado se calcula con la formula anterior.50(3 + a ) Fase 2 a 0 1 2 g(a) -24 -24 0 En 2 el valor de g ( a ) se incremento.10(3 + a ) 3 + 35(3 + a ) 2 . 2 g(a)(c .f<x " a s ) f(3 + a ) 0.O2) . b y c a . .50 Por lo tanto el mínimo aproximado de la función original es: x* = 3 f u * = 3 + 0. Se tiene que 0<oc*<2.Fase 1 g ( a ) = f(x + a s ) = f(3 + a ) = (3 + a ) 4 .94 Como g ( a c ) < g(bi.5) -24. 5 0 2 ( ..2 ) + 0<l .2 4 ) ( 0 .5 = 3.5 y f(x*) f(3.g(b)(a .c) + g(c)(b .a) I (-241(2" . se tiene que oc=a.2 4 ) ( 2 . Por lo tanto c = 2.94.0 .n + (-24)f0 2 .( .

si f(x k ) > 0 y continuar con el paso 4 si f(x k )-' 0.x k . Esto es. Si f ( x k ) = 0 parar.Sea a k +l 5.Búsqueda en un intervalo con derivadas Método de bisecciones sucesivas.. b k +IJdc lo contrario reemplazar k por k 4 1 y repetir el paso 2.1 \ continúe con el paso 2.Si f ( x k ) > 0 .x k ) > 0 y por pseudoconvexidad de f tenemos que f(x) > f(x k ).l/2(a k + b k ) y evalúe f(x k ). tal que el nuevo intervalo de incertidumbre [ak + 1. b j ..Supóngase que la derivada f ( x k ) es conocida y considere los siguientes tres casos posibles: 1. Sea k . En la k-esima iteración.x k )>0. xk y b k +l ~ b k . Obviamente la localización óptima de xk es el punto medio l/2(a k + b k ). se tiene que f(x k )(x . . entonces por pseudo-convexidad de la función f. xk es una solución óptima. 2. Además supóngase que f(x) es pseudo-convexa y diferenciable. ~ n parar. La posición de x k en el intervalo [a k .Si k ak y b k +l ~ x k . b k 1. Procedimiento 1.. b | ] el intervalo inicial de incertidumbre y sea g el intervalo final de incertidumbre. Supóngase que se desea minimizar una función f bajo un intervalo cerrado y acotado. sea el intervalo de incertidumbre [ a k . Continuar con el paso 5. entonces para x <x k .. tal que f(x) > f(x k ). 3.a k y bk .Sea ak-ul 4. el mínimo se ubica en el intervalo |a k +l. 3. x k es un punto mínimo. Entonces el mínimo se encuentra a la derecha de x k . b k ] puede ser elegida tal que la máxima longitud posible del nuevo intervalo de incertidumbre es minimizado. entonces para x > x k . b k ]. x k puede ser elegida tal que minimice el máximo de x k .. el mínimo se encuentra a la izquierda de x k . Sea n el menor entero positivo tal que (l/2)n < £/b r a. b k + l ] es dado por [x k ..Si f (x k ) = 0.Sea f k . En otras palabras.Sea [ai. tal que el nuevo intervalo de incertidumbre [a k +l.. b k + 1] es dado por [a k ..Continuar con el paso 5. 2. De lo contrario continuar con el paso 3. f(x k )(x .Si f(x k ) < 0.

.-a.2/9 .0.3125 -1.7500 -0. Este mínimo local se obtiene en tres pasos o fases.8907 *k 1.Ejemplo: Minimizar f(x) = x" + 2x sujeta a -3 < x < 6 Reducir el intervalo de incertidumbre a un intervalo cuya longitud £ es menor o igual a 0.0222 para n = 6.8907 f(Xk) 5.5000 -0. tal que el mínimo puede ser tomado como el punto medio del intervalo -0.7500 -0. tal que la función g(a) f(x + a s ) obtenga un mínimo local. El punto X es el punto de partida de la búsqueda de los óptimos.6250 0.7500 -0.2.0.750 -1. -0. La siguiente tabla resume los cálculos usando el método de bisecciones sucesivas. El numero de observaciones n satisface (l/2)n < £/b.6250 -0. mientras que s es la dirección de búsqueda.0000 1.875 -1. donde X y s son valores iniciales arbitrarios.000 -3.7500 -0.3125 -1.0000 0.8750 -1.0313.961.(-3) .5000 -1.0313 El intervalo 11 nal de incertidumbre es [-1.000 -1.7500 -0.2/6 .8907].0313 -1. denominada a * .500 -0.2186 -3. El método consiste en encontrar un valor óptimo de una variable a .000 -3. Método de Interpolación Cubica Este método a diferencia del de interpolación cuadratica requiere que la función sea diferenciablc.0313 -0.0. . Interacción k 1 2 i j 4 5 6 7 bk 6.

El valor óptimo se encuentra en el rango a< a * < b. si g(a) < g ( a e ) o g(b) < g(a e ). g(b). 3. entonces se acepta que a * = a e .a ) (1 f u / 1 .2. g'(a) y g'(b).16. b. se repite el mismo procedimiento en el intervalo a < a * < b donde a = a y b = a e .4.5 0 ( 1 + a ) . Fase 1 g(tt) . manejando un valor aproximado. donde b es el primer valor para el cual g'(a) es no negativo ó g ( a ) no ha decrecido. es decir.a ( D ) 1(1 .30(1 +a) 2 h 70(1 + a ) -50 . se repite el mismo procedimiento en el intervalo a < a * < b.1.Se ajusta un polinomio cubico tomando en consideración los valores g(a)... ( a ) _ 4( l + a ) 3 ..a. . Si no. E l valor mínimo a * se representa en esta iteración por a e . donde g'{b) + W-Z W = (Z2-g\a)g-(b))12 Si g(a) ó g(b) no son menores a g( a e ) .f(x + a s ) tí 1 .50x. entonces: a) si g'(a c ) > 0. E j e m p l o : Encontrar un mínimo local de la función unimodal de una sola variable f(x)=x 4 -10x 3 + 35x 2 ..8.U)(l + a ) 1 + 35(l + a ) 2 . donde a = a c y b = b.Procedimiento 1 D a d o s valores arbitrarios de x y s evalúe g(ct) = f(x + a s ) 2.. Regresar al paso 3 b) si g'(a fi ) < 0.. tomando como valores iniciales x = l y dirección inicial s = l .Evalúe g ( a ) y g'(a) para valores de a igual a 0. Regresar al paso 3.

39 = f(l + t?0' = el óptimo relativo es: c o m o g(o«C) = 1 + cK. 1.39 . se -24 -24 tiene Se el 1° tanto 1 y a = 0.39) y e )<g(a) sea g í ^ X es acepta que decir.29) 0.29 + 4 " \ 2 + 6 + 2(5.39. 3 z = tiene O ^ ^ ^ l . o<. 3 9 = f ( 1 • 39 ) = x = 1.* = D<é = Por lo tanto. x* f ( x *) Valor mínimo 0. -25.* = 1 + 0 .29 fh + 2w \ } ti " 0) a) ' ( b ) g'tb) + - 7 2 g'(a) * = = g(<*e) Como g(^ / 2 + 5. + g1 ( a ) 3 (z2 .g'(p<) Fase 2 = 4(1 +|*)3 - 30(1 +K)2 + 70(1 +*) " 5 0 g(p<) g'feO -6 2 primer que valor donde g' 0• P o r 0 1 Para b = Fase cK= 1.2 4 + 24 1 .0 6 + 2 = 1 + -4 g'(b) = W = = = ^ g ' í a j g ' í b ) ) - ^ ((-4)2 (16 b i " (_6)(2))l/2 2 + 12)1/ g = W 5.39 = -25 g(b) entonces el mínimo l o c a l c<* se = 9(0.

Trazando una tangente en el punto (x„ f(x.)) esta dada por la primera derivada de la función evaluada en x.y —• x.. f(x¡)) esta razonablemente cerca de la solución exacta y que la pendiente en dicho punto es diferente de cero. se procede de la siguiente forma: i . Para su aplicación se requiere conocer un valor de "x" cercano a la solución y que para este punto el valor de la primera derivada sea diferente de cero.x 2 Como para x^ el valor de y = 0. f(x. tal y c o m o se ilustra en la figura 1 Para obtener la ecuación que representa el algoritmo de solución.Para encontrar el valor X2 (ver figura) considere que el punto (X|.Método de Newton-Raphson Este método es también llamado "Método de Newton de Primer O r d e n " o "Método de las Tangentes" y se utiliza para encontrar la raíz de u n a ecuación.. y la pendiente de la tangente en el punió (x. .)) de tal forma que cruce el eje X. entonces: . el \alor de la pendiente de dicha tangente esta dada por: Pendiente de la tangente x ) .

) ' 2. ya sea mínimo o máximo.En forma similar se tiene que. Entonces. esto equivaldría a que para el valor de "x" para el cual f(x) es igual a cero. también puede ser utilizada para determinar el punto en el que se optimiza una función no lineal. Supóngase que se tiene una función no lineal de una sola variable que puede ser multimodal. dicho valor esta dado por la siguiente ecuación: x 2 = x. f(x 2 )) se obtiene: f(x. De tal forma que si graficanios la función f(x) = g'fxj y aplicamos el método de Newton-Raphson para encontrar la raí/ o ina de las raíces de f(x). trazando una tangente en el punto (x 2 . para la cual interesa determinar alguno de los valores que optimizan la función.. 2 . .) Aunque el método de Newton-Raphson es utilizado para encontrar la raíz de una ecuación. la pendiente de la función g(x) es cero.) i .) 3.Xa Por lo tanto. podemos afirmar que en el punto en el que la función loma un valor óptimo.Generalizando el procedimiento anterior. ' f(x.. el nuevo valor x 2 mas cercano a la raíz puede ser calculado si se conoce el valor de la primera derivada en el punto donde se trazo la tangente. se tiene que la formula del algoritmo para este método esta dada por: X • -X f'(x„-. la pendiente de la función g(x) también es cero (g'(x) 0) y si para esc valor de "x" la pendiente de g(x) es cero. entonces se trata de un valor óptimo de la función g(x).fTx ) Pendiente de la tangente = — = x f (x. en un problema no restringido.

-.g'(x) y aplicar la ecuación general: X .X ú — g'(x. .Si a partir de un valor conocido de "x" se desea encontrar un valor que optimice la función dada g(x). se procederá a hacer: f(x) =-.. a partir de la función g(x) esta ecuación puede expresarse como: X .i ^ l l " ftx.) o bien. entonces aplicando el método de Newton-Raphson.X .) El diagrama de flujo del método de Newton-Raphson se presenta a continuación.

/ !Xi,

1=1 N, I>N i -> ! I=1+1

V \/

! NO HAY CON ¿VERGENCIA _ /

i

\/ ===*==> FIN

======>I POX 1 = 9 ' ( X I )

I ! i I \ \l >o I

J" I

POX i X2 = XI SOX I IPDX2 = g ' ( X 2 ) l < :

_\/ X I , X2,

jL

I
\

I

A í Ü
=0 \
\

i ! >0 .,
/' \

/

'l J

/

i r \w i Í .-,-.
\
/
^

\

=U

;

u

Ejemplo: Encontrar un valor óptimo de la función g(x) = (80/x) + 20x + 20, a partir de los siguientes datos: x, = 1, E = 0.00001, N =. 15 y s = 100

-80 f(x) = g'(x) = — + 2 0 X

16( f (x) = g (x) = — X

Los resultados se resumen en la siguiente tabla:

1

x,

PDX,

SDX,

x2

PDX2

D 0.37500

R

R-L

|PDXJ|-E 22 31404

S 0.3750

g(X3)
105 68182

1 1 Ü000
2 1 3750

•60 00000 160 00

1.3750 -22 31405

0.00375 -0 99625

•22.31405

61.55

1.7375

-6.49817

0 36255

0.96680 -0.03320

6.49816

0.3625

100.79285

3 1 7375

-6.49817

30.50

1.9506

-1.02587

0.21305

0.58765 -0.41235

1.02586 0.2130

100.02502

4 1 9506

-1 02587

21 56

1.9982

-0.03635

0 04759

0.22335 -0 77665

0 03634

0.0475

100 00001

5 1.9982

-0.03635

20.05

2.0000

-0.00005

0 00181

0.03810 -0.96190

0 00004 0.0018

100.00000

6 2.0000

-0 00005

20 00

2.0000

0.00000

OO 0 O O O 0 00136 -0 99864

-0 00001

100 00000

para x = 2, el valor óptimo de g(x) sera 100. Ejemplo: Encontrar un valor óptimo de la función g(x) = 2x 4 - 7x"' los siguientes datos: x, = -1, E = 0.00001. K - 15 y S = 100 4x - 2, a partir de

f(x) - g'(x) " 8x 3 - 21x 2 + 4

f (x) = 24x 2 - 42x

Resumiendo las iteraciones y resultados, tenemos la siguiente tabla a continuación:

]

x,

PDX, -25 00000 -6 02182 -1.00234 •0 05577 -0 01)021

sdx, 66.00 35.35 23 82 2! 18 21 02

x2
-0.6212 -0 4509 -0.4088 •0.4062 -0.4061

PDX2 -6.02182 -1.00234 -0.05577 -0.00021 0.00000

D 0.3787«) 0.17034 0.04209 0.00263 0.00001

R

R-L

|PDX2|-E 6.02181 1.00233 0.05576 0.00020 -0.00001

s
0.37879 0.17034 0.04209 0.00263

g(x2)
-2.50890 -3.07249 -3.10112 -3.10119 -3.10119

1 -1 0000 2 3 4 5 -0.6212 -0.450<> -0.4088 -0.4062

0.00379 -0 99621 0 00170 -0 99829 0 001)42 -0 99957 0 00003 -0.«)9997 0.00000 -0.99999

Para x = -0.4061, el valor óptimo de g(x) sera: -3.10119

Métodos de busqueda multidimensional Optimización de funciones sin usar derivadas Una de las grandes desventajas de los métodos que emplean derivadas para funciones de varias variables es que en estos es necesario evaluar el gradiente y en varios casos, también el Hessiano. Otro problema en consideración, en el caso de que la función sea diferenciable, es el evaluar analíticamente en cada iteración las funciones contenidas en el gradiente y el Hessiano. F.sta tarea de evaluación analítica, puede ser mu> laboriosa y en ocasiones imposible, sobre todo cuando se trate de funciones complejas con muchas variables independientes. Hay métodos numéricos que permiten expresar estas derivadas por procesos que no son analíticos, y por lo tanto se puede eliminar este problema. La gran desventaja con los métodos numéricos es el error de redondeo que introducen y. que acumulado en un gran número de operaciones e iteraciones, puede generar resultados bastante alejados de los óptimos reales. Por este motivo, se han desarrollado una serie de métodos iterativos que. sin ser tan eficientes en cuanto al número de iteraciones necesarias para alcanzar un óptimo como los métodos basados en el gradiente (que veremos posteriormente), tienen las siguientes ventajas:

a) No requieren de gradientes y Hessianos. por lo que sirven tanto para funciones d i f e r e n c i a l e s como no d i f e r e n c i a l e s

De otra manera. entonces el método converge a un estacionario.. continuar con el paso 2. Mas específicamente.b) N o requieren de métodos numéricos y por lo tanto su error de redondeo se reduce considerablemente. Analizaremos ahora algunos de estos métodos. el método busca a lo largo de las direcciones d ] v . punto Procedimiento P a s o 0: Elegir un escalar e >0 para ser usado para saber cuando terminar el algoritmo como margen de incertidumbre y sean dj d„ las direcciones coordenadas. donde dj es un vector de ceros. Si ||x k+ | . Elegir un punto inicial x.. sea j = 1.. la variable x. sea y. una solución óptima a el problema de minimizar la función f t y + /. y sea yj+1 = yj +Xjdj.. De lo contrario sea y¡ = x k+] . es cambiada mientras todas las otras variables quedan fijas. Si j<m.xk|¡M:. P a s o 2 : Sea x ^ i . parar. . excepto por un 1 en la coordenada j.d.v n+ |. Método de Coordenadas Cíclicas Este método usa los ejes coordenados como direcciones de búsqueda.d n . = x |5 k = j = 1 y continuar con el paso 1 Paso 1: Sea A.) sujeta a \ € E. si j n. reemplazar j por j+1 y repetir el paso 1. Asi. Si la funcio'n es diferenciable. reemplazar k por k + 1 y repetir el paso 1. a lo largo de la dirección de búsqueda dj.

1). En cada iteración los vectores y t y y2 son obtenidos mediante la representación de u n a linea de búsqueda en las direcciones (1. 0.05 -0. l . 1. 1.3. 1. 1.17) (2. 1.14) (2. 1. De hecho.44.02 -0. 1.14) (2.03 -0. muy cercano del valor óptimo 0. 1.03 -0.35.3.0.22.00) (3.31) (2.63. 1.04 -0.56) (2.00) (3. se presenta en la siguiente figura. 1.0) (1.00) (3.22.0) (0.00) 52.o) (0.0) (i.35. (ver figura 2) . haciendo s mas pequeño.004 La ilustración de este método.22.1.09 -0. 1. 1.44.22) (2. 1.0. para este ejemplo. 1.12) (2.56) 1.29.13.007 7 (2.22) (2.14) (2.n. 3. 1.1 2 Ejemplo: Minimizar (X| .0.0) (0.0) (O. podemos hacer que el valor optimo sea mas aproximado a 0. 1. 0) y (0.31) (2. 1.14) 0.14) (2.17) (2.2x 2 ) partiendo del punto inicial (0. 0.17) (2.31) (2. 1.44.00 j 1 2 1 2 1 2 1 2 1 2 1 2 l 2 (1.01 (3.12) (2. Iteración k 1 x¡ RX) (0.0) (0.29.63. 1. 1. 1. 1. con punto óptimo (0.13.22) 0.0) (1.44. 1.22.2) + (X| .29.63.25.17) 0. 1.0. 1.12) (2.3.3).63 j (2. pero utilizando un numero mayor de iteraciones.44.25.0) (1. 1.00. 1.29.31) 0.19 -0. Para el punto (2. 1. 0).25. 1. 1.22) (2.13.63.015 6 (2.35. 1.09 -0.16 4 (2.0) (1.35.06 -0. l l ) 2 (3.13.12) 0. 1.0.0.0.0) (0.25 -0.11) la función objetivo tiene un valor de 0.35.56) (2. 1.25.31) (2. 1.0. 1.22) (2.0) y¡ (0. í.0.29.0.13. 0.44 -0.o.56) (2.0.o) (1.13 -1.0.17) (2. 1.0.04 5 (2.12) 3. La tabla siguiente muestra un resumen de los cálculos para el método de coordenadas cíclicas.o.00.56) (2.50 -0.0023.63.0.0) (0. respectivamente.0.25.

Figura 2 Ilustración del método de coordenadas cíclicas. E l siguiente patrón de busqueda es a lo largo de la dirección X3 x 2 . La figura 3 muestra las primeras dos iteraciones del método. . obteniendose y ' . Método de Hooke y Jeeves E l método de Hooke y Jeeves representa dos tipos de busqueda exploratoria > patrón de busqueda. Un patrón de busqueda a lo largo de la dirección x 2 x. Las lineas que van de X] a x 2 y las que van de y a x 3 representan l a busqueda exploratoria a lo largo de los ejes coordenados y la linea que une a X2 y X3 y la que une a x 2 y > representan el patrón de busqueda. El proceso es repetido. Dado X|. conduce al punto y. una busqueda exploratoria a lo largo de de las direcciones coordenadas produce el punto x2. Otra busqueda exploratoria a partir del punto y conduce al punto x 3 .

y repetir el paso 1. Sea y! = x k + | + Xd. sea x k+1 = y n + 1 . Paso 1: Sea \ sujeta a XeE{ una solucion óptima a el problema de minimizar la función f(yj + Xdj) y sea yj+) = yj + Xjdj..2x 2 ) 2 partiendo del punto (0..3)..x k y sea X una solucion óptima al problema de minimizar f(x k + j + Xd) sujeto a XgE. sea j=l. y repetir el paso 1.y Figura 3 : patrón de busqueda.. si j = n . remplazar k por k+l. Si j<n. Si ||x k+ . Procedimiento Paso 0: Elegir un escalar e >0 como margen de incertidumbre.. .d n y un patrón de busqueda en su desarrollo.2) 4 + (x¡ . de lo contrario. sea k=j=l y seguir con el paso 1. = X[. De lo contrario.. El método de Hooke y Jeeves maneja direcciones de linea a lo largo de las direcciones coordenadas d. . E j e m p l o : Minimizar (x. parar. sea y. reemplazar j por j+1. Paso 2: Sea d=x k + i . La siguiente tabla resume los cálculos del método de Hooke y Jeeves.x k || < e . . Elegir un punto de partida x.. continuar con el paso 2.

con valor objetivo igual a cero. • Figura 4 : Ilustración del método de Hooke y Jeeves . Kn cuatro iteraciones se llega del punto inicial a la solucion optima(2. una busqueda exploratoria a lo largo de las direcciones coordenadas dados los puntos y 2 y y i.||x s .045 y el procedimiento es terminado. La figura 4 ilustra el progreso del método. donde ) . En este punto.0.00. y un patrón de busqueda a lo largo de la dirección d dado el punto y h excepto en la iteración k . 1.l .00).Un cada iteración. x k+( .x k x..x 4 || .

.

elegido como terminación escalar. Si ||x k+ ¡ ... k .. x.gE]..j = I. Paso 1: Sea x¡ una solucion optima a el problema de minimizar f(y¡ + X.. Elegir un punto de partida \¡..x k = d . Z v .. Paso 3: Formar un nuevo conjunto de direcciones de busqueda linealmente a independientes. v sea yj+i ^ /^d. Paso 2: Sea x k M = y n + ! ..n) cada uno con norma igual a uno. la función objetivo f es minimizada a lo largo de las direcciones a iterativamente..odo converge a un punto con gradiente cero. Si f e s dil'erenciable entonces el met. En particular x k+] . Partiendo del vector común x k . de lo contrario sea v. i=I .x k | <f„ parar. d j =0 /-i implica que = 0 para i =l. a a si j = 0 sij^O .d¡) sujeto a A. = x k + i . Procedimiento: Paso 0: Sea e>0.. 1. De lo contrario. reemplazar k por k+1. sea j-1 y continuar con el paso 3. Ademas. d. l dj = 0 para i ^ j.. Elegir d ( . donde Áj .. reemplazar | pen' j -l > repetir el paso 1. esto es.d n son es la distancia recorrida a lo largo de dj.Método de Roscnbrock El mclodo de Rosenbrock ulili/a lineas de busqueda para minimizar una función f d e varias variables. sea y. y continuar con el paso seguir con el paso 2. Si j<n..d n como las direcciones coordenadas. (las direcciones d.. supóngase que estos vectores son mutuamente ortogonales.d n son linealmente independientes si ^ A .. conduciendo a el punto x k + ¡ . La nueva coleccion de direcciones d| obtenidas a partir del procedimiento de Gram-Schmidt como sigue 'd..

.2x2)~ usando el punió inicial (0. 3). 1.2) J + (x 2 ..15 y el procedimiento termina. 3). .002.42) y (-0. -0. En la figura 5 se observa el progreso del método de Rosenbrock. Usando el método de Gram- Schmidt. -0. y la tabla siguiente condensa los cálculos de cuatro iteraciones del m é t o d o hasta alcanzar el punto optimo.13 y >. Despues de cuatro iteraciones. X K X K II j-l Ejemplo: Minimizar (x.x 3 || = 0. D e s p u e s de la primera iteración tenemos que 3. (0. Para >. el punió y 2 es obtenido optimizando la función a lo largo de y ^ y y 3 es obtenido optimizando la función a lo largo de la dirección d 2 partiendo de y 2 .42. las nuevas direcciones de busqueda son (0. el punto (2. \ el valor de la función objetivo es 0.44. A partir de esto se tiene que ||x 4 .21.91.91).1 > es alcanzado.a ii a.2 -1.

13) 0.24) 0 16 (2. 1.70) 0.12) 0.79 (2.20.05 (2.0.10) 0.44.00 j 1 2 2 (3.04) 0.13) 0.13) 0.16 (2.87 (3. 1. 1. 1.00) 52.85.85) (-0.13.003 (2.F i g u r a 5 : I l u s t r a c i ó n del m é t o d o d e R o s e n b r o c k R e s u m e n d e los c á l c u l o s del m é t o d o d e R o s e n b r o c k Iteración k 1 *k f(x k ) (0.24) 0.87 (3.28.96.56) 1. 1. 1.96) 3.56) 1 1.003 di (1. 1.) (0.20.42) (-0. -0.0) (0.13 -1. 1.28) (0.004 (2.24. 1.0. 1.3. -0.00) 9.12) 0.13. 1.004 1 2 y¡ f(y. 1.34 0. 1.29.56) 1. 3. -0.19) (-0.13.0.-0. 1.16. 3.00.29.-i) (3.02 yn f(y.61.00) 52.00 (3. 3.52) (0.63 (2.24) 1 2 0. 1.82.79 (2.0) (0.04 0.00) 9. 1.00.1.05 (2.16 4 (2.42.91.51 0.13.004 (2.21.63 2 3 (2.13.44 -0.63 (2. -0.38 -0.002 .24.82.61.0.52.70) 0.04) 0.10 0.

. 2 . en el menor tiempo posible (menor numero de iteraciones).2 x h 4 + X| Vf(x(>(-7. M é t o d o del g r a d i e n t e E j e m p l o : Encontrar el valor optimo de la función f( x h )= 7X| + 4X2 + XIX2 . Una manera de lograr esto es dada por el gradiente de f(x).x 2 2 usando el método del gradiente con una aproximación del 1% y a partir de los valores X| = 8 y x 2 = 2 Calculando el vector gradiente Vf(x) = (7 + x : . Una elección natural direccional es determinada mediante calculo: hacer que f crezca o decrezca tan rápido como sea posible.x.¿ Hacia que dirección moverse en R n ? 2 . Los métodos de gradientes determinan la mejor dirección y la mejor longitud de recorrido en esa dirección.8)' 2X2)' .Métodos de búsqueda multidimcnsionales usando derivadas La metodología de las técnicas de optimización no lineal para funciones sin usar derivadas consistía en establecer un método que cambie el valor de la función objetivo hacia la dirección del máximo ó mínimo. parar las iteraciones cuando f se empiece a incrementar o disminuir. para los métodos que utilizan derivadas las cuestiones básicas de metodología son las mismas: 1. para poder alcanzar el máximo o minimo.¿ Cuando parar las iteraciones ? Obviamente la respuesta a la pregunta (2) es fácil.

) = 7(8) + 4(2+8k) h 8(2+8k) . 2) hay que moverse a (8.-64k 2 + 6k + 12 Derivando la función f(x¡) e igualandola a cero: -128k + 64 0 k . 2-* 8 k )' fíx. La tabla siguiente resume estos cálculos. 5) que genera un valor m á x i m o de 31.05 Lntonces hay que moverse al pumo (8.03l.(H) . al m o v e r s e una unidad en la dirección x b decrece el nivel de f e n 7 unidades. 6). hasta que en 6 iteraciones se llega a X/=(6.Partiendo del punto inicial x„ (8.0. 2-1-8(0.05)) procedimiento para (8. 5. 6) Se repite el m i s m o (8.0625). un movimiento unitario en la dirección x 2 . del punto (8. 2). El método convierte al punto óptimo (6. hace crecer el nivel de Ten 8 unidades. Para calcularla se tiene: x¡= (8.(2» 8k) 2 . En cambio. Entonces. . 2+8k) donde k es la longitud de paso.

0938 .II ¡a ^t • n •r. .0000 -0. r. i V.-^ C D O — «•s ' -J < < • r. 1 O -r O = f " N O O ¡ñ rt -0. r^ j O O 0 O T. 0.0000 00000 V > Sv O <• > 0 0 10 O J VI •n Oí •O VI O) ###BOT_TEXT### O •n -3 0000 0.0000 f. . O O O > 0< X o o OI _ U. i(N 5 o s D O o O c -r V O i 8. " J «/. n s -n o —'t {> (> . r -1 r ri r r\ 1 fr. 01 O -o •o r 1 04 ir.1875 -0. "Z <3 < > V • r -1 /5 — «. t > 0 A.0000 0 X 0. « f .D.5000 0000 0 X2 1 -3. 1 ín > r.7500 1 Ganancia c c \o o o o o OI «» — 0 0 0 00 OI 1 0 0 01 O J 0 0 >0 01 0 c> 0 0 0 0 \D 0 0 •n O J «0 0 O O J >0 Tt 0 O v> O J 00 0 f! 0 0 •Ti 01 >0 0 0 un \o O oo J Vi 00 C1 O O 0 0-1 t<0 5 Os O 0 ro r*1 VI O J >> £ 0 «I T oí X X 3 X o 0 o 0 o 0 o 0 oj 0 o 0 o o o ys o - «0 O O J c: V vo O sD 1 -0.0000 OI •n O J Cr¡ •-H O -O >0 0 so ci C N O 1 -1.0000 1 -0. "-1 2 r1 X o -a C J r o •a 2 O X o c c 00 8.0000 0000 6 i 0 0 O 0J f) O 1 X — 1 1 0000 0 .v. < .0000 "x U.3750 0.1875 1 -7.

para i = 0..x 2 ..f(x.. Un criterio para terminar el algoritmo es comparar el valor de la función en dos iteraciones sucesivas y parar cuando esa diferencia es menor a una tolerancia establecida. Dado un punto inicial de partida X( ) =(x|...1.1. es decir.2X]2 .. se maximiza la función de una sola variable g ( k j ..2. + 2x 2 + 2X[X2 ..) y como Vf(x l M ) es perpendicular a este contorno. los m o \ imienlos sucesivos son en ángulos rectos. la dirección de ascenso acelerado.f(x¡) | < e donde e > 0 Este método encontrara un minimo o m á x i m o local. tal que el punto generado en la iteración i.x n ). Para encontrar el valor de k¡. en el punto x„ esta dada por Vf(x„) y la longitud de recorrido estara dada por un parametro k¡>0. Ejemplo: Encontrar el valor máximo de la función f(x) = 8x. El vector x¡ + k¡Vf(x¡) es tangente al contorno gík.. cuando | f(x i+l ) .x 2 2 con una aproximación del 1% y a partir de los valores x( = 2 y x 2 = 10.Método de Ascenso/Descenso acelerado Sea f(x) una función diferenciahle. es x¡+| .x¡ + k¡Vf(x¡) k > 0 para i -0. Calculando el vector gradiente . generalmente el que esta cercano al punto de inicializacion x 0 .2.. + kjVfíXi)) por algún m é t o d o conocido.

9769k)' evaluando el punto en la función objetivo se llega a g(k) = -0.1915 Entonces x¡ = (5.319). La tabla siguiente resume los cálculos del método de ascenso/descenso acelerado para este ejemplo. .2845 y x 2 = (4-952. calculando el valor del gradiente en X|. se tiene que k = 1.(8 .119-0.9769) se tiene que x 2 = (5. -14)' 2X| . Vf(X|) . . 7.83.42k + 2 5 .55k 2 + 1.83-0. 10-I4k)' f(x„) " 8(2h 20k) + 2(10-14k) ^ 2(2+20k)(10-l4k) 2(2+20kr-(10-14k) 2 simplificando se tiene g(k) = -1556k 2 + 596k -32 Derivando la función anterior e igualando su derivada a cero se tiene -3112k + 5 % k 0 0. 6.6813.(20.2X 2 .Vf(x) . 7. -0.(-0. 6) que es el valor máximo en 5 iteraciones.064) Se sigue el mismo procedimiento hasta llegar al punto (5. 2 + Vf(x„) .4 x .(2+20k.2x 2 )' Se parte del punto inicial x 0 . 0 7 derivando la ecuación e igualando a cero.6838k.

0000 0.0001 -0.0720 .9852 25.000 1. o X <s o o o o 20.00 Vi Cs O g sO es -T g s o 1000 0- ro Vi es fN -t Os os »o < N 0.000 -0. •a O o o es f> l 596.320 x u o o 4) > f-l X o — Os T S O O sS v-.2845 5161 0 -0 224 -0.0146 r V.0000 25.•n II cd T3 Os a.9998 O X o o o o f-H X o o o (S o Os en r» o ci oo Vi SD O SO es VI Os es o sO Cl o vi m § o S O O O o >n Vi T <N 26.15 -0.3200 | o> o> Os Tf S O ci o o o < u u "O W O c 0) ^ 2 X o X2 "d toooooo Ganancia 57.0000 o pi so V) — (> sO cOs o1 | -0.684 0.6838 < N V) as Tt" o eN O 0.0720 0-t 2 o o Os os £ os vi cs s o os Os Os Tj" t -32.977 rjo T - -a c d V o O c a > o <s> i) "O vi e u o s/5 C) l <> L "O O "O o o 20. 1 « N o S O "1 •n v> -14.011 en O vi sO in O o1 Os O O O 1 0.0004 -0.016 rs sC -0.2845 1.40 o S O es 0.9132 25.

2x->)" partiendo del punto inicial (0. Vf(x k ) es la transpuesta del gradiente evaluado en el punto xk de la k-csima iteración y II' 1 (x k ) es la matriz inversa del Hessiano. La tabla siguiente resume los cálculos \ la figura 6 ilustra el progreso del método. En este punto Vf(x 7 ) 0. f(x) es diferenciable. evaluado en el punto xk de la k-esima iteración. Despues de 6 iteraciones se obtiene el punto x ? =(1.91). En cada iteración. x k+ |=x k -H(x k )* 1 f(x k ). .i k ' ' ' ' ' ( x k)^f(*U donde el punto x 0 en E„ es arbitrario. y eMa basado en la siguiente regla iterativa: xk x xk -11"1 (x k )Vf(x k ) x (para minimizacion) (para maximizacion) k. 0.2)".04 y el procedimiento es terminado.lX| . 3) La siguiente tabla muestra un resumen de los cálculos.83.M c t o d o de Newton El método de Newton es muy parecido al método d e ascenso descenso acelerado. E j e m p l o : M m i m i / a r (x( .

.

d k son llamados conjugados si son linealmente independientes. El método de Davidon-Fietcher-Powell se basa en direcciones conjugadas . Esta situación puede eliminarse utilizando direcciones conjugadas. en vez de direcciones perpendiculares (forman ángulos de 90°) como las que manejan los métodos anteriormente citados. Definición: Sea H una matriz simétrica. Los vectores d.. del gradiente y el de Newton convergen muy lentamente a la solucion buscada. 3 Figura 6: Ilustración del método de Newton Método de Davidon-Fletcher-Powell Los tres métodos anteriores. sobre todo cuando el gradiente adquiere un valor cercano a cero.... y es considerado como uno de los algoritmos mas eficientes para calcular puntos optimos locales en funciones d i f e r e n c i a l e s de varias variables.1 . el de ascenso-descenso acelerado.. .

En la iteración 1. dj es d a d o p o r -D.-22.d.2) 4 + (x.1. t e n e m o s que pt . sea y t ~ x k + . es la matriz identidad y D 2 se obtiene c o n las formulas de Dj+¡. p¡ y qj. 0.2x 2 ) 2 En la primera iteración fl Para cada iteración.7. 0.49) 1 y q{ = (44.02) 1 y q.33.24) 1 . y f i n a l m e n t e en en la interacion 3 t e n e m o s p j = (-0.2. reemplazar k por x.02. y conti- . . En la iteración 2. q'Pfl. donde P j " >-.—D¡f(y.(0. Sea y¡+i ~ y. . E j e m p l o : M i n i m i z a r (x. . Si j < n .7. y una matriz simétrica positiva definida inicial 1)|. 0.1.+i n.¡d¡.) sujeta a X>0. E l punto y-J+l es calculado optimizando a lo largo de la dirección dj partiendo de yj para j = 1.. Elegir un plinto inicial x. para j = 1. sea j . De lo contrario. qj-VfOnl-Vflyj) R e e m p l a z a r j por j + 1 y repetir el paso 1.y n + l . continuar con el paso 2. 0. Sea yi nuar con el paso I. i . c o m o sigue: 1+1 J P\q.Vf(yj).Procedimiento: Paso (): Sea zA) el escalar que señala la leí minacioii del mclodo. sea k - j = 1. y.y¡ + X.(-0. t e n e m o s que pi = (2.8) 1 . . -1. = (-0. Paso l : Si |lVf(x.)¡|< parar.2. .y. sea d. donde D.05) 1 y q. Paso 2: Construir D¡+.1. y repetir el paso 1.72) 1 en la f o r m u l a d e D M . Si j k + l .

resumen de los cálculos se expresa en la siguiente tabla. (2.li\ procedimiento es terminado en el punto y-.058) en la cuarta iteración. 1. y la trayectoria tomada poi el método se ilustra en La figura 7.006 es bastante pequeño. Figura 7: Ilustración del metodo de Davidon-Fletcher-Powell .115. I I. ya que ||Vf(y 2 )|| = 0.

VI

. —

, ,

tN C N VI <o C N
<N

rC N

— —

r1 —

v> .O

O O VI
o

o

r-J —•
-<

v> -aC N
-—•
—•

R ¡ R 1
-—-

r

Vi !-)
r— • 4-

C N —• OI * Tt" C N
sO

VI

C N O

o o

CI N so

C M O

-T

o

O O

O

H 0) > 0 ÍX 1 u < Ü u -p 0) f-t C u l e o -•-I >

C 3 O C N I O O
T

•3 <-

— t so
o

O s cc

I

C N O

V >

O

O
o

I

— o

m i cn oo i— m o o

v, v,

O -T i OO

—O

I 0 f"! i C OO

cc

to vi

o o

o

c-j
o

sC o

Os O

sO O o

fO p 0) T3 O TI O -P v(l) 2
> > t> o o T

oo

(N C O ro

•3"3" O I cree

o

ac

O

-3 >o o

C C
o

2; O

V)
o

O o

o

C N N ^ C o m en o — m o N V) o " C o" O p VI r VI o C N C N O
Vi

rC o N
—'

'—

(2.45.

(2 25

Os Tf O o

o o r- o C N

m — O O :

VI

O v — oO
" CN o

oo Vi
o

C N

O

— c:

o o

— .

< N

C N

C N V)

r-1 _ C $ N cn . O lO
v> o

- oo - o - o

V) O Sí
— o o

C N

C 9 N

C N

s
M

Método de Kletchcr-Rcevcs

l .ste melado Uimhicn esta basado en la logiea de las direcciones conjugadas. No es tan clicienie como el método de Oa\ idon-Fletcher-Powcll, pero es mucho mas sencillo en cálculos manuales.

Procedimiento

Paso 0: Elegir un escalar de terminación t: ->0 y un punto inicial x,. Sea y, Vf(y t ), k = j = 1 y continuar con el paso 1. Paso 1: Si

x,. d,

-

VI(\ j> . parar. De lo contrario, sea Xj una solucion óptima al problema Je v . d,) sujeta a X>0. y sea \ = v, + Xjd r Si j < n. continuar con el paso 2.

minimizar f(\

De otra manera, seguir con el paso 3. Paso 2: Sea d,., -Vf(y |+1 ) + a¡d¡,

"

"

r/ooil2

Reemplazar j por j+1 y continuar con el paso 3 Paso 3: Sea y 1 - xk+1 = y n+l y sea d, = -Vf(y,). Sea j = 1, reemplazar k por k+1 \ continuar con el paso 1. Ejemplo: Minimizar (X[ - 2) 4 + (X| - 2x2) 2 En cada iteración d, es dado por -Vf(y,) y d 2 es dado por -Vf (y 2 ) + a , d , , donde a , se obtiene con la formula anterior. Ademas, y j+ , es obtenido optimizando a lo largo de d¡. partiendo de y¡. En la iteración 4, el punto y 2 = (2.185, 1.094), el cual es mu> cercano al optimo (2.00, 1.00), es alcanzado. Como la norma del gradiente es igual a 0.02. la cual es muy pequeña, se paran las iteraciones en el paso 4.

La labia siguiente es un compendio de las iteraciones para el problema con el inelodo d e l 'leicher-Rceves, y el progreso del algoritmo se muestra en la figura 8.

Figura 8 : Ilustración del metodo de Fletcher-Reeves

— O IO O Ö . O O r» O c-i r-j O) — O CJ o V J O • • O T Ö T •sjC-l G .o —* C* r-J 5 O IO O V. ^ — 1 •O f . —O • ce —O io O d o o o o C N f.CS r-J T "O — O O o o o lo o oc — .i V W.-o r-l — O — — _ c-i — i •C O >o r-i -r T r t —- IO J n r *— » c m — i _ í i — r-j r-j O O O v O 1» c-i c-i O c-i oo r-i o-i •O O — O vv O <-1 o o ~r o m o •o) < — o io O T -t w Q) > <D 03 Û 5 I ^ 1 a — t r-i Ö a > ä D 4J ai i i — ai TJ o •o o >0) s c T c I l> G rtC r-4 co Ó X Ó O r-J O I . T c-. . o o OJ O o O í . CJ' '' C M o - C M — r.. OI '—' .• lo" o <-j r-i fNl m os r. O '—' s .

Ya que la factibilidad primal es mantenida durante el proceso de optimización.CAPITULO 6 MI-TODOS DE DIRECCIONES FACTIBLES Esta clase de métodos resuelven problemas de programación no lineal moviéndose en cada iteración de un punto factible a un punto factible mejorado.arush-fCuhn-Tucker o algunas veces a puntos que cumplen con las condiciones de Fritz-John. mas cercano a un punto optimo.dk es mejor que el valor objetivo en x k . La metodología de los métodos de direcciones factibles es. Métodos de este tipo consisten en como converger a soluciones que cumplen las condiciones de K. estos procedimientos son con frecuencia referidos como "métodos primales". De otra manera. Dado un punto factible x k . un problema de optimización uni-dimensional que debe ser resuelto es determinar hasta donde continuar a lo largo de d k . Método de Zoutendijk Definición: Considere el problema de minimizar f(x) sujeto a x e s donde f:E n ->E| y S es un conjunto no vacio en E n . Un vector d diferente de cero es llamado una dirección factible en x g s si existe un 5>0 tal que x-Xd e s para todo X e ( 0 . 5). d es llamada una dirección mejorada en x e s si existe un 8>0 tal que f(x+?^d)<f(x) y x + X. Despues que tal dirección es determinada. 5). las siguientes dos propiedades son verdaderas: (1) xk + ?vdk es factible. El método de Zoutendijk es aplicable para resolver el problema de optimización .d e s para todo Xe (0. Ests conduce a un nuevo punto x k + | y el proceso es repetido. y (2) el valor objetivo en x k + X. se determina una dirección dk tal que para X>0 suficientemente pequeño.

Sea k con el paso 1 Paso 1: Dado x k . b 2 ) tal que A|X k -b[ \ A 2 x k <b 2 . la cual tiene dos propiedades: a) l'actibilidad: Consiste en que un a v a n c e en esa dirección no viola ninguna restricción b) Utilidad: Un avance en esa dirección m e j o r a el valor de la función objetivo. x k es un punto q u e cumple con las condiciones de Karush-KuhnTucker.c A : matriz m x n b : m-\eelur E : matriz 1 x n e : I-vector 1.1 n 1 seguir Si Vf(x k ) dk = 0. P a s o 2: Sea Xk una solueion óptima a el siguiente problema de busqueda de linea. Sea d k una solueion ó p t i m a a el siguiente problema Minimizar Vf(x) 1 d sujeta a A|d <0 Ed = 0 -1< d¡< 1 para j .Minimizar f(x) sujeta a Ax < b :x . .1 método encuentra en eada iteración una dirección factible y un tamaño de avance (longitud de paso) en esa dirección. . supóngase que A1 > b l s o n descompuestas en (A. parar. Minimizar f(x k + ?^dk) sujeto a donde 0<A. continuar con el paso 2.e. A 2 l ) y ( b . Procedimiento Paso 0: Encontrar una solueion iactible inicial X) con A x ^ b \ Ex. de otra manera.1. tal como en programación no restringida.<^max Amax - .

Reemplazar k por k + 1 y repetir el paso l. 0 ) ' E l vector gradiente Vf(x) es: Vf(x) = (4x. E j e m p l o : Minimizar f(x) .6)1 P r i m e r a iteración En el punto x. = ( 0 . por lo cual I = {3.2x. 4x 2 . . E l problema para encontrar una dirección factible es: Minimizar -4d. solamente las restricciones de no negatividad son activas. La siguiente figura ilustra la iteración 1. 1) y el valor optimo para el problema de dirección factible es igual a 10. que se cumplen como restricciones de igualdad.A-> xk d = A 2 dk sea xk .x 2 . < 1 -1 < d 2 < 1 E l problema puede resolverse con el método simplex o con el método gráfico. partiendo del punto inicial x.con h = h 2 . la solucion óptima es d| = (1 .4x ( . 2 +2x 2 : .2x 2 .. .6x 2 sujeta a X| + x 2 < 2 X| + 5x 2 < 5 -x -x 2 <0 <0 usando el método de /outendijk. 4}. i xk f identificar el nuevo conjunto de restricciones activas en x k+ i y obtener los nuevos valores de A¡ y A 2 .2X.4.2xj . .6d 2 sujeto a -d| <0 -d 2 < 0 -1 < d .

4xj . 5. < l d2 . 0) con un valor mínimo de l ( \ ) t. 2 sujeta a 0 < X < % Corno la función objetivo es convexa y el m í n i m o no restringido es de lo cual 'fi 1 6 5 V6 Segunda iteración En el punto (' /<-. sujeta a d.5.7 / 3 d.. + 2/.I 0 U 2X2 factible se obtiene como sigue MI valor máximo de X para el cual X| + Xxl.d|) . El conjunto de restricciones activas en el punto x 2 es I = {2}. Cualquier punto a lo largo de esta dirección puede ser c s o i t o c o m o X| + Xá\ = (X. se tiene que Vf(x 2 ) ~V3). Entonces f(x( i X. partiendo del punto (0. X).5.2x 2 2 .Ahora necesitamos encontrar el punto factible o lo largo de la dirección (I . l). tal que la d i r e c c i ó n factible es obtenida resolviendo el problema Minimizar . '2> '(fl '21 í' .6x 2 . + 5d 2 < 0 <d( < 1 -1 < d . h = . para el nuevo punto X[ + problema de busqueda uni-dimensional Minimizar -10A. " l l d = í v r 2\ I 5 2 5 5 6 el \ a I o r de X\ se obtiene resolviendo el siguiente müX "2'6j Entonces.2x ( x 2 .

-. de lo cual ffx. vOy > como d 2 = 0. 125/ /8.X2 H j (\ a r 'i vi / r 6 5y v 5 1> 5/ 5 d = 5.3 2 / 3 . 24 62 /2SX2 / 3 1 ). tal que x 3 . se tiene que d 3 = (l.x 2 + Xd2 = ("'V^. + Xá2) ~ -l25/s b * *2f2. ¡25X pues d 2 = d .' % ) ' .<.d2 ( 7 .l 2 5 / 8 .2 2 / l 5 X + sujeta a 0 < X < 3/./|SA+ 22/ 1 _.3 . + X \ .3 2 / 3 1 . tenemos que Vf(x 3 ) = ( . El conjunto de restricciones activas en el punto x 3 es dada por I = {2}. cualquier punto en la dirección d 2 puede ser escrito como x 2 + >. ~ 4 / 3 |)\ T e r c e r a iteración En x 3 = ( 3 7 3 l . .d ( 16 °/ 3 id 2 sujeta a d| + 5d 2 < 0 1 < d. < 1 -1 á d 2 < 1 Usando nuevamente el método gráfico. La siguiente figura ilustra esta iteración.Usando el mclodo gráfico se llega a la solucion óptima al problema lineal anterior que es d 2 = (I.-'/ 5 )..2 La solucion óptima es X2 = 5 '7 l 8 6 . se tiene que Xmax = min 12 Por lo tanto X2 es la solucion óptima al siguiente problema Minimizar . i i ) (-• -i) Partiendo del punto x 2 .X ).2 . lo cual hace que f(x 3 + O3) = 1 > .]f. -'/O* y e ' valor de la función objetivo es -22/. tal que la dirección factible se obtiene resolviendo: Minimizar . 62. .

< l V l 2 4 que no tiene solucion. v 2 \) 1^ 1 ( 5 5. .mínimo {V). por lo tanto el valor o p l i m o es x 2 siguiente ilustra este proceso final. obteniendo un punto que c u m p l e c o n las condiciones de Fritz-John de optimalidad. es la solucion del como d 3 .ü. c o n el cual se puede resolver el problema lineal Minimizar f(x) sujeta a g¡(x) < 0 i = l.. El método de Topkis-Veinott garantiza la convergencia del punto optimo para este problema.-.. X.m donde todas o algunas de las restricciones s o n no lineales. pero el punto optimo que se obtiene con el método puede no ser optimo s i n o a p r o x i m a d o . <<7 3I.25/8-l2/3^ 62 + / 25 X 2 = 0 sujeta a 0 < /.se lienc ahora que A. sin cumplir las condiciones de Karush-Kuhn-Tucker./ 4 ^} problema -. '^12-1.. V lo.Asi mismo / V '1 J 0 / r (V>\ 11 4 5. La figura Método de Topkis-Veinott El método de Zoutendijk tiene un variante.. ~ 4 / 31 ) t .

5)..2x.k una solucion óptima al problema de busqueda unidimensional Minimizar f(x k .x 2 ./ < 0 Vg(x k )'d ./ < -g¡(x k ) -I d¡ < I para i = 1.max donde /.m. 4X3 .. partiendo del punto x.(x) < 0 para i 1..d k l sujeta a 0 < /. y vol\ er al paso 1 E j e m p l o : Minimizar 2x ( : + 2x 2 2 . -2XI .75) 1 El gradiente de la función objetivo es Vf(x) ..6)1 Los gradientes de las funciones restricciones son (1.00. Sea k 1 y seguir con el paso Si / k . < /.4.0. De lo contrario..sup |/. Paso 0: Elegir un punió x hil que g. -I) 1 (-1.4x| . -x 2 <0 <0 m}. -l) 1 .. = (0. los cuales son utilizados para determinar la dirección factible del problema en cada iteración..2X| . . parar. (4X[.:gi(x k + d k ) < 0 para i .k..max ..(4x. 0.. n l. xk es un punto Kritz-John. Sea x = x k H = xk + ?tkdk..6x 2 sujeta a X| + 5x 2 < 5 2X| . d k ) una solucion óptima a el siguiente problema de programación lineal Minimizar z sujeta a Vf(x¡j'd . si z k < 0 continuar con el paso 2 Paso 2: Sea Á.I reemplazar k por k+1. 0)1 y (0.Procedimiento.. Paso 1: Sea (/.x : < 0 -x. m para j = I.

375 E l valor mínimo de la función es ).z < 1. entonces Xmax= 0. 0.(0. -3.3571 ) l y z.658872.84.d| = (0. : ..036/. + d. -0.' / < ( ) d. E l progreso del algoritmo se muestra en la siguiente figura .84 y este valor resuelve tiene que el problema de minimizar f(x. usando el método simplex.6548. La tabla siguiente resume los cálculos para 5 iteraciones obteniendose el punto (0.25 -d 2 .8575) con valor objetivo de -6. Por lo tanto el problema de dirección de busqueda es: Minimizar z sujeta a -5. 0.613086.60..5d t .0).3.75 -d.84. + Xd¡) = 0. con valor en la función objetivo -6.3d 2 .5590.5. -7< 0 -d 2 .75) tenemos que V f ( \ . ) = (-5./ ^ 0 -1 < dj < 1 p a r a j = 1.2 La solucíon óptima a el problema anterior es d¡ = (0.) s u j e t a a 0 < X < 0. + 5d 2 . 0.7143.z < 0.d^ f(x. 0.Iteración 1 En x| .868226) o b t e n i d o c o n el paquete de computadora G1NO. E l proceso es repetido. .72). Evaluando la función en el punto x -r /.0.7143.4.972>. " -0. 0. muy cercano al optimo (0. con lo cual x 2 = X| + A.

sC — —r r-j V C" — V -T : O o o O — ~ vi .O r-jI oo v¡ N O C .^ CÏ oo V. sO r r» — cr. r.— O o T r. oo v> oo O O O Ö O «o oo m vo o 00 . O T — rf . . X sO — 'O o vi V.O O O oO o O o c CT. O O r-j ? v r-» oc oc o Ò V) Os oc m — f-l sc ###BOT_TEXT### Ò O T v. .3» «y. r. N O •O O I I 1 ¡ 1 ö o o o O ¿ O os o o o oc o oc o 00 V •sr O Ö O C r-i V. v 1/-I -—> v> OO -r 'O so V) V. v>i T — V.r. — r-1 f . O . o> -o r*. O' o O ' o <3 v vi vi Os D -o O.cr.Vi s T O v. v. O •c — — fí r M ° ^ ö o O CJ O I o _ oc VI •c rr oc -—.-r f . 1 rsj 00 o o T o Cs O fl fN C •o o-. VI fi 1 1 1 i — X O 1N T V) r-j C vi — O! oo: 1 r» c — r*-. C o N fi o rf.

Si u ^ 0. Si d k = 0. u¡.Método de proyección de gradiente d e Rosen El método de proyección del g r a d i e n t e esta motivado por el método de ascensodescenso acelerado para problemas sin restricciones.v l ). 1 . Supóngase que A1 \ b1 son descompuestos en (A.-Vf(x k ). < b 2 . con AX[ < b \ 1\ e. Sea x k M = x k + X k d k . Si M es vacio. A : l ) y (b. A 2 l ) y (b.b 2 ') tal que A.max se calcula igual que en el m é t o d o de Zoutendijk. Paso 2: Sea x k una solucion óptima al siguiente problema de busqueda en un intervalo Minimizar f(x k + >wdk) sujeta a 0 < k < Xmax donde A. parar si Vf(x k ) = 0.1 . eliminando la columna. parar. y continuar con el paso 2. Si u>0. De lo contrario sea P = I . E1). correspondiente a u¡ y repetir el paso 1.x k+ | = b. y suponer que A 1 y b l son descompuestos en ( A / . Actualizando A. Sea d k . calcular w = -(MM 1 )' 1 M V f ( x J y sea w' = (u l .b| y A 2 x . seguir con el paso 2.1 y seguir con el paso 1. < b 2 . y A 2 x k + . . . Con este método se resuelve el p r o b l e m a de la lorma: Minimizar f(x) sujeta a Ax < b Ex . s e a .e Procedimiento Paso 0: Elegir un punto x. Paso 1: Sea M1 = ( A \ . x k es un punto que cumple con las condiciones de Karush-Kuhn-Tucker. El gradiente negativo se proyecta sobre la superficie de trabajo para definir la dirección de movimiento. elegir un componente negativo de u.M l (MM l )"'M y d k = -PVf(x k ).x. Sea k . Si d k * 0.\ b 2 l ) tal que A.

Calculando w = u =(A|A| t )A|Vf(X[) .(3. se tiene i^ue Cn 0 P = I-AI (AIA1 ). -6) 1 Eligiendo u 4 . + x 2 < 2 x. . 0). .1 0 > A1 = 0 . 4X2 . -x 2 <0 <0 P r i m e r a i t e r a c i ó n : En x.A.6)1 (-4. +.-PVf(X|) .) í° . el gradiente Vf(X|) . es modificada dado A] = (-1.(0.6x-> sujeta a x. y la dirección de movimiento d| es dada por ÍO d | = -PVf(X[) = - 0 r-4 0 . 1 1 n\ (T 0. tal que. La matriz de proyección m o d i f i c a d a P que se obtiene es .= . la matriz A.v A = V Entonces si esto es verdadero. 0).2 x 2 .5X 2 < 5 -x.4 . = (0.( 4 x j . con / .0 y d. 4 ) .. A. I .i P = I-V(A.Reemplazar k por k+l y repetir el paso I E j e m p l o : Resolver el siguiente problema con el método de proyección de gradiente de Rosen. 0 ) .2x. 0) 2 2 M i n i m i / a r 2 x i + 2X2 .-6)' Solamente las restricciones de no negatis idad son activas en x.-6 y suprimiendo el gradiente de la cuarta restricción.(-4. partiendo del punto (0.6/ .V v .2 x ¡ x 2 • 4 \ .

0 tal que x 3 es un punto que c u m p l e con las condiciones de Karush-Kuhn-Tucker. El valor máximo de X para el cual x( + >ol./l. 1)' En el final de la tercera iteración u = -(A[.6/ d = /W. A / ) .Por otra parte.36X sujeta a 0 < /. 0 | . es una solucion óptima del problema Minimizar 7Tk~ . x( + /.max _ mínimo { 2 / f) ..v. cualquier punto x^ en la dirección d ( partiendo del punto x.' ^ V f í x j J . -í v '1 . . es factible es obtenido como sigue h = />.1 P 5. = (0.d| (0. = '/. (•>} ) y el correspondiente valor objetivo es f(x 2 ) = 72 A.^ / v ^ O Por lo tanto x 3 es el punto óptimo para u 2 = 1- / 3 1 . Los cálculos para las tres iteraciones se resumen en la siguiente tabla.. entonces . . < '/ 6 La solucion óptima es Á. Vf(x 3 ) + u 2 Vg 2 (x 3 ) . + Ad. A.„ tal que x 2 = x.. - ' r6 30.2 - 36A. 2 5y í0^ . puede ser escrito como x.'/. -0.

Método del gradiente reducido de Wolfe Lisie método resuelve problemas de programación no lineal, sujetos a

restricciones lineales, en forma matemática Minimizar f ( \ ) sujeta a Ax b

x >0 E l algoritmo converge a un punto que cumple con las condiciones de KarushKuhn-Tucker. Procedimiento: P a s o 0: Elegir un punto x, que satisfaga AX| = b, X| > 0. Sea k = 1 y seguir con el paso 1. Paso 1: Sea d k (d [{ . d s ).Si d k 0. parar: xk es un punto que cumple con las condiciones

de Karush-Kuhn-Tucker. De lo contrario seguir con el paso 2. I k : Conjunto de Índices de los m componentes mas grandes de xk j€lkj r-VtKZ-V^xo'B'A í -r
dj =

N = {aj : j / g i k } (2) < 0
(3)

(1)

s i j £ Ik y r

Vx,rj

s i j ^ I, y ^ > o

d s = -B-'NdN

(4)

Paso 2 :Resol\er el siguiente problema lineal Minimizar f(x k + Xdk) sujeta a 0 < A. < max donde mínimo A.max — 1 < j < n °o -x. dJt : d .• < 0 [si d, I > 0 \J fOl V I ' I si d k > 0

y x |k . d j k son los j-esimos componentes de x k y d k , respectivamente.

Sea

una solucion óptima y sea x k ,| - xk +• A.kdk.

Reemplazar k por k ' I y repelirel paso I. E j e m p l o : Resolver el siguiente problema usando el método del gradiente reducido de Wolfe, partiendo del punto x, Minimizar 2X|2 sujeta a (0, 0, 2. 5)

2x-T - 2x,x 2 - 4X| - 6x 2 x, + x 2 + x3 = 2 x, +5x 2 + x 4 = 5 x h x 2 , x,. x 4 > 0

Calculando el vector gradiente
Vf(X|) - (4x, - 2 x 2 - 4, 4X2 - 2xj - 6, 0 , 0)

P r i m e r a iteración: l n el punto x( = (0. 0. 2. 5) tenemos que [3.4 J. tal que B

Vf(X|)

= (-4. -6. 0. 0)1. I] -

|3. 4]. I ; 1 gradiente reducido es dado por la ecuación (2) flllO _

r - (-4. -6. 0. 0) - (0. 0)

V lDU1i

= (-4,-6.0,0)

Y r, - 0 para i ¡s I,. La inforniacion en este punto se resume en la siguiente tabla
XJ X2 X3 X4

solucion x Vffx,)

0 -4 1

0 -6 1 5 -6

2 0 1 0 0

5 0 0 1 0

V B f(x,) = r

u

1 -4

Por la ecuación (3) se tiene que d^ — (d„ d 2 ) 1 = (4, 6 ) ' . Calculando d B con la formula (4) '1 d „ - ( d j , d 4 ) = - B - l Nd N = .1 0 5, = (-10,-34)'

B N es expresando bajo las variables correspondientes a N, a saber X| y x 2 .

9 / . 0 . ~ Siguiendo este mismo proceso. partiendo de X| = (0. / | 7 . .6.d| es factible X.-6. 0) 0) DLrecd.d 4 ) ~ Í0.Entonces e! vector dirección es d¡ = (4. 0 . 0)' (d . 2.52X sujeta a 0 < Á < ^ l5 Claramente Xi tal que x 2 .-34) (ffi.n ^ . 7 . (0. f¡) (0. en la iteración 3. -34)' Ahora.0.x. 0 . -T4V 1 lay que calcular el máximo valor de X tal que Xj + X.52X tal que X] es la solucion a el siguiente problema Minimizar 56X2 . 0) flxj 0.0) ± « (^. . 0.0)1 y de (4) 1 .0.( l 0 / | 7 .5) {?. 0 .0 -6. 6. de (3). -10.436 7. J*. -10.iiT-O) . í i Ti.0) (0. 5 / . ¿ g (f. TÍ) rfa h W j dt (4. d N (d|. . + /.d. La tabla siguiente resume los cálculos Iteraren L 1 2 3 \t (0. (-4.l 4 } > /-54 " 56X2 .2..cn d e l í n e a x.. Por lo tanto d = Ü > la solucion x 3 es óptima. 0 .max f(X| + minimo { 7 ] 0 .d 2 )' . se desea minimizar la función objetivo a lo largo de la dirección d| = (4.(0. 6.U/.16 r.-10.

.c..CAPITULO 7 M O D E L O S E S P E C I A L E S DE P R O G R A M A C I O N NO LINEAL Programación Cuadratica El problema de programación cuadralica se define como la maximizacion o minimizacion de una función cuadratica como función objetivo sujeta a restricciones lineales. La representación matematica de dicho problema es M a x m u / a r (o minimizar) z Sujeta a CX + X ' D X AX<P0 X>0 donde X-(x. cn) A = V a . .ni ••• 3 . .c. D = vd„. b 2 b J / dll. d... d. Para el problema de maximizacion la función objetivo debe ser concava y debe ser convexa para el problema de minimizacion..x2 xn)1 an C-(.. a l m mu' P 0 ...Cbt......

X.T. La fase 1 terminara en la forma usual con la suma de las variables artificiales igual a cero únicamente si el problema tiene un espacio factible. 2 . hl problema puede escribirse para el caso de maximizacion como Maximizar z = C X + X1 DX A (P <0 Sujeta a g(x) Las condiciones de K. + 6x 2 . S > 0 E l problema es equivalente a resolver un conjunto de ecuaciones lineales.T.\ '-2D A A1 .C = ?c¡Sj para toda i y toda j X. Cualquier punto que satisfaga las condiciones de Karush-Kuhn-Tucker sera una solucion de este problema de programación cuadral i ca.2x.C o m o las restricciones se suponen lineales en este caso. Esto quiere decir que X-.¡S| = 0 = AJXJ. La única restricción aqui es que debe mantenerse siempre la condicion X. Esta técnica descrita se conoce como el método de Wolfe para programación cuadratica. mientras se satisfacen las condiciones adicionales jijXj = 0 = k¡S¡. x2 > 0 . garantiza que la región factible sea un conjunto convexo. U. La solucion al sistema anterior se obtiene utilizando la fase 1 del método de las dos fases.x 2 . y S¡ no pueaen ser positivas al mismo tiempo asi como también Á.2x.K. E j e m p l o : Maximizar 4x.K.j y Xj no pueden ser positivas simultáneamente.I 0 0 0N lJ jijXj .. En base a esto la solucion a este problema se asegura por la aplicación directa de las condiciones de K.2x 2 2 Sujeta a x¡ + 2X2 <2 X. pueden combinarse como .

4 6 i A/c.1 0 0 i. 1—Sale j 2 2 4 2 0 0 -6 R2 S. formándose la siguiente tabla : Wmin •= R[ + R 2 Cj de las Var lías 1 1 0 Cj Sol. a la base. + 2 X 2 Resolviendo este problema de programación lineal restringido.1 - iVx ¿Ax- N Maximizar /.\I R | =4 = 6 +S.4x 2 + 2X] x. Fac.) Sujeta a (1. 1 Entra . + 2 X 2 = .•scnbicndo el problema en forma matricial ( . K.|i| -\x¿ . & \ S) J 4x. (4. \ se c u m p l e |ijXj 0 A. . y R 2 se tiene : 4x. + 4x 2 + 2/.. son : 4 2 1-1 0 0 0 0 x2 M = 4^ 6 i \ 2 4 2 12 0 . C o m o n . Bas.. Variable Basica Ri Xl 4 2 1 0 0 •6 L X 2 1 2 0 0 0 -J -I Vi -1 0 0 0 0 1 0 -1 0 0 0 R..x.. Introduciendo las variables artificiales R. <2 x„x2>0 •. p u e d e entrar x. 6) | |+(x. 1 0 0 1 4 0 0 1 0 1 6 0 Si 0 0 1 0 2 0 A. = 0. = 2 2 x j +. T. + 2x_.2) Vx-.nionecs las condiciones de K.+2x.| x.4 = 6 +S[ = 2 2x.

2 3 0 0 2 C o m o S-. Bas.u Sol. « o •> a la base \ A Cj de las Var Bas Variable Basica L X 2 Mt M2 r. Fac. Fac. R- s./c ic 0 0 0 Cj X. a. filtrar » i 0 1 3 2 0 0 0 -1/2 0 0 1 C o m o (. Bas. k. Fac. X. 0• 1 A. R2 S.0 Ri = 0 . Sol. A.C| de las Vdr lias Variable Basic. Mi M> * r. ? A A. 0 1 0 Qi X. 1 0 0 0 1/3 0 0 0 1 0 5/6 0 0 l 0 0 1 0 -1/3 0 1/6 0 0 0 1/6 -1/2 -1/12 0 0 0 1/3 0 -1/6• 0 0 0 -1 6 l'3 1 5 6 0 0 0 i / i :: i 0 i 1 2 1 0 ] Sol. 1 Solución optima X| = 1 / 3 = 0 x2 = 5/6 V r 2 -1 = 0 s. R S. 1 1 0 Cj X. A.Sale -4 0. Bas. I 0 0 0 1 Í) i i j Vi 3/2 -1/4 0 0 -3/2 1-n t r a •-1/4 0 -1 0 % -1 2 -•1 4 0 0 3/2 0 i 0 1 4 0 0 1 4 1 2 4 3 2 3 — . I X.Sale 0. . A/c.» X-. R. 1 0 0 0 2 3 0 0 0 1 0 2/3 0 1/3 2 -1/6 0 0 -2 -1 3 0 -1 6 0 0 0 0 -1 0 0 0 1 1/3 0 -1/6 1 0 1 0 1 0 l 2 0 •1 3 -> 2 3 2 2 3 2 1 —. Û entrar X t a la base > o J LEntra Cj de las Var Bas Variable Basica Xt Ml Mi R.

únicamente se permite que una tk adyacente (t positiva. y a k coinciden con los puntos terminales a y b del intervalo en estudio.) ii para i para j 1 1 m n deben SLíjela a a ££„(*. Por lo tanto..a.< a k . (x.d.x. Defínase a k . v \ n donde a ( . Los puntos a. + a 2 x 2 + . a 2 a n son constantes separables. f(x) se aproxima como sigue ki k-i donde t k es un peso no negativo asociado al punto k-esimo de separación tal que » ^ tk = l ki Esta aproximación es valida si: i) A lo mas dos t k son positivas ü) Si t k es positiva. -r..i xl > 0 Un programación separable la función objetivo y las restricciones expresarse como sumas de funciones de una sola variable cada una.. k+) o bien t k -l) sea .)£/>. siendo k=l. . Supóngase que f(x) ha de ser aproximada sobre el intervalo [a. ..b].K como el k-esimo punto de separación en el eje X tal que a! < a 2 <. + x 2 ) + x : eVJ no es separable pues aparecen dos funciones (segundo > tercer sumando) en términos de mas de una variable. Solucion aproximada al problema separable Una solucion aproximada para cualquier problema separable puede obtenerse con el método Simplex de programación lineal.. Ejemplo: La función h(x) _ xf + x|sen(x.. . Ejemplo: La función lineal 1(1) .Programación Separable Definición : l In problema de programación no lineal es separable si puede ser expresado de la siguiente forma A Max i mi zar (minimizar) f(x) ^ /.

la base restringida o conjunto de variables basicas especifica que no mas de dos t positivas pueden aparecer en la base.j(x.) y g | ' ( x i ) quedan en su forma presente.k pueden ser positivas únicamente si son adyacentes. Ademas dos t. dado que son lineales. En este caso se trata X| como una de las variables. la ultima tabla da la solucion óptima aproximada al problema.4). La condicion de oplimalidad estricta del método Simplex se utili/a para seleccionar la variable de entrada l. Considerando f 2 ( x 2 j y gf (x 2 ). se deduce que k a k 2 f2<>2k) 0 1 1 16 81 gi 2 (a 2 k ) Ó 2 8 18 ~ 1 2 3 4 0 2 3 De lo cual . lo que ocurra primero. f 2 (x 3 ) =x. supóngase que existen cuatro puntos de separación ( K : .En el formato del método Simplex.3)). Ya que el valor de x 2 no puede exceder de 3 (por el intervalo (0. El procedimiento se repite hasta que la condicion de optimalidad se satisface o hasta que es imposible introducir nuevas l¡ sin violar la condicion de base restringida. únicamente si satisface las condiciones anteriores. x 2 > 0 Considerando las funciones separables f|(x.) = x. + 2 x 2 < 9 x |. 4 g. En este punto. E j e m p l o : Maxim ¡zar z = X[ + x 2 4 Sujeta a 3x.'= 3x g2 2= 2xn Las funciones .

. c l t 9/8 1—Sale s. con las columnas reordenadas para dar una solucion de inicio es la siguiente k = 1.) » l(l 2 2 ) + I 6 ( t \ ) + 81(t 4 : ) l 2 2 + 1 6 l \ +811*2 ^ 2 ) l'igii^i 2t 2 . + t 2 2 + 1 6 t \ + 81t 4 2 sujela a 3x.3. Bas Fac 4. > 0 \ ñ a d i e n d o una variable de holgura a la primera restricción 3X| + 2x. 1 Entra Si t 4 2 es la variable de entrada. 1 0 0 9 0 t'2 0 1 1 0 1 A.2.1 tk2>0 x. + t\ + t 4 : . + 8 t : ~ I8t 2 + S[ = 9 La tabla Simplex inicial. La tabla de la primera iteración del método Simplex aparece a continuación.r 2 (x 2 ) l' 2 f 2 f a 2 ' ) + t 2 2 f 2 (a 2 2 ) + t 3 2 f 2 ( a \ ) +t 2 4 (a 4 2 ) Oit1.4 C j d e las Var Bas 0 0 Qi Variable Basica r2 t\ 8 1 16 0 16 L f\ 18 1 81 0 81 s. sale de la base t 2 y se cumplen las condiciones de factibilidad. 9 1 A. lo que viola la condicion de factibilidad. la variable de salida es S h e s t a n d o en la base t \ y t 4 2 . Considerando t 2 c o m o variable de entrada. t- + + t 3 2g 2 |(a 2 ) + t 4 2 g : |(a 4 2 ) + 18t42 Ll problema de aproximación es: Maximizarz x. Entonces la variable que debe salir es S ( y no puede entrar a la base t 4 2 . + 2 t \ + 8t 3 2 + 18t 4 2 < 9 \ ^ t 2 . t\ j * 2 1 1 0 1 0 1 0 Sol.

Fac. = 0 t \ = 1/10 t22 = 0 S. t\ 4 x. IMO—Sale I Sol lias Fac. Cj de las Var B a s 81 16 Variable Basica t . El proceso termina en este punto. y como está en la base t 3 2 . 3 O I 0 1 U -6 l 1 0 -15 "t 0 I 16 I 0 L i io | XI o s. 1 2 no puede entrar a la base.C j de las Var Ras 0 16 C| Variable Basita S. -8 | (J 0 -16 A. dado que si entra. sale de la base t J 2 y quedan d o s valores no adyacentes en la base. 3/10 -3 10 t. Tales problemas son llamados "problemas de programación lineal f r a c c i o n a l " y pueden ser establecidos como sigue . 1/10 9 10 0 Cj Sol./c. hUru La variable de entrada es t 4 2 . entra en lugar de S|. no p u e d e admitirse. 1 0 -37 2 1 Ü 24 16 9 10 0 81 110 O 0 0 -13/2 0 0 36 La tabla muestra que t ' 2 y 1 2 son candidatos a ser variable de entrada. Bas. Solucion Optimax.5 Programación Fraccional lineal Ahora consideraremos un p r o b l e m a en el cual la función objetivo es el cociente de dos funciones lineales y las restricciones lineales. I l A. Como t l 2 no es un punto adyacente a t J 2 y 1 2 basicas. -6/10 16 10 i 0 1 t. I 0 S[ 1/10 -1 10 t.-0 t 3 2 = 9/10 t 4 2 = 1/10 Zmax = 0 + 0 + 16(9/10) + 81(1/10) = 22. l () O l 11 i. t\ x. -8/10 18 l A.

para un problema de minimizacion es también un mininio global bajo la región factible. b es un vector con m componentes. L e m a : Sea f(x)~ (p r x + u)/(q l x + P) y sea S un conjunto convexo tal que q'x + P * 0 bajo S. A es una matriz m \ n > a y p son escalares. estrictamente cuasi-convexa y cuasiconcava. un punto que satisface las condiciones de K. para un problema de maximizacion es también un máximo global bajo la región factible. entonces un mínimo local es también un mínimo global bajo la región factible. Puesto que la función objetivo es pseudoconvexa y pseudoconcava bajo S entonces también es cuasi-convexa. un punto que satisface las condiciones de K.T.K.K. Puesto que la función objetivo es pseudo-convexa y pseudoconcava. 3. l es tanto pseudoconvexa y pseudoconcava bajo S Del lema anterior surgen algunas implicaciones para problemas de programación lineal fraccional 1.(delimitada completamente su grafica) entonces. la función objetivo tiene un minimo en . 4.Minimizar Sujeta a .in punto extremo de la región factible y también tiene un máximo en un punto de la región factible .q x h (i Ax < b x (J donde p y q son vectores con n componentes. Rntonces. si la región factible es acotada. 2. Igualmente. C o m o la función objetivo es estrictamente cuasi-convexa y estrictamente cuasiconcava. entonces. Igualmente. un máximo local es también un máximo global bajo la región factible. cuasi-concava.T. C o m o la función objetivo es cuasi-concava y cuasi-convexa.

haciendo -z .a z Sujeta a Ay .u z Sujeta a Ay . entonces la solucion óptima al problema fraccional es no acotada l/(q l x + (3) y \ = zx.¡x: Ax < b y x > 0} es compacto (acotado y cerrado.l/(q l x + p) y y = zx se tiene que el nuevo problema es: Minimizar -p l y . Haciendo / al siguiente programa lineal Minimizar . Considere el siguiente problema Minimizar p' x + a .M é t o d o de C h a m e s y C o o p c r l . que contiene sus puntos limites o puntos frontera) y supóngase que q l x + (3 > 0 para cada x e S.bz < 0 -qly-z=l y> 0 z> 0 Finalmente. el problema anterior puede reducirse . si q'x + p < 0 para todo x e S.p \ .bz < 0 -q'y . q x + sujeta a Ax < b x >0 Supóngase que el conjunto S .z = 1 y >0 z> 0 Ahora. si existen X[ y x 2 g S tales que q .sic método consiste en convertir el problema de programación lineal fraceional en un problema de programación lineal que pueda ser resuelto con el método Simplex. x l + P > 0 y q l x 2 + p < 0.

E j e m p l o : Minimizar -2x¡ + + 2 x..0 y z = 1/11. 6) (4. se tiene que la solucion ó p t i m a es yi = 7/11.09. + 3x 2 + 4 > 0. + y 2 .4z < 0 2y. E1 correspcndiente valor objetivo es -1. se obtiene el siguiente p r o b l e m a lineal Minimizar -2yi + y 2 + 2z Sujeta a -y] + y 2 .1 4 z < 0 y2-6z yi <0 + 3y a + 4 z = l yi. 0) C o m o el punto (0. y 2 . 0 ) (7. el denominador es positivo bajo la región factible entera."+ 3X 2 + 4 Sujeta a -X| + x 2 < 4 2x ( + x 2 <14 x2 < 6 x. y**2 ^ 0 Resolviendo este problema con el método Simplex.0) es factible.x2>0 La siguiente liuura muestra la región factible. Por lo tanto. . y en este punto -x. La solucion óptima al problema original es X| = y¡/Z| = 7 y x 2 ~ y 2 /z 2 = 0. (2. 6) ( 0 .

. (o Existe una forma especial de esta desigualdad que puede ser usada en ciertos problemas de minimizacion..n). . . j = 1..x n son cualesquier números no negativos y propiedad U . supóngase que se tiene una función f de la forma f-fl>i donde yj-yj(xlí.x2)>0.. . . Duflin y C Zenncr. descubierta por R.. Hj ' Ahora supóngase que n y?" = c (3) donde c es constante.. .2. . . .. cada termino yj esta en f u n c i ó n de x . De la ecuación (2) se tiene que »' m . . y n Esto es. ^ y f es la suma de tales términos... entonces I v .. .. Desigualdad de la media aritmcüca-mcdia geométrica Si x|. . m x n ) = yj + y 2 + . Por otra parte si en la ecuación (1) si \ = l/n se tiene que . que es manejada para (unciones y restricciones no lineales. tienen la \ > 0 para todo j (j 1.ProKramacion Geométrica Una de las mas recientes técnicas de optimización matcmatica es la programación geométrica..

A. considerando el posinomio m i» f(x. . + a. ./. 2 A.X3)M Para lograr que se eliminen las variables al buscar el valor de la función objetivo.a ni | Xm ~ 0 a. * / ' " — V " i i I' i aplicando la desigualdad (5) se obtiene "• M . -1. tomando .2/-2 + .X3) = .x?x3 + 4x 2 x 3 = + 4x.xnJ..-. /i o también "' /1 i» ' Xm que satisfagan las condiciones Se b a s c a encontrar los valores de Xt.. .x 3 Examinando (4xx"'2 ( 8 ¥ 2 F (4x2x5)" (4X.| + a-. + a ^ Xm= 0 a ln-^l + a 2i/-2 + • • • + Smn + 0 y asimismo. . .. aM. E j e m p l o : Minimizar 4 f(Xi.X2. + 8X[X 2 x. que pueda obtenerse el valor de la función objetivo f.J / ' .Partiendo de esta definición.

2. E j e m p l o : Para l(x) I x ' + 2x 2 + 4x ..V.. es llamada posinomio. . entonces la desigualdad (1) puede ser escrita como -i i hyi r • • • + m M >m . . y 3 = 4x Usando la relación (3) n y .\ 2 ...~ y 3 y2 1 / 3 y3 l / 3 (1 x 1 ) ' 3 ( 2 x 2 ) .y m m números no negativos. x > 0 con m 3y y.Por la ecuación (3) la desigualdad se expresa como Z.m ) tal que v >j donde Cj > 0 > para k = 1.n a j k es un numero real y x k es una variable que solo t o m a valores positivos.. . para x > 0. / 3 ( 4 x ) ' 1 (8 J1 1 2 Entonces.„ v ají x aj2 x ajn CjX| 2 •• n ( 6 (5) La función general f puede considerarse compuesta de m términos y j Q = l...x n ). .jyr entonces — fe) . xj>mc (4) para todos los vectores (x h .. Resolución de problemas de programación geométrica no restringidos Sean v.l / x \ y2 2x 2 .... por í4) se tiene que f(x) > me = 3(2) = 6.ym £ Xx = lyX t > 0 para todo j /=i Si yj = A.. ii = /<*... • • .

x. .) +1/5 (5-8X|X2) + 1/5 (5-4x 2 x 3 ) + 1/5 (5-4x.x 2 .2/5 2 / 5 V X \ ( 4 ì X .. ' (5-8X[X 2 ) + (5-4x 2 x 3 )' ^ (5-4X|X3JL/5 > ( \ 0 ) 2 (2U) 1 ' (20) 1 / 5 > (1600000)" Los valores de las variables x|. >.nbinacion óptima de las variables. que permite conocer acerca del valor de la función o b j e t i v o antes que la co.) > 5/4 4 Vx.— X) — \ ' 2 X\ > 0 y con .x2xv ' ( 4 0 ) ' .x-j) .x 3 se obtienen resolviendo las siguientes ecuaciones 8X|X2 = 4 0 1 5 4X2X3 20.50 x 3 = 0.5 En el ejemplo anterior se observa una característica importante de la programación geometrica.x.2 0 1 5 Solucion óptima: X.x-.. X2 X. = 3..4 1/5 r(x.Í 0 x 2 = 3.13 Valor de la función objetivo: 104./5 4x. i se li ene que X¡ De lo cual = 2 / 5 .

+1/2X3-2X 4 = 0 X|. X4) sujeta a X. ^ Pi-1 F.(x) y con c¡>0..x 2 . HI problema de programación geometrica restringida a min K\) I i i' ^ 1 (x) < 1 .+X2 VA. X3./ À. r-\ . h¡(x) = . 1 problema dual se expresa como max / X2 ' ' Xp) = max g(X) =n . + X.X3. sujeta a 1/3 x. . . p.p Pk"Pr.X4 > 0 .|1 j = 1 . . = 0 X. -2X. .. .X2.. ! /.x 3 ) = 3x 2 x 3 + 1/9 x.. / l 2 A3/ .2 x 3 1. /=/'.Programación geometrica restringida hstos problemas de programación geometrica restringida se resuelven mediante su problema dual."!x2x3"2 < 1 E l problema dual es j Max g(X. \ U ^ V J J [VA V'if i -4 ^ + X2 + 1/2 X3 + X 4 . ^ f " » - sujeta a X| l> YallXl = 0 i j = l... ..XP 2: 0 Vp I' I L .n Ejemplo: Minimizar f(x. m. X 2 . n (>. .' 2 x 2 ~ 2 x 3 l/2 -r 3x.: l X|'" l x 2 a..pM+1+. -i x.) ""i/o^ \ /t. k p sujeta a donde \../"" j 1 i _ 1.0 X.

1 9 -2 2/3 . respectivamente con coeficientes la potencia de cada termino. calculando la matriz inversa del arreglo anterior."2 = 5/11 .2. X3.6 / 1 1 3x l " 1 x2x-.2/9 g ( ^ ) 1/3 x .X2 .x 3 .5/9 de lo cual .La primera resiriceion se refiere a la suma de los X.7/9 g ( X ) 1/9 x. para minimizar x l . Para hallar los valores de X2. i = 1. se obtiene la única solucion resolviendo el siguiente sistema de ecuaciones 3X.2.7'9 X2 = 2/9 -5/9 -2/9 = 2/3 X4 = 5/9 El valor optimo de los problemas dual y primal es: -5.. se tiene '7/9 2 9 -7/9 7 9 2 3 -1 9 1/3 N -1/3 3 0 -1/3. x. El arreglo de coeficientes '1 0 1 .032 Entonces. Las otras tres restricciones son referentes a los términos que tienen las variables x h x 2 . dado que son dos términos en la función objetivo. ' W 2 . .x 2 . X4.1 1 1 ü 0 Ü 12 -2 1/2 0 ' -1 1 .

correspondiente i 3. ~ 0. A. .10. se tiene que t(x ) ~ g(X. . ).4 entre la s u m a d e X^ + XA Llegando finalmente a la solucion óptima x.278 habiendo aplicado el siguiente teorema al ejemplo anterior.Los icrminos del lado derecho d e las dos ultimas igualdades se obtienen dividiendo el h.065 x2 4.67S x-. T e o r e m a : Si el problema primal tiene solucion. . entonces para las soluciones óptimas » * » • respectivas x .

. para alcanzar su solucion completa. pero complementarias. lo que hace mas complicado su estudio. donde la convexidad asegura q u e si el gradiente se anula en un punto. Hay dos maneras diferentes. tal como el método Simplex en programación lineal. tal como <J paquete G I N O . entre mas pequeño sea el error permisible E. el problema dual. Esta caracterización se amplia al enfoque global. es mejor su aproximación al punto o p t i m o . Muchos de los problemas de programación no lineal requieren de s o f t w a r e de computadora. en u n punto mínimo relati\ o sin restricciones de una función continua.CAPITULO 8 C O N C L U S I O N E S Y RECOMENDACIONES La programación no lineal tiene la limitante de la no existencia de un algoritmo único para cualquier problema no lineal. cuyas incognitas son los multiplicadores de Lagrange. Por lo tanto. ese punto es un minimo relativo. el gradiente de la f u n c i ó n se anula y el hessiano es definido positivo. Con esto se llega a la conclusion de que. los métodos duales no tratan directamente el problema con restricciones original. de caracterizar la solucion a problemas de optimización sin restricciones. Los métodos de dualidad lagrangiana se basan en L opinion de que son los multiplicadores de Lagrange las incognitas fundamentales asociadas a un problema con restricciones. la determinación del p u n t o solucion (al menos en algunas ocasiones) es sencilla. En el enfoque local se examina la relación de un punto dado con sus vecinos. una vez conocidos estos multiplicadores. ese punto es un minimo global. sino que se aplican a un problema alternativo. aunque.

Los problemas con restricciones de desigualdad se pueden tratar con una estrategia de c o n j u n t o activo. Con este enfoque. Por ultimo. .El concepto de m é t o d o s de dirección factible es una ampliación directa y lógica de los métodos usados para problemas sin restricciones. el problema original se transforma primero en un problema auxiliar del cual se determina el optimo. donde el maximo(minimo) de un problema se busca siguiendo la tasa de incremento(disminucion) mas rapida de la función objetivo en u n punto. Algunos ejemplos de estas situaciones son la programación cuadratica. c o m o la falta de convergencia global en el valor optimo del problema no lineal. L o s métodos d e dirección factible mas prácticos son el método de proyección de gradiente de Rosen \ el método de gradiente reducido de Wolfe. los métodos de solucion de programación no lineal se pueden clasificar en términos generales como procedimientos directos o indirectos. En los métodos indirectos. pues converge en un menor numero de iteraciones para la mayoría de los problemas que el método de proyección de gradiente de Rosen. pero da lugar a algunas dificultades sutiles. Se determina el conjunto correcto de restricciones activas durante el proceso de búsqueda añadiendo y eliminando restricciones del conjunto de trabajo. la programación fraccional y la programación geométrica. el del gradiente reducido de ^ olfe es recomendado. y las restantes c o m o inactivas. Ejemplos de los métodos directos son los algoritmos de gradiente. ciertas restricciones se tratan como activas. Estos métodos básicos pueden considerarse c o m o el método de ascenso-descenso acelerado aplicado en la superficie definida por las restricciones activas. la programación separable. De los dos métodos.

i o aproximada del problema original. en lanío que la programación separable genera solo una solucion aproximada. . Por ejemplo. el uso de las c o n d i c i o n e s de Kaiush-Kuhn-Tucker con la programación cuadralica produce una solucion exacta.Ohsei vemos que los problemas auxiliares en estos casos pueden producir u n a solucion e v i u .

1991. "The Operations Research Prohlem SnUer". 4. "Programación lineal y no lineal". REA. C. RLA (Mull of Research and Education Association). . 1990. H.. B. Stanfel. 1989. W.: Jarvis. Limusa.. 10. "Linear Programming and Network Flows". Taha. "Karmarkar's Algoritm and Its Place in Applied Mathematics". 5. 9. "Investigación de Operaciones". 6. Strang. . 1993. "Nonlinear Programming" John Willey and Sons. 3. Springer Verlag. John Willcy and Sons. J. Bazaraa. 0 . Sivaslian. M. y Sherali. Prentice Hall. Addison Wesley Iberoamericana.. Armiluno. II. 1975 8. "Programación no lineal". "Métodos y Modelos de Investigación de Operaciones". "Optimización Teenies in Operations Research".Lirnusa. 7. J. Alfaomega. 1987. Vol. L. G. 1989.. 1986. Prawda.Winston.BIBLIOGRAFIA 1. I. LuenberLvr I). Bazarau. Sherali. Hdelman. 9. Grupo Editorial Iberoamérica. "Investigación de operaciones". M. 1 9R5. 1994. J. J. 2. y Garcia. y Shetty. The Mathematical Intelligencer.

AI'ENDICr .

x 2 . debe pertenecer al conjunto. Convergencia: E l hecho que una sucesión de pasos o iteraciones tenga un limite.n-l con d¡. l H d j = 0 i * j... Direcciones conjugadas: Las direcciones d 0 . Con\evidad: Propiedad de los conjuntos convexos. son conjugadas de la matriz Hessiana sí cumple d. Espacio euclidiano: Conjunto de todos los vectores de dimensión n definidos sobre los números reales.dj * 0 para toda i y j..l. punto optimo. Conjunto compacto: Un conjunto acotado y cerrado.h[. k ... Conjunto cerrado: Un conjunto que contiene sus puntos frontera o puntos limite. localizar la mitad que contiene a /. Función multimodal: Una función que tiene varios optimos locales o relativos. conjunto de variables basicas. Función unimodal: U n a función que tiene solo un punto mínimo o máximo global o absoluto.. i j = 0.GLOSARIO Base: En el método Simplex.d|... Dirección factible: Un vector cuyo movimiento a lo largo del mismo no viola ninguna de las restricciones del problema. C o n j u n t o a c o t a d o : Un conjunto es acotado sí existe un numero k tal que cada x en el conjunto. Gradiente : Vector que tiene como componentes las derivadas parciales de f con respecto a las variables x]. Interpolación: Técnica que consiste en encontrar un valor optimo de u n a función objetivo partiendo de una nueva función...x n .... y en cada paso.d n . aquellos conjuntos que para \ k para cualesquicr par de puntos en el conjunto. Función bimodal: Aquella función que tiene dos optimos locales o relativos. . el segmento que los une. Bisección: Técnica que consiste en dividir repetitivamente a la mitad a los subí inérvalos de |a.

Restricciones activas : Son aquellas restricciones de desigualdad que son validas como igualdad. Matriz simétrica : Una matriz cuadrada que es igual a su transpuesta. en un sistema de m ecuaciones con n variables (n > m) una solucion basica es aquella que se obtiene al fijar n .m. Medida de eficiencia : El numero de iteraciones de los métodos de busqueda. Multiplicadores de Lagrange : Son las constantes que aparecen en el lagrangiano X. . Longitud de paso : Magnitud de avance de un punto factible a otro mas cercano a la solucion óptima en una iteración. Variable basica : En programación lineal. i = l . . . .f¡.(x) para i . entre menos iteraciones se efectúen es mejor la medida de eficiencia de un método. igualdad o ambas. Restricciones inactivas : Aquellas restricciones de desigualdad que no son validas como igualdad.Itcraccion : lin desarrollo de una serie de etapas de las que consta un algoritmo. Solucion Factible : Un vector perteneciente a un subconjunto del espacio euclidiano E n que satisface las restricciones..m variables del sistema iguales a cero y resolviendo el sistema en función de las m restantes. llamadas variables basicas. Para el caso de minimizacion f(x) > f(x). Son lo contrario a las restricciones activas.. .n. . n. j . Métodos primales : Aquellos métodos en los que la factibilidad del problema primal es mantenida durante el proceso de optimización. . Problema lineal: Es un problema de minimizar o maximi/ar una función lineal en la presencia de restricciones lineales del tipo de desigualdad. . . Solucion óptima : Un punto x tal que f(x) < f(x) para el caso de maximizacion. Matriz Hessiana : La matriz compuesta por las derivadas parciales de segundo orden d2((x)/dxlK¡ . .I.1.

Vector: Arreglo de 1 números escritos en una fila o una columna. 1 Vectores lincalmcntc independientes: Aquellos vectores a...k.a 2 a Z V / = 0 a k de dimensión n que implica que X\ = 0 para j=l.. . ..

L.N. . A .A. Desde agosto de 1990 se desempeña como catedrático en Matematicas \ Fstadistiea en la Facultad de Ingeniería Mecaniea \ l-.lectrica de la U . Rubén Cantu Cañamar > Argelia Cuellar de Cantu. Estudio en la facultad de Ciencias Físico Matematicas de la l . obteniendo el titulo de Licenciado en Matematicas en 1989. V I . Sus padres son el Prof. de 1984 a 1988. Busca obtener el grado de Maestro en Ciencias de la Administración con especialidad en Investigación de Operaciones c o n la tesis: Programación ao lineal.AUTOBIOGRAFIA Ll licenciado Ramón Cantu f u e l l a r nació el 31 de agosto de 1967 en Monterrey. Nuevo León.

Related Interests

i l'nidades de capital x2 L'nidades de trabajo Función objetivo: Maximizar z= X|X? Restricciones 3¡) + 7 x .v. Por lo menos 40 millones de hombres y por lo menos 60 millones de mujeres quiere Q&.c) Dfx) sin restricciones.v dólares por unidad del producto. Si la compañía cobra . mujeres y por 17 hombres. Ejemplo 1: A una compañía le cuesta c dólares por unidad fabricar un producto. < 600 x. Ejemplo 2: Si se utilizan . Se dispone de un total de NS600 para conseguir capital y trabajo. ¿ Que precio tendrá que poner la compañía ? : Variable: x Función objetivo: Maximizar z~ fx . Si se compran x.

> 0 + 7 ^ .k-/-c/k 0<k< /k> 0 h P k .k . + 1000x 2 Restricciones: 17-N/*7 > 4 0 2 0 ^ A-. Supóngase que se tienen trabajadores suficientes cuando se necesite y despedirlos si son innecesarios. k . de cualquier manera. También es incurrido un costo proporcional al inventario suma > sigue de un periodo a otro.1./.I + l k tal que se satisfaga la demanda y el costo sea k /k-/k-/+/. 2 minimizado.i\el de imentario /. Variables: / k . « * + c2 k\ Restricciones: I k . no fomentar las fluctuaciones de trabajo pesado incurre un costo provisional a el cuadrado de la diferencia en la fuerza de trabajo en cualquiera de los dos periodos sucesivos. Encontrar la fuerza de trabajo de inventaría) durante los periodos 1 . La cantidad de producción máxima durante cualquier periodo esta restringida por la capacidad de producción del equipo disponible de modo que este no puede exceder b unidades.2 n . supóngase que el inventario de la producción puede determinarse en un total de k periodos La demanda durante cualquier periodo puede encontrarse a partir del inventario en el principio del período y de la producción durante el periodo. >60 >0 x2 Ejemplo 4: Una compañía produce un cierto articulo y desea encontrar una demanda conocida.fuerza de trabajo en el fin del periodo k i k ' luer/a de trabajo adquirida durante el periodo k n Función objetivo: minimizar z= ^ ( c ./.Variables: x¡ Anuncios en telenovelas x7 Anuncios en fútbol Función objetivo: minimizar z = 5000x. r.

. el espesor y e) diámetro promedio de la armazón de tubos de acero. . la altura de la estructura no puede exceder b. tal que esta pueda soportar una carga de 2W y minimizando la altura total de la armazón. esto es. Debido a limitaciones de espacio. Se presentan las siguientes restricciones adicionales: 1. El radio del diámetro del tubo entre el espesor del tubo no debe exceder b2. la distancia entre los dos pivotes es fijada en 2s. El peso de la estructura es 2npX]X2(s2 + donde p es la densidad del tubo de acero. Ejemplo 5: Considere la armazón en un plano mostrada en la figura 3 1 a armazón consiste en dos tubos de acero juntos en un extremo y fijos en dos puntos pivotes en el otro extremo. 2.Asimismo: I Q : Inventario inicial LQ : Fuerza de trabajo inicial d k : Demanda conocida durante k periodos p : Numero de unidades producidas por trabajador durante cualquier periodo. El espacio. El problema de diseño es elegir la altura de la armazón.

' X . La altura.v^Cy 2 Restricciones: w(52 + . > 0 . Y.x 2 x 3 < 0 -b4x. q u e origina la siguiente restricción donde b es constante W(S2 + X3)'¿ < b3x{x2x} 4.x2x-i(x~ +x:)< 0 x. x.3.<b.ó . La tensión de compresión en los tubos de acero no puede exceder la tensión dada del acero. X . Esta restricción puede ser expresada con b 4 c o m o un parámetro conocido >l'(5" + X 2 ) ' < b 3X 1x 2 x 3 Función objetivo: Minimizar z = ..y2 M'(r . diámetro y espesor pueden ser elegidos tal que los tubos no se doblen b a j o la carga.

x entonces /br. debe pertenecer a X.X | \ 2 ) l'( x | ) + (1 . Ejemplo: Un conjunto convexo Un conjunto no convexo 1-unciones convexas y cóncavas Definición: Sea X un convexo no vacío en h n .X)x2 pertenece al conjunto Xpara cada Xe[0. x2 en .X ) f( x2) .'/ ) f ( x : ) I a función / es llamada cóncav a si -/ es convexa. La función f sobre X es una función convexa si para cada x ( . + (\ . La convexidad de X se puede interpretar geométricamente como sigue: Para cada par de puntos x¡ y x2 en X. I]. 11 cumple f ( > X| ' I 1 " /-iN') f(x. esto es l'( Ax | • ¡1 . el segmento de recta que los une.CAPITULO 4 C O N D I C I O N E S DE OPT1MALIDAD Y D U A L I D A D L A G R A N G I A N A Conjuntos convexos Definición: Un conjunto X en E n se llama un conjunto convexo si dados dos puntos A'|. x 2 e X y para cada Áe fü.) j Í 1 .

si X es un conjunto convexo y si f e s convexa sobre X. Figura 1 Ejemplos de funciones cóncavas y convexas La figura 1 muestra que f es convexa si y solo si el segmento de recta que une dos puntos cualesquiera de la curva y = f(x) nunca se encuentra por debajo de la curva y=f(x).2 n n i . Geométricamente en dos dimensiones. Trabajando únicamente con funciones cóncavas y convexas. se dice que la función es estrictamente convexa y estrictamente cóncava.Si las desigualdades de esta definición son estrictas. Veamos los siguientes resultados. f(x) es una función cóncava si y solo si el segmento rectilíneo que une dos puntos cualesquiera de la curva y _ f ( x ) .(x) h.1. 2. de donde se tienen ciertas propiedades importantes referentes a este tipo de funciones.(xj 0 0 i 1. . De manera similar. nunca se encuentra por arriba de esta curva. T e o r e m a : Para el problema no lineal Minimizar ffx) sujeta a g. respectivamente. se caería en el campo de la programación convexa. entonces cualquier mínimo local del problema no lineal anterior es una solución óptima de este problema. En base a esta definición se tiene que f es convexa si y solo si -f es cóncava y viceversa.

x)\ CXTX„ â2J(x) H(x)= âx-. Entonces f(x) es una función c o n \ e x a sobre X si y solo si f ' ( x ) > 0 para loda x en X. Enlonces f(x) es una función convexa sobre X si y solo si para cada x en X los menores principales de H(x) son no negativos. â2f(x) ¿a Partiendo de este concepto tenemos los dos teoremas siguientes para funciones de una sola variable. à2fix) rv. x 2 x n ) en X.v. Entonces f(x) es una función cóncava sobre X si \ solo si f ' ( x ) < 0 para loda x en X.Ahora bien. faf(x) âc à2f{x) â\f{. la manera de saber si f(x) es cóncava o convexa es mediante la segunda derivada de f(x).x â\f{x) â\f{x) c\zx„ <?VU) Kâc„x. es decir. Teorema: Supóngase que f ' ( x ) existe para toda x en X. Y para funciones de mas de una sola variable se tiene: Teorema: Supóngase que f(x) tiene d e m u d a s parciales continuas de segundo orden para cada punto x (X|. Teorema: Supóngase que f (x) existe para toda x en X. analizando el signo de f (x) c o m o se efectuaba en calculo diferencial para funciones de una sola variable y mediante la matriz hessiana de f para funciones de mas de una variable. .

tienen el mismo signo que (-1)\ E j e m p l o : Determinar si las siguientes funciones son cóncavas... f ( x ) " 3 x + 4 3 . 4. I'(x) T(x) 3x + 4 3 . \ 2 ) -X. Entonces t\x) es una función cóncava sobre X si y solo si para cada x en X y k _ 1..x 2 .... x 2 ) - x: + 2X|X 2 + x. .Definición: E l i-ésimo menor principal de una matriz nxn es el determinante de columnas cualquier matriz ixi que se obtiene al quitar renglones y las n . f(X|." .X|X2 . f(x. f(x) es una función convexa.2. convexas o ninguna de las dos 1. f(x) = x 2 2. Definición: El k-ésimo menor principal dominante de una matriz nxn es el determinante de la matriz kxk que se obtiene al quitar los últimos n . fixj X2 f (x) = 2x f'(x) _ 2 > l) Como f"(x) > 0.n .k renglones y columnas de la matriz.-X.x n ) en X. x 2 2x2 Solución: 1.. los menores principales diferentes de cero.2x¡ 5. l ( x .i correspondiente a la matriz. T e o r e m a : Supóngase que f(x) tiene derivadas parciales continuas de segundo orden para cada punto x = (x|. x2) . 2. .3 x ..

V. .x 2 + .-2x.f'(x) = O f(x) es cóncava y convexa simultáneamente dado que cumple con estas definiciones.x. f(x|.1 CX~ íx: C-F(X) (X. '7U) = -x. ex. + 2x.x 2 ) es una función convexa. Calculando la matriz hessiana para f(X|. 4. = 2 ¿Vi*) dx\ = 2 = i f 2 1> H (x)- .2 2j Los primeros menores son los elementos de la diagonal principal iguales ambos a 2 > 0 2 2 2 2 = 2(2)-2(2) = 0> 0 Como los menores principales de H son no negativos para cualquier punto.X r f(x í-2 H (x)-1 -r -4. "' = 2 M * ) = 2. 4. . < f(x) = . 3.x. x 2 )= X| + 2x.Y. £JM ex: = 2x. df{x) ac. + 2 r . Siguiendo el mismo procedimiento que en el ejemplo anterior ff(x) ex .

el segundo menor principal tiene el mismo signo que (-1) .1 = 7 > 0 Y para k . . Entonces f(x) será c o n \ e \ a si el segundo menor principal.3. Para k = 1 (-1)' = .Los primeros menores principales son los elementos de la diagonal del hessiano.] ) = .x.1.2 (-1) = 1. Por lo tanto f(x) es una función cóncava. 5.3 x . -2 y -4.1)* = ( . Nuevamente ¿A*) 3c.9 = . = 2x. + 4a\ â2f(x) ex: = 2 à2f(x) dx\ = 4 — —j â2f(x) '2 H (a-) = ^ 4 k k-j k Los primeros dos menores principales son positivos y para k~l (. df{x) = . ambos negativos. . f(> ) tampoco es una función convexa.L entonces los dos menores principales tienen el m i s m o signo.1o cual significa que f(x) no es cóncava. entonces tenemos que 2 _3 -3 4 =2(4)-( 3)(-3) = 8 . el determinante del hessiano es mayor o igual a cero. pues son negativos El segundo menor principal es: -2 -1 -1 -4 = (-2)(-4) .1 < 0 Por lo tanto como el segundo menor principal es negativo.(-1) = 8 .

Analizaremos estos nuevos conceptos. es decir si f(A. la definición de función cuasi-cóncava indica que si f es cuasi-cóncava es imposible encontrar tres puntos colineales tales que el punto del centro tenga el mas pequeño valor objetivo que los oims dos puntos. A. Figura 2 a) b) c) La figura 2 a j muestra que f es una función cuasi-convexa si es imposible encontrar tres puntos colineales tal que el punto del centro tiene el mayor valor objetivo al evaluar estos puntos en f. Generalización de funciones cóncavas y convexas Funciones cuasi-convexas y cuasi-cóncavas D e f i n i c i ó n : Una función f es una función cuasi-convexa bajo un conjunto convexo X en Kn si para cada x ( .-+-[ I -?. f(x 2 )} para todo. que son generalizaciones de estos conceptos. x 2 en X f(AX¡-t | 1-a]x2) < mínimo {f(x. una función cuasicóncava y una que no cumple ninguna de las dos condiciones.Las funciones convexas y cóncavas desempeñan un papel muy importante en el estudio de los problemas de programación n o lineal.]x : ) > mínimo { f ( X | ) . Siniilarmente. . tal que 0 < X < 1 La figura 2 muestra un ejemplo de una función cuasi-convexa. para luego pasar a analizar las condiciones de optimalidad partiendo de estos conceptos fundamentales.x. por la definición de función cuasi-convexa.). así c o m o también algunos otros tipos de funciones que son similares a estas. f(x 2 )} La función f e s llamada cuasi-cóncava si .f es cuasi-convexa.

al tomar tres puntos en el eje x b la imagen del punto central no es ni mayor ni menor que la de los otros dos puntos colineales.. . Una función lineal es simultáneamente cóncava. convexa... Definición: Sea X un conjunto no vacío en En. x 2 . y una función a : En — E. es necesario conocer cuando una función convexa es diferenciable. porque si f es convexa entonces es también cuasi-convexa.. expresada rfix) ' como rj\x) ||x £/fx) f \ x ¡| - .V) +||x . el espacio Euclidiano en n dimensiones y sea f: X—> Entonces f es una función diferenciable en un punto x perteneciente a X si existe un \ e c t o r Vf(x) llamado el vector gradiente. x)= 0. cuasi-cóncava y cuasiconvexa.x | | es la norma del vector x . dado que cumple estas dos definiciones. La figura 2c) muestra una función que no cumple con ninguna de estas condiciones. x„. > tal que U\) l( -V) T Vf(x/(x .x .x 2 )-+.+(x„ .La figura 2b) muestra una función que es cuasi-convexa y cuasi-cóncava. pero el reciproco no es cierto.X ||(X...x. Este mismo criterio puede ser aplicado para funciones cóncavas y cuasi-cóncavas..)- y _ I os componentes del vector gradiente son las derivadas parciales de f con respecto a las variables x. Funciones Pseudo-convexas y Pseudo-cóncavas Antes de definir estos dos nuevos tipos de funciones. Lina función si es cuasi-convexa no necesariamente es convexa.. ||x . donde lima i >> (x. X) para cada x en X..

. Habiendo definido estos conceptos fundamentales analicemos las condiciones de óptima!¡dad para funciones convexas. x 2 en X con Vf(X|)' (x 2 . diferenciable en X. La figura 3 muestra algunos tipos de funciones pseudo-convexas y pseudoconcavas. cuasi-concavas. La función f e s llamada pseudo-convexa si para cada X|.X |) < 0 La función f es llamada pseudo-concava si -f es una función pseudo-convexa. Estas definiciones de funciones cuasi-convexas.» E . así como una que no es ninguna de las dos. Figura 3 a) b) c) a) Función pseudo-convexa. b j i unción pseudo-concava y pseudoconvexa. ) ' (X 2 . si f(x 2 ) < f(X|) entonces V f ( x . pseudo- convexas y pseudo-concavas se convierten en estrictas cada una de ellas si la desigualdad correspondiente de la dclìnición de cada tipo de función es estricta.X|) ^ 0 se tiene que f^x 2 ) ^ f(X|) o equivalentemente.Definición: Sea X un conjunto no vacío en En y sea f: X . c) Función que no es ni pseudo-convexa ni pseudo-concava.

5). si el problema es de maximización.y es una solución óptima a este problema si y solo si f tiene un subgradiente ^ ( x ) (x .Y) (X . donde f es una función convexa y X es un conjunto convexo no vacío en E„. . en base a lo anterior. El conjunto poliédrico convexo X es representado en la figura 4.5) sujeta a -x. se tiene que .Condiciones de optimalidad Teorema: Sea la función f: E n E h el problema Min f(x) sujeto a x € X. . x es una solución óptima si y solo si Corolario: El (. Asimismo. + x 2 ¿2 2x| + 3x 2 < 11 -x.3/2) + (x 2 . <0 -x2< 0 Solución: La función objetivo es una función convexa que representa el cuadrado de la distancia del punto (3/2.x ) ~ 0 y Vf(x) = ( x ) } Ejemplo: Para el siguiente problema: 2 2 Minimizar f(x) = (x.x) < 0 para todo x en X óptimas alternativas puede ser definido en x tal que conjunto de soluciones equivalentemente como X X*={ x e X: V f ( x )l (x .x ) > 0 para todo x en X.

-4) 1 Se observa geométricamente que e) vector (-1.l ( x .. x es el vector de n componentes X[.3/2].4 ( 3 ) + 13 = -13 + 13= 0 lo cual indica que (1. .5])'= (-1 . donde (x.. Entonces la condición de optimalidad establecida anteriormente f u e verificada. para problemas de programación no lineal. se observa claramente que el punto ó p t i m o es (1.3) es el punto óptimo. analicemos el concepto de los multiplicadores de Laurange. 3 ) tenemos Vf(x) = (x.1.(x) _ 0 i~ 1 ~ m donde f.3/2]. Condiciones d e Optimalidad de Fritz-John Antes de definir las condiciones de optimalidad de Fritz-John.3) Vf(x) . sujeta a g. g|.1) + (-4)(X 2 .4xi + 12 = -x. x 2 . 2[X 2 . g. x„ y la palabra optimizar puede significar m u x i m i / a c i ó n o minimi/aeión. . E l vector gradiente en el p u n t o (1.3) = .. Método de optimización por lagrangianos El problema a resolver es: Optimizar ffx.3) = -x. g m son funciones definidas en 1:. -4x-> + 13 m .1. Sustituyendo en el vector gradiente x = ( 1 . x 2 ) e X.3). 2[3 .. x 2 .3).. -4) f o r m a un ángulo < 90° con cada vector de la f o r m a (x( .3) es: Vf(x) = (2 [ X l . x 2 . + 1 .(2[1 .. ..De la figura.5])' con x = (1.

. m. el problema P de minimizar f(x) sujeta a \ en X \ I. Esto se realiza definiendo de la siguiente manera una nueva función objetivo. Considcn..¡g¡(x) 0 para i= 1.(x) < 0 para i ..jg. m.. Sea x una solución factible y sea I }i: g..f(x) . es decir que X. m..Y) = 0}.xn.... = 0 T e o r e m a : (Condiciones de I rit/-... para resolver este problema en teoría (dado que ocasionalmente es imposible resolverlo por métodos exactos y se requieren métodos de aproximación a analizar en los capítulos siguientes) hay que obtener todas las derivadas parciales de primer orden para cada variable e igualarlas a cero y resolver el sistema de ecuaciones resultantes F (X -0 d F =0 f b .(. C o m o el lagrangiano no tiene restricciones.0 d F = 0 . es equivalente a la función objetivo original f con n variables independientes porque se están restando únicamente ceros.El m é t o d o clásico para resolver este problema. y g: F„ para i 1. llamada el lagrangiano F ( x b x 2 .Kgm (x) E l lagrangiano F con m+n variables independientes..A.k 2 g 2 (x) ... es utilizando los multiplicadores de Lagrange (X¡)..lohn) Sea X un conjunto no vacío y sea f: F„-> F. g..0 ' v r F ok.• • • . cuando las restricciones están igualadas a cero (cuando son desigualdades este método requiere de ciertos ajustes que complican bastante la situación).Cx) .Xl. .X2 XJ .

supóngase que f y g¡ son d i f e r e n c i a l e s en x y que g¡ para i e 1 son continuas en x. es el vector cuyas componentes son u. m mencionadas donde u es el vector eu>as componentes son n.. u) * 0 para i=l. Además. para i £ I. > 0 para i e I (u 0 .Vg... u.. > 0 (u„..2Y x. P. entonces las condiciones anteriormente pueden ser escritas en la siguiente forma equivalente: m UoVf(x)+ Zu. Si x resuelve localmente el problema. i I ¡empio: Minimizar sujeta a 1 ¡ + (x~ .(x) = 0 > i u¡. u¡) * (0. 0) donde u. gj (x) = 0 u„.Vg¿x) = 0 IrX u 0 .. u..m. si g¡ para i e I son también d i f e r e n c i a l e s en x .Además. + x 2 < 5 x.. m para i=l.. + 2 x 2 < 4 -x. tales que u0Vf(x)+ £u.. <0 -x 2 < 0 Se tiene ta siguiente región factible . entonces existen escalares u 0 y u¡ para i e l .. para i=l .

Figura 5 (0. u/ Si U| u(.-2)' Vg(\) 4. / 3 y u 2 = 2 u 0 / 3 para cualquier u 0 se satisfacen las condiciones de Fritz- John dado que se encuentra un vector diferenk k cero (u ( . 1 )\ Calculando los gradientes para la Por lo tanto. hay que encontrar un vector diferente de cero (n 0 .u h u 2 ) > 0 . 2j para x función objeliu) \ restricciones Vf(x)-(-2.U|. para satisfacer las condiciones d^ ! rii7-John. 0 ) ivi 0) Las condiciones de Fritz-John se cumplen en el punto óptimo (2.u 2 ) > Ü que satisfaga / N M M J ' v N ur. .1). 21 (0. es decir aquellas que funcionan como igualdad en el punto considerado son I = {1. Nótese que el conjunto de restricciones activas.2)' V g 2 ( x ) = ( l . 2)' 2..

) 3 < 0 -x2<0 Gráficamente Figura 6 *7 Las condiciones de Fritz-John se cumplen en el punto (1.Ejemplo: Considere el siguiente problema Minimizar -x. 0)'. u 2 ) > 0.0)' Vg. El conjunto de restricciones activas en x es dado por 1= { 1 . 4}y se tiene que u.x. 2 } . sujeto a x 2 . Calculando los gradientes Vi(x) de lo cual \ (1.-1/ / 0' \ / N 0 + U2 + UI (s v<. Entonces las condiciones de Fritz-John son verdaderas en x lomando u 0 -() y u. u¡. Esta condición solo se cumple si u () =0. ( x ) = (0. u 2 0.0) 1 . Analicemos ahora si las condiciones de Fritz-John se cumplen en el punto (0. . 1) Vg2(x) = (0. El conjunto de restricciones activas e I ¡3. donde u es un escalar positivo para obtener el vector (u„. u 2 = a .(1 .

(-6. u 4 ) es diferente de cero. y sean i:E n ->L| Y gi:E n -^E| para i .(x) 0J. pero si u 0 >0 se tiene que restricciones de no negatividad.Además Vf(x) .1 1 m. Para pioblemas de programación no lineal las condiciones de Fritz-John y de K K T son necesarias \ suficientes para optimalidad cuando la función objetivo. . O)1 V g 4 = (0. Si F > g..-0 entonces u 3 =u 4 =0 lo cual contradice la condición de que el vector (u 0 . Condiciones de Optimalidad de Karush-kuhn-Tucker (KKT) En problemas de programación lineal el método Simplex se puede interpretar como un procedimiento sistemático para alcanzar un punto extremo óptimo de la región de factibilidad que satisface las condiciones de KKT. Si x resuelve localmente el problema . u 4 =-4u 0 .0) 1 . Para cualquier problema de programación lineal si un punto es óptimo es porque cumple con estas condiciones. -4)' Vg 3 = (-1. T e o r e m a : ( C o n d i c i o n e s de Karush-Kuhn-Tueker) Sea X un conjunto no vacío abierto en En. El origen no es un punto óptimo local. Las condiciones de Fritz-John no son suficientes para la optimalidad de los problemas de programación lineal. Por lo tanto las condiciones de Fritz-John no se cumplen en x =(0. u 3 . para cada i e I son diferenciabas x .6 u 0 . Sea x una solucion factible y denótese {i'g.-1)' Las condiciones de Fritz-John se cumplen si y solo si / + \li(A +U4 W 0 \ / 0\ = W u 4 <0 contradiciendo las entonces u . Por otra parte si u ( . las restricciones de igualdad se encuentran bajo apropiadas suposiciones de convexidad.

tienen las mismas características que el problema de minimización. m para i = 1.m g¡(x) < O deben existir escalares ui para i e I tal que m VUxJ+Xu. <=i U ¡U¡( * ) = O u¡ > O para i = 1.3 x : ) V f ( x ) = (3. 6)' V g .. v ¿ ' .x ' + 8x 2 . De la primera condición »i Yl(x) • Xu.g... tenemos que u^ u^-O. <0 x2<0 Verificaremos si se cumplen las condiciones de KKT en el punto (1... Calculando los gradientes Vf = l .Minimizar f(x) sujeta a x € x i=l.. Ejemplo: Para el problema Minimizar 10X] -2x.1) para determinar si es o no óptimo...x * sujeta a X[ + x 2 < 0 -x. ..(x) = 0 .1)' Como solo la primera restricción es activa. ( x ) = 11.. I-] conjunto de restricciones activas I = {1} ..Vg. m Estas mismas condiciones también son validas para que x sea punto óptimo para el problema Maxim i zar f(x) sujeta a g¡(x) > 0 i= 1 m donde f \ g..

+ x 2 < -3 X! >0 x2> 0 Para el punto (3.152 y u2 . + u 2 = -140 So tiene que Ui .-1) 1 Resoh iendo el sistema resultante -U| . Para 1.12. existe un problema que es estrechamente asociado con este llamado dual lagrangiano.i4oy Vfj(x) = (2. Dualidad Lagmngianu Dado un probloma de programación no lineal llamado primal.3) verifiquemos las condiciones de KKT.x 2 sujeta a -x. . . .(x)-(1. Ejemplo: Minimizar xf + xt + 12x2 + 6x 2 .3).{1.x 2 ^ -6 -2x.C o m o debe ser u. > 0 se describe un sistema incompatible.2U2 = -176 -u.x. x 2 . Por lo tanto el punto x = (1.2} u3=u4-0 :) Vg.x . iV no es óptimo.1)1 vf(x)-d76. dando a estos parámetros estos valores se cumplen las condiciones de KKT en el punto (3.

m i=l. 1 donde f. Problema Dual lagrangiano D: Maximizar 0(u.(x) I i X v 1 h (x) 1 + + Asimismo. E l multiplicador u¡ asociado con la restricción de desigualdad g. h¡: E n ->E] y X es un conjunto no vacío en E n . En este problema.(x) = 0 es no restringido en signo. dado un problema de programación no lineal.. las restricciones g¡(x) < 0 y h¡(x) pueden ser incorporadas en la función objetivo usando los multiplicadores de Lagrange u¡ y v¡. algunos problemas duales lagrangianos pueden concebirse dependiendo en cuales restricciones son lomadas como g.fx) . en tanto que el multiplicador v¡ asociado con la restricción h. Sean g y h las m y 1 funciones vectoriales con componentes i-ésimos g¡ y h¡. Entonces el problema dual consiste de maximizar el Infimum (máxima cota inferior) de la función Í(x) » < Xu..fx) < 0 v h. v ) ~ i n f j f ( x ) + ¿ u1g1(x) + ¿ v i h i ( x ) : x e x j Los vectores u y v pertenecen a E m y E b respectivamente.g. v) sujeta a u > 0 donde 9(u. g¡. respectivamente..0 .Estos dos problemas son dados a continuación Problema Primal P: Minimizar f(x) sujeta a gi(x) < 0 hi(x) = 0 i=I..íxj < 0 es no negativo.

x 2 > 0 Para este problema. la solución óptima ocurre en el punto (2.u = 0 x 2 .x 2 + 4 < 0 X|. La función dual es dada por 0(u) . Ejemplo: Para el siguiente problema primal Minimizar X|2+ x 2 2 sujeta a -x. . -x 2 + 4 y X = {(x b x 2 ) : x]? x 2 > 0}. Mediante esta técnica pueden resolverse problemas no lineales convexos o no convexos. .u/2 0.ux 2 : x 2 > Oj + 4u La máxima cota inferior se obtiene para 0(u) de la siguiente forma: Para x.y cuales restricciones son tomadas por el conjunto X. Esta elección puede afectar el valor óptimo de D (en un problema no convexo) y complicar el procedimiento que consiste en evaluar y actualizar la función dual c durante el curso de la resolución del problema dual. entonces X| = x 2 0(u) inf ¡ ( f ) 2 + ( f ) ~ + i / ( .^ + 4 ) : x .ux. . \ derivando de la función anterior 2x.x 2 + 4) : x. u/2 2x 2 .inf |X| 2 + x 2 2 + u(-x. También en problemas de optimización discreta donde todas o algunas de las variables pueden ser restringidas a ser números enteros. de lo cual si u > 0 \: lo anterior es válido si u > 0. . > 0} + inf !x 2 2 . Si u < 0. x 2 > o) . 2) con valor objetivo igual a 8..u = 0 X. Sea g(x) = -X. : x. x 2 > 0} .inf ¡ \ f .

(4. 4). Ejemplo: Para el problema de minimización Minimizar f(x) sujeta a -2\ + X] + x 2 -3 = 0 (Xj.{(0. 1). (2.O + 4)¡ = inf {4w} = 4v Í AH si ii O j'n'+JII si ll ¿ O El valor máximo de 9 (u) se obtiene para u = 4 . 4). Aquí surge otra diferencia entre los problemas de programación lineal y no lineal. que mientras en programación lineal los problemas primal y dual tienen los mismos valores objetivos óptimos. 2) y (2. (1. entonces 8(w) = 8. 2). 0). 1 De los seis puntos solo cumplen la restricción de igualdad ( I . .0(u) = inf { f u 2 + 4u} = 4 u 2 + 4u Si u < 0 9(u) = inf {O2 + O' + i/(-0 . (4. El valor objetivo mínimo óptimo es -3. 0). en la mayoría de los casos no es valido. pero esto. x : ) e X donde X . en general el valor objetivo óptimo del primal es mayor o igual que el valor óptimo del problema dual. en programación no lineal. los problemas primal y dual tienen el mismo valor objetivo óptimo y por lo tanto es posible resolver el problema primal indirectamente resolviendo el problema dual. Los valores óptimos de los problemas primal y dual son ambos iguales a 8. 1) de los cuales el óptimo es (2. Bajo ciertas suposiciones de convexidad y teniendo como requisito apropiadas restricciones. (0. como en el ejemplo anterior.

3 ) : ( x „ x 2 ) e X} inf {-2X| + vX|i x.1.X 2 = {0. tomando el punto (4. y x 2 . -5) ( 1.0.-3v Entonces . 2 .inf {-2(0) + 0 + v(0 + 0 .La función objetivo dual es dada por G(v) = inf {(-2X[ + x 2 ) + v(X| + x 2 . e igualando a cero se tiene -2 + v = 0 v =2 l+v-0 v — -] con v < -1.3)} .1 < V <2 -3v si v > 2 La gráfica de la función dual es mostrada en la figura 7 y la solución óptima es v = 2 con valor objetivo -6 . 4 } Derivando la primera y segunda ecuaciones con respecto a x. tomando el punto (4.4 + 5v -8 + v SI V < - si .inf {-2(4) + 4 + v(4 + 4 .-9) 0 (v) . para minimizar.0) 9(v) . tomando para minimizar 9(v) el punto (0. 4) v sustituyendo en la ecuación 0(v) .3)} .) se tiene 6(v) = inf {-2(4) + 0 + v[4 + 0 -3]}= inf {-8 + v) = -8 + v SÍ v 2. Figura 7 (2. respectivamente.inf {-4 + 5v}= -4 + 5v Para -1 < v < 2. e X|} + inf {x 2 + vx 2 : x 2 e X }-3v con X | .

u + si 2 < u < K siK < n < 3 si 3 < u 17 2n + 20 para la función dual el valor óptimo es u . X.5x 3 + 7): x. = 0 ó 1 El valor mínimo es calculado haciendo Xj = 0 si este coeficiente de costo reducido es positivo y haciendo x¡ = 1 si el coeficiente de costo reducido es negativo.Ejemplo: Para el problema Minimizar f(x) = 3x¡ + 7x 2 + 10x 3 sujeta a -x.5u)x 3 + 7u} X. x 3 = 0 ó l } R inf{(3 .7X2 + 10x 3 + u(-x. x 2 .. XY = 0 Ó 1 La función lagrangiana dual obtenida a partir del problema anterior es : 9(u) = inf{3x. .5x 3 + 7 < 0 X|.. x-.. E l resultado es la familia de soluciones X) 0 < u <2 2<u <73 7/3 < 3 < u u < 3 x2 0 0 1 1 Xi 0 0 0 1 0 1 1 1 de lo cual tenemos que si 0 < u < 2 2w + 1 0 0(u) .3x 2 . .7 3 y su valoi objetivo y su valor objetivo es igual a 44 3 . .3x 2 . X 2 . + (7 -3u) + (10 .u)x.

A continuación analizaremos algunos de los métodos de búsqueda que existen para resolver problemas de programación no lineal no restringidos. después de presentar algunos conceptos fundamentales. Existen métodos de búsqueda del valor óptimo de una función f(x) que pueden ser aplicados para funciones de una ó varias variables. entonces (para el caso de nviximi/ación). es decir l'(x)<f(\*) para loda \ Dada una función f(x) estrictamente unimodal y dos puntos x( > x_ con x. usando derivadas o sin usar derivadas. cuando tiene un solo punto mínimo o máximo. Si Kx) es estrictamente unimodal. < x 2 . que trata el problema de minimizar o maximizar una función en ausencia de cualquier restricción. existen tres posibilidades a analizar para efectuar la eliminación. Por cicmplo para el caso de maximización .CAPITULO 5 OPTIMIZACION NO LINEAL SIN R E S T R I C C I O N E S Métodos de búsqueda U n o de los principales campos de la programación no lineal es el de la optimización no restringida u optimización libre. Métodos de optimización de funciones unimodales de una sola \ariable en problemas no restringidos Definición: Se dice que una función de una sola \ a r i a b l e es unimodal. para x( < x 2 < x* entonces f(x.) < f(x 2 ) < f(x*) > x* < x 3 < Xj entonces f(x*) > f(x 3 ) > f(x 4 ) siendo x* el valor que optimiza la función f(x).

< x* < x 2 Suponiendo que se requieren hacer k evaluaciones de una función f(x). y x r los puntos a la izquierda y derecha de x p . La distancia x r . que es estrictamente unimodal. . se denomina intervalo de incertidumbre. < x* < x r . f(X) x 0 Xt Xp xr xn Una medida de la efectividad de los métodos de búsqueda de puntos óptimos en funciones unimodales de una sola variable es la siguiente: B ú s q u e d a en un intervalo con d e r i v a d a s Método de búsqueda de Fibonacci El método de l-'ibonacci es un método de búsqueda en un intervalo para minimizar una función estrictamente cuasi-convexa. Obviamente el punto óptimo x* debe encontrarse en el intervalo x. respectivamente. sea x p el mejor punto obtenido y sean x.x. sean x 0 y x n los extremos izquierdo y derecho del intervalo de búsqueda. respectivamente.) = f(x 2 ) entonces x.a) Si f(X|) > f(x 2 ) entonces x* < x 2 b) Si f(X|) < f(x 2 ) entonces X| < x* c) Si fl^x.

un punto m í n i m o o m á x i m o en funciones unimodales de una sola variable..b .1) F -2 A.Se efectúa la eliminación de la forma siguiente (para el caso de minimizacióni.( Í + 1) Ftl . entonces .H i m i n a r el intervalo x 2 < x *-.hacer x 2 = x 3 y f(x 2 j Xl X.Hacer b = x 2 .Con el porcentaje de aproximación requerido. !'(\|) f(Xj) f í x j en caso contrario. .) > . entonces .Se continua con el paso 6 Si f(X|) > f(x 2 ).a + A h x 2 = b .I lacer I .. =Lo — se calcula A para i = 1 4.a + A ( y evaluar f(x 3 ) .x. a < x* < b. Este método tiene la ventaja de que. Lo . se determina el valor de F n .Con la expresión A-Li-1 F " . b . y se procede a evaluar f(x.Se procede a calcular los valores de xh x2> x . -Hacer x .. . 2 . como no utiliza derivadas.I lacer i b-a i i. f(x 2 ) f(x.Este método es bastante eficiente para aproximar..Con el intervalo de búsqueda dado inicial.. puede calcular puntos óptimos en funciones no d i f e r e n c i a l e s . Si f(\[) t'(x : ). 5.N i m i n a r el intervalo a < x ^ \ . hacer x 2 . b a j o cierta tolerancia de error.a 3.Si .(i .l y calcular A. que deberá de utilizarse. Este método supone que se conoce un rango inicial de búsqueda. Procedimiento 1.\| < x.) \ f(x 2 ). se d e f i n e el valor inicial L..A.

2353 Aproximación F : 3.Se continua con el paso 5 hasta que i = n .b .6x + 2 con un 3% de error o menos.0000 0.0769 0. f(X|) = f(x . f(x 2 ) = f(x 3 ) en caso contrario. en el rango 0 < x < 10 n 0 1 2 3 4 5 6 7 8 9 Fn 1 1 2 3 5 8 13 21 34 55 1/Fn 1. ) y x 2 = x 3 .os cálculos para obtener esta solución se presentan en la siguiente tabla .Se continua con el paso 6 6.9412 x 3.0182 (margen de error) I a solución x* esta en el intervalo -2.0294 10-0 I 1 valor mínimo encontrado para la función es: -6.Si x 2 < x 3 hacer X[ = x 2 . Ejemplo: Encontrar el punto mínimo de la función unimodal f(x) _ x 2 .0476 0.0000 1.1250 0.1.Hacer L j = b .996 I..5000 0 3333 0. = x 3 y l"(X|) — f(x 3 ) . hacer x.Hacer x 3 .Hacer a = X| ..Hacer i = i + I y calcular Ai .942 — = 0.02 l )4 0.2353-2.2000 0.A¡ y evaluar f(x 3 ) .a .

r-l cc sO f O o Cs sO r-i O >n r« *t (-1 o xi O O O O O rl C ro O 1 4706 2.C X — oo co cs •n co tS 00 C O 8235 . o -r C S 00 oo o .3529 > r.3529 C S ~t Cs es C S cri CS oo 00 - ro r) 1—*CS -t Tt Cs C S r- o< N sC C o S m rco T T C S CS T CS « A C O C S r-l t -t Os r-l r-J -rf O S C r-i S TjOs <s c \o O t» t T fn — C S C Tf O 00 Os S •n C — -r 'r. \r.2353 £ o o as o co 00 co C 00 S C VI O so 1 C S O 00 — C o C i— O C ÎC vo zc S •Ä C U1 O ^ >£> t 1 so <n VI C O S pi r. co C S oo S co O 1/1 V. * "3 V ra >n o >o oû rV o o o i i — io se rso V X V «n co es »0 co >o o r» V o o o o o V os <o (S ro N •n C ro 00 C C S O V V X ? V S C O O O VI O r. C O (S C O 2 647] O Li in so V.3 co i 00 <n Os O S O so 7 «n so Os Os •o 1 <s It Os es IO C O (S 00 co V X V Os es •o C O C S \o rf Os S O C O C O <s C O C O T) C O C S -t <n t00 SI O 1c — tTf sO C S S O Os Os Si O C S -t o-.3529 cS C O C O in c C O >r. C S C O W| C O CS C O V X V C S 11 — -1O N <s r-l^ — -t Os < N V X V rso C S S O Os Os S O IT) sc Os Os sc i n X <n o >o r2P S eá $ X o V o Z Os \o r-J o •O tro rt «S en es 00 V o »o co es 00 sO o r- V V X s C O <o C O C S C O V X X V V Os l-H es r» «n Tf co S O C C N S rS O C S V x V Cs C S in C O C S S O Os Os sj £ > m r» 00 S O (S U. O r 1 rl .C CS C O •n so so t Cs C O S S S so O 1 <n S O Os Cs S O .23 53 2. C rr. ve ro r.

1 .0..a y los \ alores de Xj y x 2 x? I(b-a) a v se procede a evaluar f(x t ) y f(x 2 ) 0. Si el rango de incertidumbre original es: a < x < b..'1 )( b . el proceso reduce este intervalo en cada evaluación. en un valor constante T (representa la letra griega tao) Este valor constante llamado "Sección de Oro" se calcula de la siguiente manera: Supóngase que se esta examinando el intervalo de búsqueda a < x < b con dos valores X| y x 2 conocidos.a ) ' a .Método de búsqueda de la Sección de Oro Este método también requiere que la función sea de una sola variable y unimodal que sea estrictamente cuasi-convexa. resolv iendo se tiene que T = 0. a < x* < b y el valor de T calcula Lo x| b . b 1— s \ | U 1 t | V Sea 7 - )• I donde r 1 > entonces u - si al hacer la búsqueda se eliminara el rango x 2 < x < b lo que se requiere es que en la siguiente evaluación se mantenga el valor de T para encontrar el nuevo v <tlur de u r s r r _ s r r r 1 1 ] I T I de donde se obtiene la ccuauón ! . se ( 1 .6)8.Con el intervalo de búsqueda dado inicial.61 K Procedimiento 1. tales que a < x < b Gráficamente a xi — —I— X9 F .Establecer el valor de la aproximación que se requiere le) 2.

8722 — = 0.b .6655 Aproximación 0.a 5 -(-1) .) . y f(x 2 ) = f(x.6655--0.3.Hacer x 2 _ x.Continuar con el paso 4 4.) . entonces .Calcular x 2 = T ( b . la solución esta en el intervalo -0.os cálculos e iteraciones del método se presentan en la siguiente tabla. Partiendo de ello. = ( 1 . en el interv alo -1 < x < 5 Lo .Calcular x. entonces .Si b—a Lo < e s e ha cumplido la tolerancia.Hacer b .8722 x -0. Ejemplo: Encontrar el punto mínimo de la función unimodal f(x) ~ 5x" + 8x .0344 .a ) + a .Evaluar f(x.Hacer X| = x 2 y f(X|) = f(x 2 ) .Evaluar f(x 2 ) .a ) + a .x 2 .T )( b ...Se efectúa la eliminación de la forma siguiente (Para el caso de minimización) Si f(X]) > f(x 7 ).6 I. en caso contrario continuar con el paso 3.Continuar con el paso 4 S i f ( X | ) < f(x 2 ).Hacer a = xx .2 con un 5% de error o menos.

( ? V X X V V c vi D 0 So o-i s O — 00 o N r. f. X ir. o O o — o 00 o t(Ñ S D C N <s < N C r* m C3 T f — Nuevo Rango ir. A e.Cs N X X se •c Ci se ( fS -1r in i N »/• </~. (N s£ -r ¡r T r" n Cs -T T rT r~ S O "l A >n S sD D < 'A £> •r cC O O M —r rrN <r. sZ sC C T r-J r^ x C i /-.< 1 O ce ri ir-. fi / ro dC O o rj 00 so cs n' f O S ( fN (N X sC r. ss se < v ? N cl T V X X V V V V X X X V V V \X V V V (-1 1 • i n •n v. e. y.cs m T CJ oc <n l/"l vi C T O i C N cc C v CI i r^ v cO c oo S T -t 'A <n r i O Os C -o O "O O 2 c-t o < ci N X s D ir. x O ri C n r-l •o -r ri -T — T X V -T J " . C ^ -r 50 n -r T ra • .•es Lo o o oo Cs C — (N sO Tf < 00 m Ci >o C. S -r E C N N Cs C oc rJ >n r-r 50 e O 1 V "T V V X V X X x \ 1 V V T. -r r4 n O n C >n se -T ve oo i o zc o e o TU G < U c re e c — in i• V X E ra V -OH •— O o < U c/l c3 (Ñ O S N t. i r.

2. a < a * < c. 16 a. se utiliza para resolver estos problemas de programación no lineal el método de interpolación cuadrada. Definición: Una función de una sola variable es multimodal si tiene mas de un valor óptimo.50x en el punto x dirección s 1 como valores iniciales. como en las funciones multimodalcs. otc. Para funciones multimodales no d i f e r e n c i a b a s en los puntos de discontinuidad. 3.Evalúe g ( a ) para 0.Dados valores del punto arbitrario x y una dirección arbitraria s. se encuentra en el rango a < a * < c.Lna vez que se conocen los valores de g(a).... 4.x"1 . dado por: a I u(a)(c 2 -b 2 ) + i i l b K r ^ e J . El valor óptimo de i. c. si g ( a c ) > g(b) se loma a * ~ b.qtc)lb"-a 2 ) 2 g(a)(c-b) + g(b)(a-L) -t g(c)(b-a) Si g ( a c ) < g(b) entonces u* = a c . De otra manera. 3 y la . 2. ya sea máximo ó mínimo. 1. donde c es el primer \ alor de a para el cual g ( a ) se ha incrementado.Método de Interpolación Cuadrada Los métodos de Fibonacci y de la sección de oro son utilizados para funciones unimodales. ~ Kjcmplo: Minimizar la luncion Kx) . g(b) y g(c) se ajusta un polinomio cuadrado a f(x) y se calcula el mínimo local del polinomio. Procedimiento 1. pero si una función no es de este tipo. no pueden aplicarse los métodos anteriores. b. 8.l()x% t 35x 2 . evalúe g ( a ) = f(x + a s ) El punto x es el punto de partida de la búsqueda del óptimo local. mientras que s es la dirección de búsqueda.

= 1 g<a)(c z -b 2 ) ^ q(b)(a 2 -c Z i + q(c)(b : -a 2 . b = 1 y a = 0. Pero dado que g(ot>.b) .0 ) g(ae)-g^0-50) -24.2 V 0 ( l z .l ) . Sustituyendo los valores citados de a. Fase 3 El mínimo a c del polinomio cuadrado se calcula con la formula anterior.50(3 + a ) Fase 2 a 0 1 2 g(a) -24 -24 0 En 2 el valor de g ( a ) se incremento.10(3 + a ) 3 + 35(3 + a ) 2 . 2 g(a)(c .f<x " a s ) f(3 + a ) 0.O2) . b y c a . .50 Por lo tanto el mínimo aproximado de la función original es: x* = 3 f u * = 3 + 0. Se tiene que 0<oc*<2.Fase 1 g ( a ) = f(x + a s ) = f(3 + a ) = (3 + a ) 4 .94 Como g ( a c ) < g(bi.5) -24. 5 0 2 ( ..2 ) + 0<l .2 4 ) ( 0 .5 = 3.5 y f(x*) f(3.g(b)(a .c) + g(c)(b .a) I (-241(2" . se tiene que oc=a.2 4 ) ( 2 . Por lo tanto c = 2.94.0 .n + (-24)f0 2 .( .

si f(x k ) > 0 y continuar con el paso 4 si f(x k )-' 0.x k . Esto es. Si f ( x k ) = 0 parar.Sea a k +l 5.Búsqueda en un intervalo con derivadas Método de bisecciones sucesivas.. b k +IJdc lo contrario reemplazar k por k 4 1 y repetir el paso 2.1 \ continúe con el paso 2.Si f ( x k ) > 0 .x k ) > 0 y por pseudoconvexidad de f tenemos que f(x) > f(x k ).l/2(a k + b k ) y evalúe f(x k ). tal que el nuevo intervalo de incertidumbre [ak + 1. b j ..Supóngase que la derivada f ( x k ) es conocida y considere los siguientes tres casos posibles: 1. Sea k . En la k-esima iteración.x k )>0. xk y b k +l ~ b k . Obviamente la localización óptima de xk es el punto medio l/2(a k + b k ). se tiene que f(x k )(x . . entonces por pseudo-convexidad de la función f. xk es una solución óptima. 2. Además supóngase que f(x) es pseudo-convexa y diferenciable. ~ n parar. La posición de x k en el intervalo [a k .Si k ak y b k +l ~ x k . b k 1. Procedimiento 1.. b | ] el intervalo inicial de incertidumbre y sea g el intervalo final de incertidumbre. Supóngase que se desea minimizar una función f bajo un intervalo cerrado y acotado. sea el intervalo de incertidumbre [ a k . Continuar con el paso 5. entonces para x <x k .. tal que f(x) > f(x k ). 3.a k y bk .Sea ak-ul 4. el mínimo se ubica en el intervalo |a k +l. 3. x k es un punto mínimo. Entonces el mínimo se encuentra a la derecha de x k . b k ] puede ser elegida tal que la máxima longitud posible del nuevo intervalo de incertidumbre es minimizado. entonces para x > x k . b k ]. x k puede ser elegida tal que minimice el máximo de x k .. el mínimo se encuentra a la izquierda de x k . Sea n el menor entero positivo tal que (l/2)n < £/b r a. b k + l ] es dado por [x k ..Si f (x k ) = 0.Sea f k . En otras palabras.Sea [ai. tal que el nuevo intervalo de incertidumbre [a k +l.. b k + 1] es dado por [a k ..Continuar con el paso 5. 2. De lo contrario continuar con el paso 3. f(x k )(x .Si f(x k ) < 0.

.-a.2/9 .0.3125 -1.7500 -0. Este mínimo local se obtiene en tres pasos o fases.8907 *k 1.Ejemplo: Minimizar f(x) = x" + 2x sujeta a -3 < x < 6 Reducir el intervalo de incertidumbre a un intervalo cuya longitud £ es menor o igual a 0.0222 para n = 6.8907 f(Xk) 5.5000 -0. tal que el mínimo puede ser tomado como el punto medio del intervalo -0.7500 -0. tal que la función g(a) f(x + a s ) obtenga un mínimo local. El punto X es el punto de partida de la búsqueda de los óptimos.6250 0.7500 -0.2.0.750 -1. -0. La siguiente tabla resume los cálculos usando el método de bisecciones sucesivas. El numero de observaciones n satisface (l/2)n < £/b.6250 -0. mientras que s es la dirección de búsqueda.0000 1.875 -1. donde X y s son valores iniciales arbitrarios.000 -3.7500 -0.3125 -1.0000 0.8750 -1.0313.961.(-3) .5000 -1.0313 El intervalo 11 nal de incertidumbre es [-1.000 -1.7500 -0.2/6 .8907].0313 -1. denominada a * .500 -0.2186 -3. El método consiste en encontrar un valor óptimo de una variable a .000 -3. Método de Interpolación Cubica Este método a diferencia del de interpolación cuadratica requiere que la función sea diferenciablc.0313 -0.0. . Interacción k 1 2 i j 4 5 6 7 bk 6.

El valor óptimo se encuentra en el rango a< a * < b. si g(a) < g ( a e ) o g(b) < g(a e ). g(b). 3. entonces se acepta que a * = a e .a ) (1 f u / 1 .2. g'(a) y g'(b).16. b. se repite el mismo procedimiento en el intervalo a < a * < b donde a = a y b = a e .4.5 0 ( 1 + a ) . Fase 1 g(tt) . manejando un valor aproximado. donde b es el primer valor para el cual g'(a) es no negativo ó g ( a ) no ha decrecido. es decir.a ( D ) 1(1 .30(1 +a) 2 h 70(1 + a ) -50 . se repite el mismo procedimiento en el intervalo a < a * < b.1.Se ajusta un polinomio cubico tomando en consideración los valores g(a)... ( a ) _ 4( l + a ) 3 ..a. . Si no. E l valor mínimo a * se representa en esta iteración por a e . donde g'{b) + W-Z W = (Z2-g\a)g-(b))12 Si g(a) ó g(b) no son menores a g( a e ) .f(x + a s ) tí 1 .50x. entonces: a) si g'(a c ) > 0. E j e m p l o : Encontrar un mínimo local de la función unimodal de una sola variable f(x)=x 4 -10x 3 + 35x 2 ..8.U)(l + a ) 1 + 35(l + a ) 2 . donde a = a c y b = b.Procedimiento 1 D a d o s valores arbitrarios de x y s evalúe g(ct) = f(x + a s ) 2.. Regresar al paso 3 b) si g'(a fi ) < 0.. tomando como valores iniciales x = l y dirección inicial s = l .Evalúe g ( a ) y g'(a) para valores de a igual a 0. Regresar al paso 3.

39 = f(l + t?0' = el óptimo relativo es: c o m o g(o«C) = 1 + cK. 1.39 . se -24 -24 tiene Se el 1° tanto 1 y a = 0.39) y e )<g(a) sea g í ^ X es acepta que decir.29) 0.29 + 4 " \ 2 + 6 + 2(5.39. 3 z = tiene O ^ ^ ^ l . o<. 3 9 = f ( 1 • 39 ) = x = 1.* = D<é = Por lo tanto. x* f ( x *) Valor mínimo 0. -25.* = 1 + 0 .29 fh + 2w \ } ti " 0) a) ' ( b ) g'tb) + - 7 2 g'(a) * = = g(<*e) Como g(^ / 2 + 5. + g1 ( a ) 3 (z2 .g'(p<) Fase 2 = 4(1 +|*)3 - 30(1 +K)2 + 70(1 +*) " 5 0 g(p<) g'feO -6 2 primer que valor donde g' 0• P o r 0 1 Para b = Fase cK= 1.2 4 + 24 1 .0 6 + 2 = 1 + -4 g'(b) = W = = = ^ g ' í a j g ' í b ) ) - ^ ((-4)2 (16 b i " (_6)(2))l/2 2 + 12)1/ g = W 5.39 = -25 g(b) entonces el mínimo l o c a l c<* se = 9(0.

Trazando una tangente en el punto (x„ f(x.)) esta dada por la primera derivada de la función evaluada en x.y —• x.. f(x¡)) esta razonablemente cerca de la solución exacta y que la pendiente en dicho punto es diferente de cero. se procede de la siguiente forma: i . Para su aplicación se requiere conocer un valor de "x" cercano a la solución y que para este punto el valor de la primera derivada sea diferente de cero.x 2 Como para x^ el valor de y = 0. f(x. tal y c o m o se ilustra en la figura 1 Para obtener la ecuación que representa el algoritmo de solución.Para encontrar el valor X2 (ver figura) considere que el punto (X|.Método de Newton-Raphson Este método es también llamado "Método de Newton de Primer O r d e n " o "Método de las Tangentes" y se utiliza para encontrar la raíz de u n a ecuación.. y la pendiente de la tangente en el punió (x. .)) de tal forma que cruce el eje X. entonces: . el \alor de la pendiente de dicha tangente esta dada por: Pendiente de la tangente x ) .

) ' 2. ya sea mínimo o máximo.En forma similar se tiene que. Entonces. esto equivaldría a que para el valor de "x" para el cual f(x) es igual a cero. también puede ser utilizada para determinar el punto en el que se optimiza una función no lineal. Supóngase que se tiene una función no lineal de una sola variable que puede ser multimodal. dicho valor esta dado por la siguiente ecuación: x 2 = x. f(x 2 )) se obtiene: f(x. De tal forma que si graficanios la función f(x) = g'fxj y aplicamos el método de Newton-Raphson para encontrar la raí/ o ina de las raíces de f(x). trazando una tangente en el punto (x 2 . para la cual interesa determinar alguno de los valores que optimizan la función.. 2 . .) Aunque el método de Newton-Raphson es utilizado para encontrar la raíz de una ecuación. la pendiente de la función g(x) es cero.) i .) 3.Xa Por lo tanto. podemos afirmar que en el punto en el que la función loma un valor óptimo.Generalizando el procedimiento anterior. ' f(x.. el nuevo valor x 2 mas cercano a la raíz puede ser calculado si se conoce el valor de la primera derivada en el punto donde se trazo la tangente. se tiene que la formula del algoritmo para este método esta dada por: X • -X f'(x„-. la pendiente de la función g(x) también es cero (g'(x) 0) y si para esc valor de "x" la pendiente de g(x) es cero. entonces se trata de un valor óptimo de la función g(x).fTx ) Pendiente de la tangente = — = x f (x. en un problema no restringido.

-.g'(x) y aplicar la ecuación general: X .X ú — g'(x. .Si a partir de un valor conocido de "x" se desea encontrar un valor que optimice la función dada g(x). se procederá a hacer: f(x) =-.. a partir de la función g(x) esta ecuación puede expresarse como: X .i ^ l l " ftx.) o bien. entonces aplicando el método de Newton-Raphson.X .) El diagrama de flujo del método de Newton-Raphson se presenta a continuación.

/ !Xi,

1=1 N, I>N i -> ! I=1+1

V \/

! NO HAY CON ¿VERGENCIA _ /

i

\/ ===*==> FIN

======>I POX 1 = 9 ' ( X I )

I ! i I \ \l >o I

J" I

POX i X2 = XI SOX I IPDX2 = g ' ( X 2 ) l < :

_\/ X I , X2,

jL

I
\

I

A í Ü
=0 \
\

i ! >0 .,
/' \

/

'l J

/

i r \w i Í .-,-.
\
/
^

\

=U

;

u

Ejemplo: Encontrar un valor óptimo de la función g(x) = (80/x) + 20x + 20, a partir de los siguientes datos: x, = 1, E = 0.00001, N =. 15 y s = 100

-80 f(x) = g'(x) = — + 2 0 X

16( f (x) = g (x) = — X

Los resultados se resumen en la siguiente tabla:

1

x,

PDX,

SDX,

x2

PDX2

D 0.37500

R

R-L

|PDXJ|-E 22 31404

S 0.3750

g(X3)
105 68182

1 1 Ü000
2 1 3750

•60 00000 160 00

1.3750 -22 31405

0.00375 -0 99625

•22.31405

61.55

1.7375

-6.49817

0 36255

0.96680 -0.03320

6.49816

0.3625

100.79285

3 1 7375

-6.49817

30.50

1.9506

-1.02587

0.21305

0.58765 -0.41235

1.02586 0.2130

100.02502

4 1 9506

-1 02587

21 56

1.9982

-0.03635

0 04759

0.22335 -0 77665

0 03634

0.0475

100 00001

5 1.9982

-0.03635

20.05

2.0000

-0.00005

0 00181

0.03810 -0.96190

0 00004 0.0018

100.00000

6 2.0000

-0 00005

20 00

2.0000

0.00000

OO 0 O O O 0 00136 -0 99864

-0 00001

100 00000

para x = 2, el valor óptimo de g(x) sera 100. Ejemplo: Encontrar un valor óptimo de la función g(x) = 2x 4 - 7x"' los siguientes datos: x, = -1, E = 0.00001. K - 15 y S = 100 4x - 2, a partir de

f(x) - g'(x) " 8x 3 - 21x 2 + 4

f (x) = 24x 2 - 42x

Resumiendo las iteraciones y resultados, tenemos la siguiente tabla a continuación:

]

x,

PDX, -25 00000 -6 02182 -1.00234 •0 05577 -0 01)021

sdx, 66.00 35.35 23 82 2! 18 21 02

x2
-0.6212 -0 4509 -0.4088 •0.4062 -0.4061

PDX2 -6.02182 -1.00234 -0.05577 -0.00021 0.00000

D 0.3787«) 0.17034 0.04209 0.00263 0.00001

R

R-L

|PDX2|-E 6.02181 1.00233 0.05576 0.00020 -0.00001

s
0.37879 0.17034 0.04209 0.00263

g(x2)
-2.50890 -3.07249 -3.10112 -3.10119 -3.10119

1 -1 0000 2 3 4 5 -0.6212 -0.450<> -0.4088 -0.4062

0.00379 -0 99621 0 00170 -0 99829 0 001)42 -0 99957 0 00003 -0.«)9997 0.00000 -0.99999

Para x = -0.4061, el valor óptimo de g(x) sera: -3.10119

Métodos de busqueda multidimensional Optimización de funciones sin usar derivadas Una de las grandes desventajas de los métodos que emplean derivadas para funciones de varias variables es que en estos es necesario evaluar el gradiente y en varios casos, también el Hessiano. Otro problema en consideración, en el caso de que la función sea diferenciable, es el evaluar analíticamente en cada iteración las funciones contenidas en el gradiente y el Hessiano. F.sta tarea de evaluación analítica, puede ser mu> laboriosa y en ocasiones imposible, sobre todo cuando se trate de funciones complejas con muchas variables independientes. Hay métodos numéricos que permiten expresar estas derivadas por procesos que no son analíticos, y por lo tanto se puede eliminar este problema. La gran desventaja con los métodos numéricos es el error de redondeo que introducen y. que acumulado en un gran número de operaciones e iteraciones, puede generar resultados bastante alejados de los óptimos reales. Por este motivo, se han desarrollado una serie de métodos iterativos que. sin ser tan eficientes en cuanto al número de iteraciones necesarias para alcanzar un óptimo como los métodos basados en el gradiente (que veremos posteriormente), tienen las siguientes ventajas:

a) No requieren de gradientes y Hessianos. por lo que sirven tanto para funciones d i f e r e n c i a l e s como no d i f e r e n c i a l e s

De otra manera. entonces el método converge a un estacionario.. continuar con el paso 2. Mas específicamente.b) N o requieren de métodos numéricos y por lo tanto su error de redondeo se reduce considerablemente. Analizaremos ahora algunos de estos métodos. el método busca a lo largo de las direcciones d ] v . punto Procedimiento P a s o 0: Elegir un escalar e >0 para ser usado para saber cuando terminar el algoritmo como margen de incertidumbre y sean dj d„ las direcciones coordenadas. donde dj es un vector de ceros. Si ||x k+ | . Elegir un punto inicial x.. sea j = 1.. la variable x. sea y. una solución óptima a el problema de minimizar la función f t y + /. y sea yj+1 = yj +Xjdj.. De lo contrario sea y¡ = x k+] . es cambiada mientras todas las otras variables quedan fijas. Si j<m.xk|¡M:. P a s o 2 : Sea x ^ i . parar. . excepto por un 1 en la coordenada j.d.v n+ |. Método de Coordenadas Cíclicas Este método usa los ejes coordenados como direcciones de búsqueda.d n . = x |5 k = j = 1 y continuar con el paso 1 Paso 1: Sea A.) sujeta a \ € E. si j n. reemplazar j por j+1 y repetir el paso 1. Asi. Si la funcio'n es diferenciable. reemplazar k por k + 1 y repetir el paso 1. a lo largo de la dirección de búsqueda dj.

1). En cada iteración los vectores y t y y2 son obtenidos mediante la representación de u n a linea de búsqueda en las direcciones (1. 0.05 -0. l . 1. 1.3. 1. 1.17) (2. 1.14) (2. 1. De hecho.44.02 -0. 1.14) (2.03 -0. muy cercano del valor óptimo 0. 1.03 -0.35.3.0.22.00) (3.31) (2.63. 1.04 -0.56) (2.00) (3. se presenta en la siguiente figura. 1.0) (1.00) (3.22.0) (0.00) 52.o) (0.0) (i.35. (ver figura 2) . haciendo s mas pequeño.004 La ilustración de este método.22.1.09 -0. 1. 1.44.22) (2. 1.0. para este ejemplo. 1.12) (2.56) 1.29.13.007 7 (2.22) (2.14) (2.n. 3. 1.1 2 Ejemplo: Minimizar (X| .0.0) (0.0) (O. podemos hacer que el valor optimo sea mas aproximado a 0. 1. 0) y (0.31) (2. 1.14) 0.14) (2.17) (2.2x 2 ) partiendo del punto inicial (0. 0.17) (2.31) (2. 1.44.00 j 1 2 1 2 1 2 1 2 1 2 1 2 l 2 (1.01 (3.12) (2. Iteración k 1 x¡ RX) (0.0) (0.29.63. 1. 1. 1. 1. con punto óptimo (0.13.22) 0.0) (1.44. 1.22.2) + (X| .29.63.25.17) 0. 1.0. 1.12) (2.3.3).63 j (2. pero utilizando un numero mayor de iteraciones.44.25.0) (1. 1.00. 1.29.31) 0.19 -0. Para el punto (2. 1. 0).25. 1. 1.22) (2.13.63.015 6 (2.35. 1.09 -0.16 4 (2.0) (1.35.06 -0. l l ) 2 (3.13.12) 0. 1.0.0.0.0) (0.25 -0.11) la función objetivo tiene un valor de 0.35.56) (2. 1.25.31) (2. 1.0. 1.22) (2.0) y¡ (0. í.0.29.0.13. 0.44 -0.o.56) (2.0.o) (1.13 -1.0.17) (2. 1.0.04 5 (2.12) 3. La tabla siguiente muestra un resumen de los cálculos para el método de coordenadas cíclicas.o.00.56) (2.50 -0.0023.63.0.0) (0. respectivamente.0.25.

Figura 2 Ilustración del método de coordenadas cíclicas. E l siguiente patrón de busqueda es a lo largo de la dirección X3 x 2 . La figura 3 muestra las primeras dos iteraciones del método. . obteniendose y ' . Método de Hooke y Jeeves E l método de Hooke y Jeeves representa dos tipos de busqueda exploratoria > patrón de busqueda. Un patrón de busqueda a lo largo de la dirección x 2 x. Las lineas que van de X] a x 2 y las que van de y a x 3 representan l a busqueda exploratoria a lo largo de los ejes coordenados y la linea que une a X2 y X3 y la que une a x 2 y > representan el patrón de busqueda. El proceso es repetido. Dado X|. conduce al punto y. una busqueda exploratoria a lo largo de de las direcciones coordenadas produce el punto x2. Otra busqueda exploratoria a partir del punto y conduce al punto x 3 .

y repetir el paso 1. Sea y! = x k + | + Xd. sea x k+1 = y n + 1 . Paso 1: Sea \ sujeta a XeE{ una solucion óptima a el problema de minimizar la función f(yj + Xdj) y sea yj+) = yj + Xjdj..2x 2 ) 2 partiendo del punto (0..3)..x k y sea X una solucion óptima al problema de minimizar f(x k + j + Xd) sujeto a XgE. sea j=l. y repetir el paso 1.y Figura 3 : patrón de busqueda.. si j = n . remplazar k por k+l. Si j<n. Si ||x k+ . Procedimiento Paso 0: Elegir un escalar e >0 como margen de incertidumbre.. .d n y un patrón de busqueda en su desarrollo.2) 4 + (x¡ . de lo contrario. sea k=j=l y seguir con el paso 1. = X[. De lo contrario.. El método de Hooke y Jeeves maneja direcciones de linea a lo largo de las direcciones coordenadas d. . E j e m p l o : Minimizar (x. parar. sea y. reemplazar j por j+1. Paso 2: Sea d=x k + i . La siguiente tabla resume los cálculos del método de Hooke y Jeeves.x k || < e . . Elegir un punto de partida x.. continuar con el paso 2.

con valor objetivo igual a cero. • Figura 4 : Ilustración del método de Hooke y Jeeves . Kn cuatro iteraciones se llega del punto inicial a la solucion optima(2. una busqueda exploratoria a lo largo de las direcciones coordenadas dados los puntos y 2 y y i.||x s .045 y el procedimiento es terminado. La figura 4 ilustra el progreso del método. donde ) . En este punto.0.00. y un patrón de busqueda a lo largo de la dirección d dado el punto y h excepto en la iteración k . 1.l .00).Un cada iteración. x k+( .x k x..x 4 || .

.

elegido como terminación escalar. Si ||x k+ ¡ ... k .. x.gE]..j = I. Paso 1: Sea x¡ una solucion optima a el problema de minimizar f(y¡ + X.. Elegir un punto de partida \¡..x k = d . Z v .. Paso 3: Formar un nuevo conjunto de direcciones de busqueda linealmente a independientes. v sea yj+i ^ /^d. Paso 2: Sea x k M = y n + ! ..n) cada uno con norma igual a uno. la función objetivo f es minimizada a lo largo de las direcciones a iterativamente..odo converge a un punto con gradiente cero. Si f e s dil'erenciable entonces el met. En particular x k+] . Partiendo del vector común x k . de lo contrario sea v. i=I .x k | <f„ parar. d j =0 /-i implica que = 0 para i =l. a a si j = 0 sij^O .d¡) sujeto a A. = x k + i . Procedimiento: Paso 0: Sea e>0.. 1. De lo contrario. reemplazar k por k+1. sea j-1 y continuar con el paso 3. Ademas. d. l dj = 0 para i ^ j.. Elegir d ( . donde Áj .. reemplazar | pen' j -l > repetir el paso 1. esto es.d n son es la distancia recorrida a lo largo de dj.Método de Roscnbrock El mclodo de Rosenbrock ulili/a lineas de busqueda para minimizar una función f d e varias variables. sea y. y continuar con el paso seguir con el paso 2. Si j<n..d n como las direcciones coordenadas. (las direcciones d.. supóngase que estos vectores son mutuamente ortogonales.d n son linealmente independientes si ^ A .. conduciendo a el punto x k + ¡ . La nueva coleccion de direcciones d| obtenidas a partir del procedimiento de Gram-Schmidt como sigue 'd..

.2x2)~ usando el punió inicial (0. 3). 1.2) J + (x 2 ..15 y el procedimiento termina. 3). .002.42) y (-0. -0. En la figura 5 se observa el progreso del método de Rosenbrock. Usando el método de Gram- Schmidt. -0. y la tabla siguiente condensa los cálculos de cuatro iteraciones del m é t o d o hasta alcanzar el punto optimo.13 y >. Despues de cuatro iteraciones. X K X K II j-l Ejemplo: Minimizar (x.x 3 || = 0. D e s p u e s de la primera iteración tenemos que 3. (0. Para >. el punió y 2 es obtenido optimizando la función a lo largo de y ^ y y 3 es obtenido optimizando la función a lo largo de la dirección d 2 partiendo de y 2 .42. las nuevas direcciones de busqueda son (0. el punto (2. \ el valor de la función objetivo es 0.44. A partir de esto se tiene que ||x 4 .21.91.91).1 > es alcanzado.a ii a.2 -1.

13) 0.24) 0 16 (2. 1.70) 0.12) 0.79 (2.20.05 (2.0.10) 0.44.00 j 1 2 2 (3.04) 0.13) 0.13) 0.16 (2.87 (3. 1. 1. 1.00) 52.85.85) (-0.13.003 (2.F i g u r a 5 : I l u s t r a c i ó n del m é t o d o d e R o s e n b r o c k R e s u m e n d e los c á l c u l o s del m é t o d o d e R o s e n b r o c k Iteración k 1 *k f(x k ) (0.24) 0.87 (3.28.96.56) 1. 1. 1.96) 3.56) 1 1.003 di (1. 1.) (0.20.42) (-0. -0.0) (0.13 -1. 1.28) (0.004 (2.24. 1.0. 1.3. -0.00) 9.12) 0.13. 1.004 1 2 y¡ f(y. 1.34 0. 1.29.56) 1. 3. -0.19) (-0.13.0.-0. 1.16. 3.00.29.-i) (3.02 yn f(y.61.00) 52.00 (3. 3.52) (0.63 (2.24) 1 2 0. 1.82.79 (2.0) (0.04 0.00) 9. 1.00.1.05 (2.16 4 (2.42.91.51 0.13.004 (2.21.63 2 3 (2.13.44 -0.63 (2. -0.38 -0.002 .24.82.61.0.52.70) 0.04) 0.10 0.

. 2 . en el menor tiempo posible (menor numero de iteraciones).2 x h 4 + X| Vf(x(>(-7. M é t o d o del g r a d i e n t e E j e m p l o : Encontrar el valor optimo de la función f( x h )= 7X| + 4X2 + XIX2 . Una manera de lograr esto es dada por el gradiente de f(x).x 2 2 usando el método del gradiente con una aproximación del 1% y a partir de los valores X| = 8 y x 2 = 2 Calculando el vector gradiente Vf(x) = (7 + x : . Una elección natural direccional es determinada mediante calculo: hacer que f crezca o decrezca tan rápido como sea posible.x.¿ Hacia que dirección moverse en R n ? 2 . Los métodos de gradientes determinan la mejor dirección y la mejor longitud de recorrido en esa dirección.8)' 2X2)' .Métodos de búsqueda multidimcnsionales usando derivadas La metodología de las técnicas de optimización no lineal para funciones sin usar derivadas consistía en establecer un método que cambie el valor de la función objetivo hacia la dirección del máximo ó mínimo. parar las iteraciones cuando f se empiece a incrementar o disminuir. para los métodos que utilizan derivadas las cuestiones básicas de metodología son las mismas: 1. para poder alcanzar el máximo o minimo.¿ Cuando parar las iteraciones ? Obviamente la respuesta a la pregunta (2) es fácil.

) = 7(8) + 4(2+8k) h 8(2+8k) . 2) hay que moverse a (8.-64k 2 + 6k + 12 Derivando la función f(x¡) e igualandola a cero: -128k + 64 0 k . 2-* 8 k )' fíx. La tabla siguiente resume estos cálculos. 5) que genera un valor m á x i m o de 31.05 Lntonces hay que moverse al pumo (8.03l.(H) . al m o v e r s e una unidad en la dirección x b decrece el nivel de f e n 7 unidades. 6). hasta que en 6 iteraciones se llega a X/=(6.Partiendo del punto inicial x„ (8.0. 2-1-8(0.05)) procedimiento para (8. 5. 6) Se repite el m i s m o (8.0625). un movimiento unitario en la dirección x 2 . del punto (8. 2). El método convierte al punto óptimo (6. hace crecer el nivel de Ten 8 unidades. Para calcularla se tiene: x¡= (8.(2» 8k) 2 . En cambio. Entonces. . 2+8k) donde k es la longitud de paso.

0938 .II ¡a ^t • n •r. .0000 -0. r. i V.-^ C D O — «•s ' -J < < • r. 1 O -r O = f " N O O ¡ñ rt -0. r^ j O O 0 O T. 0.0000 00000 V > Sv O <• > 0 0 10 O J VI •n Oí •O VI O) ###BOT_TEXT### O •n -3 0000 0.0000 f. . O O O > 0< X o o OI _ U. i(N 5 o s D O o O c -r V O i 8. " J «/. n s -n o —'t {> (> . r -1 r ri r r\ 1 fr. 01 O -o •o r 1 04 ir.1875 -0. "Z <3 < > V • r -1 /5 — «. t > 0 A.0000 0 X 0. « f .D.5000 0000 0 X2 1 -3. 1 ín > r.7500 1 Ganancia c c \o o o o o OI «» — 0 0 0 00 OI 1 0 0 01 O J 0 0 >0 01 0 c> 0 0 0 0 \D 0 0 •n O J «0 0 O O J >0 Tt 0 O v> O J 00 0 f! 0 0 •Ti 01 >0 0 0 un \o O oo J Vi 00 C1 O O 0 0-1 t<0 5 Os O 0 ro r*1 VI O J >> £ 0 «I T oí X X 3 X o 0 o 0 o 0 o 0 oj 0 o 0 o o o ys o - «0 O O J c: V vo O sD 1 -0.0000 OI •n O J Cr¡ •-H O -O >0 0 so ci C N O 1 -1.0000 1 -0. "-1 2 r1 X o -a C J r o •a 2 O X o c c 00 8.0000 0000 6 i 0 0 O 0J f) O 1 X — 1 1 0000 0 .v. < .0000 "x U.3750 0.1875 1 -7.

para i = 0..x 2 ..f(x.. Un criterio para terminar el algoritmo es comparar el valor de la función en dos iteraciones sucesivas y parar cuando esa diferencia es menor a una tolerancia establecida. Dado un punto inicial de partida X( ) =(x|...1.1. es decir.2X]2 .. se maximiza la función de una sola variable g ( k j ..2. + 2x 2 + 2X[X2 ..) y como Vf(x l M ) es perpendicular a este contorno. los m o \ imienlos sucesivos son en ángulos rectos. la dirección de ascenso acelerado.f(x¡) | < e donde e > 0 Este método encontrara un minimo o m á x i m o local. tal que el punto generado en la iteración i.x n ). Para encontrar el valor de k¡. en el punto x„ esta dada por Vf(x„) y la longitud de recorrido estara dada por un parametro k¡>0. Ejemplo: Encontrar el valor máximo de la función f(x) = 8x. El vector x¡ + k¡Vf(x¡) es tangente al contorno gík.. cuando | f(x i+l ) .x 2 2 con una aproximación del 1% y a partir de los valores x( = 2 y x 2 = 10.Método de Ascenso/Descenso acelerado Sea f(x) una función diferenciahle. es x¡+| .x¡ + k¡Vf(x¡) k > 0 para i -0. Calculando el vector gradiente . generalmente el que esta cercano al punto de inicializacion x 0 .2.. + kjVfíXi)) por algún m é t o d o conocido.

9769k)' evaluando el punto en la función objetivo se llega a g(k) = -0.1915 Entonces x¡ = (5.319). La tabla siguiente resume los cálculos del método de ascenso/descenso acelerado para este ejemplo. .2845 y x 2 = (4-952. calculando el valor del gradiente en X|. se tiene que k = 1.(8 .119-0.9769) se tiene que x 2 = (5. -14)' 2X| . Vf(X|) . . 7.83.42k + 2 5 .55k 2 + 1.83-0. 10-I4k)' f(x„) " 8(2h 20k) + 2(10-14k) ^ 2(2+20k)(10-l4k) 2(2+20kr-(10-14k) 2 simplificando se tiene g(k) = -1556k 2 + 596k -32 Derivando la función anterior e igualando su derivada a cero se tiene -3112k + 5 % k 0 0. 6.6813.(20.2X 2 .Vf(x) . 7. -0.(-0. 6) que es el valor máximo en 5 iteraciones.064) Se sigue el mismo procedimiento hasta llegar al punto (5. 2 + Vf(x„) .4 x .(2+20k.2x 2 )' Se parte del punto inicial x 0 . 0 7 derivando la ecuación e igualando a cero.6838k.

0000 0.0001 -0.0720 .9852 25.000 1. o X <s o o o o 20.00 Vi Cs O g sO es -T g s o 1000 0- ro Vi es fN -t Os os »o < N 0.000 -0. •a O o o es f> l 596.320 x u o o 4) > f-l X o — Os T S O O sS v-.2845 5161 0 -0 224 -0.0146 r V.0000 25.•n II cd T3 Os a.9998 O X o o o o f-H X o o o (S o Os en r» o ci oo Vi SD O SO es VI Os es o sO Cl o vi m § o S O O O o >n Vi T <N 26.15 -0.3200 | o> o> Os Tf S O ci o o o < u u "O W O c 0) ^ 2 X o X2 "d toooooo Ganancia 57.0000 o pi so V) — (> sO cOs o1 | -0.684 0.6838 < N V) as Tt" o eN O 0.0720 0-t 2 o o Os os £ os vi cs s o os Os Os Tj" t -32.977 rjo T - -a c d V o O c a > o <s> i) "O vi e u o s/5 C) l <> L "O O "O o o 20. 1 « N o S O "1 •n v> -14.011 en O vi sO in O o1 Os O O O 1 0.0004 -0.016 rs sC -0.2845 1.40 o S O es 0.9132 25.

2x->)" partiendo del punto inicial (0. Vf(x k ) es la transpuesta del gradiente evaluado en el punto xk de la k-csima iteración y II' 1 (x k ) es la matriz inversa del Hessiano. La tabla siguiente resume los cálculos \ la figura 6 ilustra el progreso del método. En este punto Vf(x 7 ) 0. f(x) es diferenciable. evaluado en el punto xk de la k-esima iteración. Despues de 6 iteraciones se obtiene el punto x ? =(1.91). En cada iteración. x k+ |=x k -H(x k )* 1 f(x k ). .i k ' ' ' ' ' ( x k)^f(*U donde el punto x 0 en E„ es arbitrario. y eMa basado en la siguiente regla iterativa: xk x xk -11"1 (x k )Vf(x k ) x (para minimizacion) (para maximizacion) k. 0.2)".04 y el procedimiento es terminado.lX| . 3) La siguiente tabla muestra un resumen de los cálculos.83.M c t o d o de Newton El método de Newton es muy parecido al método d e ascenso descenso acelerado. E j e m p l o : M m i m i / a r (x( .

.

d k son llamados conjugados si son linealmente independientes. El método de Davidon-Fietcher-Powell se basa en direcciones conjugadas . Esta situación puede eliminarse utilizando direcciones conjugadas. en vez de direcciones perpendiculares (forman ángulos de 90°) como las que manejan los métodos anteriormente citados. Definición: Sea H una matriz simétrica. Los vectores d.. del gradiente y el de Newton convergen muy lentamente a la solucion buscada. 3 Figura 6: Ilustración del método de Newton Método de Davidon-Fletcher-Powell Los tres métodos anteriores. sobre todo cuando el gradiente adquiere un valor cercano a cero.... y es considerado como uno de los algoritmos mas eficientes para calcular puntos optimos locales en funciones d i f e r e n c i a l e s de varias variables.1 . el de ascenso-descenso acelerado.. .

En la iteración 1. dj es d a d o p o r -D.-22.d.2) 4 + (x.1. t e n e m o s que pt . sea y t ~ x k + . es la matriz identidad y D 2 se obtiene c o n las formulas de Dj+¡. p¡ y qj. 0.2x 2 ) 2 En la primera iteración fl Para cada iteración.7. 0.49) 1 y q{ = (44.02) 1 y q.33.24) 1 . y f i n a l m e n t e en en la interacion 3 t e n e m o s p j = (-0.2. reemplazar k por x.02. y conti- . . En la iteración 2. q'Pfl. donde P j " >-.—D¡f(y.(0. Sea y¡+i ~ y. . E j e m p l o : M i n i m i z a r (x. . Si j < n .7. y una matriz simétrica positiva definida inicial 1)|. 0.1.+i n.¡d¡.) sujeta a X>0. E l punto y-J+l es calculado optimizando a lo largo de la dirección dj partiendo de yj para j = 1.. Elegir un plinto inicial x. para j = 1. sea j . De lo contrario. qj-VfOnl-Vflyj) R e e m p l a z a r j por j + 1 y repetir el paso 1.y n + l . continuar con el paso 2. 0. Sea yi nuar con el paso I. i . c o m o sigue: 1+1 J P\q.Vf(yj).Procedimiento: Paso (): Sea zA) el escalar que señala la leí minacioii del mclodo. sea k - j = 1. y.y¡ + X.(-0. t e n e m o s que pi = (2.8) 1 . . -1. = (-0. Paso l : Si |lVf(x.)¡|< parar.2. .y. sea d. donde D.05) 1 y q. Paso 2: Construir D¡+.1. y repetir el paso 1.72) 1 en la f o r m u l a d e D M . Si j k + l .

resumen de los cálculos se expresa en la siguiente tabla. (2.li\ procedimiento es terminado en el punto y-.058) en la cuarta iteración. 1. y la trayectoria tomada poi el método se ilustra en La figura 7.006 es bastante pequeño. Figura 7: Ilustración del metodo de Davidon-Fletcher-Powell .115. I I. ya que ||Vf(y 2 )|| = 0.

VI

. —

, ,

tN C N VI <o C N
<N

rC N

— —

r1 —

v> .O

O O VI
o

o

r-J —•
-<

v> -aC N
-—•
—•

R ¡ R 1
-—-

r

Vi !-)
r— • 4-

C N —• OI * Tt" C N
sO

VI

C N O

o o

CI N so

C M O

-T

o

O O

O

H 0) > 0 ÍX 1 u < Ü u -p 0) f-t C u l e o -•-I >

C 3 O C N I O O
T

•3 <-

— t so
o

O s cc

I

C N O

V >

O

O
o

I

— o

m i cn oo i— m o o

v, v,

O -T i OO

—O

I 0 f"! i C OO

cc

to vi

o o

o

c-j
o

sC o

Os O

sO O o

fO p 0) T3 O TI O -P v(l) 2
> > t> o o T

oo

(N C O ro

•3"3" O I cree

o

ac

O

-3 >o o

C C
o

2; O

V)
o

O o

o

C N N ^ C o m en o — m o N V) o " C o" O p VI r VI o C N C N O
Vi

rC o N
—'

'—

(2.45.

(2 25

Os Tf O o

o o r- o C N

m — O O :

VI

O v — oO
" CN o

oo Vi
o

C N

O

— c:

o o

— .

< N

C N

C N V)

r-1 _ C $ N cn . O lO
v> o

- oo - o - o

V) O Sí
— o o

C N

C 9 N

C N

s
M

Método de Kletchcr-Rcevcs

l .ste melado Uimhicn esta basado en la logiea de las direcciones conjugadas. No es tan clicienie como el método de Oa\ idon-Fletcher-Powcll, pero es mucho mas sencillo en cálculos manuales.

Procedimiento

Paso 0: Elegir un escalar de terminación t: ->0 y un punto inicial x,. Sea y, Vf(y t ), k = j = 1 y continuar con el paso 1. Paso 1: Si

x,. d,

-

VI(\ j> . parar. De lo contrario, sea Xj una solucion óptima al problema Je v . d,) sujeta a X>0. y sea \ = v, + Xjd r Si j < n. continuar con el paso 2.

minimizar f(\

De otra manera, seguir con el paso 3. Paso 2: Sea d,., -Vf(y |+1 ) + a¡d¡,

"

"

r/ooil2

Reemplazar j por j+1 y continuar con el paso 3 Paso 3: Sea y 1 - xk+1 = y n+l y sea d, = -Vf(y,). Sea j = 1, reemplazar k por k+1 \ continuar con el paso 1. Ejemplo: Minimizar (X[ - 2) 4 + (X| - 2x2) 2 En cada iteración d, es dado por -Vf(y,) y d 2 es dado por -Vf (y 2 ) + a , d , , donde a , se obtiene con la formula anterior. Ademas, y j+ , es obtenido optimizando a lo largo de d¡. partiendo de y¡. En la iteración 4, el punto y 2 = (2.185, 1.094), el cual es mu> cercano al optimo (2.00, 1.00), es alcanzado. Como la norma del gradiente es igual a 0.02. la cual es muy pequeña, se paran las iteraciones en el paso 4.

La labia siguiente es un compendio de las iteraciones para el problema con el inelodo d e l 'leicher-Rceves, y el progreso del algoritmo se muestra en la figura 8.

Figura 8 : Ilustración del metodo de Fletcher-Reeves

— O IO O Ö . O O r» O c-i r-j O) — O CJ o V J O • • O T Ö T •sjC-l G .o —* C* r-J 5 O IO O V. ^ — 1 •O f . —O • ce —O io O d o o o o C N f.CS r-J T "O — O O o o o lo o oc — .i V W.-o r-l — O — — _ c-i — i •C O >o r-i -r T r t —- IO J n r *— » c m — i _ í i — r-j r-j O O O v O 1» c-i c-i O c-i oo r-i o-i •O O — O vv O <-1 o o ~r o m o •o) < — o io O T -t w Q) > <D 03 Û 5 I ^ 1 a — t r-i Ö a > ä D 4J ai i i — ai TJ o •o o >0) s c T c I l> G rtC r-4 co Ó X Ó O r-J O I . T c-. . o o OJ O o O í . CJ' '' C M o - C M — r.. OI '—' .• lo" o <-j r-i fNl m os r. O '—' s .

Ya que la factibilidad primal es mantenida durante el proceso de optimización.CAPITULO 6 MI-TODOS DE DIRECCIONES FACTIBLES Esta clase de métodos resuelven problemas de programación no lineal moviéndose en cada iteración de un punto factible a un punto factible mejorado.arush-fCuhn-Tucker o algunas veces a puntos que cumplen con las condiciones de Fritz-John. mas cercano a un punto optimo.dk es mejor que el valor objetivo en x k . La metodología de los métodos de direcciones factibles es. Métodos de este tipo consisten en como converger a soluciones que cumplen las condiciones de K. estos procedimientos son con frecuencia referidos como "métodos primales". De otra manera. Dado un punto factible x k . un problema de optimización uni-dimensional que debe ser resuelto es determinar hasta donde continuar a lo largo de d k . Método de Zoutendijk Definición: Considere el problema de minimizar f(x) sujeto a x e s donde f:E n ->E| y S es un conjunto no vacio en E n . Un vector d diferente de cero es llamado una dirección factible en x g s si existe un 5>0 tal que x-Xd e s para todo X e ( 0 . 5). d es llamada una dirección mejorada en x e s si existe un 8>0 tal que f(x+?^d)<f(x) y x + X. Despues que tal dirección es determinada. 5). las siguientes dos propiedades son verdaderas: (1) xk + ?vdk es factible. El método de Zoutendijk es aplicable para resolver el problema de optimización .d e s para todo Xe (0. Ests conduce a un nuevo punto x k + | y el proceso es repetido. y (2) el valor objetivo en x k + X. se determina una dirección dk tal que para X>0 suficientemente pequeño.

Sea k con el paso 1 Paso 1: Dado x k . b 2 ) tal que A|X k -b[ \ A 2 x k <b 2 . la cual tiene dos propiedades: a) l'actibilidad: Consiste en que un a v a n c e en esa dirección no viola ninguna restricción b) Utilidad: Un avance en esa dirección m e j o r a el valor de la función objetivo. x k es un punto q u e cumple con las condiciones de Karush-KuhnTucker.c A : matriz m x n b : m-\eelur E : matriz 1 x n e : I-vector 1.1 n 1 seguir Si Vf(x k ) dk = 0. P a s o 2: Sea Xk una solueion óptima a el siguiente problema de busqueda de linea. Sea d k una solueion ó p t i m a a el siguiente problema Minimizar Vf(x) 1 d sujeta a A|d <0 Ed = 0 -1< d¡< 1 para j .Minimizar f(x) sujeta a Ax < b :x . .1 método encuentra en eada iteración una dirección factible y un tamaño de avance (longitud de paso) en esa dirección. . supóngase que A1 > b l s o n descompuestas en (A. parar. Minimizar f(x k + ?^dk) sujeto a donde 0<A. continuar con el paso 2.e. A 2 l ) y ( b . Procedimiento Paso 0: Encontrar una solueion iactible inicial X) con A x ^ b \ Ex. de otra manera.1. tal como en programación no restringida.<^max Amax - .

Reemplazar k por k + 1 y repetir el paso l. 0 ) ' E l vector gradiente Vf(x) es: Vf(x) = (4x. E j e m p l o : Minimizar f(x) .6)1 P r i m e r a iteración En el punto x. = ( 0 . por lo cual I = {3.2x. 4x 2 . . E l problema para encontrar una dirección factible es: Minimizar -4d. solamente las restricciones de no negatividad son activas. La siguiente figura ilustra la iteración 1. 1) y el valor optimo para el problema de dirección factible es igual a 10. que se cumplen como restricciones de igualdad.A-> xk d = A 2 dk sea xk .x 2 . < 1 -1 < d 2 < 1 E l problema puede resolverse con el método simplex o con el método gráfico. partiendo del punto inicial x.con h = h 2 . la solucion óptima es d| = (1 .4x ( . 2 +2x 2 : .2x 2 .. .6x 2 sujeta a X| + x 2 < 2 X| + 5x 2 < 5 -x -x 2 <0 <0 usando el método de /outendijk. 4}. i xk f identificar el nuevo conjunto de restricciones activas en x k+ i y obtener los nuevos valores de A¡ y A 2 .2X.4.2xj . .6d 2 sujeto a -d| <0 -d 2 < 0 -1 < d .

4xj . 5. < l d2 . 0) con un valor mínimo de l ( \ ) t. 2 sujeta a 0 < X < % Corno la función objetivo es convexa y el m í n i m o no restringido es de lo cual 'fi 1 6 5 V6 Segunda iteración En el punto (' /<-. sujeta a d.5.7 / 3 d.. + 2/.I 0 U 2X2 factible se obtiene como sigue MI valor máximo de X para el cual X| + Xxl.d|) . El conjunto de restricciones activas en el punto x 2 es I = {2}. Cualquier punto a lo largo de esta dirección puede ser c s o i t o c o m o X| + Xá\ = (X. se tiene que Vf(x 2 ) ~V3). Entonces f(x( i X. partiendo del punto (0. X).5.2x 2 2 .Ahora necesitamos encontrar el punto factible o lo largo de la dirección (I . l). tal que la d i r e c c i ó n factible es obtenida resolviendo el problema Minimizar . '2> '(fl '21 í' .6x 2 . + 5d 2 < 0 <d( < 1 -1 < d . h = . para el nuevo punto X[ + problema de busqueda uni-dimensional Minimizar -10A. " l l d = í v r 2\ I 5 2 5 5 6 el \ a I o r de X\ se obtiene resolviendo el siguiente müX "2'6j Entonces.2x ( x 2 .

-. de lo cual ffx. vOy > como d 2 = 0. 125/ /8.X2 H j (\ a r 'i vi / r 6 5y v 5 1> 5/ 5 d = 5.3 2 / 3 . 24 62 /2SX2 / 3 1 ). tal que x 3 . se tiene que d 3 = (l.x 2 + Xd2 = ("'V^. + Xá2) ~ -l25/s b * *2f2. ¡25X pues d 2 = d .' % ) ' .<.d2 ( 7 .l 2 5 / 8 .2 2 / l 5 X + sujeta a 0 < X < 3/./|SA+ 22/ 1 _.3 . + X \ .3 2 / 3 1 . tenemos que Vf(x 3 ) = ( . El conjunto de restricciones activas en el punto x 3 es dada por I = {2}. cualquier punto en la dirección d 2 puede ser escrito como x 2 + >. ~ 4 / 3 |)\ T e r c e r a iteración En x 3 = ( 3 7 3 l . .d ( 16 °/ 3 id 2 sujeta a d| + 5d 2 < 0 1 < d. < 1 -1 á d 2 < 1 Usando nuevamente el método gráfico. La siguiente figura ilustra esta iteración.Usando el mclodo gráfico se llega a la solucion óptima al problema lineal anterior que es d 2 = (I.-'/ 5 )..2 La solucion óptima es X2 = 5 '7 l 8 6 . se tiene que Xmax = min 12 Por lo tanto X2 es la solucion óptima al siguiente problema Minimizar . i i ) (-• -i) Partiendo del punto x 2 .X ).2 . lo cual hace que f(x 3 + O3) = 1 > .]f. -'/O* y e ' valor de la función objetivo es -22/. tal que la dirección factible se obtiene resolviendo: Minimizar . 62. .

< l V l 2 4 que no tiene solucion. v 2 \) 1^ 1 ( 5 5. .mínimo {V). por lo tanto el valor o p l i m o es x 2 siguiente ilustra este proceso final. obteniendo un punto que c u m p l e c o n las condiciones de Fritz-John de optimalidad. es la solucion del como d 3 .ü. c o n el cual se puede resolver el problema lineal Minimizar f(x) sujeta a g¡(x) < 0 i = l.. El método de Topkis-Veinott garantiza la convergencia del punto optimo para este problema.-.. X.m donde todas o algunas de las restricciones s o n no lineales. pero el punto optimo que se obtiene con el método puede no ser optimo s i n o a p r o x i m a d o . <<7 3I.25/8-l2/3^ 62 + / 25 X 2 = 0 sujeta a 0 < /.se lienc ahora que A. sin cumplir las condiciones de Karush-Kuhn-Tucker./ 4 ^} problema -. '^12-1.. V lo.Asi mismo / V '1 J 0 / r (V>\ 11 4 5. La figura Método de Topkis-Veinott El método de Zoutendijk tiene un variante.. ~ 4 / 31 ) t .

5)..2x.k una solucion óptima al problema de busqueda unidimensional Minimizar f(x k .x 2 ./ < 0 Vg(x k )'d ./ < -g¡(x k ) -I d¡ < I para i = 1.max donde /.m. 4X3 .. partiendo del punto x.(x) < 0 para i 1..d k l sujeta a 0 < /. y vol\ er al paso 1 E j e m p l o : Minimizar 2x ( : + 2x 2 2 . -2XI .75) 1 El gradiente de la función objetivo es Vf(x) ..6)1 Los gradientes de las funciones restricciones son (1.00. Sea k 1 y seguir con el paso Si / k . < /.4.0. De lo contrario..sup |/. Paso 0: Elegir un punió x hil que g. -I) 1 (-1.4x| . -x 2 <0 <0 m}. -l) 1 .. = (0. los cuales son utilizados para determinar la dirección factible del problema en cada iteración..2X| . . parar. (4X[.:gi(x k + d k ) < 0 para i .k..max ..(4x. 0.. n l. xk es un punto Kritz-John. Sea x = x k H = xk + ?tkdk..6x 2 sujeta a X| + 5x 2 < 5 2X| . d k ) una solucion óptima a el siguiente problema de programación lineal Minimizar z sujeta a Vf(x¡j'd . si z k < 0 continuar con el paso 2 Paso 2: Sea Á.I reemplazar k por k+1. 0)1 y (0.Procedimiento.. Paso 1: Sea (/.x : < 0 -x. m para j = I.

375 E l valor mínimo de la función es ).z < 1. entonces Xmax= 0. 0.(0. -3.3571 ) l y z.658872.84.d| = (0. : ..036/. + d. -0.' / < ( ) d. E l progreso del algoritmo se muestra en la siguiente figura .84 y este valor resuelve tiene que el problema de minimizar f(x. usando el método simplex.6548. La tabla siguiente resume los cálculos para 5 iteraciones obteniendose el punto (0.25 -d 2 .8575) con valor objetivo de -6. Por lo tanto el problema de dirección de busqueda es: Minimizar z sujeta a -5. 0.613086.60..5d t .0).3.75 -d.84. + Xd¡) = 0. con valor en la función objetivo -6.3d 2 .5590.5. -7< 0 -d 2 .75) tenemos que V f ( \ . ) = (-5./ ^ 0 -1 < dj < 1 p a r a j = 1.2 La solucíon óptima a el problema anterior es d¡ = (0.) s u j e t a a 0 < X < 0. + 5d 2 . 0.7143.z < 0.d^ f(x. 0.Iteración 1 En x| .868226) o b t e n i d o c o n el paquete de computadora G1NO. E l proceso es repetido. .72). Evaluando la función en el punto x -r /.0.7143.4.972>. " -0. 0. muy cercano al optimo (0. con lo cual x 2 = X| + A.

sC — —r r-j V C" — V -T : O o o O — ~ vi .O r-jI oo v¡ N O C .^ CÏ oo V. sO r r» — cr. r.— O o T r. oo v> oo O O O Ö O «o oo m vo o 00 . O T — rf . . X sO — 'O o vi V.O O O oO o O o c CT. O O r-j ? v r-» oc oc o Ò V) Os oc m — f-l sc ###BOT_TEXT### Ò O T v. .3» «y. r. N O •O O I I 1 ¡ 1 ö o o o O ¿ O os o o o oc o oc o 00 V •sr O Ö O C r-i V. v 1/-I -—> v> OO -r 'O so V) V. v>i T — V.r. — r-1 f . O . o> -o r*. O' o O ' o <3 v vi vi Os D -o O.cr.Vi s T O v. v. O •c — — fí r M ° ^ ö o O CJ O I o _ oc VI •c rr oc -—.-r f . 1 rsj 00 o o T o Cs O fl fN C •o o-. VI fi 1 1 1 i — X O 1N T V) r-j C vi — O! oo: 1 r» c — r*-. C o N fi o rf.

Si u ^ 0. Si d k = 0. u¡.Método de proyección de gradiente d e Rosen El método de proyección del g r a d i e n t e esta motivado por el método de ascensodescenso acelerado para problemas sin restricciones.v l ). 1 . Supóngase que A1 \ b1 son descompuestos en (A.-Vf(x k ). < b 2 . con AX[ < b \ 1\ e. Sea x k M = x k + X k d k . Si M es vacio. A : l ) y (b. A 2 l ) y (b.b 2 ') tal que A.max se calcula igual que en el m é t o d o de Zoutendijk. Paso 2: Sea x k una solucion óptima al siguiente problema de busqueda en un intervalo Minimizar f(x k + >wdk) sujeta a 0 < k < Xmax donde A. parar si Vf(x k ) = 0.1 . eliminando la columna. parar. y continuar con el paso 2. Si u>0. De lo contrario sea P = I . E1). correspondiente a u¡ y repetir el paso 1.x k+ | = b. y suponer que A 1 y b l son descompuestos en ( A / . Actualizando A. Sea d k . calcular w = -(MM 1 )' 1 M V f ( x J y sea w' = (u l .b| y A 2 x . seguir con el paso 2.1 y seguir con el paso 1. < b 2 . y A 2 x k + . . . Con este método se resuelve el p r o b l e m a de la lorma: Minimizar f(x) sujeta a Ax < b Ex . s e a .e Procedimiento Paso 0: Elegir un punto x. Paso 1: Sea M1 = ( A \ . x k es un punto que cumple con las condiciones de Karush-Kuhn-Tucker. El gradiente negativo se proyecta sobre la superficie de trabajo para definir la dirección de movimiento. elegir un componente negativo de u.M l (MM l )"'M y d k = -PVf(x k ).x. Sea k . Si d k * 0.\ b 2 l ) tal que A.

Calculando w = u =(A|A| t )A|Vf(X[) .(3. se tiene i^ue Cn 0 P = I-AI (AIA1 ). -6) 1 Eligiendo u 4 . + x 2 < 2 x. . 0). .1 0 > A1 = 0 . 4X2 . -x 2 <0 <0 P r i m e r a i t e r a c i ó n : En x.A.6)1 (-4. +.-PVf(X|) .) í° . el gradiente Vf(X|) . es modificada dado A] = (-1.(0.6x-> sujeta a x. y la dirección de movimiento d| es dada por ÍO d | = -PVf(X[) = - 0 r-4 0 . 1 1 n\ (T 0. tal que. La matriz de proyección m o d i f i c a d a P que se obtiene es .= . la matriz A.v A = V Entonces si esto es verdadero. 0).2 x 2 .5X 2 < 5 -x.4 . = (0.( 4 x j . con / .0 y d. 4 ) .. A. I .i P = I-V(A.Reemplazar k por k+l y repetir el paso I E j e m p l o : Resolver el siguiente problema con el método de proyección de gradiente de Rosen. 0 ) .2x. 0) 2 2 M i n i m i / a r 2 x i + 2X2 .-6)' Solamente las restricciones de no negatis idad son activas en x.-6 y suprimiendo el gradiente de la cuarta restricción.(-4. partiendo del punto (0.6/ .V v .2 x ¡ x 2 • 4 \ .

0 tal que x 3 es un punto que c u m p l e con las condiciones de Karush-Kuhn-Tucker. El valor máximo de X para el cual x( + >ol./l. 1)' En el final de la tercera iteración u = -(A[.6/ d = /W. A / ) .Por otra parte.36X sujeta a 0 < /. 0 | . es una solucion óptima del problema Minimizar 7Tk~ . x( + /.max _ mínimo { 2 / f) ..v. cualquier punto x^ en la dirección d ( partiendo del punto x.' ^ V f í x j J . -í v '1 . . es factible es obtenido como sigue h = />.1 P 5. = (0.d| (0. = '/. (•>} ) y el correspondiente valor objetivo es f(x 2 ) = 72 A.^ / v ^ O Por lo tanto x 3 es el punto óptimo para u 2 = 1- / 3 1 . Los cálculos para las tres iteraciones se resumen en la siguiente tabla.. entonces . . < '/ 6 La solucion óptima es Á. Vf(x 3 ) + u 2 Vg 2 (x 3 ) . + Ad. A.„ tal que x 2 = x.. - ' r6 30.2 - 36A. 2 5y í0^ . puede ser escrito como x.'/. -0.

Método del gradiente reducido de Wolfe Lisie método resuelve problemas de programación no lineal, sujetos a

restricciones lineales, en forma matemática Minimizar f ( \ ) sujeta a Ax b

x >0 E l algoritmo converge a un punto que cumple con las condiciones de KarushKuhn-Tucker. Procedimiento: P a s o 0: Elegir un punto x, que satisfaga AX| = b, X| > 0. Sea k = 1 y seguir con el paso 1. Paso 1: Sea d k (d [{ . d s ).Si d k 0. parar: xk es un punto que cumple con las condiciones

de Karush-Kuhn-Tucker. De lo contrario seguir con el paso 2. I k : Conjunto de Índices de los m componentes mas grandes de xk j€lkj r-VtKZ-V^xo'B'A í -r
dj =

N = {aj : j / g i k } (2) < 0
(3)

(1)

s i j £ Ik y r

Vx,rj

s i j ^ I, y ^ > o

d s = -B-'NdN

(4)

Paso 2 :Resol\er el siguiente problema lineal Minimizar f(x k + Xdk) sujeta a 0 < A. < max donde mínimo A.max — 1 < j < n °o -x. dJt : d .• < 0 [si d, I > 0 \J fOl V I ' I si d k > 0

y x |k . d j k son los j-esimos componentes de x k y d k , respectivamente.

Sea

una solucion óptima y sea x k ,| - xk +• A.kdk.

Reemplazar k por k ' I y repelirel paso I. E j e m p l o : Resolver el siguiente problema usando el método del gradiente reducido de Wolfe, partiendo del punto x, Minimizar 2X|2 sujeta a (0, 0, 2. 5)

2x-T - 2x,x 2 - 4X| - 6x 2 x, + x 2 + x3 = 2 x, +5x 2 + x 4 = 5 x h x 2 , x,. x 4 > 0

Calculando el vector gradiente
Vf(X|) - (4x, - 2 x 2 - 4, 4X2 - 2xj - 6, 0 , 0)

P r i m e r a iteración: l n el punto x( = (0. 0. 2. 5) tenemos que [3.4 J. tal que B

Vf(X|)

= (-4. -6. 0. 0)1. I] -

|3. 4]. I ; 1 gradiente reducido es dado por la ecuación (2) flllO _

r - (-4. -6. 0. 0) - (0. 0)

V lDU1i

= (-4,-6.0,0)

Y r, - 0 para i ¡s I,. La inforniacion en este punto se resume en la siguiente tabla
XJ X2 X3 X4

solucion x Vffx,)

0 -4 1

0 -6 1 5 -6

2 0 1 0 0

5 0 0 1 0

V B f(x,) = r

u

1 -4

Por la ecuación (3) se tiene que d^ — (d„ d 2 ) 1 = (4, 6 ) ' . Calculando d B con la formula (4) '1 d „ - ( d j , d 4 ) = - B - l Nd N = .1 0 5, = (-10,-34)'

B N es expresando bajo las variables correspondientes a N, a saber X| y x 2 .

9 / . 0 . ~ Siguiendo este mismo proceso. partiendo de X| = (0. / | 7 . .6.d| es factible X.-6. 0) 0) DLrecd.d 4 ) ~ Í0.Entonces e! vector dirección es d¡ = (4. 0 . 0)' (d . 2.52X sujeta a 0 < Á < ^ l5 Claramente Xi tal que x 2 .-34) (ffi.n ^ . 7 . (0. f¡) (0. en la iteración 3. -34)' Ahora.0.x. 0 . -T4V 1 lay que calcular el máximo valor de X tal que Xj + X.52X tal que X] es la solucion a el siguiente problema Minimizar 56X2 . 0) flxj 0.0) ± « (^. . 0.0)1 y de (4) 1 .0.( l 0 / | 7 .5) {?. 0 .0 -6. 6. de (3). -10.436 7. J*. -10.iiT-O) . í i Ti.0) (0. 5 / . ¿ g (f. TÍ) rfa h W j dt (4. d N (d|. . + /.d. La tabla siguiente resume los cálculos Iteraren L 1 2 3 \t (0. (-4.l 4 } > /-54 " 56X2 .2..cn d e l í n e a x.. Por lo tanto d = Ü > la solucion x 3 es óptima. 0 .max f(X| + minimo { 7 ] 0 .d 2 )' . se desea minimizar la función objetivo a lo largo de la dirección d| = (4.(0. 6.U/.16 r.-10.

.c..CAPITULO 7 M O D E L O S E S P E C I A L E S DE P R O G R A M A C I O N NO LINEAL Programación Cuadratica El problema de programación cuadralica se define como la maximizacion o minimizacion de una función cuadratica como función objetivo sujeta a restricciones lineales. La representación matematica de dicho problema es M a x m u / a r (o minimizar) z Sujeta a CX + X ' D X AX<P0 X>0 donde X-(x. cn) A = V a . .ni ••• 3 . .c. D = vd„. b 2 b J / dll. d... d. Para el problema de maximizacion la función objetivo debe ser concava y debe ser convexa para el problema de minimizacion..x2 xn)1 an C-(.. a l m mu' P 0 ...Cbt......

X.T. La fase 1 terminara en la forma usual con la suma de las variables artificiales igual a cero únicamente si el problema tiene un espacio factible. 2 . hl problema puede escribirse para el caso de maximizacion como Maximizar z = C X + X1 DX A (P <0 Sujeta a g(x) Las condiciones de K. + 6x 2 . S > 0 E l problema es equivalente a resolver un conjunto de ecuaciones lineales.T.\ '-2D A A1 .C = ?c¡Sj para toda i y toda j X. Cualquier punto que satisfaga las condiciones de Karush-Kuhn-Tucker sera una solucion de este problema de programación cuadral i ca.2x.C o m o las restricciones se suponen lineales en este caso. Esto quiere decir que X-.¡S| = 0 = AJXJ. La única restricción aqui es que debe mantenerse siempre la condicion X. Esta técnica descrita se conoce como el método de Wolfe para programación cuadratica. mientras se satisfacen las condiciones adicionales jijXj = 0 = k¡S¡. x2 > 0 . garantiza que la región factible sea un conjunto convexo. U. La solucion al sistema anterior se obtiene utilizando la fase 1 del método de las dos fases.x 2 . y S¡ no pueaen ser positivas al mismo tiempo asi como también Á.2x.K. E j e m p l o : Maximizar 4x.K.j y Xj no pueden ser positivas simultáneamente.I 0 0 0N lJ jijXj .. En base a esto la solucion a este problema se asegura por la aplicación directa de las condiciones de K.2x 2 2 Sujeta a x¡ + 2X2 <2 X. pueden combinarse como .

4 6 i A/c.1 0 0 i. 1—Sale j 2 2 4 2 0 0 -6 R2 S. formándose la siguiente tabla : Wmin •= R[ + R 2 Cj de las Var lías 1 1 0 Cj Sol. a la base. + 2 X 2 Resolviendo este problema de programación lineal restringido.1 - iVx ¿Ax- N Maximizar /.\I R | =4 = 6 +S.4x 2 + 2X] x. Fac.) Sujeta a (1. 1 Entra . + 2 X 2 = .•scnbicndo el problema en forma matricial ( . K.|i| -\x¿ . & \ S) J 4x. (4. \ se c u m p l e |ijXj 0 A. . y R 2 se tiene : 4x. + 4x 2 + 2/.. son : 4 2 1-1 0 0 0 0 x2 M = 4^ 6 i \ 2 4 2 12 0 . C o m o n . Bas.. Variable Basica Ri Xl 4 2 1 0 0 •6 L X 2 1 2 0 0 0 -J -I Vi -1 0 0 0 0 1 0 -1 0 0 0 R..x.. Introduciendo las variables artificiales R. <2 x„x2>0 •. p u e d e entrar x. 6) | |+(x. 1 0 0 1 4 0 0 1 0 1 6 0 Si 0 0 1 0 2 0 A. = 0. = 2 2 x j +. T. + 2x_.2) Vx-.nionecs las condiciones de K.+2x.| x.4 = 6 +S[ = 2 2x.

2 3 0 0 2 C o m o S-. Bas.u Sol. « o •> a la base \ A Cj de las Var Bas Variable Basica L X 2 Mt M2 r. Fac. Fac. R- s./c ic 0 0 0 Cj X. a. filtrar » i 0 1 3 2 0 0 0 -1/2 0 0 1 C o m o (. Bas. k. Fac. X. 0• 1 A. R2 S.0 Ri = 0 . Sol. A.C| de las Vdr lias Variable Basic. Mi M> * r. ? A A. 0 1 0 Qi X. 1 0 0 0 1/3 0 0 0 1 0 5/6 0 0 l 0 0 1 0 -1/3 0 1/6 0 0 0 1/6 -1/2 -1/12 0 0 0 1/3 0 -1/6• 0 0 0 -1 6 l'3 1 5 6 0 0 0 i / i :: i 0 i 1 2 1 0 ] Sol. 1 Solución optima X| = 1 / 3 = 0 x2 = 5/6 V r 2 -1 = 0 s. R S. 1 1 0 Cj X. A.Sale -4 0. Bas. I 0 0 0 1 Í) i i j Vi 3/2 -1/4 0 0 -3/2 1-n t r a •-1/4 0 -1 0 % -1 2 -•1 4 0 0 3/2 0 i 0 1 4 0 0 1 4 1 2 4 3 2 3 — . I X.Sale 0. . A/c.» X-. R. 1 0 0 0 2 3 0 0 0 1 0 2/3 0 1/3 2 -1/6 0 0 -2 -1 3 0 -1 6 0 0 0 0 -1 0 0 0 1 1/3 0 -1/6 1 0 1 0 1 0 l 2 0 •1 3 -> 2 3 2 2 3 2 1 —. Û entrar X t a la base > o J LEntra Cj de las Var Bas Variable Basica Xt Ml Mi R.

únicamente se permite que una tk adyacente (t positiva. y a k coinciden con los puntos terminales a y b del intervalo en estudio.) ii para i para j 1 1 m n deben SLíjela a a ££„(*. Por lo tanto..a.< a k . (x.d.x. Defínase a k . v \ n donde a ( . Los puntos a. + a 2 x 2 + . a 2 a n son constantes separables. f(x) se aproxima como sigue ki k-i donde t k es un peso no negativo asociado al punto k-esimo de separación tal que » ^ tk = l ki Esta aproximación es valida si: i) A lo mas dos t k son positivas ü) Si t k es positiva. -r..i xl > 0 Un programación separable la función objetivo y las restricciones expresarse como sumas de funciones de una sola variable cada una.. k+) o bien t k -l) sea .)£/>. siendo k=l. . Supóngase que f(x) ha de ser aproximada sobre el intervalo [a. ..b].K como el k-esimo punto de separación en el eje X tal que a! < a 2 <. + x 2 ) + x : eVJ no es separable pues aparecen dos funciones (segundo > tercer sumando) en términos de mas de una variable. Solucion aproximada al problema separable Una solucion aproximada para cualquier problema separable puede obtenerse con el método Simplex de programación lineal.. Ejemplo: La función h(x) _ xf + x|sen(x.. . Ejemplo: La función lineal 1(1) .Programación Separable Definición : l In problema de programación no lineal es separable si puede ser expresado de la siguiente forma A Max i mi zar (minimizar) f(x) ^ /.

la base restringida o conjunto de variables basicas especifica que no mas de dos t positivas pueden aparecer en la base.j(x.) y g | ' ( x i ) quedan en su forma presente.k pueden ser positivas únicamente si son adyacentes. Ademas dos t. dado que son lineales. En este caso se trata X| como una de las variables. la ultima tabla da la solucion óptima aproximada al problema.4). La condicion de oplimalidad estricta del método Simplex se utili/a para seleccionar la variable de entrada l. Considerando f 2 ( x 2 j y gf (x 2 ). se deduce que k a k 2 f2<>2k) 0 1 1 16 81 gi 2 (a 2 k ) Ó 2 8 18 ~ 1 2 3 4 0 2 3 De lo cual . lo que ocurra primero. f 2 (x 3 ) =x. supóngase que existen cuatro puntos de separación ( K : .En el formato del método Simplex.3)). Ya que el valor de x 2 no puede exceder de 3 (por el intervalo (0. El procedimiento se repite hasta que la condicion de optimalidad se satisface o hasta que es imposible introducir nuevas l¡ sin violar la condicion de base restringida. únicamente si satisface las condiciones anteriores. x 2 > 0 Considerando las funciones separables f|(x.) = x. + 2 x 2 < 9 x |. 4 g. En este punto. E j e m p l o : Maxim ¡zar z = X[ + x 2 4 Sujeta a 3x.'= 3x g2 2= 2xn Las funciones .

. c l t 9/8 1—Sale s. con las columnas reordenadas para dar una solucion de inicio es la siguiente k = 1.) » l(l 2 2 ) + I 6 ( t \ ) + 81(t 4 : ) l 2 2 + 1 6 l \ +811*2 ^ 2 ) l'igii^i 2t 2 . + t 2 2 + 1 6 t \ + 81t 4 2 sujela a 3x.3. Bas Fac 4. > 0 \ ñ a d i e n d o una variable de holgura a la primera restricción 3X| + 2x. 1 Entra Si t 4 2 es la variable de entrada. 1 0 0 9 0 t'2 0 1 1 0 1 A.2.1 tk2>0 x. + t\ + t 4 : . + 8 t : ~ I8t 2 + S[ = 9 La tabla Simplex inicial. La tabla de la primera iteración del método Simplex aparece a continuación.r 2 (x 2 ) l' 2 f 2 f a 2 ' ) + t 2 2 f 2 (a 2 2 ) + t 3 2 f 2 ( a \ ) +t 2 4 (a 4 2 ) Oit1.4 C j d e las Var Bas 0 0 Qi Variable Basica r2 t\ 8 1 16 0 16 L f\ 18 1 81 0 81 s. sale de la base t 2 y se cumplen las condiciones de factibilidad. 9 1 A. lo que viola la condicion de factibilidad. la variable de salida es S h e s t a n d o en la base t \ y t 4 2 . Considerando t 2 c o m o variable de entrada. t- + + t 3 2g 2 |(a 2 ) + t 4 2 g : |(a 4 2 ) + 18t42 Ll problema de aproximación es: Maximizarz x. Entonces la variable que debe salir es S ( y no puede entrar a la base t 4 2 . + 2 t \ + 8t 3 2 + 18t 4 2 < 9 \ ^ t 2 . t\ j * 2 1 1 0 1 0 1 0 Sol.

Fac. = 0 t \ = 1/10 t22 = 0 S. t\ 4 x. IMO—Sale I Sol lias Fac. Cj de las Var B a s 81 16 Variable Basica t . El proceso termina en este punto. y como está en la base t 3 2 . 3 O I 0 1 U -6 l 1 0 -15 "t 0 I 16 I 0 L i io | XI o s. 1 2 no puede entrar a la base.C j de las Var Ras 0 16 C| Variable Basita S. -8 | (J 0 -16 A. dado que si entra. sale de la base t J 2 y quedan d o s valores no adyacentes en la base. 3/10 -3 10 t. Tales problemas son llamados "problemas de programación lineal f r a c c i o n a l " y pueden ser establecidos como sigue . 1/10 9 10 0 Cj Sol./c. hUru La variable de entrada es t 4 2 . entra en lugar de S|. no p u e d e admitirse. 1 0 -37 2 1 Ü 24 16 9 10 0 81 110 O 0 0 -13/2 0 0 36 La tabla muestra que t ' 2 y 1 2 son candidatos a ser variable de entrada. Bas. Solucion Optimax.5 Programación Fraccional lineal Ahora consideraremos un p r o b l e m a en el cual la función objetivo es el cociente de dos funciones lineales y las restricciones lineales. I l A. Como t l 2 no es un punto adyacente a t J 2 y 1 2 basicas. -6/10 16 10 i 0 1 t. I 0 S[ 1/10 -1 10 t.-0 t 3 2 = 9/10 t 4 2 = 1/10 Zmax = 0 + 0 + 16(9/10) + 81(1/10) = 22. l () O l 11 i. t\ x. -8/10 18 l A.

para un problema de minimizacion es también un mininio global bajo la región factible. b es un vector con m componentes. L e m a : Sea f(x)~ (p r x + u)/(q l x + P) y sea S un conjunto convexo tal que q'x + P * 0 bajo S. A es una matriz m \ n > a y p son escalares. estrictamente cuasi-convexa y cuasiconcava. un punto que satisface las condiciones de K. para un problema de maximizacion es también un máximo global bajo la región factible. entonces un mínimo local es también un mínimo global bajo la región factible. Puesto que la función objetivo es pseudoconvexa y pseudoconcava bajo S entonces también es cuasi-convexa. un punto que satisface las condiciones de K.T.K.K. Puesto que la función objetivo es pseudo-convexa y pseudoconcava. 3. l es tanto pseudoconvexa y pseudoconcava bajo S Del lema anterior surgen algunas implicaciones para problemas de programación lineal fraccional 1.(delimitada completamente su grafica) entonces. la función objetivo tiene un minimo en . 4.Minimizar Sujeta a .in punto extremo de la región factible y también tiene un máximo en un punto de la región factible .q x h (i Ax < b x (J donde p y q son vectores con n componentes. Rntonces. si la región factible es acotada. 2. Igualmente. C o m o la función objetivo es estrictamente cuasi-convexa y estrictamente cuasiconcava. entonces. Igualmente. un máximo local es también un máximo global bajo la región factible. cuasi-concava.T. C o m o la función objetivo es cuasi-concava y cuasi-convexa.

haciendo -z .a z Sujeta a Ay .u z Sujeta a Ay . entonces la solucion óptima al problema fraccional es no acotada l/(q l x + (3) y \ = zx.¡x: Ax < b y x > 0} es compacto (acotado y cerrado.l/(q l x + p) y y = zx se tiene que el nuevo problema es: Minimizar -p l y . Haciendo / al siguiente programa lineal Minimizar . Considere el siguiente problema Minimizar p' x + a .M é t o d o de C h a m e s y C o o p c r l . que contiene sus puntos limites o puntos frontera) y supóngase que q l x + (3 > 0 para cada x e S.bz < 0 -qly-z=l y> 0 z> 0 Finalmente. el problema anterior puede reducirse . si q'x + p < 0 para todo x e S.p \ .bz < 0 -q'y . q x + sujeta a Ax < b x >0 Supóngase que el conjunto S .z = 1 y >0 z> 0 Ahora. si existen X[ y x 2 g S tales que q .sic método consiste en convertir el problema de programación lineal fraceional en un problema de programación lineal que pueda ser resuelto con el método Simplex. x l + P > 0 y q l x 2 + p < 0.

E j e m p l o : Minimizar -2x¡ + + 2 x..0 y z = 1/11. 6) (4. se tiene que la solucion ó p t i m a es yi = 7/11.09. + 3x 2 + 4 > 0. + y 2 .4z < 0 2y. E1 correspcndiente valor objetivo es -1. se obtiene el siguiente p r o b l e m a lineal Minimizar -2yi + y 2 + 2z Sujeta a -y] + y 2 .1 4 z < 0 y2-6z yi <0 + 3y a + 4 z = l yi. 0) C o m o el punto (0. y 2 . 0 ) (7. el denominador es positivo bajo la región factible entera."+ 3X 2 + 4 Sujeta a -X| + x 2 < 4 2x ( + x 2 <14 x2 < 6 x. y**2 ^ 0 Resolviendo este problema con el método Simplex.0) es factible.x2>0 La siguiente liuura muestra la región factible. Por lo tanto. . y en este punto -x. La solucion óptima al problema original es X| = y¡/Z| = 7 y x 2 ~ y 2 /z 2 = 0. (2. 6) ( 0 .

. (o Existe una forma especial de esta desigualdad que puede ser usada en ciertos problemas de minimizacion..n). . . j = 1..x n son cualesquier números no negativos y propiedad U . supóngase que se tiene una función f de la forma f-fl>i donde yj-yj(xlí.x2)>0.. . . Duflin y C Zenncr. descubierta por R.. Hj ' Ahora supóngase que n y?" = c (3) donde c es constante.. .2. . . .. cada termino yj esta en f u n c i ó n de x . De la ecuación (2) se tiene que »' m . . y n Esto es. ^ y f es la suma de tales términos... entonces I v .. .. Desigualdad de la media aritmcüca-mcdia geométrica Si x|. . m x n ) = yj + y 2 + . Por otra parte si en la ecuación (1) si \ = l/n se tiene que . que es manejada para (unciones y restricciones no lineales. tienen la \ > 0 para todo j (j 1.ProKramacion Geométrica Una de las mas recientes técnicas de optimización matcmatica es la programación geométrica..

A. considerando el posinomio m i» f(x. . + a. ./. 2 A.X3)M Para lograr que se eliminen las variables al buscar el valor de la función objetivo.a ni | Xm ~ 0 a. * / ' " — V " i i I' i aplicando la desigualdad (5) se obtiene "• M . -1. tomando .2/-2 + .X3) = .x?x3 + 4x 2 x 3 = + 4x.xnJ..-. /i o también "' /1 i» ' Xm que satisfagan las condiciones Se b a s c a encontrar los valores de Xt.. .x 3 Examinando (4xx"'2 ( 8 ¥ 2 F (4x2x5)" (4X.| + a-. + a ^ Xm= 0 a ln-^l + a 2i/-2 + • • • + Smn + 0 y asimismo. . .. aM. E j e m p l o : Minimizar 4 f(Xi.X2. + 8X[X 2 x. que pueda obtenerse el valor de la función objetivo f.J / ' .Partiendo de esta definición.

2. E j e m p l o : Para l(x) I x ' + 2x 2 + 4x ..V.. es llamada posinomio. . entonces la desigualdad (1) puede ser escrita como -i i hyi r • • • + m M >m . . y 3 = 4x Usando la relación (3) n y .\ 2 ...~ y 3 y2 1 / 3 y3 l / 3 (1 x 1 ) ' 3 ( 2 x 2 ) .y m m números no negativos. x > 0 con m 3y y.Por la ecuación (3) la desigualdad se expresa como Z.m ) tal que v >j donde Cj > 0 > para k = 1.n a j k es un numero real y x k es una variable que solo t o m a valores positivos.. . para x > 0. / 3 ( 4 x ) ' 1 (8 J1 1 2 Entonces.„ v ají x aj2 x ajn CjX| 2 •• n ( 6 (5) La función general f puede considerarse compuesta de m términos y j Q = l...x n ). .jyr entonces — fe) . xj>mc (4) para todos los vectores (x h .. Resolución de problemas de programación geométrica no restringidos Sean v.l / x \ y2 2x 2 .... por í4) se tiene que f(x) > me = 3(2) = 6.ym £ Xx = lyX t > 0 para todo j /=i Si yj = A.. ii = /<*... • • .

x. .) +1/5 (5-8X|X2) + 1/5 (5-4x 2 x 3 ) + 1/5 (5-4x.x 2 .2/5 2 / 5 V X \ ( 4 ì X .. ' (5-8X[X 2 ) + (5-4x 2 x 3 )' ^ (5-4X|X3JL/5 > ( \ 0 ) 2 (2U) 1 ' (20) 1 / 5 > (1600000)" Los valores de las variables x|. >.nbinacion óptima de las variables. que permite conocer acerca del valor de la función o b j e t i v o antes que la co.) > 5/4 4 Vx.— X) — \ ' 2 X\ > 0 y con .x2xv ' ( 4 0 ) ' .x-j) .x 3 se obtienen resolviendo las siguientes ecuaciones 8X|X2 = 4 0 1 5 4X2X3 20.50 x 3 = 0.5 En el ejemplo anterior se observa una característica importante de la programación geometrica.x.2 0 1 5 Solucion óptima: X.x-.. X2 X. = 3..4 1/5 r(x.Í 0 x 2 = 3.13 Valor de la función objetivo: 104./5 4x. i se li ene que X¡ De lo cual = 2 / 5 .

+1/2X3-2X 4 = 0 X|. X4) sujeta a X. ^ Pi-1 F.(x) y con c¡>0..x 2 . HI problema de programación geometrica restringida a min K\) I i i' ^ 1 (x) < 1 .+X2 VA. X3./ À. r-\ . h¡(x) = . 1 problema dual se expresa como max / X2 ' ' Xp) = max g(X) =n . + X.X3. sujeta a 1/3 x. . . p.p Pk"Pr.X4 > 0 .|1 j = 1 . . = 0 X. -2X. .. .X2.. ! /.x 3 ) = 3x 2 x 3 + 1/9 x.. / l 2 A3/ .2 x 3 1. /=/'.Programación geometrica restringida hstos problemas de programación geometrica restringida se resuelven mediante su problema dual."!x2x3"2 < 1 E l problema dual es j Max g(X. \ U ^ V J J [VA V'if i -4 ^ + X2 + 1/2 X3 + X 4 . ^ f " » - sujeta a X| l> YallXl = 0 i j = l... ..XP 2: 0 Vp I' I L .n Ejemplo: Minimizar f(x. m. X 2 . n (>. .' 2 x 2 ~ 2 x 3 l/2 -r 3x.: l X|'" l x 2 a..pM+1+. -i x.) ""i/o^ \ /t. k p sujeta a donde \../"" j 1 i _ 1.0 X.

1 9 -2 2/3 . respectivamente con coeficientes la potencia de cada termino. calculando la matriz inversa del arreglo anterior."2 = 5/11 .2. X3.6 / 1 1 3x l " 1 x2x-.2/9 g ( ^ ) 1/3 x .X2 .x 3 .5/9 de lo cual .La primera resiriceion se refiere a la suma de los X.7/9 g ( X ) 1/9 x. para minimizar x l . Para hallar los valores de X2. i = 1. se obtiene la única solucion resolviendo el siguiente sistema de ecuaciones 3X.2.7'9 X2 = 2/9 -5/9 -2/9 = 2/3 X4 = 5/9 El valor optimo de los problemas dual y primal es: -5.. se tiene '7/9 2 9 -7/9 7 9 2 3 -1 9 1/3 N -1/3 3 0 -1/3. x. El arreglo de coeficientes '1 0 1 .032 Entonces. Las otras tres restricciones son referentes a los términos que tienen las variables x h x 2 . dado que son dos términos en la función objetivo. ' W 2 . .x 2 . X4.1 1 1 ü 0 Ü 12 -2 1/2 0 ' -1 1 .

correspondiente i 3. ~ 0. A. .10. se tiene que t(x ) ~ g(X. . ).4 entre la s u m a d e X^ + XA Llegando finalmente a la solucion óptima x.278 habiendo aplicado el siguiente teorema al ejemplo anterior.Los icrminos del lado derecho d e las dos ultimas igualdades se obtienen dividiendo el h.065 x2 4.67S x-. T e o r e m a : Si el problema primal tiene solucion. . entonces para las soluciones óptimas » * » • respectivas x .

. para alcanzar su solucion completa. pero complementarias. lo que hace mas complicado su estudio. donde la convexidad asegura q u e si el gradiente se anula en un punto. Hay dos maneras diferentes. tal como el método Simplex en programación lineal. tal como <J paquete G I N O . entre mas pequeño sea el error permisible E. el problema dual. Esta caracterización se amplia al enfoque global. es mejor su aproximación al punto o p t i m o . Muchos de los problemas de programación no lineal requieren de s o f t w a r e de computadora. en u n punto mínimo relati\ o sin restricciones de una función continua.CAPITULO 8 C O N C L U S I O N E S Y RECOMENDACIONES La programación no lineal tiene la limitante de la no existencia de un algoritmo único para cualquier problema no lineal. cuyas incognitas son los multiplicadores de Lagrange. Por lo tanto. ese punto es un minimo relativo. el gradiente de la f u n c i ó n se anula y el hessiano es definido positivo. Con esto se llega a la conclusion de que. los métodos duales no tratan directamente el problema con restricciones original. de caracterizar la solucion a problemas de optimización sin restricciones. Los métodos de dualidad lagrangiana se basan en L opinion de que son los multiplicadores de Lagrange las incognitas fundamentales asociadas a un problema con restricciones. la determinación del p u n t o solucion (al menos en algunas ocasiones) es sencilla. En el enfoque local se examina la relación de un punto dado con sus vecinos. una vez conocidos estos multiplicadores. ese punto es un minimo global. sino que se aplican a un problema alternativo. aunque.

Los problemas con restricciones de desigualdad se pueden tratar con una estrategia de c o n j u n t o activo. Con este enfoque. Por ultimo. .El concepto de m é t o d o s de dirección factible es una ampliación directa y lógica de los métodos usados para problemas sin restricciones. el problema original se transforma primero en un problema auxiliar del cual se determina el optimo. donde el maximo(minimo) de un problema se busca siguiendo la tasa de incremento(disminucion) mas rapida de la función objetivo en u n punto. Algunos ejemplos de estas situaciones son la programación cuadratica. c o m o la falta de convergencia global en el valor optimo del problema no lineal. L o s métodos d e dirección factible mas prácticos son el método de proyección de gradiente de Rosen \ el método de gradiente reducido de Wolfe. los métodos de solucion de programación no lineal se pueden clasificar en términos generales como procedimientos directos o indirectos. En los métodos indirectos. pues converge en un menor numero de iteraciones para la mayoría de los problemas que el método de proyección de gradiente de Rosen. pero da lugar a algunas dificultades sutiles. Se determina el conjunto correcto de restricciones activas durante el proceso de búsqueda añadiendo y eliminando restricciones del conjunto de trabajo. la programación fraccional y la programación geométrica. el del gradiente reducido de ^ olfe es recomendado. y las restantes c o m o inactivas. Ejemplos de los métodos directos son los algoritmos de gradiente. ciertas restricciones se tratan como activas. Estos métodos básicos pueden considerarse c o m o el método de ascenso-descenso acelerado aplicado en la superficie definida por las restricciones activas. la programación separable. De los dos métodos.

i o aproximada del problema original. en lanío que la programación separable genera solo una solucion aproximada. . Por ejemplo. el uso de las c o n d i c i o n e s de Kaiush-Kuhn-Tucker con la programación cuadralica produce una solucion exacta.Ohsei vemos que los problemas auxiliares en estos casos pueden producir u n a solucion e v i u .

1991. "The Operations Research Prohlem SnUer". 4. "Programación lineal y no lineal". REA. C. RLA (Mull of Research and Education Association). . 1990. H.. B. Stanfel. 1989. W.: Jarvis. Limusa.. 10. "Linear Programming and Network Flows". Taha. "Karmarkar's Algoritm and Its Place in Applied Mathematics". 5. 9. "Investigación de Operaciones". 6. Strang. . 1993. "Nonlinear Programming" John Willey and Sons. 3. Springer Verlag. John Willcy and Sons. J. Bazaraa. 0 . Sivaslian. M. y Sherali. Prentice Hall. Addison Wesley Iberoamericana.. Armiluno. II. 1975 8. "Programación no lineal". "Métodos y Modelos de Investigación de Operaciones". "Optimización Teenies in Operations Research".Lirnusa. 7. J. Alfaomega. 1987. Vol. L. G. 1989.. 1986. Prawda.Winston.BIBLIOGRAFIA 1. I. LuenberLvr I). Bazarau. Sherali. Hdelman. 9. Grupo Editorial Iberoamérica. "Investigación de operaciones". M. 1 9R5. 1994. J. J. 2. y Garcia. y Shetty. The Mathematical Intelligencer.

AI'ENDICr .

x 2 . debe pertenecer al conjunto. Convergencia: E l hecho que una sucesión de pasos o iteraciones tenga un limite.n-l con d¡. l H d j = 0 i * j... Direcciones conjugadas: Las direcciones d 0 . Con\evidad: Propiedad de los conjuntos convexos. son conjugadas de la matriz Hessiana sí cumple d. Espacio euclidiano: Conjunto de todos los vectores de dimensión n definidos sobre los números reales.dj * 0 para toda i y j..l. punto optimo. Conjunto compacto: Un conjunto acotado y cerrado.h[. k ... Conjunto cerrado: Un conjunto que contiene sus puntos frontera o puntos limite. localizar la mitad que contiene a /. Función multimodal: Una función que tiene varios optimos locales o relativos. conjunto de variables basicas. Función unimodal: U n a función que tiene solo un punto mínimo o máximo global o absoluto.. i j = 0.GLOSARIO Base: En el método Simplex.d|... Dirección factible: Un vector cuyo movimiento a lo largo del mismo no viola ninguna de las restricciones del problema. C o n j u n t o a c o t a d o : Un conjunto es acotado sí existe un numero k tal que cada x en el conjunto. Gradiente : Vector que tiene como componentes las derivadas parciales de f con respecto a las variables x]. Interpolación: Técnica que consiste en encontrar un valor optimo de u n a función objetivo partiendo de una nueva función...x n .... y en cada paso.d n . aquellos conjuntos que para \ k para cualesquicr par de puntos en el conjunto. Función bimodal: Aquella función que tiene dos optimos locales o relativos. . el segmento que los une. Bisección: Técnica que consiste en dividir repetitivamente a la mitad a los subí inérvalos de |a.

Restricciones activas : Son aquellas restricciones de desigualdad que son validas como igualdad. Matriz simétrica : Una matriz cuadrada que es igual a su transpuesta. en un sistema de m ecuaciones con n variables (n > m) una solucion basica es aquella que se obtiene al fijar n .m. Medida de eficiencia : El numero de iteraciones de los métodos de busqueda. Multiplicadores de Lagrange : Son las constantes que aparecen en el lagrangiano X. . Longitud de paso : Magnitud de avance de un punto factible a otro mas cercano a la solucion óptima en una iteración. Variable basica : En programación lineal. i = l . . . .f¡.(x) para i . entre menos iteraciones se efectúen es mejor la medida de eficiencia de un método. igualdad o ambas. Restricciones inactivas : Aquellas restricciones de desigualdad que no son validas como igualdad.Itcraccion : lin desarrollo de una serie de etapas de las que consta un algoritmo. Solucion Factible : Un vector perteneciente a un subconjunto del espacio euclidiano E n que satisface las restricciones..m variables del sistema iguales a cero y resolviendo el sistema en función de las m restantes. llamadas variables basicas. Para el caso de minimizacion f(x) > f(x). Son lo contrario a las restricciones activas.. .n. . n. j . Métodos primales : Aquellos métodos en los que la factibilidad del problema primal es mantenida durante el proceso de optimización. . Problema lineal: Es un problema de minimizar o maximi/ar una función lineal en la presencia de restricciones lineales del tipo de desigualdad. . . Solucion óptima : Un punto x tal que f(x) < f(x) para el caso de maximizacion. Matriz Hessiana : La matriz compuesta por las derivadas parciales de segundo orden d2((x)/dxlK¡ . .I.1.

Vector: Arreglo de 1 números escritos en una fila o una columna. 1 Vectores lincalmcntc independientes: Aquellos vectores a...k.a 2 a Z V / = 0 a k de dimensión n que implica que X\ = 0 para j=l.. . ..

L.N. . A .A. Desde agosto de 1990 se desempeña como catedrático en Matematicas \ Fstadistiea en la Facultad de Ingeniería Mecaniea \ l-.lectrica de la U . Rubén Cantu Cañamar > Argelia Cuellar de Cantu. Estudio en la facultad de Ciencias Físico Matematicas de la l . obteniendo el titulo de Licenciado en Matematicas en 1989. V I . Sus padres son el Prof. de 1984 a 1988. Busca obtener el grado de Maestro en Ciencias de la Administración con especialidad en Investigación de Operaciones c o n la tesis: Programación ao lineal.AUTOBIOGRAFIA Ll licenciado Ramón Cantu f u e l l a r nació el 31 de agosto de 1967 en Monterrey. Nuevo León.

"},"eligible_for_exclusive_trial_roadblock":false,"eligible_for_seo_roadblock":false,"exclusive_free_trial_roadblock_props_path":"/doc-page/exclusive-free-trial-props/106831128","flashes":[],"footer_props":{"urls":{"about":"/about","press":"/press","blog":"http://literally.scribd.com/","careers":"/careers","contact":"/contact","plans_landing":"/subscribe","referrals":"/referrals?source=footer","giftcards":"/giftcards","faq":"/faq","accessibility":"/accessibility-policy","faq_paths":{"accounts":"https://support.scribd.com/hc/sections/202246346","announcements":"https://support.scribd.com/hc/sections/202246066","copyright":"https://support.scribd.com/hc/sections/202246086","downloading":"https://support.scribd.com/hc/articles/210135046","publishing":"https://support.scribd.com/hc/sections/202246366","reading":"https://support.scribd.com/hc/sections/202246406","selling":"https://support.scribd.com/hc/sections/202246326","store":"https://support.scribd.com/hc/sections/202246306","status":"https://support.scribd.com/hc/en-us/articles/360001202872","terms":"https://support.scribd.com/hc/sections/202246126","writing":"https://support.scribd.com/hc/sections/202246366","adchoices":"https://support.scribd.com/hc/articles/210129366","paid_features":"https://support.scribd.com/hc/sections/202246306","failed_uploads":"https://support.scribd.com/hc/en-us/articles/210134586-Troubleshooting-uploads-and-conversions","copyright_infringement":"https://support.scribd.com/hc/en-us/articles/210128946-DMCA-copyright-infringement-takedown-notification-policy","end_user_license":"https://support.scribd.com/hc/en-us/articles/210129486","terms_of_use":"https://support.scribd.com/hc/en-us/articles/210129326-General-Terms-of-Use"},"publishers":"/publishers","static_terms":"/terms","static_privacy":"/privacy","copyright":"/copyright","ios_app":"https://itunes.apple.com/us/app/scribd-worlds-largest-online/id542557212?mt=8&uo=4&at=11lGEE","android_app":"https://play.google.com/store/apps/details?id=com.scribd.app.reader0&hl=en","books":"/books","sitemap":"/directory"}},"global_nav_props":{"header_props":{"logo_src":"/images/landing/home2_landing/scribd_logo_horiz_small.svg","root_url":"https://www.scribd.com/","search_term":"","small_logo_src":"/images/logos/scribd_s_logo.png","uploads_url":"/upload-document","search_props":{"redirect_to_app":true,"search_url":"/search","search_test":"control","query":"","search_page":false}},"user_menu_props":null,"sidebar_props":{"urls":{"bestsellers":"https://www.scribd.com/bestsellers","home":"https://www.scribd.com/","saved":"/saved","subscribe":"/archive/pmp_checkout?doc=106831128&metadata=%7B%22context%22%3A%22pmp%22%2C%22action%22%3A%22start_trial%22%2C%22logged_in%22%3Afalse%2C%22platform%22%3A%22web%22%7D","top_charts":"/bestsellers","upload":"https://www.scribd.com/upload-document"},"categories":{"book":{"icon":"icon-ic_book","icon_filled":"icon-ic_book_fill","url":"https://www.scribd.com/books","name":"Books","type":"book"},"news":{"icon":"icon-ic_articles","icon_filled":"icon-ic_articles_fill","url":"https://www.scribd.com/news","name":"News","type":"news"},"audiobook":{"icon":"icon-ic_audiobook","icon_filled":"icon-ic_audiobook_fill","url":"https://www.scribd.com/audiobooks","name":"Audiobooks","type":"audiobook"},"magazine":{"icon":"icon-ic_magazine","icon_filled":"icon-ic_magazine_fill","url":"https://www.scribd.com/magazines","name":"Magazines","type":"magazine"},"document":{"icon":"icon-ic_document","icon_filled":"icon-ic_document_fill","url":"https://www.scribd.com/docs","name":"Documents","type":"document"},"sheet_music":{"icon":"icon-ic_songbook","icon_filled":"icon-ic_songbook_fill","url":"https://www.scribd.com/sheetmusic","name":"Sheet Music","type":"sheet_music"}},"categories_array":["mixed","book","audiobook","magazine","news","document","sheet_music"],"selected_content_type":"mixed","username":"","search_overlay_props":{"search_input_props":{"focused":false,"keep_suggestions_on_blur":false}}}},"recommenders":{"related_titles_recommender":{"item_props":[{"type":"document","id":86984939,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/86984939/108x144/3b3bdb3323/1374423574?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/86984939/216x288/a1b127d8f0/1374423574?v=1","title":"seccion dorada","short_title":"seccion dorada","author":"Aldo Toledo","tracking":{"object_type":"document","object_id":86984939,"track":"flattened_recommender","doc_uuid":"hhMn8cdD0TUg+h8Ihto+dECnHYk="},"url":"https://www.scribd.com/document/86984939/seccion-dorada"},{"type":"document","id":21324263,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/21324263/108x144/ece2076a30/1306778333?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/21324263/216x288/9cbbd4f31d/1306778333?v=1","title":"Progra No Lineal","short_title":"Progra No Lineal","author":"adtello7","tracking":{"object_type":"document","object_id":21324263,"track":"flattened_recommender","doc_uuid":"eqic4cax7m8QORMrunUR1SbTvb8="},"url":"https://www.scribd.com/doc/21324263/Progra-No-Lineal"},{"type":"document","id":87479288,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/87479288/108x144/bced574e18/1387408723?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/87479288/216x288/c1c65bd084/1387408723?v=1","title":"Secuenciación n Trabajos Múltiples Centros de Trabajo","short_title":"Secuenciación n Trabajos Múltiples Centros de Trabajo","author":"Alberto Carranza","tracking":{"object_type":"document","object_id":87479288,"track":"flattened_recommender","doc_uuid":"cflOEJWqZVNXwTteDI66X7dElrk="},"url":"https://www.scribd.com/document/87479288/Secuenciacion-n-Trabajos-Multiples-Centros-de-Trabajo"},{"type":"document","id":114127126,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/114127126/108x144/d9abf1b9f8/1412369242?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/114127126/216x288/3afce4aca5/1412369242?v=1","title":"Unidad 3 IO. Progrmacion No Lineal","short_title":"Unidad 3 IO. Progrmacion No Lineal","author":"Morga Josue","tracking":{"object_type":"document","object_id":114127126,"track":"flattened_recommender","doc_uuid":"Cmsu+g47a42YKEqiiQgJcCYBahI="},"url":"https://www.scribd.com/presentation/114127126/Unidad-3-IO-Progrmacion-No-Lineal"},{"type":"document","id":379098994,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/379098994/108x144/2888f58826/1526235347?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/379098994/216x288/c53b18953f/1526235347?v=1","title":"Calificación Para Este Intento Semana 8","short_title":"Calificación Para Este Intento Semana 8","author":"David Polo","tracking":{"object_type":"document","object_id":379098994,"track":"flattened_recommender","doc_uuid":"6Ovgi6LrdaatOeeVD3XBHwKGhdQ="},"url":"https://www.scribd.com/document/379098994/Calificacion-Para-Este-Intento-Semana-8"},{"type":"document","id":80573420,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/80573420/108x144/d14deef5b3/1442893363?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/80573420/216x288/ebcd675151/1442893363?v=1","title":"MÉTODO DE OPTIMIZACIÓN CON RESTRICCIONES","short_title":"MÉTODO DE OPTIMIZACIÓN CON RESTRICCIONES","author":"Iván Gago","tracking":{"object_type":"document","object_id":80573420,"track":"flattened_recommender","doc_uuid":"J3cOtw+268SY5OGpOh3QMmweIa0="},"url":"https://www.scribd.com/doc/80573420/METODO-DE-OPTIMIZACION-CON-RESTRICCIONES"},{"type":"document","id":80804323,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/80804323/108x144/a5523e2303/1518972593?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/80804323/216x288/3dbba6b543/1518972593?v=1","title":"Unidad 1 - Programacion No Lineal","short_title":"Unidad 1 - Programacion No Lineal","author":"Quen Jesus","tracking":{"object_type":"document","object_id":80804323,"track":"flattened_recommender","doc_uuid":"4maRyZCa04VCLmP81wcxZpV6Dhk="},"url":"https://www.scribd.com/doc/80804323/Unidad-1-Programacion-No-Lineal"},{"type":"document","id":69069523,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/69069523/108x144/3f4afd83e6/1353212834?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/69069523/216x288/b8d073e11f/1353212834?v=1","title":"Programacion No Lineal","short_title":"Programacion No Lineal","author":"Jonathan Jose","tracking":{"object_type":"document","object_id":69069523,"track":"flattened_recommender","doc_uuid":"bIzwi/TDG4Y7iocHHd/ED3/VWx4="},"url":"https://www.scribd.com/document/69069523/Programacion-No-Lineal"},{"type":"document","id":81212217,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/81212217/108x144/8c79d0bd58/1376960138?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/81212217/216x288/76ec69f15b/1376960138?v=1","title":"PROGRAMACION NO LINEAL UNMSM","short_title":"PROGRAMACION NO LINEAL UNMSM","author":"camaleonxyz","tracking":{"object_type":"document","object_id":81212217,"track":"flattened_recommender","doc_uuid":"ypN6OHIuVhJVqn+8AXGCQyjfbic="},"url":"https://www.scribd.com/doc/81212217/PROGRAMACION-NO-LINEAL-UNMSM"},{"type":"document","id":349001365,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/349001365/108x144/7b621c9af5/1495378701?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/349001365/216x288/6d93bcc141/1495378701?v=1","title":"02 Aplicaciones de La Programación Lineal","short_title":"02 Aplicaciones de La Programación Lineal","author":"Gerson Hugo Andrade Rodriguez","tracking":{"object_type":"document","object_id":349001365,"track":"flattened_recommender","doc_uuid":"D7zh904QMEmPGDKsYSf9zVLoppM="},"url":"https://www.scribd.com/presentation/349001365/02-Aplicaciones-de-La-Programacion-Lineal"},{"type":"document","id":74054934,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/74054934/108x144/ddffff5f5b/1516233541?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/74054934/216x288/60aeecd25a/1516233541?v=1","title":"Programacion No Lineal","short_title":"Programacion No Lineal","author":"Andrés Valdiviezo","tracking":{"object_type":"document","object_id":74054934,"track":"flattened_recommender","doc_uuid":"LruvpxviFlkdcfsW99ynqj6KVl4="},"url":"https://www.scribd.com/presentation/74054934/Programacion-No-Lineal"},{"type":"document","id":220006345,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/220006345/108x144/ef659cedc8/1398319759?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/220006345/216x288/f409e6ff1d/1398319759?v=1","title":"Programación Lineal","short_title":"Programación Lineal","author":"zoecarcamo","tracking":{"object_type":"document","object_id":220006345,"track":"flattened_recommender","doc_uuid":"/pmu8W/uxZqyG5frex0MJd39iHM="},"url":"https://www.scribd.com/presentation/220006345/Programacion-Lineal"},{"type":"document","id":36404359,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/36404359/108x144/8ed24b93ca/1411361321?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/36404359/216x288/b349daabd9/1411361321?v=1","title":"La Programación no Lineal","short_title":"La Programación no Lineal","author":"Marcos Gi Manel","tracking":{"object_type":"document","object_id":36404359,"track":"flattened_recommender","doc_uuid":"k3SsRlTQ5ilaKskxMlabAaN8tsU="},"url":"https://www.scribd.com/document/36404359/La-Programacion-no-Lineal"},{"type":"document","id":231633821,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/231633821/108x144/ab3a993352/1403909338?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/231633821/216x288/be1dd420bb/1403909338?v=1","title":"05 Paper Gestión de Proyectos Teórico Curvas Etc","short_title":"05 Paper Gestión de Proyectos Teórico Curvas Etc","author":"PedroPezoaR","tracking":{"object_type":"document","object_id":231633821,"track":"flattened_recommender","doc_uuid":"eflkUsNynwhNF4F7T1Q4u/wbVBg="},"url":"https://www.scribd.com/document/231633821/05-Paper-Gestion-de-Proyectos-Teorico-Curvas-Etc"},{"type":"document","id":366445672,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/366445672/108x144/ac1185767d/1512539207?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/366445672/216x288/b7914e5ded/1512539207?v=1","title":"Maximos y Minimos","short_title":"Maximos y Minimos","author":"Eduardo Cortez","tracking":{"object_type":"document","object_id":366445672,"track":"flattened_recommender","doc_uuid":"Khn+ug1dSoNN6tv4HgNod3NTnOA="},"url":"https://www.scribd.com/document/366445672/Maximos-y-Minimos"},{"type":"document","id":363577257,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/363577257/108x144/933fa4c485/1509924428?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/363577257/216x288/b8f2485175/1509924428?v=1","title":"Clase 2_IO. par 2","short_title":"Clase 2_IO. par 2","author":"Ana Becerra Aviles","tracking":{"object_type":"document","object_id":363577257,"track":"flattened_recommender","doc_uuid":"JrCxZfEu8n6150wpwGuNmDg87S8="},"url":"https://www.scribd.com/document/363577257/Clase-2-IO-par-2"},{"type":"document","id":229617716,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/229617716/108x144/f3de4936fa/1402724958?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/229617716/216x288/bca8d93b9b/1402724958?v=1","title":"Analisis_sensibilidad_modelo_heli.pdf","short_title":"Analisis_sensibilidad_modelo_heli.pdf","author":"mredox6","tracking":{"object_type":"document","object_id":229617716,"track":"flattened_recommender","doc_uuid":"fYkmMYiHbcB0uMNH/m/e+GjEMxA="},"url":"https://www.scribd.com/document/229617716/Analisis-sensibilidad-modelo-heli-pdf"},{"type":"document","id":215322321,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/215322321/108x144/73de1b10a4/1396198599?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/215322321/216x288/84040b7bab/1396198599?v=1","title":"Presentation PNL SR","short_title":"Presentation PNL SR","author":"Christian Lara","tracking":{"object_type":"document","object_id":215322321,"track":"flattened_recommender","doc_uuid":"f9nYAf9jV2hEoJRN2PTcEN7aVbg="},"url":"https://www.scribd.com/document/215322321/Presentation-PNL-SR"},{"type":"document","id":343458873,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/343458873/108x144/955e41ea5f/1490833031?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/343458873/216x288/9848e5e0c4/1490833031?v=1","title":"EJERCISIO CAPTITULO 8","short_title":"EJERCISIO CAPTITULO 8","author":"Daniel Villeda","tracking":{"object_type":"document","object_id":343458873,"track":"flattened_recommender","doc_uuid":"DyKG3bUwZjrdIpcNSrCVr7YTrDg="},"url":"https://www.scribd.com/document/343458873/EJERCISIO-CAPTITULO-8"},{"type":"document","id":357796750,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/357796750/108x144/4de049a386/1504295423?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/357796750/216x288/1e2ecb2d3e/1504295423?v=1","title":"Trabajo Rc 5","short_title":"Trabajo Rc 5","author":"Jorge Velasquez","tracking":{"object_type":"document","object_id":357796750,"track":"flattened_recommender","doc_uuid":"16RRA2hjLud3BmgT5cbQT92igLI="},"url":"https://www.scribd.com/document/357796750/Trabajo-Rc-5"},{"type":"document","id":327047760,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/327047760/108x144/cbbd894425/1476102498?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/327047760/216x288/8b8f342175/1476102498?v=1","title":"Optimizaciefbfbdn Con Restricciones de Desigualdad","short_title":"Optimizaciefbfbdn Con Restricciones de Desigualdad","author":"Duke Ell","tracking":{"object_type":"document","object_id":327047760,"track":"flattened_recommender","doc_uuid":"goRvweM2x+sB5zC9fafWo56eXH0="},"url":"https://www.scribd.com/document/327047760/Optimizaciefbfbdn-Con-Restricciones-de-Desigualdad"},{"type":"document","id":96061584,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/96061584/108x144/e8390c4be1/1369949987?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/96061584/216x288/b9120b7e32/1369949987?v=1","title":"Unidad 2 Problemas Propuestos","short_title":"Unidad 2 Problemas Propuestos","author":"Yesenia Anahí Olvera Ríos","tracking":{"object_type":"document","object_id":96061584,"track":"flattened_recommender","doc_uuid":"O9l+Ynn4LWt6cl/PQ8zgpqKNrac="},"url":"https://www.scribd.com/document/96061584/Unidad-2-Problemas-Propuestos"},{"type":"document","id":359276438,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/359276438/108x144/fae120d033/1505786766?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/359276438/216x288/a58190f59e/1505786766?v=1","title":"optimizacion-solidworks.pdf","short_title":"optimizacion-solidworks.pdf","author":"Jesus","tracking":{"object_type":"document","object_id":359276438,"track":"flattened_recommender","doc_uuid":"zdkFv/ruSChu3GoEybzGjmhhxKk="},"url":"https://www.scribd.com/document/359276438/optimizacion-solidworks-pdf"},{"type":"document","id":117340530,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/117340530/108x144/9ff0fe2c91/1451227350?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/117340530/216x288/80e3273134/1451227350?v=1","title":"00033330","short_title":"00033330","author":"Guillermo Gonzalez Pimentel","tracking":{"object_type":"document","object_id":117340530,"track":"flattened_recommender","doc_uuid":"WuAGRAZGZLYf7P3XUVGVphTSUH0="},"url":"https://www.scribd.com/document/117340530/00033330"},{"type":"document","id":155323683,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/155323683/108x144/249f68cc12/1384485068?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/155323683/216x288/768193e60a/1384485068?v=1","title":"QUICES 1 Y 2","short_title":"QUICES 1 Y 2","author":"Helbert Gabino Manrique Ramirez","tracking":{"object_type":"document","object_id":155323683,"track":"flattened_recommender","doc_uuid":"Vx41z9oQRqxK3H160W5+glKuqg0="},"url":"https://www.scribd.com/document/155323683/QUICES-1-Y-2"},{"type":"document","id":294683540,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/294683540/108x144/bba4054080/1452025434?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/294683540/216x288/8b9e200fbc/1452025434?v=1","title":"09-Incertidumbre_y_la_Planificacion_Minera.ppt","short_title":"09-Incertidumbre_y_la_Planificacion_Minera.ppt","author":"Marcelo Aguilar","tracking":{"object_type":"document","object_id":294683540,"track":"flattened_recommender","doc_uuid":"/F8tgHkTQdvaf6aC2Jfeji7hNOg="},"url":"https://www.scribd.com/presentation/294683540/09-Incertidumbre-y-la-Planificacion-Minera-ppt"},{"type":"document","id":349784259,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/349784259/108x144/af4f14508a/1496096590?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/349784259/216x288/80bdc062d9/1496096590?v=1","title":"Desarrollo de Un Modelo de Programación Matemática","short_title":"Desarrollo de Un Modelo de Programación Matemática","author":"Jorge","tracking":{"object_type":"document","object_id":349784259,"track":"flattened_recommender","doc_uuid":"IxNgbdGvRH55bReAQ6PwQPX7ROo="},"url":"https://www.scribd.com/document/349784259/Desarrollo-de-Un-Modelo-de-Programacion-Matematica"},{"type":"document","id":324178274,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/324178274/108x144/7a0e3b32f3/1473999344?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/324178274/216x288/573a6b6491/1473999344?v=1","title":"100404 Grupo 21 Act 2 Momento Dos Producto Final","short_title":"100404 Grupo 21 Act 2 Momento Dos Producto Final","author":"KatheI.Amaris","tracking":{"object_type":"document","object_id":324178274,"track":"flattened_recommender","doc_uuid":"co1LgEITK7QtqUObtYJF3jrBR74="},"url":"https://www.scribd.com/document/324178274/100404-Grupo-21-Act-2-Momento-Dos-Producto-Final"},{"type":"document","id":368545726,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/368545726/108x144/f7f262fa3e/1515254493?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/368545726/216x288/f50d953bd0/1515254493?v=1","title":"Análisis Del Grado de Corte","short_title":"Análisis Del Grado de Corte","author":"acostin06","tracking":{"object_type":"document","object_id":368545726,"track":"flattened_recommender","doc_uuid":"1i4K9P0Tx6h9tb+Yro5eleLhBfU="},"url":"https://www.scribd.com/document/368545726/Analisis-Del-Grado-de-Corte"},{"type":"document","id":145966184,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/145966184/108x144/43523cdffa/1436023677?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/145966184/216x288/816038a059/1436023677?v=1","title":"Initial Tunnig","short_title":"Initial Tunnig","author":"Randy Gabriel Morales","tracking":{"object_type":"document","object_id":145966184,"track":"flattened_recommender","doc_uuid":"mllNG1Xgoo+HQ2ihQedqu+JUnjA="},"url":"https://www.scribd.com/document/145966184/Initial-Tunnig"},{"type":"document","id":103166350,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/103166350/108x144/46b53b310b/1399999786?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/103166350/216x288/e51c23c822/1399999786?v=1","title":"Algebra Linea 2ed Stanley Grossma","short_title":"Algebra Linea 2ed Stanley Grossma","author":"PiliMG01","tracking":{"object_type":"document","object_id":103166350,"track":"flattened_recommender","doc_uuid":"z60Ah+f0jQZ6HxEhVL1H+oQoaWg="},"url":"https://www.scribd.com/doc/103166350/Algebra-Linea-2ed-Stanley-Grossma"},{"type":"document","id":105496417,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/105496417/108x144/61f6617188/1347294797?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/105496417/216x288/16bb095164/1347294797?v=1","title":"Algebra Lineal - Kolman","short_title":"Algebra Lineal - Kolman","author":"PiliMG01","tracking":{"object_type":"document","object_id":105496417,"track":"flattened_recommender","doc_uuid":"objbiypubjFgnxH5UDDcsc4Hg/U="},"url":"https://www.scribd.com/doc/105496417/Algebra-Lineal-Kolman"},{"type":"document","id":84817836,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/84817836/108x144/82b713df61/1399964745?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/84817836/216x288/133bd8baff/1399964745?v=1","title":"Algebra Lineal - Kolman","short_title":"Algebra Lineal - Kolman","author":"PiliMG01","tracking":{"object_type":"document","object_id":84817836,"track":"flattened_recommender","doc_uuid":"pWKzzQG4mfVDFHxYNwzXpcvDrTE="},"url":"https://www.scribd.com/doc/84817836/Algebra-Lineal-Kolman"},{"type":"document","id":95928019,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/95928019/108x144/491754ff9c/1399986340?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/95928019/216x288/696fd1189c/1399986340?v=1","title":"Algebra Linea 2ed Stanley Grossma","short_title":"Algebra Linea 2ed Stanley Grossma","author":"PiliMG01","tracking":{"object_type":"document","object_id":95928019,"track":"flattened_recommender","doc_uuid":"+Ar2uPdYrjkpMEDYNnO83svmtXk="},"url":"https://www.scribd.com/doc/95928019/Algebra-Linea-2ed-Stanley-Grossma"}],"title_link":null,"title":null,"track_opts":{"compilation_id":"IHCnUQNp3SbWY6/iw+5H7myCpGE=","module_id":"eeSQXJM/lYHIToPfmzPAxPipKA4=","widget_name":"right sidebar","track_id":"flattened_recommender"}},"footer_recommenders":{"recommenders":[{"item_props":[{"type":"document","id":86984939,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/86984939/108x144/3b3bdb3323/1374423574?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/86984939/216x288/a1b127d8f0/1374423574?v=1","title":"seccion dorada","short_title":"seccion dorada","author":"Aldo Toledo","tracking":{"object_type":"document","object_id":86984939,"track":"similar_to","doc_uuid":"hhMn8cdD0TUg+h8Ihto+dECnHYk="},"url":"https://www.scribd.com/document/86984939/seccion-dorada"},{"type":"document","id":21324263,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/21324263/108x144/ece2076a30/1306778333?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/21324263/216x288/9cbbd4f31d/1306778333?v=1","title":"Progra No Lineal","short_title":"Progra No Lineal","author":"adtello7","tracking":{"object_type":"document","object_id":21324263,"track":"similar_to","doc_uuid":"eqic4cax7m8QORMrunUR1SbTvb8="},"url":"https://www.scribd.com/doc/21324263/Progra-No-Lineal"},{"type":"document","id":87479288,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/87479288/108x144/bced574e18/1387408723?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/87479288/216x288/c1c65bd084/1387408723?v=1","title":"Secuenciación n Trabajos Múltiples Centros de Trabajo","short_title":"Secuenciación n Trabajos Múltiples Centros de Trabajo","author":"Alberto Carranza","tracking":{"object_type":"document","object_id":87479288,"track":"similar_to","doc_uuid":"cflOEJWqZVNXwTteDI66X7dElrk="},"url":"https://www.scribd.com/document/87479288/Secuenciacion-n-Trabajos-Multiples-Centros-de-Trabajo"},{"type":"document","id":114127126,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/114127126/108x144/d9abf1b9f8/1412369242?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/114127126/216x288/3afce4aca5/1412369242?v=1","title":"Unidad 3 IO. Progrmacion No Lineal","short_title":"Unidad 3 IO. Progrmacion No Lineal","author":"Morga Josue","tracking":{"object_type":"document","object_id":114127126,"track":"similar_to","doc_uuid":"Cmsu+g47a42YKEqiiQgJcCYBahI="},"url":"https://www.scribd.com/presentation/114127126/Unidad-3-IO-Progrmacion-No-Lineal"},{"type":"document","id":379098994,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/379098994/108x144/2888f58826/1526235347?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/379098994/216x288/c53b18953f/1526235347?v=1","title":"Calificación Para Este Intento Semana 8","short_title":"Calificación Para Este Intento Semana 8","author":"David Polo","tracking":{"object_type":"document","object_id":379098994,"track":"similar_to","doc_uuid":"6Ovgi6LrdaatOeeVD3XBHwKGhdQ="},"url":"https://www.scribd.com/document/379098994/Calificacion-Para-Este-Intento-Semana-8"},{"type":"document","id":80573420,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/80573420/108x144/d14deef5b3/1442893363?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/80573420/216x288/ebcd675151/1442893363?v=1","title":"MÉTODO DE OPTIMIZACIÓN CON RESTRICCIONES","short_title":"MÉTODO DE OPTIMIZACIÓN CON RESTRICCIONES","author":"Iván Gago","tracking":{"object_type":"document","object_id":80573420,"track":"similar_to","doc_uuid":"J3cOtw+268SY5OGpOh3QMmweIa0="},"url":"https://www.scribd.com/doc/80573420/METODO-DE-OPTIMIZACION-CON-RESTRICCIONES"},{"type":"document","id":80804323,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/80804323/108x144/a5523e2303/1518972593?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/80804323/216x288/3dbba6b543/1518972593?v=1","title":"Unidad 1 - Programacion No Lineal","short_title":"Unidad 1 - Programacion No Lineal","author":"Quen Jesus","tracking":{"object_type":"document","object_id":80804323,"track":"similar_to","doc_uuid":"4maRyZCa04VCLmP81wcxZpV6Dhk="},"url":"https://www.scribd.com/doc/80804323/Unidad-1-Programacion-No-Lineal"},{"type":"document","id":69069523,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/69069523/108x144/3f4afd83e6/1353212834?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/69069523/216x288/b8d073e11f/1353212834?v=1","title":"Programacion No Lineal","short_title":"Programacion No Lineal","author":"Jonathan Jose","tracking":{"object_type":"document","object_id":69069523,"track":"similar_to","doc_uuid":"bIzwi/TDG4Y7iocHHd/ED3/VWx4="},"url":"https://www.scribd.com/document/69069523/Programacion-No-Lineal"},{"type":"document","id":81212217,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/81212217/108x144/8c79d0bd58/1376960138?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/81212217/216x288/76ec69f15b/1376960138?v=1","title":"PROGRAMACION NO LINEAL UNMSM","short_title":"PROGRAMACION NO LINEAL UNMSM","author":"camaleonxyz","tracking":{"object_type":"document","object_id":81212217,"track":"similar_to","doc_uuid":"ypN6OHIuVhJVqn+8AXGCQyjfbic="},"url":"https://www.scribd.com/doc/81212217/PROGRAMACION-NO-LINEAL-UNMSM"},{"type":"document","id":349001365,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/349001365/108x144/7b621c9af5/1495378701?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/349001365/216x288/6d93bcc141/1495378701?v=1","title":"02 Aplicaciones de La Programación Lineal","short_title":"02 Aplicaciones de La Programación Lineal","author":"Gerson Hugo Andrade Rodriguez","tracking":{"object_type":"document","object_id":349001365,"track":"similar_to","doc_uuid":"D7zh904QMEmPGDKsYSf9zVLoppM="},"url":"https://www.scribd.com/presentation/349001365/02-Aplicaciones-de-La-Programacion-Lineal"},{"type":"document","id":74054934,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/74054934/108x144/ddffff5f5b/1516233541?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/74054934/216x288/60aeecd25a/1516233541?v=1","title":"Programacion No Lineal","short_title":"Programacion No Lineal","author":"Andrés Valdiviezo","tracking":{"object_type":"document","object_id":74054934,"track":"similar_to","doc_uuid":"LruvpxviFlkdcfsW99ynqj6KVl4="},"url":"https://www.scribd.com/presentation/74054934/Programacion-No-Lineal"},{"type":"document","id":220006345,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/220006345/108x144/ef659cedc8/1398319759?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/220006345/216x288/f409e6ff1d/1398319759?v=1","title":"Programación Lineal","short_title":"Programación Lineal","author":"zoecarcamo","tracking":{"object_type":"document","object_id":220006345,"track":"similar_to","doc_uuid":"/pmu8W/uxZqyG5frex0MJd39iHM="},"url":"https://www.scribd.com/presentation/220006345/Programacion-Lineal"},{"type":"document","id":36404359,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/36404359/108x144/8ed24b93ca/1411361321?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/36404359/216x288/b349daabd9/1411361321?v=1","title":"La Programación no Lineal","short_title":"La Programación no Lineal","author":"Marcos Gi Manel","tracking":{"object_type":"document","object_id":36404359,"track":"similar_to","doc_uuid":"k3SsRlTQ5ilaKskxMlabAaN8tsU="},"url":"https://www.scribd.com/document/36404359/La-Programacion-no-Lineal"},{"type":"document","id":231633821,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/231633821/108x144/ab3a993352/1403909338?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/231633821/216x288/be1dd420bb/1403909338?v=1","title":"05 Paper Gestión de Proyectos Teórico Curvas Etc","short_title":"05 Paper Gestión de Proyectos Teórico Curvas Etc","author":"PedroPezoaR","tracking":{"object_type":"document","object_id":231633821,"track":"similar_to","doc_uuid":"eflkUsNynwhNF4F7T1Q4u/wbVBg="},"url":"https://www.scribd.com/document/231633821/05-Paper-Gestion-de-Proyectos-Teorico-Curvas-Etc"},{"type":"document","id":366445672,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/366445672/108x144/ac1185767d/1512539207?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/366445672/216x288/b7914e5ded/1512539207?v=1","title":"Maximos y Minimos","short_title":"Maximos y Minimos","author":"Eduardo Cortez","tracking":{"object_type":"document","object_id":366445672,"track":"similar_to","doc_uuid":"Khn+ug1dSoNN6tv4HgNod3NTnOA="},"url":"https://www.scribd.com/document/366445672/Maximos-y-Minimos"},{"type":"document","id":363577257,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/363577257/108x144/933fa4c485/1509924428?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/363577257/216x288/b8f2485175/1509924428?v=1","title":"Clase 2_IO. par 2","short_title":"Clase 2_IO. par 2","author":"Ana Becerra Aviles","tracking":{"object_type":"document","object_id":363577257,"track":"similar_to","doc_uuid":"JrCxZfEu8n6150wpwGuNmDg87S8="},"url":"https://www.scribd.com/document/363577257/Clase-2-IO-par-2"},{"type":"document","id":229617716,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/229617716/108x144/f3de4936fa/1402724958?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/229617716/216x288/bca8d93b9b/1402724958?v=1","title":"Analisis_sensibilidad_modelo_heli.pdf","short_title":"Analisis_sensibilidad_modelo_heli.pdf","author":"mredox6","tracking":{"object_type":"document","object_id":229617716,"track":"similar_to","doc_uuid":"fYkmMYiHbcB0uMNH/m/e+GjEMxA="},"url":"https://www.scribd.com/document/229617716/Analisis-sensibilidad-modelo-heli-pdf"},{"type":"document","id":215322321,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/215322321/108x144/73de1b10a4/1396198599?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/215322321/216x288/84040b7bab/1396198599?v=1","title":"Presentation PNL SR","short_title":"Presentation PNL SR","author":"Christian Lara","tracking":{"object_type":"document","object_id":215322321,"track":"similar_to","doc_uuid":"f9nYAf9jV2hEoJRN2PTcEN7aVbg="},"url":"https://www.scribd.com/document/215322321/Presentation-PNL-SR"},{"type":"document","id":343458873,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/343458873/108x144/955e41ea5f/1490833031?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/343458873/216x288/9848e5e0c4/1490833031?v=1","title":"EJERCISIO CAPTITULO 8","short_title":"EJERCISIO CAPTITULO 8","author":"Daniel Villeda","tracking":{"object_type":"document","object_id":343458873,"track":"similar_to","doc_uuid":"DyKG3bUwZjrdIpcNSrCVr7YTrDg="},"url":"https://www.scribd.com/document/343458873/EJERCISIO-CAPTITULO-8"},{"type":"document","id":357796750,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/357796750/108x144/4de049a386/1504295423?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/357796750/216x288/1e2ecb2d3e/1504295423?v=1","title":"Trabajo Rc 5","short_title":"Trabajo Rc 5","author":"Jorge Velasquez","tracking":{"object_type":"document","object_id":357796750,"track":"similar_to","doc_uuid":"16RRA2hjLud3BmgT5cbQT92igLI="},"url":"https://www.scribd.com/document/357796750/Trabajo-Rc-5"},{"type":"document","id":327047760,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/327047760/108x144/cbbd894425/1476102498?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/327047760/216x288/8b8f342175/1476102498?v=1","title":"Optimizaciefbfbdn Con Restricciones de Desigualdad","short_title":"Optimizaciefbfbdn Con Restricciones de Desigualdad","author":"Duke Ell","tracking":{"object_type":"document","object_id":327047760,"track":"similar_to","doc_uuid":"goRvweM2x+sB5zC9fafWo56eXH0="},"url":"https://www.scribd.com/document/327047760/Optimizaciefbfbdn-Con-Restricciones-de-Desigualdad"},{"type":"document","id":96061584,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/96061584/108x144/e8390c4be1/1369949987?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/96061584/216x288/b9120b7e32/1369949987?v=1","title":"Unidad 2 Problemas Propuestos","short_title":"Unidad 2 Problemas Propuestos","author":"Yesenia Anahí Olvera Ríos","tracking":{"object_type":"document","object_id":96061584,"track":"similar_to","doc_uuid":"O9l+Ynn4LWt6cl/PQ8zgpqKNrac="},"url":"https://www.scribd.com/document/96061584/Unidad-2-Problemas-Propuestos"},{"type":"document","id":359276438,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/359276438/108x144/fae120d033/1505786766?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/359276438/216x288/a58190f59e/1505786766?v=1","title":"optimizacion-solidworks.pdf","short_title":"optimizacion-solidworks.pdf","author":"Jesus","tracking":{"object_type":"document","object_id":359276438,"track":"similar_to","doc_uuid":"zdkFv/ruSChu3GoEybzGjmhhxKk="},"url":"https://www.scribd.com/document/359276438/optimizacion-solidworks-pdf"},{"type":"document","id":117340530,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/117340530/108x144/9ff0fe2c91/1451227350?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/117340530/216x288/80e3273134/1451227350?v=1","title":"00033330","short_title":"00033330","author":"Guillermo Gonzalez Pimentel","tracking":{"object_type":"document","object_id":117340530,"track":"similar_to","doc_uuid":"WuAGRAZGZLYf7P3XUVGVphTSUH0="},"url":"https://www.scribd.com/document/117340530/00033330"},{"type":"document","id":155323683,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/155323683/108x144/249f68cc12/1384485068?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/155323683/216x288/768193e60a/1384485068?v=1","title":"QUICES 1 Y 2","short_title":"QUICES 1 Y 2","author":"Helbert Gabino Manrique Ramirez","tracking":{"object_type":"document","object_id":155323683,"track":"similar_to","doc_uuid":"Vx41z9oQRqxK3H160W5+glKuqg0="},"url":"https://www.scribd.com/document/155323683/QUICES-1-Y-2"},{"type":"document","id":294683540,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/294683540/108x144/bba4054080/1452025434?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/294683540/216x288/8b9e200fbc/1452025434?v=1","title":"09-Incertidumbre_y_la_Planificacion_Minera.ppt","short_title":"09-Incertidumbre_y_la_Planificacion_Minera.ppt","author":"Marcelo Aguilar","tracking":{"object_type":"document","object_id":294683540,"track":"similar_to","doc_uuid":"/F8tgHkTQdvaf6aC2Jfeji7hNOg="},"url":"https://www.scribd.com/presentation/294683540/09-Incertidumbre-y-la-Planificacion-Minera-ppt"},{"type":"document","id":349784259,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/349784259/108x144/af4f14508a/1496096590?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/349784259/216x288/80bdc062d9/1496096590?v=1","title":"Desarrollo de Un Modelo de Programación Matemática","short_title":"Desarrollo de Un Modelo de Programación Matemática","author":"Jorge","tracking":{"object_type":"document","object_id":349784259,"track":"similar_to","doc_uuid":"IxNgbdGvRH55bReAQ6PwQPX7ROo="},"url":"https://www.scribd.com/document/349784259/Desarrollo-de-Un-Modelo-de-Programacion-Matematica"},{"type":"document","id":324178274,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/324178274/108x144/7a0e3b32f3/1473999344?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/324178274/216x288/573a6b6491/1473999344?v=1","title":"100404 Grupo 21 Act 2 Momento Dos Producto Final","short_title":"100404 Grupo 21 Act 2 Momento Dos Producto Final","author":"KatheI.Amaris","tracking":{"object_type":"document","object_id":324178274,"track":"similar_to","doc_uuid":"co1LgEITK7QtqUObtYJF3jrBR74="},"url":"https://www.scribd.com/document/324178274/100404-Grupo-21-Act-2-Momento-Dos-Producto-Final"},{"type":"document","id":368545726,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/368545726/108x144/f7f262fa3e/1515254493?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/368545726/216x288/f50d953bd0/1515254493?v=1","title":"Análisis Del Grado de Corte","short_title":"Análisis Del Grado de Corte","author":"acostin06","tracking":{"object_type":"document","object_id":368545726,"track":"similar_to","doc_uuid":"1i4K9P0Tx6h9tb+Yro5eleLhBfU="},"url":"https://www.scribd.com/document/368545726/Analisis-Del-Grado-de-Corte"},{"type":"document","id":145966184,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/145966184/108x144/43523cdffa/1436023677?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/145966184/216x288/816038a059/1436023677?v=1","title":"Initial Tunnig","short_title":"Initial Tunnig","author":"Randy Gabriel Morales","tracking":{"object_type":"document","object_id":145966184,"track":"similar_to","doc_uuid":"mllNG1Xgoo+HQ2ihQedqu+JUnjA="},"url":"https://www.scribd.com/document/145966184/Initial-Tunnig"}],"title_link":null,"title":"Documents Similar To Programacion No Lineal","track_opts":{"compilation_id":"IHCnUQNp3SbWY6/iw+5H7myCpGE=","module_id":"IA5xV+xBgUVzyG9Nbt92pFv+m7E=","widget_name":"document_carousel"}},{"item_props":[{"type":"document","id":103166350,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/103166350/108x144/46b53b310b/1399999786?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/103166350/216x288/e51c23c822/1399999786?v=1","title":"Algebra Linea 2ed Stanley Grossma","short_title":"Algebra Linea 2ed Stanley Grossma","author":"PiliMG01","tracking":{"object_type":"document","object_id":103166350,"track":"from_user","doc_uuid":"z60Ah+f0jQZ6HxEhVL1H+oQoaWg="},"url":"https://www.scribd.com/doc/103166350/Algebra-Linea-2ed-Stanley-Grossma"},{"type":"document","id":105496417,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/105496417/108x144/61f6617188/1347294797?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/105496417/216x288/16bb095164/1347294797?v=1","title":"Algebra Lineal - Kolman","short_title":"Algebra Lineal - Kolman","author":"PiliMG01","tracking":{"object_type":"document","object_id":105496417,"track":"from_user","doc_uuid":"objbiypubjFgnxH5UDDcsc4Hg/U="},"url":"https://www.scribd.com/doc/105496417/Algebra-Lineal-Kolman"},{"type":"document","id":84817836,"thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/84817836/108x144/82b713df61/1399964745?v=1","retina_thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/84817836/216x288/133bd8baff/1399964745?v=1","title":"Algebra Lineal - Kolman","short_title":"Algebra Lineal - Kolman","author":"PiliMG01","tracking":{"object_type":"document","object_id":84817836,"track":"from_user","doc_uuid":"pWKzzQG4mfVDFHxYNwzXpcvDrTE="},"url":"https://www.scribd.com/doc/84817836/Algebra-Lineal-Kolman"},{"type":"document","id":95928019,"thumb_url":"https://imgv2-1-f.scribdassets.com/img/document/95928019/108x144/491754ff9c/1399986340?v=1","retina_thumb_url":"https://imgv2-2-f.scribdassets.com/img/document/95928019/216x288/696fd1189c/1399986340?v=1","title":"Algebra Linea 2ed Stanley Grossma","short_title":"Algebra Linea 2ed Stanley Grossma","author":"PiliMG01","tracking":{"object_type":"document","object_id":95928019,"track":"from_user","doc_uuid":"+Ar2uPdYrjkpMEDYNnO83svmtXk="},"url":"https://www.scribd.com/doc/95928019/Algebra-Linea-2ed-Stanley-Grossma"}],"title_link":null,"title":"More From PiliMG01","track_opts":{"compilation_id":"IHCnUQNp3SbWY6/iw+5H7myCpGE=","module_id":"P26M1MFsxNfr9B5amSUxLLWeoMo=","widget_name":"document_carousel"}}]},"seo_new_docs_recommenders":{"recommenders":[]}},"seo_roadblock_props_path":"/doc-page/seo-roadblock-props/106831128","signup_context":null,"toolbar":{"search_path":"/search-4gen?allowed_pages=1%2C2%2C3%2C62%2C63%2C64%2C85%2C86%2C87%2C101%2C102%2C103&auth_token=G2y2I6Tr0FiT5bzxAN9yYUfssz8%3D&authenticity_token=CYiTZf04YA2LAtkCmh5SbJKwkNhLaiwI%2Bq9%2BcCqTgKXz9vi10kciCnLahdDQXmTQI5gQeD%2B7Rnh3Wh3tvakifg%3D%3D&expires=1537974317&wordDocumentId=106831128&wordUploadId=110320016"},"renewal_nag_props":null}-->