You are on page 1of 28

5.

7 Método Símplex Revisado

−88300/ − 2 44150
−77262/0 ∞
−66225/ − 1 66225
−114790/ − 1 = 114790
−5000/0 ∞
−7500/0 ∞
−16000/ − 1 16000

De acuerdo con la prueba de la razón mínima debe salir de la base la variable x 11 .

Primera iteración de la primera fase Variables no básicas: {x1 , x11 , x3 , x10 }

Variables básicas: x4 , x5 , x6 , x7 , x8 , x9 , x2

� � � �
cTN = 0 1 0 0 cTB = 0 0 0 0 0 0 0

   
1 0 1 0 1 0 0 0 0 0 2
 2 0 1 0   0 1 0 0 0 0 0 
   
 1, 5 0 0, 5 0   0 0 1 0 0 0 1 
   
N=
 2 0 1 0 
 B=
 0 0 0 1 0 0 1 

 1 0 0 0   0 0 0 0 1 0 0 
   
 0 0 1 0   0 0 0 0 0 1 0 
0 1 0 −1 0 0 0 0 0 0 1

Calculo de la matriz Inversa B−1

 
1 0 0 0 0 0 −2
 0 1 0 0 0 0 0 
 
 0 0 1 0 0 0 −1 
 
B−1 =
 0 0 0 1 0 0 −1 

 0 0 0 0 1 0 0 
 
 0 0 0 0 0 1 0 
0 0 0 0 0 0 1

Cálculo del vector x y de la función objetivo z

    
1 0 0 0 0 0 −2 88300 50000
 0 1 0 0 0 0 0   77262   35000 
    
 0 0 1 0 0 0 −1   66225   30000 
    
x=B b=
−1
 0 0 0 1 0 0 −1   114790  = 
   52000 

 0 0 0 0 1 0 0  5000   5000 
    
 0 0 0 0 0 1 0  7500   7500 
0 0 0 0 0 0 1 16000 16000

91
Capítulo 5. Método Símplex

 
50000
 35000 
 
 30000 
� � 
z = cTB x = 0 0 0 0 0 0 0 
 52000 =0

 5000 
 
 7500 
16000

Cálculo de los costes reducidos para las variables básicas y no básicas

 
1 0 0 0 0 0 −2
 0 1 0 0 0 0 0 
 
 0 0 1 0 0 0 −1 
� � 
wT = cTB B−1 = 0 0 0 0 0 0 0 
 0 0 0 1 0 0 −1 

 0 0 0 0 1 0 0 
 
 0 0 0 0 0 1 0 
0 0 0 0 0 0 1
� �
= 0 0 0 0 0 0 0

 
1 0 1 0
 2 0 1 0 
 
 1, 5 0 0, 5 0 
� � � � 
rT = cTN − wT N = 0 1 0 0 − 0 0 0 0 0 0 0 
 2 0 1 0 

 1 0 0 0 
 
 0 0 1 0 
0 1 0 −1
� �
= 0 1 0 0

Dado que todos los valores en rT son mayores o iguales a cero, se ha llegado al óptimo,
y en consecuencia al fin de la primera fase.

Segunda Fase

Se inicia la segunda fase eliminando la variable artificial y colocando los coeficientes de


la función objetivo original.

Solución inicial de la segunda fase Variables no básicas: {x1 , x3 , x10 }

Variables básicas: {x4 , x5 , x6 , x7 , x8 , x9 , x2 }

� � � �
cTN = −5000 −6000 0 cTB = 0 0 0 0 0 0 −4500

92
5.7 Método Símplex Revisado

     
1 1 0 1 0 0 0 0 0 2 88300
 2 1 0   0 1 0 0 0 0 0   77262 
     
 1, 5 0, 5 0   0 0 1 0 0 0 1   66225 
     
N=
 2 1 0 
 B=
 0 0 0 1 0 0 1 
 b=
 114790 

 1 0 0   0 0 0 0 1 0 0   5000 
     
 0 1 0   0 0 0 0 0 1 0   7500 
0 0 −1 0 0 0 0 0 0 1 16000

Cálculo de la matriz Inversa B−1

 
1 0 0 0 0 0 −2
 0 1 0 0 0 0 0 
 
 0 0 1 0 0 0 −1 
 
B−1 =
 0 0 0 1 0 0 −1 

 0 0 0 0 1 0 0 
 
 0 0 0 0 0 1 0 
0 0 0 0 0 0 1

Cálculo del vector x y del valor de la función objetivo z


    
1 0 0 0 0 0 −2 88300 56300
 0 1 0 0 0 0 0   77262   77262 
    
 0 0 1 0 0 0 −1     
   66225   50225 
x=B b=−1
 0 0 0 1 0 0 −1   
 114790
=
  98790 

 0 0 0 0 1 0 0   5000   5000 
    
 0 0 0 0 0 1 0  7500   7500 
0 0 0 0 0 0 1 16000 16000

 
56300
 77262 
 
 50225 
� � 
z = cTB x = 0 0 0 0 0 0 −4500 
 98790  = −72000000

 5000 
 
 7500 
16000

Cálculo de los costos reducidos para las variables básicas y no básicas

93
Capítulo 5. Método Símplex

 
1 0 0 0 0 0 −2
 0 1 0 0 0 0 0 
 
 0 0 1 0 0 0 −1 
� � 
wT = cTB B−1 = 0 0 0 0 0 0 −4500 
 0 0 0 1 0 0 −1 

 0 0 0 0 1 0 0 
 
 0 0 0 0 0 1 0 
0 0 0 0 0 0 1
� �
= 0 0 0 0 0 0 −4500

rT = cTN − wT N
 
1 1 0
 2 1 0 
 
 1, 5 0, 5 0 
� � � � 
= −5000 −6000 0 − 0 0 0 0 0 0 −4500 
 2 1 0 

 1 0 0 
 
 0 1 0 
0 0 −1
� �
= −5000 −6000 −4500
Entra a la base la variable x1

 
1
 2 
 
 1, 5 
 
aq = 
 2 

 1 
 
 0 
0

Cálculo del vector dirección Bq

    
1 0 0 0 0 0 −2 1 −1
 0 1 0 0 0 0 0  2   −2 
    
 0 0 1 0 0 0 −1  1, 5   −1, 5 
    
dq = −B aq = − 
−1
 0 0 0 1 0 0 −1 
 2 =
  −2 

 0 0 0 0 1 0 0  1   −1 
    
 0 0 0 0 0 1 0  0   0 
0 0 0 0 0 0 1 0 0
Prueba de la razón mínima

94
5.7 Método Símplex Revisado

−56300/ − 1 56300
−77262/ − 2 38631
−50225/ − 1, 5 33483, 33
−98790/ − 2 = 49395
−5000/ − 1 5000
−7500/0 ∞
−16000/0 ∞

De acuerdo con la prueba de la razón mínima debe salir de la base la variable x 8 .

Primera iteración de la segunda fase Variables no básicas: {x8 , x3 , x10 }

Variables básicas: {x4 , x5 , x6 , x7 , x1 , x9 , x2 }

� � � �
cTN = 0 −6000 0 cTB = 0 0 0 0 −5000 0 −4500

     
0 1 0 1 0 0 0 1 0 2 88300
 0 1 0   0 1 0 0 2 0 0   77262 
     
 0 0, 5 0   0 0 1 0 1, 5 0 1   66225 
     
N=
 0 1 0 
 B=
 0 0 0 1 2 0 1 
 b=
 114790 

 1 0 0   0 0 0 0 1 0 0   5000 
     
 0 1 0   0 0 0 0 0 1 0   7500 
0 0 −1 0 0 0 0 0 0 1 16000

Calculo de la matriz inversa B−1

 
1 0 0 0 −1 0 −2
 0 1 0 0 −2 0 0 
 
 0 0 1 0 −1, 5 0 −1 
 
B−1 =
 0 0 0 1 −2 0 −1 

 0 0 0 0 1 0 0 
 
 0 0 0 0 0 1 0 
0 0 0 0 0 0 1

Cálculo del vector x y del valor de la función objetivo z

    
1 0 0 0 −1 0 −2 88300 51300
 0 1 0 0 −2 0 0  77262   67262 
    
 0 0 1 0 −1, 5 0 −1  66225   42725 
    
x=B b=
−1
 0 0 0 1 −2 0 −1 
 114790 =
  88790 

 0 0 0 0 1 0 0  5000   5000 
    
 0 0 0 0 0 1 0  7500   7500 
0 0 0 0 0 0 1 16000 16000
95
Capítulo 5. Método Símplex

 
51300
 67262 
 
 42725 
� � 
z = cTB x = 0 0 0 0 −5000 0 −4500 
 88790  = −97000000

 5000 
 
 7500 
16000

Cálculo de los costos reducidos para las variables básicas y no básicas

 
1 0 0 0 −1 0 −2
 0 1 0 0 −2 0 0 
 
 0 0 1 0 −1, 5 0 −1 
� � 
wT = cTB B−1 = 0 0 0 0 −5000 0 −4500 
 0 0 0 1 −2 0 −1 

 0 0 0 0 1 0 0 
 
 0 0 0 0 0 1 0 
0 0 0 0 0 0 1
� �
= 0 0 0 0 −5000 0 −4500
 
0 1 0
 0 1 0 
 
 0 0, 5 0 
� � � � 
rT = cTN − wT N = 0 −6000 0 − 0 0 0 0 −5000 0 −4500 
 0 1 0 

 1 0 0 
 
 0 1 0 
0 0 −1
� �
= 5000 −6000 −4500

Entra a la base la variable x3

 
1
 1 
 
 0, 5 
 
aq = 
 1 

 0 
 
 1 
0

Cálculo del vector dirección dq

96
5.7 Método Símplex Revisado

    
1 0 0 0 −1 0 −2 1 −1
 0 1 0 0 −2 0 0  1   −1 
    
 0 0 1 0 −1, 5 0 −1  0, 5   −0, 5 
    
dq = −B−1 aq = − 
 0 0 0 1 −2 0 −1 
 1 =
  −1 

 0 0 0 0 1 0 0  0   0 
    
 0 0 0 0 0 1 0  1   −1 
0 0 0 0 0 0 1 0 0
Prueba de la razón mínima

−51300/ − 1 51300
−67262/ − 1 67262
−42725/ − 0, 5 85450
−88790/ − 1 = 88790
−5000/0 ∞
−7500/ − 1 7500
−16000/0 ∞

De acuerdo con la prueba de la razón mínima debe salir de la base la variable x 9 .

Segunda iteración de la segunda fase Variables no básicas: {x 8 , x9 , x10 }

Variables básicas: {x4 , x5 , x6 , x7 , x1 , x3 , x2 }

� � � �
cTN = 0 0 0 cTB = 0 0 0 0 −5000 −6000 −4500

     
0 0 0 1 0 0 0 1 1 2 88300
 0 0 0   0 1 0 0 2 1 0   77262 
     
 0 0 0   0 0 1 0 1, 5 0, 5 1   66225 
     
N=
 0 0 0 
 B=
 0 0 0 1 2 1 1 
 b=
 114790 

 1 0 0   0 0 0 0 1 0 0   5000 
     
 0 1 0   0 0 0 0 0 1 0   7500 
0 0 −1 0 0 0 0 0 0 1 16000

Calculo de la matriz Inversa B−1

 
1 0 0 0 −1 −1 −2
 0 1 0 0 −2 −1 0 
 
 0 0 1 0 −1, 5 −0, 5 −1 
 
B−1 =
 0 0 0 1 −2 −1 −1 

 0 0 0 0 1 0 0 
 
 0 0 0 0 0 1 0 
0 0 0 0 0 0 1

97
Capítulo 5. Método Símplex

Cálculo del vector x y del valor de la función objetivo z.

    
1 0 0 0 −1 −1 −2 88300 43800
 0 1 0 0 −2 −1 0  77262   59762 
    
 0 0 1 0 −1, 5 −0, 5 −1  66225   38975 
    
x=B b=
−1
 0 0 0 1 −2 −1 −1 
 114790 =
  81290 

 0 0 0 0 1 0 0  5000   5000 
    
 0 0 0 0 0 1 0  7500   7500 
0 0 0 0 0 0 1 16000 16000

 
43800
 59762 
 
 38975 
� � 
z = cTB x = 0 0 0 0 −5000 −6000 −4500 
 81290  = −142000000

 5000 
 
 7500 
16000

Cálculo de los costos reducidos para las variables básicas y no básicas

 
1 0 0 0 −1 −1 −2
 0 1 0 0 −2 −1 0 
 
 0 0 1 0 −1, 5 −0, 5 −1 
� � 
wT = cTB B−1 = 0 0 0 0 −5000 −6000 −4500 
 0 0 0 1 −2 −1 −1 

 0 0 0 0 1 0 0 
 
 0 0 0 0 0 1 0 
0 0 0 0 0 0 1
� �
= 0 0 0 0 −5000 −6000 −4500

 
0 0 0
 0 0 0 
 
 0 0 0 
� � � � 
rT = cTN − wT N 0 0 0 − 0 0 0 0 −5000 −6000 −4500 
 0 0 0 

 1 0 0 
 
 0 1 0 
0 0 −1
� �
= 5000 6000 −4500

Entra a la base la variable x10

98
5.7 Método Símplex Revisado

 
0
 0 
 
 0 
 
aq = 
 0 

 0 
 
 0 
−1

Cálculo del vector dirección dq

    
1 0 0 0 −1 −1 −2 0 −2
 0 1 0 0 −2 −1 0  0   0 
    
 0 0 1 0 −1, 5 −0, 5 −1  0   −1 
    
dq = −B aq = − 
−1
 0 0 0 1 −2 −1 −1 
 0 =
  −1 

 0 0 0 0 1 0 0  0   0 
    
 0 0 0 0 0 1 0  0   0 
0 0 0 0 0 0 1 −1 1
Prueba de la razón mínima

−43800/ − 2 21900
−59762/0 ∞
−38975/ − 1 38975
−81290/ − 1 = 81290
−5000/0 ∞
−7500/0 ∞
−16000/1 −16000

De acuerdo con la prueba de la razón mínima debe salir de la base la variable x 4 .

Tercera iteración de la segunda fase Variables no básicas: {x8 , x9 , x4 }

Variables básicas: {x1 0, x5 , x6 , x7 , x1 , x3 , x2 }

 
0 0 1
 0 0 0 
 
 0 0 0 
� � � �  
cTN = 0 0 0 cTB = 0 0 0 0 −5000 −6000 −4500 N=
 0 0 0 

 1 0 0 
 
 0 1 0 
0 0 0

99
Capítulo 5. Método Símplex

 
0 0 0 0 1 1 2
 0 1 0 0 2 1 0 
 
 0 0 1 0 1, 5 0, 5 1 
 
B=
 0 0 0 1 2 1 1 

 0 0 0 0 1 0 0 
 
 0 0 0 0 0 1 0 
−1 0 0 0 0 0 1
 
88300
 77262 
 
 66225 
 
b=
 114790 
 5000 
 
 7500 
16000

Cálculo de la matriz Inversa B−1

 
0, 5 0 0 0 −0, 5 −0, 5 −1
 0 1 0 0 −2 −1 0 
 
 −0, 5 0 1 0 −1 0 0 
 
B−1 =
 −0, 5 0 0 1 −1, 5 −0, 5 0 

 0 0 0 0 1 0 0 
 
 0 0 0 0 0 1 0 
0, 5 0 0 0 −0, 5 −0, 5 0

Cálculo del vector x y del valor de la función objetivo z

    
0, 5 0 0 0 −0, 5 −0, 5 −1 88300 21900
 0 1 0 0 −2 −1 0  77262   59762 
    
 −0, 5 0 1 0 −1 0 0  66225   17075 
    
x = B−1 b = 
 −0, 5 0 0 1 −1, 5 −0, 5 0 
 114790 =
  59390 

 0 0 0 0 1 0 0  5000   5000 
    
 0 0 0 0 0 1 0  7500   7500 
0, 5 0 0 0 −0, 5 −0, 5 0 16000 37900

 
21900
 59762 
 
 17075 
� � 
z = cTB x = 0 0 0 0 −5000 −6000 −4500 
 59390  = −240550000

 5000 
 
 7500 
37900

Cálculo de los costos reducidos para las variables básicas y no básicas


100
5.7 Método Símplex Revisado

wT = cTB B−1
 
0, 5 0 0 0 −0, 5 −0, 5 −1
 0 1 0 0 −2 −1 0 
 
 
� �  −0, 5 0 1 0 −1 0 0 
= 0 0 0 0 −5000 −6000 −4500   −0, 5 0 0 1 −1, 5 −0, 5 0 

 0 0 0 0 1 0 0 
 
 0 0 0 0 0 1 0 
0, 5 0 0 0 −0, 5 −0, 5 0
� �
= −2250 0 0 0 −2750 −3750 0
 
0 0 1
 0 0 0 
 
 0 0 0 
� � � � 
rT = cTN − wT N = 0 0 0 − −2250 0 0 0 −2750 −3750 0 
 0 0 0 

 1 0 0 
 
 0 1 0 
0 0 0
� �
= 2750 3750 2250

Interpretación de los resultados

Una vez se ha alcanzado la solución óptima, los resultados para las variables básicas son:

x1 = 5000 barriles de cerveza negra a producir.

x2 = 37900 barriles de cerveza rubia a producir.

x3 = 7500 barriles de cerveza ligera a producir.

x5 = 59762 libras sobrantes de maíz.

x6 = 17075 libras sobrantes de lúpulo.

x7 = 59390 libras sobrantes de malta.

x10 = 21900 barriles de cerveza rubia que se producen por encima del mínimo estableci-
do.

Las variables se han ordenado para facilitar su presentación.

Por su parte las variables no básicas x4 , x8 , x9 tienen un valor igual a cero. Eso significa
que no hubo sobrantes de arroz, y que se produjo el máximo de cerveza negra y cerveza
ligera permitidos.

El valor de la función objetivo indica que con la mezcla de producción propuesta se


obtiene el ingreso máximo igual a $ 240550000.
101
Capítulo 5. Método Símplex

Por otra parte, los costos reducidos de las variables no básicas x 4 , x8 y x9 son de 2250,
2750 y 3750, respectivamente. Estos costes reducidos representan los valores en que des-
mejoraría la función objetivo por cada unidad que incremente el valor de las variables
correspondientes.

Los valores marginales para las diferentes restricciones pueden observarse en el vector
wT .

5.8 Ejercicios Propuestos


A continuación se propone una serie de ejercicios con los cuales se espera que el estudiante
refuerce los conceptos tratados a lo largo del capítulo. Los problemas deben resolverse
empleando el método símplex revisado.

1. Resuelva el problema de programación lineal 5.30, indicando el valor óptimo, los


valores de las variables de decisión para la solución óptima (si existe), el tipo de
espacio solución y el tipo de solución.

Minimizar z =6x1 + 4x2


Sujeto a:
6x1 + x2 ≥ 12
x1 − 4x2 ≥ 4 (5.30)
x 1 + x2 ≥ 5
6x1 + 7x2 ≤ 42
x 1 , x2 ≥ 0

2. Resuelva el problema de programación lineal 5.31, indicando el valor óptimo, los


valores de las variables de decisión para la solución óptima (si existe), el tipo de
espacio solución y el tipo de solución.

Minimizar z =7x1 + 8x2


Sujeto a:
5x1 + 9x2 ≤ 90
3x1 + 4x2 ≤ 36 (5.31)
x 1 + x2 ≥ 4
2x1 + 3x2 ≥ 6
x 1 , x2 ≥ 0

3. Resuelva el problema de programación lineal 5.32, indicando el valor óptimo, los


valores de las variables de decisión para la solución óptima (si existe), el tipo de

102
5.8 Ejercicios Propuestos

espacio solución y el tipo de solución.


Minimizar z =1200x1 + 1350x2
Sujeto a:
60x1 + 40x2 ≥ 1200
− x1 + 4x2 ≤ 4 (5.32)
5x1 + 3x2 ≥ 15
5x1 + 3x2 ≤ 1500
x 1 , x2 ≥ 0

4. Resuelva el problema de programación lineal 5.33, indicando el valor óptimo, los


valores de las variables de decisión para la solución óptima (si existe), el tipo de
espacio solución y el tipo de solución.
Maximizar z =14x1 + 16x2
Sujeto a:
2x1 + 4x2 ≤ 32
7x1 + 3x2 ≤ 42 (5.33)
9x1 + 7x2 ≤ 63
x1 ≥ 15
x 1 , x2 ≥ 0

5. Resuelva el problema de programación lineal 5.34, indicando el valor óptimo, los


valores de las variables de decisión para la solución óptima (si existe), el tipo de
espacio solución y el tipo de solución.
Maximizar z = − 3x1 − 3x2
Sujeto a:
6x1 + x2 ≥ 12
(5.34)
x1 − 4x2 ≤ 0
x 1 + x2 ≥ 5
x 1 , x2 ≥ 0

6. Resuelva el problema de programación lineal presentado en el ejemplo 1 del capítulo


anterior (subsección 4.2.4), determine el valor óptimo, los valores de las variables
de decisión para la solución óptima (si existe), el tipo de espacio solución y el
tipo de solución. Analice y concluye respecto del tipo de problema y los resultados
hallados por el método símplex revisado.

7. Resuelva el problema de programación lineal presentado en el ejemplo 2 del capítulo


anterior (ecuación 4.2.4), determine el valor óptimo, los valores de las variables de
decisión para la solución óptima (si existe), el tipo de espacio solución y el tipo de
solución. Analice y concluye respecto del tipo de problema y los resultados hallados
por el método símplex revisado.
103
Capítulo 5. Método Símplex

8. Resuelva el problema de programación lineal presentado en el ejemplo 3 del capítulo


anterior (ecuación 4.2.4), determine el valor óptimo, los valores de las variables de
decisión para la solución óptima (si existe), el tipo de espacio solución y el tipo de
solución. Analice y concluye respecto del tipo de problema y los resultados hallados
por el método símplex revisado.

9. Resuelva el problema de programación lineal presentado en el ejemplo 4 del capítulo


anterior (ecuación 4.2.4), determine el valor óptimo, los valores de las variables de
decisión para la solución óptima (si existe), el tipo de espacio solución y el tipo de
solución. Analice y concluye respecto del tipo de problema y los resultados hallados
por el método símplex revisado.

10. Resuelva el problema de programación lineal presentado en el ejemplo 5 del capítulo


anterior (ecuación 4.2.4), determine el valor óptimo, los valores de las variables de
decisión para la solución óptima (si existe), el tipo de espacio solución y el tipo de
solución. Analice y concluye respecto del tipo de problema y los resultados hallados
por el método símplex revisado.

11. Resuelva el problema de programación lineal presentado en el ejemplo 6 del capítulo


anterior (ecuación 4.2.4), determine el valor óptimo, los valores de las variables de
decisión para la solución óptima (si existe), el tipo de espacio solución y el tipo de
solución. Analice y concluye respecto del tipo de problema y los resultados hallados
por el método símplex revisado.

12. Resuelva el problema de programación lineal 5.35, indicando el valor óptimo, los
valores de las variables de decisión para la solución óptima (si existe), el tipo de
espacio solución y el tipo de solución.
Minimizar z =6x1 + 4x2 + 4x3 + 5x4
Sujeto a:
6x1 + x2 + 4x3 + 5x4 ≥ 120
x1 − 4x2 − 2x3 + x4 ≥ 40 (5.35)
x1 + x2 + 5x3 − 3x4 ≥ 54
6x1 + 7x2 + 6x3 + x4 ≤ 420
x 1 , x2 , x3 , x4 ≥ 0

13. Resuelva el problema de programación lineal 5.36, indicando el valor óptimo, los
valores de las variables de decisión para la solución óptima (si existe), el tipo de
espacio solución y el tipo de solución.
Minimizar z =7x1 + 8x2 + 5x3 + 6x4 + 7x5
Sujeto a:
5x1 + 9x2 + 5x3 + 6x4 + 3x5 ≤ 180
3x1 + 4x2 + 2x3 + 5x4 + 4x5 ≤ 360 (5.36)
x1 + x2 + 4x3 − x4 − x5 ≥ 45
2x1 + 3x2 + x3 + 3x4 + 7x5 ≥ 65
x 1 , x2 , x3 , x4 , x 5 ≥ 0
104
5.8 Ejercicios Propuestos

14. Resuelva el problema de programación lineal 5.37, indicando el valor óptimo, los
valores de las variables de decisión para la solución óptima (si existe), el tipo de
espacio solución y el tipo de solución.

Minimizar z =1200x1 + 1350x2 + 2x3 + x4 + 8x5


Sujeto a:
60x1 + 40x2 + 5x3 + 3x4 + 7x5 ≥ 1400
− x1 + 4x2 + 2x3 − x4 + 4x5 ≤ 480 (5.37)
5x1 + 3x2 + 2x3 + 7x4 + 2x5 ≥ 720
5x1 + 3x2 + 4x3 + 2x5 ≤ 15000
x 1 , x2 , x3 , x4 , x 5 ≥ 0

15. Resuelva el problema de programación lineal 5.38, indicando el valor óptimo, los
valores de las variables de decisión para la solución óptima (si existe), el tipo de
espacio solución y el tipo de solución.

Maximizar z =14x1 + 16x2 + 5x3 + 6x4 + 7x5


Sujeto a:
2x1 + 4x2 + 5x3 + 6x4 + 7x5 ≤ 320
7x1 + 3x2 + 8x4 + x5 ≤ 640 (5.38)
9x1 + 7x2 − 3x3 + 6x4 − x5 ≤ 1200
x1 + 5x3 + 6x4 + 7x5 ≥ 18
x 1 , x2 ≥ 0

16. Resuelva el problema de programación lineal 5.39, indicando el valor óptimo, los
valores de las variables de decisión para la solución óptima (si existe), el tipo de
espacio solución y el tipo de solución.

Maximizar z = − 3x1 − 3x2 + 2x3 + 5x4 + 6x5


Sujeto a:
6x1 + x2 + 5x3 − 7x4 − 7x5 ≥ 120
(5.39)
x1 − 4x2 + 6x4 + 3x5 ≤ 50
x1 + x2 − 3x3 + 6x4 + 7x5 ≥ 50
x1 , x2 ≥ 0

17. Resuelva el problema de programación lineal correspondiente al ejemplo de dietas


del capítulo ??, indicando el valor óptimo, los valores de las variables de decisión
para la solución óptima (si existe), el tipo de espacio solución y el tipo de solución.

18. Resuelva el problema de programación lineal correspondiente al ejemplo de inte-


gración del capítulo ??, indicando el valor óptimo, los valores de las variables de
decisión para la solución óptima (si existe), el tipo de espacio solución y el tipo de
solución.
105
Capítulo 6

Dualidad y Análisis de Sensibilidad

En este capítulo se presenta el concepto de dualidad, muy importante en


programación lineal. Cada problema de programación lineal (conocido como
problema primal), definido por la matriz A, el vector b y el vector c; tiene
asociado un problema de programación lineal conocido como el problema
dual, que está basado en el mismo conjunto de datos. Los problemas primal
y dual están estrechamente relacionados, y su estudio permite comprender
aspectos importantes en la solución de problemas de programación lineal.
Primero se presenta el problema dual para un problema de programación
lineal en la forma estándar, seguidamente se estudian las relaciones entre el
problema primal y el problema dual, se presentan los teoremas de dualidad
débil y dualidad fuerte, así como una interpretación económica del problema
dual. Esos conceptos dan lugar a dos algoritmos importantes, conocidos como
algoritmo dual símplex y algoritmo primal dual, para resolver problemas de
programación lineal.
Finalmente, bajo el título análisis de sensibilidad se presenta la forma en
que varía la solución de un programa lineal ante diferentes cambios posibles.
El presente documento ha sido basado en el texto de Fang.

6.1 Problema lineal dual


Sea el problema de programación lineal en la forma estándar, que se presenta en la
ecuación 6.1, con c y x vectores de dimensión n, A una matriz de m × n y b un vector
columna de dimensión m. Si se asume que x es una solución básica factible no degenerada,
se tiene una matriz básica B y una matriz no básica N, se tienen también los conjuntos

107
Capítulo 6. Dualidad y Análisis de Sensibilidad

� yN
B � correspondientes a las variables básicas y no básicas (los índices de ellas).

Minimizar z =cT x
sujeto a: Ax = b (6.1)
x≥0

Se sabe que x es óptimo si el vector rT ≥ 0, en otras palabras para cada término rq ∈ rT ,


� Equivalentemente rT = cTN − cTB B−1 N ≥ 0
lo que significa que rq ≥ 0, para cada q ∈ N.
implica que cN ≥ cB B N, lo cual puede interpretarse como cTB B−1 Aq ≤ cq para cada
T T −1

� Asimismo, de la expresión wT = cTB B−1 puede deducirse que cTB = wT B, para


q ∈ N.
cada término cp = cTB B−1 Ap , en donde p ∈ B.� Por lo tanto se tiene:

w T Aq ≤ cq , �
∀q ∈ N
(6.2)
w T Ap = cp , �
∀p ∈ B

Por lo tanto, de la ecuación 6.2 se tiene w T [B|N] ≤ cT o de forma equivalente AT w ≤ c.

Además, se sabe que en la solución óptima xN = 0, por lo cual:

bT w = w T b
= cTB B−1 b
(6.3)
= cTB xB
= cT x

En general, para Ax = b y x ≥ 0:

bT w = wT b = wT Ax ≤ cT x (6.4)

En consecuencia puede definirse a partir de las variables w un problema de programación


lineal asociado:

Maximizar z =bT w
sujeto a: AT w = c (6.5)
w no restringido

El problema dual que se presenta en la ecuación 6.5 es un problema de maximización


con m variables no restringidas en signo y n restricciones de desigualdad. El papel de las
variables y restricciones tiene significado “inverso” al del primal. Primal y dual forman un
par primal-dual. Un vector w de variables duales es una solución del dual si se satisfacen
las restricciones.

108
6.2 Teoría de dualidad

6.1.1 Ejemplo
Es posible convertir un problema de programación lineal y luego derivar su problema
dual.

6.2 Teoría de dualidad

Tanto el problema dual como el primal son definidos por los mismos datos (Matriz A, y
vectores b y c). Ahora se analizan las relaciones fundamentales en el par primal-dual.

En primer lugar, en un par primal-dual, al seleccionar cualquiera de los dos como el


primal, el otro es su dual.

Lema: Dado un problema de programación lineal primal, el problema dual del dual del
problema es el primal. De modo más sencillo: el dual del dual es el primal.

Teorema débil de dualidad: Si x0 es una solución primal factible y w 0 es dual facti-


ble, entonces cT x0 ≥ bT w0 .

La factibilidad dual de w0 implica que c ≥ AT w0 . Para x0 primal factible, se sabe


que x0 ≥ 0 y, por lo tanto, x0T c ≥ x0T AT w0 . Además, Ax0 = b, de donde puede
verse que: cT x0 = x0T c ≥ x0T AT w0 = bT w0 .

Corolario 1: Si x0 es primal factible, w0 es dual factible, y cT x0 = bT w0 , en-


tonces x0 y w0 son las soluciones óptimas de los respectivos problemas.

Corolario 2: Si el problema primal es no acotado, entonces el problema dual no


es factible.

Corolario 3: Si el problema dual es no acotado, entonces el problema primal no


es factible.

Es necesario precisar que los corolarios 2 y 3, no aplican en sentido contrario, es


decir, cuando el problema primal no es factible el dual puede ser no acotado o no
factible. Sin embargo, si el primal es no factible y el dual es factible, el dual debe
ser no acotado.

Teorema fuerte de dualidad: Si tanto el problema primal como el dual tienen una
solución óptima finita, entonces primal y dual alcanzan el mismo valor de la función
objetivo. Asimismo, si cualquiera de los problemas (primal o dual) tiene un valor
objetivo no acotado, entonces el otro no tiene solución factible.

109
Capítulo 6. Dualidad y Análisis de Sensibilidad

Si se alcanza una solución óptima en x tras aplicar el método símplex revisado,


puesto que wT = cTB B−1 , se tiene que:
� � � T �
cB B
c − AT w = − w
cN NT
� �
cB − BT (BT )−1 cB
= T T −1
cN − N (B ) cB (6.6)
� �
0
=
rN
=r≥0

como w es una solución dual factible, además x es una solución básica factible:

cT x = cTB xB
= cTB B−1 b
(6.7)
= wT b
= bT w

Por lo expresado en el corolario 1 de la dualidad débil, se sabe que w es una solución


básica factible.

El teorema de la dualidad fuerte implica que:

1. No hay brecha dual entre los problemas primal y dual, lo cual no es general-
mente cierto en problemas no lineales.

2. Los multiplicadores símplex o lagrangianos, corresponden al vector w de va-


riables duales.

3. En cada iteración del método símplex revisado se cumple que: cT x = bT w.


Sin embargo, sólo cuando todos los términos que constituyen el vector r son
mayores o iguales a cero, el vector w es dual factible. En consecuencia, el
método símplex revisado mantiene factibilidad primal y holgura dual cero y
busca factibilidad dual.

Como se precisó, los multiplicadores símplex w ∗ correspondientes a la solución


óptima primal x∗ constituyen la solución óptima dual.

Una de las aplicaciones del Teorema de la dualidad está en establecer soluciones a


sistemas de igualdades y desigualdades. Al respecto puede verse el Lema de Farkas.

Lema de Farkas: El sistema Ax = b, x ≥ 0, tiene solución x en Rn si, y sólo si el


sistema AT w ≤ 0, bT w > 0 no tiene solución w en Rm .

110
6.3 Holgura complementaria y condición de óptimo

6.3 Holgura complementaria y condición de óptimo


Teniendo en cuenta el problema de programación lineal que se presenta en la ecuación 6.8,
y su dual en la ecuación 6.11(par simétrico primal-dual), la construcción del problema
dual se muestra secuencialmente en las ecuaciones 6.9 y 6.10.

Minimizar z =cT x
sujeto a: Ax ≥ b (6.8)
x≥0

Dado que las restricciones son de mayor o igual, se deben incluir variables de superavit
s para cada restricción, las cuales conforman la matriz identidad I.

Minimizar z =cT x + 0T s
sujeto a: Ax − Is = b (6.9)
x≥0

Una vez en la forma estándar y tras construir el dual como se presentó en la sección 6.1,
se obtiene:
Maximizar z =bT w
� T � � �
A c (6.10)
sujeto a: w≤
−I 0

Finalmente se observa que dado que el hecho de que todas las restricciones sean de mayor
o igual implica que w ≥ 0.

Maximizar z =bT w
sujeto a: AT w ≤ c (6.11)
w≥0

Para el problema primal se define el vector s = Ax − b ≥ 0 de holgura primal, y para el


problema dual se define el vector r = c − AT w ≥ 0 de holgura dual.

El vector s tiene dimensión m y el vector r dimensión n. Además, para cualquier solución


factible primal x y solución dual w, de la suma de las holguras que se muestra en la
ecuación 6.12 se sabe que:

rT x + sT w = (cT − wT A)x + wT (Ax − b) ≥ 0


= cT x − wT Ax + wT Ax − wT b ≥ 0
(6.12)
= cT x − w T b
= c T x − bT w ≥ 0

Por lo tanto, la cantidad rT x + sT w (suma de las holguras) es igual a la brecha entre la


solución primal factible x y la solución dual factible w. La brecha desaparece solamente
si:
rT x = 0, sT w = 0. (6.13)
111
Capítulo 6. Dualidad y Análisis de Sensibilidad

En cuyo caso x se constituye en una solución primal óptima y w en una solución dual
óptima. En vista de que los vectores x, w, r y s son no negativos, se requiere que en
la ecuación anterior rj = 0 o xj = 0 para j = 1, . . . , n y que si = 0 o wi = 0 para
i = 1, . . . , m, en lo que se conoce como condiciones de holgura complementaria.

Teorema de holgura complementaria: Sean x y w una solución primal factible y


una solución dual factible para un par simétrico de problemas de programación
lineal. Entonces x y w se constituyen en un par solución óptima si y solo si se
cumplen las siguientes condiciones de holgura complementaria:

rj = (c − AT w)j = 0 o xj = 0 ∀j = 1, 2, . . . , n

si = (Ax − b)i = 0 o wi = 0 ∀i = 1, 2, . . . , m

Para el par primal-dual en la forma estándar que se presenta en las ecuaciones


6.14 y 6.15, el primal tiene siempre holgura cero. Lo que implica que siempre se
cumpla wT s = 0 y, en consecuencia las condiciones de holgura complementaria se
reduzcan a: rT x = 0.
Minimizar z =cT x
sujeto a: Ax = b (6.14)
x≥0

Maximizar z =bT w
(6.15)
sujeto a: AT w ≤ c

Teorema de condiciones de optimalidad K-K-T para programación lineal: Dado


un problema de programación lineal en su forma estándar, como el que se observa
en la ecuación 6.14, el vector x es una solución óptima al problema, si y sólo si,
existen los vectores w y r tales que:

1. factibilidad primal: Ax = b, x ≥ 0

2. factibilidad dual: AT w + r = c, r ≥ 0

3. holgura complementaria: rT x = 0

En este caso w es una solución óptima al problema dual.

6.4 Interpretación económica del problema dual


La fuerte relación existente entre el problema primal y el problema dual permite realizar
una interpretación en la cual las variables duales tienen un significado económico.

112
6.4 Interpretación económica del problema dual

6.4.1 Variables duales y precios sombra


Un problema de programación lineal primal en el cual las variables de decisión se relacio-
nan con la cantidad de productos o servicios para satisfacer demandas de los consumidores
(vector b) a un mínimo costo.

Teniendo en cuenta que en la solución óptima del problema primal en la forma estándar:

x∗ = B−1 b, y z ∗ = cTB x∗ = cTB B−1 b, además w∗ = cTB B−1

Si se incrementa la demanda en Δb, entonces la solución óptima al nuevo problema será


la que se presenta en las ecuaciones 6.16 y 6.17:

�∗
x = B−1 (b + Δb) (6.16)
z� = �∗
cTB x
= cB B−1 b
T
+ cTB B−1 Δb (6.17)

En consecuencia:
z� − z = cTB B−1 b + cTB B−1 Δb − cTB B−1 b = cTB B−1 Δb
(6.18)
= wT Δb

La diferencia en el valor de la función objetivo entre la nueva respuesta óptima y la


anterior depende del vector w T , por lo cual wi∗ es el costo marginal de proveer una
unidad de la i-ésima demanda en el óptimo. Esto es, indica el mínimo precio unitario que
se debe cargar al consumidor para satisfacer demanda adicional cuando se alcanza un
óptimo. Por lo anterior, las variables duales son conocidas como los precios marginales,
los precios sombra o los precios de equilibrio.

6.4.2 Interpretación del problema dual


Sean un problema de programación lineal, y su dual los presentados en la ecuación 6.19
y en la ecuación 6.20. Teniendo en cuenta que el problema primal es un problema de
manufactura en el cual un fabricante elabora n productos diferentes a partir de m re-
cursos. La elaboración de un producto j requiere ai,j unidades de recurso i y el precio
de un producto j en el mercado es de cj . Al resolver el problema primal ecuación 6.19,
se obtiene un plan de producción óptima que maximiza los ingresos obtenidos por las
ventas sobre una base de recursos disponibles.

Maximizar z =cT x
sujeto a: Ax ≤ b (6.19)
x≥0

Por su parte, en el escenario dual representado por el problema mostrado en ecuación 6.20
puede verse como el productor obtiene provecho de los recursos. de un proveedor. El
productor busca negociar el precio unitario de compra, para un recurso i con el respectivo
113
Capítulo 6. Dualidad y Análisis de Sensibilidad

proveedor. Visto de este modo el objetivo del productor es minimizar el precio total de
compra bT w para obtener los recursos i en la cantidad requerida bi . Como el precio del
producto en el mercado cj y el consumo ai,j son información que se conoce en el mercado
por lo que el productor sabe que un proveedor listo buscará obtener de él, todo lo posible.
De esta forma, el programa lineal dual permite al productor adquirir los recursos bajo un
plan de mínimo costo en el cual los precios de compra son aceptables para el proveedor.

Minimizar z =bT w
(6.20)
sujeto a: AT w ≤ c

Asumiendo que el productor, cuenta con bi unidades de recurso i, entonces:

1. El i-ésimo componente del vector óptimo dual wi∗ representa el precio marginal
máximo que el productor está dispuesto a pagar para obtener una unidad adicional
de recurso i del proveedor;

2. Cuando el recurso i no es totalmente utilizado la condición de holgura complemen-


taria implica que wi∗ = 0, lo que implica que el productor no está dispuesto a pagar
por una unidad adicional del recurso i;

3. Cuando el productor no puede obtener un precio razonable (A Tj w∗ > cj ), la con-


dición de holgura complementaria implica que no produzca el producto j.

6.5 Análisis de Sensibilidad


Una vez se ha presentado la forma en que se resuelve un problema de programación
lineal, empleando el método símplex revisado, es pertinente presentar la forma en que
los cambios en los parámetros afectan la solución (una vez se ha llegado al óptimo).

Con el fin de precisar el impacto que tiene el cambio de los parámetros en el problema,


se procede a estudiar en primera instancia aquellos cambios que afectan la condición de
factible. Es decir, aquellos cambios que tienen impacto sobre el espacio solución y que
al ser realizados pueden hacer que la solución con la base actual (óptima) deje de ser
factible.

6.5.1 Cambios que afectan la Factibilidad


La condición de factible de un problema de programación lineal está determinada por el
espacio solución, espacio poliédrico o politopo en el cual se pueden satisfacer todas las res-
tricciones. Tal condición de factible puede cambiar como consecuencia de la modificación
de los parámetros en el lado derecho o de la inclusión de restricciones adicionales.

114
6.5 Análisis de Sensibilidad

Cambios en el vector del lado derecho de las restricciones

Como se observó con el método gráfico, el cambiar el parámetro ubicado al lado derecho
de una restricción implica un desplazamiento de la frontera de dicha restricción hacia
arriba o hacia abajo, y tal cambio podrá en un momento determinado ampliar, mantener,
reducir, o eliminar el espacio solución.

Para analizar el impacto de este tipo de cambios se procede a evaluar las relaciones en las
cuales estos cambios tienen lugar, y las que resultan afectadas indirectamente por estos.

Claramente puede observarse que un cambio en el vector b representado por el nuevo


vector b̂, necesariamente tiene efectos en el vector x (ecuación 6.21) que a su vez modifican
el valor de la función objetivo, como se ve en ecuación 6.22.

x = B−1 b (6.21)
z = cTB x (6.22)

Analizando la primera relación, y teniendo en cuenta que una solución primal es factible
cuando no presenta variables artificiales en la base (con valor mayor que cero) y no pre-
senta valores menores a cero en el vector x. Además, se sabe que las variables artificiales
se eliminaron al resolver el problema en la primera fase del método símplex revisado.

Una vez se ha alcanzado la solución óptima, de un problema de programación lineal, es


posible determinar el impacto que tiene el cambio de uno o más elementos del vector b
en la factibilidad a partir de la última iteración de la solución actual.

Cuando al realizar un cambio en el vector del lado derecho de las restricciones se obtiene
x ≥ 0, todas las variables en el vector x poseen un valor mayor o igual que cero, puede
decirse que la nueva solución sigue siendo óptima, a pesar del cambio; en tal caso la
solución al problema estará dada por los valores de x̂ y ẑ resultado de reemplazar b por
b̂ en x, como se observa en las ecuaciones 6.23 y 6.24.

x̂ = B−1 b̂ (6.23)
ẑ = cTB x̂ (6.24)

Por otra parte, si se presenta por lo menos un valor menor que cero en algún componente
de x̂ se tiene una solución no factible en el primal, lo que significa que con la base
actual la nueva solución x̂ viola una o más restricciones. En este caso debe emplearse el
método dual símplex para buscar factibilidad en el primal, pues la condición de óptimo
se mantiene dado que b̂ no tiene ningún impacto en rT .

115
Capítulo 6. Dualidad y Análisis de Sensibilidad

Determinación de los límites de b que garantizan una solución factible

Atendiendo a las observaciones que se han presentado sobre factibilidad, es posible de-
terminar el valor de los límites entre los cuales se puede variar el recurso asociado a cada
restricción, para que la solución (correspondiente a la misma base) se mantenga como
óptima.

Para determinar el valor de los límites entre los cuales puede oscilar el lado derecho
de cada una de las restricciones, es preciso someter el vector del lado derecho de las
restricciones a un cambio consistente en la adición de una variable que indica el cambio
en cada uno de sus términos. Así el nuevo valor del vector x, denotado como x̂, será el
resultado de:
x̂ = B−1 (b + Δb) (6.25)
Que puede reescribirse como:

x̂ = B−1 b + B−1 Δb
(6.26)
= x + B−1 Δb

Para garantizar la condición de factible x ≥ 0 se hace:

x̂ = x + B−1 Δb ≥ 0 (6.27)

El paso siguiente es determinar los valores del vector Δb que mantienen tal condición. En
este caso los cambios se suponen independientes y se hacen asumiendo que sólo cambia
un valor del vector b a la vez.

Finalmente, se calculan los límites para cada uno de los recursos determinando los valores
mínimo y máximo de recurso (valor en el lado derecho) que garantizan que la solución
con las variables básicas actuales siga siendo factible y óptima, dado que el vector r T se
mantiene igual.

Inserción de una nueva restricción

Otro cambio que puede afectar la condición de factible de un problema de programación


lineal, que ha sido resuelto y del cual se conoce el óptimo, consiste en incorporar una nueva
restricción. Generalmente, este cambio tiene lugar cuando una vez resuelto el problema,
se observa que hubo aspectos relevantes que no fueron tenidos en cuenta y que pueden
afectar el espacio solución y en consecuencia la condición de factible; también, es frecuente
que durante la operación del sistema, y dado su dinamismo, surjan nuevas situaciones
que se constituyen en nuevas restricciones a un modelo que se está utilizando para la
toma de decisiones.

Para incluir una nueva restricción, debe seguirse el procedimiento que se ilustra a conti-
nuación:

1. Escribir la nueva restricción de modo que corresponda a la forma estándar.

2. Expresar la nueva restricción en términos de las variables no básicas.


116
6.5 Análisis de Sensibilidad

3. Modificar las matrices y vectores correspondientes, incorporando a los elementos


de la solución óptima los vectores: 0 que contiene los coeficientes de las nuevas
variables básicas (de holgura de la nueva restricción) en la función objetivo ; β que
contiene los lados derechos de las nuevas restricciones; y la Matriz Θ que contiene
los coeficientes de las variables no básicas de las nuevas restricciones de la forma
que se presenta a continuación (todos estos coeficientes una vez se han expresado
en términos de las variables no básicas como se indicó en los pasos anteriores):
� �
ĉTB = cTB 0
� �
b
b̂ =
β
� �
B 0 (6.28)
B̂ =
0 I
� �
N
N̂ =
Θ

En consecuencia la matriz inversa se convierte en:


� −1 �
B 0
B̂−1 = (6.29)
0 I

Por lo tanto, si se tienen en cuenta las relaciones propias del símplex revisado se
tiene:
� �
x
x̂ =B̂−1 b̂ =
β
� �
� � x
ẑ =ĉTB x̂ = cTB 0 =z
β (6.30)
� �
ŵT =ĉTB B̂−1 = wT 0
� �
� � N
r̂T =cTN − wT 0 = cTN − wT N = rT
Θ

Remoción de una restricción

Puede suceder que de acuerdo con el comportamiento del sistema para el cual se toman
las decisiones, una o más restricciones resulten innecesarios después de haberse obtenido
la solución óptima. En este caso la solución es mucho más complicada.

Si se desea remover la restricción aTk x ≤ bk y esta no está activa por ejemplo aTk x < bk ,
entonces puede removerse sin afectar la condición de óptimo de la respuesta actual. Para
verfificar si la restricción está activa simplemente se debe mirar en la variable dual w k .
Si wk = 0, entonces las condiciones de holgura complementaria permiten constatar que
la restricción no está activa.

Si, por el contrario, la restricción está activa es muy difícil hacer el cambio, resulta más
conveniente resolver el nuevo problema de programación lineal desde el comienzo.

117
Capítulo 6. Dualidad y Análisis de Sensibilidad

6.5.2 Cambios que afectan la condición de óptimo


Los problemas de programación lineal pueden perder su condición de óptimo, aunque
permanezcan factibles si se presentan cambios en los coeficientes de la función objetivo,
c TB y −
esto es en los vectores −
→ →
c TN , los cuales pueden darse cuando el comportamiento del
mercado hace que los precios, o utilidades, etc. varíen.

Cambios en los coeficientes de la función objetivo

Dada la estructura de cálculos que se realizan para resolver un problema de Programación


Lineal empleando el método simplex revisado, al variar los coeficientes de la función
objetivo (vectores cTB y cTN ) sólo se ven afectadas las relaciones que se expresan en las
ecuaciones 6.31.
z = cTB x
wT = cTB B−1 (6.31)
T
r = cTN T
−w N

La última de las ecuaciones 6.31 correspondiente a rT puede reescribirse como se observa


en ecuación 6.32:
rT = cTN − cTB B−1 N (6.32)
Puesto que en el vector de los costos reducidos de las variables no básicas se observa la
condición de óptimo, y éste es directamente afectado por los cambios en los coeficientes
de la función objetivo, ante ciertos cambios en tales coeficientes la respuesta puede dejar
de ser óptima. Una vez se han hecho modificaciones en los coeficientes de la función
objetivo (correspondientes tanto a las variables básicas como a las no básicas) es fácil
recalcular dicho vector, como se observa en la ecuación 6.33:

r̂T = ĉTN − ĉTB B−1 N (6.33)

Si realizados los cambios r̂T ≥ 0, ∀r ∈ r̂T , la solución actual sigue siendo óptima, y basta
con actualizar el valor de la función objetivo ẑ. En caso de no cumplirse la condición de
óptimo, es preciso realizar iteraciones adicionales teniendo en cuenta la lógica del método
símplex revisado.

Determinación de los límites de los coeficientes de la función objetivo


que garantizan una solución óptima

Un tratamiento similar al que se dio al vector del lado derecho de las restricciones puede
darse a los coeficientes de la función objetivo para determinar cuáles son los valores
extremos a los que pueden llevarse estos conservando la solución con la base actual en
calidad de óptima. Para hacerlo se hace un análisis que parte de la relación que se acaba
de presentar.

El reemplazo los vectores cTB y cTN , por cˆTB = cTB + ΔcTB y cˆTN = cTN + ΔcTN , respecti-
vamente, como se muestra en la ecuación 6.34 proporciona un nuevo vector de costos de
118

You might also like