departamento de ingeniería matemática facultad de ciencas físicas y matemáticas UNIVERSIDAD DE CHILE

Análisis Convexo y Dualidad
f (x) + f ∗(x∗) = x∗, x ⇔ x∗ ∈ ∂f (x)

Apuntes para el curso del programa de Doctorado en Ciencias de la Ingeniería, mención Modelación Matemática

Felipe Álvarez con la colaboración de Juan Escobar y Juan Peypouquet Septiembre 2005

2

Se concede permiso para imprimir o almacenar una única copia de este documento. Salvo por las excepciones más abajo señaladas, este permiso no autoriza fotocopiar o reproducir copias para otro uso que no sea el personal, o distribuir o dar acceso a versiones electrónicas de este documento sin permiso previo por escrito del Director del Departamento de Ingeniería Matemática (DIM) de la Facultad de Ciencias Físicas y Matemáticas (FCFM) de la Universidad de Chile. Las excepciones al permiso por escrito del párrafo anterior son: (1) Las copias electrónicas disponibles bajo el dominio uchile.cl, (2) Las copias distribuidas por el cuerpo docente de la FCFM en el ejercicio de las funciones que le son propias. Cualquier reproducción parcial de este documento debe hacer referencia a su fuente de origen. Este documento fue nanciado a través de los recursos asignados por el DIM para la realización de actividades docentes que le son propias.

Prefacio
El objetivo de estos apuntes es proporcionar los fundamentos del Análisis Convexo y de la Teoría de la Dualidad en espacios de dimensión nita e innita, junto con abordar algunas aplicaciones en Optimización y Cálculo de Variaciones. Estos apuntes se basan esencialmente en las notas escritas para el curso Análisis Convexo y Dualidad (MA674) del programa de Doctorado en Ciencias de la Ingeniería, mención Modelación Matemática, de la Universidad de Chile. Mis agradecimientos a Juan Escobar y Juan Peypouquet, quienes participaron activamente en la confección de este apunte y sin cuya valiosa colaboración estas notas no tendrían su forma actual. Juan Escobar transcribió en LaTeX la primera versión del manuscrito, sugiriendo varias ideas y contribuyendo con material adicional, particularmente en la sección que se reere al principio variacional de Ekeland y al capítulo sobre el esquema primal/dual de penalización en programación convexa. Posteriormente, Juan Peypouquet realizó una revisión muy profunda y exhaustiva del apunte, corrigió errores, mejoró sustancialmente la presentación e incorporó material referente al análisis de recesión. Vaya nuevamente mi reconocimiento al excelente trabajo de ambos. Todo posible error que el lector pueda encontrar en este apunte es de mi exclusiva responsabilidad. Los comentarios y observaciones son bienvenidos en la siguiente dirección de email: falvarez@dim.uchile.cl Finalmente, quisiera agradecer el nanciamiento proporcionado por el Departamento de Ingeniería Matemática de la Universidad de Chile. Felipe Álvarez Santiago, 7 de septiembre de 2005

3

4 .

3. . . . . . . . . . 4. .5. . . .5. . . . . . . . . . . .2. . . . . . . . . . . 2. . . 3. . . 51 51 56 60 63 69 4. . . . . . . . . . . . . . . . . . . . . . . . . . . Problemas . . . . . . . 29 29 33 34 40 48 3. . . . . . .2. . . . . . . . . . . 1. . . . . . . . . . . Minimización convexa en espacios de Banach 1. . . . . . Dualidad Lagrangeana . . . . . . . . . . . . . . . . . . . . . . . . . . Semicontinuidad Inferior . . . . . . . . . . . . . . . . . 1. . . .4. . . .4. . . Fundamentos de Análisis Convexo 2. . . 1. .3. . . . . . . . . . . . . . . . . . . . 1. . . . . . . . . . . . . . . .2. . . . . .2. . . . . . . . . . . . . . . . . . . . Relajación topológica . . . . . . .1. . . . . . . . . . . . . 7 . . . . 1. . . . . . . . . . . . Teoremas de Fritz John y Kuhn-Tucker . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. .2. . . . . . . . . . . . . . . . . 1.2. . . . . . . .2. . . . . .1. Separación de convexos: el Teorema de Hahn-Banach . .2. . . . . . . Topología débil y funciones inferiormente semicontinuas. . . . . . . . . Dualidad en Optimización Convexa 3. . . . . . . . . . . 1. . . . . . . . . . . . . . . . . . . . 1. . . . . Funciones a valores en 1. . . . . . . . +∞}. . . . . . . . . . . . . . . . . .3. . . . . . . . 2. . . Espacios en dualidad . . . . . . . Funciones convexas. . . . . . .4. . . . . . . . 5 77 77 78 80 81 . . . . . . . . .5. . . . . . . . . . . . . . . . . . . . . 3. . . . . . . Problema de Stokes . . . . . . . . . . . . . . . . . La Γ-convergencia . . .2. . . . . . . . . . . . 2. Principio variacional de Ekeland en espacios métricos . . . 7 10 10 11 13 16 17 18 19 20 22 22 25 27 R = R ∪ {−∞. . . . Aplicaciones al Cálculo de Variaciones 4. . . . . . . . . . . . . . . . . .1. . . . . . Problemas Perturbados . . . . . . . . Problemas .Índice general 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Espacios vectoriales topológicos . . .3. . . . . . . . . . Teoremas de Dualidad de Fenchel-Rockafellar y de Attouch-Brezis . . . . . . . . .1. . . . . . . Problemas . . . . . . . . . . . . . 4. . . El subdiferencial . . . . . . Introducción al Análisis Variacional 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inf-compacidad y existencia de minimizadores . . . . . . . . . . 1. . . . . . Problemas . . . . . . . . . 1. . . .1. .3. . . . . . . . . . . . 2.4. . . . . . La conjugada de Fenchel . . . . . . . . . . . Funciones de recesión e inf-compacidad. . . . . . . . . . . . . . . . . . 1. . . . . . . .5. . 2. . . Semicontinuidad inferior y minimización . . . . . . . . . . . Problema de Dirichlet . . . .4. Problema de la torsión elasto-plástica .1. . . . . . . . .3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2. . . . .1. 3. . .3. . . . . . . . . . . .6. . .3. .5. . . . . . . . . . . . . . . . . . . . . . . . . . . . La regularizada semicontinua inferior . . . . . . . . .2. . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . .3. . . . . . . . . . . . . . . . . . . . . . . Penalización en Optimización Convexa 5. . . .4. . . 5. . . . 5. . . . . . . . . . . . . . . . . Preliminares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Algunos Resultados de Convergencia . . . . . . 5. . . . . . . . . .5. . . .6 ÍNDICE GENERAL 5. . . . .2. . . . . . . . . . . . . . . . . 5. . . . . . . . . . . . . . . . . . . . . . . . . . .1. Medias Asintóticas Convergencia Primal del Método de Penalización Convergencia Dual del Método de Penalización 83 83 85 87 90 93 96 Problemas . .6. . . . . . . . . 5. . .

δC (x) = Con la convención 0 x ∈ C. ∀α ∈ R. X 7 . δC : X → R. C Para un conjunto A más general. +∞} = [−∞.1) donde Por ejemplo. +∞] en lugar de sólo R = X. X y es directo vericar inf f0 = inf (f0 + δC ) C y más aun. en un espacio topológico inf{f0 (x) | x ∈ C} f0 : X → R es la función objetivo a minimizar y C ⊆ X es un conjunto de restricciones. del tipo (1. inf f0 := inf{f0 (x) | x ∈ C}. todo subconjunto A ⊆ R admite un ínmo inf A (y un supremo sup A). / α + (+∞) = (+∞) + α = +∞.Capítulo 1 Introducción al Análisis Variacional 1. consideremos un problema de minimización ] − ∞. +∞}. Funciones a valores en R = R ∪ {−∞.1. si inf A ∈ A escribimos min A en lugar de inf A para enfatizar que el ínmo se alcanza en el conjunto. y denotamos la topología apropiada. es posible denir la función que f0 + δC mediante (f0 + δC )(x) := f0 (x) + δC (x). +∞ x ∈ C. +∞[. En el análisis de problemas de minimización y maximización es conveniente considerar funciones que toman valores en la recta real extendida R = R ∪ {−∞. tomando A = {f0 (x) | x ∈ C} tenemos que inf{f0 (x) | x ∈ C} está bien denido en R. Con R es un intervalo compacto. En particular. En particular. si C=∅ C entonces inf f0 ∈ {f0 (x) | x ∈ C} ⇔ inf (f0 + δC ) ∈ {f0 (x) + δC (x) | x ∈ X}. En este contexto resulta muy útil introducir la denida por función indicatriz del conjunto C .

Por otra parte. a funciones a valores Similarmente.1. los problemas de tipo minimax. Consideraremos las siguientes convenciones: (+∞) + α = α + (+∞) = +∞. 5. 1. Límites que y involucran expresiones de la forma αn → α ni αβ = 0 · (±∞). ∀α ∈ R ∪ {+∞}. Las convenciones anteriores permiten denir (f + λg)(x) := f (x) + λg(x) para todo y (f g)(x) := f (x)g(x). INTRODUCCIÓN AL ANÁLISIS VARIACIONAL De esta forma.8 CAPÍTULO 1.1. g : X → R. Menos obvias son las expresiones del tipo ( ∞) + (±∞).1. ∀α ∈ R ∪ {−∞}. λ) ∈ X × R | f (x) ≤ λ}. es natural que se requieran conceptos unilaterales para su análisis: Denición 1. Esto permite considerar las restricciones de f y dar así un tratamiento unicado a este tipo de problemas. 2. queremos dar un sentido a la expresión R que extienda la usual de R. Dada f : X → R. 0 · (±∞) si y α<0 (análogo para −∞). . El dominio efectivo de f es dom f := {x ∈ X | f (x) < +∞}. las siguientes convenciones: 4. que se llama +∞ + (−∞) = (−∞) + (+∞) = +∞. el problema de minimización (1. (−∞) + α = α + (−∞) = −∞. α · (+∞) = +∞. mientras que el dado por conjunto de nivel inferior (o subnivel) de parámetro γ ∈ R es el subconjunto de X Γγ (f ) := {x ∈ X | f (x) ≤ γ}. g : X → R. dado que la minimización es una operación unilateral. función objetivo. para lo cual necesitamos una aritmética en f.1. 0 · (±∞) o ( ∞) + (±∞) pueden estar indeterminados en el βn → β entonces no necesariamente se tiene que αn βn → αβ cuando tampoco que αn + βn → α + β cuando α + β = (±∞) + ( ∞). α · (+∞) = −∞. la consideración de problemas de maximización con restricciones conduce de man- R. inf-adición pues está orientada a la minimización: violar las restricciones tiene prioridad por sobre un eventual valor −∞ de la Observación 1. ∀x ∈ X. Dados un escalar λ∈R y dos funciones f + λg . su epigrafo es el subconjunto de X ×R dado por epi f := {(x. si α > 0.1) puede formularse de manera equivalente como inf{f (x) | x ∈ X}. λ∈R y f. 0 · (+∞) = 0 = 0 · (−∞) = 0 y la simétrica para que sea conmutativa. 3. R ∪ {−∞}. salvo que se diga explícitamente otra cosa. utilizaremos. donde manera implícita en la denición de era natural a funciones a valores en en f : X → R ∪ {+∞} está denida por f = f0 + δC . sentido que si Estas extensiones para la suma y producto no son continuas.

Finalmente. Sea (fi )i∈I una familia arbitraria no vacía (I = ∅) de funciones fi : X Entonces las funciones supi∈I fi e inf i∈I fi denidas respectivamente por (sup fi )(x) := sup{fi (x) | i ∈ I} i∈I → R. con igualdad en la última inclusión si |I| < +∞. más precisamente. inf X f = +∞.1. (b) Γγ (f ) × {γ} = epi f ∩ (X × {γ}). X dom f con la convención inf f = inf ∅ = +∞. denimos arg min f := Notemos que {x ∈ X | f (x) = inf X f } ∅ si si inf X f < +∞. Ejercicio 1.1.1. inf f = inf f. e (inf fi )(x) := inf{fi (x) | i ∈ I} i∈I están bien denidas como funciones a valores en R. si x ∈ dom f ). . Notemos también que se tienen las siguientes propiedades: (a) arg min f = γ>inf X f Γγ (f ) (con la convención =∅ ∅ para f ≡ +∞).1. 9 Además.1. +∞}. FUNCIONES A VALORES EN R = R ∪ {−∞.e. epi(sup fi ) = i∈I i∈I epi fi y epi(inf fi ) ⊇ i∈I i∈I epi fi .. i. ∅ La condición implícitas de arg min f = ∅ f (un punto si f ≡ +∞ se interpreta diciendo que en ese caso la minimización no tiene soluciones optimales pues ni siquiera hay puntos factibles que satisfagan las restricciones x∈X se dice factible si f (x) < +∞. otra ventaja de considerar funciones a valores en la siguiente: R es que es una clase estable bajo operaciones del tipo supremo e ínmo sobre familias arbitrarias. Más aun. Demuestre estas propiedades.1. tenemos Proposición 1.

dom f = φ. sobre X. ∃Nλ ∈ Nx (τ ) : ∀y ∈ Nλ . Notemos que para una función propia eventualmente su ínmo es tiene ínmo mayor estricto que −∞.1. Es decir. de acuerdo a la siguiente denición.2. supondremos que X.1. fi (x) ≤ α} i∈I ⊆ {(x. epi(fi ) = {(x. f (y) > λ. . Denición 1. α) ∈ X × R | fi (x) ≤ α. 1.) x ∀λ < f (x). en Denición 1.2. ∀i ∈ I} = i∈I Del mismo modo. Proposición 1. epi(f ).1.2.2. τ ) es un espacio topológico.1. sobre X .i. Dado Semicontinuidad Inferior x ∈ X.c. denotemos por Una función Nx (τ ) la familia de todas las vecindades de se dice x para τ.c. si f : X → R ∪ {+∞} τ -semicontinua inferior (τ -s. α) ∈ X × R | inf fi (x) ≤ α} = epi(inf fi ). 1. mente.1. En (X. α) ∈ X × R | sup fi (x) ≤ α} = {(x. decimos simplemente que f es τ -s. inf X f > −∞. Si lo anterior es válido para todo x ∈ X. ∃x0 ∈ X tal que f (x0 ) < +∞. (i) (ii) Una función f: X →R se dice propia si: ∀x ∈ X.2. es decir f está acotada inferior- −∞.i. pues en este caso el ínmo i ∈ I.c. y se tiene que la inclusión es en realidad una igualdad si siempre se alcanza para algún |I| < +∞.10 CAPÍTULO 1.2. Nos interesaremos en una subclase de funciones para las cuales el problema de minimización asociado es no trivial.i. las siguientes armaciones son equivalentes: (i) f es τ -s. INTRODUCCIÓN AL ANÁLISIS VARIACIONAL Demostración: epi(sup fi ) = {(x. diremos que Observación 1. Dada f : X → R ∪ {+∞}. α) ∈ X × R | ∃i ∈ I. Si f Semicontinuidad inferior y minimización Hasta ahora no hemos supuesto ningún tipo de estructura sobre el conjunto subyacente lo que sigue. f (x) > −∞.

1.2. SEMICONTINUIDAD INFERIOR Y MINIMIZACIÓN

11

(ii) epi(f ) es cerrado en X × R dotado de la topología τ × τR , donde τR es la topología usual de R. (iii) ∀γ ∈ R, Γγ (f ) es cerrado en (X, τ ). (iv) ∀γ ∈ R, {x ∈ X | f (x) > γ} ∈ τ . (v) ∀x ∈ X , f (x) ≤ lim inf f (y) := y→x
Demostración: tal que

N ∈NX (τ ) y∈N

sup

inf f (y)

(i) ⇒ (ii) Tomemos (x, λ) ∈ epi(f ), lo que equivale a λ < f (x). Sea γ ∈ R / λ < γ < f (x). De (i), existe Nγ ∈ Nx (τ ) tal que ∀y ∈ Nγ , f (y) > γ , de modo que (y, γ) ∈ epi(f ). Se sigue que (Nγ ×] − ∞, γ[) ∩ epi(f ) = ∅. Como Nγ ×] − ∞, γ[∈ N(x,λ) (τ × τR ), / C concluimos que epi(f ) es abierto.
deducimos que

en

(ii) ⇒ (iii) Como Γγ (f ) × {γ} = epi(f ) ∩ (X × {γ}), X × R, y de aquí que Γγ (f ) es cerrado en X . (iii) ⇒ (iv) (iv) ⇒ (v)
Trivial.

Γγ (f ) × {γ}

es cerrado

Sea

x ∈ X.

Dado

un abierto que contiene a

γ < f (x) tenemos que N = {y ∈ X | f (y) > γ} ∈ Nx (τ ) por ser x. De este modo γ ≤ inf f (y), y en particular γ ≤ sup inf f (y).
y∈N N ∈Nx (τ ) y∈N

Como lo anterior es válido para todo

γ < f (x), sup

se sigue

(v).

(v) ⇒ (i) Sea λ < f (x). Por (v), λ < λ < inf f (y).
y∈N

N ∈NX (τ ) y∈N

inf f (y) y en consecuencia , existe N ∈ Nx (τ ) :

Ejercicio 1.2.1.
n→+∞

Pruebe que cuando

(X, τ )

es metrizable,

f

es

τ

s.c.i.

⇔ ∀x ∈ X xn → x, f (x) ≤

lim inf f (xn ) := sup inf f (xk ).
n∈N k≥n
La clase de funciones s.c.i. satisface varias propiedades de estabilidad, como lo establece el siguiente resultado.

Proposición 1.2.2. Sea {fi }i∈I una familia arbitraria no vacía de funciones τ -s.c.i., fi : X R ∪ {+∞}. Entonces sup fi es τ -s.c.i. Si además I es nito, min fi y fi son ambas τ -s.c.i.
i∈I i∈I i∈I
Demostración: Propuesto.

1.2.2.

Inf-compacidad y existencia de minimizadores

de

inf-compacidad

Junto con la s.c.i., el segundo ingrediente básico en los problemas de minimización es la propiedad en el sentido de la siguiente denición. Una función el

Denición 1.2.2.
conjunto

f : X → R ∪ {+∞} se dice τ -inf-compacta si para todo γ ∈ R, Γγ (f ) = {x ∈ X | f (x) ≤ λ} es relativamente compacto en X para la topología τ .
Para una función

Observación 1.2.1.
sea compacto.

f

que es

τ -s.c.i.,

lo anterior equivale a requerir que

Γγ (f )

12

CAPÍTULO 1.

INTRODUCCIÓN AL ANÁLISIS VARIACIONAL

Denición 1.2.3. Sea (V, · ) un espacio vectorial normado. Una función f : V dice coerciva si lim f (x) = +∞.
x →∞

→ R ∪ {+∞}

se

(V, · ) un espacio vectorial normado y f : V → R ∪ {+∞} una función. (i) f es coerciva y (ii) ∀γ ∈ R, Γγ (f ) es acotada. En particular, si dim V < +∞ entonces f es inf-compacta ssi f es coerciva. Recordemos el Teorema de Riesz: todo subconjunto acotado en un espacio vectorial normado (V, · ) es relativamente compacto ssi dim V < +∞. En el caso de la dimensión innita, las topologías que están asociadas a la coercividad
Sea Entonces son equivalentes son las débiles. Esto lo discutiremos más adelante.

Observación 1.2.2.

Teorema 1.2.1 (Weierstrass-Hilbert-Tonelli). Sea f : X → R ∪ {+∞} una función τ -s.c.i. y τ inf-compacta. Entonces, inf X f > −∞ y existe un punto x∗ ∈ X que minimiza f sobre X , i.e., f (x∗ ) = min f (x).
x∈X
Demostración: Veremos dos demostraciones distintas de este teorema. La primera demostración es conocida como primero una sucesión existe. En efecto, si

Método Directo
f,
i.e.,

y fue iniciada por Hilbert y luego

desarrollada por Tonelli. Para simplicar, supongamos que

(xn )n∈N

minimizante para

n→+∞

τ es metrizable. Consideramos lim f (xn ) = inf X f . Tal sucesión

inf X f > −∞ entonces consideramos para n ≥ 1, xn ∈ X tal que inf X f ≤ 1 f (xn ) ≤ inf X f + n . Si inf X f = −∞ entonces sea xn ∈ X tal que f (xn ) ≤ −n (a posteriori veremos que este caso no se tiene). Si inf X f = +∞ entonces f ≡ +∞ y basta tomar cualquier 1 x∗ ∈ X . En caso contrario, tenemos que f (xn ) ≤ max{inf X f + n , −n} ≤ max{inf X f + 1, −1} =: γ0 ∈ R. Notemos que γ0 > inf X f y que xn ∈ Γγ0 (f ) para todo n ≥ 1. Como Γγ0 (f ) es compacto, por el Teorema de Bolzano-Weiertrass podemos extraer una subsucesión (xnk ) ∗ que converge (en la topología τ ) a algún punto x ∈ X . En particular, lim f (xnk ) = inf X f
y, de la

τ -s.c.i.

de

f , f (x∗ ) ≤ lim f (xk ) = inf X f .
k→∞

k→∞
y

Luego,

inf X f > −∞

f (x∗ ) = inf X f .

Queremos demostrar que

arg min f = ∅.

Sabemos que

arg min f =
γ>inf X f
para cualquier

Γγ (f ) =
γ0 >γ>inf X f

Γγ (f )

γ0 ∈ R tal que γ0 > inf X f (notemos que sin pérdida de generalidad suponemos inf X f < +∞), esto último pues Γα (f ) ⊆ Γβ (f ), si α ≤ β . Como f es τ -s.c.i., Γγ (f ) es cerrado y además es compacto por la inf-compacidad de f . En particular, {Γγ (f )}inf X f <γ<γ0 es una familia de subconjuntos cerrados y no vací os (¾por qué?) del compacto Γγ0 (f ). Más aun, esta familia satisface la propieded de intersecciones nitas. En efecto, dados γ1 , ..., γn , con γ = min{γ1 , ..., γn } > inf X f se tiene que
n

Γγi (f ) = Γγ (f ) = ∅.
i=1
Por compacidad,

Γγ (f ) = ∅,
inf X f <γ<γ0
lo que concluye la demostración.

1.2. SEMICONTINUIDAD INFERIOR Y MINIMIZACIÓN

13

Observación 1.2.3.
f: R → R
por

El Teorema 1.2.1, de Weierstrass-Hilbert-Tonelli se conoce también co-

mo Teorema de Minimización de Weierstrass y sigue siendo válido si en lugar de la compacidad suponemos que

τ -inf∃γ0 > inf X f : Γγ0 (f ) es compacto. Por ejemplo, denamos x2 f (x) = 1+x2 . Es fácil ver que Γγ (f ) es compacto ssi γ < 1 y Γ1 (f ) = R de τ
es metrizable

modo que no es inf-compacta pero sí tiene un minimizador (x* =0). Notemos que en la demostración vía el Método Directo hemos supuesto que para extraer una subsucesión convergente.

Ejercicio 1.2.2.
1.2.3.

Sea

Muestre que existe

f : X → R ∪ {+∞} una función τ -s.c.i. y K ⊆ X un compacto x∗ ∈ K tal que f (x∗ ) = minK f . Ind.: Considere g := f + δK .

para

τ.

Funciones de recesión e inf-compacidad.

En esta sección presentaremos brevemente las funciones de recesión, muy útiles en análisis convexo. Terminaremos con un resultado que permite caracterizar la inf-compacidad en espacios de dimensión nita y una aplicación a problemas de optimización. En lo que sigue,

X

es un e.v.n.

Denición 1.2.4.
conjunto

Sea

C⊂X

un conjunto no vacío. El

cono de recesión, denotado por C∞ , es el
lim xk =d tk . C
que

C∞ =

d∈X

∃tk → ∞, ∃xk ∈ C

tales que

El cono de recesión contiene las direcciones hacia las cuales se dirigen las sucesiones en tienden a

+∞

en norma. Notemos que el conjunto

C∞

tiene las siguientes propiedades elementales,

que el lector debe vericar: 1. 2.

C∞ C

es un cono cerrado.

= C∞ . C
es convexo, también lo es

3. Cuando el conjunto

C∞ .

Además

C∞ = {d ∈ X | d + C ⊂ C} = {d ∈ X | x + td ∈ C
cualquiera que sea el para todo

t > 0}

x ∈ C.

Ejemplo 1.2.1.
1. Si 2. Si

Conos de recesión de algunos conjuntos relevantes:

C C C

es un cono, entonces es acotado, entonces

C∞ = C . C∞ = {0}.
Si la dimensión de

X

es nita, el recíproco también es

cierto. 3. Si es un hiperplano cerrado, entonces

C∞

es el subespacio vectorial paralelo a

C.
donde

4. Suponga que

C

es un poliedro convexo denido mediante

es una matriz de tamaño

m×n

y

b∈

Rm . Entonces

C∞

C = { x ∈ Rn | Ax ≤ b }, = { d ∈ Rn | Ad ≤ 0 }.

A

Pasando al límite k k tenemos que f∞ (d) ≤ µ. Sea d∈X f∞ (d) y g∞ (d) +∞ y −∞. por f : X → R ∪ {+∞} una función propia. Por denición. µ+ε). Como f (dk ) ≤ µk . µ) ∈ (epi f )∞ . tomemos (d. h = f + g.2. Pruebe que sup fi i∈I Demuestre también que si ≥ sup {(fi )∞ } ∞ i∈I y inf fi i∈I ∞ ≤ inf {(fi )∞ } . Ejercicio 1.2.4. µ+ε) → (d.2.2. Como (d. de acuerdo con la denición de límite k k→∞ observamos que para cada Por lo tanto. La inclusión es una igualdad si los conjuntos son convexos. Pruebe que Ci i∈I ∞ ⊆ i∈I (Ci )∞ si la intersección es no-vacía. Pruebe que h∞ (d) ≥ f∞ (d) + g∞ (d). Si Si C es un conjunto no vacío. Sea con igualdad si I es nito. µk ) → (d. 2.2. 1. vemos que (d. dado que (epi f )∞ es cerrado y ε es arbitrario. tomando k sucientemente grande tenemos que f (tk dk ) ≤ (µ−ε)tk . entonces epi(f∞ ) = (epi f )∞ .1. Sea Ejercicio 1.3. Demostración: Probaremos primero que De acuerdo con la denición de cono asintótico..5. (fi )i∈I una colección de funciones propias de X en R ∪ {+∞}. Si f : X → R ∪ {+∞} es propia. µk ) ∈ epi f tales que −1 −1 tk (dk . g : X → R ∪ {+∞} h dos funciones propias con f y g son s. Como t−1 zk = (dk . INTRODUCCIÓN AL ANÁLISIS VARIACIONAL Ejercicio 1. se dene por f∞ (d) = inf lim inf k→∞ f (tk dk ) tk tk → +∞. La función de recesión. Proposición 1.2. zk = tk (dk .i. µ + ε) ∈ (epi f )∞ . Ci i∈I ∞ ⊇ i∈I (Ci )∞ . sea tales que (d. 1. Consideremos subconjuntos (Ci )i∈I de X. denotada f∞ . µ). entonces tal que también lo es. Sea Ejemplo 1. existen (epi f )∞ ⊆ epi(f∞ ). de donde (d. la segunda desigualdad es una igualdad.3. no son.5. Denición 1. i∈I I es nito. respectivamente. entonces para todo λ > inf f . Para ello. Recíprocamente.14 CAPÍTULO 1. tenemos que tk f (t−1 dk · tk ) ≤ t−1 µk . µ+ε) ∈ epi(f∞ ).2. µ) ∈ epi(f∞ ). Si f es propia. 2. el punto ε > 0.c. tk → ∞ y (dk . µ) ∈ epi(f∞ ). . Lema 1. Finalmente. µ) ∈ (epif )∞ .2. entonces Sean f. [Γλ (f )]∞ ⊆ {d ∈ X | f∞ (d) ≤ 0 }. existen sucesiones tk → ∞ y dk → d f∞ (d) = lim t−1 f (tk dk ). µ) ∈ epi(f∞ ). concluimos k que (d. dk → d (δC )∞ = δC∞ dom f ∩ dom g = ∅.

.4 y el Ejemplo 1.2. Sea C = { x ∈ Rn | fi (x) ≤ 0 ∀i }. es decir. Supongamos que f d = 0. i ≥ 1 no tienen ninguna dirección de recesión común. Demostración: Denimos Ci = {x fi (x) ≤ 0}. Demuestre que C∞ ⊆ { d ∈ S∞ | (fi )∞ (d) ≤ 0 ∀i ∈ I }. Teorema 1. Corolario 1.2. f∞ (d) ≥ (f0 )∞ (d) para todo d ∈ C∞ . .1.3 tenemos que C∞ ⊆ S∞ ∩ i∈I . 1. Suponga que (f0 )∞ (d) > −∞ para todo d = 0. Escribamos dk = t−1 xk → d. f∞ (d) ≤ 0.1 de Weierstrass-Hilbert-Tonelli.2. (Ci )∞ de manera que C =S∩ i∈I Ci . y propia. .2. Aplicando el Ejercicio 1.2.2.i.2.c. entonces f es inf-compacta. lo que implica que f∞ (d) ≥ (f0 )∞ (d) + δC∞ (d). Entonces existen sucesiones xk ∈ Γλ (f ) y tk → ∞ tales que −1 lim t xk = d. el problema anterior es equivalente a (P) inf{ f (x) | x ∈ Rn }.2. Del Lema 1. Como el cono de recesión se reduce al {0}. . tenemos que t−1 f (tk dk ) = k k k→∞ k t−1 f (xk ) ≤ t−1 λ → 0. Del f es inf-compacta. Por lo tanto. Escribiendo f = f0 + δC . Consideremos un conjunto (fi )i∈I de funciones propias de X en R ∪ {+∞} y un subconjunto no-vacío S de X . En el Problema 6 del próximo capítulo presentaremos otros resultados aplicados al caso convexo. Del Ejercicio 1. En [AuT03] se puede encontrar una exposición más completa y detallada sobre conos y funciones de recesión.2. SEMICONTINUIDAD INFERIOR Y MINIMIZACIÓN 15 d ∈ [ Γλ (f ) ]∞ . Si las funciones fi . Dena C = { s ∈ S | fi (x) ≤ 0 ∀i ∈ I }.1 tenemos que para cada λ > inf f . Demostración: De acuerdo con el Ejercicio 1.2.i. si (fi )∞ (d) ≤ 0 ∀i ⇒ d = 0.1 y usando la hipótesis sobre las direcciones de recesión concluimos que teorema anterior deducimos inmediatamente que la función objetivo f∞ (d) > 0 para todo d = 0. Si f∞ (d) > 0 para todo f∞ (d) > 0 para todo d = 0.2. concluimos que Γλ (f ) es acotado. Suponga que dom f0 ∩ C = ∅ y considere el problema de optimización con restricciones (P) inf{ f0 (x) | x ∈ C }.2. k k Demostración: Sea Corolario 1. El resultado se obtiene entonces al aplicar el Teorema 1. m. Demostración: Supongamos que : Rn → R ∪ {+∞} es s. entonces el conjunto de soluciones de (P) es no-vacío y compacto. Como xk ∈ Γλ (f ). y propia. Supongamos que para cada i = 0.2.1. 0 ∈ [ Γλ (f ) ]∞ ⊆ { d ∈ Rn | f∞ (d) ≤ 0 } = {0}.c. la función fi : Rn → R ∪ {+∞} es s. El resultado se obtiene al aplicar el lema anterior. .

i.2. y) ≤ f (x) − v(x). x x de donde se sigue que F (¯) ⊂ F (xn ) x y en consecuencia Dado x = x. z∈F (y) Dado y ∈ F (x). En consecuencia. de la monotonía de f (xn+1 ) ≤ v(xn ) + 2−n . Sean (E. Principio variacional de Ekeland en espacios métricos En los teoremas de existencia de solución de un problema de minimización. Más aun. Por otro lado. por Nos referiremos a esta propiedad como monotonía. Entonces existe x ∈ E tal que ¯ (i) f (¯) + εd(x0 . y acotada inferiormente. Luego. Teorema 1.4. f (¯) < f (x) + εd(x. Denamos la sucesión (xn )n∈N recursivamente a partir de x0 por xn+1 ∈ F (xn ). que toma valores cerrados y satisface las siguientes dos condiciones: y ∈ F (y). se tiene que d(x.c. F :E→ 2E denida por F (x) = {y ∈ E | f (y) + d(x. se tiene que v(xn+1 ) ≤ f (xn+1 ) ≤ v(xn ) + 2−n ≤ v(xn+1 ) + 2−n y por lo tanto 0 ≤ f (xn+1 ) − v(xn+1 ) ≤ 2−n . x ¯ (ii) ∀x = x. Si y ∈ F (x). INTRODUCCIÓN AL ANÁLISIS VARIACIONAL 1. diam(F (xn )) → 0 y como F (xn ) es una sucesión decreciente de cerrados en un espacio completo. x) ≤ f (x0 ).2. x). Denamos ahora v : dom(f ) → R v(y) := inf f (z).3. y) ≤ f (x)}. x ∈ F (xn ) ∀n ¯ F (¯) = {¯}. la compacidad de los conjuntos de nivel juega un rol clave. ¯ x ¯ Demostración: Sin pérdida de generalidad suponemos que Consideremos ε = 1 y que f : E → R+ ∪ {+∞} . como F . lo cual implica que diam(F (x)) ≤ 2(f (x) − v(x)). Los siguientes resultados muestran que basta la completitud del espacio sobre el cual se minimiza para obtener la existencia de una solución aproximada en un sentido apropiado. ¯ se tiene (i). entonces F (y) ⊆ F (x). v(xn ) ≤ v(xn+1 ). se sigue que existe x∈E ¯ tal que F (xn ) = {¯}. d) un espacio métrico completo y f : E → R∪{+∞} una función propia. v(y) ≤ f (y). Consideremos x0 ∈ dom(f ) y ε > 0. ¯ se tiene que x ∈ F (¯) / x de donde concluimos (ii) .16 CAPÍTULO 1. s. x n∈N Como x ∈ F (x0 ).

t.3. → V → λv sobre τ ×τ V ×V y τR ×V sobre R×V respectivamente. τ ). x (ii) d(x0 . Se dice además que el e. el v.t. x ¯ Demostración: Basta aplicar el Teorema 1. ESPACIOS VECTORIALES TOPOLÓGICOS 17 Denición 1. v ∗ := v ∗ (v). f (¯) ≤ f (x) + εd(x. es el de un espacio vectorial normado tomar la base de vecindades constituida por las bolas con centro en el origen.2. (V.3. Espacios vectoriales topológicos topológico (e.2.3. El espacio V∗ se conoce como espacio dual1 de V a valores en R) que son τ -continuas sobre (V. dado v ∈ V . Bajo las hipótesis del Teorema 1. τ )∗ . ε-mínimos por Dada una función propia f: X → R y ε > 0. w) y ponderación por escalar → V → v+w R×V (λ. producto de dualidad entre V y funcional de evaluación Al espacio V ∗ también se le llama dual topológico para diferenciarlo del dual algebraico.4 (Principio variacional de Ekeland).) si el origen admite una base de (V. consideremos ε. el espacio vectorial de todas los funcionales lineales (funciones lineales de V. lo que dene una forma bilineal ·. τ ) denotaremos por (V. o simplemente por V ∗.v. es vecindades convexas. Dado un e.l.v.6.2. ¯ (iii) ∀x ∈ E.c. 1. denimos el conjunto de sus ε − arg min f = {x ∈ X | f (x) ≤ inf f + ε} {x ∈ X | f (x) ≤ − 1 } ε si inf f > −∞. x) ≤ λ.v.t. Si v ∗ ∈ V ∗ entonces para todo v ∈ V escribiremos v.2. si no.t. este último contiene a todas las formas lineales sobre V independiente de cualquier noción topológica. Proposición 1.c. Esta última notación apunta a enfatizar los roles en cierto sentido simétricos jugados por V y ∗ . · : V ∗ → R es una forma lineal sobre V ∗ . · ). En efecto. v) son continuas para las topologías producto traslación. x). 1 .3. · : V × V ∗ → R conocida como V V ∗ .) si las operaciones suma Recordemos que un espacio vectorial real V dotado de una topología τ se dice espacio vectorial V ×V (v. Se tiene que las vecindades de cualquier punto se obtienen a partir de las vecindades del origen por localmente convexo (l. λ > 0 y sea x0 ∈ ελ − arg min f .v. pues basta El ejemplo más simple de e.1. Entonces existe x ∈ E tal que ¯ (i) f (¯) ≤ f (x0 ).

y sólo si.t localmente convexo (lo que abreviaremos por e. τ )∗ . B ⊆ V dos subconjuntos convexos.3. ∈ (V.c.18 CAPÍTULO 1.v.1.v. [ ≤ α] = {v ∈ V | f (v) ≤ α} <. no vacío y τ -cerrado. existe semiespacio cerrado tal que u ∈ C .t. Una función f : V → R ∪ {+∞} se dice convexa si para todos x.3.3.2. 1]. siempre es Una consecuencia muy importante del Teorema de Hahn-Banach es la siguiente. Proposición 1. τ ) (i) Si A es abierto entonces existe un hiperplano cerrado que separa A y B . Sean vacíos y disjuntos (i. Separación de convexos: el Teorema de Hahn-Banach Un Denición 1. τ )∗ . Observación 1.t.v. Corolario 1.1. f : V → R ∪ {+∞} es convexa ssi epi f es convexo en V × R. Si (V.c. Más aun.l. α ∈ R y ε > 0 tales que A ⊆ [ ≤ α − ε] y B ⊆ [ ≥ α + ε]. Por el Teorema de Hahn-Banach. no Demostración: Se deja como ejercicio. y se extiende Notación: Escribiremos [ la notación de manera obvia para = α] = {v ∈ V | f (v) = α}. existen ∈ (V. τ ) es un e. A ∩ B = ∅). sean A := C y B := {u}. bajo esta condición.t.t. abiertos) en (V.l. un e. entonces C= Demostración: Dado {S | C ⊆ S y S es semiespacio cerrado}.3.) tendremos lo siguiente: Si A es cerrado y B es compacto.v.1. en cuyo caso los semiespacios [ ≤ α] y [ ≥ α] (respectivamente [ < α] y [ > α]) serán cerrados (resp. esto es. Teorema 1. = v ∗ (v2 ). V | f (v) = α} hiperplano (o hiperplano afín) es un subconjunto H ⊆V de la forma {v ∈ donde f: V →R es un funcional lineal no nulo y α ∈ R.c. y A. (V. dado cualquier par de puntos ∈ (V. f (λx + (1 − λ)y) ≤ λf (x) + (1 − λ)f (y).3. esto es. τ ) es un e.l. entonces existe un hiperplano cerrado que separa estrictamente A y B . ≥ y >.3. y ∈ C y para todo λ ∈ [0. τ ). Es posible probar que [ = α] es τ -cerrado si. / C ⊆ S y u ∈ S. se tiene que C⊆V se dice convexo si para todos x. (ii) Si (V. / S . τ ) es un e. INTRODUCCIÓN AL ANÁLISIS VARIACIONAL 1. y ∈ V y para todo λ ∈ [0. Observación 1. Un conjunto Denición 1. ∗ posible encontrar v Si (V.3. τ )∗ tal que v1 ∗ (v ) v 1 = v2 en V . 1] λx + (1 − λ)y ∈ C.1. separado (de Hausdor ) entonces el Teorema de Hahn-Banach permite asegurar que existen formas lineales continuas no nulas.e.v.1 (Hahn-Banach). y C ⊆ V es un convexo.1.2. existen ∈ (V. τ )∗ y α ∈ R tales que A ⊆ [ ≤ α] y B ⊆ [ ≥ α]. por la parte (ii) del teorema.3.

v= n i=1 αi vi para concluir. por denición. Por lo tanto.v. es posible dotar a V de la topología débil ·. V ))∗ son isomorfos como espacios vectoriales (vía la evaluación v → v. · ). resulta ser vecindad del origen. v n (1. En particular.l.c.v.2 (Banach). y es separado cuando (V.2). V ))∗ . Demostración: Dado v ∈ V.c. V )-continuo. la aplicación V∗ v ∗ → v. que resulta ser la topología menos na v. V )-continua. v ∗ )n i=1 y sea L : F (V ∗ ) → R con L(y1 . .3. i=1 Denamos la función lineal F : V ∗ → Rn mediante F (v ∗ ) = ( vi . V V ∗ . Notemos que en principio dotar V∗ está desprovisto de estructura topológica.v. ∗ ∗ Recíprocamente.. vn ∈ V tales que {v ∈ V | vi .l.2.t. es natural V ∗ de la topología de la convergencia puntual sobre (i. · ⊆ Ker . ∃ε > 0 y un número ∗ ∗ ∗ ≤ ε.. y en consecuencia se n L(y) = i=1 En particular. Si : V ∗ → R es una forma lineal σ(V ∗ . V ∗ )) resulta ser e.t. si : V → R es lineal y σ(V . τ ) es un e. σ(V ∗ . σ(V ∗ . v ∗ . σ(V.. σ(V ∗ . Un resultado útil para el estudio de la dualidad de e. V y (V ∗ . yn ) = (v ∗ ) para cualquier v∗ ∈ V ∗ Rn tal que F (v ∗ ) = (y1 . σ(V.3.2) Ker vi . En este sentido. Más aun. sean continuos.t..l. la más pequeña) que hace que todos los funcionales de evaluación Esta topología se denota por V y V ∗ . .c..2) F (V ∗ ) de Rn .e. Sean (V. Teorema 1. v ∈ V . es la siguiente: . σ(V. σ(V ∗ . V ∗ ))∗ es isomorfo a σ(V.c. (v∗ ) = v. separado Similarmente. separado.. yn ).t. Sin embargo.3. . (v ) = i=1 de modo tal que basta tomar ∗ ∗ ∗ αi vi . · .v...3. Otra consecuencia del Teorema de Hahn-Banach. es el siguiente teorema. v ∗ . n n ∀v ∈ V .. Topología débil y funciones inferiormente semicontinuas. por continuidad.l. La función y resulta ser una aplicación lineal sobre el subespacio vectorial puede extender a y representar como L está bien denida gracias a (1. entonces existe un único v ∈ V tal que ∀v∗ ∈ V ∗ . ESPACIOS VECTORIALES TOPOLÓGICOS 19 1. V se identica con un subespacio vectorial de (V ∗ . entonces queremos probar que existe v ∈ V tal que = v. v ∗ . nito de puntos v1 .v.1. V )-continua.t.c. v ∗ = i=1 αi vi .. V ∗ ) denida como la topología menos na que hace que todos las formas lineales ∈ V ∗ . V V . ∗ asociada a la dualidad entre topología débil de V e. ∀i = 1.2).3. τ ) un e.. αi yi . El espacio (V. separado y V ∗ su espacio dual. Por denición. n} ⊆ U .l. Sea U = {v ∗ ∈ V ∗ | (v ∗ ) < 1} que. ∗ ) está contenida en la topología inicial τ . . · (la unicidad de v se sigue de la Observación 1. v∗ en virtud del Teorema de Hahn-Banach (ver la Observación 1. y además se tiene que (V. Es fácil ver que σ(V ∗ .. v ∗ = v ∗ (v) es lineal y. V ) y se llama (V )) resulta ser ∗ . sean continuas.

c. epi(f ) es cerrado para τ × τR en epi(f ) es V × R. f es convexa si.i 1.c.3. Entonces existe u ∈ V tal que ∀v ∈ V. y sólo si. V ∗ ) en virtud del corolario 1. Sea (V. Así.c. y sea V ∗ su espacio dual. Sea (V. Pruebe el teorema anterior sin usar el Teorema de Weierstrass. convexo en V × R. · ) un espacio de Banach reexivo y f : V → R ∪ {+∞} una función coerciva y σ(V. f (u) ≤ f (v).1 para σ(V. V ∗ )-s. El resultado ∗ )-inf-compacta y como Ejercicio 1.c.v.20 CAPÍTULO 1. Sean (V.i. aplique el método directo con τ = σ(V.3. y coerciva.c.c.l. Como corolario del Teorema de Minimización de Weierstrass obtenemos el siguiente resultado. f (u) ≤ f (v). τ ) un e. V σ(V.4. V ∗ ). Entonces existe u ∈ V tal que ∀v ∈ V. · ) un espacio de Banach reexivo y f : X → R ∪ {+∞} una función convexa.t. V )-cerrado y aplicar ∗ concluir que C es σ(V.1.c.3. Teorema 1. para la topología fuerte. s. Sea Minimización convexa en espacios de Banach (V.2. · ) un espacio vectorial normado y denotemos por V∗ su dual topológico. V ∗ ) − cerrado. y sólo si.4. ssi f es σ(V. sus conjuntos de nivel inferior son acotados en V y en conse- cuencia relativamente compactos para la topoligía débil.i.i. Entonces los subconjuntos acotados son relativamente compactos para la topología débil σ(V.1. . (ii) Si f : V → R ∪ {+∞} es convexa entonces f Demostración: (i) Como es τ − s.4. En el siguiente ejemplo veremos que la reexividad es esencial para la validez del teorema anterior. lo es para se obtiene al aplicar el Teorema de Weierstrass. Demostración: [Bre83]. y que f es τ -s. Demostración: Como f es coerciva.1. Supongamos que (V. Corolario 1. V ∗ ) ⊆ τ la suciencia es inmediata. Para ∗ servar que todo semiespacio τ -cerrado es σ(V. f es σ(V. · ) es un espacio de Banach reexivo.i. de cualquier sucesión acotada es posible extraer una subsucesión débilmente convergente. (ii) Basta observar que si. V )-cerrado. la necesidad basta obel corolario 1.4.2. Luego además es s. Para ello.2. INTRODUCCIÓN AL ANÁLISIS VARIACIONAL Corolario 1.4. V ∗ ) − s.i. V ∗ ). El estudio de funciones coercivas conduce naturalmente a considerar las propiedades topológicas de los subconjuntos acotados de V. Entonces (i) Si C ⊆ V es convexo entonces C es τ − cerrado ssi C es σ(V. Comencemos recordando el siguiente resultado de Análisis Funcional. Teorema 1.

(C([0. 1 − αn [ x ∈ [1 − αn . · ∞ ) no es reexivo. Como Γγ (δC ) = y ∅ C γ<0 γ≥0 τ · ∞ C es cerrado. En particular. que es convexo.2. d(0. Consideremos el problema de minimización: d(0. Por otra parte. αn < 1 . R). Como epi(δC ) = C × [0. 1]. 1]  −β n y tomando αn = 1 n se tiene que tal que vn ∈ C = 1. Ejercicio 1.i. dados n ≥ 1. Pero entonces 0 (1 − u(t))dt = 0 y como 1 1 sobre 0. C es no-vacío. u ≡ −1 sobre 2 . entonces 1= 0 Así.c.2 cuando se si suponemos además que inf V f < +∞ f es estrictamente convexa . y vn ∞ = n+1 n con lo que concluimos que d(0.4. Similarmente. necesariamente u∈C = 1/2 u(t)dt 0 1 − u(t) ≥ 0 la continuidad de u≡1 u. 1] → R por vn (x) = 1 2 1 − n . f (λu + (1 − λ)v) < λf (u) + (1 − λ)f (v). u = v. (con respecto a ). βn = 1 +  βn   βn 1  αn − 2 x+ x ∈ [0. Consideremos (V.4. 1]. . 1 lo que contradice u ∞ Como un minimizador para d(0. cerrado y convexo (más aun.1.4.4. C) ≥ 1. Supongamos que existe . no existe (C([0. se deduce que Observación 1. · -s. y coerciva. 1[. R). C) = 1.c. +∞[. tiene que Se puede asegurar la unicidad del minimizador en el Teorema 1.1. entonces δC es s. 1]} . donde · )= v Sea ∞ = sup {|v(t)| | t ∈ [0. es decir. C). 1 1 v ∈ C. C) = inf{ v Evidentemente.4. αn ] x ∈]αn . Consi- deremos la función indicatriz δC . entonces δC es convexa. 2 . deducimos que 1/2 1 u(t)dt ≤ 1 y 1/2 u(t)dt ≤ 1 2 2 0 1 1/2 1 1/2 u(t)dt = 2 . es un hiperplano cerrado). · ∞ ).1 (Un problema de minimización convexa sin solución óptima). βn > 1 2 1 2 βn 1 −αn 2 denimos vn : [0. Demuestre la observación anterior. ∀λ ∈]0. v(t)dt − 1 2 v(t)dt ≤ 0 |v(t)|dt ≤ v ∞. 1/2 1 C := Es fácil ver que v∈V 0 v(t)dt − 1/2 v(t)dt = 1 C . la función ∞ | v ∈ C} = inf{ v ∞ + δC (v) | v ∈ X}. ∀u.i. Observemos que si f (v) = v 1 2 ∞ + δC (v) es convexa. Luego. v ∈ dom(f ). MINIMIZACIÓN CONVEXA EN ESPACIOS DE BANACH 21 Ejemplo 1.

y así g ≥ h.1. Demostración: (i) Notemos que A⊆X ×R µ>λ es un epigrafo si. de f de modo que epi(f ) ⊆ epi(h). λ) ∈ A y se tiene (x.c.i. τ ) es un espacio topológico. pese a que sí se tiene la inf-compacidad. 1.5.c. Proposición 1. denida por La τ -regularizada τ s.5.i. es fácil vericar que tal que . Sea ahora h : X → R ∪ {+∞} otra minorante s. Si f : X → R ∪ {+∞}.i. Por lo tanto g = clτ (f ). y sólo si. o τ -clausura inferior f : X → R ∪ {+∞} es la función clτ (f ) = f := sup{g : X → R ∪ {+∞} | g es τ -s. 1. es decir. es interesante entender el comportamiento de las sucesiones minimizantes. µ) ∈ A.i. clτ (f ) es τ -s.c. Sin embargo.c. En particular. Así.22 CAPÍTULO 1. y→x (iii) f es τ -s.i.c.i. luego epi(g) = cl(epi(g)) ⊆ epi(h).i. A = cl(epi(f )) es un epígrafo. la dicultad reside en que ambas propiedades son antagonistas en el siguiente sentido: dada f: X → R ∪ {+∞} 1.i de f y en consecuencia g ≤ clτ (f ). Usualmente la inf- compacidad tiene prioridad: se trata de encontrar la topología más na posible que asegura la f. entonces f es τ2 -inf-compacta. Relajación topológica La regularizada semicontinua inferior La efectividad del enfoque topológico presentado radica en la posibilidad de escoger la topología τ de modo de satisfacer las propiedades de inf-compacidad y semicontinuidad inferior. λ) ∈ A} es cerrado en R. Para todos 2. Sin embargo. Más aun.5. Por ejemplo responder a la pregunta ¾Qué se puede decir de los puntos de acumulación? En lo que sigue. En tales casos. Así. entonces f es τ1 -s. Para todo (x. dado que epi(f ) ⊆ epi(g). g ≤ f }. ssi f ≤ clτ (f ) ssi f = clτ (f ). existe g : X → R ∪ {+∞} cl(epi(f )) = epi(g).c.c. Si 2.i. y por otra describir el comportamiento asintótico de las sucesiones minimizantes. Si y dos topologías τ2 ⊆ τ1 sobre X se tiene que f f es es τ1 -inf-compacta τ2 -s. INTRODUCCIÓN AL ANÁLISIS VARIACIONAL 1. g es τ -s. entonces (i) epi(clτ (f )) = cl(epi(f )). en algunas aplicaciones importantes la semicontinuidad inferior simplemente no se tiene y el problema de minimización asociado no tiene solución.c. Como epi(g) es cerrado. supondremos que (X. de Denición 1. g es un minorante τ -s.1.1.c.5. y x ∈ X. (ii) clτ (f )(x) = lim inf f (y).c.i. La elección de la topología inf-compacidad de τ resulta de un balance entre ambas propiedades. lo que permite por una parte aumentar las posibilidades de que f sea s. tenemos que g ≤ f . el conjunto {λ | (x.

∃n0 (ε) ∈ N. para cada n≥1 inf existe 1 xn ∈ Bτ (x.i. sólo haremos la demostración en el caso metrizable. y→x n→∞ Por otra parte. y→x f τ -s. n ) 1 Bτ (x. entonces clτ (f )(x) = min{lim inf f (xn ) | (xn )n∈N n→∞ Demostración: Para simplicar.ε) Por lo tanto.5. entonces clτ (f )(x) = min{lim inf f (xd ) | D d conjunto dirigido.i. y→x Proposición 1. ε). n ) f (y) ≥ f (xn ) − 1 Bτ (x.c. U ∈ τ . clτ (f ) ≤ f y si f es τ -s. sólo debemos probar que inf U f ≤ inf U clτ (f ). −n ≥ f (xn ) inf lim inf f (y) ≥ lim y→x lo que prueba el resultado. RELAJACIÓN TOPOLÓGICA 23 (ii) Como clτ (f ) es τ -s. xn ∈ Bτ (x. Dado que x ∈ U . . si x ∈ arg min f entonces clτ (f )(x) ≤ f (x) = inf f = inf clτ (f ) X X lo que implica que x ∈ arg min clτ (f ). Si además (X.ε) ∀ε > 0. ε>0 y∈Bτ (x.c. Tenemos que lim inf f (y) = sup y→x Sea inf f (y). de la arbitrariedad de ε y xn → x lim inf f (y) ≤ inf{lim inf f (xn ) | xn → x}. Luego lim inf f (xn ) = sup inf f (xn ) ≥ n≥n0 y∈Bτ (x. Entonces inf X f = inf X clτ (f ) y más generalmente inf U f = inf U clτ (f ) para todo U ∈ τ . f (y) y más aun inf f (xn ) ≥ inf f (y). es una sucesión.i.2.. f (xn ) ≥ inf inf f (y).ε) n→∞ k∈N n≥k y∈Bτ (x. xn → x}. se tiene que U ∈ Nx (τ ) y así clτ (f )(x) ≥ inf U f. ∀n ≥ n0 .5. clτ (f )(x) ≤ lim inf clτ (f )(y) ≤ lim inf f (y). (iii) Evidentemente. Además arg min f ⊆ arg min clτ (f ). Si f : X → R ∪ {+∞}. y→x y→x V ∈Nx y∈V que es una minorante de Por otra parte. (xd )d∈D una red. En consecuencia. entonces f (x) ≤ lim inf f (y) = clτ f (x). τ ) es metrizable. denamos y es h(x) := lim inf f (y) = sup inf f (y)..3. Sea f : X → R ∪ {+∞}.. Demostración: Como como que f ≥ clτ (f ).c. n→∞ y∈Bτ (x. De la arbitrariedad de x se deduce inf U clτ (f )(x) ≥ inf U f .5. de modo que y∈Bτ (x. Finalmente. 1 ) n inf f (y) ≥ lim sup f (xn ) ≥ lim inf f (xn ) n→∞ n→∞ Proposición 1. de modo que h ≤ clτ (f ). xd → x}.1. n ) 1 n tal que si si      En ambos casos 1 y∈Bτ (x.ε) xn → x. n ) inf f > −∞ f = −∞.

si que vn → v en 1. x k→∞ X X Denición 1.Ω < +∞.p. dom(F ) ⊆ W0 (Ω). Supongamos ¯ ¯ que existen x ∈ X y una subsucesión (xnk )k∈N tales que xnk → x.p (Ω) y este último es subespacio cerrado de W 1. +∞ si no. Ω ⊆ RN es un abierto acotado y g es una función con propiedades a precisar.Ω . si p y.1. Así. dom(F ) = W0 (Ω) 1. pero esta será insuciente si nos g irregular.1. Es decir 1 (vn )n∈N ⊂ Cc (Ω) está uniformemente acotada en W 1. Entonces x minimiza clτ (f ) en ¯ X.1.Ω < +∞. el espacio de las funciones continuas a soporte compacto en Ω. En particular. Sin pérdida de generalidad n→+∞ podemos suponer que n→+∞ lim F (vn ) existe y es nito. Primero observemos que v ∈ dom(F ) si.p.Ω + vn p. En conclusión v ∈ W0 (Ω). Ejemplo 1. Como éste es un espacio de Banach 1. Recíprocamente.p (Ω).Ω = vn p. existe vn → v en Lp (Ω) tal que lim inf F (vn ) < +∞.p 1 1 v ∈ W0 (Ω) = Cc (Ω) entonces existe una sucesión (vn )n∈N ⊂ Cc (Ω) tal 1. τ ) → R ∪ {+∞} G : (X. La existencia de soluciones dependerá de la elección del espacio interesa considerar Sea V. Demostración: Como n→∞ lim f (xn ) = inf X f . Luego sup vn 1. Por otra parte.p v ∈ W0 (Ω) entonces F (v) ≤ 1 p n→∞ v p .5.p (Ω).5. Ejercicio 1.2. Una primera idea es considerar 1 V = Cc (Ω). lo que equivale a supn vn p.24 CAPÍTULO 1. deducimos que clτ (f )(¯) ≤ lim f (xnk ) = inf f = inf clτ (f ). razonando sin pérdida de generalidad.p v ∈ W0 (Ω) y vn → v que vn v débilmente en . INTRODUCCIÓN AL ANÁLISIS VARIACIONAL Teorema 1. y que supn F (vn ) < +∞.5.p 1.p (Ω). más aun. vnk v débilmente nk 1.p (Ω) y una subsucesión (v ) reexivo. y sólo si. podemos suponer 1. F : Lp (Ω) → R ∪ {+∞} denida F (v) = Lp por 1 p Ω| v|p dx si 1 v ∈ Cc (Ω). +∞[. Decimos que el problema problema de minimización original Sea min{clτ (f )(x) | x ∈ X} inf{f (x) | x ∈ X}.p 1. y es el problema relajado del F : (X. deducimos que existe w ∈ W w débilmente nk k∈N tal que vnk 1. donde vn 1.p es débilmente cerrado. Por lo tanto. si en Lp (Ω) 1. luego en W nk k∈N ⊆ Cc 0 1.Ω = lim vn p. Sean f : X → R∪{+∞} y (xn )n∈N una sucesión minimizante para f . Nos interesa calcular F = F (más adelante veremos el porqué). Muestre que (F + G) = F + G.p · y. Dado τ p ∈]1.p W0 (Ω) y en particular v p. v en W w en Lp (Ω) y en consecuencia w = v . inf 1 p consideremos el siguiente problema de minimización: (P) donde v∈V | v(x)|p dx − Ω Ω g(x)v(x)dx v=0 sobre Ω . Así.5.Ω .p (Ω) y (v ) 1 (Ω) ⊆ W 1. τ ) → R τ una función continua.

Para (X.1. es decir. J(v) = 1 p Ω| del Ejercicio 1. deducimos que v ∈ arg min J . RELAJACIÓN TOPOLÓGICA 25 W 1.p v ∈ W0 (Ω).p W0 (Ω) y por el Teorema de la Inyección Compacta de Rellich1. se tiene que n→+∞ Γ(d) − lim inf Fn ≤ Γ(d) − lim sup Fn y si coinciden diremos que la sucesión {Fn }n∈N es Γ. 1 p v Pero Φ : Lp (Ω)N → R denida por continua. es débilmente s. Luego v p p ≤ lim inf n→∞ 1 p si vn p . y. En conclusión F (v) = Supongamos que 1 p v p p 1. +∞ si no. d) un espacio métrico u ∈ X .p v ∈ W0 (Ω). deducimos 1. denimos y consideremos una familia de funciones denidas de X en (Γ(d) − lim inf Fn )(u) := inf{lim inf Fn (un ) : un → u}. La Γ-convergencia Γ-convergencia o A continuación introduciremos la Sea epi-convergencia {Fn }n∈N y mostraremos sus princi- pales propiedades. R. En ese caso escribimos F (u) = (Γ(d) − limn→∞ Fn )(u). Por la desigualdad de Poincaré. por lo tanto.5. n→+∞ n→+∞ y (Γ(d) − lim sup Fn )(u) := inf{lim sup Fn (un ) : un → u}.5. n→+∞ Claramente. g ∈ Lq (Ω) con 1 p + 1 q y denimos G : Lp (Ω) → R mediante G(v) := − Ω Luego. +∞ =1 si no. 1.1. un resultado de estabilidad para problemas de minimización.convergente o epi-convergente a F en u ∈ X .5.1 v(x)|p dx − Ω g(x)v(x)dx si 1. es decir.p p Kondrachov.5. se tiene que existen v ∈ W0 (Ω) y (vnk )k∈N tales que vnk → v en L (Ω). (P).p (Ω) y en particular vn 1 Φ(f ) = p Ω |f (x)|p dx es convexa v 1 p débilmente en Lp (Ω)N .2. Por ejemplo. si denimos g(x)v(x)dx. Aplicando ¯ ¯ el Teorema 1.c. la denición es equivalente a: . (vn )n ⊂ Lp (Ω) 1 Cc (Ω) una sucesión minimizante para n→∞ lim J(vn ) = inf Lp J . p p p De la arbitrariedad de las sucesiones se obtiene que ≤ F. Podemos formular el problema original como (P) Sea v∈Lp (Ω) inf J(v) ≤ J(0) = 0 < +∞. Razonando como antes podemos suponer sin pérdida de generalidad que (vn )n∈N ⊆ que (vn )n∈N supn vn p < +∞. v es una solución del problema relajado ¯ ¯ está acotada en ⊆ 1. J(v) := F (v) + G(v).i.p W0 (Ω) y supn J(vn ) < +∞ de modo que (P) v∈Lp (Ω) inf J(v). Notemos que dado u ∈ X .

Si inf F = −∞ el . Para cada sucesión un → u. En general. basta para ε > 0 consideremos uε un ε-mínimo es F: F (uε ) ≤ inf F + ε. Supongamos que (Fn + G)n∈N inf F > −∞ y Γ-convergente a F + G. Γ-convergencia se establece en el siguiente teorema y precisa su Teorema 1. n→+∞ n→+∞ se tiene que lim sup(inf Fn ) ≤ lim Fn (un ) ≤ inf F + ε. la Γ-convergencia dene una topología metrizable sobre el espacio de convergencia no implica ni es implicada las funciones inferiormente semicontinuas. existe y Fn una sucesión decreciente de funciones de R.3. es posible demostrar que si ciertas condiciones sobre F = Γ(d) − lim Fn Γ entonces F es s. se tiene que F (u) ≤ lim inf Fn (un ) .2. F y G funciones de X en R tales que F = Γ − lim Fn . un → uε tal que Tomando limn→+∞ Fn (un ) = F (uε ). n→+∞ Más aun. Ejercicio 1.c. la en por la convergencia puntual. más aun. Existe una sucesión un → u tal que F (u) = lim Fn (un ). y que bajo d. si existe una subsucesión unk ∈ arg min{Fnk + G} convergente a u ∈ X .5. de la arbitrariedad de argumento es similar. y. Demostración: El lector debe vericar que considerar el caso de G ≡ 0. es posible encontrar ejemplos de sucesiones Γ-convergentes Γ-límite X cuyo límite puntual existe en Sea X pero que no coincide con el Γ-límite. precisamente. entonces u ∈ arg min{F + G} y inf{Fnk + G} → inf{F + G}.5.5. Sean {Fn }n . INTRODUCCIÓN AL ANÁLISIS VARIACIONAL 1.26 CAPÍTULO 1. n→+∞ n∈N La principal propiedad de la naturaleza variacional. de una sucesión constante es la clausura inferior. X en Ejercicio 1. Más Más generalmente. n→+∞ 2.2. n→+∞ y tal que G es continua. concluimos que lim supn→+∞ (inf Fn ) ≤ inf F . Entonces lim sup(inf{Fn + G}) ≤ inf{F + G}. Luego. Muestre que el Γ(d) − lim Fn = cld ( inf {Fn }). ε > 0. Muestre que el Γ-límite Γ(d) − lim F = cld (F ).i.

Suponga también que la restricción de satisface la condición (WC) sobre U a rectas es continua y que V. ¯ x f : E → R ∪ {+∞} propia. de . k→+∞ de donde se sigue que F (u) ≤ lim inf inf Fk k→+∞ lo que implica.1. (b) Denamos el grafo G como Grafo(G) = {(x. De la Γ-convergencia. de G si x ∈ G(¯). Supongamos que cada x ∈ E. Muestre valores en que R ∪ {+∞} denida sobre τ y Nx (τ ) denota el f es s. y ∈ G(x) que satisface f (y) + d(y. se tiene que F (u) ≤ lim inf Fk (uk ).c. Problema 3 Diremos que (Teorema del Punto Fijo de Caristi) es un x ¯ punto jo x ∈ E. x) ≤ f (x).c. Muestre que G posee al menos un punto jo. U satisface la condición (WC) sobre un subespacio Ω⊂V si para cualquier sucesión (xn )n∈N ⊆ Ω con las siguientes propiedades: es acotada. Muestre que (a) Supongamos que existe una función tal que para cada existe un G posee al menos un punto jo. τ ) un espacio topológico y dado x ∈ X considere la función f (x) = sup{g(N ) | N ∈ Nx (τ )}.i. donde g es una función a conjunto de τ -vecindades de x. x n→+∞ n→+∞ y (a) Suponga que Muestre que V es reexivo y que U es convexa.6. . (b) Suponga ahora que es s. Pruebe que U alcanza su mínimo sobre V. U U U (x) → +∞ cuando x → +∞. y V ∗. (|U (xn )|)n∈N U (xn ) = 0 U (xn ) → 0 existe para todo en n. existe un Grafo(G) es cerrado y que existe f : E → R+ ∪ {+∞} propia tal que para y ∈ G(x) que satisface f (y) + d(y. acotada inferiormente. Problema 2. s. x) ≤ f (x).i. y) ∈ E × E | y ∈ G(x)}. Sea (X.i. junto con la primera parte del teorema. Problemas Problema 1. Diremos que Sean V un espacio de Banach y U: V → R una función Gâteaux-diferenciable. y s. Sea (E. PROBLEMAS 27 Sea uk = unk la subsucesión convergente a u tal que uk ∈ arg min(Fnk ). y acotada inferiormente.i.c. que u ∈ arg min F y que limk→+∞ inf Fnk = inf F . 1.c.6. U satisface la condición (WC) sobre V . U (¯) = 0 x y x∈X ¯ tal que lim inf U (xn ) ≤ U (¯) ≤ lim sup U (xn ). d) un espacio métrico y G : E → 2E .

y). y ) ≤ F (¯. y) ∈ xn → x yn → y existe existe yn → y xn → x tal que tal que lim supn→+∞ Fn (xn . x ¯ x ¯ entonces F (x. yn ) → (¯. (¯n . n ∈ N} hipo/epi-converge Rn × Rm se satisface 1. ¯ x ¯ x . yn ) ≤ Fn (¯n . y ). y). yn ) x ¯ tales que para cualquier (Fn ) hipo/epi-converge a F y que (x. y ) ≤ F (¯.28 CAPÍTULO 1. yn ) ≥ F (x. yn ) ≤ Fn (¯n . y) ∈ Rn × Rm se tiene que existe una secuencia de puntos Fn (x. Para cualquier 2. Diremos que una sucesión si para {Fn : Rn × cualquier (x. ¯ x ¯ x Muestre que si (¯n . y). yn ) ≤ F (x. INTRODUCCIÓN AL ANÁLISIS VARIACIONAL Problema 4 Rm → R. lim inf n→+∞ Fn (xn . Para cualquier Suponga que (Convergencia Variacional de Puntos Sillas) a una funcion F : Rn × Rm → R . y).

.. ... m.. Observemos que (i) y (ii) dicen que el conjunto de las funciones convexas en V es un cono convexo (pero no un espacio vectorial pues la diferencia de dos funciones convexas no es necesariamente 29 . (v) Si (fi )i∈I es una familia no vacía de funciones convexas de V en R.1. Demostración: Se deja como ejercicio para el lector. entonces f = sup fi es i∈I convexa.Capítulo 2 Fundamentos de Análisis Convexo 2. Entonces la función h : V → R denida por h(v) = inf g(v.. V un espacio vectorial real.. n f : V → R se dice convexa si f es convexa si. Sea Funciones convexas.. λn ∈ R+ ∪ {0} : i=1 n λi = 1 n f i=1 λi vi ≤ i=1 λi f (vi ).. Proposición 2. ∀λ1 . Sea f : V →R una función convexa. ∀v1 .1.. entonces g◦F es convexa siempre que g = g(y1 . Recordemos que una función epi f es un subconjunto convexo de V × R. (iii) Si A : W → V es lineal afín entonces f ◦ A es convexa.. (iv) Si θ : R → R es convexa no-decreciente entonces θ ◦ f es convexa. (vi) Supongamos que W es un espacio vectorial y g : V × W → R es convexa.. w) es convexa. vn ∈ V. ym ) sea no-decreciente en yi para i = 1. y sólo si. w∈W (vii) Si g : Rm → R es convexa y F : V → Rm es de la forma F (x) = (f1 (x). fm (x)) con fi : V → R convexas. ... De manera equivalente. ∀n ≥ 2. (i) Si λ ≥ 0 entonces λf es convexa.1. (ii) Si g : V → R es convexa entonces f + g es convexa. ... .

Sean (V. Teorema 2. x1 y Intercambiando los roles de x2 se deduce que |f (x1 ) − f (x2 )| ≤ ¯ 4M ε x1 − x2 . Entonces son equivalentes: (i) f está acotada superiormente en una vecindad de x0 ∈ dom(f ). Así. En espacio generales.n. . Sin embargo. de donde concluimos que 2α ε y ≤ ε y f (y) ≤ M . 2 y x1 = x2 de modo que α := x1 −x2 > 0. (ii) ⇒ (iii) y (iii) ⇒ (i) son inmediatos. Ejemplos de funciones convexas son las normas y las seminormas en Otra denición a retener es la de concavidad: Decimos que V. Sean ε > 0 y M ∈ R tales que para cada x con x ≤ ε se tiene considerar f ε que f (x) ≤ M . x1 = 2α+ε y + 2α+ε x2 y de la convexidad de f deducimos Sin pérdida de generalidad podemos suponer que (i) ⇒ (ii) f (x1 ) ≤ Luego 2α ε f (y) + f (x2 ).v. 2α + ε 2α + ε f (x1 ) − f (x2 ) ≤ Pero 2α 2α [f (y) − f (x2 )] ≤ [M − f (x2 )] 2α + ε 2α + ε 1 2 f (x2 ) 1 + 2 f (−x2 ) y se tiene que 1 0 = 1 x2 + 2 (−x2 ) de modo que f (0) ≤ 2 f (−x2 ) − 2f (0) ≤ M − 2f (0). (v) f es continua en int(dom(f )) = ∅. el siguiente resultado establece una propiedad interesante acerca de la continuidad y lipschitzianidad de las funciones convexas. (iii) f es continua en algún x0 ∈ dom(f ). (ii) f es localmente Lipschitz en x0 ∈ dom(f ). Dados x1 .1. Demostración: Probaremos que (i) ⇒ (ii) ⇒ (iii) ⇒ (i) y luego que (i) ⇒ (iv) ⇒ (v) ⇒ (vi) ⇒ (i). · ) un e. incluso si es lineal. x0 = 0 (de lo contrario basta ¯(x) = f (x + x0 )). (vi) int(epi(f )) = ∅. x2 con xi ≤ 2 i = 1. Además. −f (x2 ) ≤ f (x1 ) − f (x2 ) ≤ para algún ¯ 4α 4M [M − f (0)] ≤ x1 − x2 . una función convexa. En consecuencia. (iv) f es localmente Lipschitz en int(dom(f )) = ∅. ε ε denimos y = x1 + 2α (x1 − x2 ).30 CAPÍTULO 2. y − x1 = 2 . no es necesariamente continua.1. y f : V → R ∪ {+∞} una función convexa. FUNDAMENTOS DE ANÁLISIS CONVEXO convexa). f: V →R es (estrictamente) cóncava si −f es (estrictamente) convexa. 2α + ε ε ¯ M > 0.

. .. yε ∈ dom(f ). ¯ (iv) ⇒ (v) También es inmediato. Corolario 2. ¯ Luego. (x. El conjunto e n n los S= i=0 es una vecindad abierta de λi xi i=0 λi = 1. En efecto.. . (vi) ⇒ (i) Dados U abierto no vacío y a < b tales que U ×]a. 2 2 entonces ∀x ∈ Este resultado puede adaptarse al caso f: V →R pero hay que exigir que f (x0 ) ∈ R. un conjunto es convexo si.. a+b ) ∈ epi(f ) lo que equivale a decir que ∀x ∈ U. Sea x ∈ int(dom(f )). Sean e1 .. Sea U una vecindad abierta de x0 donde f es acotada superiormente por M y denamos Uε := 1 ε yε + U 1+ε 1+ε x. si que resulta ser una vecindad abierta de z ∈ Uε se tiene que ∃x ∈ U : z = 1 1+ε y + ε 1+ε x y por la convexidad de f f (z) ≤ de modo que 1 ε 1 ε f (y) + f (x) ≤ f (y) + M := Mε . f está acotada superiormente en Notemos que la convexidad es esencialmente una propiedad unidimensional pues depende del comportamiento en un segmento de recta. Por ejemplo.2. Demostración: Sea vectores de la base canónica de x0 ∈ int(dom(f )) de modo que ∃ε > 0 : B(x0 . En particular. f (x) ≤ a+b < +∞. f (y) < γ . (v) ⇒ (vi) Sean x ∈ int(dom(f )) y λ > f (x). y sólo si. 1+ε 1+ε 1+ε 1+ε Mε en f está localmente acotada por x. .. +∞[ ⊆ epi(f ). muchas de las propiedades de funciones convexas en pueden obtenerse de un análisis del caso Rn n = 1. su intersección con cualquier recta lo es.1. . Consideremos ε > 0 y denamos yε = x + ε(¯ − x0 ) de ¯ ¯ x 1 ε modo que x = ¯ 1+ε yε + 1+ε x0 . n} x0 . n y por convexidad f i=0 Por lo tanto λi xi ≤ max{f (xi ) | i = 0. λ) ∈ U ×]γ. ε) ⊆ dom(f ). . λi > 0. n. si f : Rn → R es convexa entonces es continua. Así.1. Luego (x. en ˆ ˆ Rn y xi := x0 + εˆi para i = 1. b[⊆ epi(f ) U. 1.1... 1.. dado γ ∈ R tal que f (x) < γ < λ.. λ) ∈ int(epi(f )).. Si f : Rn → R ∪ {+∞} es convexa y propia entonces f es localmente Lipschitz en int(dom(f )). Si ε > 0 es sucientemente pequeño.. S. Veremos que (x. 31 (i) ⇒ (iv). existe una vecindad abierta U de x tal que ∀y ∈ U. FUNCIONES CONVEXAS. i ∈ {0. n} < +∞.

cada una de las siguientes condiciones son necesarias y sucientes para que f sea estrictamente convexa en I : (i') f es estrictamente creciente en I . y sólo si. Teorema 2. dado x ∈ I . f (y) ≥ lx (y) y f (x) = lx (x). Similarmente. x] y gx (y) ≤= si y ∈ I ∩[x. Algunas funciones convexas relevantes: . ∀x ∈ I . y ∈ I con x = y. (i) ⇒ (ii) Denamos gx (y) := f (x) − f (y) + f (x)(y − x).32 CAPÍTULO 2. se tiene que ∆x (y) := f (y) − f (x) y−x es no-decreciente como función de y ∈ I \{x}. Si f : I ⊆ R → R es diferenciable en el intervalo abierto I entonces cada una de las siguientes condiciones son necesarias y sucientes para que f sea convexa en I : (i) f es no-decreciente en I . Ejemplo 2. f (y) = supy∈I lx (y) y en consecuencia f es convexa.1. Una función x0 ≤ y ≤ x1 en I se tiene que f : I → R es convexa si.1. Similarmente la convexidad estricta está caracterizada por desigualdades estrictas. ∀x. f (x) ≥ 0. (ii) ⇒ (convexidad) Sea lx (y) = f (x) + f (x)(y − x) una función lineal afín. y ∈ I . gx tiene un máximo golbal en y = x y el valor es 0.2. Notemos que gx (x) = 0 y que gx (y) = −f (y)+f (x) de modo que gx (y) ≥ 0 si y ∈ I∩]−∞. Una condición suciente pero no necesaria para la convexidad estricta es: (iii') f (x) > 0. Para la función afín lλ (y) = f (xλ ) + f ‘(xλ (y − xλ ) tenemos que f (x0 ) > lλ (x0 ) y f (x1 ) > lλ (x1 ) perof (xλ ) = l − λ(xλ = λlλ (x1 ) + (1 − λ)lλ (x0 ) luego f (xλ ) < (1 − λ)f (x0 ) + λf (x1 ). ∀x ∈ I (asumiendo que f ∈ C 2 ). FUNDAMENTOS DE ANÁLISIS CONVEXO Lema 2.1. Demostración: (convexidad) ⇒ (i) Directo del lema anterior.1. +∞]. (ii) f (y) ≥ f (x) + f (x)(y − x). (ii ) ⇒ (convexidad estricta) Dados x0 < x1 sea xλ = x0 + λ(x1 − x0 ). Tenemos que ∀x ∈ I. para todo f (y) − f (x0 ) f (x1 ) − f (x0 ) f (x1 ) − f (y) ≤ ≤ . y − x0 x1 − x0 x1 − y Luego. (iii) En caso de que f sea de clase C 2 . Sea I un intevalo. ∀x. Queda como ejercicio estudiar las otras implicancias. Demostración: Basta observar que y= x1 −y x1 −x0 x0 + y−x0 x1 −x0 x1 . (ii') f (y) > f (x) + f (x)(y − x). Así.1. En consecuencia.

· : X × Y → R tal que: ∀x ∈ X \ {0}.v. f (x) = x4 satisface que f (0) = 0 pero es estrictamente convexa.1 1. ESPACIOS EN DUALIDAD 33 f (x) = ax2 + bx + c f (x) = eax f (x) = xα en en en R cuando a ≥ 0. Una condición suciente pero no necesaria es que 2 f (x) sea denida positiva.1. Considerar g(t) = f (y + tz) con y∈U y z ∈ Rn . es semi-denida positiva ∀x ∈ U (asumiendo que f ∈ C 2 ).1 2. y = 0. Si f : U → R es diferenciable. +∞[ α ≥ 1. 0 < α < 1. y ∈ (X. y ∈ U. ∃!y ∈ Y : ∀ ∈ (Y.2. τ )∗ . x + c. y − x (ii) ∀x. entonces cada una de las siguientes condiciones son necesarias y sucientes para que f sea convexa en U : (i) ∀x.2 X y Y. una (X. Sea U ⊆ Rn un conjunto convexo y abierto.2. σ) son espacios en dualidad si existe un producto de dualidad función bilineal ·. · ∈ (Y. f (y) ≥ f (x) + 2 f (x) . . Para la convexidad estricta es necesario y suciente tener (i) o (ii) con desigualdad estricta si x = y. n que es estrictamente convexa si A ∈ Rn×n matriz simétrica A es denida positiva. y ∈ U. ∃!x ∈ X : = ·. τ )∗ ∀x ∈ X. esto es. es estrictamente convexa cuando f (x) = − ln x Notemos que en ]0. +∞[ es estrictamente convexa. Corolario 2.2 2. ∃x ∈ X : x. es estrictamente cuando a > 0. ]0. α > 1.1. es estrictamente cuando cuando a = 0. y semi-denida positiva.t. Ejercicio 2. y = x. · . ∀y ∈ Y \ {0}.1. f (x) = 1 2 Pruebe que las siguientes funciones son convexas: con x. ∀y ∈ Y. es estrictamente convexa cuando f (x) = −xα en ]0. +∞[ cuando 0 ≤ α ≤ 1. lo que muestra que (iii ) no es necesario.2. entre 1. Ax + b. x − y ≥ 0. R. Espacios en dualidad Diremos que dos e. x.c. y = 0. ∃y ∈ Y : x. .2. σ)∗ y y ∀ ∈ (X. 2. Muestre además que esta función no es estrictamente convexa. τ ). (Y. Demostración: Propuesto. (iii) f (x) − f (y). σ)∗ .l. ·. Pruebe f (x) = ln i=1 exi . f (x).

(X. por 1. caso en el que. 2. · separar puntos.34 CAPÍTULO 2. · si. Y = (X. y . 4. y ·. a modo de resumen. · ) con En las aplicaciones. · : X × X ∗ → R denido por x. ·.1 dad: (Espacios en Dualidad) . X) (X ∗ . 1.3. · ) espacios de Hilbert cuya topología esta inducida por el producto hilbertiano ·. 2. σ) dos e. . ·.n. X ∗ )) (X ∗ . y sólo si. ·. x∗ = x∗ (x). 3.1 y 1.2 equivale a que X sea un Banach reexivo. τ · )∗ = X ∗ . x1 ∈ {x | x.1 Se tiene por denición. Este caso no es el único considerado en este capítulo porque deseamos enfatizar que el análisis sólo depende de las topologías (débiles) involucradas. σ(X.1. En virtud de (2. si X e Y son e. σ(X ∗ . Sean La conjugada de Fenchel (X. Y.2 son propiedades que hacen a dirán se tiene. prácticamente la única situación útil es el caso de espacio de Banach y que: 1. · asociado a las evaluaciones. donde σ(X. y > α} ∈ τ y x2 ∈ {x | x.. tenemos (X. τ ) y (Y. 1. Ejemplo 2. (X. Y ) es la topología más pequeña que hace todos los ·.2. y continuos.v. entonces (X. · . · ) y necesariamente son separadas: dados ·. y < α} ∈ τ .t.1 Se tiene por Hahn-Banach.v.c. · . X ∗: al Teorema 2. FUNDAMENTOS DE ANÁLISIS CONVEXO Decimos que 1. que existen tiene que topología compatibles con la dualidad (X. ) es compatible con la dualidad ·. σ(X. y > α > x2 . 2. un e. Las topologías τ y σ se x1 = x2 en X se la α ∈ R y y ∈ Y tales que x1 . X es reexivo.2 Se tiene pues x∗ = 0. · ·. τ · ) es compatible con la dualidad ·.2.2 Depende de la topología en ◦ ◦ Si Si σ = τ · ∗ entonces 2. Vimos que en el caso en que la dimensión es nita y la función es diferenciable la convexidad puede caracterizarse .v. Análogamente se prueba que σ es separada. X) son espacios en dualidad. σ(Y. X) es la topología débil entonces 2.2 se cumple gracias 1. · que a su vez resulta ser el producto de dualidad. · y f: X → R una función. X ∗ . X ·. Más generalmente. · : X × Y → R una función bilineal que separa puntos.1). en dualidad ·. τ · ∗ es compatible con la dualidad es compatible con la dualidad ·. σ = σ(X ∗ .l. Y )) y (Y.3. Los siguientes son algunos ejemplos de espacios en duali- X=Y (X.

1. Dado α ∈ R. · .2. entonces x. más generalmente.3. y − f (x)}. Y compatible con la dualidad f∗ es convexa y s. para que ·. Dado sea una y ∈ Y . denida por La conjugada de Fenchel x∈X de f : X → R es la funcion f ∗ : Y → R f ∗ (y) = sup { x. i∈I y sup fi i∈I ≤ inf fi∗ . Si Y es un espacio de precios y f es una función de costos de producción. 1. Observación 2. es un espacio de bienes . f (x) + f ∗ (y) ≥ x. LA CONJUGADA DE FENCHEL 35 vía minorantes lineales anes asociados al gradiente de la función. decimos que dado y∈Y y α∈R la función lineal lα (x) = x. y } es el valor óptimo de un problema perturbado linealmente −f ∗ (y) = inf x∈X {f (x)− por − ·. y minorante lineal afín de f . Dado x0 ∈ X . y − α ≤ f (x). y . ∀y ∈ Y. Interpretaciones Geométrica.1 (Fenchel. f ∗ (y) es el menor valor α que se debe restar a ·. y . (f + α)∗ = f ∗ − α. Si (fi )i∈I es una familia de funciones de X en R entonces inf fi i∈I y 3.3. Si f ≤ g entonces f ∗ ≥ g∗ .c. si denimos fx0 (x) = f (x − x0 ) entonces fx0 (y) = f ∗ (y) + x0 . = sup fi∗ . para cualquier topología sobre ·. ∗ ∗ 2. i∈I 4. Si 3. y − f (x)} x∈dom(f ) dom(f ) = ∅. 4.1. x∈X Denición 2. La denición equivale a f ∗ (y) = incluso si 2. (λf )∗ (y) = λf ∗ ( λ ). y − f (x) es el benecio de producir x cuando los precios ∗ están dados por y y por lo tanto f (y) es el máximo benecio asociado al precio y . Se cumple la desigualdad de Young-Fenchel: ∀x ∈ X. 1. X Proposición 2. x.3. y − f (x)}. o equivalentemente α ≥ sup { x. sup { x. ∗ 5. Dado λ > 0. tal que ∃x0 ∈ X f (x0 ) = −∞ entonces f ∗ ≡ +∞. f ∗ (0) = − inf X f y que. En el caso general. Económica. y . 1949).i. Notemos que x. . y − α es una minorante de f si ∀x ∈ X. y −α Minimización.3.

si (V. Si Si Sea f (x) = exp(x) denida sobre R. Dado y0 ∈ Y . Ejemplo 2. conjugada de f : V → R denida por f (v) = ϕ( v ) está dada por Si en dualidad con V∗ f ∗ (v ∗ ) = ϕ∗ ( v ∗ ∗ ). En consecuencia si donde la última igualdad se sigue del hecho que cuando consideramos F (f ) = entonces 1 f p p p F ∗ (g) = 1 g q. Se tiene que ϕ∗ (y) = 1 |y|q con p + 1 = 1 por lo que q q 1 deducimos que si f (v) = v p entonces f ∗ (v ∗ ) = 1 v ∗ q . f ∗ (0) = 0. Ésta se conoce como la función de entropía de Boltzmann-Shannon. Un caso de particular importancia es 1 1 p ∈]1. q q . · q ). ∗ 7. +∞[ y ϕ(x) = p |x|p . f ∗ (y) = +∞. Luego f ∗ (y) = y ln y − y +∞ si si y ≥ 0. · p ) ∗ p q ∗ q entonces (V . y < 0 entonces f ∗ (y) = y ln y − y . si denimos fy0 (x) = f (x) + x. se obtiene maximizando una función cóncava diferenciable. En particular. · ) = (Lp (Ω). y < 0.n. f ∗ (y) Así. entonces la ϕ : R → R es una función convexa y (V. por lo tanto. v − ϕ(t) t − ϕ(t)} − ϕ(t)} = sup{t v ∗ t≥0 = sup{t v ∗ =ϕ ( v ∗ ∗ ) t∈R ∗ ϕ es par. v ∗ − ϕ( v )} v∈V = sup sup t≥0 v =t t ∗ ∗ v ∗ .1. FUNDAMENTOS DE ANÁLISIS CONVEXO 6.3.36 CAPÍTULO 2. Se tiene que y>0 entonces f ∗ (y) ≥ t(−y) − exp(t) → ∞ cuando t → −∞ y. entonces (f ◦ A)∗ = f ∗ ◦ A∗ −1 .v. dado v∗ ∈ V ∗ se tiene que f ∗ (v ∗ ) = sup{ v. Ejemplo 2. Si A : X → X es lineal continua y biyectiva. · ∗ ) = (L (Ω). · ) es una e.2.3. y0 entonces fy0 (y) = f ∗ (y − y0 )Demostración: Propuesto. En efecto.

i. LA CONJUGADA DE FENCHEL 37 Ejercicio 2. . Si K es un cono K = {x ∈ X | ∀y ∈ Y.3. x 1 2 es la única función con esta propiedad. Denición 2. La función soporte de está denida por ∗ σK (y) := δK (y) = sup x. Si además K es cerrado. x. x.3. donde K ⊥ = {y ∈ Y | ∀x ∈ K.1. ·. de cono polar convexo cerrado entonces (K 0 )0 = K y además 4. ω} } ω ≡ +∞. y sólo si. f es convexa. Recíprocamente.n. · ). y ≤ 0} es el K . x∈K / su función característica. que 2 x Sea . s. K = {x ∈ X | x ≤ 1} donde entonces es un e. K un subconjunto de X y δK (x) = 0 +∞ K si si x ∈ K. Proposición 2. y ≤ σK (y)}. Si 2. x. Si K = {x0 } (X.3. y ≤ σ(y)} Demostración: Propuesto.1.3.3. f ∈ Γ0 (X) si. ω ≡ −∞. x∈K Los siguientes casos son de interés 1. Si K ⊆ X es un conjunto entonces σK es convexa.i. (K ⊥ )⊥ = K . f (y) = Muestre que si f ∗ (y).v. s. y positivamente homogénea.2. A continuación deniremos dos espacios muy importantes en análisis convexo. Y. Si K es un subespacio vectorial entonces σK (y) = δK ⊥ (y). y propia.2.c. es supremo de lineales anes continuas donde Γ(X) = {f : X → R | f Γ0 (X) = Γ(X) \ {ω. y σK (y) = y ∗. y = 0} es el subespacio ortogonal a K.2. Volvamos al caso general de una dualidad (X. cualquier función σ con estas características es la función soporte del conjunto K = {x ∈ X | ∀y ∈ Y. Pruebe también 1 X = Y son espacios de Hilbert y f (x) = 2 x 2 = x. entonces Ejemplo 2. · ) K entonces σ{x0 } (y) = x0 . y .c. y . x.3 (Función Soporte). es un cono entonces σK (y) = δK 0 (y) K 0 = {y ∈ Y | ∀x ∈ K.3. Teorema 2. Si 3.

∀z ∈ X se tiene que f (z) ≥ (z) ≥ (z) + k(α − z. λ = f (x) obtenemos que x. x. λ) ∈ epi(f ). f (x) ≥ (x) > r. x ∈ dom(f ). f > −∞ y f = +∞ pues es propia. El problema es que ahora no podemos s = 0. 0)} y α ∈ R tales ∀(z. Dada f: X →R denimos la biconjugada f ∗∗ : X → R mediante f ∗∗ (x) = sup{ x. ∀k ≥ 1. y epígrafo es convexo. Razonando como antes (pues dom(f ) = φ) se tiene que existe ∈ (X. distinguir dos casos: 1. en consecuancia. de modo que su acuerdo con el Teorema que f convexa. y − f ∗ (y)}. Así. y∈Y Notemos que f ∗∗ ∈ Γ(X) y se tiene que f ∗∗ ≤ f por la Desigualdad de Young-Fenchel. Veamos la suciencia: sea propia. Consideremos (x. Estudiemos este caso: Si s = 0 ó. tomando x0 ∈ dom(f ) y λ > f (x0 ) sucientemente grande. . Basta. τ )∗ tal que ∀z ∈ X.3. y deniendo 2. y < α ≤ z. En particular tenemos que ∀z ∈ dom(f ) se cumple que x. Notemos que s ≥ 0 pues de lo contrario. cerrado y no vacío. y . ∀x ∈ X. Tomando contradeciríamos la desigualdad. y + sr < α ≤ z. y + sr < α ≤ x. s. y α y + r < ≤ z. el hiperplano es vertical y se tiene que ∀(z. x ∈ dom(f ). f (z) ≥ (z). Denición 2. entonces. x. f: X →R se tiene que lo que implica Hemos demostrado que que f ∈ Γ(X) y Notemos que dado f ∗ ∈ Γ(X). ∃ ∈ (X. s(f (x) − r) > 0 lo que implica que s>0 y que el hiperplano separador no es vertical. s) ∈ Y × R \ {(0. De / de Hahn-Banach. FUNDAMENTOS DE ANÁLISIS CONVEXO Demostración: Ya hemos demostrado la necesidad. ∀r < f (x). τ )∗ : f ≥ . λ) ∈ epi(f ).i. y + sf (x) y. + f (z) s s s f≥ y (z) := z. y ) → +∞ cuando k → +∞. r) ∈ epi(f ).3. podemos escoger (y. y + sλ. − y + s Si α s se tiene que f (x) ≥ (x) > r.c. / asegurar que s > 0 podemos razonar como en 1. y ) y (x) + k(α − x.38 CAPÍTULO 2.

Como g ∈ Γ(X) existe una de g ∈ Γ(X). A modo de resumen. g ∗∗ ≤ f ∗∗ . En general. Si ∗∗ (x) i = x. por lo que habitualmente de llama Γ-regularizada de f . o su regularizada s. yi − ri de modo que = ri +∞ yi = y.c. i = g lo que implica que g 1. si f es una función convexa. y sólo si. las únicas funciones ¯ es convexa) pero no necesariamente se tiene que f f : X → R convexas y s. si no. de entonces ¯ f ∗∗ ≤ f ≤ f.c. Luego.i. ¯ f denota la regularizada s. Como supi∈I g ≥ i se tiene que ∀i ∈ I.3. su inversa es : Γ0 (Y ) → Γ0 (X). basta probar que g anes continuas tales que g = sup i . Como ω ∗ ≡ +∞ = ω Y X y Γ0 (Y ) como transformada de Legendre-Fenchel.3. En particular. f ∈ Γ(X) Demostración: El conjunto ssi f = f ∗∗ .i. g ≤ f } ∈ Γ(X) y. que alcanzan el valor −∞ son de la forma Si f es convexa entonces ¯ f también lo es (pues f (x) = con −∞ x ∈ C.i. es uno a uno. g ∗∗ ≥ Observación 2.c. yi − ri = f : X → R. ri ) ∈ Y × R ∗ i (y) tales que si i (x) = x. por lo discutido anteriormente. ¯ epi(f ) = epi(f ) y la adherencia de un convexo ∗∗ = f . La operación . ∀x ∈ X. i (x). +∞ x ∈ C. LA CONJUGADA DE FENCHEL 39 Proposición 2.i. Si C=X se tiene que de cálculo de variaciones). entonces f = f ∗∗ si. es ω .c.3.3. hemos probado que la transformación ∗ : Γ0 (X) → X ∗ ∗ se conoce hecho. / ¯ f = f ≥ f ∗∗ ≡ −∞ y ¯ f = f ∗∗ pese a que ¯ f es convexa y s. g ∗∗ (x) ≥ ∗∗ = g . Sea g ∈ Γ(X) con g ≤ f . Γ(X) es estable bajo supremos.2. podemos encontrar (yi . De la arbitrariedad familia { i }i∈I de funciones lineales f ∗∗ ≤ h. De la dualidad. luego h = sup{g(x) | g ∈ Γ(X). Dada f : X → R se tiene que f ∗∗ (x) = sup{g(x) | g ∈ Γ(X). De ω ∗ ≡ −∞ = ω Y .2. 2. Hay ¯ veces en las cuales f es convexa pese a que f no lo es (este es el caso en algunos problemas C un convexo cerrado. g ≤ f } de modo que f ∗∗ es la mayor función en Γ(X) que minora a f . luego g ∗ ≥ f ∗ y en consecuencia ∗∗ = g . o bien f admite una minorante lineal afín continua.

dice que la derivada se anula en un punto que pasa por de mínimo o de máximo local. Denición 2. . entonces Ejemplo 2. Generalizada apropiadamente. Sin embargo. En general. más generalmente. cálculo de variaciones (Ecuación de Euler-Lagrange) hasta control óptimo. σ) compatibles con la dualidad ·. Esto signica que la recta tangente al grafo de la función diferen- f: R → R (x0 . y∈Y Supongamos que el supremo se alcanza en y0 ∈ Y y que es nito. la herramienta fundamental para obtener condiciones necesarias de optimalidad es la célebre ciable Regla de Fermat .4. es nita en 0 y no admite minorantes anes que pasen por (0. 1]. que en el caso diferenciable. en este curso consideraremos sólo funciones convexas. 1 Si f (x) = |x|. Por otra parte. la función objetivo no es diferenciable). donde la propiedad que se pretende preservar es la regla de integración por partes. f (x0 ) + x − x0 . Cuando la diferenciabilidad en el sentido clásico falla. y0 − f ∗ (x0 ) es una minorante de f que coincide con f en x0 . es decir f (x0 ) = x0 .40 CAPÍTULO 2. La denición tiene sentido para funciones más generales y algunas propiedades se mantienen. El conjunto de subgradientes se denota decimos que f es subdiferenciable ∂f (x0 ) y se llama subdiferencial de f en x0 . y0 − f ∗ (y0 ) = x − x0 .0). · y una función f ∈ Γ0 (X) f (x0 ) = f ∗∗ (x0 ) = sup{ x. f (x) ≥ x. y ≤ f (x). lo que equivale a decir que la función lineal afín continua En efecto. que van desde programación matemática. basta considerar (x) := x − x0 . Todo lo anterior nos motiva a estudiar una noción de diferenciación en el caso convexo orientada a la resolución de problemas de minimización. y0 − f ∗ (y0 ) ∈ R. El subdiferencial En análisis. τ ) y (Y. FUNDAMENTOS DE ANÁLISIS CONVEXO 2. si no que está en Γ0 (R). ∂f (0) = [−1. Diremos que y ∈ Y es un ∀x ∈ X. no basta que f (x0 ) ∈ R para que esto ocurra.4. esta regla es válida en diversos contextos. que necesita de la noción de derivada (o. Por otra parte. Daremos una versión de esta regla en el caso convexo sin hipótesis de diferenciabilidad (en muchas aplicaciones. Un ejemplo de esta situación es la teoría de distribuciones. Si ∂f (x0 ) = ∅ en x0 . y0 − f ∗ (x0 ).1. Consideremos espacios de modo que (X. de gradiente).1. f (t) = √ − t +∞ si t ≥ 0. sabemos que ∀x ∈ X . el cálculo diferencial es una herramiente muy exible en análisis. es natural preguntarse si es posible extender la noción de derivada de modo de recuperar al menos algunas de sus propiedades. Sean f : X subgradiente de f en x0 si → R una función convexa 1 y x0 ∈ X . x ∈ R. y − f ∗ (y)}.4. f (x0 )) tiene pendiente 0 si x0 es un punto extremo (mínimo o máximo local).

EL SUBDIFERENCIAL 41 Ejemplo 2. hemos probado que la transformada de Legendre coincide con la conjugada de Fenchel. f ≡ +∞.2. Las siguientes armaciones (ii) f (x) + f ∗ (y) ≤ x. Si f : X → R ∪ {+∞} es propia entonces ∂f (x) es un convexo cerrado de Y (eventualmente vacío). es posible vericar sin la hipótesis de convexidad que y = f (x) equivale a x = g(y).4. un abierto convexo no vacío y Ω ⊆ Rn U ⊆ Rn es un homeomorsmo. y − f (z) y. .2. Si Algunos casos patológicos: f (x0 ) = −∞ f (x0 ) = +∞ entonces entonces ∂f (x0 ) = Y . Proposición 2. Como f ∈ Γ0 (X) f (x) = f ∗∗ (x) lo que concluye la demostración. y ≤ f (z) lo f (x) + f ∗ (y) ≤ y. la condición tiene que Sean x ∈ ∂f ∗ (y) equivale a f ∗ (y) + f ∗∗ (x) = x. se Finalmente. y sólo si. ∂f (x0 ) = ∅ Y si si dom(f ) = ∅. Sean son equivlentes: (i) y ∈ ∂f (x).1. y − f (z) ≤ x. y − f (( f )−1 (y)).4. Bajo hipótesis apropiadas de diferenciabilidad. Si además suponemos convexidad. en consecuencia. se tiene que f ∗ (y) = g(y). Supongamos que existe un par y− x maximiza f (x) = 0 de donde por De la caracterización anterior. y . la función cóncava diferenciable z → z. Si 2. se tiene que concluimos que (i) ⇒ (ii) Dado z ∈ X f (x) + z. f : X → R ∪ {+∞} propia y x ∈ dom(f ). y) tal que y ∈ U y x ∈ ∂f ∗ (y). y . 1. transformada de Legendre f: Ω → (x. y de donde f (x) + z − x. Proposición 2.2. y . Más aun. si f ∈ Γ0 (X) entonces se cumple la y ∈ ∂f (x) Demostración: fórmula de reciprocidad de Legendre : si. Lo hicimos cuando supusimos que el supremo del cálculo de f ∗∗ se alcanzaba en y. x . (iii) f (x) + f ∗ (y) = x. x ∈ ∂f ∗ (y).4. que equivale a (ii) ⇒ (iii) (iii) ⇒ (i) Evidente de la Desigualdad de Young-Fenchel. −1 (y) ∈ Ω y deniendo la concluimos que x = ( f ) una función convexa tal que f: Ω → R g(y) := ( f )−1 (y).4.

Demostración: Como En particular. x∗ ∗ ≤ L. x − x0 ≤ f (x) ≤ f (x0 ) + L x − x0 de donde concluimos que ∀x ∈ B(x0 . Demostración: La condición f (x0 ) + f ∗ (0) = 0 equivale a inf X f = −f ∗ (0) = f (x0 ). y } = Γ−f (x) (f ∗ − x. 0 ∈ ∂f (x0 ). Proposición 2. x0 ∈ arg minX f ) si. Luego. existen ε > 0 y L > 0 tales que no puede tomar el valor −∞ y como x − x0 < ε ⇒ |f (x) − f (x0 )| ≤ L x − x0 . entonces arg min f = ∂f ∗ (0) X el cual es un convexo cerrado y acotado si f ∗ es nita y continua en 0. epi(f ) (x0 .2 Consideremos (Regla de Fermat I) . si x∗ ∈ ∂f (x0 ) tenemos que para todo x∈X con x − x0 < ε se tiene que f (x0 ) + x∗ . X)-s. x∗ . · ) es un x. x∗ .4. x∗ . f es continua en x0 .c. En particular acotado para podemos separar (no estrictamente) tal punto de tal convexo mediante un hiperplano cerrado. dom(f ) = ∅ se tiene que además f es propia. (P) Entonces.1. Sea f : X → R ∪ {+∞} inf f. Sean f : X → R convexa y x0 ∈ X tales que f (x0 ) ∈ R y Entonces ∂f (x0 ) = ∅ y es compacto para la topología débil-* σ(X ∗ . d) = lim f (x0 + td) − f (x0 ) f (x0 + td) − f (x0 ) = inf . Sea f : X → R ∪ {+∞} convexa y propia.i. · ). x o (X. x0 es una solución de (P) (es decir. ∗ Como ∂f (x0 ) es convexo cerrado en X . x−x0 ≤ L x−x0 y que. para la compacidad basta vericar que es · ∗ . Por ser f localmente Lipschitz en x0 . Aquí Γ denota el conjunto de subnivel inferior.4. ∗ tamente x (x). X una función convexa y propia. X).4. f (x0 )) no pertenece al convexo int(epi(f )) es un convexo de interior no vacío. En lo que sigue. Si además f ∈ Γ0 (X). y. se sigue el resultado.3. t→0+ t>0 t t . Es fácil ver que la "pendiente"de este hiperplano resulta ser un subgradiente de f f en x0 .42 CAPÍTULO 2. · es convexa y σ(Y. y sólo si. por lo tanto. ε). espacio de Banach en dualidad con X∗ y denotaremos indistin- Teorema 2. f es convexa y continua en x0 . FUNDAMENTOS DE ANÁLISIS CONVEXO Demostración: Tenemos que ∂f (x) = {y ∈ Y | f (x) + f ∗ (y) ≤ x. Como f ∗ − x. Teorema 2. Sean x0 ∈ dom(f ) y d ∈ X . por el Teorema de Hahn-Banach. Entonces la derivada direccional en x0 según d está denida en R mediante f (x0 .

luego 2 f (x0 + tαd1 + t(1 − α)d2 ) − f (x0 ) t α 1−α ≤ inf (f (x0 + td1 ) − f (x0 )) + (f (x0 + td2 ) − f (x0 )) t>0 t t = αf (x0 . t→0+ t→0+ t λt veriquemos que d1 . d2 ).4.4. t s Proposición 2. . td ≤ f (x0 + td). ∀y ∈ X ⇔f (x0 ) + x∗ . f (x0 . Proposición 2. 1[. d2 ). EL SUBDIFERENCIAL 43 Demostración: Sea Notemos que q(t) = f (x0 +td)−f (x0 ) . 0) = 0. d = σ∂f (x0 ) (d). d ≤ f (x0 . basta 1 f (x0 . Consideremos t 0 < t ≤ s x0 . d1 + d2 ) ≤ f (x0 . Entonces f (x0 . d 2 ∈ X probar la convexidad de f (x0 . d)} = ∂[f (x0 . ∀d ∈ X. d1 ) + (1 − α)f (x0 . t→0+ f (x0 . Sea α ∈]0.v. Para ello. d1 ) + f (x0 .5. 2 d1 + 1 d2 ). λd) = lim (iii) Dados f (x0 + tλd) − f (x0 ) f (x0 + (tλ)d) − f (x0 ) = λ lim = λf (x0 . d1 + d2 ) = 2f (x0 . d). d) = sup x∗ ∈∂f (x 0) ∈ Γ0 (X). x∗ ∈ ∂f (x0 ) ⇔f (x0 ) + x∗ . ·)](0). d ≤ f (x0 . ∀d ∈ X. ·) es una función sublineal y se tiene que ∂f (x0 ) = {x∗ ∈ X ∗ | ∀d ∈ X. y f es nita y continua en x0 . y − x0 ≤ f (y). αd1 + (1 − α)d2 ) = lim Finalmente.n.4. luego (ii) Sea f (x0 . x∗ .2. Sean (X. d). Demostración: Veriquemos la sublinealidad: (i) f (x0 . λ > 0. y veamos que q(t) ≤ q(s). Tomemos x0 ∈ X y supongamos que f x∗ .4. ∀t > 0 ⇔ x∗ . · ) un e. Bajo las condiciones de la proposición anterior. t t x0 + td = (x0 + sd) + 1 − s s de modo que por convexidad t t f (x0 + td) ≤ f (x0 + sd) + 1 − s s y se tiene que f (x0 ) f (x0 + td) − f (x0 ) f (x0 + sd) − f (x0 ) ≤ . ·) pues f (x0 .

4. yk −x0 yk −x0 → d con d = 1.n. Si f ∈ Γ0 (Rn ) y x0 ∈ dom(f ) es tal que f es continua en x0 y ∂f (x0 ) = {x∗ }. d) ∈ R. Para probar la igualdad observemos que f (x0 . ·)]∗ (x∗ ) = sup { x∗ . entonces f es Fréchet-diferenciable en x0 . yk − x0 = L. y f ∈ Γ0 (X). k→∞ yk − x0 lim Por compacidad podemos suponer que Lipschitz en torno a dk := x0 . si no = δ∂f (x0 ) (x ) Finalmente. ·) es continua en 0. Sean (X. d) ≥ supx∗ ∈∂f (x0 ) x∗ . d = x∗ .44 CAPÍTULO 2. Demostración: Basta probar que lim sup y→x0 Sea f (y) − f (x0 ) − x∗ . Como f es localmente tenemos que f (x0 + yk − x0 dk ) − f (x0 + yk − x0 d) →0 yk − x0 y en consecuencia L = lim f (x0 + yk − x0 d) − f (x0 ) − x∗ . k→∞ yk − x0 . lo que resulta de f (x0 . d . ∗ ∗ f (x0 . ·) es convexa y continua. · ) un e. Si x0 ∈ dom(f ) es tal que f es continua en x0 y ∂f (x0 ) = {x∗ } entonces f es Gâteaux-diferenciable en x0 y f (x0 ) = x∗ . ·)]∗ (x∗ )} = δ∂f (x0 ) (d) = σ∂f (x0 ) (d). d 0 Corolario 2.4. y − x0 yk → x0 . d − f (x0 . 0 0 Demostración: Se tiene que f (x0 . d = 0. tenemos que ∂f (x0 ) = ∅ y en consecuencia f (x0 . En efecto. ·) = [f (x0 .2. d) − x∗ . d) ≤ f (x0 + d) − f (x0 ) ≤ M para algún Además M > 0 y para todo d en alguna bola centrada en 0. y − x0 ≤ 0. sup x∗ ∈∂f (x 0) x∗ . d)} d∈X = 0 +∞ si x∗ ∈ ∂f (x0 ).1. yk − x0 = f (x0 . FUNDAMENTOS DE ANÁLISIS CONVEXO Demostración: Ya vimos que f (x0 . f (x0 . [f (x0 . d) = es una función lineal y continua. d) = sup { x∗ . Luego basta probar que f (x0 . x∗ ∈X ∗ Corolario 2. ∀d ∈ X . tal que L∈R este límite superior y tomemos f (yk ) − f (x0 ) − x∗ . ·)]∗∗ . De lo anterior.v. d − [f (x0 .

2. ∀x ∈ X. y ∈ U . Demostración: En virtud del ejercicio anterior. λ) ∈ X × R | g(y) < λ} = ∅ y además int(C1 ) ∩ C2 = ∅. Podemos separar int(C1 ) de C2 mediante un hiperplano cerrado que además es ∗ no vertical (vericar). 2X Notemos que. f (x) − Demostración: Propuesto. entonces x∗ − y ∗ . Además. d) = Notemos que si .1. f1 (y) + f2 (y) ≥ x∗ .6. ∂f1 (x) + ∂f2 (x) ⊆ ∂(f1 + f2 )(x). int(C1 ) = {(y. decimos que es multiaplicaciones y cuando una multiaplicación monótona. Sea U (en U). y. ∂f1 (x) + ∂f2 (x) = ∂(f1 + f2 )(x). 2 .2. y en consecuencia es el grafo de una función lineal afín (y) = −x2 . Podemos escribir la separación como ∀y ∈ X. λ) ∈ C1 ∩ C2 equivale a f1 (y) + f2 (y) = x∗ . f (y). f (x). f2 ∈ Γ0 (X) y f1 es continua en algún x0 ∈ dom(f1 ) ∩ dom(f2 ). f (x0 . Sean Sean f: X →R y λ > 0.4. Ejercicio 2. Luego. λ) ∈ X × R | f2 (x) − f2 (y) ≥ λ}. Así. ∂(λf )(x) = λ∂f (x).1. f2 (x) − f2 (y) ≤ −x∗ . entonces ∀x ∈ X. y ∗ son tales que f : X → R ∪ {+∞} es propia. y + α ≤ f1 (y) − x∗ . x∗ tales ∗ que x ∈ ∂(f1 + f2 )(x).4. Entonces Para terminar la sección estudiaremos algunas propiedades elementales del cálculo subdiferencial. Si f1 . f (x0 ). x − y ≥ 0. Pero C1 = epi(g) con g = f1 − x∗ . C2 := {(y. Sean x. probaremos sólo la contención (⊇). y ∈ U . y − x − f (x). Introduzcamos los siguientes conjuntos convexos C1 := {(y.7 (Teorema de Moreau-Rockafellar). d ≤ Proposición 2. ⊆X un abierto convexo y f : U → R una función Gâteaux-diferenciable (ii) ∀x. entonces f (x0 ). si tiene la siguiente propiedad: si x. f (y) ≥ f (x) + (iii) ∀x. · ∈ Γ0 (X) continua en x0 . f2 : X → R. λ) ∈ X × R | f1 (y) − x∗ . (y.4.4. x − y ≥ 0. ∀d ∈ X} = { f (x0 )}.4. y + α ∗ ∗ para x2 ∈ X y α ∈ R. y − x ≤ λ}. entonces ∂f : X → x∗ ∈ ∂f (x) e y ∗ ∈ ∂f (y). f ∈ Γ0 (X) es Gâteaux-diferenciable en x0 ∈ dom(f ).4. Son equivalentes: (i) f es convexa sobre U . EL SUBDIFERENCIAL 45 Observación 2. x∗ . d ∂f (x0 ) = {x∗ ∈ X ∗ | x∗ . Observación 2. Proposición 2. y − x + f1 (x) + f2 (x). y − x + f1 (x) + f2 (x). Entonces ∀x ∈ X. Las funciones del tipo A : X → 2X suelen llamarse tiene la propiedad anterior. y − x . f1 . d . en general. Tenemos que ∀y ∈ X.

3 (Regla de Fermat II). p ≥ 0. y deniendo el Cono Normal a C en x∈X por NC (x) := ∂δC (x) podemos reescribir la condición de optimalidad como 0 ∈ ∂f (x∗ ) + NC (x∗ ). u − x. u − x∗ . 0 ∈ ∂f (x∗ ) + NC (x∗ ) lo que equivale a que exista p ∈ ∂f (x∗ ) tal que (C) ∀u ∈ C. Observación 2. 2 Deniendo x∗ = x∗ − x∗ 1 2 se tiene que x∗ ∈ ∂f1 (x) 1 y x∗ + x∗ = x∗ 1 2 lo que concluye la demostración. y − x ≤ f2 (y) 2 y concluimos que x∗ ∈ ∂f2 (x). equivale a 0 ∈ ∂f (x∗ ) + ∂δC (x∗ ). La condición de optimalidad anterior es llamada Desigualdad Variacional de C y ∂f . y sólo si. x∗ ∈ C es solución de (P) si. Supongamos nita en x0 . . x∗ ∈ C es solución de inf f C si.3. x 2 y en consecuencia ∀y ∈ X : f1 (x) + −x∗ + x∗ . el concepto de desigualdad variacional es un poco más general y aparece en diversos contextos. existe ψ ∈ ∂f (x∗ ) tal que ∀u ∈ C. y hemos establecido el siguiente: Teorema 2.4.46 CAPÍTULO 2. Entonces. dado x ∈ C. y ≤ δC (u)} = {y ∈ Y | ∀u ∈ C.4. Consideremos una función x0 ∈ int(C) tal que f es f ∈ Γ0 (X) y un convexo cerrado no-vacío C . u − x∗ . Sin embargo. y sólo si. y ≤ 0}. δC (x) + u − x. Consideremos el problema de optimización (P) x∈C que existe inf f (x). se tiene que NC (x) = {y ∈ Y | ∀u ∈ X. y − x ≤ f1 (y) 2 lo que implica que −x∗ + x∗ ∈ ∂f1 (x) 2 y análogamente ∀y ∈ X : f2 (x) + x∗ . Luego. de acuerdo con el Teorema de Moreau-Rockafellar. (P) si y sólo si x∗ es solución de 0 ∈ ∂(f + δC )(x∗ ) lo que. Además. FUNDAMENTOS DE ANÁLISIS CONVEXO Tomando y=x deducimos que α = x∗ . ψ ≥ 0. Sea f ∈ Γ0 (X) y C un convexo cerrado no vacío y supongamos que existe x0 ∈ int(C) tal que f es nita en x0 . que equivale a x∈X De la Regla de Fermat se sigue que inf {f (x) + δC (x)}.

z − x ∈ Y × R | z ∈ X} que resulta ser un hiperplano cerrado de Y × R. f (Ax) + y ∗ . donde A∗ denota el adjunto de A. Si A : X → Y es una función lineal continua y f ∈ Γ0 (Y ) entonces f ◦ A ∈ Γ0 (X) y si f es continua en algún y0 ∈ dom(f ) entonces ∂(f ◦ A)(x) = A∗ ∂f (Ax). f (Ax) + x∗ . z − x ≤ (f ◦ A)(z) y se tiene que A∗ y ∗ ∈ ∂(f ◦ A)(x). z − x = f (Az) = λ.4.8. λ) ∈ S ∩ epi(f ) si. Ax y así (y) = y ∗ .4. Por denición. Demostración: Sea y ∗ ∈ ∂f (Ax). y sólo si. (f ◦ A)(x) + A∗ y ∗ . . y − Ax ≤ f (y) y ∀z ∈ X. en particular.2.2. podemos separar La separación implica que ser no vertical y. f (Ax) + y ∗ . Como f es convexa y continua en ∅. ∃z ∈ X : Az = y. Sean X. Denimos S := {(Az. A∗ ∂f (Ax) ⊆ ∂(f ◦ A)(x). f (Ax) + y ∗ . ∀y ∈ Y. z − x ≤ f (Az). En consecuencia. Por lo tanto ∀y ∈ Y. Az + α ≤ f (Az) de donde α = f (Ax) − y ∗ . ∀z ∈ X. Luego ∂(f ◦ A)(x) ⊆ A∗ ∂f (Ax). Esto equivale a ∀z ∈ X. luego ∀z ∈ X. Así. z − x ≤ A∗ y ∗ . Notemos que (y. A(z − x) ≤ f (Az). Obtenga la condición de optimalidad para el problema x∈X inf {f (x) + δC (x)} f es diferenciable. sea x ∈ ∂(f ◦ A)(x). y0 ∈ Y . Y ∗ respectivamente. y − Ax + f (Ax). cuando se satisfacen las hipótesis de la proposisción anterior y Proposición 2. EL SUBDIFERENCIAL 47 Ejercicio 2. f (Ax) + x∗ . Y dos espacios de Banach en dualidad con X ∗ .4. y − Ax ≤ f (y) y. ∀x ∈ X. x∗ . y + α con y ∈ Y y α ∈ R. f (Ax) + x∗ . z − x ≤ y ∗ . ∗ Recíprocamente. por lo tanto. f (Ax) + x∗ . z − x condiciones que implican que y ∗ ∈ ∂f (Ax) y x∗ = A∗ y ∗ ∈ A∗ ∂f (Ax). tenemos que int(epi(f )) = ∅ y obviamente S∩int(epi(f )) = S de int(epi(f )) mediante un hiperplano cerrado que resulta ∗ ∗ el grafo de una función lineal afín (y) = y .

entonces (b) ( Teorema de Carathéodory ) Demuestre que si X n+1 es de dimensión nita igual a n+1 co(A) = i=1 (c) Pruebe que si λi vi vi ∈ A. . se tiene que [ Γλ (f ) ]∞ = { d ∈ X | f∞ (d) ≤ 0 }. Si Demuestre que C∞ = { d ∈ S∞ S de X . · ) es de Banach y K ⊆V es compacto.48 CAPÍTULO 2.t.2. . A n ⊆ X también lo es. Problemas Sea Problema 5. Deduzca que si todo (V. entonces f∞ (d) > 0 d=0 (compare con el Teorema 1. coA ¯ es compacto.v. A es abierto. C⊆X es un convexo. A Envoltura Convexa Cerrada co(A) = de A coA = cl(A).5. i∈I 3. y supongamos que A es totalmente acotado. vi ∈ A.n. λi ≥ 0. entonces para A ⊆ K . se tiene que f∞ (d) = lim t→∞ f (x + td) − f (x) f (x + td) − f (x) = sup . i=1 λi = 1 n. entonces cl(C) también lo es.v. . A ⊆ C}. cerrado y no-vacío S | fi (x) ≤ 0 ∀i ∈ I }. denotamos por f∞ la función de recesión de f . FUNDAMENTOS DE ANÁLISIS CONVEXO 2. . entonces co(A) int(C) también lo es. 4. Pruebe que sup fi i∈I ∞ = sup {(fi )∞ } . λ > inf f . para todo f es inf-compacta. . n (a) Pruebe que n λi vi i=1 n ∈ N. Consideremos un subconjunto convexo. λi ≥ 0. X un e. y todas las funciones están en Γ0 (X). X es un e. Deduzca que co(A) = (d) Pruebe que si entonces {C |C es un convexo cerrado. En lo que sigue.v. t t t>0 2.n.2). Pruebe que es total- mente acotado. Para todo 5. Dado A⊆X denimos la Envoltura Convexa ⊆ C} de A como co(A) = y la {C |C como es un convexo. Siguiendo la Denición ??. C⊆X es convexo. A1 . i=1 λi = 1 . Denimos C = { s ∈ | (fi )∞ (d) ≤ 0 ∀i ∈ I }. Problema 6. (f ) Sea son convexos y compactos. · ) un e. Para todo d∈X y cualquier x ∈ dom(f ). Muestre que si (e) Muestre que si compacto. 1. entonces co(A1 ∪ · · · ∪ An ) co(A) es (V.

t. · ) un e. ¯ e. Muestre que si existe x0 ∈ S f + δS ∈ Γ0 (H) y se tiene (f + δS )∗ = (f ◦ PS )∗ ◦ PS . ·. Verique que f ∗ (x∗ ) = 2 x∗ 2 de modo f es la única función en Γ0 (H) con esta propiedad. f es coerciva. y f ∈ Γ0 (V ). x ¯ x x Efecto Regularizante ) Suponga que xi ¯ f∗ g es subdiferenciable en lo es en son los considerados en la parte anterior. Más aún. (a) Sea que Sea (H. x ¯ x x x = x1 + x2 . (a) Pruebe que (b) Sea f∗ g es convexa.v.2. con dom(f∗ g) = dom(f ) + dom(g). donde PS : H → H es la proyección ortogonal sobre S. x 1 2 . ¯ ¯ ¯ (f∗ g)(¯1 + x2 ) = f (¯1 ) + g(¯2 ). son tales que (c) Pruebe que si entonces (d) ( x1 ∈ dom(f ) y x2 ∈ dom(g) ¯ ¯ ∂(f∗ g)(¯1 + x2 ) = ∂f (¯1 ) ∩ ∂g(¯2 ). Dadas dos funciones convexas f. 1 1 f (x) = 2 x 2 . · ) un espacio de Hilbert en dualidad con H∗ (que identicamos con H ). (c) Supongamos que f (x) = 1 2 Ax. R.v. (i) Sea (V. . x +∞ si x∗ ∈ ImA + S ⊥ . Asumiendo muestre que que f∗ g es Gâteaux-diferenciable en x ¯ si g x2 ¯ con (f∗ g)(¯) = x Muestre que si además Fréchet-diferenciable en g(¯2 ). · ) una dualidad entre e.n. x x2 . Pruebe que las siguientes armaciones son equivalentes. lim inf x →+∞ f (x) x > 0.c. ·. La equivalencia entre (i) y (iii) se conoce como Teorema de Moreau .e.n. PROBLEMAS 49 Problema 7. tal que f (x0 ) < +∞. · ) es un x. si no. y ∈Y. en dualidad con V ∗.v.v.5. que f = f ∗. y g es Fréchet-diferenciable en Problema 9. cerrado. Y. 0 ∈ int(dom(f ∗ )). con (PS ◦ A ◦ PS )(x) = x∗ . Pruebe que (f + δS )∗ (x∗ ) = x∗ .l. g : X → inf-convolución de f y g mediante (f∗ g)(x) := inf{f (x1 ) + g(x2 ) | x1 + x2 = x}. (ii) Existe (iii) (iv) α>0 y β∈R tales que para todo v ∈ V . Problema 8. se dene la Sea (X. f (v) ≥ α v + β . entonces f∗ g ¯ es (X. muestre que (f∗ g)∗ (y) = f ∗ (y) + g ∗ (y). con A: H → H un operador lineal continuo autoadjunto y semi-denido positivo. demuestre (b) Sean entonces f ∈ Γ0 (H) y S ⊆ H un s.

positivamente homogénea. FUNDAMENTOS DE ANÁLISIS CONVEXO Problema 10. Muestre que ∂f (x) f f es además Gâteaux-diferenciable. v) y que. v) es s.) . Pruebe v → f 0 (x. ˆ ˆ f (x) ∈ ∂f (x). (c) Denimos el conjunto de Subgradientes Generalizados mediante ˆ ∂f (x) = {y ∈ X ∗ | f 0 (x. (b) Muestre que continua de f 0 (x. ˆ ∂f (x) es no-vacío y convexo. (d) Pruebe que si y ∗ ≤ K. v)| ≤ K v . Denimos la Derivada Direccional Generalizada de f en x en la dirección v mediante f 0 (x. t y→x. como función sólo de v .t→0+ sup X. Muestre que ∀v ∈ X}.c. Pruebe que ˆ ∀y ∈ ∂f (x). entonces f (x). es Lipschitzconstante K . v . Sea X un espacio de Banach y sea f una función localmente Lipschitz en x ∈ X . y subaditiva en |f 0 (x. entonces puede contener otros puntos además de (e) Pruebe que si es convexa.s como función de (x. v) = lim (a) Muestre que además que f (y + tv) − f (y) . coincide con el subdiferencial estudiado a lo largo ˆ ∂f (x) del capítulo (que se conoce usualmente como el subdiferencial de Análisis Convexo. v) es nita. v) ≥ y.50 CAPÍTULO 2.

Problema Primal Y y que una función o ∗ respectivamente. si no se tiene que dada por f ∈ Γ0 (X).Capítulo 3 Dualidad en Optimización Convexa 3. X = Rn y c ∈ Rn .1. x∈X Notemos que v(0) = α.1. con v(y) = inf ϕ(x. y) = cT x + δRm (Ax − b + y). b ∈ Rm y A ∈ Mn×n (R). (P) con min{cT x | Ax ≤ b}. es una (P) ϕ(x. Sea Ejemplo 3.1 (Programación Lineal I). ∀x ∈ X . ϕ le asociamos la función marginal función de perturbación función valor denida ϕ ∈ Γ0 (X × Y ). Tomando f (x) = cT x + δRm (Ax − b) = − cT x +∞ si Ax ≤ b. Introducimos la función de perturbación ϕ : Rn × Rm → R ∪ {+∞} ϕ(x. 0) = f (x). si Diremos que (P) es el A X. − 51 . y). Problemas Perturbados Consideremos el problema de minimización convexa (P) α := inf f X donde f ∈ Γ0 (X). Y para por ∗ espacios de Banach en dualidad con X .

1. . Por analogía.1. Para cada y∗ tiene que w∗ (x) = ϕ(x. dado x ∈ X .. basta que sea convexa. y ∗ ) = sup (x∗ − c)T x + y ∗T y | x ∈ Rn .. Lema 3. x∗ = c + AT y ∗ . DUALIDAD EN OPTIMIZACIÓN CONVEXA Es fácil ver que ϕ ∈ Γ0 (Rn × Rm ). Observación 3. (P) en la teoría de programación lineal. . . el problema de optimización (D) β := ∗inf m ϕ∗ (0. ∈ Y∗ se tiene que v∗ (y∗ ) = ϕ∗ (0. si no. Ejercicio 3. Ax + b − y ≤ 0 = = = +∞ supx∈Rn (x∗ − c)T x + y ∗T (b − Ax) +∞ supx∈Rn {(x∗ − c − AT y ∗ )T x} + y ∗T b bT y ∗ +∞ si si si ∃i ∈ {1. i = 1. ∃i ∈ {1. p} Rn en f y (gi )i son funciones convexas de R.1. y ∗ ≥ 0. Calcule el problema dual de (P) perturbando el objetivo primal de manera análoga al ejemplo de Programación Lineal I.. y ∈Y Observemos que si repetimos el procedimiento anterior obtenemos el Problema Bidual (DD) inf ϕ∗∗ (x∗ . m} y∗ ≥ 0 si si tal que ∗ yi < 0. programa convexo x∈Rn (P) donde inf {f (x) | gi (x) ≤ 0. 0) x∈X el cual coincide con el primal (P) si suponemos que y ϕ ∈ Γ0 (X × Y ) pues en este caso ϕ∗∗ = ϕ. Por otra parte.1. si ϕ ∈ Γ0 (X × Y ) no necesariamente se tiene que Considere el v ∈ Γ0 (Y ). y ∗ ).. En particular. llamamos bación Problema Dual de (P) relativo a la pertur- ϕ : X × Y → R ∪ {+∞} al problema de minimización (D) β := ∗inf ∗ ϕ∗ (0. . m} y∗ ≥ 0 tal que ∗ yi < 0. Muestre que v: Y → R w : X∗ → R ϕ son funciones convexas.1.2. Ejercicio 3. Análogamente.52 CAPÍTULO 3.1.1. Volvamos al caso general. y ∗ ) = y ∈R corresponde al Dual clásico de AT y ∗ +c=0. se . y ∗ ) y ∈Y el cual tiene asociado de manera natural la función de perturbación pondiente función valor ϕ∗ ∈ Γ0 (X ∗ × Y ∗ ) y la corres- w(x∗ ) := ∗inf ∗ ϕ∗ (x∗ . y ∗ ≥0 min bT y ∗ . 0). Para lo anterior.. . Observemos que ϕ∗ : Rn × Rm → R ∪ {+∞} se calcula mediante ϕ∗ (x∗ . . y ∗ )..

y sólo si. Demostración: Observemos primero que −v ∗∗ (0) = − sup −v ∗ (y ∗ ) = ∗inf ∗ v ∗ (y ∗ ) = ∗inf ∗ ϕ∗ (0. 0 + y. Como α + β = v(0) + w(0) = 0 entonces α+β = 0 si. Sea no hay salto de dualidad .1.y∈Y ∗ ∗ = ϕ (0. y ∗ − inf ϕ(x. 3.c.1. Proposición 3. f : Y → R ∪ {+∞} es convexa y acotada inferiormente.c. si Si o f admite una minorante lineal afín continua. v la regularizada s. y ).c. w es 2. si f: Y →R es convexa. Tenemos que v ∗∗ ≤ v ≤ v con v convexa y s. y)} y∈Y x∈X = sup { x. entonces f = f ∗∗ ⇔ f = −∞ En particular. Observación 3.1.i. Corolario 3.3.i.i. Una condición necesaria y suciente para que inf(P) + inf(D) = 0 es que v sea s. luego α + β = +∞ − ∞ = +∞ y el salto de dualidad es innito. y nita en 0 . 1. lo cual es cierto si ϕ es convexa Γ0 (X × Y )). La equivalencia anterior sólo requiere que (aunque no esté en equivalencia v sea convexa.3. PROBLEMAS PERTURBADOS 53 Demostración: Basta vericar la fórmula para v∗. y nita en 0. esta condición por sí sola no basta para la cuando v se reemplaza por w (ver parte 1. s.i.2. es decir v ∈ Γ0 (Y ) y en ∗∗ y en particular −β = v ∗∗ (0) = v(0) = α ∈ R. en 0. y ∗ − ϕ(x. . consecuencia v = v Mostremos ahora la necesidad. Sin embargo. Recordemos que. v(0) = v(0) ∈ R de modo que v es propia. v ∗∗ ≤ v ≤ v con v ∗∗ s.i.2. y)} x∈X. y tenemos que v(0) = v ∗∗ (0) ≤ v(0) ≤ v(0) de modo que v es s. y ∗ − v(y)} y∈Y = sup{ y.).1. Además. Como α + β = 0 necesariamente α y β son nitos y en consecuencia v(0) ∈ R. En ese caso decimos que Demostración: Veamos la suciencia. Además.c. de acuerdo con la Observación 2. de v .c. entonces f = f ∗∗ . y ∗ ∈Y ∗ y ∈Y y ∈Y Como v ≥ v ∗∗ se sigue que α + β = v(0) − v ∗∗ (0) ≥ 0. v(0) = −∞ entonces v ∗∗ (0) = v(0) = −∞. Dado y∗ ∈ Y ∗ tenemos que v ∗ (y ∗ ) = sup{ y.c. Se tiene que −v∗∗ (0) = β = inf(D) y en particular inf(P) + inf(D) ≥ 0.1.1.i. y ∗ ) = β.

entonces (0) = v (0) de modo que siempre se tiene que ∂v(0) = ∂v (0). si ϕ(x0 . Demostración: Obviamente v(0) ∈ R. z ∗ ) ⇔ ∀z ∗ ∈ Y ∗ . ." Comentario: Notemos que y ∗ ∈ ∂v(0) es equivalente a 0 ∈ ∂v ∗ (y ∗ ) Y y esta condición es la que da la Regla de Fermat para el problema al asegurar que inf Y ∗ v ∗ . Un caso patológico se tiene cuando v(0) = −∞.2. Corolario 3.1. Si además ∂v(0) = ∅. si w(0) ∈ R y ∂w(0) = ∅ entonces S(P) = ∂w(0) = ∅ y no hay salto de dualidad. que es una información de primer ∗ orden sobre la función marginal primal. con v continua en 0.i. y ∗ ) ≤ ϕ∗ (0.2. Supongamos que ϕ ∈ Γ0 (X × Y ) y que existe x0 ∈ X tal que ϕ(x0 . pero β = w(0) = +∞ de modo que el dual es infactible. si. ·) es continua en 0 respecto a · con (Y. · ) un espacio de Banach. DUALIDAD EN OPTIMIZACIÓN CONVEXA Proposición 3. Si S(D) = {y } entonces v(0) = y ∗ . ∗∗ (0). si v es continua y nita en 0. z ∗ − v ∗ (z ∗ ) ⇔ −v ∗ (y ∗ ) = v ∗∗ (0) ⇔ y ∗ ∈ ∂v ∗∗ (0). entonces S(D) = ∅ es acotado. Entonces. Probemos ahora la equivalencia. y ∗ ∈ S(D) ⇔ ∀z ∗ ∈ Y ∗ . ϕ(x0 . Pero ≤ v ∗∗ ≤ v de modo que v ∗∗ (0) = v(0) y en consecuencia ∂v(0) = ∂v ∗∗ (0) = S(D). Para la necesidad. o bien v(0) = −∞ y el dual es infactible. En particular. Así. Se tiene que ciente para que es S(D) = ∂v ∗∗ (0). :X →R convexa y continua en Observación 3. Si v(0) ∈ R y ∂v(0) = ∅ entonces S(D) = ∂v(0) = ∅ y además inf(P) + inf(D) = v(y) ≥ v(0) + y ∗ . En tal ∗ caso. Demostración: Notemos que ∂v(0) = ∅. Si entonces Del mismo modo. en 0 implica que v(0) = v ∗∗ (0). · en tenemos que el problema dual admite v es continua en 0 con respecto a solución y además S(D) = ∂v(0) = ∅ es acotado. S(D) = ∅ v(0) ∈ R. ∗∗ ∗∗ más aun. y .1.t.l.c. Tenemos que es una minorante lineal-afín continua de v si y sólo si lo es de v ∗∗ y. y por lo tanto inf(P) + inf(D) = 0. notemos que v(0) ∈ R y v s. se cumple la propiedad "f f es acotada superiormente de manera uniforme en una vecindad de x0 . x0 ∈ X entonces v es continua en 0 y luego Si v(·) ≤ ϕ(x0 . entonces existe minorante lineal-afín v tal que (0) = v(0). una condición necesaria y su- inf(P) + inf(D) = 0. se deduce que ∂v(0) = ∂v ∗∗ (0) = S(D) = ∅.1. X es e.1 (Teorema de Dualidad). Mostremos la suciencia.c.e. α + β = 0 y S(D) = ∂v(0) = ∅. ·) es acotada superiormente en una vecindad de 0). ·) implica que v es acotada en una vecindad de 0. entonces ∂v(0) = ∅. que no es otra cosa que el problema dual.v. Interpretación: y ∗ ∈ S(D) Teorema 3. −v ∗ (y) ≥ 0. ϕ∗ (0.c. o bien v(0) ∈ R.i. Así. Si continua de 0. y sólo si. En particular. Si además v(0) = v ∂v(0) = ∅ y v(0) ∈ R.54 CAPÍTULO 3.1.3. ·) es nita y continua en 0 (i. En particular. si (0) = v(0). ∂v(0) = Y . S(D) = ∅ y además v(0) = v(0) = v ∗∗ (0) de modo que v es s.

si (P) o (D) tiene valor óptimo nito. inf(P) = − inf(D) = 0 y las soluciones de (D) y (P) satisfacen las condiciones de extremalidad. 0) = inf(P) = − inf(D) = −ϕ∗ (0. Supongamos que (X. S(D) = ∂v(0) es no-vacío y compacto. ∀¯∗ ∈ S(D) se tiene que x y ϕ(¯. En ese caso α = inf(P) = − inf(D) = min(D) ∈ R y el mínimo se alcanza. Ejemplo 3. para cT x + bT λ = 0. x ¯ Aλ + c = 0. y∗ ) ∈ ∂ϕ(¯. λ ≥ 0}. · ) es un espacio de Banach reexivo. x lo que prueba la condición de extremalidad. λ ∈ S(D) satisfacen ¯ Entonces. de manera equivalente. se tiene que si λ ≤ . en efecto. en consecuencia. 0) + ϕ∗ (0. si (¯. entonces ϕ(x0 . y ¯ ¯ Demostración: Tenemos que ϕ(¯. ¯ y y ∗ ∈ S(D). λ) = cT x + δRm (Ax + λ − b) ∈ Γ0 (Rn × Rm ) − obtuvimos que (D) Evidentemente λ∈Rm min {bT λ | AT λ + c = 0. > 0 sucientemente pequeño. S(D) es no-vacío (y acotado si (Y. entonces ∀¯ ∈ S(P). v es nita y continua en una vecindad de 0 y. inf(P) ≤ ϕ(¯. y ∗ ) ≤ − inf(D).1. y que x →+∞ lim ϕ(x. ·) es nita y continua en una vecindad de 0. entonces x ∈ S(P). 0) = −ϕ∗ (0. (0. ·) es nita y continua en 0. y ∗ ) = 0 x ¯ o. . Recíprocamente. λ) = cT x de modo que ϕ(x0 . que ϕ ∈ Γ0 (X × Y ) y x0 ∈ X son tales que ϕ(x0 . y sólo si. PROBLEMAS PERTURBADOS 55 Proposición 3. ¯ Notemos que A¯ ≤ b. 0) = +∞. Entonces.3 (Condición de Extremalidad). S(P) es acotado si. satisface esta relación. · ) es de Banach) . ϕ(x. Si (P) y (D) admiten soluciones y no hay salto de dualidad.3. ¯ λ ≥ 0. ∀d ∈ Rn . Recíprocamente. x ¯ lo que implica que no hay salto de dualidad y x ∈ S(P). x0 ∈ Rn que satisface la Slater : inf(D) ≥ inf(P). 0).1. Supongamos que existe Condición de Ax0 < b. Recapitulando. ¯ Corolario 3. entonces el otro también y las soluciones ¯ x ∈ S(P). se tiene que {x ∈ Rn | Ax ≤ b} = ∅ y S(P) = {x ∈ Rn | Ax ≤ b} ∩ {x ∈ Rn | cT x = α} y si S(P) = ∅ entonces existiría α < α tal que [Ax ≤ b] ∩ [cT x ≤ α ] = ∅ lo que es una contradicción. y ∗ ).2 (Programación Lineal II). y∗ ) ∈ X × Y ∗ es un par que ¯ x x ¯ ∗ ∈ S(D) y se tiene que inf(P) + inf(D) = 0.3.1. Teníamos que (P) y tomando x∈Rn min {cT x | Ax ≤ b}.1. Así. [cT d = 0. Ad ≤ 0 ⇒ d = 0]. S(P) es no-vacío y acotado.

gi .µ)∈Rp ×Rq ) inf sup L(x. donde hj (x) = 0. p. DUALIDAD EN OPTIMIZACIÓN CONVEXA 3.... µ∈Rq + { λ. i = 1.µ)∈Rp ×Rq ) x∈X sup inf L(x. .. h(x) = (hj (x))q y Rq = {λ ∈ Rq | λi ≥ 0. . (P) es equivalente a (P) x∈X (λ. hj (x) = 0. λ. j = 1. ... p.. sup λi gi (x) = λi ≥0 y 0 +∞ 0 +∞ p si si gi (x) ≤ 0. µ) = Tenemos que el problema f (x) + λ. µ). Lema 3. g(x) + µ.1. q}. h(x) −∞ λ ∈ Rp .. hj : X → R.... q} f. µ).. h(x) donde g(x) = (gi (x))p .. + no. (P) equivale a (P) En lo que sigue suponemos que inf[f + δC ]. α ∈ R. . + i=1 j=1 Demostración: Obviamente. µ∈Rq +    λi gi (x) + i=1 j=1   µj hj (x) . Dualidad Lagrangeana Consideremos el siguiente problema de programación matemática (P) α := inf{f (x) | gi (x) ≤ 0.  La Función Lagrangeana o Lagrangeano de (P) es la función L : X × Rp × Rq → R si si denida mediante L(x. q}. . q sup µj hj (x) = µj ≥0 de modo que si si δC (x) = sup λ∈Rp . λ. j = 1.2. i = 1.2. Denimos el problema dual al intercambiar  inf  con  sup en la formulación Primal (D) γ := (λ.. gi (x) > 0. Sea C = {x ∈ X | gi (x) ≤ 0. i = 1. hj (x) = 0. de modo que hj (x) = 0.. . Para cada x ∈ X se tiene que δC (x) = sup λ∈Rp . g(x) + µ. λ.56 CAPÍTULO 3.

λ. λ. µ) = L(ˆ. λ. λ. x x ˆ ˆ λ. λ. µ) ≤ sup sup (λ. µ) ≥ α = inf entonces x∈X (λ. α = γ. DUALIDAD LAGRANGEANA 57 En general.µ)∈Rp ×Rq ) L(x. µ) ∈ Rp × Rq .µ . µ) ≤ sup L(ˆ. µ) = f (ˆ) + δC (ˆ) = α = L(ˆ. λ. como ¯ ¯ L(x. µ). µ) entonces necesariamente ˆ ˆ inf L(x. λ. x ˆ ˆ ∀x ∈ X. λ. Si eventualmente α = γ. Por otra parte. x ∈ S(P) ˆ x ˆ es solución de ˆ ˆ ˆ (P) α = inf L(x.µ de modo que y además x∈X γ = α. µ). λ. se tiene que ¯ ¯ L(x. Proposición 3. i = 1. µ) ≤ inf de donde x∈X (λ. µ) = α..µ (ii) ⇒ (i) Tenemos que γ ≤ α ≤ sup L(ˆ.2. λ. µ) ≤ γ. λ. (D) tiene una solución γ ≤ α. µ) = α. λ. µ). µ). λ. x ˆ ˆ L(ˆ.2..1. µ) = L(ˆ. λ.. λ. x∈X y el problema dual ˆ ˆ (λ. λ.3. Evidentemente. ∀(λ.µ x∈X λ. λ.µ)∈Rp ×Rq sup L(x. ˆ ˆ L(ˆ. µ). µ) ∈ de (P). λ. µ) = γ = α y como dado x∈X tenemos que sup (λ. λ. p. ˆ ˆ (i) x es una solución de (P) y (λ.µ)∈Rp ×Rq y deducimos que si ˆ ˆ L(x. µ) ≥ L(x. λ. f (ˆ)+δC (ˆ) = sup L(ˆ. λ. λ. λ. µ) ≤ γ. ˆ (ii) (ˆ. Un par Rp + × Rq con estas propiedades se llama Multiplicador de Lagrange ˆ ˆ (λ. x x x ˆ λ. λ. µ) ≤ L(x. x Demostración: (i) ⇒ (ii) Tenemos que x ˆ es solución de (P) de modo que ∀x ∈ X. µ) ≤ sup L(ˆ. µ) ≤ L(x. Las siguientes son equivalentes. µ) es un punto silla del Lagrangeano de (P). Sin embargo. x∈X problema que es interesante pues es un problema de minimización sin restricciones. µ) = inf L(x. .µ γ = sup inf L(x. x x ˆ ˆ λ. x x ˆ ˆ Ambas armaciones implican la condición de complementariedad ˆ λi gi (ˆ) = 0. es decir. µ) ≤ L(ˆ. x x x x x ˆ ˆ λ. λ. µ). µ) es un multiplicador de Lagrange de (P) con α = γ .µ)∈Rp ×Rq ) L(x. ˆ ˆ L(ˆ. de modo que x ∈ S(P).

y ∗ ). y ∗ → L(x. Tenemos (P) α = inf sup L(x. .s. h(ˆ) = f (ˆ) + λ. . Volveremos a este problema más adelante. µ) = f (ˆ) + λ. DUALIDAD EN OPTIMIZACIÓN CONVEXA lo que implica que (λ. y ∗ ) es cóncava. (hj )j muy regulares. y ∗ ∈Y ∗ y ∈Y Por otra parte. x Como g(ˆ) ≤ 0 x y λ≥0 concluimos que λi gi (ˆ) = 0. x∈X Por otra parte. µ). incluso cuando ϕ ∈ Γ0 (X × Y ). . .c. 0). de Y ∗ en R. y∈Y Luego. y ∗ ∈Y ∗ Entonces. y − ϕ(x. g(ˆ) = 0. Más aun. s. y ∗ ) = − sup sup{ y ∗ . y ∗ ) es convexa. y ∗ ) = sup{ y ∗ . x∈X y∈Y es equivalente a (D) (D) γ = sup −ϕ∗ (0. x∈X lo que conduce a que inf L(x.2. . si y ∗ → −L(x.i. y − ϕ(x. y)} = [ϕ(x.58 CAPÍTULO 3. ·)]∗ (y ∗ ). g(ˆ) + µ. y ∗ ) = −β. entonces ∀y∗ ∈ Y ∗ . incluso para f. Pero. y + L(x.1. y∈Y Lema 3. y ∗ )} = (−L(x. y ∗ ∈Y ∗ x∈X Denamos ϕ : X × Y → R ∪ {+∞} mediante ϕ(x. (gi )i . y propia. s. y ∗ ) x∈X y ∗ ∈Y ∗ y (D) γ = sup inf L(x. y∗ ) es convexa de X en R. ¾cuál es la relación con la dualidad vía perturbaciones? Sea Y ∗ := Rp × Rq y denotemos y∗ = (λ.2. y ∗ ) = − ∗inf ∗ ϕ∗ (0. ·))∗ (y). y)}. λ. datos La existencia del multiplicador de Lagrange no siempre se tiene. g(ˆ) . y ∗ ) := sup{ y ∗ . y)} = −ϕ∗ (0. ∀x ∈ X. i = 1. x Observación 3. (P) es equivalente a (P) α = inf ϕ(x. ˆ tenemos que f (ˆ) = L(ˆ.c. x → L(x.i. x x ˆ ˆ x x x x x de modo que λ. y) := sup { y ∗ . entonces −L(x.2. como necesariamente x ∈ C.. pero no necesariamente es s. y ∗ ). dada una función de perturbación Lagrangeana ϕ : X × Y → R ∪ {+∞} se dene la función L: X × Y ∗ → R mediante −L(x. µ) ∈ S(D). y − ϕ(x. Si ϕ es convexa. p.c.

y) − y ∗ . y ∗ ).2. ϕ∗ (0. y∗ ) ∈ X × Y ∗ es un punto silla de L ( con L(ˆ. y ∗ )}. y − ϕ(x. 0) = inf sup L(x. x − L(x. y ∈Y y ∗ ∈Y ∗ x∈X Similarmente. ϕ(x.3. y∗ es solución de (D) y α + β = 0. ·) = [ϕ(x.y)} x∈X ∗ x∈X de donde y∈Y = sup { x . DUALIDAD LAGRANGEANA 59 Demostración: Por denición −L(x. y ∗ ) y∈Y y∈Y con Φ convexa. ·)]∗ (·) ∈ Γ(Y ∗ ). luego L(·. y ∗ ). L(ˆ. y ∗ )}. y∗ ) ∈ R). y ∗ ) ≤ L(ˆ. x x ˆ ˆ . y ∗ ) ≤ L(x. si de donde ϕ ∈ Γ0 (X × Y ). y ∗ ) = − sup inf L(x. x∈X Así el problema dual se puede escribir en términos de L como (D) β = ∗inf ∗ ϕ∗ (0. L(x. Análogamente. y ∗ ∈Y ∗ en particular ϕ(x. ϕ∗ (x∗ . y ∗ ) es convexa. y ∗ ) = inf {ϕ(x. y } = inf Φ(x. y ∗ ) = − inf L(x. Si ϕ ∈ Γ0 (X × Y ) entonces las siguientes son equivalentes (i) x es solución de (P). x + sup y ∗ .2. entonces ϕ(x. y)} = sup { x∗ . ·)]∗∗ (y) = ϕ(x. Por otra parte.2. es decir. y ∗ ). x∈X x∈X y ∗ ∈Y ∗ Proposición 3. x + y ∗ . Demostración: Propuesto. ∀y ∗ ∈ Y ∗ . y ∗ ).y)∈X×Y { x∗ . ·) ∈ Γ0 (Y ) y en consecuencia [ϕ(x. y) = sup { y ∗ . y + L(x. y ∗ ) y tenemos que (P) α = inf ϕ(x. 0) = supy∗ ∈Y ∗ L(x. y). x ˆ x ˆ ∀x ∈ X. y. ˆ ˆ (ii) (ˆ. y − ϕ(x. y ∗ ) = sup (x.

n. 1−λ 1−λ B(x0 . r) lo que implica que xλ = λy + (1 − λ)x2 ∈ C y concluye la demostración. x1 [⊆ int(C) para deducir que x ∈ int(C) ¯ ¯ y de aquí que int(C) = int(C). deducimos que int(C) = ∅.n. DUALIDAD EN OPTIMIZACIÓN CONVEXA 3.1. ∃x2 ∈ C ∩ 2. Por ejemplo. Demostración: Obviamente.3.3. Si CX es acotado. Denotemos por CX y CY sus proyecciones sobre X e Y respectivamente. Entonces int(C) = int(C). El interés del siguiente resultado es que no requiere saber a priori que int(C) = ∅ . entonces La hipótesis int(C) = ∅ Si pero int(C) = ∅ es esencial. 1.1. y C ⊆ X un convexo de interior no-vacío.v.3.3. r) a través de xλ . . Sean (X. x1 = y como 1 λ 1 λ λ xλ − x0 ∈ xλ − B(x0 . Como int(C) = ∅. Pero x2 = 1 1−λ xλ λ − 1−λ y para algún y ∈ B(x0 . Como x ∈]x0 . Y un e. r) + (1 − λ)x2 ⊆ C.v. r 1−λ 1−λ 1−λ 1−λ 1−λ deducimos que x1 ∈ C .n. r) .v. Sean λ ∈]0. Envoltura convexa. r) ⊆ C y x2 ∈ C con C convexo. r) = B x1 . Observación 3. entonces int(CY ) = int(CY ). Como 1 λ xλ − B(x0 . Lema 3. X es un e.3.1.1 (Lema de Robinson). basta probar que ]x0 . 1[ y xλ := λx0 + (1 − λ)x1 . Reexión de Tenemos que B(x0 . Como x0 ∈ int(C). y int(C) = ∅ .60 CAPÍTULO 3. podemos tomar r > 0 tal que B(x0 . Sea X un e. entonces C = int(C). int(C) ⊆ int(C). si C C = X de modo que int(C) = X . r) ⊆ C . Proposición 3. x1 [. ¯ ¯ x entonces x1 ∈ C . denimos x1 = x + (¯ −x0 ) y si es sucientemente pequeño. y C ⊆ X × Y un convexo cerrado. Teoremas de Dualidad de Fenchel-Rockafellar y de AttouchBrezis Comenzaremos esta sección con algunos resultados preliminares. en particular se tiene que λB(x0 . Ejercicio 3. · ) un espacio de Banach. Dado > 0. Sean x ∈ int(C) y x0 ∈ int(C). C⊆X es un convexo con es un hiperplano denso.

existe 0 ∈ int(C). Sean y ∈ int(CY ) y > 0 tales que B(y. Si el algoritmo se detiene en el paso detiene. y) ∈ C . 2 y en consecuencia lo que implica que yn+1 − y ≤ 1 2 yn − y yn → y . TEOREMAS DE DUALIDAD DE FENCHEL-ROCKAFELLAR Y DE ATTOUCH-BREZIS61 int(CY ) ⊆ int(CY ) es evidente. Para demostrar que tal x ∈ X existe. v) ∈ C tal que w−v ≤ y − yn + . yn ) 1 1+αn (u. construiremos una sucesión (xn . Tomemos (x0 . Si X es un espacio de Banach y C ⊆ X es un convexo cerrado y aborbente. yn+1 ) := αn 1+αn (xn . Defínase 2. v) ∈ C. Del Lema de Baire. podemos suponer que C = −C (si no. ) ⊆ CY . podemos tomar el convexo absorbente C ∩ (−C)). deducimos que existe k0 ∈ N tal que int(k0 C) = ∅ lo que implica que int(C) = ∅. Basta demostrar que existe x ∈ X tal que (x.3. Más aun. X un espacio de Banach y C un cerrado. Por otra parte xn+1 − xn = αn 1 xn + u − xn 1 + αn 1 + αn 1 = u − xn 1 + αn 2 diam(CX ) diam(CX ) ≤ = yn − y αn y. Supongamos que el algoritmo no se Fin. en cuyo caso debe tenerse que 0 ∈ int(C). Defínase (xn+1 . pues en este caso y ∈ CY y se concluye que int(CY ) ⊆ int CY . Lema 3. . tomamos x = xN .3. 3. ) ⊆ CY .2. y) ∈ C .3. tenemos que Demostración: Como X= k∈N kC con kC = {kx | x ∈ C} cerrado. en cuyo caso tenemos que N . yn ) ∈ C con yn → y y (xn )n de Cauchy. ((xn . yn ))n ⊆ C tal que yn+1 − y = αn 1 yn + v−y 1 + αn 1 + αn 1 = αn (yn − y) − y + v 1 + αn 1 = w−v 1 + αn 1 ≤ y − yn . por ser lo que implica que x∈C tal que (xn ) es de Cauchy xn → x y (x. entonces C es absorbente. y0 ) ∈ C (si C = ∅ la propiedad es trivial) Demostración: La inclusion y consideremos el siguiente algoritmo: Mientras yn = y αn := 2 yn −y y 1. Sea w = y + αn (y − yn ) ∈ B(y. 1 2 (u.

tenemos que ϕ((1 − t)x0 + tx. Similarmente. Demostración: Sea k > v(0) y denamos U = {y ∈ Y | v(y) ≤ k}. Luego. CX . g ∈ Γ0 (Y ) . CY ⊆ U .3. existen λ > 0 y x ∈ X tales que ϕ(x. λy) < +∞. ϕ((1 − t)x0 + tx. Basta probar que 0 ∈ int(U ). y) y supongamos que v(0) ∈ R y que el convexo dom(v) = x∈X dom(ϕ(x. entonces S(P) = ∅. Además. v(0) = − min∗ ϕ∗ (0. y) ≤ k. Por lo tanto. Sea y ∈ Y . Y espacios de Banach. Supongamos que se tiene que inf(P) ∈ R y la hipótesis de Calicación Primal: 0 ∈ int(dom(g) − A dom(f )).1 (Teorema de Dualidad de Fenchel-Rockafellar) f ∈ Γ0 (X). Consideremos los problemas de minimización (P) x∈X inf f (x) + g(Ax) y (D) y ∗ ∈Y ∗ inf f ∗ (−A∗ y ∗ ) + g ∗ (y ∗ ). Sea v(y) = inf x∈X ϕ(x. Dado t ∈]0. gracias al Lema de Robinson.62 CAPÍTULO 3. y se sigue que t>0 tal que CY es absorbente y ((1 − t)x0 + tx0 . son equivalentes . En cualquier caso. inf(P) = − inf(D). tλy) ≤ k. x ≤ 1 + x0 }. 0) + tϕ(x. 1[. Sea x0 ∈ X tal que ϕ(x0 . ·)) es absorbente en Y . DUALIDAD EN OPTIMIZACIÓN CONVEXA Teorema 3. pero. tλy) ∈ C 0 ∈ int(CY ). si se tiene que inf(D) ∈ R y la hipótesis de Calicación Dual: 0 ∈ int(dom(f ∗ ) − A∗ dom(g ∗ )). CY es absorbente.1 (Attouch-Brezis). por lo que basta probar que 0 ∈ int(CY ). v es continua en 0 . Entonces. Y dos espacios de Banach y ϕ ∈ Γ0 (X × Y ). ∗ y ∈Y es decir. y) ∈ X × Y | ϕ(x. el dual tiene solución. Sean X. Por hipótesis. Sean X. En particular. es acotada y CY es una vecindad del origen. que es un convexo cerrado cuya proyección sobre que X . Basta probar int(CY ) = int(CY ). y ∗ ). λy) y si t es sucientemente pequeño. tλy) ≤ (1 − t)ϕ(x0 . entonces S(D) = ∅. 0) < k y denamos C = {(x. y A : X → Y lineal continua. Veamos que CY es absorbente en el Banach Y . existe (1 − t)x0 + tx ≤ 1 + x0 .3. Corolario 3.

ϕ∗ (x∗ . y ∗ ) = 0. ·)) si. y) = f (x) + g(Ax + y). ·). j = 1. p. El programa convexo asociado a f. x ¯ ¯ g(A¯) + g ∗ (y ∗ ) = A¯. . y ∗ ) = = sup (x. y ∗ . i = 1. z − Ax − f (x) − g(z)} sup (x. . ¯ (ii) Las Relaciones de Extremalidad: ¯ ¯ f (¯) + f ∗ (−A∗ y ∗ ) = x. . y∗ ∈ S(D). . x x ¯ (iii) La Inclusión de Euler-Lagrange: ¯ −A∗ y ∗ ∈ ∂f (¯). (gi )i . x + y ∗ . A∗ y ∗ − A¯. −A∗ y ∗ . . En este caso. y − f (x) − g(Ax + y)} { x∗ . . . . . x + y ∗ . la condición de Extremalidad se escribe ¯ ϕ(¯. x Demostración: Sea ¯ y ∗ ∈ ∂g(A¯). 3. y sólo dom(ϕ(x. (hj )j es el problema de optimización (P) min{f (x) | gi (x) ≤ 0. f (x) < +∞ y Ax + y ∈ dom(g). . x∈X hj (x) = 0. . q}. ·)) = dom(g) − A dom(f ) x∈X y podemos aplicar el Teorema de Attouch-Brezis. i = 1.4. x ϕ(x.3. Así. (P) equivale a inf ϕ(·. y ∗ . .4. p convexas y propias. g(A¯) + g ∗ (y ∗ ) = A¯. gi : X → R. y ∗ + g(A¯) + g ∗ (y ∗ ) = 0. hj . q lineales anes y continuas.z)∈X×Y = f ∗ (x∗ − A∗ y ∗ ) + g ∗ (y ∗ ). 0) y (D) equivale a inf ϕ∗ (0. j = 1. x que es equivalente a ¯ ¯ f (¯) + f ∗ (−A∗ y ∗ ) + x. x ¯ x ¯ x lo que a su vez es equivalente a ¯ ¯ f (¯) + f ∗ (−A∗ y ∗ ) = x. −A∗ y ∗ . . Claramente estas relaciones son equivalentes a la inclusión de Euler-Lagrange. si. . . Sea Teoremas de Fritz John y Kuhn-Tucker X un espacio de Banach y consideremos f. .y)∈X×Y Tenemos que { x∗ . . x ¯ x x ¯ que son las relaciones de Extremalidad. TEOREMAS DE FRITZ JOHN Y KUHN-TUCKER 63 ¯ (i) x ∈ S(P). de modo que Tenemos que y ∈ dom(ϕ(x. 0) + ϕ∗ (0.

no todos nulos y reales µ1 . µ). ˆ ˆ entonces existen reales no-negativos λ0 . por ejemplo. . .4. · ≥ 0]. necesitaremos algunas variantes del Teorema de HahnBanach. λ. Si 0 ∈ (A − B) y A ∩ B = ∅. v(P) ≤ L(x. Teorema 3. de tenerse Teorema 3. . λp . entonces A y B pueden separarse mediante un hiperplano. El dual asociado a L (D) (λ. . x∗ . µ) ≤ v(D) x∈X e implica que v(P) = v(D) y así ˆ ˆ (λ. . µ) ∈ S(D) será un multiplicador de Lagrange de (P). µ) no es necesariamente un multiplicador de Lagrange. µ) = de modo que f (x) + −∞ + q j=1 µj hj (x) λ ≥ 0. . .64 CAPÍTULO 3. . En este teorema ˆ ˆ (λ. Sean A. λ. ˆ Observación 3. . µ). v(P) es nito. . f. Demostración: Podemos separar x∗ ∈ X∗ \ {0} tal que int(C) de 0 mediante int(C) ⊆ [ x∗ . µ) lo que es equivalente a ˆ ˆ v(P) ≤ inf L(x. DUALIDAD EN OPTIMIZACIÓN CONVEXA que tiene asociada la función lagrangeana L : X × Rp × Rq → R p i=1 λi gi (x) dada por si L(x.1. λ. i=1 j=1 Si v(P) ∈ R. · ≥ 0]. D = X . entonces se tendrá que ˆ ˆ ∀x ∈ X. Sea C ⊆ X un convexo de interior no-vacío. . λ0 v(P) ≤ λ0 f (x) + i=1 ˆ λi gi (x) + j=1 µj hj (x). cuyas soluciones se llaman multiplicadores de Lagrange. entonces existe x∗ ∈ X ∗ \{0} / tal que ∀x ∈ X. Si int(A−B) = ∅ y A ∩ B = ∅. λ. Si 0 ∈ C . µq ∈ R tales que ˆ ˆ p q ˆ ˆ ∀x ∈ D. p tienen un punto de continuidad en común y además 0 ∈ int(D \H). Denamos D := dom(f )∩( p dom(g)) y H := q ker(hj ).2. f y gi . Luego un hiperplano cerrado.4.3 (Teorema de Separación). / entonces pueden separarse estrictamente mediante un hiperplano. . Pero si. Teorema 3. Para la demostración del Teorema. x ≥ 0. λ. de modo que existe C = int(C) ⊆ [ x∗ . . gi son nitas en todas partes y ˆ λ0 = 1. B ⊆ X dos convexos no-vacíos. inf(P) = sup(D).µ)∈Rp ×Rq x∈X sup inf L(x. i = 1.4. si no.µ)∈Rp ×Rq sup es L(x.4.1 (Fritz-John Débil). (P) v(P) := inf Suponemos que x∈X (λ.

0 A := {(x. i=1 Si además existe x ∈ X tal que max1≤i≤m fi (ˆ) = 0. max1≤i≤m fi (x) ≥ 0. TEOREMAS DE FRITZ JOHN Y KUHN-TUCKER 65 Demostración: Basta observar que plano ssi AyB pueden separarse (resp. . .4. fm (x) < ym }. 0). existe (x . contradicción. F (x) ≥ L(x).4. m funciones convexas tales que para cada x ∈ X . .3. se tiene que Observación 3.e. estrictamente) mediante un hiper- A−B puede separse (resp. λ = L(x)}. ν T y = i=1 νi yi ≥ 0.v. y y ∀(x. . Teorema 3. Demostración: Supongamos que el conjunto m i=1 dom(fi ) = ∅ (el caso m i=1 dom(fi ) = ∅ es trivial) y denamos A := {y = (y1 . λ) ∈ A. x∗ . i = ˆ x x 1. (de modo que Cuando F (x) = x o bien F es un funcional de Minkowski continuo en X dom(F ) = X ). x . . . Entonces existen reales no-negativos ν1 . Teorema 3. Para x ∈ dom(F ).5. ∗ deducimos que A y B pueden separarse mediante un hiperplano cerrado. νm satisfacen νi fi (ˆ) = 0. entonces ν1 . λ) ∈ X × R | F (x) < λ} y B := {(x. . s) = (0. λ ≥ x0 .2. λ) ∈ X × R | x ∈ H. Si s = 0. . . s) ∈ ∗ × R tal que X ∀y ∈ H. x∗ . νm ) ∈ Rm \ {0} tal que m ∀y ∈ A. ∀(x. . y + sL(y) ≤ x∗ . Sean fi : X → R. ∀x ∈ dom(F ). . . x∗ ∗ ∗ ∗ Deniendo x0 = − s obtenemos que ∀y ∈ H. L(x) = x∗ . y + sL(y) = 0 y haciendo λ → ∞ deducimos que s ≥ 0. x∗ . ym ) ∈ Rm | ∃x ∈ X. . Demostración: Sean los convexos ∀y ∈ H. tendríamos en particular que ∀y ∈ H. x − y ≥ 0 y como 0 ∈ int(dom(F ) − H) se sigue qiue x∗ = 0 y luego que (x∗ . . νm y no todos nulos tales que ∀x ∈ m dom(fi ). . s > 0. Se tiene que int(A) = int(epi(F )) = ∅ y A ∩ B = ∅. haciendo λ → F (x) se deduce el resultado. x + sλ. x ≤ F (x). Sea F : X → R convexa y propia con int(epi(F )) = ∅. ν1 f1 (x) + · · · + νm fm (x) ≥ 0. . Si 0 ∈ int(dom(F ) − H) entonces existe x∗ ∈ X ∗ tal que 0 ∀x ∈ H. . Como int(A) ⊆ int(A − B). existe A es un convexo de interior no-vacío. i = 1. este teorema se conoce como el Teorema de Hahn-Banach analítico. x∗ . . . .4. es decir. 0 ∀x ∈ X. L(y) = x0 . es decir. Como H es un s. x . . . . .4. Como 0 ∈ A. λ) ∈ A. . . Así. m. . podemos separa A y {0} mediante / ν = (ν1 .4. estrictamente) de 0 mediante un hiperplano. . Para demostrar el Teorena de Fritz-John necesitaremos el siguiente teorema general sobre funciones convexas. Es fácil ver que un hiperplano. Sea H ⊆ X un subespacio vetorial de X y L : H → R una función lineal tal que ∀x ∈ X. f1 (x) < y1 .

∀x∗ ∈ V ∗ . ∀j = 1. . . En este caso fi0 (x)+ puede reemplazarse por cualquier real y se deduce la desigualdad. Como v(P) ∈ R. x − αj = 0. ∀i = x x x 1. m. . ¯ j j=1 Entonces existen µ1 . . Por otra parte. . Más aun. x∗ ∈ X ∗ . j = 1. . . · . . Además. entonces por Hahn-Banach existe x ∈ X tal que ¯∗ / ∗ ∀x∗ ∈ V ∗ . m} podemos hacer yi → +∞ y luego νi ≥ 0. . x . ¯ q 1 Demostración: Sea topología débil-*. . x − αj j con x∗ ∈ X ∗ j y αj ∈ R. . m y ∀ > 0 tenemos (f1 (x) + . se deduce la desigualdad. j = 1. Si eventualmente existe x0 ∈ m i=1 dom(fi ) fi0 (x) = −inf ty para algún i0 . ¯ entonces H = {x ∈ X | x∗ . . si max1≤i≤m fi (ˆ) = 0. x − x = 0. luego F es continua en epi(F ) es no-vacío. . . Tenemos que V ∗ es convexo y débilmente q 1 Si x ∈ V . . entonces podemos hacer yi0 → −∞ y necesariamente νi0 = 0. Sean x∗ . para todo x ∈ De la arbitrariedad de con > 0. necesariamente H = {x ∈ X | x∗ .4. contradicción. . x∗ . x = 0 ¯ j o. x ¯ cerrado para la lo que implica que x∗ . Del teorema anterior se deduce la parte l del resultado. .] Tenemos que hj (x) = x∗ . . Como p dom(F ) = D = dom(f ) ∩ i=1 dom(gi ) . . . fi (x) > −∞.1. DUALIDAD EN OPTIMIZACIÓN CONVEXA Para cada m i=1 dom(fi ) con i ∈ {1. . q}. m y νi fi (ˆ) = 0. i = 1.66 CAPÍTULO 3. podemos suponer que de x = 0. Demostración: [del Teorema de Fritz-John sin Proposición 3. . i = 1. x > 0 ¯ y x∗ . q ker x∗ . . . . . ¯ j Sin pérdida de generalidad. Finalmente. gi (ˆ)} = 0 de modo que λ0 (f (ˆ) − v(P)) = 0 y λi gi (ˆ) = 0. x = 0) ⇒ x∗ . gi (x)} ≥ 0. x > x∗ . x x x hj . . ˆ ˆ ˆ x entonces max1≤i≤p {f (ˆ) − v(P). . . . . . gi (x)} ≥ 0. existe un punto de continuidad común a dicho punto y el interior de f y gi . µq ∈ R tal que x∗ = µ1 x∗ + · · · + µq x∗ . . . . x∗ } . de manera equivalente. . j Sea x ∈ H. Supongamos que x∗ ∈ X ∗ satisface: ¯ q 1 (∀x ∈ X. . max1≤i≤p {f (x) − v(P). . Más aun. V ∗ := {x∗ . . . . . entonces fi (ˆ) ≤ 0. ¯ de modo que H es un subespacio cerrado X y hj (x) = x∗ . x = 0. x∗ . Demostración: [del Teorema de Fritz-John. . . q}. para j x∈H 1≤i≤p se satisface que F (x) := max {f (x) − v(P). q. . ∀i. si x ∈ S(P). . · ⊆ ker x∗ .] Tenemos que para todo x ∈ X . . . p. i = 1. fm (x) + ) ∈ A.

veremos que una condición clásica en Optimización Convexa nos permite asegurar esta Teorema 3.3. supongamos que se tiene la siguiente condición de calicación de restricciones. . x ≥ 0 ⇔ ∀x ∈ X. . i = 1. λp ≥ 0 no todos nulos tales que ˆ ˆ ˆ ˆ ˆ ¯ ∀x ∈ D. p. deducimos que existe x∗ ∈ X ∗ ¯ tal que q ∀x ∈ H. . ∀x ∈ X. . . . . . Bajo las hipótesis del Teorema de Fritz John débil. j = 1. . Una propiedad deseable en la práctica. λp ) x∗ . p lo que contradice no son todos nulos. x } ≥ 0. En los siguientes teoremas. q. 1≤i≤p Entonces. . F (x) − x∗ . llamada Condición de Slater (S) ∃x0 ∈ dom(f ) : gi (x0 ) < 0. . La siguiente proposición caracteriza el subdiferencial del máximo puntual de funciones convexas. . .6 (Kuhn-Tucker Débil). . 0)} tal que + ∀x ∈ D. i = 1. ¯ j para algunos µj ∈ R ¯ ∀x ∈ X. es que propiedad. deducimos que existen ˆ ˆ λ0 . . λ. basta tomar x = x0 en la desigualdad de Fritz-John débil para deducir ˆ ˆ ≥ 0 con λi ≥ 0 y gi (x0 ) < 0. max {f (x) − v(P) − x∗ . las condiciones en términos de subdiferenciales son útiles en muchas aplicaciones. λm ) ∈ Rm | ∀i = 1. µ). µ) ∈ Rp × Rq \ {(0. . .4. . m λi (F (x) − fi (x)) = 0}. gi (x) − x∗ .4. . . donde D = dom(F ) = m i=1 dom(fi ) y ΛF (x) = {λ = (λ1 . en esencia. . .4. Demostración: Si que ˆ ˆ v(P) ≤ L(x. ¯ ¯ ¯ 1≤i≤p Del Teorema 3. ˆ ˆ λ0 . fm : X → R funciones convexas y denamos F (x) := max fi (x). . λ0 (f (x) − v(P)) + λ1 g1 (x) + · · · + λp gp (x) − (λ0 + . ˆ se deduce el resultado. λp p ˆ i=1 λi gi (x0 ) ˆ λ0 = 0. . son casos particulares de la Regla de Fermat y caracterizan el cono normal en términos de los subdiferenciales de las funciones (gi ). Luego λi = 0. x . . . . . ˆ ˆ Entonces existe un par (λ. . ∂F (x) = λ∈ΛF (x) m ∂ i=1 λi f i + δ D (x). x = 0 ⇒ x∗ = ¯ ¯ j=1 y µj x∗ . hj (x0 ) = 0. Deniendo ˆ ˆ µ µj := −(λ0 + . Proposición 3. x∗ . .5. . . . x ≥ 0.4. λp )¯j . Sean f1 . + . .2. ˆ λ0 sea estrictamente positivo. . TEOREMAS DE FRITZ JOHN Y KUHN-TUCKER 67 y hemos supuesto que 0 ∈ int(D − H). Terminamos esta sección estudiando algunos resultados que. En general.

Diremos que el programa convexo original convexas. . Sea (P) un programa convexo. . λm ≥ 0. ¯ λi fi (x) + x∗ . . Ejercicio 3. i = 1.68 CAPÍTULO 3. . . . . . .c. . F (x) + x∗ . .7 (Fritz-John Fuerte). entonces Observación 3. i = 1. . Recíprocamente. DUALIDAD EN OPTIMIZACIÓN CONVEXA Demostración: Sea m ¯ i=1 λi =1 con x∗ ∈ λ∈ΛF (x) ∂ ( m λi fi (x) + δD ) (x). . . Denamos existen G(y) := F (y) − F (x) − x∗ . y − x y gi (y) := fi (y) − F (x) − x∗ .1. . y. p λi = 1 y reales µ1 . . .3. . = 1. y ¯ λi gi (x) = 0.c. sea x∗ ∈ ∂F (x) de modo que ∀y ∈ X. . λm ) ∈ ΛF (x) y ∀y ∈ D. . m. m tales que m m Entonces existen ¯ ¯ λ1 . (P) es propio. . µq tales ˆ ˆ ˆ i=1 que p q 0∈∂ ˆ y λi gi (ˆ) = 0. s. . además. y − x ≤ i=1 ¯ λi fi (y) ≥ F (y). y − x ¯ 1 .4. y − x ≤ F (y) y luego x∗ ∈ ∂F (x).c. Teorema 3. . podemos suponer que m ¯ i=1 λi m ¯ ¯ ¯ λ = (λ1 . . . m ¯ λi fi (y) ≥ i=1 De aquí. y nito si tanto f como gi son v(P) ∈ R. i=1 x∗ ∈ λ∈ΛF (x) ∂ Si m ¯ i=1 λi fi + δD (x). y nito tal que se satisfacen las hipótesis del Teorema de Fritz John débil. x es un punto de continuidad común para  ∂F (x) = co  i∈IF (x) donde  ∂fi (x) IF (x) := {i | fi (x) = F (x)}. . propio .4. . y − x . . fm .i. i=1 ¯ λi (F (x) − fi (x)) = 0. p.i. i=1 Como que ¯ λi gi (y) ≥ 0. . Entonces una condición necesaria y ˆ ˆ ˆ suciente para que x ∈ S(P) es que existan λ0 .4. . λp ≥ 0. s. Pruebe la observación anterior. λm ≥ 0 no todos nulos. propias y s. .i. ∀y ∈ D. i=1 lo que implica que ¯ λi fi (x) + x∗ . . x ˆ λ0 f + i=1 ˆ λi gi + δD (ˆ) + x i=1 µj ∂hj (ˆ) x . tales que ¯ λ m . Tenemos que ∀y ∈ D. Tenemos que m ¯ i=1 λi > 0. i = 1. . y − x ≤ F (y). . . f1 . . F (x) + x∗ .

fm (x)} fi : Rn → R convexa y S(P ) no vacío y acotado. p. Si x0 ∈ D es punto de continuidad de F tal ˆ x x0 ∈ H . . . . . diferenciable y tal que − v)] y θ : R → [0. . podemos nor- 3. El programa convexo (P) puede escribirse (P) inf{F + δH }. La proposición anterior nos permite concluir que p ∂F (ˆ) = x λ∈ΛF (ˆ) x Si λ(f − v(P)) + i=1 λ i gi + δ D (ˆ). . . creciente. Supongamos que se satisfacen las hipótesis de Fritz-John Fuerte y que además se cumple la condicion de calicación de Slater S . x hj (x) = x∗ . . . . Más generalmente. luego. entonces una condición ˆ ˆ necesaria y suciente para que x ∈ S(P) es que existan λ1 . . x Demostración: Basta observar que bajo malizar. . ˆ p q 0 ∈ ∂f (ˆ) + x i=1 ˆ λi ∂gi (ˆ) + x i=1 µj ∂hj (ˆ)) x ˆ y λi gi (ˆ) = 0. .5. PROBLEMAS 69 Demostración: Sea F (x) = max1≤i≤p {f (x)−v(P). . p. . µq ∈ R tales ˆ ˆ ˆ que p q 0∈∂ f+ i=1 ˆ λi gi + δD (ˆ) + x i=1 µj ∂hj (ˆ) x ˆ y λi gi (ˆ) = 0. S podemos obtener que ˆ λ0 > 0 y. se prueba que la x x x condición 0 ∈ int(D − H) permite tener la misma igualdad. . fm (x)). x − x ˆ j .8 (Kuhn-Tucker Fuerte). . de manera equivalente como Tenemos que que x ∈ S(P) si.3. . . . y sólo si. ym ) = minv∈R [v + función estrictamente convexa. entonces ∂δh (ˆ) = {x∗ } x j ∂δH (ˆ) = x de donde se sigue que   µ∈Rq de donde se obtiene el resultado q  µj ∂hj (ˆ) x j=1 Teorema 3. entonces x ∈ S(P) si. es una . tenemos que ∂(F + δH )(ˆ) = ∂F (ˆ) + ∂δH (ˆ). . . si x es un punto de continuidad común a f y gi . i = 1. . . p. i = x ˆ 1.4. Para r > 0 considere el problema regularizado x∈Rn (Pr ) donde min Mr (f1 (x). (P ) con x∈Rn min max{f1 (x). . 0 ∈ ∂(F + δH )(ˆ). Problemas Considere el problema min-max Problema 11 (Regularización de problemas min-max). . i = 1. En particular. λp ≥ 0 y reales µ1 . . . m i=1 θ(yi Mr (y) = rM (y/r) con M (y1 . . . ∞) θ∞ (1) = +∞. gi (x)}. y sólo si.5. . .

. . Para ello 1 1 u ∈ L1 ≡ L1 ([0. . x0 < bi . y ≤ 0. . C = {x ∈ X | ai . Deseamos ¯ = mi > 0. . . . fm (x) + ym ). y) = Mr (f1 (x) + (f ) Pruebe que v(Pr ) + v(Dr ) = 0 y que (Dr ) admite una única solución. i = 0. . . Sea conocida tal que 1 i ¯ 0 x u(x)dx u(x) ≥ 0 c. .p. y := A∗ A¯ ¯ x satisface la inecuación (c) Suponga que óptima. . si E ◦ u ∈ L1 si no. 1. . . . n E : R → R ∪ {∞} es (menos) la entropía de Boltzmann-Shannon denida por E(u) = u ln u para u ≥ 0 y E(u) = ∞ para u < 0. x0 ∈ X tal A∗ A¯ = x que Verique que (P ) admite solución (d) Asuma que existe si. . fm (x)) converge a (c) Deduzca que (d) Muestre que max{f1 (x). 1]. i = 1. . i = 0. ¯ ¯ de (P ) si. ∃λ ∈ Rm tal que + ai . DUALIDAD EN OPTIMIZACIÓN CONVEXA (a) Muestre que (b) Pruebe que M es convexa y diferenciable. . . . R) una función des¯ estimar u en base a sus (n + 1) primeros ¯ consideramos el problema (P ) donde u∈L1 min E(u(x))dx : 0 0 xi u(x)dx = mi . . . . . . m. . m. . ∀x ∈ C . (b) Pruebe que variacional: 1 min 2 Ax x∈C 2 C + ker A es cerrado entonces el conjunto de soluciones óptimas S(P ) es no x ∈ C es solución óptima ¯ x − x. en [0.t. . 1]. −r θ∗ (1) ≤ Mr (y) − max yi ≤ −r m θ∗ (1/m). Pruebe que m i i i=1 λi a y además λi ( a . Concluir que (e) Explicite el dual (Pr ) admite al menos una solución xr la cual permanece acotada cuando r tiende v(r) → v y que todo punto de acumulación de xr es solución de (P ). . . Indicación: utilizar el Lema de Fatou. hacia 0. . El problema (P ) equivale a minu∈L1 {Φ(u) : Au = m} con Φ : L1 → R ∪ {+∞} y A : L1 → Rn+1 denidas por Φ(u) = (Au)i = (a) Pruebe que 1 0 E(u(x))dx +∞ 1 i 0 x u(x)dx. m}. con producto interno denotado indistintamente por un conjunto convexo y no vacío C⊂X y un operador lineal. i = 1. i = 0. x − bi ) = 0. . n. 1. x ≤ bi . Dado A : X → Y. Problema 12 X e (Dualidad en problemas de aproximación cuadrática en espacios de Hilbert) . fm (x)}. i = x ∈ S(P ) ¯ 1. . y sólo Problema 13 momentos (Aproximación de máxima entropía) . Φ ∈ Γ0 (H). n. y sólo si. considere el problema de minimización (P ) (a) Pruebe que si vacío. (Pr ) asociado a la función de perturbación ϕ(x. de (Dr ) y1 . continuo y sobreyectivo ·. Mr (f1 (x). Sean Y dos espacios de Hilbert reales. si. . . · . .70 CAPÍTULO 3. .

v. i = 1 . donde (X. . si. xi = ai . y se tiene x∗ . ˙ . x i x∗ ∈ X ∗ e y ∗ ∈ Rn son soluciones de los problemas anteriores n ∗ ∗ ∗ = ai . a1 . Sean x1 . an ∈ R tales x∗ ∈ X ∗ . Consideremos (X.c. h∗ (y) ≥ sup {f ∗ (y + z) − g ∗ (z)} z∈dom g ∗ . Probar que u(t) = M · sgn(x1 et−1 + x2 [1 − et−1 ]) para u(t) tiene a lo más un cambio de signo y u(t). Se requiere llevar el motor desde la posición inicial ˙ ˙ θ(0) = ω(0) = 0. Para + λ1 x + · · · + λn xn mientras (P ) tiene una única solución. M . n en caso contrario. PROBLEMAS 71 (b) Explicite el dual que se obtiene al perturbar la restricción de ∗ n+1 → L∞ está dado por (A∗ λ)(x) = λ ello pruebe que A : R 0 ∗ ∈ L∞ se tiene Φ∗ (u∗ ) = 1 exp(u∗ (x) − 1)dx. y sólo si. x2 . . y (X ∗ .n. que para todo u 0 (c) Usando el teorema de dualidad pruebe que (d) Pruebe que si (P ) mediante Au = m − y . . . i=1 (c) La velocidad angular rige por la ecuación ω de un motor eléctrico alimentado por una corriente variable u(t) se ω(t) + ω(t) = u(t). .l. ±∞+( sup-adición + y la sup-sustracción − se denen de manera análoga.2) Deduzca que el control óptimo es de la forma constantes adecuadas calcular x1 . Y. xn ∈ Y y al menos una solución mínima.1] u ∞ : 1 t−1 u(t) dt 0 e = 1. (Dualidad de Toland-Singer) (a) Pruebe que se satisface la siguiente relación para las conjugadas de Legendre-Fenchel: (3. xi = ai + yi . minimizando la norma innito de u(t). xi = ai . Dadas dos funciones f. λ es una solución dual entonces la solución de (P ) es u(x) = exp(−1− Sea n i i=1 λi x ).1) Problema 15 ∀y ∈ Y. hasta θ(1) = ω(1) = 1 (θ=posición angular. . n yi xi = x∗ ∗ i=1 yi xi . · ) un e. i = 1 . x∗ . . ˙ R ∪ {+∞}. En lo que sigue.1) Verique que el problema puede plantearse como minu∈L∞ [0.3. · ∗ ) su dual topológico. . ·. Problema 14 (Un problema de Ingeniería). . . ∗ que el sistema x . y) = (b) Pruebe que x∗ ∗ +∞ si x∗ . g : X → . · ) es una dualidad entre e. se dene h := f −g .5. .t. m admite el problema de encontrar una solución de norma (a) Pruebe la identidad x∗ ∈X ∗ min { x∗ ∗ : x∗ . . denotamos por + la inf-adición en ˙ ∞) = +∞) y por − la inf-sustracción denida por α−β := α+(−β). Para ello considere la función de perturbación X ∗ × Rn → R ϕ(x∗ . ω = θ). 1 0 (1 − et−1 )u(t) dt = 1 . . . (c. n} = maxn { ∗ y ∈R n ∗ i=1 ai yi : n ∗ i=1 yi xi ≤ 1} ϕ : y que ambos óptimos son alcanzados. i = 1.. (c. .v. . yi xi ≤ 1. . La ˙ ˙ ˙ R (en particular.

· ) es un e. x ¯ ¯ y y x ∈ ker A + y que ¯ ¯ 0 ∈ int(dom f ∗ − ImA) entonces para todo punto es punto crítico de Φ. muestre que se tiene la fórmula de H®rmander: h(C. Φ y Ψ no son necesariamente convexas. y más aun Φ(¯) + Ψ(¯) = 0. . Usando (b). ·. Sea A : H → H un operador lineal. D) := supx∈C d(x. D). e(D. (b) Deduzca que + Θ(A + H) > Θ(A) − tr(A−1 H) para todo A ∈ Sn . se dene el exceso de Hausdor de C sobre D mediante e(C. Dados dos convexos cerrados C. Θ(·) si + A ∈ Sn en caso contrario. · ) un espacio de f ∈ Γ0 (H). Indicación: considerar el problema min{ i=1 λi − ln λi : que λi > 0}. Θ(A) = Notemos que ln[det(A−1 )] +∞ Sn . D) = sup {σC (x∗ )−σD (x∗ )}. Sea Sn el conjunto de matrices simétricas denidas positivas y sea Θ : Sn → R ∪ {+∞} denida por Sea Problema 17.v. +∞]. D ⊂ X . con Θ(·) estrictamente convexa en Sn Θ(A) = −A−1 para A ∈ Sn . Hilbert y funciones Note que Sea (H.72 CAPÍTULO 3. Se denen las 1 1 Φ. B := tr(AB) = i. Ax + f (x) y Ψ(x) = 2 x. X Y de dualidad de Toland-Singer: (c) Suponga ahora que Y = X ∗ . x∗ ∈B ∗ Problema 16 (Un caso particular de la dualidad de Clarke-Ekeland). entonces todo y ∈ ker A + x es un punto crítico para Ψ. . C)} ∈ [0. y deduzca la fórmula ˙ ˙ inf {f −g} = inf {g ∗ −f ∗ }.n.j=1 Aij Bij . Concluya + y + Θ ∈ Γ0 (Sn ). (a) Pruebe que valores Θ(A) + tr(A) ≥ n para todo A ∈ Sn . es decir −A¯ ∈ ∂[f ∗ ◦ (−A)](¯). D) = sup |σC (x∗ ) − σD (x∗ )|.: sea g(x) = d(x. es + dom(Θ) = Sn es abierto en C∞ sobre + Sn y continua en todo Sn . continuo y autoadjunto. DUALIDAD EN OPTIMIZACIÓN CONVEXA (b) Suponga que g ∈ Γ0 (X). H ∈ Sn \ {0}. lo que por denición signica que −A¯ ∈ ¯ x ∂f (¯). (a) Pruebe que si x ∈ H es un punto crítico para Φ. D). D) = max{e(C. D) = inf y∈D y − x . D) ∈ [0. Ax + f ∗ (−Ax). con igualdad sólo en el caso en que todos los n propios de A son iguales a 1. x∗ ∈B ∗ donde Si B ∗ := {x∗ ∈ X ∗ | x∗ ∗ ≤ 1}. Pruebe que entonces se tiene igualdad en (3. x y crítico (b) Demuestre que si y ¯ de Ψ existe Sn el espacio de Hilbert formado por las matrices simétricas de orden n. (c) Demuestre (si lo desea comience por el caso n = 1) que Θ∗ (A∗ ) = + Θ(−A∗ ) − n si − A∗ ∈ Sn +∞ si no.1). pruebe que g ∗ = σD + δB ∗ . pruebe que (X. con n + el producto interno A. Ψ : H → R ∪ {+∞} mediante Φ(x) = 2 x. además C y D son acotados. Ind. La distancia de Hausdor entre C y D se dene como h(C. +∞] con d(x. en dualidad con e(C.

y) = f (x − y) + tθ(y/t). . . Para ello se propone el siguiente esquema (a) (a) Sea (f ) ϕ(t. Pruebe que ϕ es convexa y deduzca que u es convexa y continua. 0) ∈ ∂ϕ(t. PROBLEMAS 73 Salvo constante multiplicativa. y sólo si. (D) mostrando que tiene solución.3. y diferenciable en todo Jacobi RN . x) ∈ (0. u(0. . entonces la solución de (P ) viene A= k τ i=1 λi xi xi −1 . x). . x∗ ) ∈ ∂u(t. .5. Problema 18 (Fórmula de Lax-Oleinik). x) = f (x) Se desea probar que u(t. el problema de encontrar el elipsoide de volumen mínimo (centrado en el origen) que contiene un conjunto de puntos dados {x1 . . estrictamente convexa →∞ θ(y)/ y = ∞. y ). . i ϕ : Sn × si de modo que Notemos que xt Axi = A. (t. x) + θ∗ ( ∂t y f. xk } genera n todo R . λk ) es una solución del dual. . t > 0. . . Para evitar soluciones degeneradas supondremos que {x1 . Ai i (P ) con (P ) es un problema con restricciones de desigualdad lineales. se tienen las condiciones siguientes: (d) Deduzca que (t∗ . . si. y es diferenciable en todo punto y (e) Concluya que u(·. . x) = min f (x − y) + tθ(y/t) n y∈R es una solución de tal ecuación. θ ∈ Γ0 (RN ) con θ(·) nita. Perturbemos mediante Rk → R ∪ {∞} ϕ(A. k en caso contrario. Pruebe asimismo que (P ) posee solución y ∗ = (λ1 . x)) =0 x ∈ RN . x. . x) + . . k}. x. x) ⇐⇒ (t∗ . (b) Pruebe que el óptimo en la denición de que se tiene u(t. x)) = 0. ¯ (iii) x∗ = θ(¯/t). . ¯ ¯ y (t∗ . ¯ (c) Calcule ϕ∗ en términos de f∗ y θ∗ . x ∈ RN . y) = (d) Explicite el dual única y que si dada por Θ(A) +∞ A. el número det(A−1 ) es el volumen del elipsoide se puede formular como {x ∈ Rn : xt Ax ≤ 1}. Consideremos la ecuación de HamiltonSean x u(t. i Ai := xi xt . (P ) Así. ∞) × RN y satisface ∂u ∂t (t. x∗ ) ∈ ∂u(t. i = 1 . x) es alcanzado en un único punto y = y (t. tal que lim ∂u (t. ·) ∗( θ x u(t. xk } ⊂ Rn A∈Sn min {Θ(A) : xt Axi ≤ 1. i = 1 . x) (i) t∗ + θ∗ (x∗ ) = 0. . Ai ≤ 1 − yi . x∗ . (ii) x∗ ∈ ∂f (x − y ).

f (u) ≤ m + vk ∈ X y 0 ∈ ∂ f (u). Deduzca que si f es acotada inferiormente y satisface la condición de Palais-Smale. > 0. · ) espacio de Banach. considere la ecuación 1 ∂u (t. ¯ Encuentre ∂ψ(0). cerrado y no-vacío. x) = f (x). x) + ∂t 2 x u(t. y sea m = inf u∈X f (u) > −∞ u es un -mínimo (i. Pruebe que existe v ∈ X dom(∂f ) es denso en v ∗ ∈ ∂f (v) tal que v −u ≤ √ y v ∗ −u∗ ≤ √ . | K f dµ| ≤ (a) Dena (b) Para ψ ∗ = δB(0.e. u(0.1) . t > 0. f (vk ) → m y (e) Deduzca la existencia de una sucesión (f ) Se dice que ∗ vk ∈ ∂f (vk ) tal que ∗ vk ∗ → 0. (c) Deduzca que Suponga que (d) Pruebe que dom(f ). x ∈ RN . x) = f (x) (g) Encuentre la fórmula explícita para la solución de la ecuación. Para ∂ f (u) formado por los funcionales f (u) − + u∗ . K un espacio topológico compacto y |µ|(A) = sup{ m i=1 |µ(Ai )| : {Ai }m i=1 y partición medible de es A} ∀ A ∈ B(K). y sólo si. . µ ≥ 0 en Kf y µ ≤ 0 en Kf . ∂ f (u) es convexo. C(K) el conjunto de funciones continuas de K en R con la norma de la convergencia uniforme f ∞ = maxt∈K |f (t)|. ) si. supp(µ) ⊂ Kf ∪ Kf . f = K |f | d|µ|. ∂f (vk )) → f (vk ) acotada. y u∗ ∈ ∂ f (u). v − u ≤ f (v) (a) Pruebe que (b) Sea para todo v ∈ X. Recordemos que el dual de C(K) es isométricamente isomorfo al conjunto M(K) de medidas de Borel regulares µ : B(K) → R con la norma µ = |µ|(K) < ∞ donde Sea Problema 20. es relativamente compacta para la topología débil. 0 f satisface la condición de Palais-Smale si toda sucesión vk que satisface d(0.74 CAPÍTULO 3. Notemos que El producto de dualidad entre C(K) M(K) µ. Problema 19 (Subgradiente aproximado) en . ψ(·) = · ∞ y pruebe que K f dµ. y sólo si. Finalmente. x) 2 =0 x ∈ RN . µ = 1. Pruebe + − + − µ ∈ ∂ · ∞ (f ) si. DUALIDAD EN OPTIMIZACIÓN CONVEXA (f ) Pruebe que para todo x ∈ RN se tiene limt→0+ u(t. entonces el mínimo de f es con alcanzado. Sea f ∈ Γ0 (X) con ≥ 0 denimos el -subdiferencial de f u∗ ∈ X ∗ que satisfacen u∈X como el conjunto (X. que + − f = 0 denotamos Kf ={t ∈ K : f (t) = f ∞} y Kf ={t ∈ K : f (t) = − f ∞}.

fλ es convexa. . La función Problema 21 (Regularizada de Moreau-Yosida). . . (f ) Explicite las relaciones de extremalidad que caracterizan las soluciones óptimas x ∈ S(P ) ¯ y µ ∈ S(D). (d) Pruebe que ∂f es monótono: x∗ ∈ ∂f (x). K ψn dµ) es sobreyectivo. . Jλ (z1 ) − Jλ (z2 ) ≤ z1 − z2 . Usando (c) y (e) se sigue Problema 22. y que el ínmo es alcanzado en un único punto. . de 1 Jλ se llama resolvente y λ (I − Jλ ) es la regularizada Yoshida que fλ es Fréchet-diferenciable con gradiente Lipschitziano. ¯ una función convexa. nita. pruebe que para λ↓0 se tiene Jλ (z) fλ (z) se mantiene acotado. n Pruebe que para cada ε > 0 existe xε ∈ R tal que f (xε ) ≤ ε. . . .3) f (Jλ (z)) + Jλ (z) − z 2 ≤ f (z). . 1 2λ (e) Deduzca que Jλ es una contracción: (f ) A partir de la desigualdad (f. y − x ≥ 0.2) (f. tiende a cero. (Karush-Kuhn-Tucker en el caso diferenciable no convexo) (a) Consideremos una función f : Rn → R una función diferenciable y acotada inferiormente. y) = f + y − x∈ Rn e n i=1 xi ψi ∞ para y ∈ C(K). y propia. Jλ (z) − z converge monótonamente a f (z). Indicación: considere xε un mínimo global de la función f + ε · y suponga que f (xε ) > ε. Deduzca que en admite soluciones. (P ) asociado a las perturbaciones ϕ(x. PROBLEMAS 75 (c) Sean f. ψn son linealmente independientes demuestre que el operador A : n denido por A(µ) = ( R K ψ1 dµ. ψn ∈ C(K) y consideremos el problema de mejor aproximación en el sentido de Tchebychef (P ) Calcule el dual de x∈Rn min f − n i=1 xi ψi ∞ . ∂f .1) (f. dε ) < −ε dε con dε := − f (xε ) y que esto contradice la optimalidad de xε .3. (b) Deduzca que para todo (c) Pruebe que z∈H existe un único x∈H tal que z ∈ x + λ∂f (x). fλ es Gâteaux-diferenciable con 1 fλ = λ (I − Jλ ). .i. ψ1 . La propiedad (b) permite denir la aplicación Jλ = (I + λ∂f )−1 : H → H . pruebe entonces que en ese caso f (xε .5. . . y ∗ ∈ ∂f (y) =⇒ y∗ − x∗ . v(P ) + v(D) = 0 y que (d) Pruebe que S(D) = φ. Sea H un espacio de Hilbert y f : H → R∪{+∞} Regularizada Moreau-Yoshida de parámetro λ > 0 es la fλ : H → R denida mediante fλ (z) = inf (a) Pruebe que x∈H f (x) + 1 z−x 2λ 2 . s.c. . (e) Suponiendo que tal caso M(K) → (P ) ψ1 .

gi (i ∈ I(¯) := {i | gi (¯) = 0}) son diferenciables en x. x una sucesión Indicación: razone por contradicción probando que si lo anterior no fuese cierto entonces ε > 0 y j ∈ J tales que para tk d) − g(¯)) ≥ max{ gi (¯). x i∈J x x lim sup 1 [g(¯ + td) − g(¯)] ≤ max{ t existirían gi (¯). m.2). . . λ1 .. d }.. x x i∈J i∈J t k → 0+ se tendría que 1 x tk (g(¯ + (c. d) = max{ x gi (¯). ¯ n: denen g(x) := max {gi (x)} y J := {i | gi (¯) = g(¯)}.1) (condiciones de Fritz-John) existen λ0 . d < 0 para todo i = 0.2) lim inf t→0+ t→0+ 1 t [g(¯ + td) − g(¯)] ≥ x x gi (¯).. d) ≥ 0 para una función g escogida apropiadamente y luego x aplique el Teorema de la Alternativa de Gordan. gm : C ⊂ Rn → R son funciones continuas. no todos nulos. ..2) (condiciones de Karush-Kuhn-Tucker) si además se satisface la condición de calicación de Fromovitz-Mangasarian : (M F ) entonces es posible tomar ∃d ∈ Rn : ∀i ∈ I(¯). gi (¯)... 0 ≤ λ0 .2) λ0 f (¯) + x i∈I(¯) x λi gi (¯) = 0. f. m. g1 ... Suponga que (P ) tiene un minimizador local x ∈ int(C) y que f. x λ0 = 1 en (3. λm . a1 .. d < 0. (S1) (S2) m m i i=0 λi = 1. ¯ x x ¯ Pruebe que: (d.. que satisfacen x (3. 1. g1 . DUALIDAD EN OPTIMIZACIÓN CONVEXA (b) Demuestre el Teorema de la Alternativa de Gordan : dados a0 . d ∈ Rn .76 CAPÍTULO 3. d }.3) g (¯. λi ∈ R+ (i ∈ I(¯)).. d } + ε. d .. x ... . x es acotada inferiormente g0 . x (d) Considere el siguiente problema de minimización con restricciones: (P ) donde min{f (x) | gi (x) ≤ 0 para i = 1. gm : C ⊂ Rn → R funciones continuas en C y diferenciables en x ∈ int(C). 2. ∀i ∈ J ... Indicación: pruebe que si la función entonces (S1) tiene una solución. x ∈ C}.. . (d.1) (c. .. ai . x Indicación: verique que g (¯. i=0 λi a = 0. am ∈ Rn . Pruebe que ∀d ∈ R x x 0≤i≤m Se (c. (c) Sean f (x) = log m i=0 exp ai . uno y sólo uno de los siguientes sistemas (S1) y (S2) admite una solución.

Capítulo 4

Aplicaciones al Cálculo de Variaciones
En esta sección revisaremos algunos ejemplos del Cálculo de Variaciones y del Análisis Variacional. Las técnicas usadas son aplicaciones de la Dualidad Convexa, revisada en la sección anterior, a los espacios de Sobolev. Es recomendable tener frescos algunos resultados de Teoría de las Distribuciones y de espacios de Sobolev. Se recomienda revisar [Bre83].

4.1.
Sea

Problema de Dirichlet

Ω ⊂ RN

un abierto acotado y consideremos los espacios

∗ sus respectivos duales topológicos X
problema

= 1 2

H −1 (Ω),

Y

=

L2 (Ω)N (identicación). Nos interesa el f (x)u(x)dx ,

1 X := H0 (Ω), Y = L2 (Ω)N

y

(P)
donde

1 u∈H0 (Ω)

inf

| u(x)|2 dx −

denota el gradiente débil y

Ω f (x)u(x)dx y

podemos escribir

G : L2 (Ω)N (P) de manera

1 f ∈ L2 (Ω). Sean F : H0 (Ω) → R denida por F (u) = → R con G(p) = 1 p 2 2 (Ω)N = 1 Ω N p2 (x)dx, de modo que i=1 i 2 2 L
equivalente por

u∈X
donde

inf F (u) + G(Au) Au =
si

1 A : H0 (Ω) → L2 (Ω)N

está denida por

u

que resulta ser lineal y continua. Es fácil

ver que

F ∗ (u∗ ) =
y que

0 +∞

u∗ = −f,

si no.

G∗ (p∗ ) =

1 2

p∗

2 . Podemos carecterizar L2 (Ω)N

A∗ : L2 (Ω)N → H −1 (Ω)
L2 (Ω)N ,L2 (Ω)N

por

1 ∀u ∈ H0 (Ω),
Así

A∗ p ∗ , u

1 H −1 (Ω),H0 (Ω)

= p∗ , Au

= − div p∗ , u

1 H −1 (Ω),H0 (Ω) .

A∗ p∗ = − div p∗

(en el sentido de las distribuciones). Luego, el problema dual de

(P)

es

(D)

inf

1 ∗ p 2

2 L2 (Ω)N

p∗ ∈ L2 (Ω)N , div p∗ = −f
77

.

78

CAPÍTULO 4.

APLICACIONES AL CÁLCULO DE VARIACIONES

0 ∈ int(L2 (Ω)N ) = L2 (Ω)N . Luego se satisface la calicación primal y como inf(P) ≤ 0 y F (v) + G(Av) es coerciva (el lector debe vericar esto) se tiene que S(D) = ∅ y, más aun, (D) tiene solución única. Sea u ¯ solución de (P) y p la solución de (D). Las ecuaciones de Euler-Lagrange son ¯∗
La calicación primal es

0 ∈ int(dom(G) − A dom(F ))

que es equivalente a

div(¯∗ ) ∈ ∂F (¯) = {−f } p u p∗ ∈ ∂G( u) = { u}, ¯ ¯ ¯
y equivalen a

div(¯∗ ) = −f p p∗ = ¯
Luego

u. ¯

u ¯

es solución (débil) de

−∆¯ = f u u=0
4.2.
Sean

en

Ω, ∂Ω.

sobre

Problema de Stokes

Ω ⊂ R

abierto acotado y

campo de velocidades

f ∈ L2 (Ω)3 . El problema de Stokes consiste en encontrar u = (u1 , u2 , u3 ) ∈ H 1 (Ω)3 y una función de presión p ∈ L2 (Ω) tales que   −∆u + p = f en Ω, div(u) = 0 en Ω, (S)  u = 0 sobre ∂Ω,

un

donde

∆u = (∆u1 , ∆u2 , ∆u3 ).

Este problema corresponde a un modelo simplicado de un uido

homogéneo e incompresible con

Ω ⊂ R3 la región que contiene al uido, que supondremos de frontera ϕ = (ϕ1 , ϕ2 , ϕ3 ) ∈ D(Ω)3
(donde

∂Ω

regular. Veamos la formulación variacional del problema. Dada

D(Ω)

∞ sobre denota el conjunto de funciones de clase C
Notemos que si

Ω,

a valores reales y con soporte compacto).

(u, p)

son soluciones clásicas, entonces

3

ui ϕ −
i=1
y denimos una solucion débil de

p div(ϕ) =
Ω Ω

fv
tal que

(S)

como un par

(u, p) ∈ H 1 (Ω) × L2 (Ω) p div(v) =
Ω Ω

3

(∗) ∀v ∈
Consideremos el espacio

1 H0 (Ω)3 , i=1 Ω

ui vi −

f v.

3 i=1 Ω
espacio

1 V = {v ∈ H0 (Ω)3 | div(v) = 0} dotado del producto interno ((u, v)) := ui vi y la norma · inducida por tal producto interno. Es fácil ver que (V, · ) es un de Hilbert. Además, u ∈ V es solución de

(P)

v∈V

inf

1 v 2

2


fv

4.2. PROBLEMA DE STOKES

79

si, y sólo si,

∀v ∈ V,
que corresponde a

((u, v)) =

fv

(∗)

cuando hacemos

div(v) = 0. (P)
que nos

Pero, ¾cómo recuperamos la presión? Construiremos un problema dual asociado a permitirá obtener la presión

p

que perdimos en el camino. Sean

X =

X∗

=

H −1 (Ω). Denamos las funciones : X −→ R v → 1 v 2
2

1 H0 (Ω)3 ,

Y =

L2 (Ω)

= Y∗

y

F

Ω f v,

G : Y y

−→ R → δ{0} (y),

A : X −→ R v → div v.

Así podemos escribir el problema primal como

(P)

v∈X

inf F (v) + G(Av).

El dual en el sentido de Fenchel-Rockafellar es

(D)
donde

p∗ ∈Y ∗

inf F ∗ (−A∗ p∗ ) + G∗ (p∗ )

G∗ (p∗ ) = 0

y

F ∗ (−A∗ p∗ ) = sup
v∈X

−p∗ , div(v) 1 v 2
2

L2 (Ω)

1 v 2

2

+

fv

= − inf {
v∈X


fv +

p∗ div(v)}. p∗ ∈ Y ∗

Este último problema es coercivo (verifíquelo) y estrictamente convexo, luego para cada existe una única solución

vp∗ ∈ X

que está caracterizada por:

∀h = (h1 , h2 , h3 ) ∈ X,
En particular, para cada

((vp∗ , h)) − f, h
1 w ∈ H0 (Ω)

L2 (Ω)

+ p∗ , div(h)

L2 (Ω)

= 0.

i = 1, 2, 3

y

se tiene que

(vp∗ )i w −

de donde deducimos que

fi v +
Ω Ω

p∗

∂w = 0, ∂xi

−∆vp∗ −

p∗ = f

en

(en el sentido de las distribuciones). Es directo vericar que

F ∗ (−A∗ p∗ ) =

1 2

3

vp∗
i=1

2 L2 (Ω)

=

1 vp∗ 2

2 1 H0 (Ω)3 ,

de modo que podemos reescribir el dual como

(D)

p∗ ∈L2 (Ω)

inf

1 vp∗ 2

2 1 H0 (Ω)3

1 vp∗ ∈ H0 (Ω)3

es solución de

− ∆vp∗ −

p∗ = f

en

Ω .

probemos la existencia de una solución de (D). que S(P) = ∅. Si f ∈ Lp (Ω) con 1 < p < +∞ y Ω es regular (de clase C 2 ). ∀v ∈ C.80 CAPÍTULO 4. −¯∗ ) u p sea solución débil del problema de Stokes. +∞[. u es solución de la siguiente desigualdad variacional: (V I) donde u ∈ C. −A∗ p∗ = 0. ¯ tenemos que (pn n Pero F ∗ (−A∗ p∗ ) = 1 2 vp∗ 2 y se verica que 4. div(¯) = 0 u −∆¯ + u (−¯ ) = f p ∗ en en Ω. v)) = de (P). Sea u tal solución y ¯ Ω ((·. es decir. y sólo si. Es fácil es un convexo cerrado y no-vacío . Ω. Sea pn una suceción minimizante para (D). consideremos el siguiente problema: (P) donde v∈C en inf 1 2 | v|2 dx − Ω Ω f vdx 1 C := {v ∈ H0 (Ω) | | v| ≤ 1. −A∗ p∗ ∈ int(dom(F ∗ )) para todo p∗ ∈ L2 (Ω). ¾por qué?). Pasando a una subsucesión si fuese necesario. u = 0 ∈ ∂Ω.p}. entonces u ∈ W 2. u ∈ C 1 (Ω). ((u. En particular tenemos que existe C ≥ 0 tal que para todo n ∈ N se satisface que vp∗ H 1 (Ω) ≤ C . Si f ∈ L ¯ ¯ .t. Como el ver que u ∈ S(P) si.p (Ω).3. ·)) denota el producto interno en u v. ¯ +∞ .α (Ω). entonces u ∈ W 2.3. problema es coercivo. Problema de la torsión elasto-plástica Dado f ∈ L2 (Ω). de ∗ modo que deducimos que inf(D) = − min(P) ∈ R. lo que equivale a que dual: (¯. Tenemos que la relación de extremalidad es F (¯) + F ∗ (−A∗ p∗ ) = u. lo n 0 1 3 ∗ −1 (Ω) y de que implica que (vp∗ )n está acotada en H0 (Ω) y por lo tanto ( pn )n está acotada en H n ∗ 2 aquí concluimos que (pn )n está acotada en L (Ω)/R. Notemos que de aquí se deduce la unicidad de la solución Brezis-Stampacchia: recordemos el Teorema de Teorema 4. ¯ p Luego. se deduce que Ω − c. −A∗ p∗ − F (v) ¯ ¯ y en consecuencia u = v(¯∗ ). v − u) ≥ 0.1. ∀α ∈ [1. Para nalizar. APLICACIONES AL CÁLCULO DE VARIACIONES Sea u∈X ¯ la solución de (P) y supongamos que (D) admite solución p∗ ¯ (la cual no es única. u ¯ ¯ ¯ lo que implica que F ∗ (−A∗ p∗ ) ≥ v. Veamos la condición de calicación 0 ∈ int(dom(F ∗ ) + A∗ L2 (Ω)). ∗ ) converge débilmente hacia p∗ ∈ L2 (Ω)/R que resulta ser solución de (D). De las inyecciones de Sobolev. ((u. 1 H0 (Ω). v − u)) − (f.

si existe en λ ∈ L2 (Ω) tal que λ(x)(| u(x)| − 1) = 0 y que verique (∗). Ω − c. G∗ (p∗ ) = Ω |p∗ | de donde formulamos el problema dual por (D) La calicación dual equivale a y p∗ ∈L2 (Ω)N inf 1 div p∗ + f 2 H −1 (Ω) + Ω |p∗ | . Ψ(p) = α 2 dλ + β u. El problema es que (D) no admite necesariamente una solución. β > 0 . (Notar que (D) es coercivo 1 N pero este espacio no es reexivo). Problemas (Problema de visco-plasticidad) Problema 23 denido por . PROBLEMAS 81 Tomemos Av = v y 1 X = H0 (Ω). p En consecuencia. ¯ | u| = 1.t. Consideremos el problema de visco-plasticidad f (x)u(x)dλ(x) . 2 Ω p Ω p dλ. u u ¯ ¯ ¯ G(A¯) + G∗ (¯∗ ) = p∗ . equivale a S = {p ∈ L2 (Ω)N | |p(x)| ≤ 1. (∗) − ∆¯ − div(λ(x) u) = f u ¯ Recíprocamente. ¯ Ω − c.p. y G(p) = δS (p).. Y = L2 (Ω)N = Y ∗ . las relaciones ¯∗ 1. ¯ Esto implica lo que equivale a | u| ≤ 1 c. v∈X (P) inf F (v) + G(Av). A¯ u p ¯ u ∗ (x)| = p∗ (x)| u(x)| que |¯ p ¯ ¯ en −∆¯ − div p∗ = f u ¯ y (en H −1 (Ω)). F (¯) + F ∗ (−A∗ p∗ ) = div p∗ .t. u. y Au = Ω es un abierto acotado de RN .}. α. Es fácil ver que F ∗ (v ∗ ) = 1 ∗ v +f 2 2 H −1 .4. λ(x) = |¯∗ (x)|. 0 ∈ int(H −1 (Ω) + A∗ dom(G∗ )) por lo que S(P) = ∅ (ya lo sabíamos) de extremalidad conducen a lo que equivale a min(P) = − inf(D). Ψ : L2 (Ω)N → R y A : H0 (Ω) → L2 (Ω)N denidos mediante Φ(u) = Ω f u dλ. en L (Ω) 4. ¯ H −1 (Ω). X ∗ = H −1 (Ω). se tiene que si si p∗ Ω |¯ | = ¯∗ Ωp De esta relación deducimos que en Ω − c.4.p.t. entonces ¯ ∗ (x) := λ(x) u(x) se verican las condiciones de extremalidad y en consecuencia p∗ ∈ deniendo p ¯ ¯ ¯ S(D). F : X → R. G : Y → R dadas por Denamos las funciones A: X → Y . 2.p.4. Este problema se puede escribir en 1 el formato de la dualidad de Fenchel-Rockafellar minu∈H 1 (Ω) Φ(u) + Ψ(Au) tomando Φ : H0 (Ω) → 0 1 R. F (v) = con 1 2 | v|2 dx − Ω en f vdx Ω Luego. Si p ∈ S(D). p∗ (x) = ¯ donde 0 λ(x) u(x) ¯ | u(x)| < 1.t.p. (P ) donde 1 u∈H0 (Ω) min α 2 | u(x)|2 dλ(x) + β Ω Ω | u(x)|dλ(x) − Ω y f ∈ L2 (Ω).

en Ω. f ∈ L2 (Ω) y u ∈ R con a y b de evolución Problema 24.p. que (P ) admite una única solución y que (D) admite soluciones. β:R→R Sea Ω ⊂ RN un abierto acotado de frontera regular. APLICACIONES AL CÁLCULO DE VARIACIONES (a) Pruebe que el dual correspondiente está dado por (D) (b) Pruebe que (c) Pruebe que p∗ ∈L2 (Ω)N min 1 2α [|p∗ (x)| − β]2 dλ(x) + Ω div(p∗ ) = −f . u ∈ S(P ) ¯ y y además se tiene que p∗ ∈ S(D) si. v(P ) + v(D) = 0. g(u) = u 0 β(ξ)dξ . L2 (Ω)) tal que u(t) ∈ H0 (Ω) t > 0. div(¯∗ ) = −f ¯ p 1 ∗ (x)| − β] p∗ (x)/|¯∗ (x)| u(x) = α [|¯ ¯ p p +¯ (en el sentido de distribuciones) c. y sólo si. t → ∞. Para cada condición inicial |β(u)| ≤ a + b|u| para todo u0 ∈ L2 (Ω) consideremos la ecuación = ∆u − β(u) + f u(0) = u0 (a) Pruebe que esta ecuación admite una única solución para ∂u ∂t 1 u ∈ L∞ (0.82 CAPÍTULO 4. . 1 2 la trayectoria (b) Pruebe que cuando única solución de t → u(t) converge débilmente en L2 (Ω) hacia la (P ) donde 1 u∈H0 (Ω) min | u(x)|2 dx + Ω Ω g(u(x))dx − Ω f (x)u(x)dx . ∞.t. Consideremos una función continua no-decreciente tal que constantes positivas.

(Pr ) vr = min denido para cada f0 (x) + r i∈I θ fi (x) r x ∈ Rn r > 0.1. las cuadráticas.1. (∗) Diremos que una función f : Rn → R pertenece a la clase Q si es convexa y satisface la siguiente propiedad: Si f es constante en el segmento de recta entonces es constante en toda la recta que pasa por Suponga que [x.1. y σ : R → R es estrictamente convexa y creciente. El objetivo de este capítulo es analizar cuán bien (Pr ) aproxima a (P). y un problema sin restricciones i ∈ I}. es constante en Ejercicio 5. nos preguntamos por la convergencia de las soluciones generadas a partir de (Pr ).1. además. x e y. Denición 5.1. Preliminares. Muestre que f es constante en f ∈Q a(C). A es lineal. Más especícamente. Si Algunas funciones relevantes: Las funciones lineales.1. Presentaremos ahora una clase de funciones que será especialmente importante en nuestro análisis.1. entonces σ ◦f ◦A ∈ Q. 83 . Dado un conjunto nito I consideremos un programa convexo de la forma (P) v = min{f0 (x) | fi (x) ≤ 0. y]. La idea es que (Pr ) penaliza la violación de las restricciones de (P) mediante la función θ (más adelante mostraremos hipótesis adecuadas que formalizan esta idea). y que el convexo C ⊆ Rn es tal que f C. Ejemplo 5. f ∈ Q. estudiamos la convergencia de vr a v ) y. y las reales-analíticas tienen la propiedad (*). Terminamos el capítulo con el estudio de problemas duales generados a partir de este esquema. estudiamos la convergencia de los valores de los problemas aproximados (Pr ) al valor del problema (P) (esto es.Capítulo 5 Penalización en Optimización Convexa 5.

+∞]. si si θ(u) = −(−u)1/2 +∞ u ≤ 0. no. si si u = κ. . no. θ(u) = eu . y θ (u) → +∞ cuando u → κ−. el conjunto de hipótesis (a) (e) lo denotaremos Ejemplo 5.2 (Funciones de Penalización). entonces entonces no necesariamente f ∈ Q.84 CAPÍTULO 5. no. f + g ∈ Q. no. fi ∈ Q. θ(u) = Penalización Exponencial si si u < 0. PENALIZACIÓN EN OPTIMIZACIÓN CONVEXA Si Si f es estrictamente convexa.1. Penalización Logarítmica Desplazada θ(u) = Penalización Hiperbólica − ln(1 − u) +∞ si si u < 1. f. θ(u) = Penalización Raíz 1 1−u si si +∞ u < 1. es una función estrictamente convexa diferenciable θ (u) > 0. A lo largo del capítulo supondremos que (a) f0 .. θ : (−∞.. g ∈ Q. con θ (u) → 0 cuando u → −∞. κ=0 supondremos la condición de Slater: tal que (e) Si ∃ˆ x tal que fi (ˆ) < 0 ∀i ∈ I . g}. θ(u) = Penalización Inversa Penalización Logarítmica − ln(−u) +∞ 1 −u +∞ si si u < 0. con κ ∈ [0. no. κ) → R. f0 . I es un conjunto nito. u > κ. max{f. fi : Rn → R son funciones convexas. x Diremos que θ es una función de penalización si satisface (d) y la extendemos a todo R mediante θ(u) = limu→κ− θ(u) +∞ . (H0 ). (b) El conjunto de soluciones (c) (d) S(P) es no-vacío y acotado. En este contexto.

Demostración: Supongamos que existen con x.2. no-vacío y acotado. κ = 0. x = y . +∞ ∞ f0 (d) si para algún si no. Se tiene que fi (x) = fi (y) ∀i ∈ I . Sea d = y − x. i ∈ I ∪ {0}. fi son constantes en De este modo las funciones anterior. Pero lo anterior no puede ser ya que vr es el ínmo de (Pr ). Luego fi (d) = 0 y d es dirección de constancia para fi .5. ∗ ∗ Tomando x ∈ S(P) se sigue que x + td ∈ S(P) para todo t > 0 contradiciendo así el acotamiento de S(P). Entonces C tiene un solo elemento. entonces d satisface que fi∞ (d) ≤ 0 para todo i ∈ I ∪ {0}. Ya que Estudiemos la convergencia. Si fr (z) ≤ 1 f0 (x) + f0 (y) + r 2 θ i∈I (fi (x) + fi (y))/2 r fi (x) fi (y) + r r 1 < f0 (x) + f0 (y) + r 2 = vr i∈I 1 θ 2 donde la segunda desigualad es estricta ya que estamos suponiendo que existe fi (y). Para t ∈ R se 1 ∞ sigue que fi (x + td) = fi (x).1.5. fi son constantes en C . con x = y . Probaremos que ∞ fr (d) = i. ∗ ∈ S(P). y S(Pr ) i ∈ I ∪ {0} y. en virtud del lema si S(Pr ) = {x(r)}. fi∞ (d) > 0. Además vr → v y fr es inf- r > 0 y sea compacta o. Algunos Resultados de Convergencia Lema 5. son constantes en [x. Para simplicar la notació. lo cual es una contradicción. Se sigue que S(P) es no acotado. Demostración: Fijemos x(r) ∈ S(Pr ). y ∈ C .2.1. De lo contrario. S(Pr ) es convexo. r ∞ que fr (d) > 0 para todo d = 0. En consecuencia. se tiene que κ > 0. 1 . se sigue que lim supr→0+ vr ≤ v . en este capítulo denotaremos la función de recesión mediante el símbolo ∞ como superíndice. ALGUNOS RESULTADOS DE CONVERGENCIA 85 5. i ∈ I ∪ {0}. para Se sigue que i ∈ I tal que fi (x) = fi (x) = fi (y) ∀i ∈ I y luego f0 (x) = f0 (y). Para cada r > 0 existe un único mínimo dist(x(r). Consideremos x ˆ un punto de Slater si x∗ ∈ S(P) y x∗ = (1 − )x∗ + x. Luego [x. No es difícil mostrar que fr (x) = f0 (x) + r i∈I θ( fi (x) ). S(P)) → 0 cuando r → 0+ .2. Proposición 5. tomando z = (x + y)/2. Veamos ahora que S(Pr ) tiene un solo elemento. Si no. de manera equivalente. y}). Luego f (x∗ + td) = f (x∗ ) = v y f (x∗ + td) = f (x∗ ) ≤ 0 Consideremos ahora x 0 0 i i ∀t > 0. existen x. y] ∈ S(Pr ). con x = x∗ ˆ ˆ vr ≤ fr (x∗ ). x r→0+ Como r→0+ v = f0 (x∗ ). ∞ d = 0 es tal que fr (d) ≤ 0. Sea C ⊂ Rn un convexo no-vacío tal que f0 . y] y luego son también constantes en a({x. y ∈ S(Pr ). Las funciones fi .2. lim sup vr ≤ lim sup fr (x∗ ) ≤ f0 (x∗ ) ≤ (1 − )f0 (x∗ ) + f0 (ˆ).2. a diferencia de lo que hicimos en la Denición 1.

Se sigue que fi (x0 ) ≤ 0 ∀i ∈ I y f0 (x0 ) ≤ v lo que equivale a x0 ∈ S(P). Supongamos que S(P) = ∅ 2 x( ) y consideremos x ∈ S(P). vr → v S(P) y que cualquier punto de acumulación de la sucesión Hemos probado que del problema (P). existe rk → 0+ tal que x(rk ) → +∞ y x(rk ) x(rk ) → d = 0. y consideremos x( ) la única solución del problema v = min ϕ(x) + con 2 x 2 | x ∈ Rn . S(P)) → 0. esto no es trivial sólo si Ejemplo 5. es de especial interés analizar la convergencia de tiene más de un elemento). Sin pérdida de generalidad.86 CAPÍTULO 5.2. Es fácil ver que > 0. Esquema de Penalización de Tikhonov. se sigue que x( ) converge al Así dist(x( ). Consideremos x0 = limk→∞ x(rk ) un punto de acumulación de (x(r))r>0 . donde ϕ ∈ Γ0 (Rn ). tomando límite. De lo contrario. deducimos que ϕ(x ) ≤ ϕ(¯) = v . Tomemos rk tal que vrk → lim inf r→0+ vr . fi∞ (d) ≤ 0 i ∈ I ∪ {0} contradiciendo de este modo el acotamiento de S(P). Se tiene que frk (x(rk )) ≤ frk (x∗ ) y luego i∈I f0 (x(rk )) + rk θ( fi (x(rk )) ) rk x(rk ) Esto equivale a ≤ frk (x∗ ) . Del mismo ¯ + ∗ modo ϕ(x( )) ≤ ϕ(¯) + x ¯ 2 x 2 x . Sin embargo. podemos suponer que x(rk ) → x0 .1. . ¯ x ¯ 2 ϕ(x( )) + Luego 2 ≤ ϕ(¯) + x 2 ≤ ϕ(x( )) + 2 x 2. Tomando límite cuando → 0 . Del argumento anterior i∈I ∞ f0 (d) + vrk → f0 (x0 ) + i∈I y luego θ∞ (fi (x0 )) = v. Más aun. x(rk ) f0 (x(rk )) + x(rk ) de donde se sigue que (x(r θ( fix(rkk )) ) i∈I x(rk ) rk x(rk ) rk ) ≤ frk (x∗ ) . → 0+ . Sea el programa convexo (P) v = min{ϕ(x) | x ∈ Rn }. ¯ x( ) ≤ x y x( ) es una sucesión acotada y converge (vía subsucesión) a x∗ . lim inf r→0+ vr = v . ya que x ¯ x elemento de norma mínima de S(P): x( ) → ProyS(P) (0). En consecuencia. Finalmente mostremos que vr → v . x(rk ) θ∞ (fi∞ (d)) ≤ 0. ∗ ≤ x ∀¯ ∈ S(P). PENALIZACIÓN EN OPTIMIZACIÓN CONVEXA Veamos ahora que x(r) es acotada. x(r) es solución x(r) (obviamente. Se tiene que frk (x(rk )) = vrk y. deducimos que f0 (x0 ) + i∈I θ∞ (fi (x0 )) ≤ v .

Observación 5. Luego x∗ ∈ S(P).. Aθ (y) = − Πk (−yi ) i=1 1 k 1/k es la media geométrica. obtener información del tipo Γ(x0 ) ≤ Γ(x∗ ). convexa y satisface 1 k k R es simétrica.. x] y luego es ¯ ¯ ∗ ¯ ∗ también constante en a([x . De este modo se tiene que θ fi (x(rk )) rk ≤ i∈I0 / i ∈ I0 θ i∈I0 / fi (xk ) rk . y deducir que para d es de constancia I0 = {i ∈ I | fi es constante en S(P)} para fi .3. En la próxima sección presentaremos las herramientas que nos permitirán abordar esta pregunta más adelante..1. positivamente homogénea. Proposición 5. Medias Asintóticas En lo que resta del capítulo. 5. quisiéramos ahora.. MEDIAS ASINTÓTICAS 87 Volvamos al análisis de la convergencia de las soluciones primales en nuestro esquema de penalización. Para Para θ(y) = − ln(−y). 1 k k θ i=1 yi r Ejemplo 5.k yj . La función Aθ : ] − ∞. 1 θ(y) = − y . Aθ (y) = maxj=1.1. entonces Aθ ≡ M ∞ y en está bien denida.2. Si Ejercicio 5. i=1 i=1. Aθ z → M (z) = θ−1 1 k k i=1 θ(zi ) es convexa.. 0[k la función Aθ (y) = lim rθ r→0+ está bien denida.. Se tiene que f0 es constante en [x .3. suponemos que θ −1 es tal que para y ∈] − ∞. Aθ (y) = P1 k 1 i=1 yi es la media armónica.k . Sea x ∈ S(P) ¯ ∗ ∗ ¯ y xk = x(rk ) − x + x → x cuando k → +∞.1. particular.. Para θ(y) = ey . Sea x∗ = limk→+∞ x(rk ) un punto de acumulación de x(r). donde Γ es algún criterio que tendremos que denir.3. De la desigualdad frk (x(rk )) ≤ frk (xk ) se sigue que θ i∈I Del mismo modo podemos denir la dirección fi (x(rk )) rk ≤ i∈I θ fi (xk ) rk .1.. Pruebe las armaciones del ejemplo anterior.3. mediante un proceso límite.5. x]).3. Se sigue que d = x − x es dirección de constancia para f0 y en ¯ consecuencia f0 (xk ) = f0 (x(rk ) + d) = f0 (x(rk )).3. Motivados por el Ejemplo 5. no- yi ≤ Aθ (y) ≤ max yi . 0[k → decreciente por componentes.1.

y satisface 1 k k yi ≤ Aθ (y) ≤ max yj . Es directo ver que Aθ es simétrica. r(ρ)[.. Proposición 5. Veamos primero que Aθ es cuasi-cónvexa (tiene conjuntos de nivel convexos). →0+ donde 1 es un vector que contiene 1 en todas sus componentes. 0[k y λ∈R se tiene que {y | Ar (y) ≤ λ} = y 1 k k θ i=1 yi θ r λ r θ. con P un cono convexo. existe r(ρ) > 0 tal que β θ−1 (θ1 (yi /r)) < 2 < βρ ∀r ∈]0.1 (Crouzeix). Sea δ : P → R una función positivamente homogénea y cuasi-convexa. (b) limu→−∞ θ2 −1 (θ1 (u)) u = β > 0. no-decreciente por componentes. Sean θ1 . 0]k y notemos que tal extensión Aθ . 0].88 CAPÍTULO 5. Muestre que efectivamente Aθ es continua en ] − ∞. Para esto basta probar que la función Ar (y) = rθ−1 1 k k θ i=1 yi r y∈ es cuasi-convexa (pues la cuasi-convexidad se preserva bajo límite).2.. entonces Aθ1 y Aθ2 coinciden (o ninguna de las dos existe).. Extendamos continuamente ahora la función es única y la denotamos también Aθ a todo ] − ∞. ρ yi /r . PENALIZACIÓN EN OPTIMIZACIÓN CONVEXA Demostración: Todas las propiedades son fáciles de demostrar salvo la convexidad.2. de donde la propiedad se sigue en virtud de la convexidad de la función de penalización la convexidad de Aθ se sigue del lema de más abajo.k Ejercicio 5. La siguiente propiedad muestra que es posible denir clases de equivalencias para funciones de penalización que comparten función de media asintótica. convexa. Demostración: Para cada ρ > 1. Si δ(y) < 0 ∀y ∈ P (o bien δ(y) > 0 ∀y ∈ P ). continua.3..3. Si se tienen las siguientes condiciones (a) inf θ1 = inf θ2 .3. θ2 : R → R ∪ {+∞} convexas. En efecto. Finalmente. 0]k . Es directo ver que dados ] − ∞. tal extensión está dada por la fórmula Aθ (y) = lim Aθ (y − 1). i=1 j=1. positivamente homogénea. Lema 5. entonces δ es convexa. estrictamente crecientes y nitas en ] − ∞.

ρ con −1 1 Ψr = rθ2 ( k k yi i=1 θ1 ( r )). para probar la recíproca basta notar que −1 θ1 (θ2 (u)) v 1 = lim −1 = u→−∞ v→−∞ θ (θ1 (v)) u β 2 lim e intercambiar los roles de Aθ2 (y) y Aθ1 (y) . ρ Tomando ρ→1 se concluye que Aθ1 (y) existe y coincide con Aθ2 (y). Además. lim inf Ψr = β lim inf r→0+ r→0+ y −1 rθ1 1 k k θ1 i=1 k yi r lim sup Ψr = r→0+ De esto se deduce que −1 β lim sup rθ1 r→0+ 1 k θ1 i=1 yi r . En consecuencia. Finalmente. βρAθ2 (y) ≤ β lim inf r→0+ −1 rθ1 1 k 1 k k θ1 i=1 k yi r yi r −1 ≤ β lim sup rθ1 r→0+ θ1 i=1 β ≤ Aθ2 (y). se tiene que que k yi i=1 θ1 ( r ) → inf θ1 = γ cuando r → 0+ . MEDIAS ASINTÓTICAS 89 Suponiendo que Aθ2 (y) existe.5. 1 k Por otro lado. De estas dos observaciones deducimos que −1 1 rθ2 ( k −1 1 rθ1 ( k cuando k yi i=1 θ1 ( r )) k yi i=1 θ1 ( r )) →β r → 0+ .3. de (b) se sigue −1 θ2 (x) →β −1 θ1 (x) cuando x → γ. de lo anterior se sigue que Aθ2 (βρy) = βρAθ2 (y) ≤ lim inf Ψr r→0+ ≤ lim sup Ψr r→0+ β ≤ Aθ2 ( y) ρ β = Aθ2 (y).

4.. y ∈ C. no. Entonces (i) Si limu→−∞ uθ(u) < 0.3..3. Sea θ como en la proposición anterior. x x (ii) ∀x. entonces Aθ (y) = − Πk (−yi ) i=1 1/k ..4.... Para cada convexo cerrado no-vacío C ⊆ S(P) denimos IC = {i ∈ I | fi Cuando no es constante en mediante C}.. max ui = max vj ⇒ inf Aθ (w) < max{Aθ (u). / (iii) IC = ∅ si. Consideremos C ⊆ S(P) convexo cerrado no-vacío tal que SC = ∅. C tiene un solo elemento. entonces u Aθ (y) = max yi . con limu→−∞ θ (u) θ (u) > 0.k yi .1. .v] Denición 5. i=1. 5.3. (iii) Si limu→−∞ ln(θ(u)) < 0. Lema 5.k w∈[u.. Convergencia Primal del Método de Penalización Adicionalmente en el resto del análisis consideramos la hipótesis (H1 ) ∀u. entonces Aθ (y) = maxi=1.. vC = inf ϕC SC = arg min ϕC . v ∈ [−∞. Aθ (v)}.... IC = ∅ denimos ϕC : a(C) → R ∪ {+∞} ϕC (x) = Del mismo modo denimos Aθ ((fi (x) | i ∈ IC )) +∞ y si si x ∈ C... 0]k . (ii) Si limu→−∞ ueθ(u) < 0.1. ∀i ∈ IC se tiene que fi∞ (x − y) = 0. y sólo si.4.. PENALIZACIÓN EN OPTIMIZACIÓN CONVEXA Corolario 5. entonces 1 Aθ (y) = k k i=1 −1 1 yi .1.k i=1. i=1. Pruebe que si θ es además de clase C2 en R− .k Ejercicio 5.90 CAPÍTULO 5.. Entonces (i) ∃ˆ ∈ C tal que fi (ˆ) < 0 ∀i ∈ IC .

y luego S(P) es no acotado. De (ii) se sigue que x − y es dirección de constancia para fi . La primera parte de la propiedad se sigue entonces de la arbitariedad de De la misma forma se tiene que Luego. entonces SC ⊂ C y ∃i ∈ IC ∃β < 0 tales que fi (x) = β ∀x ∈ SC . basta ver que i ∈ IC . y}) de donde se sigue que fi (x − y) = 0. Tomando z = αy + (1 − α)x se tiene que f (z) ≤ αf (y) + (1 − α)f (x) de modo que Aθ (ϕC (z)) = Aθ ((fi (z) | i ∈ IC )) ≤ Aθ (α(fi (y) | i ∈ IC ) + (1 − α)(fi (x) | i ∈ IC )). . v ∈] − ∞. lim sup rj θ−1 j→+∞ θ i=1 ≤ Aθ (v + 1) de donde se sigue la igualdad deseada. x = y . fi no es constante en xi ∈ C tal que fi (x) < 0 y fj (xi ) ≤ 0 ∀j ∈ IC \ {i}. entonces el límite existe y Aθ (v) = lim rk θ−1 k→+∞ 1 k k θ( i=1 j vi ) . (iii) Supongamos que IC = ∅ y que C no es un síngleton. De lo contrario existirían x. (v) Para probar que para algún Se tiene que SC = C basta mostrar la existencia de i ∈ IC \ ISC . adecuadamente escogidos. k Se tiene que rj θ−1 de donde deducimos que 1 k k θ i=1 vi − rj ≤ rj θ−1 1 k θ i=1 j vi rj Aθ (v − 1) ≤ lim inf rj θ j→+∞ −1 1 k k θ i=1 j vi rj .5. i ∈ I ∪ {0}. (iv) Sean >0 y j sucientemente grande de modo tal que v − 1 ≤ vj . La otra implicancia es evidente. Como para cada i ∈ IC . 0[k . rk (v) Si IC = ∅. y ∈ C. CONVERGENCIA PRIMAL DEL MÉTODO DE PENALIZACIÓN 91 (iv) Si vj → v. Luego existen x. es decir. maxi∈IC fi es constante en SC . si v+ 1<0 1 k k j y v < v + 1. fi (x) ≤ 0 ∀i ∈ IC .4. 0]k . Tomando x = |I1 | i∈IC xi ∈ C se ˆ C tiene que fi (ˆ) < 0 ∀i ∈ IC . j vi rj para y j v < 0. fi es constante sobre SC . y ∈ SC tales que maxi∈IC fi (x) = maxi∈IC fi (y). Luego fi es también constante / ∞ en a({x. rj → 0+ . entonces Aθ (v) ≤ lim inf rk θ−1 k→+∞ 1 k k θ( i=1 j vi ) . y ∈ C se tiene que fi es constante en [x. x (ii) Para i ∈ IC y x. y]. lo Demostración: (i) Dado C. rk Si v ∈] − ∞. > 0. existe cual es una contradicción. x ∈ C .

Probemos que existe i ∈ IC tal que fi (x) = β ∀x ∈ SC . x x / i θ }). Sea la sucesión S 0 = S(P) y S k+1 = arg min ϕS k . Supongamos que no. en consecuencia. Luego xj = xj − x + x → x .1. Entonces S 0 ⊃ S 1 ⊃ S 2 ⊃ . Supongamos (H0 ). se tiene que I 0 ⊃ I 1 ⊃ I 2 ⊃ . . . Así / j j  1 −1  1 θ rj |I k |   fi (x(rj ))  1 −1  1 ≤ θ rj rj |I k |  fi (xθ ) j . si anterior y del Lema 5. A continuación mostramos el principal resultado concerniente a la convergencia primal del método de penalización. Tomando x = ˆ x i∈IC xi se tiene que fi (ˆ) < β ∀i ∈ IC y en |IC | consecuencia maxi∈IC fi (ˆ) < β . deniendo I k = IS k . f (x)]. existe k tal que ¯ ¯ IS k = ∅ y por lo tanto S k = {xθ }.   fi (x(rj ))  1 −1  1 ϕS k (¯) ≤ lim inf θ x θ j→+∞ rj rj |I k | k i∈I   θ) fi (xj 1 1  ≤ lim θ−1  k θ j→∞ rj rj |I | k i∈I ≤ϕS k (x ) = inf ϕS k .4. Entonces (Pr ) admite una única solución x(r) y se tiene que vr → v y x(r) → xθ cuando r → 0+ . . Notemos que x. Probemos ¯ ¯ k+1 con lo cual obtendremos que x = xθ . Por otro (H1 ). Por otro lado.1. para i ∈ I k . . Denamos β como el valor de maxi∈IC fi sobre SC . ¯ Además. a({¯. Además. . x Corolario 5. rj De la desigualdad θ i∈I k θ i∈I k Consideramos separadamente dos casos. (H1 ). frj (x(rj )) ≤ frj (xθ ).v] inf Aθ (u) < max{ϕC (x). f es constante en S k y. es también constante en [¯. PENALIZACIÓN EN OPTIMIZACIÓN CONVEXA Notemos que el argumento de lado. De esto se sigue que x−xθ es dirección de constancia para f con i ∈ I k . x x ¯ / i fi (x(rj )) = fi (xθ ) ∀i ∈ I k . ¯ . lo que entra en contradicción con lo anterior.4. De este modo θ x ∈ S k+1 . Teorema 5. Luego para cada i ∈ IC existe xi ∈ SC tal que fi (x) < β 1 y fj (xi ) ≤ β ∀j ∈ IC \ {i}.4. se tiene que w∈[u. inductivamente que x ∈ S ¯ ¯ k θ θ θ k Supongamos que x ∈ S . Primero.92 CAPÍTULO 5. ϕC (y)} = inf ϕC . Luego x ∈ S 0 . En particular.1 deducimos que fi (xθ ) < 0 ∀i ∈ I k . x ∈ S de modo que ¯ ¯ ¯ θ θ ] ∈ S k . de la optimalidad de x(rj ). Demostración: Sea x = limj→+∞ x(rj ) un punto de acumulación de x(r). En consecuencia. en virtud de Aθ en el término de la izquierda pertenece a [f (y). .

+∞[. θ∗ actua como una barrera ∗ −1 (λ) → −∞ cuando λ → 0+ . Denimos además ϕr (x. . κ[ se sigue la convexidad estricta ∗ de θ en ]0. Muestre además que de la diferenciabilidad de θ en ] − ∞.1. pues θ (λ) = (θ ) θ se sigue la diferenciabilidad de θ∗ en ]0. CONVERGENCIA DUAL DEL MÉTODO DE PENALIZACIÓN 93 Consideremos ahora el caso en que (1 − α)xθ + αˆ.4. Es fácil probar (véase Ejemplo 3. en consecuencia. 5. λ) = p(λ) + r r i∈I θ∗ (λi ) y.1 y Ejercicio (D) con min p(λ). y) = fi (x) + yi ≤ 0 ∀i ∈ I. ∀i ∈ S (véase el lema anterior parte (i)). ϕ∗ (0. el dual generado a partir de esta perturbación es (Dr ) El problema λ∈Rm min p(λ) + r i∈I θ∗ (λi ). x Reproduciendo el análisis previo. Pruebe que si Aθ S 1 = {xθ }. θ es acotada inferiormente.5. Más especícamente. Podemos reemplazar xθ por k que fi (ˆ) < 0. y sólo si.5.1. Notemos además que θ∗ (0) puede ser nito o innito. θ∗ (0) es nito si. entonces Ejercicio 5. se concluye que x ∈ S k+1 . y) = f0 (x) + r i∈I que resulta ser una función de perturbación para θ fi (x) + yi r No es difícil mostrar que (Pr ). si no. Pruebe que de la convexidad estricta de De todo lo anterior se deduce el siguiente resultado. λ≥0 p(λ) = inf x∈Rn f0 (x) + i∈I λi fi (x). x donde x ∈ Sk ˆ es tal fi (xθ ) ≥ 0 para algún i ∈ I k . la cual es una función de perturbación para 3.1.2) que en este caso el dual esta dado por (P).5. Ejercicio 5. ϕS k (ˆ) ≤ (1 − α)ϕS k (xθ ) + αϕS k (ˆ). Convergencia Dual del Método de Penalización Consideremos la función ϕ : Rn × Rm → R ∪ {+∞} f0 (x) +∞ si denida mediante ϕ(x. +∞[. ¯ es estrictamente convexa.5. (Dr ) puede también entenderse como un método de barrera para el problema (D) ya que θ∗ (λ) = ∞ para λ < 0. x x Tomando α → 0+ . Aun en este caso.1.

existiría pérdida de generalidad supongamos que f (z(rk )) g(z(rk )) f (z ∗ ) + rk g(z ∗ ) + rk ≤ . (Dr ) admite una única solución λ(r). g ∈ Γ0 (Rn ) tales que 1.94 CAPÍTULO 5. Además z(r) es acotada.2. 0)}. . Estudiemos ahora la convergencia de los problemas duales. que se obtiene de la relación S(Dr ) = {λ | λi = ∂ϕr ∂yi (x(r). PENALIZACIÓN EN OPTIMIZACIÓN CONVEXA Proposición 5. Supongamos que z(r) es solución de z∈Rn min f (z) + rg(z). Para ello haremos uso del siguiente resultado. Ejercicio 5. 4. entra en contradicción con 2. De este modo z(r) es acotada. g∞ (d) ≥ 0 ∀d ∈ Rn . g es estrictamente convexa en su dominio. Además. ·) (Dr ) es nita y continua en 0 para algún Pruebe que x ∈ Rn . Si λ(r) es tal solución. Sin dk := → d = 0. 2.1. se tiene que el problema min{g(z) | z ∈ arg min f } admite una única solución Probemos que z∗. (f +rg)∞ (d) > 0 y luego f +rg es una función inf-compacta.5. (Dr ) admite a lo más una solución. donde x(r) es la única solución de (Pr ). Luego g(z(rk )) ≤ g(z ∗ ) y en consecuencia g ∞ (d) ≥ 0. 3. Notemos que f (z(rk ))+rk g(z(rk )) ≤ f (z ∗ ) + rk g(z ∗ ) ≤ f (z(rk )) + rk g(z ∗ ). pasando al límite. Deduzca la existencia de solución para Proposición 5. Sean f. z(rk ) z(rk ) z(rk ) lo cual.5. 0 ∀i ∈ I . z(r) existe.5. rk → 0+ z(rk ) z(rk ) tal que z(rk ) → +∞.1. arg min f ∩ dom(g) = ∅. entonces λi (r) > ϕr (x. De lo contrario. al menos una de ellas tiene conjuntos de nivel acotados. Además. Entonces z(r) permanece acotada y converge a z ∗ = arg min{g(z) | z ∈ arg min f }. Demostración: Basta probar la fórmula.2. Demostración: Es directo vericar que En consecuencia. Teorema 5. λ(r) > 0 y λi (r) = θ fi (x(r)) r .5.

5. Además. z k→+∞ z ∈ arg min f . supongamos que θ∗ (0) es nito y S(D) = ∅. En κ > 0. Para ver la segunda hipótesis distiguimos dos casos. Pero esto último es evidente pues basta probar que (θ con (θ∗ )∞ (1) = lim y θ∗ (t) ≥ κ. θ∗ (λ) = ∞ si λ < 0. En el caso de la programación lineal (P) i∈I tal que ai x≤bi . g(λ) tiene conjuntos de nivel acotados. (H1 ). Sea z = limk→+∞ z(rk ) para algún rk → 0 . Ya que g i i∈I (θ ∗ )∞ (±1) ≥ 0. θ(y) < +∞. CONVERGENCIA DUAL DEL MÉTODO DE PENALIZACIÓN 95 z(r) coinciden con z ∗ (que es la única solución + del problema de más arriba). t→+∞ t (θ∗ )∞ (−1) = lim θ∗ (0 − t) − θ∗ (0) = +∞.5. y > 0. Pero esto raramente ocurre. ∞[ . ∗ m Por otro lado. si S(D) = ∅ es acotado. t→+∞ t (D) admita solución λi = 0 para todo Cuando θ∗ (0) = +∞ falla la primera condición del teorema salvo que usual que exista λ∗ > 0. Demostración: Veriquemos las hipótesis del teorema anterior con ∗ i∈I θ (λi ). ¯ Como además se tiene que deducimos nalmente que z ∈ arg min{g(z) | z ∈ arg min f }. En consecuencia. En consecuencia. como θ es estrictamente convexa. p(λ) + δRm (λ) tiene conjuntos + ∅. Teorema 5. Bajo (H0 ). De hecho es λ ∈ S(D). g(·) es estrictamente convexa en ]0. De la desigualdad ¯ ∗ ) + r g(z ∗ ) deducimos que f (z(rk )) + rk g(z(rk )) ≤ f (z k Veamos que todos los puntos de acumulación de lim inf f (z(rk )) + rk g(z(rk )) ≤ f (z ∗ ) k→+∞ Además. entonces existe un punto consecuencia. entonces θ∗ (λ) ≥ λy − θ(y). Finalmente veriquemos la cuarta condición del teorema anterior. Primero. Entonves (Dr ) admite una única solución λ(r) que converge a λθ ∈ S(D) cuando r → 0+ . si de Slater para (P) y luego de nivel acotados. La primera condición es satisfecha pues f (λ) = p(λ) + δRm (λ) + y g(λ) = arg min f ∩dom(g) = S(D)∩{λ | θ∗ (λi ) < ∞} = S(D) = κ = 0. f (¯) ≤ f (z ∗ ) z g(¯) ≤ lim inf g(z(rk )) ≤ g(z ∗ ).2. siendo λθ la única solución de min λ∈S(D) i∈I θ∗ (λi ). es fácil ver que y g(z(rk )) está acotada y luego rk g(z(rk )) → 0. ¯ A continuación presentamos el principal resultado de esta sección.i∈I min cT x . Luego θ(λ) → ∞ si λ → ∞. Por otro lado. ∞ (d) = ∗ )∞ (d ).5.

mediante ϕ : Rn+1 × Rm → R ∪ {+∞} ϕ(µ. x. (c) Suponga que − inf x∈Rn { +∞ i∈I i∈I si si ∆m = {λ ∈ Rm | + λi = 1}. 5.3. (µ∗ . supongamos que θ∗ (0) = ∞ y S(D) = ∅. Teorema 5. p(λ) = donde. no. Pruebe λ∗ ∈ S(D) si. i . que x∗ ∈ S(P) y inf(P) ∈ R. siendo λθ la única solución de min λ∈S(D) i∈I0 θ∗ (λi ). x∗ ) ∈ R × Rn . donde I0 = {i ∈ I | ∃λ ∈ S(D). PENALIZACIÓN EN OPTIMIZACIÓN CONVEXA con dual (D) y esquema de penalización c+AT λ=0. y sólo si.96 CAPÍTULO 5. λi > 0}. Bajo (H0 ). λ∗ ∈ ∆m y λ∗ (fi (x∗ ) − maxi∈I {fi (x∗ )}) = 0. fi (x) ≤ µ}. Problemas Sea Problema 25. (H1 ).6.x)∈R×Rn (b) Denamos inf {µ | ∀i ∈ I.λ≥0 min bT λ ai x − bi . con problema de minimización (P) (a) Pruebe que de x∈Rn i∈I x∗ ∈ S(P) si. Entonces (Dr ) admite una única solución λ(r) que converge a λθ ∈ S(D) cuando r → 0+ . I nito y para i∈I sean fi : Rn → R funciones convexas. recordamos.5. Pruebe que S(D) = ∅ y que no hay salto de dualidad. y sólo si. λi fi (x)} λ ∈ ∆m .0] (fi (x) + yi − µ). es solución (µ. y) = µ + m δ]−∞. Considere el siguiente inf max{fi (x)}. i=1 Verique que ϕ es una función de perturbación para (P) y que el problema dual correspon- diente está dado por (D) donde λ∈Rn inf p(λ). r θ∗ (λi ) i∈I (Pr ) (Dr ) min cT x + r i∈I θ c+AT λ=0 min bT λ + r se tiene el siguiente resultado que presentamos sin demostración (véase la sección de problemas). µ∗ = maxi∈I {fi (x∗ )}.

más aún. admite solución única. x. min(P) ≤ inf(Pr ) ≤ min(P) + r ln(m) S(Pr ) = arg min Fr es no-vacío y compacto. entonces Γmin(P)+r ln(m) (Fr ) ⊆ Γγ (F ). punto de acumulación de realidad convergen a r → 0+ . ¯ ϕr (x. y) = r ln i∈I Verique que exp fi (x) + yi r Sea Fr (x) := ϕr (x. r>0 se tiene que F (x) < Fr (x) ≤ F (x) + r ln(m). Pruebe que si (f ) Sea 0<r< 1 ln(m) (γ − min(P)). (Es posible demostrar que (x(r). considere la función de penalización exponencial ϕr : Rn+1 × Rm → R ¯ denida ϕr (µ. exp(fi (x(r))/r) λi (r) = Muestre que. λ(r)) en S(P) × S(D). y) − r. fi ∈ Q. Considere la familia parametrizada de problemas (Pr ) y en lo que sigue suponga que (e) Pruebe que x∈Rn inf Fr (x) es no-vacío y compacto. λ∗ ) ∈ . 0) para r>0 y F0 (x) := F (x) := maxi∈I {fi (x)}. supongamos además que (i) Pruebe que fi ∈ C 1 (R). y que.) λ(r) (x∗ . min(Dr ) → min(D) y todo pertenece a S(D). y inf(Pr ) + inf(Dr ) = 0 Para simplicar.5. Deduzca que toda selección que todo punto de r → x(r) ∈ S(Pr ) permanece acotada cuando r → 0+ acumulación de x(r) pertenece a S(P). fi es constante sobre (Pr ) S(Pr ). para todo y demuestre En lo que resta suponga que (g) Pruebe que el problema i ∈ I. i ∈ I. PROBLEMAS 97 (d) Dado por r > 0. ∀x ∈ Rn . Pruebe que para y que más ϕr (x.6. γ > min(P). Para ello demuestre que para todo (h) Verique que el problema dual asociado a la perturbación ϕr de (Pr ) es (Dr ) con la convención y que λ∈Rm inf p(λ) + r i∈I para λi ln(λi ) λ < 0. x. Pruebe que 0 ln(0) = 0 (Dr ) admite solución λ ln(λ) = +∞ única λ(r). y) = minµ∈R ϕr (µ. el conjunto S(P) = arg min F ∀r > 0. cuando i∈I exp(fi (x(r))/r) . y) = µ + r ¯ i∈I y denamos aun exp fi (x) + yi − µ r ϕr ∈ Γ0 (Rn × Rm ) .

Denotemos por I el conjunto de tales índices i y Π (x) = (x : i ∈ I ). Indicación: Considere el conjunto y(p) la cual converge hacia L = {Ay − b : y ∈ Rn } y la función 0 si x ∈ L +∞ si no. Deduzca que.1). y que la p → x(p) permanece acotada cuando p → ∞. Consideremos ahora un sistema lineal sobre-determinado con rg(A) = n ≤ m.1. Pruebe que existe un índice i1 tal que |xi1 | = α1 para todo 1 ). y∗ ∈ f (x) := .98 CAPÍTULO 5. u∞ es solución de u∞ un punto de acumulación de x(p). x0 ∞ Sea f ∈ Q ∩ Γ0 (Rn ) (ver Denición 5. Pruebe x ∈ S(P∞ 1 1 1 i 1 que todo punto de acumulación u∞ es solución de 2 (P∞ ) 1 x∈S(P∞ ) min Π1 (x) ∞. o xi0 = −α1 para todo 1 ). Pruebe que (P∞ ) y además es solución de 1 (P∞ ) min x∈S(P∞ ) x ∞. p > 1 el problema (a) Pruebe que para cada trayectoria (b) Sea (Pp ) admite una solución única x(p). (d) Inspirándose en la parte (c) probar que x(p) converge cuando p → ∞ hacia un punto x∗ ∈ S(P∞ ) caracterizado como la solución de una jerarquía de problemas de optimización encajonados. una solución Mostrar que este último admite una única solución S(Q∞ ). Sin pérdida de generalidad Ay = b donde b ∈ Rm y A ∈ M m×n suponemos b ∞ ≤ 1. o bien x 1 x ∈ S(P∞ i0 = α1 para todo x ∈ S(P∞ ). PENALIZACIÓN EN OPTIMIZACIÓN CONVEXA Problema 26. y consideramos el problema de optimización (P∞ ) x∈Rn min {f (x) : x ∞ ≤ 1} junto con el esquema de aproximación (sin restricciones) (Pp ) donde x∈R min f (x) + n 1 x p p p x p = (|x1 |p + · · · + |xn |p )1/p . (c) Sea 1 α1 el valor óptimo de (P∞ ). Este sistema no admite necesariamente una solución por lo cual consideramos el problema (Q∞ ) el cual aproximamos mediante el esquema y∈Rn min Ay − b ∞ (Qp ) y∈Rn min Ay − b p . Suponemos que existe x0 ∈ dom(f ) con ≤ 1.

. PROBLEMAS 99 Problema 27. fm : Rn → R x∈Rn convexas y consideremos el esquema de aproximación min f (x) := f0 (x) + f1 (x) + · · · + m fm (x) > 0. y a S1 . κ = 0. permanece acotada cuando (c) Muestre que todo punto de acumulación de (d) Muestre que x( ) pertenece a S0 x∗ . . AT µ = 0. (P ) denido para Sean f0 . bT µ ≥ 0. m. Luego. Para ello argumente por contradicción deduciendo la existencia µ ≥ 0. → 0. junto con la jerarquía de problemas de optimización (P0 ) (P1 ) . Suponemos Sm 2 para una cierta constante α > = ∅ y fi 0 y todos f (·) x( ) es fuertemente convexa y (P ) admite una solución única x( ). Sm contiene un único elemento. min{f0 (x) : x ∈ Rn } min{f1 (x) : x ∈ S0 } min{fm (x) : x ∈ Sm−1 } 2 f (x)d i (Pm ) donde Si denota el conjunto de soluciones óptimas del problema 2 convexas de clase C tales que n. Muestre que ∞ ∞ f0 (d) ≤ 0 y f1 (d) ≤ 0. . . .3 en el caso (a) Muestre que λ(r) está acotada. x. que denotamos (e) Suponiendo que f0 . . fm ∈ Q pruebe que lim →0 x( ) = x∗ .6. λ(r) pertenece a S(D). . utilice la desigualdad f (x( )) ≤ f (x( ) − x( ) d) para ∞ probar recursivamente que fi (d) ≤ 0 para i = 2. µ∈ Rm tal que (b) Pruebe que todo punto de acumulación de (c) Concluya. d ∈ R (a) Muestre que (b) Pruebe que maxi dT ≥α d (Pi ). . . Problema 28. Indicación: razone por contradicción suponiendo que existe k → 0 con x( k ) → ∞ y dk := x( k )/ x( k ) → d. . . de El objetivo de este problema es demostrar el Teorema 5. .5. . Concluya.5. . .

62 primal. 48. 56 marginal. 14. 25 epigrafo. 74 conjugada de Fenchel. 9 espacio dual. 17 esquema de Penalización de Tikhonov. 76 dual. 13 normal. 48 epi-convergencia. 50 desigualdad de Young-Fenchel. 25 Γ-regularizada. 17 lineal. 88 de entropía de Boltzmann-Shannon. 8 dualidad de Clarke-Ekeland. 33 producto. 73 función acotada inferiormente. 35 objetivo. 46 dominio efectivo. 37 subdiferenciable. 17 localmente convexo. 10 soporte. 21 cuasi-convexa. 7 propia. 71 espacios. 76 de Palais-Smale. 37 convergencia variacional. 17 vectorial topológico. 22 condición de calicación de Fromovitz-Mangasarian. 11 lagrangeana. 7 inf-compacta. 39 arg min. 17. 85 indicatriz. 62 de extremalidad. 86 exceso de Hausdor. 27 100 . 36 de penalización. 29 estrictamente. 51 de recesión. 72 fórmula de Lax-Oleinik. 51 minorante. 51 funcional de evaluación. 8 cono convexo.Índice alfabético Γ-convergencia. 17 grafo. 76 de Karush-Kuhn-Tucker. 72 de Toland-Singer. 8. 46 polar. 10 cóncava. 84 de perturbación. 53 ecuación de Euler-Lagrange. 28 derivada direccional generalizada. 18 de nivel. 33 salto. 10 semicontinua inferior. 29 de recesión. 40 envoltura convexa. 38 clausura inferior. 35 conjunto convexo. 40 valor. 55 de Fritz-John. 18. 30 convexa. 35 variacional. 9 biconjugada.

64 de Weierstrass-Hilbert-Tonelli. 8 inf-convolución. 69 de la alternativa de Gordan. 16 multiaplicación. 18 inf-adición. 37 subgradiente. 7 semiespacio. 18 analítico. 76 de Moreau. 51 relajado. 80 de Carathéodory.. 77 de la torsión elasto-plástica. 84 hiperbólica. 12. 56 lema de Cruzeix. 45 monótona. 83 lineal. 84 desplazada. 12 del Punto Fijo de Caristi. 75 regularizada s. 34 débil. 45 de separación. 80 de Stokes. 49 lagrangeano. 81 dual. 50 teorema de Attouch-Brezis. 84 principio variacional de Ekeland. 40 subespacio ortogonal. 55 punto factible. 52 de Dirichlet. 45 multiplicador de Lagrange. 40 aproximado. 18 hipo/epi-convergencia. 19 transformada de Legendre. 54 de Fenchel-Rockafellar. 60 método directo. 27 topología compatible con la dualidad.i. 65 de Karush-Kuhn-Tucker. 41 . 75 de Kuhn-Tucker débil. 57 penalización exponencial. 88 de Robinson. 84 logarítmica. 49 de Moreau-Rockafellar. 24 programa convexo. 78 de visco-plasticidad. 68 de Hahn-Banach. 27 regla de Fermat.c. 9 jo. 28 restricciones. 75 subdiferencial. 17 problema bidual. 84 raíz. 40 regularizada de Moreau-Yoshida. 74 generalizado. 52. 20 media asintótica. 52 primal. 48 de dualidad. 22 resolvente. 19 de Brezis-Stampacchia. 64 fuerte. 62 de Banach. 87 monotonía. 62 de Fritz-John débil. 67 fuerte.ÍNDICE ALFABÉTICO 101 hiperplano. 51. 75 de Yoshida.

102 ÍNDICE ALFABÉTICO .

1998. Paris. [Att84] H. 1998. Springer. New York.T. Analyse Convexe et Problèmes Variationnels. S. Berlin.T. 1974. New York. Wiley. Aubin. London. A. C. 103 . Rockafellar. Conjugate Duality and Optimization. New Jersey. Convex Analysis. Attouch. H. 1993. Borwein. Pitman. Berlin. SIAM Publications. Analyse fonctionnelle. Princeton University Press. Brezis. Lewis. Wissenschaften 317. Springer. Springer-Verlag. Rockafellar. Variational Convergence for Functions and Operators. Clarke. 2003. 1983. [Roc74] R. J-B. [BoL00] J.-B. Philadelphia. 2000. tional Inequalities. Lemaréchal. Rockafellar. [Cal83] F. [HiL93] J. Convex Analysis and Minimization Algorithms. Asymptotic Cones and Functions in Optimization and Varia- [AuT03] A. Conference Board of Mathematical Variational Analysis. Applicable Mathematics Series. R. Masson Editeur. Teboulle. Ekeland. Hiriart-Urruty.P. Wets. Springer-Verlag. 1983. París. Temam. Optimization and Nonsmooth Analysis. [EkT74] I. Convex Analysis and Nonlinear Optimization. 1970. [RoW98] R. Optima and Equilibria. Princeton. [Roc70] R. 1984. M.Bibliografía [Aub98] J. Theory and Examples. M. Auslander. CMS Books in Mathematics. 1974. Dunod. Grundlehren der matematischen Sciences Series 16. [Bre83] H. Springer-Verlag.T. R.