You are on page 1of 268

Rudimentos matemticos

para el dominio de la

Ingeniera de los
Algoritmos Numricos

Jos Luis de la Fuente OConnor


Rudimentos matemticos para el dominio de la ingeniera de los algoritmos numricos

Primera edicin: abril 2017

Depsito legal: AL 856-2017

ISBN: 978-84-9160-826-4

Impresin y encuadernacin: Editorial Crculo Rojo

Del texto: JLFO


Maquetacin y diseo: Equipo de Editorial Crculo Rojo
Fotografa de cubierta: Fotolia

Editorial Crculo Rojo

www.editorialcirculorojo.com

info@editorialcirculorojo.com

Impreso en Espaa - Printed in Spain

Ninguna parte de esta obra puede ser reproducida por algn medio, sin el permiso expreso de
sus autores. Crculo Rojo no se hace responsable del contenido de la obra y/o las opiniones que el
autor manifieste en ella.
Dirjase a CEDRO (Centro Espaol de Derechos Reprogrficos) si necesita fotocopiar o escanear algn fragmento
de esta obra (www.conlicencia.com; 91 702 19 70 / 93 272 04 47).

El papel utilizado para imprimir este libro es 100% libre de cloro y, por tanto,
ecolgico.
A mi familia.

III
IV
ndice

Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IX
1 Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1 Espacios vectoriales con estructuras adicionales . . . . . . . . . 9
2.1.1 Espacios normados y espacios mtricos . . . . . . . . 9
2.1.2 Espacios con producto interior . . . . . . . . . . . . 21
2.1.3 Espacios de Hilbert . . . . . . . . . . . . . . . . . . 21
2.1.4 Espacios de Lebesgue y espacios de Sobolev . . . . . 25
3 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.1 Normas de matrices . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2 Matrices interesantes . . . . . . . . . . . . . . . . . . . . . . . 35
3.3 Valores propios, valores singulares y formas cuadrticas . . . . 39
3.3.1 Valores propios . . . . . . . . . . . . . . . . . . . . 39
3.3.2 Valores singulares . . . . . . . . . . . . . . . . . . . 45
3.4 Formas cuadrticas . . . . . . . . . . . . . . . . . . . . . . . . 48
4 Funciones, sucesiones y series de funciones . . . . . . . . . . . . . . 51
4.1 Derivada y diferenciabilidad . . . . . . . . . . . . . . . . . . . 53
4.1.1 Subgradiente y subdiferencial . . . . . . . . . . . . . 56
4.2 Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.3 Sucesiones de funciones, series funcionales y de potencias. Con-
vergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.3.1 Convergencia puntual . . . . . . . . . . . . . . . . . 58
4.3.2 Convergencia uniforme . . . . . . . . . . . . . . . . 59
4.3.3 Series funcionales . . . . . . . . . . . . . . . . . . . 61
4.3.4 Series de potencias . . . . . . . . . . . . . . . . . . 61
4.4 Resultados importantes de anlisis funcional . . . . . . . . . . 62
5 Optimizacin y Programacin Matemtica . . . . . . . . . . . . . . 69
5.1 Condiciones necesarias y sucientes de existencia de un punto
mnimo de una funcin . . . . . . . . . . . . . . . . . . . . . . 69
5.2 Conjuntos convexos y geometra de la convexidad . . . . . . . 70
5.2.1 Conos apropiados y desigualdades generalizadas . . . 80
5.2.2 Elementos mnimos y minimales. Cono dual . . . . . 80
5.2.3 Hiperplano separador. Lema de Farkas . . . . . . . . 84
5.3 Caracterizacin de las soluciones del problema de optimizacin
y condiciones que cumple un punto ptimo . . . . . . . . . . . 90
V
VI j ndice

5.4 Dualidad en optimizacin . . . . . . . . . . . . . . . . . . . . 94


5.4.1 Dualidad Lagrangiana . . . . . . . . . . . . . . . . . 99
5.4.2 Dualidad de Wolfe . . . . . . . . . . . . . . . . . . . 102
5.5 Funciones conjugadas-funciones de Fenchel . . . . . . . . . . . 103
5.6 Optimizacin SDP . . . . . . . . . . . . . . . . . . . . . . . . 106
5.6.1 Deniciones y planteamiento del problema . . . . . . 107
5.7 Optimizacin vectorial y multicriterio o multiobjetivo . . . . . 111
5.7.1 ptimo y ptimos de Pareto . . . . . . . . . . . . . . 112
5.7.2 Escalarizacin . . . . . . . . . . . . . . . . . . . . . 114
5.7.3 Optimizacin multicriterio . . . . . . . . . . . . . . 115
6 Elementos de clculo integral, campos escalares y campos vectoriales 119
6.1 Integrales de lnea . . . . . . . . . . . . . . . . . . . . . . . . 122
6.1.1 Integrales de lnea en campos vectoriales . . . . . . . 124
6.2 El teorema de Green . . . . . . . . . . . . . . . . . . . . . . . 126
6.3 El teorema de Stokes . . . . . . . . . . . . . . . . . . . . . . . 129
7 Sobre el mtodo de los elementos nitos de Ritz-Galerkin para re-
solver ecuaciones en derivadas parciales . . . . . . . . . . . . . . . . 131
7.1 Solucin de una ecuacin en derivadas parciales . . . . . . . . 134
7.1.1 El problema en forma dbil o variacional . . . . . . . 136
7.1.2 Espacios de trabajo . . . . . . . . . . . . . . . . . . 137
7.1.3 Discretizacin del problema en un subespacio de ele-
mentos nitos lineales . . . . . . . . . . . . . . . . . 139
7.1.4 Reformulacin del problema como un sistema de ecua-
ciones lineales . . . . . . . . . . . . . . . . . . . . . 143
7.2 Fundamentos de funcionales y clculo de variaciones . . . . . . 145
7.2.1 Proposiciones esenciales . . . . . . . . . . . . . . . 149
8 Anlisis de componentes principales . . . . . . . . . . . . . . . . . . 153
8.1 Algunos conceptos de estadstica . . . . . . . . . . . . . . . . . 154
8.2 Planteamiento del problema matemtico . . . . . . . . . . . . . 156
9 Nmeros complejos, funciones e integracin . . . . . . . . . . . . . 161
9.1 Integracin. Teorema de Cauchy . . . . . . . . . . . . . . . . . 165
10 Anlisis de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
10.1 Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . 168
10.1.1 Expresin compleja de la serie de Fourier . . . . . . . 171
10.1.2 Convergencia de las series de Fourier . . . . . . . . . 173
10.1.3 Propiedades de las series de Fourier . . . . . . . . . . 175
10.2 La Transformada de Fourier . . . . . . . . . . . . . . . . . . . 179
10.2.1 Propiedades de la transformada de Fourier . . . . . . 181
10.2.2 La Transformada de Fourier discreta . . . . . . . . . 183
11 La Transformada del coseno discreta . . . . . . . . . . . . . . . . . 189
12 La Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . 195
13 Clculo estocstico y simulacin . . . . . . . . . . . . . . . . . . . . 199
13.1 Variables aleatorias y espacios de probabilidad . . . . . . . . . 199
ndice j VII

13.2 Procesos estocsticos . . . . . . . . . . . . . . . . . . . . . . . 206


13.2.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . 207
13.3 Simulacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
13.3.1 Generacin de nmeros aleatorios . . . . . . . . . . . 213
13.3.2 Simulacin de variables aleatorias . . . . . . . . . . 214
13.3.3 El mtodo Montecarlo . . . . . . . . . . . . . . . . . 217
13.4 Ecuaciones diferenciales estocsticas . . . . . . . . . . . . . . 218
13.4.1 Integracin numrica de ecuaciones diferenciales es-
tocsticas . . . . . . . . . . . . . . . . . . . . . . . . 220
13.5 Aplicacin del clculo estocstico a la cobertura y valoracin de
derivados nancieros. El modelo de Black y Scholes . . . . . . 221

Bibliografa 225

ndice de materias y autores 249


VIII j ndice
Prefacio

E STE libro tiene que ver con el anlisis numrico, la computacin cientca e in-
genieril y los elementos de matemticas que yo entiendo son fundamentales para
entender una parte de sus porqus. Los componentes que se presentan se explican de
forma sucinta y directa con el objeto de poder poner en marcha, o analizar, herramien-
tas y mtodos numricos para modelizar y resolver problemas reales que surgen en las
ciencias y la ingeniera.
El contenido del libro complementa el programa de la asignatura Matemticas de
la EspecialidadIngeniera Elctrica, que desde hace varios aos dicto en la Escuela
Tcnica Superior de Ingenieros Industriales, de la Universidad Politcnica de Madrid,
en Espaa.
Todo el material bastante estndar que se expone en las pginas de este libro
es una sntesis muy densa de lo que este autor entiende puede ser una buena base para
consolidar (y consultar) unos fundamentos matemticos slidos de mucho de en lo que se
basan las tcnicas y algoritmos numricos que permiten, mediante el Clculo y Anlisis
Matemtico, y la Ingeniera de sus Mtodos Numricos, modelizar y simular la realidad
con la que ingenieros y cientcos se enfrentan a diario para poner sus conocimientos
al servicio de resolver los diversos problemas prcticos que acucian a la sociedad. La
experiencia del autor se reere a este respecto a algo tan amplio como la ingeniera
de los sistemas econmico-elctricos, aunque es extensible a otros muchos campos del
conocimiento y la ciencia aplicada. Esos puntos de vista deben ser ampliados en muchas
direcciones si se quieren construir otros edicios de conocimiento matemtico aplicado
a otras reas del saber prctico.
Los aspectos ms generales cubiertos en este libro son el anlisis matemtico y fun-
cional bsico, el lgebra matricial, la optimizacin matemtica de problemas lineales
y no lineales, la convexidad y dualidad de estos, elementos de clculo integral bsico,
campos escalares y vectoriales, los nmeros complejos y el clculo estocstico y la si-
mulacin numrica. Con el n de hacer mucho ms intuitiva la comprensin de cmo
funcionan las matemticas y los algoritmos detrs de muchos de los procedimientos y
mtodos que hoy en da estn presentes en los desarrollos del Big Data, la simulacin
y la optimizacin matemtica, y otras cada da ms extensas cuestiones de la econo-
ma digital con la que convivimos asiduamente, tambin se presentan el mtodo de los
elementos nitos para resolver ecuaciones en derivadas parciales, el anlisis de compo-
nentes principales, el anlisis y la transformada de Fourier, la transformada del coseno
para compresin de imgenes y vdeo y la transformada de Laplace.
Al nal del libro se listan quinientas ochenta y una referencias de las que he sacado
casi todo el conocimiento que utilizo sobre la temtica objeto del libro. Deberan ser
muchas ms pues hay muchos pequeos detalles que expongo que apenas consult unos
IX
X j Prefacio

minutos en algn libro, artculo o en Internet para retener la idea, el resultado, o el efecto
de un gura para resaltarlo. No me qued con el nombre del autor, el departamento o
departamentos universitarios que lo utilizan, o la editorial que lo public. Si omito por
error la resea o el trabajo correspondiente, ruego su clemencia a esos mis inspiradores.
El resultado que es materialmente este libro no habra sido posible sin el concurso,
inconsciente o perfectamente consciente, de muchas personas individuales y colectivas.
Me gustara mencionar aqu las contribuciones concretas de autores a los que he se-
guido fundamentalmente como Stephen Boyd, colega de la Universidad de Stanford,
David Nualart, Ignacio Villanueva, Timothy Sauer, David Luenberger, Francisco Javier
Sayas, David Aledo y Manuel Contreras. Tambin a mis compaeros del Departamento
de Ingeniera Matemtica de la Universidad Politcnica de Madrid. Sobre su esfuerzo me
han permitido aupar mis humildes conocimientos a hombros de los de ellos. Me gustara
tambin agradecer sus materiales e inmateriales aportaciones a todos mis alumnos de la
Escuela Tcnica Superior de Ingenieros Industriales de Madrid, de los que he aprendido
muchsimas cosas en mi tarea como profesor en la cotidianidad de las clases en las que
trato de transmitirles lo que creo es bueno para su formacin, adems del conocimiento
prctico sobre el que baso mis aportaciones.
La elaboracin del libro ha sido posible gracias al editor WinEdt y al software para
preparacin de documentos cientcos y tcnicos denominado LATEX. Este sistema y la
multitud de programas y aplicaciones que lo soportan y potencian es una maravilla de la
expresin tcnica digital moderna de la tipografa de siempre. Tambin quiero mencio-
nar, y agradecer, lo til que me ha sido W IKIPEDIA como fuente de inspiracin, material,
vericacin y conocimiento.

Jos Luis de la Fuente OConnor


Alcobendas, Madrid, Espaa, 10 de mayo de 2017
www.jldelafuenteoconnor.es
1-Conjuntos j 1

1 | Conjuntos

L OS algoritmos como agrupacin ordenada y nita de operaciones y reglas que


permiten hallar la solucin de un problema, o realizar una actividad relativamente
compleja y las matemticas modernas, tienen mucho que ver con colecciones abstrac-
tas de objetos como lo es un conjunto.
Denicin 1.1 Un conjunto es una construccin matemtica que se reere a una co-
leccin de objetos considerada en si misma un objeto: los nmeros naturales, las solu-
ciones de un problema determinado, los municipios de una provincia, etc.
Un conjunto se identica por una letra mayscula: el conjunto S, el conjunto de los
nmeros naturales N, el de los enteros Z, el de los reales R, complejos C, racionales Q,
etc.
Conjuntos es un concepto primitivo, en el sentido de que no es posible denirlos
en trminos de nociones ms elementales, por lo que su estudio puede realizarse de ma-
nera informal, apelando a la intuicin y a la lgica. Son el concepto fundamental de las
matemticas modernas: mediante ellos puede formularse el resto de objetos matemti-
cos, como los nmeros y las funciones, entre otros. Su estudio detallado requiere pues la
introduccin de axiomas y conduce a la teora de conjuntos.
El proponente o inventor de la teora de conjuntos fue Georg Ferdinand Ludwig
Philipp Cantor Rusia 1845, Alemania 1918. Lo hizo en la segunda mitad del siglo
XIX.

Cada uno de los objetos de la coleccin a la que se reere un conjunto es un elemento


o miembro del conjunto. Si un elemento a pertenece a un conjunto C se indica a 2 C .
Los conjuntos se denen mediante la enumeracin entre llaves de sus elementos, C D
fa; b; : : : g, o especicando, tambin entre llaves, la propiedad que los caracteriza. Por
ejemplo, C D fx W x 2 R; x  2g designa los nmeros reales menores o iguales que
dos; el conjunto C de los nmeros reales x que son mayores que 1 y menores que 0 se
designa de esta manera: C D fx 2 R W x > 1; x < 0g.
El conjunto sin elementos se denomina vaco, designndose mediante el smbolo ;.
Si S y S 0 son dos conjuntos y todos los elementos del conjunto S 0 lo son de S , se
dice que S 0 es un subconjunto del conjunto S , o que est contenido en S 0 , expresndose
2 j 1-Conjuntos

S 0  S o S  S 0 . El conjunto de los nmeros, por ejemplo, se clasica en diversos


subconjuntos de acuerdo con lo que reere la gura 1.1.

1DWXUDOHV

 XQR
1DWXUDOHVSULPRV
(QWHURV
5DFLRQDOHV  &HUR
1DWXUDOHV&RPSXHVWRV

&RPSOHMRV
5HDOHV  (QWHURVQHJDWLYRV

   )UDFFLyQSURSLD
)UDFFLRQDULRV
)UDFFLyQLPSURSLD

,UUDFLRQDOHV
 ,UUDFLRQDOHVDOJHEUDLFRV
7UDVFHQGHQWHV

,PDJLQDULRV

Figura 1.1: Clasicacin de los nmeros en diversos subconjuntos. Fuente: W IKIPEDIA


mas pequeos ajustes del autor

La unin de dos conjuntos S y T , expresada S [ T , es el conjunto formado por los


elementos que pertenecen a S o a T . La interseccin de S y T , expresada S \ T , es el
conjunto formado por los elementos que pertenecen a S y a T .
Si S 0 es un subconjunto de S , el complemento del subconjunto S 0 en S es el conjunto
formado por los elementos de S que no pertenecen a S 0 .
Si a y b son nmeros reales, es decir, a 2 R, b 2 R, y a  b, el conjunto de nmeros
x de la recta real tales que a  x  b se indica a; b. El formado por los x tales que
a < x  b, por .a; b. El de los x que verican que a < x < b, por .a; b/.
Si S es un conjunto no vaco de nmeros reales acotados superiormente mayo-
rados, existe un nmero real mnimo y tal que x  y para todo x 2 S . Al nmero y
se le denomina cota superior mnima o supremo de S ; se expresa as:

sup .x/ o sup fx W x 2 S g :


x2S

De forma similar se dene la cota inferior mxima o nmo de un conjunto S no


vaco de nmeros reales acotados inferiormente o minorados:

Knf .x/ o Knf fx W x 2 S g :


x2S

Dados dos conjuntos S y T , una aplicacin, transformacin o mapeo f de S en T ,


expresada como f W S ! T , es una asociacin o criterio que a cada elemento de S hace
corresponder uno de T .
Una funcin es un caso particular de aplicacin en donde los conjuntos origen e ima-
gen suelen ser en este libro; no necesariamente en general conjuntos de nmeros:
fundamentalmente R, C, Z, N, etc.
1-Conjuntos j 3

Como regla general, las funciones que tienen inters en ingeniera, y cualesquiera
aplicaciones de las matemticas, son funciones que tienen algn tipo de buen com-
portamiento que nos permite utilizarlas de forma habitual para modelizar y simular
fenmenos de la vida cotidiana.
La imagen de un elemento x 2 S con la aplicacin f W S ! T es el elemento
f .x/ 2 T . El conjunto imagen f .S / = ff .x/ 2 T; para todo x 2 S g. La imagen de un
subconjunto S 0  S con la aplicacin f sera, por consiguiente, el subconjunto imagen
f .S 0 /. El conjunto S se conoce como origen o dominio de denicin de la aplicacin, o
funcin, y el T como dominio de valores.
Una aplicacin f W S ! T se dice inyectiva si para cualquier par de elementos
x; y 2 S, x y, se cumple que f .x/ f .y/. Ejemplo, la aplicacin f W R ! R,
denida por f .x/ D x 2 , no es inyectiva, pues f .1/ D f .1/ D 1.
Una aplicacin f W S ! T se dice suprayectiva sobreyectiva, epiyectiva, suryec-
tiva o exhaustiva si el conjunto imagen f .S / es igual a todo el conjunto T ; es decir,
para todo y 2 T existe un x 2 S tal que f .x/ D y.
Una aplicacin se dice biyectiva si es inyectiva y suprayectiva. Ejemplo, si Jn es el
conjunto de los nmeros enteros de 1 a n, Jn D f1; : : : ; ng, y se dene una aplicacin
 W Jn ! Jn que modica el orden de disposicin de los elementos de Jn estas
aplicaciones se denominan permutaciones, tal aplicacin es biyectiva.
Un conjunto S se dice numerable si existe una biyeccin entre N y S : a cada unos de
los n elementos k, 1  k  n, se le asocia un elemento ak 2 S , esto es: k 7! ak .
Una sucesin de elementos de un conjunto T es una aplicacin de N en T : a cada
elemento n  1 se le hace corresponder un x .n/ 2 T : n 7! x .n/ . Tal sucesin se desig-
na x1 ; x2 ; : : : xn ; : : :, o fx .1/ ; x .2/ ; : : : g. Tambin en algunos casos fx .n/ gn1 e incluso
fxn g1nD1 .
Si fxi g es una sucesin de nmeros reales y existe un nmero real S tal que 1: para
cada " > 0 existe un N tal que para todo n > N se tiene que xn < S C  y 2: para
cada " > 0 y M > 0 existe un n > M tal que xn > S  ", entonces S se denomina
lmite superior de la sucesin fxn g, escribindose S D lKm supn!1 xn . Si fxn g no est
acotada por arriba mayorada se escribe lKm sup xn D C1. El lmite inferior de la
sucesin fxn g es lKm inf xn D  lKm sup.xn /. Si lKm sup xn D lKm inf xn D S , entonces
lKm xn D S.
Los conjuntos dotados de ciertas leyes de composicin o asociacin interna adicin,
multiplicacin, divisin o cualquier otra, se dice que poseen una estructura algebrai-
ca. Alguna estructuras algebraicas fundamentales son el grupo, el anillo (Z por ejemplo),
el cuerpo (R y C, por ejemplo), el espacio vectorial, el lgebra, etc.
4 j 1-Conjuntos
2-Espacios vectoriales j 5

2 | Espacios vectoriales
Denicin 2.1 Un espacio vectorial E es una estructura algebraica creada a partir de
un conjunto no vaco, una ley de composicin interna denida para los elementos del
conjunto, adicin, C, con las siguientes propiedades grupo conmutativo

xCy DyCx conmutativa


.x C y/ C z D x C .y C z/ asociativa
xCDx existencia de elemento neutro
x C .x/ D ;

y una ley de composicin externa, producto por un escalar, , denida entre dicho
conjunto y otro conjunto con estructura de cuerpo, K, con las siguientes propiedades,

1  x D x; 0x D
.x/ D ./x asociativa
. C /x D x C x distributiva
.x C y/ D x C y; distributiva
 D ;

vlidas cualesquiera que sean x; y; z en E y ; en K.


A se le denomina elemento neutro, o nulo, y a x el opuesto de x. Es usual deno-
minar vectores a los elementos de E y escalares a los de K.
Ejemplo 2.1 Quizs el espacio vectorial ms simple y utilizado es el conjunto de los
nmeros reales. Es un espacio vectorial con la adicin denida en los trminos usua-
les y el producto o, multiplicacin por escalares (reales), denido por la multiplicacin
ordinaria. El vector nulo es el nmero real cero. Las propiedades de adicin ordinaria
y multiplicacin de nmeros reales satisfacen las propiedades de la denicin anterior.
Este espacio vectorial se suele denominar el espacio unidimensional de nmeros reales,
o simplemente la recta real. Se designa por R. Todo lo dicho se aplica igualmente al
espacio vectorial de los nmeros complejos, C.
En las aplicaciones que se estudian habitualmente en este libro los casos ms impor-
tantes ocurren cuando K D R o K D C. Con la notacin K designaremos a cualquiera
de los cuerpos R o C y por x un vector cualquiera de un espacio vectorial.
Ejemplo 2.2 La extensin natural del anterior, y paradigma de espacio vectorial en este
libro, lo constituye el formado por sucesiones ordenadas de n elementos cualesquiera de
6 j 2-Espacios vectoriales

K, o n-uplas x D x1 ; : : : ; xn , deniendo la suma de vectores mediante


x1 ; : : : ; xn  C y1 ; : : : ; yn  D x1 C y1 ; : : : ; xn C yn 
y el producto por un escalar mediante
x1 ; : : : ; xn  D x1 ; : : : ; xn  :
Si los elementos estn denidos en R, el espacio vectorial se denomina Rn , si lo estn
en C, el espacio vectorial es Cn .
En general, cuando en el libro nos reramos a un espacio vectorial, salvo que se
indique lo contrario, podemos sobreentender que nos estamos reriendo a Rn .
Ejemplo 2.3 Si se denota por RN el conjunto cuyos vectores son las sucesiones innitas
de nmeros reales, es decir,

RN D x D fxn g1 nD1 W xn 2 R para todo n 2 N ;

ste tiene estructura de espacio vectorial sobre el cuerpo R. Anlogamente, el conjunto


CN de todas las sucesiones de nmeros complejos tiene estructura de espacio vecto-
rial. La adicin y la multiplicacin en estos espacios vectoriales se denen elemento a
elemento como en el ejemplo 2.2. Se dice que una sucesin est acotada si existe una
constante M tal que fxn g1 nD1 < M para todo n. La coleccin de todas las sucesiones
innitas acotadas tambin conforman un espacio vectorial ya que la suma de dos sucesio-
nes acotadas o el mltiplo escalar de una sucesin acotada estn acotadas. Este espacio
se suele denominas espacio de sucesiones de nmeros reales acotadas.
Ejemplo 2.4 El conjunto de sucesiones innitas de nmeros reales que convergen a
cero es un espacio vectorial ya que la suma de dos sucesiones convergentes a cero o el
mltiplo escalar de una sucesin que converge a cero tambin converge a cero.
Ejemplo 2.5 Si consideramos un intervalo a; b en la recta real. El conjunto de todas
las funciones continuas de valores reales en este intervalo forman un espacio vectorial.
Escribamos x D y si x.t/ D y.t/ para todo t 2 a; b y sea el vector nulo la funcin
idnticamente igual a cero en a; b. Si x e y son vectores de este espacio vectorial y
es un escalar (real), las funciones .x C y/.t / D x.t/ C y.t / y .x/.t / D x.t / son
obviamente continuas por lo que la estructura de espacio vectorial es clara. Este espacio
se conoce como el espacio vectorial de funciones continuas reales en a; b.
Ejemplo 2.6 El conjunto Pn de polinomios de grado n,
X
n
pn .x/ D ak x k ;
kD0

con coecientes ak reales denidos en toda la recta real o en un intervalo a; b, o


complejos, tambin conforman sendos espacios vectoriales. El vector nulo y la adicin
o suma, as como la multiplicacin por un escalar, se denen de la misma manera que en
el ejemplo anterior. La suma de dos polinomios y un mltiplo escalar de cualesquiera de
ellos son obviamente polinomios.
2-Espacios vectoriales j 7

Dejamos aqu de momento los ejemplos pues otros que enunciaremos y utilizaremos
en el libro requieren la introduccin de otras estructuras adicionales en los espacios vec-
toriales como son una norma y el producto interior. Seguiremos enunciando ejemplos al
introducir estas estructuras.
Proposicin 2.1 En cualquier espacio vectorial se cumple que:
1. x C y D x C z implica que y D z.
2. x D y con 0 implica x D y.
3. x D x con x implica D .
4. .  /x D x  x.
5. .x  y/ D x  y.
6. D .
7. ./x D .x/ D .x/.

Denicin 2.2 Un subespacio vectorial M de un espacio vectorial E sobre un cuerpo


K es un subconjunto no vaco que es un espacio vectorial sobre K. Es decir, es cerrado
respecto de las operaciones de adicin y producto por un escalar por lo que cumple que

8x; y 2 M H) x C y 2 M;
8x 2 M y 8 2 K H) x 2 M:
La interseccin de una familia cualquiera de subespacios de E es un subespacio de
E.
Un conjunto de vectores x1 ; x2 ; : : : ; xk se dicen linealmente dependientes si existen
P
escalares i , no todos cero, tales que kiD1 i xi D 0 ; linealmente independientes, si

X
k
i xi D 0 H) i D 0; 0i k:
iD1

Denicin 2.3 La dimensin de un subespacio es el mximo nmero de vectores


linealmente independientes en el subespacio.

Denicin 2.4 Si X es un subconjunto cualquiera de E el subespacio GenfXg, gene-


rado o engendrado por X , es la interseccin se todos los subespacios que contienen a
X. Cuando GenfX g D E, se dice que X es una parte generadora de E.

Denicin 2.5 Dados vectores x1 ; : : : ; xn y escalares 1 ; : : : ; n , el vector formado


segn la expresin
x D 1 x1 C    C n xn
se dice que es una combinacin lineal de los vectores x1 ; : : : ; xn con coecientes
1 ; : : : ; n .
Un subconjunto X de E es un subespacio si y slo si contiene a cualquier combina-
8 j 2-Espacios vectoriales

cin lineal de cualquier subconjunto nito de vectores de X. Tambin se demuestra que


el subespacio GenfX g es el conjunto de todas las combinaciones lineales de vectores de
X.
Denicin 2.6 Una parte X de un espacio vectorial E se dice que es una familia libre
si los vectores de cualquier subconjunto nito de X son linealmente independientes.

Denicin 2.7 Una base de un espacio vectorial E es cualquier subconjunto B de


E que sea, simultneamente, una parte libre y generadora de E; dicho de otra forma,
una base de un espacio vectorial es un conjunto normalmente se supone ordena-
do (numerado) de vectores linealmente independientes que generan (o engendran)
dicho espacio.
Se demuestra que cualquier espacio vectorial tiene una base y que todas las bases
de un mismo espacio tienen la misma cardinalidad se pueden poner en biyeccin.
Cuando el cardinal de las bases es un nmero natural, n 2 N, se dice que el espacio es
de dimensin nita n.
Denicin 2.8 En un espacio vectorial K n ,
2 3 2 3 2 3
1 0 0
607 617 607
e1 D 6 7 6 7 6 7
4 ::: 5 ; e2 D 4 ::: 5 ; : : : ; en D 4 ::: 5 ;
0 0 1

forman una base en dicho espacio; ste, por tanto, tiene dimensin n. Esta base se
denomina base cannica o base estndar de K n . En esta base, cualquier vector x T D
x1 ; x2 ; : : : ; xn  se puede expresar de la siguiente forma:
2 3 2 3 2 3 2 3
x1 1 0 0
6 x2 7 607 617 607
6 : 7 D x1 6 : 7 C x2 6 : 7 C    C xn 6 : 7 :
4 :: 5 4 :: 5 4 :: 5 4 :: 5
xn 0 0 1

Es decir Rn D Genfe1 ; : : : ; en g. La base estndar de Pn es S D f1; t; t 2 ; : : : ; t n g.

Proposicin 2.2 Si M y N son dos subespacios vectoriales de un espacio X, la inter-


seccin, M \ N , de M y N es un subespacio de X.
Si A y B son subconjuntos de un espacio vectorial E, el conjunto A C B se dene
como:
A C B D fa C b W a 2 A; b 2 Bg :
Cuando A y B son subespacios, tambin lo es la suma A C B. Si adems A \ B D ;, la
suma se denomina directa, escribindose A B. Si A B D E, cualquier vector c 2 E
se descompone de manera nica como c D a C b, con a 2 A y b 2 B; tambin se dice
2-Espacios vectoriales j 9

que A y B son subespacios suplementarios.


En el espacio tridimensional el subespacio generado por un crculo bidimensional
centrado en el origen es un plano. El subespacio generado por un plano que no pase por
el origen es el espacio entero. Un subespacio es una generalizacin de nuestra nocin
intuitiva de un plano o lnea recta a travs del origen. La traslacin de un subespacio, por
lo tanto, es una generalizacin de un plano arbitrario o una recta.
Denicin 2.9 La traslacin de un subespacio se denomina variedad lineal o subes-
pacio afn.
Una variedad lineal V se puede expresar como V D x0 C M , donde M es un subes-
pacio. En la gura 2.1 se representa un subespacio M y una variedad lineal derivada de
l para un x0 cualquiera de V .

V
x0
M

Figura 2.1: Variedad lineal o subespacio afn

2.1 Espacios vectoriales con estructuras adicionales

L OS espacios vectoriales de mayor inters, tanto en el anlisis abstracto como en


las aplicaciones, tienen ms estructura que la implicada nicamente por las pro-
piedades presentadas. Los axiomas del espacio vectorial slo describen propiedades al-
gebraicas de los elementos del espacio: adicin, multiplicacin por un escalar y combi-
naciones de stas. Faltan conceptos topolgicos como apertura, envoltura, convergencia
y completitud, para hacer frente a cuestiones fundamentales para el anlisis como es si
una sucesin de funciones converge a otra funcin, la continuidad de funciones, medir
distancias, etc.
Las necesidades del anlisis funcional requieren considerar nuevas estructuras. Todos
estos conceptos se pueden proporcionar introduciendo una forma de medir y la distancia
en un espacio.

2.1.1 Espacios normados y espacios mtricos


La idea detrs de una norma es poder medir vectores y calcular distancias.
10 j 2-Espacios vectoriales

Denicin 2.10 Si en un espacio vectorial E sobre K (R o C) se dene una norma


vectorial como una aplicacin k  k W E ! R que verica

kvk D 0 H) v D 0 y x 0 H) kxk > 0;


kvk D jjkvk para 2 K y v 2 E;
ku C vk  kuk C kvk 8u; v 2 E;

se dice que E es un espacio vectorial normado.


La condicin ku C vk  kuk C kvk es la desigualdad de Minkowski por Hermann
Minkowski, Lituania 1864-1909,

que se conoce tambin como regla del tringulo. Es una generalizacin del hecho de que
un lado de un tringulo no puede ser mayor que la suma de los otros dos en un espacio
eucldeo multidimensional, como se puede constatar en la gura 2.2.

v
uCv

Figura 2.2: Representacin grca de la regla del tringulo

Lema 2.3 En un espacio vectorial normado se cumple que kxk  kyk  kx  yk para
cualesquiera dos vectores x e y.

Demostracin. kxkkyk D kxy Cykkyk  kxykCkykkyk D kxyk:

Denicin 2.11 En un espacio vectorial normado se dene la distancia entre dos


elementos u y v mediante
d.u; v/ D ku  vk .
Esta denicin convierte a cualquier espacio vectorial normado en un espacio m-
trico. El espacio de los nmeros reales, por ejemplo, con la distancia d.x; y/ D jx  yj,
es el espacio mtrico R1 .
2-Espacios vectoriales j 11

Con la introduccin de normas adecuadas, casi todos los ejemplos de espacios vec-
toriales arriba indicados se pueden convertir en espacios vectoriales normados.
Ejemplo 2.7 El espacio vectorial C a; b de funciones continuas en el intervalo de la
recta real a; b junto con la norma kxk D mKaxatb jx.t /j es un espacio vectorial
normado.
Comprobemos si esta norma satisface las propiedades requeridas. Es obvio que kxk 
0 y es cero slo si la funcin x.t/ es igual a cero. La regla del tringulo se obtiene de la
expresin

mKax jx.t / C y.t/j  mKax.jx.t/j C jy.t/j/  mKax jx.t /j C mKax jy.t /j:

Finalmente, la propiedad que falta se deduce de

mKax jx.t /j D mKax jj jx.t/j D jj mKax jx.t /j:

Ejemplo 2.8 El espacio vectorial Da; b de todas las funciones continuas en el intervalo
a; b de la recta real, con derivadas continuas de primer orden, junto con la norma de-
nida as, kxk D mKaxat b jx.t/j C mKaxatb jx.t/j,
P es un espacio vectorial normado.
Ejemplo 2.9 El espacio eucldeo ndimensional, denotado como Rn o E n , es el es-
pacio vectorial
p normado por excelencia con la norma eucldea dada por la expresin
kxk2 D jx1 j2 C    C jxn j2 . Sus elementos lo constituyen sucesiones ordenadas de n
elementos cualesquiera de K, o n-uplas x D x1 ; : : : ; xn . Si los elementos son comple-
jos se tendra el espacio Cn .
En el espacio vectorial K n , para 1  p < 1, se tiene la familia de normas
p
p
kxkp D jx1 jp C    C jxn jp

denominadas normas p de Hlder por Otto Hlder, Alemania 1859-1937.

Casos particulares lo constituyen las correspondientes a p D 1 y p D 2:


X
n
kxk1 D jxi j
i D1
p
kxk2 D jx1 j2 C    C jxn j2 :

Esta ltima es una vez ms la norma eucldea en Rn . Toma su nombre de Euclides de


Alejandra, Grecia, 325-265 a.C.
12 j 2-Espacios vectoriales

Tambin en K n es una norma la dada por

kxk1 D mKax jxi j :


1i n

Esta norma tambin se conoce como norma innito o norma del supremo.
Estas normas cumplen, cualquiera que sea x 2 K n , que

kxk1  kxk2  kxk1  nkxk1 :

Si la bola cerrada unidad en R2 es el conjunto fx 2 R2 W kxk  1g, su forma en


espacios vectoriales normados por la 1, 2, 1 y p son las que representa la gura 2.3.

i 2
2

kxk
x11 D
= |xijx
| ij D1
i=1
iD1

q
 q
kxk
x22 D
= jx
|x11|j22+C|xjx j DxT xx T x D 1
2 2
2 | 2=

kxk1
D mK i ij D 1
ax jx
1i21i2

kxkp D jx1jp C jx2jp 1=p ; .1  p < 1/


D1

Figura 2.3: Forma de la bola unidad para diferentes normas en R2

2.1.1.1 Estructura topolgica en espacios vectoriales


En un espacio vectorial normado se dene una bola abierta, S.x0 ; r/, de centro x0 y
radio r, como el conjunto de puntos x que verican kx  x0 k < r. Es decir:

S.x0 ; r/ D fx 2 Rn W kx  x0 k < rg:


N 0 ; r/, se dene, por el contrario, como el conjunto de puntos
Una bola cerrada, S.x
x que verican kx  x0 k  r. Es decir:
N 0 ; r/ D fx 2 Rn W kx  x0 k  rg:
S.x

Consideraremos en lo que sigue de este apartado un subconjunto S del espacio vec-


torial mtrico hasta ahora estudiado (puede ser, por ejemplo, Rn ).
2-Espacios vectoriales j 13

Denicin 2.12 Sea S un conjunto de puntos del espacio vectorial normado X. Un


punto y 2 S es un punto interior de S si existe un " > 0 tal que todos los vectores x
que satisfacen kx  yk < " pertenecen a S. En otras palabras, existe una bola abierta
S.y; "/ de centro y y radio " contenida ntegramente en S . El conjunto de todos los
puntos interiores del conjunto S se denomina interior de S y se designa mediante SV .
El interior de un conjunto puede, evidentemente, ser vaco. Por ejemplo un conjunto
con un nico punto, una lnea en R2 o un plano del espacio R3 .
Denicin 2.13 Un conjunto, o subconjunto S de un espacio normado, se dice abierto
si coincide con su interior: S D SV . Es decir, si alrededor de todo punto de S existe una
bola abierta contenida ntegramente en S.
Dos ejemplos: la bola abierta unidad, S.x; 1/ D fx W kxk < 1g y el espacio Rn
en su totalidad. En general los subconjuntos o conjuntos abiertos se caracterizan por no
tener lmites denidos o ser disjuntos de su frontera (ver ms adelante la denicin del
concepto frontera).
Denicin 2.14 Un entorno de un punto x, E.x/, es un conjunto abierto que contiene
a x. En otras palabras, E.x/ es un entorno de x si contiene una bola abierta de centro
x.

Denicin 2.15 Se dice que un punto x es un punto de acumulacin del subconjunto


S si en todo entorno de x existen un nmero innito de puntos de S.

Denicin 2.16 Un punto x se denomina punto de adherencia de un subconjunto S


de un espacio vectorial cuando todo entorno de dicho punto x contiene al menos un
punto de S ; es decir, para todo " existe un y 2 S tal que kx  yk < ". El conjun-
to de todos los puntos de adherencia de S se denomina adherencia en la literatura
anglosajona y latinoamericana, se denomina clausura cl.S / o cerramiento. Se de-
signa por SN . La adherencia de la bola abierta S.x; 1/ D fx W kxk < 1g es la cerrada
N
S.x; 1/ D fx W kxk  1g.

Denicin 2.17 Se denomina frontera o borde de un conjunto a la parte de la adheren-


cia que no est en el interior.

Denicin 2.18 Un conjunto, o subconjunto, se dice cerrado si coincide con su adhe-


rencia.

2.1.1.2 Convergencia
La adherencia de cualquier conjunto S es el conjunto cerrado ms pequeo que contiene
a S . Se puede demostrar que un conjunto es cerrado si y slo si toda sucesin convergente
de elementos de S tiene un lmite en ese conjunto.
14 j 2-Espacios vectoriales

Denicin 2.19 Se dice que en un espacio vectorial normado una sucesin innita de
vectores fxn g converge a un vector x si la sucesin fkx  xn kg converge a cero. En
este caso se escribe xn ! x.
Todos los elementos del vector deben converger a cero, lo que hace difcil caracterizar
la convergencia en espacios que no sean Rn .
Proposicin 2.4 Si la sucesin innita de vectores converge, el lmite es nico.

Demostracin. Supongamos que xn ! x y que xn ! y. Entonces

kx  yk D kx  xn C xn  yk  kx  xn k C kxn  yk ! 0:

Como consecuencia de esto, x D y.


En trminos de esferas o bolas, una sucesin innita de vectores fxn g converge a un
vector x si y slo si dado un " > 0 la bola S.x0 ; "/ contiene un xn para todo n mayor
que algn nmero N .
Proposicin 2.5 Un conjunto F es cerrado si y slo si cualquier sucesin convergente
de elementos de F tiene lmite en F .

Proposicin 2.6 La interseccin de un nmero nito de conjuntos abiertos es abierta.


La unin de una coleccin arbitraria de conjuntos abiertos es abierta.

Proposicin 2.7 La unin de un nmero nito de conjuntos cerrados es cerrada. La


interseccin de una coleccin arbitraria de conjuntos cerrados es cerrada.

Denicin 2.20 Un conjunto, o subconjunto, se dice compacto si es cerrado y acotado


(contenido en una bola de radio r < 1).
El trmino general de una sucesin f xn gn1 de nmeros reales tiene lmite, l, cuando
n tiende a 1, si para todo valor " > 0 por pequeo que sea, existe un valor n0 a
partir del cual si n > n0 tenemos que la distancia de l a xn es menor que ", es decir,
8" > 0; 9 n0 > 0 W 8n > n0 ; d.xn ; l/ < ".
Un importante resultado debido a Karl Theodor Wilhelm Weierstra, Alemania 1815-
1897,

dice que si S es un conjunto compacto, de cada sucesin o sucesin innita fxn gn2N de
elementos de dicho conjunto es posible extraer una subsucesin fx` g`2L ; L  N que
converge a un elemento del propio conjunto S .
2-Espacios vectoriales j 15

Si frk g es una sucesin de nmeros reales y sk D sup fri W i  kg, entonces fsk g
converge a un nmero real s0 ; a este nmero se le denomina lmite superior de frk g y se
expresa como lKm sup .rk / o lKmk!1 .rk / . El lmite superior de una sucesin de nmeros
reales es el mayor punto de acumulacin de la sucesin. De forma similar se dene el
lmite inferior.
Sea E un espacio vectorial normado; se dice que una sucesin fxn g en E converge a
un lmite v 2 E, si para todo " > 0, existe un N 2 N tal que a partir de l, n  N , se
cumple que kxn  vk < ".
Cuando una sucesin fxn g admite un vector lmite v slo tiene ese vector como
lmite (si existe lmite es nico.) Se escribe lKmn!1 fxn g D v, lo que es equivalente a
lKmn!1 kxn  vk D 0. En particular, xn ! 0 si y slo si kxn k ! 0.
Denicin 2.21 Una sucesin fxn g en un espacio vectorial normado por k  k se
denomina sucesin de Cauchy, por Augustin Louis Cauchy, Francia 1789-1857, si
kxn  xm k ! 0 al tender n; m ! 1. En otras palabras, si para todo " > 0 existe
un N 2 N tal que cualesquiera que sean n; m  N , se cumple que kxn  xm k < ".
Toda sucesin convergente es una sucesin de Cauchy pero pueden existir espacios
normados con sucesiones de Cauchy que no son convergentes.

Denicin 2.22 Un espacio vectorial normado se dice completo si toda sucesin de


Cauchy en l tiene lmite. Un espacio vectorial normado completo es un espacio de
Banach, por Stefan Banach, Polonia 1892-1945.

Si se tiene la sucesin x D fxn g1


nD1 , se puede denir
v
1 u1
X uX
kxk1 D jxn j; kxk2 D t jxn j2 y kxk1 D sup jxn j:
nD1 nD1 n2N

Estas cantidades no estarn denidas para cualquier sucesin en RN o CN y estarn


16 j 2-Espacios vectoriales

asociadas a un subespacio especco de sucesiones. Si se dene


( 1
)
X
1 1 N
` .N/ D x D fxn gnD1 2 C tal que jxn j < 1 ;
nD1

se comprueba que `1 .N/ es un subespacio vectorial de CN y que kxk1 para x 2 `1 .N/


dene una norma. Se obtiene as un espacio normado. De la misma manera se denen
( 1
)
X
`2 .N/ D x D fxn g1 N
nD1 2 C tal que jxn j2 < 1
nD1

y

`1 .N/ D x D fxn g1 N
nD1 2 C tal que x est acotada :

Si   Rn es un conjunto abierto de Rn , el conjunto de todas las funciones conti-


nuas en  forman un espacio vectorial lineal, C./, en Rn , con las operaciones suma y
producto por un escalar,

.f C g/.x/ D f .x/ C g.x/; x2


.f /.x/ D f .x/; x 2 :

Recordemos antes de introducir otros ejemplos de espacios vectoriales en los que la


norma es importante, que una funcin f se supone continua (o uniformemente continua)
en  si para cualquier " > 0 existe un D .f; "/ > 0 tal que jf .x/  f .y/j < ",
cualesquiera sean x; y 2  con kx  yk < .
Mediante C./ se designa el espacio vectorial lineal de las funciones continuas en el
conjunto cerrado . Este ltimo espacio, y C./, son una variedad de espacio vectorial
denominada espacio funcional pues sus elementos son funciones en vez de vectores
propiamente dichos. Cualquier funcin continua en C./ es claramente continua en
C./. Igualmente, si f 2 C./ es continua en el conjunto abierto  y ste est acotado,
la funcin f se puede suponer continua tambin en @, la frontera o borde de , y
entenderse que es continua por tanto en C./ y pertenece a dicho conjunto.
Otro espacio vectorial interesante es C m ./, el de funciones continuas con derivadas
parciales continuas hasta orden m en , o C m ./ en . Tambin Cp .2/, de funciones
continuas peridicas-2, es decir, funciones f 2 C.1; 1/ tales que f .x C 2/ D
f .x/, 1 < x < 1. O Cpk .2/ de funciones continuas peridicas-2 con derivadas
continuas hasta orden k. Alguna vez se indica Cp0 .2/ para referirse a Cp .2/.

Denicin 2.23 El conjunto L1 a; b, de todas las funciones del cuerpo de los nmeros
reales cuyo valor absoluto es integrable en el intervalo a; b, es un espacio vectorial
funcional. Tambin lo es L2 a; b, el conjunto de todas las funciones reales al cuadrado
integrables en a; b. Es de destacar que en ambos casos estas funciones no tienen por
que ser continuas en ese intervalo.
2-Espacios vectoriales j 17

2.1.1.3 Transformaciones, aplicaciones y operadores. Continuidad

Denicin 2.24 Dados dos espacios vectoriales X e Y y un subconjunto D de X, una


regla que asocia a cada elemento x 2 D un elemento y 2 X se dice una transforma-
cin, o aplicacin, de X en Y con dominio de denicin D. Si y corresponde a x con
la transformacin T se escribe y D T .x/.

Denicin 2.25 Una transformacin de un espacio vectorial X en un espacio vectorial


de nmeros reales o complejos se denomina funcin.

Denicin 2.26 Dados dos espacios vectoriales E y F sobre el mismo cuerpo K


se dene una aplicacin lineal, transformacin lineal, mapeo, operador lineal u
homomorsmo, f , de E en F , como una aplicacin f W E ! F que verica

f .x C y/ D f .x/ C f .y/ ;

cualesquiera que sean los vectores x, y de E y los escalares  y .


Existen dos casos particulares interesantes: el primero cuando E D F , en este caso
se dice que f es un operador lineal de E o endomorsmo de E; el segundo cuando
F D K el cuerpo base, en cuyo caso la aplicacin se denomina forma lineal sobre
E.
El conjunto L.E; F / de todas las aplicaciones lineales del espacio E en el espacio
F se estructura como un espacio vectorial si se denen las siguientes operaciones:
adicin .f C g/ W .f C g/.x/ D f .x/ C g.x/; 8x 2 EI
producto por un escalar f W .f /.x/ D f .x/; 8x 2 E y 8 2 K:
En particular, el conjunto L.E; K/ de formas lineales es un espacio vectorial denomina-
do dual de E, representndose con E  .
Para una aplicacin lineal f W E ! F , el conjunto de vectores de F que son la ima-
gen de los de un subespacio de E forma un subespacio de F . En particular, la imagen de
todo E es un subespacio de F que se denomina subespacio imagen de f , representn-
dose mediante Im.f /. Anlogamente, el conjunto anti-imagen de un subespacio de F
forma un subespacio de E. En particular, la anti-imagen del subespacio nulo de F forma
lo que se denomina el ncleo de la aplicacin, representndose por ker.f /. As pues
ker.f / D fx 2 E W f .x/ D 0g :
Si b 2 F , la ecuacin lineal f .x/ D b tiene solucin si y slo si b 2 Im.f /. En
ese caso el conjunto de todas las soluciones es la variedad lineal traslacin de un
subespacio dada por x0 C ker.f /, donde x0 es una solucin particular de la ecuacin.
En particular, la aplicacin es inyectiva si y slo si ker.f / D ;.
El ejemplo ms inmediato de transformacin lineal lo proporciona una matriz rec-
tangular m  n que asocia elementos de Rn en Rm . Volvemos sobre esto unas lneas ms
abajo.
18 j 2-Espacios vectoriales

Oro ejemplo de transformacin lineal de X D C a; b en X lo constituye la integral


Rb
T .x/ D a k.t; /x. / d , donde k.t; / es una funcin continua en espacio cuadrado
a  t  b, a   b.
Denicin 2.27 Una transformacin o aplicacin T de un espacio vectorial normado
X en otro espacio vectorial normado Y es continua en x0 2 X si para todo " > 0
existe un > 0 tal que kx  x0 k < implica que kT .x/  T .x0 /k < ".
La continuidad depende de la norma elegida. Si todo punto de un espacio vectorial
normado en continuo, el espacio se dice continuo.
Proposicin 2.8 Una transformacin T de un espacio vectorial normado en otro Y
tambin normado se dice continua en el punto x0 2 X si y slo si xn ! x0 implica
que T .xn / ! T .xo /.
Dada una transformacin lineal, aplicacin lineal, o mapeo, f W E ! E, se dice
que un subespacio W de E es un subespacio invariante frente a f (o f -invariante) si
para todo vector w 2 W se cumple que f .w/ 2 W . Dicho de otra manera, W es un
subespacio invariante si f .W /  W .

2.1.1.3.1 Los espacios `p y Lp


Volvemos sobre ellos en este contexto.
Denicin 2.28 Sea p un nmero real tal que 1  p < 1. El espacio `p est formado
por todas las sucesiones x D fxn g1 N
nD1 2 C tales que

1
X
jxn jp < 1:
nD1

Es decir ( 1
)
X
p
` .N/ D x D fxn g1
nD1
N
2 C tal que p
jxn j < 1 :
nD1

El espacio `1 es `1 .N/ D x D fxn g1 N
nD1 2 C tal que x est acotada .

La norma de un elemento x D fxn g1 N


nD1 2 C de ` est denida por
p

1
!1=p
X
p
kxkp D jxi j :
i D1

En `1 .N/ por kxk1 D supi jxi j:


Los espacios (funcionales) Lp a; b, e incluso Rp se denen, de forma anloga, para
p  1, como el espacio de las funciones medibles x en el intervalo a; b para las cuales
2-Espacios vectoriales j 19

la integral de Lebesgue (Riemann) existe. La norma de este espacio se dene como


Z !1=p
b
p
kxkp D jx.t/j dt :
a

2.1.1.4 Espacios de Banach

Denicin 2.29 Un Espacio de Banach es un espacio vectorial normado completo


respecto de la norma a l asociada. Todo espacio vectorial normado de dimensin nita
es un espacio de Banach.

Ejemplo 2.10 De Luenberger [1969] sacamos la sucesin, del espacio X de funciones


R1
continuas en 0; 1 con la norma que dene kxk D 0 jx.t /j dt , que expresa
8

0 para 0  t  12  n1
<
xn .t / D nt  n2 C 1 para 12  n1  t  12


:
1 para t  12 :

Su grca es la de la gura 2.4. Este espacio no es C 0; 1 pues la norma es diferente.


Cada elemento de la sucesin es una funcin continua del espacio X . La sucesin
es de Cauchy pues kxn  xm k D 12 j1=n  1=mj ! 0. Sin embargo, es obvio que no
converge a ninguna funcin continua. El espacio X en incompleto.

Figura 2.4: Grca de sucesin de Cauchy que no converge a una funcin continua

Ejemplo 2.11 Tambin es fcil ver que en C 0; 1 la sucesin de funciones cuyas gr-
cas son las de la gura 2.5 es una sucesin de Cauchy para cualquier norma k  kp , pero
no tiene lmite en C 0; 1.
Ejemplo 2.12 El espacio normado C 0; 1 es un espacio de Banach. Para probar que
es completo tendramos que probar que toda sucesin de Cauchy en l tiene lmite.
20 j 2-Espacios vectoriales

1
fn .x/ n
= =

0 1 x

= =
1
n
Figura 2.5

Supongamos que fxn g es una sucesin de Cauchy en C 0; 1. Para cada t 2 0; 1,
jxn .t/  xm .t /j  kxn  xm k ! 0 por lo que fxn g es una sucesin de Cauchy de
nmeros reales. Como el conjunto de los nmeros reales es completo existe un nmero
real x.t / al que converge la sucesin: xn .t / ! x.t/. Las funciones xn convergen en
consecuencia punto a punto a la funcin x.
Ahora probemos que esta convergencia punto a punto en uniforme en t 2 0; 1, es
decir, dado un " > 0 existe un N tal que jxn .t /  x.t/j < " para todo t 2 0; 1 y n  N .
Dado un " > 0 escogemos un N tal que kxn  xm k < "=2 para n; m > N . Entonces
para n > N
jxn .t /  x.t/j  jxn .t /  xm .t /j C jxm .t /  x.t /j
 kxn  xm k C jxm .t /  x.t /j:
Escogiendo un m sucientemente grande (que depender de t ), cada trmino del miem-
bro de la derecha de la expresin anterior se puede hacer menor que "=2 de tal manera
que jxn .t /  x.t /j < " para n > N .
Queda por probar que la funcin x es continua y que la sucesin fxn g converge a x
de acuerdo con la norma de C 0; 1. Para probar la continuidad de x, jamos " > 0. Para
todo , t y m,
jx.t C /  x.t/j  jx.t C /  xn .t C /j
C jxn .t C /  xn .t /j C jxn .t /  x.t /j:
Como fxn g converge uniformemente a x, n se puede escoger de tal manera que los
trminos primero y ltimo de esta expresin se hagan menores que "=3 para todo .
Como xn es continua, se puede escoger un que haga el segundo trmino menor que
"=3. Como consecuencia de ello, x es continua. La convergencia de xn a x en C 0; 1 se
desprende directamente de la convergencia uniforme.
2-Espacios vectoriales j 21

Es bastante instructivo conciliar la completitud de C 0; 1 con el ejemplo 2.10 en el


que la sucesin de funciones era de Cauchy pero no convergente con respecto a la norma
que all se dena. La diferencia es que, con respecto a la norma de C 0; 1, la sucesin
del ejemplo 2.10 no es de Cauchy.
Los espacios `p , 1  p  1 y Lp , 1  p  1, son espacios de Banach.

2.1.2 Espacios con producto interior

Denicin 2.30 Sea E un espacio vectorial sobre un cuerpo K (R o C); una forma
sesquilineal vez y media lineal sobre E es una aplicacin hji W E  E ! K que
verica (la barra designa complejo conjugado):

1) hu C vjwi D hujwi C hvjwi y


2) hujv C wi D hujvi C hujwi;

cualesquiera que sean u, v, w en E y ; en K . Si adems se cumple que hujvi D


hvjui, la forma se denomina hermtica. Es claro que hujui es siempre un nmero real.
Cuando se cumple que
u 0 H) hujui > 0 ;
se dice que la forma es denida positiva, denominndosela tambin producto escalar
o producto interior. Una forma sesquilineal sobre R es siempre una forma bilineal.

2.1.3 Espacios de Hilbert


Un espacio prehilbertiano por David Hilbert, Prusia Oriental 1862-1943

es un espacio vectorial, sobre un cuerpo K , dotado de una forma hermtica denida


positiva. Todo espacio prehilbertiano es un espacio normado mediante
p
kvk D hvjvi :

En la demostracin de que esta denicin corresponde a la de una norma en E juega


un papel importante la desigualdad de Cauchy-Schwarz por Augustin Louis Cauchy,
22 j 2-Espacios vectoriales

Francia 1789-1857 y Karl Hermann Amandus Schwarz, Prusia 1843-Alemania 1921

que tiene por expresin



hujvi  kuk  kvk :

Sean E y F dos espacios prehilbertianos sobre el cuerpo K ; si f W E ! F es


una aplicacin lineal, la aplicacin traspuesta de f es la aplicacin f  W F ! E que
cumple
hxjf  .y/i D hf .x/jyi ;
cualesquiera que sean los vectores x 2 E e y 2 F . Particularmente importante es el
caso en que E D F : f  se dice entonces que es el operador adjunto de f . Cuando un
operador f de E cumple que f  D f se denomina operador autoadjunto. En el caso
de que E sea un espacio vectorial real, tambin se dice que f es un operador simtrico y
cuando es un espacio vectorial complejo, que f es un operador hermtico. Un operador
simtrico cumple que
hxjf .y/i D hf .x/jyi;
mientras que uno hermtico, que

hxjf .y/i D hf .x/jyi:

Un operador f de E es unitario cuando es invertible y su inverso coincide con su


adjunto. Es decir, si f  D f 1 . Para un operador unitario se tiene que

hf .x/jf .y/i D hf  .f .x//jyi D hxjyi ;

de manera que kf .x/k D kxk. Por este motivo a los operadores unitarios tambin se les
denomina operadores isomtricos.
Denicin 2.31 Un espacio de Hilbert es un espacio
p prehilbertiano completo respecto
de la norma asociada al producto escalar kk D h; i . Dicho de otra forma, un espacio
prehilbertiano que con esta norma da un espacio de Banach. Todo espacio de Hilbert
es un espacio de Banach, pero el recproco no es cierto.
El espacio eucldeo n-dimensional, expresado Rn o En , es un espacio de Hilbert de
dimensin nita. Visto as, un espacio de Hilbert sera la generalizacin de un espacio
eucldeo, incluida la dimensin innita. El producto escalar en un espacio eucldeo es
una forma bilineal. En particular, dados dos vectores en R2 de la forma u D a; bT y
2-Espacios vectoriales j 23

v D c; d T , su producto escalar viene dado por hu; vi D ac Cbd . que se puede vericar
que es una forma bilineal.
Dos vectores cuyo producto escalar es cero se denominan ortogonales; si sus kk2 son
la unidad se denominan ortonormales. Para dos vectores ortogonales se tiene la identidad

ku C vk2 D kuk2 C kvk2 ;

que es una generalizacin del teorema de Pitgoras. En un espacio prehilbertiano el nico


vector ortogonal a todos los vectores del espacio es el vector nulo; si este espacio es de
dimensin nita es posible construir una base ortonormalizada.
En un espacio eucldeo n-dimensional el ngulo entre dos vectores x e y es
 
xT y

D arc cos ;
kxkkyk

donde
xT y
D
kxkkyk
cumple que 1   1, para cualesquiera x e y.
Dos vectores son ortogonales si x T y D 0 (
D =2; D 0); alineados, si x T y D
kxkkyk (
D 0; D 1); opuestos, si x T y D kxkkyk (
D ; D 1). Forman
un ngulo agudo si x T y > 0 (
< =2; > 0) y un ngulo obtuso si x T y < 0
(
> =2; < 0).
Una familia cualquiera de vectores distintos del nulo y ortogonales dos a dos es una
familia libre. Si M es un subespacio de un espacio prehilbertiano E de dimensin nita,
el subespacio ortogonal de M , M ? , es el subespacio formado por todos los vectores
ortogonales a los de M , siendo un subespacio suplementario de M ; es decir M M ? D
E. Cualquier x 2 E, por consiguiente, se puede expresar como x D a C b, con a 2 M
y b 2 M ?.

2.1.3.1 Teorema de la proyeccin


Gran parte de las teoras de sistemas de ecuaciones y de optimizacin estn basadas en
unos pocos resultados simples e intuitivos. Entre estos, quizs el ms sencillo y usado
sea el teorema de la proyeccin. Su aplicacin en la teora de mnimos cuadrados lineales
es fundamental. En un espacio Eucldeo ordinario de tres dimensiones determina que la
distancia ms corta de un punto exterior a un plano a ese plano la proporciona la perpen-
dicular al plano desde dicho punto. La expresin formal de este teorema en espacios de
Hilbert es la que sigue.
Teorema 2.9 Sea H un espacio de Hilbert y M un subespacio cerrado de H . Para
todo vector x 2 H existe un nico vector m0 2 M tal que kx  m0 k2  kx  mk2 ,
para todo m 2 M . La condicin necesaria y suciente adems para que m0 2 M sea
el vector mnimo nico es que x  m0 sea ortogonal a M .
24 j 2-Espacios vectoriales

Demostracin. Primero probaremos que si m0 es un vector que minimiza kx  mk,


x  m0 es ortogonal a M . Supongamos para ello, por el contrario, que existe un m que
no es ortogonal a x  m0 ; sin prdida de generalidad podemos suponer que kmk D 1
y que hx  m0 jmi D 0. Denamos el vector m1 2 M como m1 D m0 C m.
Tendremos que
kx  m1 k22 D kx  m0  mk22
D kx  m0 k22  hx  m0 jmi  hmjx  m0 i C jj2
D kx  m0 k22  jj2 < kx  m0 k22 :
De esta manera, si x  m0 no es ortogonal a M , m0 no es el mnimo que decamos.
Veamos ahora cmo, si x  m0 es ortogonal al subespacio M , m0 es el nico vector
de M que minimiza kx  mk2 . En efecto, para todo m 2 M , el teorema de Pitgoras
dice que
kx  mk22 D kx  m0 C m0  mk22 D kx  m0 k22 C km0  mk22 :
Por lo tanto kx  mk2 > kx  m0 k2 para m m0 .
Demostraremos ahora la existencia de un m0 que minimiza kx  mk2 . Si x 2 M ,
entonces m0 D x y todo estara probado como es obvio. Si x M , denamos un
D Knfm2M kx  mk2 ; lo que queremos es obtener un m0 2 M tal que kx  m0 k2 D .
A tal n, sea fm.i/ g una sucesin de vectores en M tal que kx  m.i / k2 ! . Por la
ley del paralelogramo, para u, w 2 M , ju C wj2 C ju  wj2 D 2juj2 C 2jwj2 , se tiene
que
 .j /   
.m  x/ C .x  m.i / /2 C .m.j /  x/  .x  m.i / /2 D
2 2
 .j / 2  2
2 m  x 2 C 2 x  m.i / 2 :
Reordenando, se obtiene
 2
 2  2  2  .i /
C .j / 
 .j /       m m 
m  m.i/  D2 m.j /  x  C2 x  m.i /   4 x   :
2 2 2  2 
2

Para todo i; j , el vector .m C m /=2 est en M pues ste es un espacio vectorial


.i / .j /

(lineal). De la denicin de se deduce que kx  .m.i / C m.j / /=2k2  , por lo que


 2  2  2
 .j /     
m  m.i /   2 m.j /  x  C 2 x  m.i /   4 2 :
2 2 2

Como km  .i/
! cuando i ! 1, km 
xk22 2 .j /
m.i / k22
! 0 cuando i; j ! 1. Es
decir, fm.i/ g es una sucesin de Cauchy; como M es un subespacio cerrado, la sucesin
fm.i / g tiene un lmite m0 en M y, debido a la continuidad de la norma, kx  m0 k2 !
.
El teorema de la proyeccin pone en evidencia que la solucin del problema
minimizar kt x  yk
t

es el vector proyeccin ortogonal de y sobre x: tx en la gura 2.6.


2-Espacios vectoriales j 25

x
tx

0
Figura 2.6: Solucin de minimizar t ktx  yk

2.1.4 Espacios de Lebesgue y espacios de Sobolev


Los espacios de Lebesgue y Sobolev son dos casos importantes de espacios vectoriales
de Hilbert.
Una funcin f W R ! R tiene como derivada la funcin

df .x/ f .x C h/  f .x/
f 0 .x/ D D lKm ;
dx h!0 h
supuesto ese lmite existe. Una funcin f que es derivable en un punto x D a es continua
en a. La derivada es una medida de la rapidez, o tasa (gradiente), con la que cambia el
valor de dicha funcin segn cambie el valor de su variable independiente.
Por otro lado, si f W C ! C, se dene la integral denida de esta funcin en el
intervalo a; b,
l b
I.f / D f .x/ dx;
a
como el lmite de las sumas de Riemann por Georg Friedrich Bernhard Riemann,
Alemania 1826-1866

P
Rn D niD1 .xi C1  xi /f .ti /; x1 D a; xnC1 D b; xi  ti  xiC1 ; cuando la particin
en subintervalos se hace muy na.
La integracin, proceso inverso a la derivacin, se basa en la idea de sumar todas las
partes constituyentes de un todo.
Denicin 2.32 Un espacio de Lebesgue, por Henr Lon Lebesgue, Francia 1875-
1941, es el espacio vectorial de las funciones al cuadrado integrables en   Rn , es
26 j 2-Espacios vectoriales

decir,  Z

L2 ./ D f W  ! R jf j2 < 1 :


El nmero 2 se reere a la potencia del integrando.

Esta denicin requiere la introduccin de la integral de Lebesgue que extiende el


concepto de integral de Riemann a clases o familias de funciones ms amplias por
ejemplo, sucesiones de funciones, denidas en espacios ms abstractos que R o Rn ,
con ms discontinuidades, etc. y donde, en general, se pueda saber cmo y cundo
es posible tomar lmites bajo el signo de la integral. La forma tradicional de explicitar
grcamente cmo se obtiene la integral de Riemann frente a la de Lebesgue se ve en la
gura 2.7. En pocas palabras, la diferencia entre ambas integrales es que para la integral
de Riemann interesan los valores que toma la funcin que est siendo integrada, mientras
que en la integral de Lebesgue importa ms el tamao de subconjuntos en el dominio del
integrando.

Figura 2.7: Integracin de Riemann (izquierda-azul) e integracin de Lebesgue (derecha-


rojo)

Tambin habra que denir el concepto de mtrica, tamao o medida de Lebesgue


una forma sistemtica de asignar un nmero (no negativo) a cada subconjunto de un
conjunto y el espacio deR Lebesgue.
Simplicadamente, si  f .x/ dx es la integral de Lebesgue de f .x/ y se dene la
R
norma kf kLp ./ D .  f p dx/1=p , para 1  p < 1, los espacios de Lebesgue son

Lp ./ D f .x/ W kf kLp ./ < 1 :

El requerir que las funciones sean integrables no supone ninguna limitacin importante
en la prctica ingenieril o cientca pues como hemos aprendido durante mucho tiempo
toda funcin continua a trozos, es decir con a lo sumo una cantidad nita o nume-
rable de discontinuidades, es integrable. El 99,99 % de las funciones que se utilizan en
ingeniera, economa y ciencias sociales en general son integrables.
2-Espacios vectoriales j 27

R
El espacio vectorial L2 ./ dotado del producto interior hf; gi D  f .x/g.x/dx es
un espacio de Hilbert.
En el espacio C 0; 1 de funciones continuas del intervalo 0; 1 en C, son normas las
dadas por
"Z #1=p
1
p
kf kp D jf .t/j dt :
0

Tambin en una norma la dada por


kf k1 D mKax jf .t/j :
t 20;1

Insistimos en la idea de que la norma k  k2 es la norma eucldea en Rn , sustituyendo


el sumatorio por una integral (recordemos que esta es la forma de pasar de lo discreto a
lo continuo). Esto hace que los espacios de Lebesgue L2 sean buenos y se caractericen
porque son los nicos espacios vectoriales innito dimensionales en los que siguen sien-
do vlidos muchos de los aspectos de nuestra intuicin espacial y geomtrica habitual.
Desde el punto de vista fsico, cuando f .t/ represente algn tipo de seal, la nor-
ma kf k2 representar su energa, por lo que la condicin f 2 L2 se interpretar como
que la energa de f sea nita. En concreto, si f .t/ representa la tensin voltage de
una onda electromagntica como funcin del tiempo, f 2 .t / es, salvo producto por una
Rb
constante, su potencia, por lo que a f 2 .t / dt ser la energa de la onda en el inter-
valo temporal a; b. Pedir que f pertenezca a L2 a; b equivale a pedir que f no sea
demasiado discontinua (sea integrable en algn sentido) y que su energa sea nita en
a; b.
Los espacios de funciones Lp .0; 1/, p > 1, con la norma
Z 1 1=p
p
kxk D jx.t/j dt ; donde x.t / 2 L2 .0; 1/;
0

en los que si y.t / 2 L .0; 1/ se cumple que


p

Z 1 1=p
p
jx.t/j dt <1
0

son tambin espacios normados. Casos particulares son L1 .a; b/ de funciones cuyo
valor absoluto es integrable en a; b y L2 .a; b/ de funciones al cuadrado integrables
en a; b.
En particular, el conjunto de todas las funciones tales que
Z
f 2 .x/ dx < 1

con la distancia entre dos de ellas f1 .x/ y f2 .x/ denida por


sZ
.f1 .x/  f2 .x//2 dx
28 j 2-Espacios vectoriales

es el espacio mtrico L2 .R/.


El producto escalar (producto interior) en un espacio de Lebesgue L2 ./ es
Z
u
v D hujvi D uv dx:


Denicin 2.33 Un espacio de Sobolev por Sergi Lvvich Sobolv, Rusia 1908-
1989 es un espacio vectorial de funciones dotado de una norma que es combinacin
de normas Lp de la funcin y de sus derivadas hasta un orden dado. Formalmente para
dos dimensiones es

@u @u
W 1;2 ./ D u 2 L2 ./ ; 2 L2 ./ :
@x1 @x2

El nmero 1 se reere al orden de las derivadas parciales y el 2 que las mismas deben
pertenecer a L2 ./.

Las funciones que pertenecen a W 1;2 ./ no tienen que ser derivables en todos los
puntos; es suciente que sean continuas con derivadas parciales continuas por tramos en
el dominio de denicin y que satisfagan las condiciones apuntadas. Esto se explicita
en que las derivadas de este espacio se entienden en un sentido dbil que hagan que el
espacio sea completo si toda sucesin de Cauchy en l tiene lmite y por lo tanto
sea un espacio de Banach. En sentido dbil no es sino una generalizacin del concepto
de derivada a funciones no necesariamente derivables pero si integrables localmente en
el sentido de Lebesgue en un dominio dado  de Lp ./.
La norma correspondiente de este espacio completo es
Z Z 1=2 Z Z Z !1=2
@u 2 @u 2
kukW 1;2 ./D 2
jruj C juj2
D C C juj 2
;

   @x1  @x2 

denominada en ingeniera norma de energa. Las funciones que usan esta forma ni-
ta son funciones de energa nita. Intuitivamente, un espacio de Sobolev es un espacio
de funciones con derivadas de orden suciente para un dominio de aplicacin determi-
nado y equipado con una norma que mida adecuadamente tamao y regularidad en las
funciones.
El producto escalar (producto interior) en un espacio de Sobolev W 1;2 ./ es
Z Z
u
v D hujvi D uv dx C ru  rv dx:
 
3-Matrices j 29

3 | Matrices
Denicin 3.1 Una matriz es una formacin rectangular de numeros reales o comple-
jos ordenados en m las y n columnas
2 3
a11 a12    a1n
6 a21 a22    a2n 7
6 : :: : : :: 7 :
4 :: : : : 5
am1 am2    amn

El conjunto de todas las matrices de nmeros reales o complejos se designa, respec-


tivamente, Rmn y Cmn . Si m D n la matriz es cuadrada y de orden n. Un vector
columna es tambin una matriz Rm1 , que se escribe Rm .
Las matrices de m las y n columnas con coecientes en el cuerpo R o C forman un
espacio vectorial, Rmn o Cmn , sobre dichos cuerpos.
Todo lo que sigue en esta seccin es material bastante estndar en libros de texto
y monografas al respecto. En el apartado de referencias hay un buen nmero de ellas
sobre matrices y lgebra matricial.
El primero en usar el trmino matriz en matemticas fue James Joseph Sylvester,
Reino Unido 1814-1897.

Arthur Cayley, Reino Unido 1821-1895,

contribuy de forma decisiva a que A D .aij / se concibiese como una cantidad alge-
braica nica.
Si en lgebra lineal E y F son dos espacios vectoriales de dimensiones nitas n y
m sobre el mismo cuerpo K. Una aplicacin lineal g W E ! F , g 2 L.E; F /, est
30 j 3-Matrices

caracterizada o representada en dos bases fe1 ; e2 ; : : : ; en g de E y ff1 ; f2 ; : : : ; fm g de


F por una tabla de coecientes, matriz asociada, de m las y n columnas:
2 3
a11    a1n
A D 4 ::: : : : ::: 5 2 K mn :
am1    amn

Los coecientes aij estn denidos por

X
m
g.ej / D aij fi ; 1  j  n:
i D1

El vector columna j -simo 2 3


a1j
6 a2j 7
4 :: 5
:
amj
representa el vector g.ej / en la base .fi /. A partir de la matriz A se pueden calcular
los coecientes y1 ; y2 ; : : : ; ym del vector y D g.x/ en la base .fi /, conociendo los
coeciente x1 ; x2 ; : : : ; xn en la base .ej /. En efecto:
2 3 2 3 2 3 2 3
y1 a11 a12 a1n
6 y2 7 6 a21 7 6 a22 7 6 a2n 7
4 :: 5 D x1 4 :: 5 C x2 4 :: 5 C    C xn 4 :: 5 :
: : : :
ym am1 am2 amn

Expresin que tambin se puede escribir de la siguiente forma:

X
n
yD xi a i ;
i D1

donde ai es el vector columna i-simo de la matriz A. As pues, si se jan dos bases


en E y F , cada aplicacin lineal, g W E ! F , queda unvocamente representada por
una matriz. Recprocamente, toda matriz en K mn dene unvocamente una aplicacin
lineal entre dos espacios E y F de dimensiones n y m en los que se han jado dos bases.
En particular, se pueden identicar las matrices m  n con las aplicaciones lineales de
K n en K m .
Las matrices de m las y n columnas con coecientes en el cuerpo K forman un
espacio vectorial, K mn , sobre dicho cuerpo K.
Si E y F son dos espacios de dimensin nita dotados de un producto escalar y
la aplicacin 2 L.E; F / se representa en dos bases ortonormalizadas mediante una
matriz A, la aplicacin T 2 L.F; E/, traspuesta de , viene representada por la matriz
A T , traspuesta de A.
3-Matrices j 31

Denicin 3.2 El ncleo y la imagen de una matriz A 2 K mn , ker.A/ y Im.A/,


respectivamente, se denen como los subespacios de K n y K m que son el ncleo y la
imagen de la aplicacin lineal asociada:
%
ker.A/ D fx 2 K n W Ax D 0g
:
Im.A/ D fy 2 K m W y D Ax; x 2 K n g A2K mn

Dicho de otra forma, la imagen de una matriz es el subespacio generado por los vec-
tores columna de la matriz; los vectores la tambin generan un subespacio que no es
otro que la imagen de A T .
Para una matriz A 2 Rmn se cumple que:


ker A T D .Im.A//?


Im A T D .ker.A//?


?
ker.A/ D Im A T


?
Im.A/ D ker A T :

De acuerdo con esto, si A 2 Rmn , se cumple que




ker .A/ Im A T D Rn :

En la gura 3.1 se muestran estos subespacios.

0 Ke T 0
rA rA
Ke
T Im
A A
Im

Figura 3.1: Subespacios fundamentales determinados por A mn

Denicin 3.3 El rango de una matriz es la dimensin (mximo nmero de vectores


linealmente independientes) de su subespacio imagen:

rango.A/ D dim.Im.A//:

Una matriz A 2 K mn se dice de rango completo si rango.A/ D mKn.m; n/. Una
matriz cuadrada A 2 K nn se denomina singular si rango.A/ < n; regular si
rango.A/ D n. Tambin se cumple que rango.A/ D rango.A T /.
32 j 3-Matrices

La aplicacin asociada a una matriz A 2 Rmn es suprayectiva cuando rango.A/ D


m. Para una matriz A 2 K mn se cumple que

dim.ker.A// C rango.A/ D n ;

o, alternativamente, dim.ker.A// D n  rango.A/. La aplicacin lineal asociada a A


es, por tanto, inyectiva, si y slo si rango.A/ D n. Por otro lado dim.ker.A T // C
rango.A T / D m.
Denicin 3.4 El producto exterior uvT de un vector columna n  1 por un vector
la 1  n es una matriz A nn de rango
2 1, 3
u1 v1 u1 v2    u1 vn
6u2 v1 u2 v2    u2 vn 7
A D uvT D 6 4 ::: :: 7 .
: 5
un v1 un v2    un vn

3.1 Normas de matrices


Aun cuando en gran parte de lo que sigue nos limitaremos a matrices cuadradas, la
mayor parte de las deniciones y resultados son extensibles a matrices rectangulares;
tambin supondremos que las matrices son reales.
Las matrices cuadradas de orden n forman un espacio vectorial con un producto, esto
es, un lgebra.
Denicin 3.5 Una norma matricial sobre Rmn es una aplicacin k  k W Rmn ! R
que cumple:

1) kAk D 0 H) A D 0:
2) kAk D jj  kAk:
3) kA C Bk  kAk C kBk:
4) kABk  kAk  kBk:

Existen normas sobre el espacio Rmn que no son normas matriciales pues no cum-
plen la propiedad 4). As, si se dene

kAk D mKax jaij j ;


1i;j n
1 1
se satisfacen 1), 2) y 3); sin embargo, tomando A D b D 11 es fcil ver que kABk D
2 > kAk  kBk D 1, por lo que no se cumple 4).
3-Matrices j 33

Denicin 3.6 La norma de Frobenius es la dada por


X
kAk2F D 2
aij D traza.A T A/;
1i;j n

P
donde la traza de una matriz A de orden n es niD1 ai i . La norma de Frobenius cumple
que
kABkF  kAkF  kBkF :

Toma su nombre de Ferdinand Georg Frobenius, Alemania 1849-1917.

Es fcil ver que esta norma deriva del producto escalar


X
m X
n
hAjBi D traza.A T B/ D aij bij ;
i D1 j D1

para A mn
yB mn
, que congura al espacio de las matrices m  n como un espacio
prehilbertiano. El producto escalar en el espacio Sn de las matrices simtricas n  n est
dado por
X
n X
n X
n X
hX jY i D traza.X Y / D xij yij D ai i bi i C 2 aij bij :
i D1 j D1 i D1 i <j

Denicin 3.7 Una norma matricial kk sobre Rmn se dice consistente o compatible
con una norma vectorial k  k0 sobre Rn cuando para cada matriz A y cada vector x se
cumple que
kAxk0  kAk  kxk0 :

Por ejemplo, la norma de Frobenius y la norma eucldea de Rn son consistentes pues


kAxk2  kAkF  kxk2 :
Se demuestra que para toda norma matricial es posible construir una norma vectorial
consistente. Recprocamente, a toda norma vectorial sobre Rn se le puede asociar una
norma matricial consistente. Una norma matricial consistente con una cierta norma vec-
torial k  k se construye mediante la denicin
kAxk
kAk D sup :
0x2Rn kxk
34 j 3-Matrices

Esta norma matricial se dice inducida por la norma vectorial.


Denicin 3.8 La norma matricial inducida por la norma eucldea de Rn es la norma
espectral:
" #1=2 q
x T A T Ax
kAk2 D sup D max .A T A/ D max .A/;
0x2Rn xT x

donde  designa un valor propio de A y  un valor singular.


Si k  k es la norma inducida por una cierta norma vectorial y k  k0 es una norma
matricial cualquiera consistente con esa norma vectorial, se cumple, para toda matriz A,
que kAk  kAk0 . En particular, para la norma espectral y la norma de Frobenius, se
cumple que p
kAk2  kAkF  nkAk2 :
Tambin que kABkF  kAkF  kBk2 y kABkF  kAk2  kBkF . Como casos parti-
culares, kIk2 D 1 y para una matriz diagonal, kDk2 D mKaxi jdi j.
Las normas matriciales inducidas ms usadas son
X
m
kAk1 D mKax jaij j y
1j n
iD1
Xn
kAk1 D mKax jaij j :
1i m
j D1

Ejemplo 3.1 El efecto que produce aplicar la transformacin lineal basada en la matriz
 
12
AD
02

sobre la bola unidad, explicado a partir de las normas k  k1 , k  k2 y k  k1 en R2 , se


representa en la gura 3.2.
La aplicacin transforma el vector e1 D 1; 0T en s mismo y e2 D 0; 1T en 2; 2T .
Con la norma 1, el vector unitario que ms se amplica al aplicarle la transformacin es
0; 1T (o 0; 1T ), que pasa a ser 2; 2T . Su factor de amplicacin, en trminos de la
norma 1, es 4.
Con la norma 2, el vector unitario que ms se amplica es el que se representa en la
gura con una recta discontinua. El factor de amplicacin es 2,9208.
Para la norma 1, igualmente, el vector unitario que ms se amplica es el que se repre-
senta tambin con la recta discontinua: 1; 1T , que pasa a transformarse en 3; 2T . El
factor de amplicacin correspondiente es en este caso 3 ya que
 
1; 1T  D 1
1
 
3; 2T  D 3:
1
3-Matrices j 35

[2, 2]T

[0, 1]T
A1 = 4
[1, 0]T
norma
norma11
[1, 0]T

A2 2,9208
norma
norma22

A = 3
norma
norma1

Figura 3.2: Efecto de una aplicacin lineal sobre la bola unidad para diferentes normas

Adems de las normas vectoriales y matriciales ya presentadas, otra norma vectorial


muy utilizada es
  p p
 
kxkA D A 1=2 x  D hAxjxi D x T Ax;
2

denominada norma A o norma de energa pues suele corresponder con la energa fsica
de ciertos sistemas del vector x, para una matriz A simtrica y denida positiva. Al
resultado de hxjyiA D hAxjyi se le denomina producto interior de A o producto
escalar de energa. La matriz A 1=2 es la nica matriz denida positiva solucin de la
ecuacin matricial X 2 D X  X D A.

3.2 Matrices interesantes

Denicin 3.9 Una Q 2 Rmn es una matriz ortogonal si verica que QT Q D I;


es decir, cuando sus vectores columna son ortogonales dos a dos y de norma eucldea
unitaria (ortonormales). Si Q 2 Rnn es ortogonal, se cumple que QQT D QT Q D
I.
Una matriz ortogonal no modica ni los ngulos ni las normas de los vectores a los
que se aplica la transformacin que representan: .Qx/T .Qy/ D x T QT Qy D x T y.
Si y D x, jjQxjj2 D jjxjj2 .
36 j 3-Matrices

Las matrices ortogonales Q 2 Rmn verican:


9 9
kQk2 D1 > kQk2 D1 >
>
= >
=
kQkF D n1=2 kQkF D m1=2
si m  n y si m  n:
kQAk2 D kAk2 >
> kAQk2 D kAk2 >
>
; kAQkF D kAkF ;
kQAkF D kAkF

La extensin de las matrices ortogonales al campo complejo son las matrices unita-
rias.
Denicin 3.10 Una matriz U 2 Cnn , cuya inversa es su compleja conjugada,
U H U D U U H D I, es una matriz unitaria
Todos los valores propios de las matrices unitarias tienen mdulo unidad. Como las
ortogonales, una matriz unitaria no modica ni los ngulos ni las normas, .U x/H .U y/ D
x H U H U y D x H y. Si y D x, jjU xjj2 D jjxjj2 .
Denicin 3.11 Una matriz de permutacin es una matriz cuadrada cuyas columnas
estn formadas por las de la matriz unidad permutadas. Una matriz de permutacin es
una matriz ortogonal.

Denicin 3.12 Una matriz se dice simtrica si se verica que A D A T . Para una
matriz cualquiera A 2 Rmn , la matriz A T A es simtrica. Si A 2 Cnn es igual a su
traspuesta conjugada, A D B D A H , bij D aNj i , se dice hermtica. El conjunto de las
matrices simtricas n  n se designa mediante Sn .

Denicin 3.13 Una matriz A 2 Rnn se dice denida positiva si es simtrica y


x T Ax > 0 para todo vector x 0. Se designa como A 0. De forma similar se
denen matrices semidenida positiva, A 0, denida negativa, A 0 y semide-
nida negativa, A  0, si x T Ax  0, < 0 y  0, respectivamente, para todo vector
x 0. La matriz A se dice indenida si x T Ax es positivo para algn x y negativo
para otros.
Tambin A 2 Cnn se dice denida positiva si es hermtica y para todo x 2 Cn ; x 0,
se cumple que x  Ax > 0.
El conjunto de matrices n  n denidas positivas se designa por SnCC y el de semide-
nidas positivas, o nonegativas denidas, por SnC .
Si A 2 Rnn es simtrica y denida positiva se puede descomponer de la formaA D
QDQT donde Q es una matriz ortogonal y D, diagonal, tiene todos sus coecientes
1 1 1 1
positivos por lo que A 2 D QD 2 QT satisfacindose que A 2 A 2 D A.
3-Matrices j 37

Denicin 3.14 Se dice que una matriz A 2 Cnn de coecientes aij es de diagonal
dominante por las cuando cumple que

X
n
jai i j  jaij j; i D 1; : : : ; n:
j D1;j i

Anlogamente, se dice diagonal dominante por columnas si

X
n
jai i j  jaj i j; i D 1; : : : ; n:
j D1;j i

Si las desigualdades se verican estrictamente la matriz A se denomina diagonal es-


trictamente dominante.

Lema 3.1 Para que una matriz simtrica sea denida positiva es necesario que todos
los coecientes de la diagonal principal sean positivos.

Lema 3.2 Para que una matriz simtrica A sea denida positiva es necesario que el
coeciente de mayor valor absoluto est en la diagonal principal. Ms concretamente,
mKaxi j jaij j < mKaxk akk :

Lema 3.3 Si en cada la de una matriz simtrica A el coeciente de la diagonal prin-


cipal es mayor que la suma de los valores absolutos de todos los dems coecientes de
la la, es decir, si
X n
akk > jakj j k D 1; : : : ; n;
j D1
j k

A es denida positiva.
Es importante destacar que este hltimoicriterio dene una condicin suciente, no
322
necesaria. En efecto, la matriz Q D 2 3 2 es denida positiva pues
223

x T Qx D x12 C x22 C x32 C 2.x1 C x2 C x3 /2 ;

cualquiera que sea x 0, es siempre positiva. Esa matriz, sin embargo, no satisface el
lema 3.2.
38 j 3-Matrices

Denicin 3.15 Una matriz de Vandermonde es una matriz que presenta una progre-
sin geomtrica en cada la; como esta:
2 3
1 1 12 : : : 1n1
6 1 2 22 : : : 2n1 7
6 7
6 2 n1 7
V D 6 1 3 3 : : : 3 7 :
6: : : : : 7
4 :: :: :: : : :: 5
1 n n2 : : : nn1
Su nombre se debe a Alexandre-Thophile Vandermonde, Francia 1735-1796.
Denicin 3.16 Una matriz de Hankel es una matriz cuadrada con todas sus diago-
nales de derecha a izquierda paralelas numricamente. Es decir, tiene la forma
2 3
a b c d e
6b c d e f 7
6 7
H D 6c d e f g 7 :
4d e f g h 5
e f g h i
El primero que formul esta matriz fue Hermann Hankel, Alemania 1839-1873.

Denicin 3.17 Una matriz de Hessenberg es una matriz triangular excepto por una
subdiagonal adyacente a la diagonal principal.
@
@
@
@
@
@
0 @
@
@

Fue formulada por primera vez por Karl Adolf Hessenberg, Alemania 1904-1959.

Cualquier matriz se puede reducir a la forma de Hessenberg mediante transformacio-


nes ortogonales de Householder o Givens. Si la matriz original es simtrica, al reducirla
a la forma de Hessenberg se obtendr una tridiagonal.
3-Matrices j 39

Denicin 3.18 Se denomina proyector o matriz de proyeccin a una matriz P 2


Rnn que verica que P 2 D P. Si P adems es simtrica, se denomina proyector or-
togonal o matriz de proyeccin ortogonal. Si, en este ltimo caso, F es el subespacio
imagen de la matriz P (el mismo que el de la matriz P T ), Px dene la proyeccin
ortogonal del vector x sobre F .

Denicin 3.19 Se denomina proyector suplementario de P al proyector S D I P.


Si F D Im.P/ y G D ker.P/, entonces F D ker.S / y G D Im.S /.
En el caso de un proyector ortogonal P en el que F D Im.P/, se tiene que Rn D
F F ? , vericndose que kPxk2  kxk2 y que

kx  Pxk2 D mKn kx  yk2 :


y2Im.P /DF

3.3 Valores propios, valores singulares y formas cuadrti-


cas
3.3.1 Valores propios

Denicin 3.20 Si A es una matriz cuadrada de orden n y coecientes en K (R o C),


un vector no nulo u 2 K n se denomina vector propio de A si para algn  2 K se
cumple que
Au D u :
A este  se le denomina valor propio o autovalor de la matriz A. El conjunto de los
valores propios de una matriz A se denomina espectro de A, designndose por .A/.
El radio espectral, .A/, se dene de la siguiente manera:
.A/ D mKax1i n ji j:
Para que un nmero  sea valor propio de A, el sistema lineal y homogneo de
ecuaciones dado por .I  A/x D 0 debe tener soluciones distintas de la trivial x D 0.
Esto equivale a que
det.A  I/ D 0 :
Esta es una ecuacin polinmica de grado n en  que se denomina ecuacin caracters-
tica, o polinomio caracterstico, de la matriz A. La ecuacin caracterstica admite la raz
 D 0 si y slo si det.A/ D 0. Una matriz es invertible, por tanto, si y slo si no admite
al cero como vector propio.
Para que exista una solucin distinta de la trivial x D 0, el valor propio  deber ser
raz del polinomio caracterstico de grado n asociado a A, esto es det.A  I/ D 0. Lo
que es igual a n C g1 n1 C g2 n2 C    C gn D 0:
El Teorema fundamental del lgebra establece que cada ecuacin polinmica de gra-
do n, con coecientes complejos, tiene n races en el cuerpo de los complejos.
40 j 3-Matrices

La multiplicidad algebraica del valor propio  de A es la multiplicidad de la raz co-


rrespondiente del polinomio caracterstico asociado a A. La multiplicidad geomtrica de
 es el nmero de vectores propios linealmente independientes que se corresponden con
. La multiplicidad geomtrica de un valor propio es menor o igual que su multiplicidad
algebraica.
Por ejemplo, si A D I,  D 1 es un valor propio con multiplicidad algebraica y
geomtrica n. El polinomio caracterstico de A es p.z/ D .z  1/n y ei 2 Cn , i D
1; : : : ; n, sus vectores propios. Si el valor propio  tiene una multiplicidad geomtrica
menor que la algebraica, se dice defectuoso. Se dice hque una i matriz es defectuosa si
210
tiene al menos un valor propio defectuoso. La matriz 0 2 1 tiene un valor propio, 2,
002
de multiplicidad algebraica 3 y multiplicidad geomtrica 1; u D 100T . Si una matriz
A 2 Cnn no es defectuosa, dispone de un conjunto de n vectores propios linealmente
independientes.
Un resultado interesante debido a dos matemticos del siglo XIX, Arthur Cayley,
Reino Unido 1821-2895, y William Rowan Hamilton, Irlanda 1805-1865,

dice que cualquier matriz A 2 Cnn satisface su propia ecuacin caracterstica. Es


decir,
A n C g1 A n1 C g2 A n2 C    C gn I D 0:
Si A es invertible, como consecuencia de ello,
1 n1 g1 n2 gn1
A 1 D  A  A    I:
gn gn gn

A partir del teorema de Cayley-Hamilton tambin es fcil comprobar que existe un po-
1
1 2 p de grado mximo n  1 tal que2 A
linomio D p.A/. Como ejemplo, la matriz
34 tiene como polinomio caracterstico x  5x  2. El teorema de Cayley-Hamilton
dice que A 2  5A  2I D 0, lo cual se puede comprobar inmediatamente. La inver-
sa de A se puede obtener de esta ecuacin a partir de A .A  5I/ D 2I. En efecto,
A 1 D 12 .A  5I/.

Denicin 3.21 Para A 2 Cnn y 0 b 2 Cn1 , al subespacio

Kj .A; b/ D Genfb; Ab; : : : ; A j 1 bg

se le denomina subespacio de Krylov.


3-Matrices j 41

Estos subespacios deben su nombre y formulacin al trabajo de Aleksi Nikolyevich


Krylov, Rusia 1863-1945.

Igual que cualquier matriz tiene asociado un polinomio caracterstico, cualquier po-
linomio tiene asociado una matriz compaera.
Un polinomio a0 C a1 x C a2 x 2 C : : : C an x n se dice que es mnico si an D 1.
La matriz compaera de un polinomio mnico p.t/ D c0 C c1 t C    C cn1 t n1 C t n
es 2 3
0 0 : : : 0 c0
61 0 : : : 0 c1 7
C .p/ D 6 40:: 1:: :: :: : 0:: c2::5
7
: : : : :
0 0 : : : 1 cn1
Los valores propios de esta matriz C .p/ son las races del polinomio p.t /. El polinomio
mnimo q.t / de una matriz A es el polinomio mnico nico de grado mnimo tal que
q.A/ D 0.
Una matriz real de orden n no tiene necesariamente valores propios reales pero, como
consecuencia del teorema fundamental del lgebra, cualquier matriz compleja tiene al
menos un valor propio complejo. Su nmero mximo de valores propios es n.
Proposicin 3.4 Al aplicrsele a cualquier vector la transformacin que representa A
ese vector tiende a orientarse en la direccin del vector propio dominante de A. Si
aquel vector est en la direccin de alguno de los vectores propios de A, se expande o
contrae por un factor que determina el correspondiente valor propio.

La matriz A D 21 12 tiene como valores propios 3 y 1. Los vectores propios asocia-
dos son 1 1T y 1 1T . El efecto de aplicarla sobre distintos vectores se puede ver en
la gura 3.3: en magenta y azul (en grises con mayor o menor intensidad) los vectores
propios; otros en rojo que si se orientan.
Siendo  un valor propio de una matriz A, el conjunto de soluciones del sistema de
ecuaciones
.I  A/x D 0
es un subespacio de K n que se denomina subespacio propio asociado al valor propio ,
designndose con E . Si n es la multiplicidad de  como raz de la ecuacin caracte-
rstica de A, se cumple que
dim.E /  n :
La interseccin de subespacios propios correspondientes a valores propios distintos se
reduce al subespacio nulo; esto es   H) E \ E D ;.
42 j 3-Matrices

Figura 3.3: Efecto


de aplicrsele a diversos vectores la transformacin que representa la
matriz A D 21 12

L
De este modo, la suma de subespacios propios es directa. Se cumple que 2.A/ E
D K n si y slo si para cada  2 .A/, dim.E / D n ; en ese caso existe una base de
K n formada toda ella por vectores propios de A.
El teorema central en el estudio de los mtodos y algoritmos numricos para el clcu-
lo y anlisis de valores y vectores propios es el de la descomposicin de Schur por Issai
Schur, Alemania 1875-1941.

Teorema 3.5 Descomposicin o triangularizacin de Schur. Para cualquier A 2 Cnn


existe una matriz unitaria U y una matriz triangular superior, T , tal que

AU D U T o U H AU D T :

Los valores propios de A son los coecientes de la diagonal principal de R.

Teorema 3.6 Para cualquier matriz hermtica A 2 Cnn existe una matriz unitaria U
tal que
U H AU D D;
donde D es una matriz diagonal.
1. Los valores propios de A son nmeros reales.
2. Se pueden obtener vectores propios de A que sean ortonormales.
En este caso se dice que la matriz A es semejante a una matriz diagonal: la matriz A
3-Matrices j 43

es diagonalizable por semejanza. Dos matrices semejantes tienen el mismo polinomio


caracterstico y los mismos valores propios. Una matriz A 2 Cnn es normal, es decir
AA H D A H A, si y slo si A D U U H , donde U es una matriz unitaria y una
diagonal cuyos coecientes son los valores propios de A. Los vectores propios son los
vectores columna de U .
Teorema 3.7 Toda matriz real y simtrica tiene todos sus valores propios reales y
es diagonalizable por semejanza. Se demuestra adems que los subespacios propios
correspondientes a valores propios distintos son ortogonales. De aqu se sigue que es
siempre posible formar una base ortonormalizada de vectores propios para una matriz
real y simtrica A. Existe entonces una matriz ortogonal Q tal que verica QT AQ D
D, con QT D Q1 y, de aqu que, toda matriz real y simtrica es congruente ortogonal
con su reducida diagonal. Este resultado fundamental de la teora de matrices es la
versin para matrices simtricas del denominado Teorema espectral. Da lugar a la
Descomposicin espectral de A.

Teorema 3.8 Descomposicin de Jordan. Para una matriz A 2 Cnn existe una matriz
regular X 2 Cnn tal que X 1 AX D diag.J 1 ; : : : ; J k / donde
2 3
i 1
6 i 1 0 7
Ji D 64   7 2 Cni ni
5
0  1
i

y n1 C    nk D n. Las J i son las matrices o bloques de Jordan y los i los valores


propios de A.
Debe su nombre a Marie Ennemond Camille Jordan, Francia 1838-1922.

Una matriz simtrica denida positiva tiene todos sus valores propios reales y po-
sitivos; si es semidenida, alguno es cero. Si la matriz es negativa denida, todos sus
valores propios son negativos.
Si A es hermtica, el producto x H Ax es un nmero real. Los valores propios de
una matriz hermtica, en consecuencia, son nmeros reales. En una matriz hermtica los
vectores propios correspondientes a dos valores propios distintos son ortogonales entre
s.
Un resultado importante para averiguar el orden de magnitud de los valores propios
de una matriz es el que sigue.
44 j 3-Matrices

Teorema 3.9 De Gersgorin. Los valores propios de una matriz A 2 Cnn se encuen-
tran en la unin de los n discos de Gershgorin, cada uno de los cuales est centrado en
akk , k D 1; : : : ; n, y tiene de radio
X
n
rk D jakj j:
j D1
j k

Fue formulado por Semyon Aranovich Gersgorin, Rusia, 1901-1933.

Demostracin. Sea  un valor propio de A y x su vector propio asociado. De Ax D x


y .I  A/x D 0 se tiene que

X
n
.  akk /xk D akj xj ; k D 1; : : : ; n;
j D1
j k

donde xk es el componente k-simo del vector x.


Si xi es el coeciente de x ms grande en valor absoluto, como jxj j=jxi j  1 para
j i, se tiene que
X
n
jxj j X
n
j  ai i j  jaij j  jaij j:
jxi j
j D1 j D1
j i j i

Luego  est contenido en el disco f W j  ai i j  ri g.

Teorema 3.10 Sea A una matriz simtrica n  n. Las siguientes propiedades de A son
equivalentes.
A 0: A 0:
.A/  0. .A/ > 0.
A D D D para alguna D rectan- A D D T D para alguna D rectangular de
T

gular. rango n.
A D T para alguna nn trian- A D T para alguna nn triangular su-
gular superior. perior no degenerada.
A D B 2 para alguna B simtrica. A D B 2 para alguna B simtrica no dege-
nerada.
A D B para alguna B 0.
2
A D B 2 para alguna B 0.
3-Matrices j 45

3.3.2 Valores singulares


La nocin de valor propio, o autovalor, no tiene signicado para matrices rectangula-
res. En stas, por el contrario, si lo tiene, como en las cuadradas, el concepto de valor
singular.
Denicin 3.22 Si A es una matriz cualquiera m  n con coecientes en R, se denen
sus valores singulares i ; i D 1; : : : ; mKnfm; ng, como las races cuadradas positivas
de los valores propios de la matriz cuadrada A TA 2 Rnn .

Denicin 3.23 Los valores singulares de A son las longitudes de los semiejes del
hiperelipsoide E denido, a partir de la esfera unidad y el operador A, por
E D fy W y D Ax; kxk2 D 1g :
En la gura 3.4 se describe grcamente el caso en que m D n D 2.

2 1

x Ax

Figura 3.4: Representacin en dos dimensiones de una transformacin lineal de la esfera


unidad

Teorema 3.11 Descomposicin en valores singulares. Si A 2 Rmn es una matriz de


rango r existen matrices ortogonales U 2 Rmm y V 2 Rnn tales que

A D U V T ;
h i
donde D r 0 , 2 Rmn y r D diag.1 ; 2 ; : : : ; r /, con 1  2     
0 0
r > 0. Si las matrices U y V se escriben como U D u1 ; : : : ; um  y V D v1 ; : : : ; vn ,
los ui y vi son los vectores singulares izquierdos y derechos, respectivamente, corres-
pondientes a los valores singulares i , i D 1; : : : ; r.

Demostracin. Sean x 2 Rn e y 2 Rm dos vectores tales que

kxk2 D kyk2 D 1 y Ax D y; con  D kAk2 :


46 j 3-Matrices

La existencia de estos vectores x e y est garantizada por la denicin de kAk2 .


Sean las dos matrices ortogonales

V D x V 1  2 Rnn y U D y U 1  2 Rmm

(siempre es posible ampliar un conjunto de vectores ortogonales hasta formar una base
ortonormal de Rn ). Como U T1 Ax D  U T1 y D 0, la matriz U T AV tiene la siguiente
estructura:  T   
y  wT
A1 D U T AV D A x V 1  D ;
U T1 0 B
donde
 h B DiU T1 AV 1 2 R.m1/.n1/ y wT D y T AV 1 . Dado que kA1 w

k2 D
  2 CwT w 
 Bw
   2
C wT
w, como
2
q

2
kA1 w

k2  kA1 k2 k w

k2 D kA1 k2  2 C wT w ;

se cumple que kA1 k2  . 2 C wT w/1=2 . Como las matrices U y V son ortogonales,


kA1 k2 D kAk2 D  y por consiguiente w D 0. La argumentacin de la demostracin
se completa por induccin.
La matriz A mn D U V T , de rango r, se puede escribir como la suma de r matrices
de rango uno as
Xr
AD i ui viT ;
iD1

donde los ui y vi son los vectores columna i-simos de U y V .


La mejor aproximacin de A de rango p  r, en el sentido de mnimos cuadrados,
se obtiene de la suma de los primeros p trminos de esta ltima suma. Por ejemplo
de Sauer [2013], el mejor subespacio de dimensin uno de los puntos 3; 2, 2; 4,
2; 1 y 3; 5 en el sentido de mnimos cuadrados se obtiene de
 
3 2 2 3
AD D U V T
2 4 1 5 " #
0;4085 0;5327 0;2398 0;7014
0;5886 0;8084 8;2809 0 0 0 0;6741 0;3985 0;5554 0;2798
D 0;8084 0;5886 0 1;8512 0 0 0;5743 0;1892 0;7924 0;0801 :
0;2212 0;7223 0;0780 0;6507

Como p D 1, la mejor aproximacin de A es u1 D 0;5886; 0;8084. Del sumatorio


anterior, haciendo 2 D 0,
" #
0;4085 0;5327 0;2398 0;7014
0;5886 0;8084 8;2809 0 0 0 0;6741 0;3985 0;5554 0;2798
A1 D 0;8084 0;5886 0 000 0;5743 0;1892 0;7924 0;0801
0;2212 0;7223 0;0780 0;6507
1;9912 2;5964 1;1689 3;4188
D 2;7364 3;5657 1;6052 4;6951 :

El proceso se esquematiza en la gura 3.5.


3-Matrices j 47

Figura 3.5: Proyeccin de cuatro vectores en el subespacio de dimensin uno que mejor
los representa: recta de trazos

Dada la descomposicin en valores singulares de A, de rango r, los vectores singula-


res a la izquierda fu1 ; : : : ; ur g conforman una base ortonormal de Im.A/ y los restantes,
furC1 ; : : : ; um g, otra base ortonormal de ker.A T /. Igualmente, fvrC1 ; : : : ; vn g es una
base ortonormal de ker.A/ y fv1 ; : : : ; vr g una base ortonormal de Im.A T /.
Denicin 3.24 El nmero de condicin de una matriz es la relacin entre sus valo-
res singulares mayor y menor. Una matriz se dice mal condicionada si ese nmero es
grande o muy grande. Una matriz singular tiene un nmero de condicin innito.

Denicin 3.25 Si A es una matriz n  n, j det.A/j D 1  2    n . Para una matriz


A 2 Rmn cuya descomposicin en valores singulares es A D U V T , se dene su
matriz pseudoinversa, A  , como

A D V U T ;

donde
 D diag.11 ; : : : ; r1 ; 0; : : : ; 0/ 2 Rnm :

1 T
Si A 2 Rmn es de rango completo y m > n, A  D A T A A ; si m < n,


T 1
A D A AA
 T
.

Para cualquier matriz A 2 Rmn , la matriz A  A es la matriz n  n de proyeccin


ortogonal sobre el subespacio de los vectores la de A, AA  la m  m de proyeccin
ortogonal sobre la imagen de la matriz A (subespacio de sus vectores columna) y .I 
A  A/ la de proyeccin ortogonal sobre el ncleo de A, ker.A/.
48 j 3-Matrices

3.4 Formas cuadrticas


Denicin 3.26 Una forma cuadrtica, o forma bilineal simtrica, en n variables
es un polinomio homogneo de segundo grado en esas variables. La expresin ms
general de una forma cuadrtica es

q.x/ D x T Qx ;

donde Q D QT es una matriz simtrica de orden n.


Nos limitaremos al anlisis de formas cuadrticas con coecientes reales.
Mediante una transformacin lineal de variables, x D T y, una forma cuadrtica se
puede reducir a la forma cannica de suma de cuadrados siguiente:

X
p X
pCq
q.x/ D yi2  yi2 :
iD1 i DpC1

El rango de la forma es p C q y la signatura p  q (p nmeros positivos y q negativos).


Una forma cuadrtica real es denida positiva si para todo vector x 0, q.x/ > 0.
El rango y signatura de una forma cuadrtica denida positiva valen n. Si Q la forman
los coecientes qij y se introducen los nmeros menores como
2 3
q11 q12  q1i
6q21 q22  q2i 7
i D det 6
4 ::: :: :: 7 ;
: 5
::
: :
qi1 qi2  qi i

la forma cuadrtica asociada a Q es denida positiva si y slo si todos los menores i


son positivos. Otros grcos de formas cuadrticas son estos los de la gura 3.6. En (a)
la matriz Q es denida positiva, en (b) denida negativa, en (c) semidenida positiva
(singular) y en (d) indenida.
Sean 1 ; : : : ; n los valores propios que sabemos son reales de la matriz Q. Por
el teorema espectral, existe una matriz ortogonal P tal que P T QP D diag.1 ; : : : ; n /.
Haciendo en la forma cuadrtica q.x/ D x T Qx el cambio de variables x D Py, se
tiene que
q.x/ D y T P T QPy D 1 y12 C    C n yn2 ;

por lo que el rango de la forma cuadrtica es el nmero total teniendo en cuenta las
multiplicidades de valores propios no nulos de Q, mientras que la signatura coincide
con la diferencia entre los nmeros de valores propios positivos y negativos. En particu-
lar, la forma cuadrtica asociada a Q es denida positiva si y slo si todos los valores
propios de Q son positivos.
En ciertos casos es importante acotar el cociente de una forma cuadrtica al cuadrado
3-Matrices j 49

(a) (b)

x2
x1
Q.x/
(c) (d)

Figura 3.6: Formas de funciones cuadrticas

de la norma eucldea, es decir, el cociente

x T Qx
r.x/ D ; x 0:
xT x
Mediante una transformacin ortogonal x D Py, este cociente se escribe como

1 y12 C    C n yn2
r.x/ D ;
y12 C    C yn2

de manera que se deducen las acotaciones

x T Qx
mi n .Q/   max .Q/ :
xT x
vT Qv
Estas acotaciones no se pueden mejorar ya que si Qv D v, vT v
D .
50 j 3-Matrices
4-Funciones, sucesiones y series de funciones j 51

4 | Funciones, sucesiones y series de funcio-


nes

R ECORDEMOS que una funcin es un caso particular de aplicacin entre espacios


vectoriales o conjuntos donde los conjuntos origen e imagen son conjuntos de
nmeros.
El grco de una funcin f W Rn ! R se dene como el conjunto f.x; f .x// W
x dom.f /g, donde dom.f / es una forma abreviada de referirse al el conjunto de puntos
dominio de denicin de la funcin f . Es un subconjunto de RnC1 . El epigrafo de la
funcin es el conjunto epi.f / D f.x; t / W x 2 dom.f /; f .x/  tg. Tambin es un
subconjunto de RnC1 . Es el conjunto de puntos situados en o por encima de la funcin.
Igualmente el hipografo es el conjunto de punto situados en o por debajo de la funcin.
En la gura 4.1 se muestra el grafo de dos funciones y, sombreados, sus epigrafos.

Figura 4.1: Grco de una funcin (convexa) y su epigrafo. Otra funcin sinusoidal (no
convexa) y su epigrafo

Denicin 4.1 Una funcin f W Rn ! R se dice continua en x si para toda sucesin


fxk g que converge a x (expresado xk ! x), se cumple que f .xk / ! f .x/. De forma
equivalente, f se dice continua en x si dado un " > 0, existe un > 0 tal que
ky  xk < H) kf .y/  f .x/k < " :

Denicin 4.2 Una funcin f W R ! R se dice satisface la condicin de Lipschitz


con constante en un conjunto X si para todo x e y pertenecientes a X se cumple que

jf .x/  f .y/j  jx  yj:


52 j 4-Funciones, sucesiones y series de funciones

Una funcin que satisface la condicin de Lipschitz en un conjunto X se dice continua


-Lipschitz en ese X , designndose f 2 Lip .X /. Si nos referimos a una funcin
diciendo que es Lipschitz, o continua-Lipschitz, se est diciendo que es algo ms que
continua, que no cambia radicalmente.
Esta condicin debe su nombre a Rudolf Otto Sigismund Lipschitz, Alemania 1832-
1903.

Denicin 4.3 Dada una norma vectorial k  k en Rn y otra matricial k  k en Rmn ,


m; n > 0, una funcin g W Rn ! Rmn se dice satisface la condicin de Lipschitz con
constante en un abierto D  Rn , si para todo x e y pertenecientes a D se cumple
que
kg.x/  g.y/k  kx  yk:
Una funcin g que satisface la condicin de Lipschitz en D se dice continua -
Lipschitz en ese D, designndose g 2 Lip .D/. Una vez ms, si nos referimos a
una funcin diciendo que es Lipschitz, o continua-Lipschitz, se est diciendo que es
algo ms que continua, que no cambia radicalmente a lo largo de todas las direcciones
posibles.
Un conjunto de funciones f1 ; f2 ; : : : ; fm de Rn en R se puede considerar como una
funcin vectorial
f D f1 ; f2 ; : : : ; fm T :
Esta funcin asigna a todo vector x 2 Rn otro vector f .x/ D f1 .x/; f2 .x/; : : : ;
fm .x/T de Rm . Tal funcin vectorial se dice continua si lo es cada uno de sus compo-
nentes f1 ; f2 ; : : : ; fm .
Si cada una de las funciones de f D f1 ; f2 ; : : : ; fm T es continua en algn conjunto
abierto de Rn , se dice f 2 C . Si adems cada funcin componente tiene derivadas
parciales de primer orden continuas en ese abierto, se dice que f 2 C 1 . En general,
si las funciones componentes tienen derivadas parciales de orden p continuas, se indica
f 2 C p.
Teorema 4.1 Teorema de Weierstrass. Dada una funcin continua denida en un con-
junto compacto C 2 Rn , existe un punto donde alcanza un mnimo en C . Es decir,
existe un x  2 C tal que para todo x 2 C , f .x/  f .x  /. Tambin otro donde
alcanza un mximo.
Volvemos a dos conceptos esenciales del clculo: la derivada y la integral denida.
4-Funciones, sucesiones y series de funciones j 53

4.1 Derivada y diferenciabilidad

Denicin 4.4 Una funcin f W R ! R tiene como derivada la funcin

df .x/ f .x C h/  f .x/
f 0 .x/ D D lKm ;
dx h!0 h
si ese lmite existe. Una funcin f que es derivable en un punto x D a es continua en
a.
La derivada es una medida de la rapidez, o tasa (gradiente), con la que cambia el
valor de dicha funcin segn cambie el valor de su variable independiente. Representa,
desde el punto de vista geomtrico, la pendiente de la recta tangente a la funcin en el
punto x D a.
En el caso de funciones escalares de varias variables, f W Rn ! R, o funciones
vectoriales, f W Rn ! Rm , denidas en un entorno de x, se introduce el concepto de
diferenciabilidad.
Una funcin de varias variables en general, f , es diferenciable en un entorno de un
punto x si existen todas las derivadas parciales de la funcin, la aplicacin Df .x/ y
adems se verica que

kf .x C h/  f .x/  Df .x/hk
lKm D D 0:
h!0 khk

Si f W Rn ! R la aplicacin Df .x/ es el vector gradiente de la funcin,

 T
@f .x/ @f .x/ @f .x/
rf .x/ D ; ;:::; :
@x1 @x2 @xn

Si f W Rn ! Rm la aplicacin Df .x/ es la matriz Jacobiana de la funcin, por


Carl Gustav Jacob Jacobi, Alemania (Prusia), 1804-1851,
2 3
@f1 .x/ @f1 .x/ @f1 .x/
6 @x1 
6 @x2 @xn 7 7
6 @f2 .x/ @f2 .x/ @f 7
2 .x/ 7
6 
6 7
rf .x/ D J .x/ D 6 @x1 @x2 @xn 7
6 : : : : 7
6 :: :: :: :: 7
6 7
4 @fm .x/ @fm .x/ @fm .x/ 5

@x1 @x2 @xn

Este concepto de diferenciabilidad, que es el que se usa habitualmente, es debido a


54 j 4-Funciones, sucesiones y series de funciones

Maurice Frchet, Francia 1878-1973,

y da lugar a la derivada de Frchet. Existe otro que conocemos como derivada direc-
cional, o derivada de Gteaux por Ren Eugne Gteaux, Francia 1889-1914

(muerto en la primera gueera mundial muy joven), que dice que la funcin f es diferen-
ciable Gteaux a lo largo de cualquier vector h de Rn si existe la funcin
f .x C th/  f .x/
g.h/ D lKm :
t!0 t
Si una funcin es Frchet diferenciable en x es tambin Gteaux diferenciable en ese
punto. Lo contrario no siempre es as. Esto es anlogo al hecho de que la existencia de
derivadas en todas las direcciones en un punto no garantiza la total diferenciabilidad (e
incluso la continuidad) en ese punto.
Ejemplo 4.1 La funcin f W R2 ! R denida por
(
x3
2 Cy 2 si .x; y/ .0; 0/
f .x; y/ D x
0 si .x; y/ D .0; 0/

cuya grca es la de la gura 4.2, es continua y diferenciable Gteaux en el punto .0; 0/,
con derivada ( 3
a
si .a; b/ .0; 0/
g.a; b/ D a2 Cb 2
0 si .a; b/ D .0; 0:/
La funcin g no es un operador lineal y no es diferenciable en el sentido de Frchet.

Ejemplo 4.2 La funcin f W R2 ! R dada por


( 3
x y
si .x; y/ .0; 0/
f .x; y/ D x 6 Cy 2
0 si .x; y/ D .0; 0/
4-Funciones, sucesiones y series de funciones j 55

Figura 4.2: Funcin del ejemplo 4.1

cuya grca es la de la gura 4.3, es diferenciable Gteaux en el punto .0; 0/, con deri-
vada g.a; b/ D 0 en todas las direcciones. Sin embargo f no es continua en .0; 0/, lo
que se puede ver acercndose al origen de coordenadas a lo largo de la curva y D x 3 ,
por lo que f no puede ser diferenciable Frchet en el origen.

Figura 4.3: Funcin del ejemplo 4.2

Si se tiene la funcin escalar de varias variables f W Rn ! R, con derivadas parciales


hasta segundo orden y f 2 C 2 , se dene la matriz Hessiana de f en x por Ludwig
Otto Hesse, Alemania 1811-1874
56 j 4-Funciones, sucesiones y series de funciones

como la matriz n  n
2 3
@2 f .x/ @2 f .x/ @2 f .x/

6 @ 2 x1 @x1 @x2 @x1 @xn 7
6 7
6 @2 f .x/ @2 f .x/ @2 f .x/ 7
6  7
6 7
r 2 f .x/ D 6 @x2 @x1 @ 2 x2 @x2 @xn 7 :
6 :: :: :: :: 7
6 : 7
6 : : : 7
4 @2 f .x/ 2
@ f .x/ @ f .x/ 5
2

@xn @x1 @xn @x2 @2 xn
A esta matriz tambin se la puede ver designada como F .x/.
Denicin 4.5 Una funcin f W Rn ! Rm es afn si es la suma de una funcin lineal
y una constante; es decir, tiene la forma f .x/ D Ax Cb, donde A 2 Rmn y b 2 Rm .

4.1.1 Subgradiente y subdiferencial

Denicin 4.6 Se dice que g 2 Rn es un subgradiente de f W Rn ! R en un entorno


de un punto x que pertenece al dominio de denicin de esta funcin si para todo z del
dominio de denicin de la funcin se cumple que
f .z/  f .x/ C g T .z  x/;
Si la funcin es convexa diferenciable su gradiente en x es el subgradiente.
En la gura 4.4, de Boyd y Vandenberghe [2004], se ilustra grcamente esta de-
nicin. En ella, si g es un subgradiente de f en el punto x la funcin afn (de z),
f .x/ C g T .z  x/ es un subestimador global de f .

f (x )

f (x 1) + g 1T (x x 1)
f (x 2) + g 2T (x x 2)
f (x 2) + g 3T (x x 2)

x1 x2

Figura 4.4: f .x/ es diferenciable en x1 . Su derivada, g1 , es el nico subgradiente. En x2


la funcin no es diferenciable pero tiene mltiples subgradientes, adems de g2 y g3

Geomtricamente, g es un subgradiente de f en x si el vector g; 1T soporta lo


que se denomina el epigrafo de la funcin f (conjunto de puntos situados en o por
encima de la funcin), epi.f /, en el punto .x; f .x//. Ver gura 4.5
4-Funciones, sucesiones y series de funciones j 57

epi( f )

(g, 1)

Figura 4.5: Un vector g 2 Rn es un subgradiente de f en x si y slo si el vector g; 1T


dene un hiperplano soporte, o de apoyo, del epi.f / en x; f .x/T

Denicin 4.7 Una funcin se denomina subdiferenciable en un punto x si existe al


menos un subgradiente de la funcin en ese punto. El conjunto de todos los subgra-
dientes de f en el punto x se denomina subdiferencial de f en x y se designa por
f .x/.
La idea del subdiferencial generaliza la diferenciabilidad. La funcin f es diferen-
ciable en un punto x si y slo si f .x/ D frf .x/g. La importancia de los subgradientes,
sobre todo en optimizacin, radica en que el mnimo de una funcin f en un punto x se
da cuando 0 2 f .x/.
Ejemplo 4.3 La funcin valor absoluto, f .x/ D jxj. Para x < 0 el subgradiente es
nico: f .x/ D 1. Para x > 0, igualmente, el subgradiente es nico: f .x/ D 1. En
x D 0 el subdiferencial est denido por la desigualdad jzj  gz, para todo z, lo que se
satisface siempre y cuando g 2 1; 1. Es decir f .0/ D 1; 1. Ver gura 4.6.

f (x) = |x| f (x )

x
x
1

Figura 4.6: La funcin valor absoluto y su subdiferencial f .x/ en funcin de x. Ejem-


plo 4.1.1
58 j 4-Funciones, sucesiones y series de funciones

4.2 Integral
Denicin 4.8 Si f W C ! C, se dene la integral denida de esta funcin en el
intervalo a; b,
l b
I.f / D f .x/ dx;
a
P
como el lmite de las sumas de Riemann Rn D niD1 .xi C1 xi /f .ti /; x1 D a; xnC1 D
b; xi  ti  xiC1 ; cuando la particin en subintervalos se hace muy na.
La integracin, proceso inverso a la derivacin, se basa en la idea de sumar todas las
partes constituyentes de un todo.
Teorema 4.2 Teorema fundamental del clculo. Supongamos f W R ! R una funcin
continua en el intervalo
Rx a; b.
1. Si g.x/ D a f .t / dt entonces g 0 .x/ D f .x/.
Rb
2. a f .x/ dx D F .b/  F .a/, donde F es la funcin primitiva de f , es decir,
F0 D f .

4.3 Sucesiones de funciones, series funcionales y de poten-


cias. Convergencia
Si suponemos un intervalo I  R, que podemos empezar pensando en 0; 1, una suce-
sin de funciones en este intervalo no es ms que una coleccin de funciones ffn gn2N (o
en algunos casos .fn /n2N ), donde, para cada n 2 N, fn es una funcin fn W 0;1 ! R.
En una sucesin de funciones ffn g hay dos variables en juego: la n, que va tomando
valores naturales, y la x que, jado un n0 2 N, le asigna a cada valor x 2 0; 1 el nmero
fn0 .x/.

4.3.1 Convergencia puntual


Consideremos el intervalo I  R y, para cada n 2 N, la funcin fn W I ! R. La
sucesin de funciones ffn g converge puntualmente a la funcin f W I ! R si para cada
x0 2 I se tiene
lKm fn .x0 / D f .x0 /:
n!1

Ese lmite es un nmero, como el de una sucesin numrica. Todas las funciones de
la sucesin deben estar denidas en el mismo intervalo, as como la funcin lmite. El
lmite de una sucesin de funciones continuas no tiene por qu ser una funcin continua.
Lo mismo ocurre con la derivabilidad y la integrabilidad, que no se mantienen.
4-Funciones, sucesiones y series de funciones j 59

4.3.2 Convergencia uniforme


Alguna de las circunstancias mencionadas en la convergencia puntual hace que sea con-
veniente en ocasiones trabajar con otro tipo de convergencia la convergencia uniforme
que s mantiene las buenas propiedades de las funciones. Lgicamente esta convergencia
es ms restrictiva: si una sucesin de funciones converge uniformemente tambin lo hace
puntualmente; lo contrario no siempre ocurre.
La idea detrs de la convergencia uniforme es trabajar en torno a la norma innito o
norma del supremo. Si fan g  R es una sucesin de nmeros reales, decir lKmn!1 an D
a es lo mismo que lKmn!1 an  a D 0 o

lKm jan  aj D 0:
n!1

Es decir el lmite de una sucesin es a si y slo si la distancia de la sucesin a a tiende a


0.
Podemos pasar esta denicin a funciones sustituyendo escalares por funciones y el
valor absoluto por la norma. Si escogemos para sta la norma innito se tiene lo que
sigue
Denicin 4.9 Sea I  R un intervalo y la funcin fn W I ! R, para cada n 2 N.
Decimos que la sucesin de funciones ffn g converge uniformemente a la funcin f W
I ! R si
lKm kfn  f k1 D 0
n!1

o, de forma equivalente, si

lKm supfjfn .x/  f .x/jg D 0:


n!1 x2I

Es fcil comprobar que la convergencia uniforme implica la convergencia puntual.


Proposicin 4.3 Sea I  R un intervalo y la funcin fn W I ! R, para cada n 2 N.
Si la sucesin de funciones ffn g converge uniformemente a la funcin f W I ! R,
entonces ffn g tambin converge puntualmente a la misma funcin f .

Demostracin. Sea x0 2 I . Puesto que sabemos por hiptesis que lKmn!1 supx2I f
jfn .x/  f .x/jg D 0; y adems

jfn .x0 /  f .x/j  supfjfn .x/  f .x/jg D 0;


x2I

se sigue que lKmn!1 jfn .x0 /  f .x0 /j D 0, lo que implica que lKmn!1 fn .x0 / D
f .x0 /.
La implicacin recproca no es cierta. Una sucesin puede converger puntualmente y
no hacerlo uniformemente.
60 j 4-Funciones, sucesiones y series de funciones

Teorema 4.4 Sea ffn g una sucesin de funciones fn W a; b ! R para cada n 2 N.


Supongamos que ffn g converge uniformemente a la funcin fn W a; b ! R. Entonces
se tiene que:
1. Si fn es continua en a; b para cada n 2 N entonces f es continua.
2. Si fn es integrable en a; b para cada n 2 N entonces f es integrable.

Teorema 4.5 Sea ffn g una sucesin de funciones fn W a; b ! R para cada n 2 N.


Supongamos que para cada n 2 N, fn es derivable en a; b y sea fn0 su derivada.
Supongamos adems que la sucesin ffn0 g converge uniformemente a una funcin g W
a; b ! R y que existe x0 2 a; b tal que el lKmn fn .x0 / existe. Entonces existe f W
a; b ! R derivable en a; b tal que f 0 D g y tal que ffn g converge uniformemente
af.
Sentado el patrn para estudiar la convergencia uniforme se pueden estudiar otras
forma de convergencia como la convergencia en norma 2.
Denicin 4.10 Sea I  R un intervalo y para cada n 2 N la funcin fn W I ! R.
Decimos que la sucesin de funciones ffn g converge en media cuadrtica, o en norma
2, a la funcin f W I ! R si lKmn!1 kfn  f k2 D 0 o, de forma equivalente, si
Z  12
2
lKm .fn .t /  f .t// dt D 0:
n!1 I

Aunque pueda parecer lo contrario, las relaciones de esta convergencia con las otras
que hemos formulado anteriormente no son sencillas.
Proposicin 4.6 Si I es un intervalo acotado, para toda f W I ! R la norma 2 de f
en I es menor o igual que una constante por la norma del supremo de f en I .

Proposicin 4.7 Para cada n 2 N, sea fn W I ! R. Si la sucesin ffn g converge


uniformemente a f W I ! R, tambin converge en media cuadrtica.
La recproca no es cierta.
Proposicin 4.8 Supongamos que la sucesin de funciones ffn g converge en norma 2
a la funcin f . Entonces existe una subsucesin ffnk g que converge a f en casi todo
punto.

Corolario 4.9 Si la sucesin ffn g converge puntualmente a la funcin f y sabemos


kk2
que la sucesin ffn g converge en norma 2, entonces necesariamente fn ! f
4-Funciones, sucesiones y series de funciones j 61

4.3.3 Series funcionales

Denicin 4.11 Sea I  R un intervalo y sea ffn g una sucesin de Pfunciones fn W


m
I ! R. Se denen P las funciones Sm W I ! R como S m .x/ D nD1 fn .x/. Se
dice que la serie 1nD1 fn converge puntualmente a f W I ! R si, para cada x 2 I,
lKmm Sm .x/ D f .x/ escribindose
1
X
fn .x/ D f .x/:
nD1

P la sucesin fSm g converge uniformemente a f , entonces decimos que la


Si adems
serie 1 nD1 fn converge uniformemente a f W I ! R.
P
Si n fn converge uniformemente a f en un intervalo a; b y las funciones fn son
continuas (integrables) en ese intervalo, por lo enunciado antes f es continua (integra-
ble) en a; b. Igual se razona para la derivabilidad.
Teorema 4.10 Criterio de Weierstrass. Sea ffn g una sucesin de funciones fn W I !
R y sea fMn g  R una sucesin numrica que verica las dos condiciones siguientes:
1. Para cada n 2 N y para cada x 2 I ,

jfn .x/j  Mn :
P
2. La serie n Mn converge.
P
Entonces existe una funcin f W I ! R tal que, para todo x 2 I la serie n fn .x/
converge absolutamente a f .x/. Adems, dicha serie converge uniformemente a f .

4.3.4 Series de potencias


Una serie de potencias centrada en a (en lo sucesivo suponemos a D 0) tiene la expre-
sin
X1
an .x  a/n :
nD0

P1
Denicin 4.12 Dada una serie de potencias nD0 an x n , su radio de convergencia
es el nmero
( 1
)
X
D sup jx0 j 2 R tales que an xon converge :
nD0

Si el conjunto entre llaves no es acotado decimos que D C1.


62 j 4-Funciones, sucesiones y series de funciones

El teorema que sigue fue formulado por Niels Henrik Abel, Noruega 1802-1829. En
su nombre se da anualmente desde 2003, por la La Academia Noruega de Ciencias y
Letras, el Premio Abel, que es considerado como el Premio Nobel de Matemticas. De
hecho, su montante es el mismo que un equivalente Nobel.

P
Teorema 4.11 Teorema de Abel. Sea unaP serie de potencias 1 n
nD0 an x de modo que
1
existe un x0 2 R tal que la serie numrica nD0 an x0 es convergente.
n
P Sea ahora r 2R
tal que r < jx0 j. Entonces, para todo x 2 R tal que jxj  r la serie 1nD0 na x n
conver-
ge absolutamente. Adems se tiene que la serie de potencias converge uniformemente
en el intervalo r; r. Adems la funcin f W r; r ! R denida como
1
X
f .x/ D an x n
nD0

es derivable y
1
X
0
f .x/ D nan x n1 ;
nD1

es decir, la derivacin se puede hacer trmino a trmino.


P
Teorema 4.12 Sea el radio de convergencia de una serie de potencias 1 n
nD0 an x .
Ocurre uno de los tres casos siguientes:
1. D 0. En ese caso la serie converge par x D 0 y diverge para todo x 0.
2. 0 < < 1. En ese caso, para todo r < la serie converge uniformemente en
r; r y diverge si jxj > , En los puntos frontera . / la serie puede converger
o diverger.
3. D 1. En ese caso la serie converge para todo x 2 R y para todo r > 0 la serie
converge uniformemente en r; r.

4.4 Resultados importantes de anlisis funcional


Dada la funcin f W R ! R nveces derivable en x0 de un intervalo I  R, se llama
polinomio de Taylor de f de grado n en el punto x0 a
X
n
f .k/ .x0 /
Pn;x0 .x/ D .x  x0 /k :
k
kD0
4-Funciones, sucesiones y series de funciones j 63

Se debe a Brook Taylor, Reino Unido, 1685-1731,

Se dene el resto de Taylor como Rn;x0 .x/ D f .x/  Pn;x0 .x/.


Teorema 4.13 Teorema de Taylor (1712). Si f W Rn ! R y f 2 C 1 en una regin
que contiene el segmento x1 ; x2 , es decir puntos x
1 C .1  /x2 ; 0   1,
existe un
, 0 
 1, tal que f .x2 / D f .x1 / C r T f
x1 C .1 
/x2 .x2  x1 /:
Adems, si f 2 C 2 ,
existe un
; 0 
 1, tal que f .x2 /Df .x1 / Cr Tf .x1 /.x2 
x1 / C 12 .x2  x1 /TF
x1 C .1 
/x2 .x2  x1 /; donde F denota la matriz Hessiana
de f . Si la funcin f W R ! R es continua y derivable k C 1 veces en un intervalo, o
segmento, x; x0 , existe un b entre x y x0 tal que

f 00 .x0 /
2 f 000 .x0 /
3
f .x/Df .x0 /Cf 0 .x0 / x  x0 C x  x0 C x  x0
2 3
f .k/ .x0 /
k f .kC1/ .b/
kC1
C C x  x0 C x  x0 :
k .k C 1/

Las siete primeras aproximaciones de la funcin sen.x/ por este teorema se pueden
ver en la gura 4.7.
El teorema de Taylor nos dice que el polinomio de Taylor aproxima a la funcin f
tanto mejor cuanto mayor es n y ms cerca estemos de x0 . Tambin, que si conocemos
el valor de una funcin y sus derivadas en un punto x0 , entonces podemos aproximar el
valor de la funcin en un punto x por un polinomio y la aproximacin ser tanto mejor
cuanto ms cerca est el punto y cuantas ms derivadas consideremos.
Resulta natural extender la nocin de polinomio de Taylor, dejando que n tienda a
innito, a la de serie de Taylor centrada en x0 como
1
X f .k/ .x0 /
.x  x0 /k :
k
kD0

Tambin, preguntarse si, dada una funcin innitamente derivable f , la serie de Taylor
converge en todo punto a la funcin f .
Existe una clase muy amplia de funciones f , denominadas analticas, que verican
que su serie de Taylor converge al menos puntualmente a la funcin f . Obviamente
1
X f .k/ .x0 /
f .x/ D .x  x0 /k
k
kD0
64 j 4-Funciones, sucesiones y series de funciones

Figura 4.7: Funcin sen.x/ y, en x D 0, las aproximaciones por Taylor de primer orden,
de orden 3, 5, 7, 9, 11 y 13

si y slo si Rn;x0 .x/ ! 0.


La funcin, por ejemplo
( 1

e x2 si x 0
f .x/ D
0 si x D 0

es innitamente derivable y sin embargo la serie de Taylor no converge a f .x/ en ningn


x 0.
Teorema 4.14 Teorema del valor intermedio. Si f W R ! R es una funcin continua
en el intervalo a; b, toma todos los valores entre f .a/ y f .b/. Ms concretamente, si
y es un nmero entre f .a/ y f .b/, existe un nmero c dentro de a; b, es decir, tal
que a  c  b, en el que f .c/ D y.
El grco de la gura 4.8 esquematiza este resultado.

Teorema 4.15 Teorema del valor medio. Si f W R ! R es una funcin continua


0

y derivable en el intervalo a; b, existe un nmero c entre a y b tal que f .c/ D
f .b/  f .a/ =.b  a/.
El grco de la gura 4.9 ayuda a la comprensin de este resultado.
4-Funciones, sucesiones y series de funciones j 65

a c b

Figura 4.8: Teorema del valor intermedio

f(c)

a c b

Figura 4.9: Teorema del valor medio

Teorema 4.16 Teorema de Rolle. Si f W R ! R es una funcin continua y derivable


en el intervalo a; b y suponemos que f .a/ D f .b/, existe un nmero c, entre a y
b, tal que f 0 .c/ D 0. G ENERALIZACIN Si f es continua y derivable n  1 veces
en a; b y la derivada de orden n existe en el abierto .a; b/, y existen n intervalos
a1 < b1  a2 < b2  : : :  an < bn en a; b, tales que f .ak/ D f .bk/ para todo
k D 1 : : : n, existe un nmero c en .a; b/ tal que la derivada de orden n de f en c es
cero.
Fue formulado por Michel Rolle, Francia 1652-1719.
66 j 4-Funciones, sucesiones y series de funciones

El grco de la gura 4.10 esquematiza lo obtenido por este teorema.

Figura 4.10: Teorema de Rolle

Teorema 4.17 Primer teorema del valor medio de las integrales. Si f W R ! R es una
funcin continua en el intervalo a; b, existe entonces al menos un nmero c entre a y
b tal que
Z b
f .x/ dx D f .c/.b  a/:
a

La gura 4.11 ayuda a entender grcamente este teorema.

f(c)

a c b

Figura 4.11: Teorema del valor medio de las integrales

Teorema 4.18 Segundo teorema del valor medio de las integrales. Si f W R ! R es


una funcin continua en el intervalo a; b y g W R ! R una funcin integrable que no
cambia de signo en a; b, existe entonces un nmero c entre a y b tal que
Z b Z b
f .x/g.x/ dx D f .c/ g.x/ dx:
a a
4-Funciones, sucesiones y series de funciones j 67

Teorema 4.19 Si f W R ! R es una funcin continua en el intervalo a; b y a  c 


b, entonces Z x
d
f .t/ dt D f .x/
dx c
para todo x en a; b.

Teorema 4.20 Integracin por partes. Sean u.x/ y v.x/ funciones reales continuas con
Z Entonces
derivadas continuas. Z
u0 .x/v.x/ dx D u.x/v.x/  u.x/v 0 .x/ dx.

Supngase que se tiene una funcin vectorial f W Rn ! Rm que cumple que


fi .x/ D 0, i D 1; 2; : : : ; m: El teorema de la funcin implcita que sigue estudia, si
n  m de las variables son jas, si el problema se puede resolver en m incgnitas. Es
decir, si x1 , x2 ; : : : ; xm se pueden expresar en funcin de las restantes n  m de la forma

xi D i .xmC1 ; xmC2 ; : : : ; xn / ; i D 1; 2; : : : ; m:

A las funciones i W Rnm ! R, si existen, se las denomina funciones implcitas.


Teorema 4.21 Teorema de la funcin implcita. Sea x0 D x01 ; x02 ; : : : ; x0n T un
punto de Rn que satisface:
1. Las m funciones fi 2 C p , i D 1; 2; : : : ; m, en algn entorno de x0 , para alguna
p  1.
2. fi .x0 / D 0; i D 1; 2; : : : ; m: 2 3
@f1 .x0 / @f1 .x0 /
6 @x1   
6 :: @x: m 7 7
3. La matriz Jacobiana de la funcin vectorial, rf .x0 /D6 :: :: 7,
:
4 @fm .x0 / :
@fm .x0 / 5

@x1 @xm
es regular.
Entonces existe un entorno de xO 0 D x0mC1 ; x0mC2 ; : : : ; x0n T 2 Rnm tal que para
xO D xmC1 ; xmC2 ; : : : ; xn T en ese entorno existen funciones i .x/,
O i D 1; 2; : : : ; m
tales que:
1. i 2 C p .
2. x0i D i .xO 0 /; i D 1; 2; : : : ; m.
O 2 .x/;
3. fi .1 .x/; O : : : ; m .x/;
O x/ O D 0; i D 1; 2; : : : ; m.

Este teorema, formulado por Cauchy, sirve para caracterizar puntos ptimos en pro-
gramacin matemtica con y sin condiciones, solucin de ecuaciones lineales y no linea-
les y otras bastantes cosas.
Ejemplo 4.4 Consideremos la ecuacin x12 C x2 D 0. Una solucin de la misma es
x1 D x2 D 0. En un entorno de esta solucin, sin embargo, no hay funcin  tal que
x1 D .x2 /. En esta solucin no se cumple la condicin .c/ del teorema de la funcin
68 j 4-Funciones, sucesiones y series de funciones

implcita. En cualquier otra solucin si existe dicha .

Ejemplo 4.5 Sea A una matriz m  n, m < n, y considrese el sistema de ecuaciones


lineales Ax D b. Si A se estructura as, A D B; C , donde B es m  m, entonces se
satisface la condicin .c/ del teorema de la funcin implcita si, y slo si, B es regular.
Esta condicin se corresponde con los requisitos y enunciados de la teora de ecuaciones
lineales.
De acuerdo con este ltimo ejemplo, la teora de la funcin implcita se puede consi-
derar como una generalizacin no lineal de la teora lineal.
5-Optimizacin y Programacin Matemtica j 69

5 | Optimizacin y Programacin Matem-


tica

L A Optimizacin o Programacin Matemtica tiene por objeto el estudio del pro-


blema
minimizar f .x/
nx2R
(1)
sujeta a ci .x/ D 0; i 2 E;
cj .x/  0; j 2 I:

Si no existen las condiciones ci y cj , o restricciones, el problema es de optimizacin


sin condiciones. La funcin objetivo f y las condiciones ci y cj son, en general, no
lineales, continuas y tienen derivadas parciales continuas hasta al menos primer orden.
Los conjuntos E y I contienen los ndices de las condiciones que son de igualdad y de
desigualdad, respectivamente. El conjunto de puntos que satisfacen todas las condiciones
se denomina regin factible. Como referencia bsica de la temtica de esta seccin est
Boyd y Vandenberghe [2004]. Tambin se puede seguir a Luenberger y Ye [2016].

5.1 Condiciones necesarias y sucientes de existencia de


un punto mnimo de una funcin
Cuando el problema de optimizacin no tiene restricciones es importante conocer cules
son las condiciones necesarias y sucientes en que se puede determinar si dada f W  !
R,  2 Rn , un punto x  hace mnima esa funcin.
Una funcin f W Rn ! R se dice convexa (gura 5.1) si cumple que f .x C y/ 
f .x/ C f .y/ para todo x; y 2 Rn y todo ; 2 R, con C D 1,  0,  0.
Si S Rn es un conjunto convexo y f W Rn ! Rm es una funcin afn, la imagen de
f .S/ D ff .x/ W x 2 S g es un conjunto convexo. De forma similar, si f W Rk ! Rn
es una funcin afn, la imagen inversa f 1 .S / D fx W f .x/ 2 S g tambin es convexa.
Un punto x  2  se dice que es un mnimo local de la funcin f W  ! R si existe
un  > 0 tal que f .x/  f .x  / para todo x 2  a una distancia menor que  de x  .
Es decir, para todo x 2  tal que jx  x  j < . Si f .x/ > f .x  / para todo x 2 ,
x x  , a una distancia menor que  de x  , se dice que x  es un mnimo local estricto
de f en .
Teorema 5.1 Condiciones necesarias de primer orden. Teorema de Fermat, por Pierre
de Fermat, Francia 1607-1665. Sea  un subconjunto de Rn y una funcin f W  ! R,
f 2 C 1 . Si x  en un mnimo local de f en , se cumple que rf .x  / D 0.
70 j 5-Optimizacin y Programacin Matemtica

y = f(x)
y

Figura 5.1: Funcin convexa

Si en x  se cumple que rf .x  / D 0, x  se denomina punto estacionario.


Teorema 5.2 Condiciones necesarias de segundo orden. Sea  un subconjunto de Rn
y una funcin f W  ! R, f 2 C 2 . Si x  en un mnimo local de f en , se cumple
que rf .x  / D 0 y r 2 f .x  / es semidenida positiva.

Teorema 5.3 Condiciones sucientes de segundo orden. Sea  un subconjunto de Rn


y una funcin f W  ! R, f 2 C 2 . Si se cumple que rf .x  / D 0 y r 2 f .x  / es
denida positiva, x  en un mnimo local estricto de f en .

Teorema 5.4 Si f es convexa, cualquier mnimo local x  es un mnimo global de f .


Si adems f es derivable, cualquier mnimo local x  es un mnimo global.

5.2 Conjuntos convexos y geometra de la convexidad


En optimizacin se presta una atencin fundamental a los conjuntos convexos. En ellos
es ms fcil caracterizar las soluciones de los problemas y denir algoritmos y procedi-
mientos de resolucin robustos. En la gura 5.2 se ilustran algunos conjuntos que son
convexos y otros que no lo son. Volveremos sobre la cuestin de cmo saber si hay
convexidad o no ms adelante.
Si el entorno en el que se dene un problema de optimizacin es convexo, se puede
tener la seguridad de conseguir un ptimo del problema, con los algoritmos adecuados,
y que ste sea el nico. Si hay condiciones no convexas o la funcin objetivo no lo es,
5-Optimizacin y Programacin Matemtica j 71

Figura 5.2: Conjuntos convexos a la izquierda; no convexos a la derecha

puede que no se pueda conseguir nada del problema ni saber si hay uno o varios ptimos.
El anlisis de la convexidad de funciones y de problemas de optimizacin fue funda-
do en la segunda mitad del siglo XX por Moritz Werner Fenchel, Alemania 1905-1988,
Jean Jaques Moreau, Francia 1923-2014, y Ralph Tyrrell Rockafellar, EE.UU. 1935.

Se reere esencialmente a conjuntos, espacios y funciones convexas y sus aplicaciones


en optimizacin.
Un conjunto C Rn se dice convexo si y slo si para todo par de puntos x1 ; x2 2 C
todas las combinaciones de la forma x D x1 C .1  /x2 , con 0    1, estn en C .
Es decir, cuando para cada par de puntos del conjunto convexo todos los de la recta que
los une estn en el conjunto.
La expresin x D x1 C .1  /x2 , 0    1, dene la combinacin convexa de
x1 y x2 . Si 0 <  < 1, es decir  2 .0; 1/, la combinacin se denomina estrictamente
convexa. En la gura 5.3 se ilustra la fundamental diferencia que hay entre optimizar una
funcin en una regin factible convexa y en otra que no lo es.
El concepto de combinacin convexa se puede generalizar a cualquier nmero nito
de puntos de la siguiente manera:

X
p
xD i xi ;
i D1
Pp
donde i D1 i D 1, i  0, i D 1; : : : ; p.
Denicin 5.1 El conjunto interseccin de todos los conjuntos convexos que contie-
nen a un subconjunto S Rn se llama envoltura convexa convex hull de S
(gura 5.4) y se designa por conv.S /.
72 j 5-Optimizacin y Programacin Matemtica

f(x,y) = - x - y
ptimo local

ptimo global

Figura 5.3: Optimizacin (minimizacin) de f .x; y/ D x  y en un conjunto convexo


y en otro que no lo es

Figura 5.4: Envoltura convexa de dos conjuntos de R2 . La de la izquierda de 15 puntos;


la de la derecha de un conjunto no convexo

Un conjunto C Rn se dice que es afn (tambin se dice que C es una variedad


afn o una variedad lineal) si para cualesquiera x; y 2 C y cualquier  2 R se tiene
que .1  /x C y 2 C . El conjunto vaco es afn. Una combinacin afn de vectores
v1 ; v2 ; : : : ; vn es una combinacin lineal c1 v1 C    C cn vn en la que c1 C    C cn D 1.
Un conjunto C Rn es afn si y slo si es de la forma

C D fa C l W a 2 Rn ; l 2 Lg ;

donde L es un subespacio vectorial de Rn asociado a C . Es decir, un conjunto afn es un


subespacio desplazado del origen. La dimensin de un conjunto afn x C L es la de su
correspondiente subespacio L. Un plano afn en Rn es un traslado de un subespacio de
Rn . Una recta en Rn es un plano afn de dimensin 1. Es evidente que cualquier conjunto
afn es convexo aunque el recproco no es cierto en general.
Si S Rn , la envoltura afn de S , aff.S /, es la interseccin de todos los conjuntos
anes que contienen a S . Como se puede comprobar, aff.S / D aff.conv.S //.
Un conjunto de puntos o vectores fv1 ; : : : ; vp g de Rn es afnmente dependiente si
existen nmeros reales c1 ; : : : ; cp no todos cero tales que c1 C    C cp D 0 y c1 v1 C
   C cp vp D 0. De lo contrario ser afnmente independiente.
Un simplex o simplejo es la envolvente convexa de un conjunto nito de vectores
5-Optimizacin y Programacin Matemtica j 73

afnmente independientes.

v1 v1 v1 v4

v1 v2 v2 v3 v2 v3

S0 S1 S2 S3
Figura 5.5: El simplex S1
es un segmento de recta. El tringulo S2
proviene de seleccio-
nar un punto v3 que no est en la recta que contiene a S 1 y despus formar la envolvente
convexa con S 1 . El tetraedro S 3 se produce al elegir un punto v4 que no est en el plano
de S 2 y despus formar la envolvente convexa con S 2

Para construir un simplex k-dimensional o k-simplex se procede como sigue (ver


gura 5.5):

0-simplex S 0 W un solo punto fv1 g


1-simplex S 1 W conv.S 0 [ fv2 g/ con v2 no en aff.S 0 /
2-simplex S 2 W conv.S 1 [ fv3 g/ con v3 no en aff.S 1 /
::
:
k-simplex S k W conv.S k1 [ fvkC1 g/ con vkC1 no en aff.S k1 /:

Un smplex unidad es un subconjunto particular del ortante no negativo que se dene


as
S D fs j s 0; 1> s  1g RnC :

Es un poliedro convexo acotado con n C 1 vrtices y n C 1 y de dimensin n. En la


gura 5.6 se ve uno de R3 : un tetraedro slido pero no regular.

Figura 5.6: Simplex unidad en R3 . Un tetraedro slido aunque no regular


74 j 5-Optimizacin y Programacin Matemtica

Sea S D fv1 ; : : : ; vk g un conjunto afnmente independiente. Para cada punto p en


aff.S/ los coecientes c1 ; : : : ; ck de la representacin (nica) p D c1 v1 C  Cck vk son
las coordenadas baricntricas de p. Estas coordenadas tienen interpretaciones fsicas y
geomtricas de inters. Fueron originalmente denidas en 1827 por August F. Mbius,
Alemania 1790-1868.


Si a D 17 , b D 30 , c D 93 y p D 53 , el punto p en el centro de la gura 5.7 tiene
por coordenadas baricntricas tres nmeros no negativos ma , mb y mc tales que p es el
centro de masa de un sistema que consiste en le tringulo (sin masa) y las masas ma , mb
y mc en los vrtices correspondientes. Las masas estn unvocamente determinadas al
requerir que su suma sea 1.
a

rea = srea(abc )

rea = t rea(abc ) p
c

rea = rrea(abc )
b

Figura 5.7: Punto p D ra C sb C t c. En este caso r D 14 , s D 13 y t D 12


5
:

Proposicin 5.5 El conjunto de soluciones de un sistema de ecuaciones lineales, C D


fx W Ax D b; A 2 Rmn ; b 2 Rm g, es un conjunto afn.

Demostracin. En efecto, supongamos que x1 ; x2 2 C , es decir, Ax1 D b, Ax2 D b.


Entonces, para cualquier
,

A .
x1 C .1 
/ x2 / D
Ax1 C .1 
/ Ax2
D
b C .1 
/ b
D b;

lo que prueba que la combinacin afn


x1 C .1 
/x2 est tambin en el conjunto
C . El subespacio asociado con el conjunto afn C en este caso es el espacio nulo de A,
ker.A/.
5-Optimizacin y Programacin Matemtica j 75

Denicin 5.2 Un conjunto C Rn se dice un cono si para todo x 2 C y todo escalar


0   2 R, se tiene que x 2 C . Un cono que tambin es convexo se denomina cono
convexo. En este caso, para todo x1 ; x2 2 C y
1 ;
2  0,
1 x1 C
2 x2 2 C .

0 0

Figura 5.8: Tres conos: el primero y el segundo no son convexos; el tercero si

El conjunto fx 2 Rm W x D A; A 2 Rmn ; 2 Rn ;  0g es un cono convexo


generado por los vectores columna de la matriz A.
El conjunto de todas las combinaciones cnicas de los puntos de un conjunto C ,

1 x1 C    C
k xk ,
1 ; : : : ;
k  0, es la envoltura cnica de C , cone.C /.

0 0
Figura 5.9: Envoltura cnica de los dos conjuntos de la gura 5.4

Denicin 5.3 Un punto x es un punto extremo o vrtice de un conjunto convexo C


si y slo si no es interior a un segmento de recta contenido en C . Es decir, si y slo si

x D .1  /y C z con 0 < < 1 y y; z 2 C ) x D y D z:

Dos resultados importantes de Constantin Carathodory Alemania, 1873-1950


76 j 5-Optimizacin y Programacin Matemtica

Pn que si X R y x 2 cone.X /, existen xi y i , i D 1; : : : ; n, tales que x D


n
dicen
iD1 i xi . Es decir, como expresa la gura 5.10, cualquier elemento de la envoltura

Figura 5.10: El teorema de Carathodory

cnica de X es combinacin cnica de, a lo sumo, n puntos de X. Igualmente,


PnC1 si X Rn
y x 2 conv.X /, existen xi y i , i D 1; : : : ; n C 1, tales que x D i D1 i xi . Es decir,
cualquier elemento de la envoltura convexa de X es combinacin convexa de, a lo sumo,
n C 1 puntos de X .
Denicin 5.4 Llamaremos hiperplano H de vector caracterstico a 2 Rn ; a 0,
al conjunto H D fx 2 Rn W aT x D cg, con c 2 R. Un hiperplano es el conjunto de
soluciones de una ecuacin lineal en Rn .

Denicin 5.5 Un hiperplano en Rn es un espacio afn o una variedad lineal .n  1/


dimensional.

Denicin 5.6 Dado un hiperplano H , aT x D c, llamaremos semiespacios cerrados


de borde H a los conjuntos HC D fx 2 Rn W aT x  cg y H D fx 2 Rn W

aT x  cg. Semiespacios abiertos de borde H a HV C D x 2 Rn W aT x > c y

HV  D x 2 Rn W aT x < c . Los semiespacios de borde H son convexos; la unin de
HC y H es el espacio Rn .
En la gura 5.11 se representa el hiperplano x1 C4x2 D 11, su vector caracterstico
a D 1; 4T y los semiespacios HC y H .
En un hiperplano aT x D c la constante c determina el desplazamiento del hiperplano
del origen. Un hiperplano se puede expresar de la forma fx W aT .x  x0 / D 0g, donde
x0 es cualquier punto del hiperplano (aT x0 D c). Esa ltima expresin se puede trabajar
un poco ms pues fx W aT .x  x0 / D 0g D x0 C a? , donde a? es el complemento
ortogonal de a, es decir fv W aT v D 0g. Lo que lleva a que un hiperplano consiste en
un desplazamiento x0 ms todos los vectores ortogonales al vector caracterstico a: el
conjunto de soluciones de aT x D c: x0 C ker.a/, recordemos.
Hacemos en este punto una incursin en Dattorro [2016] para incluir la gura 5.12
que aclara lo expresado de forma compacta.
5-Optimizacin y Programacin Matemtica j 77

H+
y
x
x
0
H

a H

Figura 5.11: Hiperplano x1 C 4x2 D 11 y los semiespacios en los que divide R2

a
H + = {y | aT(y y p ) 0}

yp c
H = {y | aT(y y p ) = 0} = N (aT ) + y p
y d

H = {y | aT(y y p ) 0}

N (aT ) = {y | aTy = 0}
Figura 5.12: De Dattorro [2016] con su notacin: un hiperplano @H, desplazado del origen
una distancia y los semiespacios HC y H ; el ker.a> / D N .a> /, contenido en H .
La zona sombreada es una pieza rectangular de semiespacio H con respecto al cual el
vector a es normal, saliendo de esa zona, hacia HC . Los puntos c y d son equidistantes
del hiperplano y el vector c  d es normal al mismo
78 j 5-Optimizacin y Programacin Matemtica

Denicin 5.7 Un politopo es un conjunto formado por la interseccin de un nmero


nito de semiespacios cerrados. Un politopo cnico es un conjunto formado por la
interseccin de un nmero nito de semiespacios cerrados que pasan por un punto.

Denicin 5.8 Un poliedro es un politopo acotado y no vaco (gura 5.13).

Figura 5.13: Diversos politopos; el del centro es un poliedro

Denicin 5.9 Se denomina hiperplano soporte o hiperplano de apoyo de un con-


junto convexo C a un hiperplano H tal que H \ C ; y C HC o C H . Es
decir, a un hiperplano que contiene al conjunto C en uno de sus semiespacios cerrados
de borde H y algn punto frontera de C

Denicin 5.10 Si P es un politopo convexo y H cualquier hiperplano soporte de P ,


la interseccin F D P \ H dene una cara de P .
Existen tres tipos especiales de caras.
Denicin 5.11 Un vrtice, una arista y una faceta son caras de un politopo convexo
n-dimensional de dimensiones cero, uno y n  1, respectivamente.
Es fcil comprobar que la interseccin de conjuntos convexos es convexa y que, por
lo tanto, los politopos y los poliedros son conjuntos convexos. Si un politopo P es un
poliedro, cualquier punto se puede expresar como combinacin convexa de sus puntos
extremos o vrtices.
Ya conocemos el concepto de esfera o bola unidad. sta se puede denir tambin en
el espacio eucldeo n-dimensional Rn como

B.xc ; r/ D fxc C ru j kuk  1g:

Una bola eucldea es un conjunto convexo. Si kx1  xc k2  r, kx2  xc k2  r y


0 
 1, se tiene que

k
x1 C .1 
/x2  xc k2 D k
.x1  xc / C .1 
/.x2  xc /k2

kx1  xc k2 C .1 
/kx2  xc k2
r
5-Optimizacin y Programacin Matemtica j 79

Una familia de conjuntos convexos similar es la de los elipsoides. Se denen as

E D fx j .x  xc /> P 1 .x  xc /  1g;

donde la matriz P 0, es decir es simtrica y denida positiva. Los valores singulares


races cuadradas positivas de los valores propios de P, como apuntamos antes en
este apndice, son las longitudes de los semiejes del hiperelipsoide E. Una bola es un
elipsoide en el que P D r 2 I. Otra forma de denir el elipsoide es

E D fxc C Au j kuk2  1g;

donde A es cuadrada y regular. Asumiendo que A es simtrica y denida positiva,


1
A D P 2 proporciona el elipsoide E. Si A es semidenida positiva y regular, la l-
tima denicin de E da un elipsoide degenerado. Un elipsoide degenerado es tambin
convexo.
Denicin 5.12 Dada una norma cualquiera k  k en Rn , se dene la norma bola de
radio r y centro xc como fx j kx  xc k  rg. Es convexa. La norma cono asociada a
k  k es el conjunto
C D f.x; t / j kxk  t g RnC1 :

Ejemplo 5.1 La norma cono de segundo orden con respecto a la norma eucldea es

C D f.x; t / j kxk2  tg
(   >    )

x x I 0 x
D  0; t  0 :
t t 0 1 t

Su forma geomtrica se puede ver en la gura 5.14.

1
t

0.5

0
1
1
0
0
x2 1 1 x1
1
Figura 5.14: Frontera de la norma cono en R3 : f.x1 ; x2 ; t/ j .x12 C x22 / 2  tg
80 j 5-Optimizacin y Programacin Matemtica

5.2.1 Conos apropiados y desigualdades generalizadas

Denicin 5.13 Un cono K Rn se denomina cono verdadero, o cono apropiado


proper cone, si es convexo, cerrado, slido, en el sentido de que su interior no es vaco
(K C .K/ D Rn ), y puntiagudo (pointed) lo que signica que no contiene una lnea
o que x 2 K; x 2 K H) x D 0, o K \ K D f0g.
Un cono apropiado o verdadero induce desigualdades generalizadas, que son una
ordenacin parcial, K , de Rn , con muchas de las propiedades de un orden estndar de
Rn , denida as
x K y y  x 2 K:
Tambin se escribe x K y si y K x. De forma similar se dene la ordenacin
parcial estricta asociada
x K y y  x 2 int K:
Si nos referimos como cono apropiado al ortante RnC la ordenacin parcial K pasa a
ser RnC que es la usual  de Rn (y la estricta <). Formalmente x RnC y si xi  yi
para todo i.
El cono semidenido positivo SnC es un cono apropiado que induce la desigualdad
generalizada X SnC Y si y slo si Y  X es semidenida positiva.
Una forma de pensar en un cono convexo cerrado y puntiagudo es como un nuevo
tipo de sistema de coordenadas cuya base es generalmente no ortogonal. Un sistema
cnico sera muy parecido al sistema cartesiano habitual cuyo cono es anlogo al primer
cuadrante u ortante no negativo.
Las desigualdades generalizadas son un medio para determinar la pertenencia o no a
cualquier cono convexo cerrado, mientras que la denominada expansin biortogonal se-
ra simplemente una expresin de las coordenadas en un sistema cnico de coordenadas
cuyos ejes sin linealmente independientes pero no necesariamente ortogonales.
Cuando el cono K es el ortante no negativo de Rn , estos tres conceptos se correspon-
den con el prototipo cartesiano. La expansin biortogonal se convierte en la ortogonal.

5.2.2 Elementos mnimos y minimales. Cono dual


Se dice que un x 2 S es el elemento mnimo de S con respecto a la desigualdad
generalizada K si para todo y 2 S se cumple que x K y. Es decir, si
S x C K:
En esta expresin x C K se reere a todos los puntos que son comparables con x y
mayores o iguales que x de acuerdo con K . El elemento mximo se dene de manera
similar. Si un conjunto tiene un elemento mnimo es nico.
Se dice que un x 2 S es un elemento minimal de S con respecto a la desigualdad
generalizada K si para un y 2 S se cumple que y K x slo si y D x. Es decir, si y
slo si
.x  K/ \ S D fxg:
5-Optimizacin y Programacin Matemtica j 81

En esta expresin x  K se reere a todos los puntos que son comparables con x y
menores o iguales que x de acuerdo con K . El nico punto en comn con S es x. El
elemento mnimo es un elemento minimal.
Si K D RC el concepto de elemento mnimo y minimal coinciden en el sentido
tradicional de mnimo. En la gura 5.15 se describen geomtricamente estos ltimos
conceptos. Tambin, con algn detalle ms general, en 5.16.

S2
S1 x2

x1

Figura 5.15: El conjunto S1 tiene un elemento mnimo x1 con respecto a la desigualdad


componente a componente en R2 . El conjunto x1 C K es el sombreado ms tenuemente;
x1 es el elemento mnimo de S1 dado que S1 x1 C K. El punto x2 es un elemento
minimal de S2 . El conjunto x2  K se muestra en esa parte de la gura de forma ms
tenue. El punto x2 es minimal pues x2  K y S2 slo tienen como elemento comn x2

Denicin 5.14 Si K es un cono, se dene el cono dual de K como el conjunto


K  D fy j x > y  0 para todo x 2 Kg.
El cono dual siempre es convexo aunque el original K no lo sea. En la gura 5.17 se
ve la construccin geomtrica del cono dual en dos y tres dimensiones.
Un vector y pertenecer al cono dual K  si y slo si y es normal de un hiperplano
que soporta a K en su origen. La geometra de eso se ilustra en la gura 5.18.
Si el cono K es apropiado tambin lo es su cono dual. Si K tiene un interior no vaco
su cono dual es puntiagudo. Si K es convexo y cerrado, K  D K.
Ejemplo 5.2 El cono dual de un subespacio V Rn es su complemento ortogonal
V ? D fy j y > v D 0 para todo v 2 V g:
Ejemplo 5.3 El cono dual del ortante no negativo RnC es el propio ortante no negativo:
y > x  0 para todo x 0 y 0:

Ejemplo 5.4 El cono dual de SnC es el propio SnC .


Ejemplo 5.5 Si k  k es una norma en Rn , el cono dual del cono K D f.x; t/ 2
RnC1 j kxk  t g es el cono denido por la norma dual, es decir,

K  D f.u; v/ 2 RnC1 j kuk  vg:


82 j 5-Optimizacin y Programacin Matemtica

C1 x +K
R2

x
C2

y-K

Figura 5.16: De Dattorro [2016]. El conjunto C1 tiene un elemento mnimo x con respecto
al cono K pues dicho cono trasladado a x contiene todo el conjunto C1 . El conjunto C2
tiene un punto minimal en y con respecto al cono K pues el negativo de este trasladado a
y 2 C2 slo contiene a y

R2 R3
1

0.8

0.6

K (a)
(b)
0.4
K K

0.2 K
0 
0.2

0.4

0.6
K
0.8

1
0.5 0 0.5 1 1.5

Figura 5.17: De Dattorro [2016]. Cmo se construyen los conos duales de sendos conos
K en R2 a partir de los ngulos rectos de los extremos de K
5-Optimizacin y Programacin Matemtica j 83

y K K
z

Figura 5.18: El semiespacio con normal hacia dentro y contiene al cono K por lo que
y 2 K  . El semiespacio con normal hacia dentro z no contiene a K por lo que z K 

Si un cono K es apropiado e induce la desigualdad generalizada K , su dual K  es


tambin apropiado e induce por consiguiente una desigualdad generalizada K  dual de
K . Algunas de sus propiedades son

x K y si y slo si > x  > y para todo  K  0


x K y si y slo si > x < > y para todo  K  0;  0:

Es interesante poder caracterizar un elemento mnimo o minimal de un conjunto


mediante desigualdades duales. Un x es el elemento mnimo de un conjunto S , con
respecto a la desigualdad generalizada K si y slo si para todo  K  0 x es el
nico mnimo de > z, con z 2 S. Geomtricamente esto signica que para cualquier
 K  0, el hiperplano
fz j > .z  x/ D 0g
es un hiperplano que soporta estrictamente a S en x (slo en el punto x). Esto el lo que
ilustra la gura 5.19.

Figura 5.19: Un elemento mnimo caracterizado mediante desigualdades duales. El punto


x es el elemento mnimo del conjunto S con respecto a R2C . Esto es equivalente a que
para cada  0 el hiperplano fz j > .z  x/ D 0g soporta estrictamente a S en x. Ese
hiperplano contiene a S en uno de sus lados y lo toca slo en x

De forma similar veamos cmo caracterizar un elemento minimal. Si  K  0 y


84 j 5-Optimizacin y Programacin Matemtica

x minimiza > z para todo z 2 S , entonces x es minimal. Esto es lo que expresa la


gura 5.20.

x1 S
2
x2

Figura 5.20: El conjunto de puntos minimales de S R2 con respecto a R2C estn en la


lnea ms oscura inferior del borde de S . El que minimiza > 1 z en S es x1 y es minimal
porque 1 0. El que minimiza > 2 z en S es el punto x2 , otro punto minimal de S pues
2 0

Para probarlo, supongamos que  K  0 y que x minimiza > z para todo z 2 S


pero x no es minimal, es decir, existe un z 2 S , z x tal que z K x. Entonces
> .x  z/ > 0, lo que contradice la suposicin de que x es el que minimiza > z en S
para todo z 2 S.
Lo contrario es en general falso: un punto x puede ser minimal en S pero no el que
minimize > z en S para todo z 2 S . El ejemplo que lo demuestra es el de la gura 5.21.
Este ejemplo pone de maniesto la importancia de la convexidad. Si S es convexo, se

Figura 5.21: El punto x es un punto minimal de S 2 R2 con respecto a R2C . Sin embar-
go, no existe un  para el cual x minimiza > z para todo z 2 S .

puede decir que para cualquier elemento minimal x existe un  K  0, no cero, tal que
x minimiza > z en S para todo z 2 S .

5.2.3 Hiperplano separador. Lema de Farkas

Teorema 5.6 Sea C un conjunto convexo e y un punto exterior a la adherencia de C .


Existe un vector a tal que aT y < Knfx2C aT x.
5-Optimizacin y Programacin Matemtica j 85

Demostracin. Sea
D Knf kx  yk2 > 0:
x2C

Existe un x0 en la frontera de C tal que kx0  yk2 D . Esto es as pues la funcin


continua f .x/ D kx  yk2 alcanza su mnimo en cualquier conjunto cerrado y acotado
por lo que slo es necesario considerar x en la interseccin de la adherencia de C y la
bola abierta de centro y y radio 2.
A continuacin probaremos que a D x0  y satisface las condiciones del enunciado
del teorema. En efecto, para cualquier , 0   1, al ser C un conjunto convexo, el
punto x0 C .x  x0 / 2 C , por lo que

kx0 C .x  x0 /  yk22  kx0  yk22 :

Desarrollando,
2.x0  y/T .x  x0 / C 2 kx  x0 k22  0:
Considerando esta expresin cuando ! 0C, se tiene que

.x0  y/T .x  x0 /  0

o que

.x0  y/T x  .x0  y/T x0 D .x0  y/T y C .x0  y/T .x0  y/


D .x0  y/T y C 2 :

Haciendo a D x0  y queda probado el teorema.

La interpretacin geomtrica de este teorema es que dado un conjunto convexo C


y un punto y exterior a la adherencia de C existe un hiperplano que contiene a y, sin
tocar a C , estando C en uno de sus semiespacios abiertos. Ese hiperplano, de vector

aT x b aT x b

D
C

Figura 5.22: Hiperplano separador entre C y D

caracterstico a en el teorema, se denomina hiperplano separador de C e y.


86 j 5-Optimizacin y Programacin Matemtica

Si C y D son dos conjuntos convexos disjuntos, C \ D D ;, existe entonces un


a 0 y un b tales que aT x  b, para todo x 2 C , y aT x  b, para todo x 2 D.
Dicho de otra
manera, la funcin aT x  b es no positiva en C y no negativa en D. El
hiperplano x W a x D b es un hiperplano separador de los conjuntos C y D como se
T

ve en la gura 5.22.
Existen bastantes principios de dualidad (en especial en la teora y tcnicas de opti-
mizacin) que relacionan un problema en trminos de vectores en un espacio vectorial
con otro en trminos de subespacios en ese espacio. En varios de esos principios est
presente la relacin que se ilustra en la gura 5.23 que indica que la distancia ms corta
de un punto a un conjunto convexo es igual al mximo de las distancias desde el punto
a los hiperplanos que separan el conjunto convexo del punto. El problema original de
minimizacin sobre vectores se convierte en otro de maximizacin sobre hiperplanos.

Figura 5.23: Distancia ms corta de un punto a un conjunto convexo en trminos de hi-


perplanos separadores. Dattorro [2016]

Teorema 5.7 Sea C un conjunto convexo e y un punto frontera de C . Existe un hiper-


plano que contiene a y y a C en uno de sus semiespacios cerrados.

Demostracin. Sea fy .k/ g una sucesin de puntos exteriores a la adherencia de C . Sea


fa.k/ g la sucesin de puntos normalizados, ka.k/ k2 D 1, obtenida de aplicar el teorema
anterior a la sucesin anterior, tales que,
 T  T
a.k/ y .k/ < Knf a.k/ x:
x2C

Como fa.k/ g es una sucesin acotada, una subsucesin fa.k/ g, k 2 H, converger a un


lmite a. Para este a se tiene que, para cualquier x 2 C ,
 T  T
aT y D lKm a.k/ y .k/  lKm a.k/ x D aT x:
k2H k2H
5-Optimizacin y Programacin Matemtica j 87

Un hiperplano que contiene un conjunto convexo C en uno de sus semiespacios


cerrados y que contiene algn punto frontera de C se denomina hiperplano de apoyo o
hiperplano soporte de C .
De acuerdo con esta denicin, el teorema anterior dice que dado un conjunto con-
vexo C y un punto frontera y de C existe un hiperplano de apoyo de C que contiene
y. 
En la gura 5.24 x W aT x D aT x0 es el hiperplano de apoyo de C en el punto

x0
C

Figura 5.24: Hiperplano soporte de C en x0

x0 : el punto x0 y el conjunto C estn separados por el hiperplano fx W aT x D aT x0 g.


Geomtricamente quiere decir que el hiperplano fx W aT x D aT x0 g es tangente al
conjunto C en x0 y el semiespacio x W aT x  aT x0 contiene a C .
Si S es un politopo de dimensin 3 en R3 un cubo y H un plano que se traslada
en R3 hasta que apenas se apoya en el cubo, pero no corta el interior de ste, hay tres
posibilidades para H \ S dependiendo de la orientacin de H . Se ven en la gura 5.25.

H
H

S S S

H S es bidimensional H S es unidimensional H S es de dimensin 0

Figura 5.25: H \ S es una cara cuadrada bidimensional del cubo, una arista unidimensio-
nal del cubo o un vrtice de dimensin 0 del cubo

Lema 5.8 Lema de Farkas. El sistema de ecuaciones

.I / Ax D b; x  0;
88 j 5-Optimizacin y Programacin Matemtica

no tiene solucin si y slo si la tiene el sistema

.II / y T A  0T ; bT y > 0;

donde A 2 Rmn .
Se debe a Gyula Farkas, Hungra 1847-1930.

Demostracin. El lema se puede reformular de la siguiente manera. Si existe un x  0


tal que Ax D b, no existe ningn y tal que y T A  0T y bT y > 0. Recprocamente, si
no existe ningn x  0 tal que Ax D b, existe un y tal que y T A  0T y bT y > 0.
Supongamos que el sistema (I) tiene una solucin x tal que Ax D b y x  0. Sea
y un punto tal que y T A  0T . En este caso bT y D x T A T y  0 pues x  0 y
y T A  0T . Esto demuestra que bT y no puede ser positivo y, por lo tanto, el sistema
(II) no tiene solucin.
Supongamos ahora que el sistema (I) no tiene solucin. Esto quiere decir que b
S D fv D Ax W x  0g; es decir que b no pertenece al politopo cnico S. Observando
la gura 5.26, est claro que si b S , existe un hiperplano separador denido por un y,
que separa S y b, y para el cual y T ai  0, i D 1; : : : ; n y y T b > 0, es decir, y forma
un ngulo de ms de 90 grados con cada uno de los vectores columna de A y de menos
de 90 grados con b (el hiperplano separador del politopo cnico S de la gura debera
casi tocar a ste a lo largo de a5 . El hiperplano de apoyo correspondiente, s tocara a
a5 ). Esto verica que el sistema (II) tiene solucin.
El lema de Farkas es un resultado importante para el estudio de sistemas lineales de
inecuaciones. Su interpretacin geomtrica es la siguiente:
1. Si ai ; i D 1; : : : ; n, son los n vectores columna de P
la matriz A, que se cumpla
que b D Ax, x  0, quiere decir que el vector b D niD1 ai xi , xi  0; en otras
palabras, que b pertenece al politopo cnico generado por los vectores columna
de A. En la gura 5.27, a la izquierda, se muestra un ejemplo donde el sistema (I)
no tiene solucin: el vector b no pertenece al cono generado por a1 , a2 , a3 y an .
La interseccin del cono fy W y T A  0T g (conjunto formado por los vectores y
que forman un ngulo mayor o igual de 90 con los vectores columna de la matriz
A) y el semiespacio abierto fy W bT y > 0g, no es el conjunto vaco: el sistema
(II) tiene solucin, pues b y cualquier y en el cono que dene la zona sombreada
forma un ngulo menor de 90 y, por lo tanto, bT y > 0.
2. El sistema (II) no tiene solucin si la interseccin del cono fy W y T A  0T g y
el semiespacio abierto fy W bT y > 0g es el conjunto vaco. En la gura 5.27 a la
5-Optimizacin y Programacin Matemtica j 89

Politopo c
onico S

a2 a3
a4

a1
a5

Hiperplano

b
/S

y
Figura 5.26: Demostracin del lema de Farkas

Semiespacio abierto {y : bT y > 0}

a2
a2
an
a1 a3 an

a1 b
b

Semiespacio abierto {y : bT y > 0}

Cono {y : y T A 0T }
Cono {y : y T A 0 T }

Figura 5.27: Izquierda: El sistema (I) del lema de Farkas no tiene solucin; si (II). Dere-
cha: El sistema (II) no tiene solucin; la tiene (I)
90 j 5-Optimizacin y Programacin Matemtica

derecha se muestra un ejemplo donde el sistema (II) no tiene solucin. Todo vector
y en la zona que dene el cono indicado forma un ngulo mayor de 90 con b. La
tiene sin embargo (I) pues b pertenece al cono generado por a1 , a2 y an .

5.3 Caracterizacin de las soluciones del problema de op-


timizacin y condiciones que cumple un punto ptimo
Volvamos al problema general de Optimizacin

minimizar
n
f .x/
x2R
sujeta a ci .x/ D 0; i 2 E;
cj .x/  0; j 2 I;

donde las funcin objetivo f y las condiciones ci y cj son, en general, no lineales, conti-
nuas y tienen derivadas parciales continuas hasta al menos primer orden. Los conjuntos
E y I contienen los ndices de las condiciones que son de igualdad y de desigualdad, res-
pectivamente. El conjunto de puntos que satisfacen todas las condiciones se denomina
regin factible.
Un punto x que satisfaga todas las condiciones se dice regular si los vectores gra-
diente del conjunto de condiciones activas en ese punto son linealmente independientes.
Teorema 5.9 Condiciones de ptimo de primer orden de Karush-Kuhn-Tucker. Supn-
gase que x  es un punto regular y mnimo local del problema general de programacin
matemtica anterior. Existe un vector de multiplicadores de Lagrange,  , con coe-
cientes i , i 2 E [ I, tal que se cumple que
rx L.x  ;  / D rf .x  /  T c.x  / D 0;
ci .x  / D 0; para todo i 2 E;
ci .x  /  0; para todo i 2 I;
i  0; para todo i 2 I;

i ci .x  / D 0; para todo i 2 E [ I:
Estas condiciones fueron formuladas por Harold William Kuhn, EE.UU., 1925-2014,
y Albert William Tucker, Canad, 1905-1995, en 1951, con el n de extender la teora
de Lagrange a la caracterizacin de los puntos ptimos de problemas de programacin
lineal y no lineal sometidos a restricciones. Posteriormente se descubri que en 1939
William Karush, EE.UU., 1917-1997, ya haba trabajado sobre estas condiciones, por lo
que desde ese momento se les pas a denominar condiciones de Karush-Kuhn-Tucker.
5-Optimizacin y Programacin Matemtica j 91

Un caso particular del problema de programacin matemtica enunciado es el de


Programacin Lineal:
min. c T x
s. a Ax D b
x  0:
As expresado se denomina en forma estndar. La regin factible, o conjunto de solu-
ciones del programa lineal, P D fx 2 Rn W Ax D b; x  0g, es un politopo convexo.

Teorema 5.10 Equivalencia entre puntos extremos y soluciones bsicas. Sean A 2


Rmn una matriz de rango m, b 2 Rm y el politopo convexo

P D fx 2 Rn W Ax D b; x  0g :

Un x 2 P es un punto extremo de P si y slo si los vectores columna de A asociados


a los coecientes positivos de x son linealmente independientes.

Demostracin. x D xN T ; 0T T , xN > 0, y designamos por A N las p primeras columnas


de la matriz A, se tiene que Ax D A N xN D b.
Probemos primero la necesidad de la condicin enunciada. Supongamos que las co-
lumnas de A N no son linealmente independientes. En este caso existir un vector w N 0
tal que ANwN D 0. De aqu que A. N xN "w/N D A N xN D b y, para un " sucientemente
N wN
pequeo, que .xN "w/N  0. Los puntos y 0 D xC" N
0
wN
y y 00 D x" 0 estn, por con-
siguiente, en P . Adems, dado que x D .y 0 C y 00 /=2, x no puede ser un punto extremo
de P . Como consecuencia de esto, si x es un punto extremo, las columnas de la matriz
AN son linealmente dependientes.
Probemos ahora la suciencia. Supongamos que x no es un punto extremo de P .
Esto quiere decir que x D y 0 C .1  /y 00 , donde y 0 ; y 00 2 P; y 0 y 00 y 0 <  < 1.
Como x e y 0 estn en P , A.x  y 0 / D Ax  Ay 0 D b  b D 0. Adems, dado
que  y 1   son estrictamente positivos, los ltimos n  p coecientes de y 0 y, por
consiguiente, de x  y 0 , han de ser cero pues lo son los de x. Las columnas de la matriz
N en consecuencia, son linealmente dependientes. De aqu que, si las columnas de A
A, N
son linealmente independientes, x es un punto extremo.

Denicin 5.15 Una direccin del politopo P D fx 2 Rn W Ax D b; x  0g es un


vector no nulo, d 2 Rn , tal que para todo x0 2 P el rayo fx 2 Rn W x D x0 Cd;  
0g pertenece a P .
Una direccin d de un politopo P se dice extrema si no puede ponerse como com-
binacin lineal no negativa de dos direcciones diferentes de P . Es decir, no existen dos
direcciones d1 y d2 en P , d1 d2 , y unos 1 ; 2 > 0, tales que d D 1 d1 C 2 d2 .
Cualquier direccin de un politopo se puede expresar como combinacin lineal no
negativa de las direcciones extremas del politopo. Si P es un poliedro, obviamente, no
tiene direcciones.
92 j 5-Optimizacin y Programacin Matemtica

Teorema 5.11 Teorema de la representacin. Todo punto del politopo P D fx 2 Rn W


Ax D b; x  0g se puede expresar de la forma
X
xD i vi C d;
i2I
P
donde fvi W i 2 I g es el conjunto de puntos extremos o vrtices de P , i 2I i D 1,
i  0, y d, o es una direccin de P , o d D 0.

Demostracin. La haremos por induccin en p, nmero de coecientes positivos de x.


Si p D 0, el teorema es obvio, pues x D 0 es un punto extremo. Supongamos que se
cumple lo enunciado para puntos con menos de p coecientes positivos y que x tiene p
coecientes positivos.
Si x es un punto extremo, como x D vi para algn i 2 I , el teorema es obvio.
Supongamos por tanto que x no es un punto extremo. En este caso existe un vector
w 0, con wi D 0 si xi D 0, tal que Aw D 0. Se pueden dar los tres casos siguientes:
(a) Que w tenga coecientes positivos y negativos. Consideremos los puntos x.
/ D
x C
w en la recta que pasa por x que determina w, y sean
0 y
00 el menor valor
positivo y mayor valor negativo, respectivamente, de
para los que x.
/ tiene
al menos un coeciente cero ms que los que tiene x. Los puntos x 0 D x.
0 / y
x 00 D x.
00 / pertenecen claramente a P por lo que, por la hiptesis de induccin,
al tener un coeciente nulo ms, se pueden expresar segn lo enunciado en el
teorema. En consecuencia, como x est en la recta que une x 0 y x 00 , se puede
expresar de la siguiente manera

x D x 0 C .1  /x 00 donde  D 
00 =.
0 
00 /
! !
X X
D 0i vi C d 0 C .1  / 00
i v i C d 00

i2I i2I
X 00

D 0i C .1  /i vi C d 0 C .1  /d 00 :
i2I
P P
Como 0 <  < 1, 0i  0 y 00i  0 para todo i 2 I , i 2I 0i D i2I 00i D 1 y
Ad 0 D Ad 00 D 0, d 0  0 y d 00  0. Se deduce entonces que
00
X
i D 0i C .1  /i  0 para todo i 2 I; i D 1;
i 2I
d D d 0 C .1  /d 00  0 y Ad D 0;

quedando probado que x se puede expresar de la forma enunciada.


(b) Que w  0. Denamos x 0 como en el caso (a). El punto x se puede expresar como
x D x 0 C
0 .w/, con
0 > 0. Como x 0 se puede expresar por induccin en la
forma deseada y .w/ es una direccin en P , x tambin se puede expresar de la
forma enunciada.
5-Optimizacin y Programacin Matemtica j 93

(c) Que w  0. Este caso se prueba igual que el caso (b) sin ms que sustituir x 0 ,
0 y
w por x 00 , 
00 y w, respectivamente.

Corolario 5.12 Si el politopo P D fx 2 Rn W Ax D b; x  0g es no vaco, tiene al


menos un punto extremo o vrtice.

Corolario 5.13 Si el politopo P D fx 2 Rn W Ax D b; x  0g es cerrado y acotado


(es un poliedro), todo punto x 2 P se puede expresar como combinacin convexa de
sus puntos extremos.

x4

x3

x5
x2
y
x1

Figura 5.28: Representacin de un punto de un politopo (poliedro) como combinacin


convexa de puntos extremos

Teorema 5.14 Teorema fundamental de la Programacin Lineal. Dado un politopo no


vaco P D fx 2 Rn W Ax D b; x  0g de soluciones de un PL, el valor mnimo de
la funcin objetivo c T x, para x 2 P , se alcanza en un punto extremo de P (solucin
bsica factible ptima), o c T x no est acotada inferiormente en P .

Demostracin. Sea V D fvi W i 2 I g el conjunto de puntos extremos de P . Como P


es no vaco, al menos tiene un punto extremo vi 2 V . De acuerdo con el teorema de la
representacin, o el politopo P posee una direccin d tal que c T d < 0, o tal direccin
no existe. Consideremos estos dos casos.
(a) El politopo P tiene una direccin d tal que c T d < 0. En este caso P no est
acotado y el valor de la funcin objetivo tiende a 1 en la direccin d.
(b) El politopo P no tiene una direccin d tal que c T d < 0. En este caso cualquier
x 2 P se puede expresar de una de las dos maneras siguientes:
X X
xD i v i donde i D 1; i  0 o
i2I i 2I
X X
xD i vi C dN donde i D 1; i  0 y c T dN  0:
i2I i 2I
94 j 5-Optimizacin y Programacin Matemtica

En ambos casos, suponiendo que c T vmi n es el menor de los elementos del con-
junto fc T vi W i 2 I g, se tiene que
!
X
X
T T T
c x i c vi  c vmi n i D c T vmi n :
i2I i 2I

Es decir, el mnimo de c T x se alcanza en un punto extremo de P : vmi n .

5.4 Dualidad en optimizacin


Las variables duales y los conjuntos de elementos duales tienen interpretaciones y sig-
nicaciones muy relevantes en optimizacin. Se dan en muchos problemas matemticos
y modelos de realidades fsicas, donde se toman decisiones u optimizan recursos. Por
ejemplo:
La tensiones (variables primales) y las intensidades (duales) en circuitos elctricos
donde se optimizan los ujos de energa y los costes para satisfacer la demanda.
La descripcin de seales en el dominio del tiempo (problema primal) y en el de
frecuencia (dual).
Los niveles de produccin de productos (variables primales) y los precios (duales)
a los que los pagan los consumidores o clientes.
La tensiones (variables primales) y los desplazamientos (duales) en el anlisis o
diseo de estructuras mecnicas.
Los conjuntos, o unin de elementos, convexos (variables primales) y la intersec-
cin de semiespacios (duales) que los delimitan, como se ve en la gura 5.29.

Figura 5.29: Unin de puntos e interseccin de semiespacios que lo delimita

Los problemas duales, en general, posibilitan acotar los valores alcanzables por los
primales. Permiten poder saber cundo una aproximacin a la solucin de un problema
es sucientemente buena.
La solucin ptima de un problema dual de otro primal, en optimizacin, certica
que se ha alcanzado o se pude alcanzar la del primal.
5-Optimizacin y Programacin Matemtica j 95

Por estas consideraciones y porque los problemas duales en optimizacin a menudo


tienen una estructura ms agradable o manejable que los primales es por lo que pasa-
mos a exponer a grandes rasgos sus principales caractersticas y cmo deben ser
estudiados.
La Dualidad juega un papel destacado en la optimizacin de problemas de programa-
cin lineal y de programacin no lineal. Sirve para caracterizar y vericar la condicin
de un ptimo de un proceso iterativo, y las condiciones en que se da, para analizar la
sensibilidad de una solucin a la variacin de los parmetros del problema, para estudiar
la velocidad de convergencia de determinados algoritmos de optimizacin que usan su
formulacin y para contemplar diversos aspectos geomtricos que permiten interpretar
mejor lo que se est haciendo en la bsqueda de una solucin.
Las ideas y formulacin que exponemos a continuacin siguen muy de cerca lo que
se presenta en los libros de Boyd y Vandenberghe [2004], Luenberger [1969] y Luenber-
ger y Ye [2016]. Se basa en una forma elegante y global de contemplar la dualidad en
trminos de conjuntos e hiperplanos que tocan esos conjuntos.
Los mtodos numricos basados en la dualidad siguen el enfoque o punto de vis-
ta de que las incgnitas fundamentales asociadas a un problema de optimizacin con
condiciones son los Multiplicadores de Lagrange por Joseph-Louis Lagrange, Turin,
1736-Pars, 1813.

Una vez se conocen estos multiplicadores la determinacin del punto de solucin es


simple (al menos en algunas situaciones). Los mtodos duales, por lo tanto, no acometen
el problema original con condiciones problema primal, sino que atacan un problema
alternativo, el problema dual, cuyas incgnitas son los multiplicadores de Lagrange del
problema primal. Para un problema con n variables y m restricciones o condiciones de
igualdad, los mtodos duales trabajan en el espacio m-dimensional de los multiplicadores
de Lagrange. Debido a que estos multiplicadores miden sensibilidades del problema,
a menudo tienen interpretaciones intuitivas signicativas, como precios asociados con
recursos escasos, por lo que su bsqueda es a menudo la materializacin de un problema
prctico de la vida cotidiana, y tan atractivo o ms como el de buscar los valores del
ptimo del problema original o problema primal.
Los multiplicadores de Lagrange denen hiperplanos que pueden ser considerados
los duales de puntos en un espacio vectorial. Esta forma terica de interpretar la dualidad
proporciona una simetra entre los problemas primal y dual, la cual pude considerarse
perfecta si los problemas son convexos. Si no lo son, la imperfeccin la plasma el de-
nominado gap de dualidad, o brecha dual, que tiene una interpretacin geomtrica muy
sencilla en este contexto y mucha importancia en los algoritmos actuales de programa-
cin lineal y no lineal.
96 j 5-Optimizacin y Programacin Matemtica

Los multiplicadores de Lagrange del problema primal, que miden las sensibilidades
del problema original a variaciones en los coecientes que determinan las condiciones
de este problema, determinan una especie de penalizaciones que se introducen en su
funcin objetivo por no utilizar adecuadamente los recursos que jan esas condiciones.
La funcin de Lagrange incorpora as toda la informacin disponible del problema.
La teora que se expone en este apartado es la base general sobre la que construir
dualidades de tipo local de los diversos problemas lineales y no lineales, incluso sin la
existencia de convexidad. Sirve tambin para comprender mejor los algoritmos de punto
interior especializados en problemas de Programacin Lineal, el dual del Smplex y otros
anes.
De momento vamos a referirnos a problemas de programacin matemtica como

minimizar
n
f .x/
x2R
sujeta a g.x/  0 (2)
x 2 ;

donde  2 Rn es un conjunto convexo y las funciones, la escalar f W Rn ! R y la


vectorial g W Rp ! Rn , estn denidas en . Este problema no es necesariamente
convexo pero se asume que tiene al menos un punto factible. Esta notacin es perfecta-
mente compatible con otras que se utilizan sin ms que adoptar la convencin de signos
adecuada.
La funcin primal asociada al problema (2) se dene, para un z 2 Rp , como

!.z/ D Knf ff .x/ W g.x/  z; x 2 g: (3)

Se llega a ella dejando que el trmino de la derecha de la inecuacin que denen las con-
diciones pueda tomar valores arbitrarios. Se entiende que (3) est denida en el conjunto
D D fz W g.x/  z; para algunos x 2 g.
Si el problema (2) tiene una solucin x  con un valor de la funcin objetivo igual a
f D f .x  /, entonces f  es el punto de eje vertical de RpC1 donde la funcin primal


se cruza con ese eje. Si (2) no tiene solucin ese punto de cruce es f  D Knf ff .x/ W
g.x/  0; x 2 g.
El principio de dualidad se deduce de la consideracin de todos los hiperplanos que
quedan por debajo de la funcin primal. Como ilustra la gura 5.30, todos los hiperplanos
que se indican se cruzan con el eje vertical por debajo de f  , o en f  .
Para expresar esta propiedad se dene la funcin dual en el cono positivo de Rp ,
p
RC , como

./ D Knf f .x/ C Tg.x/ W x 2  :
En general,  puede que no sea nita dentro del ortante el equivalente en n dimen-
siones a un cuadrante en el plano o un octante en tres dimensiones positivo, R pC , pero
la regin donde est denida y es nita es convexa.
Proposicin 5.15 La funcin dual es cncava en la regin donde es nita.
5-Optimizacin y Programacin Matemtica j 97

r
w(z)

f*

Hiperplano
debajo de w(z)

Figura 5.30: Hiperplano por debajo de !.z/.

Demostracin. Supngase que 1 y 2 estn en la regin nita y sea 0   1.


Entonces

.1 C .1  2 // D Knf ff .x/ C .1 C .1  /2 /T g.x/ W x 2 g


 Knf ff .x1 / C T1 g.1 / W x1 2 g
C Knf f.1  /f .x2 / C .1  /T2 g.x2 / W x2 2 g
D .1 / C .1  /.2 /;

lo que concluye la demostracin.


Se dene   D sup f./ W   0g, suponindose que el supremo se extiende a
toda la regin donde  es nita.
Proposicin 5.16 Forma dbil de dualidad.    f  .

Demostracin. Para todo   0 se tiene que

./ D Knf ff .x/ C T g.x/ W x 2 g


 Knf ff .x/ C T g.x/ W g.x/  0; x 2 g
 Knf ff .x/ W g.x/  0; x 2 g D f  :

Tomando supremos en el miembro de la izquierda, .x/, se llega a que    f  .


De acuerdo con este resultado la funcin dual proporciona cotas inferiores del va-
lor ptimo de f , lo cual es muy interesante desde el punto de vista de su aplicacin a
problemas prcticos.
La funcin dual tiene una interpretacin geomtrica muy interesante. Si se considera
el vector 1 T T 2 RpC1 , con   0 y la constante c, el conjunto de vectores r zT T 2
RpC1 tales que el producto interior 1 T r zT T  r C T z D c dene un hiperplano
en RpC1 . Para diferentes valores de c se tiene diferentes hiperplanos, todos paralelos
entre si.
98 j 5-Optimizacin y Programacin Matemtica

Para un vector dado 1 T T consideremos el hiperplano ms bajo posible de esa


forma que casi toca soporta la regin de encima de la funcin primal del problema
(2). Supongamos que x1 dene ese punto de contacto y que r D f .x1 / y z D g.x1 /. Se
tendr que c D f .x1 / C T g.x1 / D ./.
Ese hiperplano se cruzar con el eje vertical en un punto de la forma r0 0T . Este
punto tambin satisfar que 1 T T r0 0T D c D ./. Lo que lleva a que c D r0 .
Por lo que ese punto dar ser el valor ./ directamente. La funcin dual en  es igual
al punto donde se cruzan el hiperplano denido por  que justo toca el epigrafo el
conjunto de puntos situados en o por encima del grco de una funcin de la funcin
primal.
Adems, como indica la gura 5.31, ese punto de cruce (y el valor de la funcin
dual) se maximiza con el multiplicador de Lagrange que corresponde al hiperplano ms
alto posible que intercepta el eje vertical y casi toca a la funcin, siendo el punto de esa
intercepcin menor o igual que el valor ptimo f  . La diferencia constituye el gap de
dualidad.

w (z)

f gap de dualidad

hiperplano ms alto

Figura 5.31: Hiperplano ms alto

Si se incorporan suposiciones de convexidad el anlisis que estamos haciendo se


completa con el teorema de la dualidad fuerte cuando no hay gap de dualidad y la inter-
seccin de esos planos con el eje vertical es el propio f  . Se puede ver en la gura 5.32.

El teorema siguiente se reere al problema

minimizar
n
f .x/
x2R
sujeta a h.x/ D 0 (4)
g.x/  0
x 2 ;

donde h W Rm ! Rn es afn, g W Rp ! Rn es convexa y  es convexo. La funcin dual


de este problema es

.; / D Knf ff .x/ C Th.x/ C Tg.x/ W x 2 g;


5-Optimizacin y Programacin Matemtica j 99

y   D sup f.; / W  2 Rm ;  2 Rp ;   0g.


Teorema 5.17 Teorema de la dualidad fuerte. Supongamos que en el problema (4) h es
regular con respecto a  y que existe un punto x 2  en el que h.x/ D 0 y g.x/  0.
Supongamos que el problema tiene como solucin x  con un valor de la funcin obje-
tivo f .x  / D f  . Entonces, para todo ,   0 se cumple que

  f :

Adems, existen unos ,   0 tales que .; / D f  y por lo tanto   D f  . Los


vectores  y  son los multiplicadores de Lagrange del problema.
Un punto x que satisfaga todas las condiciones que se cumplen se dice regular si
los vectores gradiente del conjunto de condiciones activas en ese punto son linealmente
independientes. Una funcin h.x/ es regular con respecto a  si el conjunto C D fy W
h.x/ D y para algn x 2 g de Rn contiene una bola abierta en torno a 0; es decir, C
contiene un conjunto de la forma fy W jyj < "g para algn " > 0. Esto viene a decir que
h.x/ puede hacerse 0 y variar arbitrariamente en torno a 0 en cualquier direccin. Esta
condicin es similar a la denicin de punto regular en el contexto de las condiciones de
ptimo de primer orden.

5.4.1 Dualidad Lagrangiana


Es una forma de denominar lo que acabamos de exponer. La funcin de Lagrange del
problema (4) escrito
minimizar
n
f .x/
x2R
sujeta a h.x/ D 0 (5)
g.x/  0
x 2 ;

r
w (z)

f * =
hiperplano ptimo

Figura 5.32: Expresin grca del teorema de la dualidad fuerte . No hay gap de dualidad
100 j 5-Optimizacin y Programacin Matemtica

es L.x; ; / D f .x/ C Th.x/ C Tg.x/. Esta funcin penaliza que g.x/ sea positiva
y que h.x/ no sea cero. La funcin de Lagrange dual es
def
q.; / D Knf L.x; ; /:
x

Esta funcin es cncava por ser afn, aunque no lo sean ni h.x/ y g.x/. Puede ser 1
para algunos valores de  y . La funcin de Lagrange dual dene una cota inferior
del valor ptimo de la funcin objetivo de (5). Es decir q.; /  p  si   0. El
problema dual de 5 es este:
maximizar q.; /
sujeta a   0;
que es siempre convexo.

5.4.1.1 Interpretacin geomtrica


En este apartado seguimos lo que exponen Boyd y Vandenberghe [2004], J-P Vert y
R. Freund. Consideraremos una versin bastante simple del problema 5 con una sola
condicin:
minimizar f .x/
sujeta a g.x/  0
x 2 ;
donde f; g 2 Rn ! R. Y a este respecto el subconjunto de R2 denido as:

S D f.g.x/; f .x//jx 2 Rn g:

El valor ptimo del problema, f  , estar determinado por

f  D Knf ftj.t; u/ 2 S; u  0g;

como se puede ver en la gura 5.33, pues es el punto en t ms bajo en la parte de la regin
factible (jada por los valores a la izquierda del eje t en el conjunto S). El planteamiento
de este problema sera, por ejemplo, la abstraccin de uno de determinar el coste mnimo
global de una planta de fabricacin de productos diversos con varios tipos de recursos,
el balance global de los cuales a lo largo de un periodo de tiempo debe ser menor o igual
que cero. Es decir, que no se consuman ms de los disponibles.
La funcin de Lagrange de este problema es L.x; / D f .x/ C g.x/. La funcin
de Lagrange dual, o simplemente la funcin dual, es

q./ D Knf ft C ug:


.u;t /2S

Segn la gura 5.34, el punto donde corta al eje t en su punto ms bajo posible el hiper-
plano soporte del conjunto S que dene t C u D cte. en este caso una lnea recta
ser el valor de la funcin dual.
5-Optimizacin y Programacin Matemtica j 101

u
Figura 5.33: Sencillo esquema de un problema de optimizacin para interpretar geomtri-
camente la dualidad lagrangiana

S
u+t=cte

u+t=q() q()

u
Figura 5.34: Funcin dual del problema para interpretar geomtricamente la dualidad la-
grangiana

De todos esos hiperplanos soporte, con   0, el que obtiene el ptimo del proble-
ma dual,

d  D maximizar q./ D maximizar Knf ft C ug;


0 .u;t /2S

lo dar la interseccin con el eje t del que se esquematiza en la gura 5.35 que toca los
dos punto mas bajos de S que se ven. El gap de dualidad en este ejemplo es la diferencia
entre f  y d  : d   f  , dualidad dbil.
En el caso de dualidad fuerte, sin gap de dualidad, se daran formas como la de la
gura 5.36.
102 j 5-Optimizacin y Programacin Matemtica

t
(,1)
S


(,1)
f
d

u
Figura 5.35: ptimo de la funcin dual del problema para interpretar geomtricamente la
dualidad lagrangiana

t t

S S

f
d
f
d
u u

Figura 5.36: Dualidad fuerte: f  D d

5.4.2 Dualidad de Wolfe


Es ligeramente distinta de las anteriores. Se debe a Philip Starr Wolfe, EE.UU. 1927-.

Es la que sirve de referencia a los mtodos de punto interior. El problema dual es

max. L.x; ; /
s. a rx L.x; ; / D 0
  0:
5-Optimizacin y Programacin Matemtica j 103

Ejemplo 5.6 En el caso de un problema de Programacin Lineal en forma estndar

minimizar
n
cT x
x2R
sujeta a Ax D b
x  0;

la funcin de Lagrange es L.x; ; / D c T x  T .Ax  b/  T x, o



T
L.x; ; / D T b C c  A T    x:

Su problema dual
n
T o
max. q.; / D Knf fL.x; ; /g D T b C Knfx c  A T    x
(
T b si c  A T    D 0
D
1 si c  A T    0
s. a   0:

Si c  A T    0 el nmo es claramente 1, por lo que hay que excluir del


problema aquellos  para los que se den esos casos. De acuerdo con ello, el problema
dual queda
maximizar T b
s. a c  A T    D 0;   0:
El dual de Wolfe sera exactamente el mismo. El gap de dualidad es


c T x  T b D c T x  T Ax D x T c  A T  D x T :

5.5 Funciones conjugadas-funciones de Fenchel


Al introducir este apartado dedicado a la dualidad nos referamos a los pares primal-dual,
y concretamente a La Transformada de Fourier para analizar seales en el dominio de
tiempos y, o, de frecuencias. Una contrapartida en el caso de anlisis y optimizacin de
funciones convexas la constituye la Conjugada de Fenchel o Funcin Conjugada, y la
transformacin conjugada.
Denicin 5.16 Si consideramos la funcin f W Rn ! 1; 1, se dene la funcin
conjugada de f tambin conjugada de Fenchel o transformacin de Fenchel,
a la funcin f  W Rn ! 1; 1 dada por

f  .y/ D sup fx > y  f .x/g:


x2Rn

La funcin conjugada es de mucha utilidad en optimizacin para convexicar una


funcin y para el clculo del subdiferencial de una funcin convexa .
104 j 5-Optimizacin y Programacin Matemtica

La transformacin de Fenchel coincide con la transformacin de Legendre, por


Andrien-Marie Legendre, Francia, 1752-1833.

cuando se reeren a funciones convexas y diferenciables en todas direcciones (existen


todas sus derivadas parciales).
En la gura 5.37 se proporciona una interpretacin geomtrica de esta denicin.
La funcin (convexa en este caso) f .x/ y su epigrafo estn descritos por hiperplanos

(-y,1)

f(x)

Pendiente = y
0 x

inf { f (x ) xTy} = f ( y)

x n

Figura 5.37: Visualizacin de la conjugada de Fenchel

soporte. Uno de estos, la funcin conjugada, est asociado con un punto de cruce con el
eje vertical que es f  .y/ D Knfx2Rn ff .x/  x > yg:
Una interpretacin econmica de la funcin conjugada identica x > y  f .x/ con
el benecio de producir la cantidad x de bienes cuando los precios estn dados por el
vector y. El mximo de ese benecio asociado a y es la funcin conjugada f  .y/.
Cualquiera que sea la estructura de f , su funcin conjugada f  es convexa y cerrada
pues es el supremo, punto a punto, de la coleccin de funciones anes

x > y  f .x/; para todo x tal quef .x/ es nita.

Si la funcin f .x/ no es convexa, el correspondiente grco para interpretar la fun-


cin conjugada sera el de la gura 5.38.
5-Optimizacin y Programacin Matemtica j 105

f (x )
xy

(0,f (y ))

Figura 5.38: Conjugada de Fenchel de una funcin no convexa

Una consecuencia inmediata de la denicin de funcin conjugada es la desigualdad


de Fenchel-Young,
f .x/ C f  .y/  x > y;
por Fenchel y William Henry Young, Reino Unido 1863-1942.

Para que esta desigualdad se haga igualdad en necesario y suciente que

f .x/ C f  .y/ D x > y , y 2 f .x/ , x 2 f  .y/:

En la gura 5.39 se indican algunos ejemplos de funciones conjugadas habituales.


Son de Bertsekas [2009]. Se puede vericar en cada una de ellas que la conjugada de la
conjugada es la funcin original.
Ejemplo 5.7 La funcin cuadrtica f .x/ D 12 x > Qx, donde Q 0. La expresin
y > x  12 x > Qx es estrictamente cncava con respecto a y y tiene un punto mximo en
y D Q1 x por lo que
1
f  .y/ D y > Q1 y:
2
Ejemplo 5.8 La funcin f .x/ D  log.x/.
(


> 1  log.y/ y<0
f .y/ D sup x y C log.x/ D
x>0 1 en cualquier otro caso:
106 j 5-Optimizacin y Programacin Matemtica


f (x) = x if y =
f  ( y) =
if y =

Slope =

0 x 0 y


f (x ) = |x | 0 if |y| 1
f  (y) =
if |y| > 1

0 x 1 0 1 y

f (x) = (c/ 2)x 2 f  ( y ) = (1/2c)y 2

0 x 0 y

Figura 5.39: Ejemplo de funciones conjugadas de funciones habituales

Ejemplo 5.9 La funcin f .x/ D kxk, una norma en Rn , siendo su norma dual asociada
kxk D supkuk1 u> x, tiene por funcin conjugada
(
 0 kyk  1
f .y/ D
1 en cualquier otro caso:

Esto se denomina funcin indicador de la norma dual de la esfera unidad. La norma dual
de la norma eucldea es la propia norma eucldea.

5.6 Optimizacin SDP


O, realmente, Programacin Semidenida. Se reere a un problema de optimizacin
convexa que trata de maximizar o minimizar una funcin objetivo lineal de una incgnita,
que es una matriz simtrica a la que se impone la condicin de ser semidenida positiva.
El ptimo tambin debe satisfacer el encontrarse en la interseccin del cono que genera
5-Optimizacin y Programacin Matemtica j 107

la condicin de la matriz y un subespacio afn. El diagrama de la gura 5.40 muestra


dnde se ubica la Programacin Semidenida en un entorno de programas convexos.

PC
semidenite program

quadratic program second-order cone program

linear program

Figura 5.40: Jerarqua de los problemas o programas convexos y su tratamiento. Dattorro


[2016]

Uno de los elementos que lanzaron al estrellato este tipo de problemas fue el con-
tar con la potencia de los algoritmos de punto interior para tratar problemas de grandes
dimensiones. Hay una amplia variedad de problemas de optimizacin convexa no lineal
que se pueden presentar como problemas de este tipo que implican desigualdades de-
nominadas de matriz lineal (LMI) y resolverse hoy en da muy ecientemente usando
esos mtodos de punto interior.
La programacin semidenida es una importante herramienta numrica para el an-
lisis y resolucin de problemas en sistemas y teora de control. Tambin se usan cada
da ms en la optimizacin combinatoria como una tcnica valiosa para obtener lmites
en la solucin de problemas NP-duros (de toma de decisiones). Sus aplicaciones crecen
da a da en geometra computacional, diseo de experimentos, teora de informacin
y comunicacin, optimizacin de valores propios en diseo de estructuras, diagnstico
mdico y otros.

5.6.1 Deniciones y planteamiento del problema


Se designa el espacio vectorial de matrices reales de orden n simtricas por

S n WD fM 2 Rnn W M > D M g:

A la parte de este S n que forman la matrices simtricas semidenidas positivas como


n
SC WD fM 2 S n W M < 0g;

donde mediante M < 0 se designa una tal matriz y a


n
SCC WD fM 2 S n W M 0g

como la parte de S n que denen la matrices denidas positivas.


108 j 5-Optimizacin y Programacin Matemtica

El espacio S n est dotado de un producto escalar o producto interior


X
h; i W .M ; N / 2 S n  S n 7! hM ; N i D tr.M N / D Mij Nij ;
ij

donde tr.M N / denota la traza del producto matricial M N .


El producto interior de matrices generales se calcula de forma similar al de vec-
tores: Primero transformando o vectorizando la matriz Rpk , donde p es el nmero
de las de la matriz y k el nmero de columnas, en un vector de Rpk concatenando
para ello los vectores columna en un orden natural. Por ejemplo, la vectorizacin de
Y D y1 y2    yk  2 Rpk es
2 3
y1
6y2 7
6 7
vec Y , 6 : 7 2 Rpk :
4 :: 5
yk
De acuerdo con esto, el producto interior de dos matrices no necesariamente simtricas
Y y Z es
hY ; Z i , tr.Y > Z / D vec.Y /> vec Z :
Adems
tr.Y > Z / D tr.Z Y > / D tr.Y Z > / D tr.Z > Y / D 1> .Y Z /1;
donde el signo indica el producto de Hadamard, por Jacques Salomon Hadamard,
Francia 1865-1963.

De igual manera vec.Y Z / D vec.Y / vec.Z /.


2
Si las matrices son simtricas en S n la vectorizacin transforma la matriz en Rn .
Como antes, si Y D y1 y2    yn  2 Rnn la vectorizacin simtrica es
2 3
py11
6 2y12 7
6 7
6 y22 7
6p 7
6 2y13 7
6p 7
svec Y , 6 2y 7 2 Rn.nC1/=2 :
6 23 7
6 y33 7
6 7
6 :: 7
4 : 5
ynn
5-Optimizacin y Programacin Matemtica j 109

Para ignorar coecientes redundantes, y reducir el subespacio a Rn.nC1/=2 , en la trans-


formacin se han escalado los coecientes que no estn en la diagonal principal. En este
caso, si Y ; Z 2 S n ,

hY ; Z i , tr.Y > Z / D vec.Y /> vec Z D 1> .Y Z /1 D svec.Y /> svec Z :

Volviendo a los conos apuntados ms arriba, SC


n
y SCC
n
, tienen las siguientes propie-
dades:
1. M < 0 8N < 0, se tiene que hM ; N i > 0:
2. M 0 8N < 0 no nula, se tiene que hM ; N i > 0
3. Si M y N 2 SC
n
, se tiene que hM ; N i D 0 M N D 0:
Con la notacin y deniciones expuestas, el problema SDP se plantea as.

minimizar hC ; X i
X 2S n
sujeta a hA; X i D b
X < 0;

donde C 2 S n , A W S n ! Rm es una aplicacin lineal y b 2 Rm . Es el problema primal


de SDP. Se trata de minimizar en l un criterio lineal en la interseccin del cono de
matrices semidenidas positivas y un subespacio afn como esquematiza la gura 5.41.
La funcin objetivo es lineal as como las condiciones. El requisito de pertenencia al
cono SCn
es no lineal y en algn caso no derivable.

+0 P
3
S+

A = H

Figura 5.41: Visualizacin de un cono semidenido positivo en 3D. Dattorro [2016]

La aplicacin lineal se puede representar mediante m matrices, Ai 2 S n teorema


110 j 5-Optimizacin y Programacin Matemtica

de Riesz-Frchet, por Frigyes Riesz, Hungra 1880-1956,

y Maurice Frchet, as
2 3
hA1 ; X i
6 :: 7
hA; X i D 4 : 5:
hAm ; X i
Si el espacio Rm est dotado de un producto escalar, o producto interior, tambin
expresado mediante h; i, y se introduce el operador A  W Rm ! S n , adjunto a A y
denido as
8X 2 S n ; 8y 2 Rm W hA.X /; yi D hX ; A  .y/i
el problema dual de SDP se plantea as

maximizar hb; yi
.y;S /2Rm S n
sujeta a hA  ; yi C S D C
S < 0;

Ejemplo 5.10 De Freund [2009]. Estudiemos un ejemplo de SDP con n D 3, m D 2 y


las matrices
2 3 2 3 2 3
101 028 123
A1 D 40 3 75 ; A2 D 42 6 05 y C D 42 9 05 :
175 804 307

El vector b D 11 19> .
La variable del problema es la matriz simtrica 3  3
2 3
x11 x12 x13
X D 4x21 x22 x23 5 :
x31 x32 x33

Calculemos el producto
2 3
x11 2x12 3x13
C X D 42x21 9x22 0x23 5
3x31 0x32 7x33
5-Optimizacin y Programacin Matemtica j 111

La funcin objetivo sale de

1> C C 1 D x11 C 2x21 C 3x31 C 2x12 C 9x22 C 0x32 C 3x13 C 0x23 C 7x33
D x11 C 4x12 C 6x13 C 9x22 C 0x23 C 7x33 :

Se ha tenido en cuenta ya la simetra de la matriz X .


El problema de optimizacin SDP es pues

minimizar x11 C 4x12 C 6x13 C 9x22 C 0x23 C 7x33

sujeta a x11 C 0x12 C 2x13 C 3x22 C 14x23 C 5x33 D 11


0x11 C 4x12 C 16x13 C 6x22 C 0x23 C 4x33 D 19
2 3
x11 x12 x13
X D 4x21 x22 x23 5 < 0:
x31 x32 x33

Su dual,
maximizar 11y1 C 19y2

2 3 2 3 2 3
101 028 123
sujeta a y1 40 3 75 C y2 42 6 05 C S D 42 9 05
175 804 307
S < 0:
Formulacin que puede tener sus ventajas en muchos casos frente a la del primal.

5.7 Optimizacin vectorial y multicriterio o multiobjetivo


Los avances actuales de la tcnicas de optimizacin e inteligencia articial permiten
extender la toma de decisiones a diversos criterios u objetivos en los que, en trminos
matemticos, la funcin a optimizar es vectorial. En lo que presentamos a continuacin
seguimos a Boyd y Vandenberghe [2004].
Un problema de optimizacin vectorial tiene la forma

minimizar (con respecto a K) f0 .x/


sujeta a fi .x/  0; i D 1; : : : ; m (6)
hi .x/ D 0; i D 1; : : : ; p:

Aqu x 2 Rn es el vector a optimizar, K Rq es un cono no vaco convexo, f0 W Rn !


Rq , fi W Rn ! R son la condiciones de desigualdad y hi W Rn ! R las condiciones
de igualdad. El cono K tiene por objeto comparar los diversos valores de las funciones
objetivo.
112 j 5-Optimizacin y Programacin Matemtica

Esta forma de expresar el problema se suele denominar as en contraposicin al pro-


blema de optimizacin escalar que denamos en 1.
Se dice que el problema de optimizacin vectorial 6 es convexo si la funcin objetivo
f0 es convexa en K, las condiciones de desigualdad son convexas y las de igualdad
anes (usualmente expresadas mediante Ax D b, donde A 2 Rpn ).
De acuerdo con lo visto hasta ahora, qu interpretacin tiene el problema de optimi-
zacin vectorial. Supongamos que x y y son dos puntos del problema factibles y que por
lo tanto cumplen las condiciones. Sus valores asociados de la funcin objetivo son f0 .x/
y f0 .y/, respectivamente, y se compararn mediante la desigualdad generalizada K ,
de tal manera que f0 .x/ K f0 .y/ si x es mejor o igual que y de acuerdo con todos y
cada uno de los valores de la funcin objetivo. El aspecto clave que introduce una cierta
confusin en este anlisis es que los valores f0 .x/ y f0 .y/ puede que no necesiten ser
comparados.
Consideremos el conjunto de valores factibles del problema

O D ff0 .x/j9x 2 D; fi .x/  0; i D 1; : : : ; m; hi .x/ D 0; i D 1; : : : pg Rq ;

denominado de valores objetivo alcanzables. Si este conjunto tiene un elemento mnimo,


ello quiere decir que existe un x  factible tal que f0 .x  / K f0 .y/ para todo y factible
por lo que x  es el ptimo de 6 con un valor de la funcin objetivo ptimo nico igual a
f0 .x  /. Es ptimo si y slo si O f0 .x  / C K.

f0 (x )

Figura 5.42: Conjunto O de valores objetivo alcanzables y ptimo, x  , de un problema


de optimizacin vectorial con valores en R2

El conjunto O f0 .x  /CK se puede interpretar como el de valores que son peores,


o iguales, a f0 .x  /. La mayora de los problemas de optimizacin vectorial no tienen un
punto ptimo ni valor ptimo.

5.7.1 ptimo y ptimos de Pareto


En el caso de que el conjunto de puntos factibles del problema no tenga un valor mnimo
y por lo tanto el problema no tenga un punto ptimo ni valor ptimo, los elementos m-
nimos en el sentido de Pareto por Vilfredo Federico Pareto, Paris 1848-Cligy 1923
5-Optimizacin y Programacin Matemtica j 113

del conjunto O adquieren una importancia fundamental. Un punto factible x es ptimo


de Pareto, por Vilfredo Federico Pareto Italia, 1848-1923,

si f0 .x/ es un mnimo de O. En este caso decimos que f0 .x/ en un valor ptimo de


Pareto1 del problema 6. Esto quiere decir que x es un ptimo de Pareto si es factible y
para cualquier otro y factible, el que f0 .y/ K f0 .x/ implica que f0 .y/ D f0 .x/. En
otras palabras, cualquier punto factible y que es mejor que x, es decir f0 .y/ K f0 .x/,
tiene el mismo valor de la funcin objetivo que x. Esto se ilustra en la gura 5.43. El
conjunto de puntos ptimos de Pareto del problema de optimizacin vectorial como se
ve en la gura est en la frontera (frontera de Pareto) o borde de O.

f 0 (x oQ )

Figura 5.43: Conjunto O de valores objetivo alcanzables de un problema de optimizacin


vectorial con valores en R2 y ptimos de Pareto (en el borde o frontera de ese conjunto).
El punto f0 .x op / es ptimo de Pareto con ese valor de la funcin objetivo del problema.
La zona sombreada mas tenue es f0 .x op /  K, el conjunto de puntos de R2 que tienen
un valor de la funcin objetivo mejor o igual que f0 .x op /

La frontera de Pareto puede ser lineal, cncava, convexa, continua o discontinua de-
pendiendo de las funciones objetivo integrantes del problema. Todas las soluciones per-
tenecientes a la frontera son igualmente buenas y no se puede especicar si alguna de
las soluciones es preferible a las otras, excepto en aquellos casos en que se haya denido
una preferencia a priori.

1 En anlisis econmico se denomina ptimo de Pareto a aquel punto de equilibrio en el que ninguno de los

agentes afectados podr mejorar su situacin sin reducir el bienestar de cualquiera de los otros agentes.
114 j 5-Optimizacin y Programacin Matemtica

5.7.2 Escalarizacin
La escalarizacin es una tcnica para encontrar puntos ptimos de Pareto en un problema
de optimizacin vectorial. Se basa en la caracterizacin de puntos mnimos y minimales
va desigualdades generalizadas duales tal como se introdujeron antes en este apndice.
Si se escoge un  k  0 que es positivo en las desigualdades duales generalizadas,
consideremos el problema escalar

minimizar > f0 .x/


sujeta a fi .x/  0; i D 1; : : : ; m (7)
hi .x/ D 0; i D 1; : : : ; p;

y en l sea x un punto ptimo. Este punto es ptimo de Pareto del problema 6 de opti-
mizacin vectorial. Esto se deduce de la caracterizacin mediante desigualdades duales
de los puntos minimales de las desigualdades de la pgina 84, as como de un observa-
cin directa. Si no lo fuera, existira un y factible, que satisfara f0 .y/ K f0 .x/ y
que adems f0 .x/ f0 .y/. Como f0 .x/  f0 .y/ K 0 y no es cero, se tiene que
> .f0 .x/  f0 .y// > 0, es decir, > f0 .x/ > > f0 .y/. Lo que contradice el supues-
to de que x es ptimo del problema escalar 7. El mtodo de la escalarizacin se puede

f 0 (x 1)

f 0 (x 3 )
1
f 0 (x 2 ) 2

Figura 5.44: Escalarizacin. El conjunto O de valores alcanzables para un problema de


optimizacin vectorial en el cono K D R2C y los valores ptimos de Pareto f0 .x1 /,
f0 .x2 / y f0 .x3 /. Los primeros dos puntos se pueden obtener mediante escalarizacin:
f0 .x1 / minimiza > >
1 u para todo u 2 O y f0 .x2 / minimiza 2 u para todo u 2 O, donde
1 ; 2 0. El valor f0 .x3 / es ptimo de Pareto pero no se puede obtener mediante
escalarizacin

interpretar geomtricamente con la ayuda de la gura 5.44. Un punto x es ptimo del


problema escalar 7, es decir minimiza > f0 .x/ en el conjunto de puntos factibles, si y
slo si > .f0 .y/  f0 .x//  0 para todos los y factibles. Esto es lo mismo que decir
que el conjunto fu j  > .u  f0 .x// D 0g es un hiperplano soporte o de apoyo del
conjunto de soluciones alcanzables O en el punto f0 .x/. En particular,

fu j > .u  f0 .x// < 0g \ O D ;:


5-Optimizacin y Programacin Matemtica j 115

En consecuencia, cuando se encuentre un punto ptimo del problema escalar no slo se


encuentra un punto ptimo de Pareto del problema vectorial original sino un semiespacio
en Rq como el de esta ltima expresin, de valores de la funcin objetivo que no se
pueden alcanzar.
Si el problema vectorial 6 es convexo el problema escalar es tambin convexo por lo
que se pueden obtener todos (casi) los ptimos de Pareto resolviendo el problema escalar
convexo. Para cada eleccin del vector de pesos  K  0 se obtiene un punto ptimo de
Pareto (normalmente) diferente.

5.7.3 Optimizacin multicriterio


Cuando un problema de optimizacin vectorial tiene que ver con el cono K D RqC
se denomina multicriterio o multiobjetivo. Los componentes de la funcin vectorial f0
son funciones F1 , F2 ; : : : ; Fq W Rn ! R que se pueden interpretar como q diferentes
requisitos escalares que hay que optimizar o mejorar. El problema ser convexo si lo son
cada una de esas funciones u objetivos a cumplir.
Lo expuesto antes sirve para este caso pues el conjunto de funciones objetivo es una
funcin vectorial en si misma. No obstante, para los problemas de multicriterio podemos
extendernos un poco en su interpretacin. Si x es factible, podemos pensar en cada
Fi .x/ en trminos del valor que toma el objetivo i simo. Si x e y son ambos factibles,
el que Fi .x/  Fi .y/ signica que x es al menos tan buena como y, de acuerdo con
el objetivo isimo; Fi .x/ < Fi .y/ signica que x es mejor que y, o que x supera a
y, de acuerdo con el objetivo i simo. Si x e y son ambos factibles, decimos que x es
mejor que y, o que x domina a y, si Fi .x/  Fi .y/, para i D 1; : : : ; q, y, para al menos
un j , Fj .x/ < Fj .y/. En trminos aproximados, x es mejor que y si x supera a y en
todos los objetivos y lo domina en al menos un objetivo.
En un problema de optimizacin multicriterio un punto ptimo x  cumple que

Fi .x  /  Fi .y/; i D 1; : : : ; q;

para cada y. Es decir, x  es simultneamente ptimo para cada problema escalar

minimizar Fj .x/
sujeta a fi .x/  0; i D 1; : : : ; m
hi .x/ D 0; i D 1; : : : ; p;

con j D 1; : : : ; q. Cuando existe un punto ptimo, decimos que los objetivos son no
competidores, ya que no hay que establecer compromisos o hacer concesiones entre los
objetivos: cada objetivo es tan pequeo como es posible hacerlo, incluso si se ignorasen
los dems.
Un punto ptimo de Pareto x op cumple lo siguiente: si y es factible y Fi .y/ 
Fi .x po /, para i D 1; : : : ; q, entonces Fi .x po / D Fi .y/, i D 1; : : : ; q. Lo que se puede
expresar de esta manera: un punto en ptimo de Pareto si y slo si es factible y no hay
un punto factible mejor. En particular, si un punto factible no es ptimo de Pareto, al
116 j 5-Optimizacin y Programacin Matemtica

menos existe otro punto factible que es mejor. Todo esto conduce a que para determinar
el ptimo del problema nos podemos limitar a analizar los puntos que son ptimo de
Pareto.
Supongamos pues que x y y son ptimos de Pareto y que
Fi .x/ < Fi .y/; i 2A
Fi .x/ D Fi .y/; i 2B
Fi .x/ > Fi .y/; i 2 C;
donde A [ B [ C D f1; : : : ; qg. Dicho de otra forma, A es el conjunto de ndices de las
funciones objetivo para las cuales x domina a y, B el de aquellas en las que x iguala
a y y C el de las que y bate a x. Si A y C estn vacos, los dos puntos x e y tiene
exactamente los mismos valores de la funcin objetivo. Si no es el caso, A y C deben
ser simultneamente no vacos. Es decir, al comparar dos puntos ptimos de Pareto, u
obtienen las mismas prestaciones en trminos de funcin objetivo, o uno mejora al otro
en al menos uno de los objetivos.
Al comparar los puntos x e y decimos que hemos intercambiado mejores valores
de funciones objetivos de i 2 A por los peores de i 2 C . El anlisis del intercambio
ptimo es el estudio de cunto peor pueden resultar diversas funciones objetivo haciendo
otras mejor, o ms en general, el estudio de qu conjuntos de funciones objetivo son
alcanzables y cules no.
Como ejemplo, consideremos un problema con dos funciones objetivo (dos criterios
de optimizacin). Supongamos que x es un punto ptimo de Pareto con valores de las
funciones objetivo F1 .x/ y F2 .x/. La pregunta que se podra uno hacer es cunto ms
grande debera ser F2 .z/ para determinar un punto factible z tal que F1 .z/  F1 .x/  a,
donde a > 0 es cualquier constante. Grosso modo, nos preguntamos cunto debemos
pagar a la segunda funcin objetivo para obtener una mejora de a en la primera. Si se de-
be admitir un incremento importante en F2 para obtener un pequeo decremento en F1 ,
decimos que existe una contrapartida fuerte entre objetivos cerca de los puntos ptimos
de Pareto de valor .F1 .x/; F2 .x//. Si, por otro lado, se puede conseguir un decremento
grande de F1 con un pequeo incremento de F2 , decimos que la contrapartida entre esos
objetivos es dbil cerca de los puntos ptimos de Pareto de valor .F1 .x/; F2 .x//.
De igual manera se puede considerar el caso de qu contrapartidas negativas se consi-
guen en la primera funcin objetivo mejorando la segunda. Aqu buscamos cunto menor
se puede hacer F2 .z/ para obtener un punto factible z en el que F1 .z/  F1 .x/ C a, con
a > 0 una constante como antes. En este caso se obtiene una mejora (reduccin) en F2
comparada con F2 .x/. Si esa mejora o benecio es grande (aumentando un poco F1 se
obtiene una reduccin importante de F2 , decimos que los objetivos presentan contra-
partidas fuertes. Si es pequeo, contrapartidas dbiles cerca del valor ptimo de Pareto
.F1 .x/; F2 .x//.
El conjunto de valores ptimos de Pareto de un problema de optimizacin multi-
criterio se denomina supercie ptima de contrapartida, si q > 2, o curva ptima de
contrapartidas cuando q D 2. En general, su anlisis se reduce a los puntos ptimos de
Pareto.
5-Optimizacin y Programacin Matemtica j 117

Ejemplo 5.11 Consideraremos como ejemplo de todo esto el problema de mnimos


cuadrados regularizado denido as: dada A 2 Rmn y b 2 Rm , encontrar un x 2 Rn
que cumpla estos dos criterios u objetivos:
F1 .x/ D kAx  bk22 D x > A > Ax  2b> Ax C b> b. Una medida de la bondad
del ajuste.
F2 .x/ D kxk22 D x > x. Una medida del tamao del vector solucin.
La idea es encontrar un vector x para el cual el ajuste sea bueno y su norma no muy
grande.
En la gura 5.45 se puede ver la supercie o curva de contrapartidas de este problema.
La zona sombreada es el conjunto de valores alcanzables por el problema. La lnea ms
gruesa el la ptima de contrapartidas formada por puntos ptimos de Pareto.

0.25
F 2 (x ) = ||x || 22

0.2

O
0.15

0.1

0.05
= 100

0
80 85 90 95 100 105 110 115 120

F 1 (x ) = ||Ax b || 22
Figura 5.45: Curva ptima de contrapartidas del problema de mnimos cuadrados regula-
rizado. La zona sombreada es el conjunto de puntos alcanzables, .kAx  bk22 ; kxk22 /, que
considera el problema con A 2 R10010 y b 2 R10 . La curva de ptimos de Pareto es la
destacada en la parte inferior izquierda

Es esta curva se puede destacar:


El punto ms a la derecha de la curva indica el valor ms pequeo posible de F2
(sin tener en cuenta F1 ).
El punto ms a la izquierda de la curva indica el valor ms pequeo posible de F1
(sin tener en cuenta F2 ).
La interseccin de la curva con la lnea vertical que dene F1 D muestra lo
grande que tiene que ser F2 para conseguir un F1  .
La interseccin de la curva con la lnea horizontal que dene F2 D muestra lo
grande que tiene que ser F1 para conseguir un F2  .
La pendiente de la curva en la zona de puntos ptimos de Pareto indica las con-
trapartidas locales ptimas entre los dos objetivos del problema. Una pendiente
118 j 5-Optimizacin y Programacin Matemtica

pronunciada indica que pequeos cambios en F1 van acompaados de cambios


elevados en F2 .
Un punto de curvatura pronunciada es aquel en el que pequeas reducciones en
uno de los objetivos slo lo pueden obtener grandes incrementos en el otro.
El problema que se plantea es entonces

minimizar (con respecto a R2C ) f0 .x/ D .F1 .x/; F2 .x//:

Su escalarizacin lleva a una ponderacin de los dos objetivos as

T f0 .x/ D 1 F1 .x/ C 2 F2 .x/




D x > 1 A > A C 2 I x  21 b> Ax C 1 b> b;

lo que da como resultado



1
1 >
x. / D 1 A > A C 2 I 1 A > b D A > A C I A b;

donde D 2 =1 . Cualquier > 0 determina un punto ptimo de Pareto del problema.
6-Elementos de clculo integral, campos escalares y campos vectoriales j 119

6 | Elementos de clculo integral, campos es-


calares y campos vectoriales

V OLVIENDO a la integral denida de funciones de una variable, si f .x/ est de-


nida en el intervalo a  x  b y se divide ste en n subintervalos xi1 ; xi  de
igual longitud x D .b  a/=n, y de cada uno de ellos se escogen puntos de muestra
xi , conformando la suma de Riemann
X
n
f .xi / x
i D1

y tomando el lmite de esas sumas cuando n ! 1, se obtiene la integral denida de f


entre a y b
Z b X
n
f .x/ dx D lKm f .xi / x:
a n!1
i D1
Como sabemos la interpretacin geomtrica es la de la gura 6.1.
y
x

f(x *)
i

0 a xi-1 xi xn-1 b x

x* x* x* x i* x n*
Figura 6.1: Integral denida como suma de Riemann. Stewart [2015]

De la misma manera, consideremos ahora la funcin f de dos variables denida en


el rectngulo cerrado

R D a; b  c; d  D .x; y/ 2 R2 j a  x  b; c  y  d :
de la gura 6.2. Supongamos de momento que f .x; y/  0. La grca de la funcin
es la supercie z D f .x; y/ que se ve en esa gura. Llamemos S al volumen slido
comprendido entre la supercie R y que toca a f , es decir

S D .x; y; z/ 2 R3 j 0  z  f .x; y/; .x; y/ 2 R :
120 j 6-Elementos de clculo integral, campos escalares y campos vectoriales

z
z=f(x, y)

0
c
a d
y
b R
x

Figura 6.2: Volumen e integral. Stewart [2015]

Calculemos el volumen de S .
Para ello dividimos el rectngulo R en pequeos subrectngulos como se aprecia
en la gura 6.3. El intervalo a; b lo dividimos en m subintervalos xi1 ; xi , de igual
longitud x D .b  a/=m, y c; d  en n subintervalos yi 1 ; yi  de igual longitud y D
.d  c/=n. Cada subrectngulo Rij D xi 1 ; xi   yj 1 ; yj  D f.x; y/ j xi1  x 
xi ; yj 1  y  yj g tiene un rea A D x y.
Si de cada Rij escogemos un punto de muestra .xij ; yij /, la parte de S encima de
ese trocito se puede aproximar por una columna o paraleleppedo rectangular de base
Rij y altura f .xij ; yij /. El volumen de esta columna es f .xij ; yij / A. Siguiendo este
patrn de actuacin con todos los rectngulos de R el volumen aproximado de S ser

X
m X
n
V  f .xij ; yij / A:
iD1 j D1

Aproximacin que ser tanto mejor cuanto ms se amplen las divisiones m y n, es decir,

X
m X
n
V D lKm f .xij ; yij / A:
m;n!1
i D1 j D1

Denicin 6.1 La integral doble de f sobre el rectngulo R es


X
m X
n
f .x; y/ dA D lKm f .xij ; yij / A;
m;n!1
i D1 j D1
R

si existe ese lmite existe.


6-Elementos de clculo integral, campos escalares y campos vectoriales j 121

y
R ij (xi,yj)
d

yj (x *ij ,y *ij )
y yj-1


c
(x *,y*)

0 a x i-1 x i b x

x
z

f(x *ij , y *ij )


0
c
a
d
y
b
x

R ij

Figura 6.3: Divisin o mallado de R. Stewart [2015]

Teorema 6.1 Teorema de Fubini. Si f es continua en el rectngulo R D f.x; y/ 2


R2 j a  x  b; c  y  d g entonces
Z b Z d Z d Z b
f .x; y/ dA D f .x; y/ dy dx D f .x; y/ dx dy:
a c c a
R

En general, esto es cierto si se supone que f est acotada en R, f es discontinua slo


en un nmero nito de curvas y las integrales existen.
Se debe a la formulacin que hizo Guido Fubini, Venecia, 19 de enero de 1879-Nueva
York, 6 de junio de 1943.
122 j 6-Elementos de clculo integral, campos escalares y campos vectoriales

6.1 Integrales de lnea


La integral de lnea es una integral similar a la denida en un intervalo a; b pero cuya
funcin es evaluada sobre una curva C . En el caso de una curva cerrada en dos dimen-
siones, o del plano complejo, tambin se denomina integral de contorno.
Los ejemplos prcticos de su utilizacin estn en el clculo de la longitud de una
curva en el espacio, longitud o peso de un cable tendido en el espacio que une dos
puntos, o tambin en el clculo del trabajo que se realiza para mover algn objeto a lo
largo de una trayectoria teniendo en cuenta campos de fuerzas (descritos por campos
vectoriales) que acten sobre dicho objeto.
Para modelizar y simular estas y otras realidades fsicas, econmicas y sociales que
nos rodean, es natural trabajar con magnitudes escalares y vectoriales que representan
fuerzas y otras magnitudes de regiones conexas planas, o del espacio al que estamos
habituados.
Denicin 6.2 Un campo escalar es una funcin real de varias variables f W A 
Rn ! R que a cada punto de su dominio le asigna el valor que toma una determinada
magnitud escalar en dicho punto. Ejemplos de estos son la temperatura, la densidad, la
altura de un cuerpo, en nuestro espacio tridimensional. Si un campo escalar no depende
del tiempo se denomina estacionario.

Denicin 6.3 Un campo vectorial es una funcin vectorial de varias variables F W


A  Rn ! Rn que a cada punto de su dominio le asigna el vector correspondiente
a una determinada magnitud vectorial que acta en dicho punto. Representa la distri-
bucin espacial de una magnitud vectorial. Ejemplos son los campos elctricos, los
gravitatorios, los del movimiento del viento, las corrientes ocenicas, los ujos de un
uido, del calor, etc. Si un campo vectorial no depende del tiempo se denomina esta-
cionario. En los campos vectoriales se denen las lneas de fuerza o lneas de campo,
como las curvas tangentes en cada punto a los vectores denidos en ellos.
Un campo vectorial en un dominio tridimensional se puede denir como F.x; y; z/ D
M.x; y; z/ i C N.x; y; z/ j C P .x; y; z/ k. Es continuo si lo es cada una de las funcio-
nes o campos escalares que lo conforman, M , N y P ; es derivable si lo es cada una
de las funciones. En el caso bidimensional, los vectores tendran la forma F.x; y/ D
M.x; y/ i C N.x; y/ j:
Estos conceptos tienen sentido fsico si n D 2 o n D 3. En ocasiones los campos
vectoriales se reeren a F W A  Rn ! Rm , siendo en general m n.
Tambin son campos vectoriales los vectores T tangentes y los N normales a lo largo
de una determinada curva en el espacio, el de vectores gradiente de una funcin escalar
f .x; y; z/ a un determinado nivel, etc. En la gura 6.4 se ilustran algunos ejemplos de
campos vectoriales.
Empezamos con una curva C D f .x; y; z/ denida por las ecuaciones paramtricas

x D g.t/; y D h.t /; z D k.t/; a  t  b


6-Elementos de clculo integral, campos escalares y campos vectoriales j 123

f (x, y, z) = c

Figura 6.4: Distintos campos vectoriales: El ujo de viento alrededor de un ala, el agua
al pasar por el estrechamiento de un canal y los vectores gradiente rf de una supercie
f .x; y; z/ D c

pues puede ser conveniente pensar en C y en t como la trayectoria de un objeto en el


tiempo y en espacio.
Tambin se puede denir por la ecuacin vectorial r.t / D g.t/ i C h.t / j C k.t / k,
a  t  b. Los valores de f a lo largo de la curva son los dados por f .g.t /; h.t /; k.t //.

Para integrar la curva C entre a y b se divide en un nmero de subarcos n como se


ve en la gura 6.5, cada uno de longitud sk y representado por el punto de muestra
.xk ; yk ; zk /. Si se forma la suma

X
n
Sn D f .xk ; yk ; zk / sk ;
kD1

y se cumple que f es continua y las funciones g, h y k tienen derivadas de primer orden


continuas, esta suma tiende a un lmite cuando n tiende a innito y las longitudes sk a
cero.
Denicin 6.4 Si la funcin f est denida en la curva C , paramtricamente dada por
r.t/ D g.t / i C h.t / j C k.t/ k, a  t  b, la integral de lnea de f en C es
I X n
f .x; y; z/ D lKm f .xk ; yk ; zk / sk ;
C n!1
kD1
supuesto exista ese lmite.
124 j 6-Elementos de clculo integral, campos escalares y campos vectoriales

z
t=b

r(t)
C

s k
y
(x k , yk , z k )
t=a
x

Figura 6.5: Curva C troceada entre a y b en n porciones de arco

La longitud de C se sabe que es


l b s   2  2
dx 2 dy dz
LD C C dt
dt dt dt
a

por lo que
l s
I b  2  2  2
dx dy dz
f .x; y; z/ D f .xk ; yk ; zk / C C dt:
C dt dt dt
a

En forma vectorial I Z b
f .x; y; z/ D f .r.t // jr0 .t /j dt:
C a

6.1.1 Integrales de lnea en campos vectoriales


El trabajo realizado por una fuerza constante F moviendo un objeto de un punto P a otro
!
Q en el espacio es W D F  D, donde D D PQ es el vector de desplazamiento.
Si suponemos que F D P i C Q j C R k es un campo de fuerzas en R3 , como por
ejemplo el campo gravitatorio o un campo elctrico, para calcular el trabajo que realiza
esa fuerza para mover una determinada partcula a lo largo de una curva continua C en
el intervalo paramtrico a; b (que se corresponde con los puntos de la curva P0 y Pn )
se ve en la gura 6.6, se divide ese intervalo en subintervalos de igual longitud, que
se correspondern con subarcos Pi 1 Pi de longitudes si . Cada uno de estos subar-
cos estarn representados por un punto de muestra Pi .xi ; yi ; zj / correspondiente al
parmetro ti .
Si si es pequeo, al moverse la partcula entre pi1 y pi sigue aproximadamente
la direccin T.ti /, tangente a la curva en Pi . El trabajo que hace F entre Pi 1 y Pi es
F.xi ; yi ; zi /  si T.ti / D F.xi ; yi ; zi /  T.ti / si
6-Elementos de clculo integral, campos escalares y campos vectoriales j 125

F(x *i ,y*i ,z *i )
T(t *i )
Pi-1
Pi
0
Pn
P i*(x *i ,y*i ,z *i ) y

x
P
Figura 6.6: Integral de lnea en un campo de fuerzas. Stewart [2015]

y en el total en toda la curva C , aproximadamente

X
n
F.xi ; yi ; zi /  T.xi ; yi ; zi / si
i D1

donde T.x; y; z/ es el vector unitario tangente a C en el punto .x; y; z/. Esta aproxima-
cin ser tanto mejor cuanto ms grande sea n y en el lmite cuanto n ! 1 el trabajo
ser (el lmite de las sumas de Riemann)
I I
RD F.x; y; z/  T.x; y; z/ ds D F  T ds:
C C

El trabajo es pues la integral de lnea con respecto a la longitud del arco del componente
tangencial de la fuerza.
Si la curva se expresa paramtricamente mediate r.t / D x.t / i C y.t / j C z.t / k,
entonces T.t / D r0 .t /=jr0 .t /j por lo que la expresin del trabajo queda
l b   Z b
r0 .t /
W D F.r.t //  0 jr0 .t /j dt D F.r.t //  r0 .t / dt:
jr .t /j a
a

Denicin 6.5 Sea F un campo vectorial continuo denido en una curva C dada por
la funcin r.t /, a  t  b. La integral de lnea de F a lo largo de C es
I l b I
F  dr D F .r.t //  r0 .t / dt D F  T ds
C a C
126 j 6-Elementos de clculo integral, campos escalares y campos vectoriales

Teorema 6.2 Teorema fundamental de las integrales de lnea. Sea C una curva conti-
nua dada por la funcin r.t /, a  t  b. Sea f una funcin derivable de dos o tres
variables cuyo vector gradiente rf es una funcin continua en C . Entonces
I
rf  d r D f .r.b//  f .r.a//:
C

6.2 El teorema de Green


Formulado por George Green, Reino Unido 1793-1841.

Este teorema proporciona la relacin entre la integral de lnea alrededor de una curva
cerrada C y la integral doble, de supercie, de la regin D contenida en C y adherida
a sta. Supondremos que la regin D consiste en todos los puntos interiores a C y los
de esta curva. Tambin que su orientacin es positiva, segn indica la gura 6.7. Este
teorema es la contrapartida del teorema fundamental del clculo para integrales dobles.

C
0 x
Figura 6.7: Curva C de orientacin positiva y regin D. Stewart [2015]

Teorema 6.3 Teorema de Green. Sean C , una curva continua por tramos, orientada
positivamente y cerrada en el espacio R2 , y D la unin de la regin acotada por C ,
(@D D C ), y la propia C . Si F D .P; Q/ W D ! R2 es un campo vectorial expre-
sado por F.x; y/ D P .x; y/ i C Q.x; y/ j , en el que las dos funciones P y Q tienen
derivadas parciales continuas en una regin abierta que contiene a D, se tiene que

   
@Q @P
P dx C Q dy D F  dr D  dA:
C C @x @x
D
6-Elementos de clculo integral, campos escalares y campos vectoriales j 127

Algunas veces se puede encontrar la notacin


 
P dx C Q dy en vez de P dx C Q dy:
@D C

Simplemente @D indica el contorno de D, que es la curva C .


Ejemplo 6.1 Sea C el crculo unidad orientado en el sentido contrario a las agujas del
reloj y el campo vectorial
F.x; y/ D y i C x j:
Comprobemos que se cumple el teorema de Green. Primero calculamos el ujo de F
alrededor de la frontera de C . La regin que dene C se puede expresar en forma para-
mtrica como
r.t / D cos.t / i C sen.t / j 0  t  2:
Entonces r0 .t / D  sen.t / i C cos.t / j y F.x.t /; y.t // D  sen.t / i C cos.t / j. Lo que
hace que
 Z 2
F  dr D .sen2 .t / C cos2 .t // dt D 2:
C 0

Calculemos ahora la integral doble del teorema de Green en la que P D y y Q D x.


Se obtiene que
 
@Q @P
 dA D .1  .1// dA
@x @x
D D

D2 1 dA
D
D 2  .rea del crculo unidad/
D 2:

Esto hace que



  
@Q @P
F  dr D  dA D 2:
C @x @x
D

Denicin 6.6 Si F D P i C Q j C R k es un campo vectorial en R3 y las funciones P ,


Q y R tienen derivadas parciales de primer orden, se dene el rotacional de F como el
campo vectorial en R3 que expresa
     
@R @Q @P @R @Q @P
rot F D  iC  jC  k:
@y @z @z @x @x @y
128 j 6-Elementos de clculo integral, campos escalares y campos vectoriales

Si se piensa en el operador r como un vector de coecientes @=@x, @=@y y @=@z, el


producto vectorial de r con el campo vectorial F es

i j k

@ @ @
r  F D @x
@y @z
P Q R
     
@R @Q @P @R @Q @P
D  iC  jC  k
@y @z @z @x @x @y
D rot F:

De aqu que
rot F D r  F:

Denicin 6.7 La divergencia de un campo vectorial F es el campo escalar de tres


variables
@P @Q @R
div F D C C :
@x @y @z
Como r D .@=@x/ i C .@=@y/ j C .@=@z/ k, la divergencia de F se puede escribir as
div F D r  F
Con estos conceptos, la expresin del teorema de Green puede adoptar estas dos
nuevas formas
 s
F  dr D .rot F/  k dA
C
D

 s
F  n ds D div F.x; y/ dA
C
D

donde el vector n es el que se indica en la gura 6.8.

T(t)
r(t) n(t)
D
C
0 x

Figura 6.8: Regin D y vector n. Stewart [2015]


6-Elementos de clculo integral, campos escalares y campos vectoriales j 129

6.3 El teorema de Stokes


Este teorema, debido a George Gabriel Stokes, Irlanda, 1819-1903,

es un versin del de Green para dimensiones superiores a las que se dene ste. Relaciona
un integral de supercie en una supercie S con una integral de lnea alrededor de una
curva que acota S .

z
n

n
S

C
0

x y
Figura 6.9: Teorema de Tokes. Supercie S y vector n. Stewart [2015]

Teorema 6.4 Teorema de Stokes. Sea S una supercie orientada, continua a tramos
y acotada por una curva C continua por tramos, orientada positivamente y cerrada en
el espacio R3 . Si F es un campo vectorial en R3 cuyos funciones tienen derivadas
parciales continuas en una regin abierta de R3 que contiene a S , se tiene que


C F  dr D rot F  d S.

El caso especial en el que la supercie S sea bidimensional y est en el plano .x; y/,
con orientacin hacia arriba (en el sentido contrario a las agujas del reloj), su vector
unitario normal es k, la integral de supercie es una integral doble y el teorema de Stokes
se convierte en
 

F  dr D rot F  d S D .rot F/  k dA
C
S S
130 j 6-Elementos de clculo integral, campos escalares y campos vectoriales

que es la forma vectorial del teorema de Green que se formulaba anteriormente.


7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 131

7 | Sobre el mtodo de los elementos nitos


de Ritz-Galerkin para resolver ecuacio-
nes en derivadas parciales

D ESDE tiempos de C.F. Gauss, Alemania 1777-1855 y W. Thompson, Irlanda 1775-


1833, la equivalencia entre los problemas de ecuaciones en derivadas parciales con
condiciones de contorno y los de clculo de variaciones ha ocupado un puesto destacado
en el anlisis matemtico. En un principio el esfuerzo se concentr en los aspectos teri-
cos de los problemas; posteriormente, dos fsicos, Lord Rayleigh John William Strutt,
Reino Unido 1842-1919 y Walther Ritz, Suiza 1878-1909,

independientemente al parecer, concibieron la idea de utilizar esa equivalencia para cal-


cular numricamente soluciones de problemas habituales de fsica mediante la sustitu-
cin de los problemas de clculo de variaciones por otros ms simples de obtencin de
extremos con un nmero nito de parmetros por determinar.
Sus mtodos atrajeron pronto a ingenieros y fsicos los principios fsicos de la me-
cnica son ms sugestivos que las ecuaciones diferenciales y se empezaron a aplicar
a muchos problemas cercanos. El resultado era lgica consecuencia del esquema con-
ceptual de cmo se tratan en anlisis matemtico y en muchos aspectos de la vida
cotidiana los problemas difciles: Un problema P con solucin S se reemplaza por
otro ms o menos relacionado o prximo, Pn , ms simple de resolver, cuya solucin es
Sn . Luego se mejora la aproximacin Pn de P de tal forma que la solucin Sn , paso a
paso, tienda a la deseada S . Lo esencial es escoger la sucesin de aproximaciones Pn de
una manera adecuada.
Una de las cuestiones ms interesantes y con ms posibilidades de futuro que con-
templan las aplicaciones de las matemticas para simular y resolver muchos problemas
de la vida cotidiana es el de utilizar modelos matemticos expresados en forma de ecua-
ciones diferenciales e integrales que reproducen procesos y fenmenos complejos de la
fsica y otras ciencias naturales y sociales cuyos orgenes y evolucin suelen estar distri-
buidos en el tiempo y en el espacio. Se modelan de esta forma la propagacin del sonido
o del calor, la electrosttica, la electrodinmica, la dinmica de uidos, la elasticidad, la
132 j 7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

mecnica cuntica, las emisiones de contaminantes, los fenmenos meteorolgicos, la


valoracin de opciones y derivados nancieros y muchos otros. El enfoque para resol-
verlos de forma prctica sigue exactamente el principio enunciado ms arriba.

La idea esencial que seguiremos en estas notas es la de convertir el problema


con ecuaciones diferenciales, integrales o ecuaciones en derivadas parciales,
suponiendo que tiene solucin con unas determinadas caractersticas, en uno
formulado en trminos de clculo de variaciones de funciones continuas
la minimizacin de un funcional para as caracterizar en qu condiciones
se da una solucin u ptimo del mismo. Luego se discretiza ese problema
continuo con un nmero innito de grados de libertad mediante un problema
discreto, o sistema de ecuaciones, con un nmero de variables nito y ms
fcil de resolver y se resuelve mediante alguna de las diversas tcnicas que
existen para ello.

Cuando se empieza a trabajar y aprender mtodos numricos para resolver proble-


mas matemticos el de las diferencias nitas sigue ideas muy intuitivas: simplemente
se aproxima una derivada de una curva en un punto de ella por una lnea secante. Si se
estudia el mtodo del volumen nito, tambin su idea es bastante sencilla: cada elemento
de volumen es simplemente un pequeo equilibrio del ujo o de fuerzas. El mtodo de
los elementos nitos sigue esa senda ms o menos, con alguna pequea modicacin.
La base matemtica para el mtodo de los elementos nitos se encuentra en el entorno
de los espacios de Hilbert. Un espacio de Hilbert es una manera de tratar una funcin
como un vector, por lo que podemos hacer algunos trucos de matemticas vectoriales
con l. Recordemos que un vector es una serie de valores, o escalares, multiplicados por
un conjunto de vectores de una base ortogonal (como los vectores unitarios que denen
la direcciones x, y y z, o los i , j y k). Podemos utilizar una tcnica paralela para denir
una funcin. Primeramente seleccionamos un conjunto de funciones de base en vez de
aquellos vectores (esas funciones deben ser ortogonales entre s) y luego denimos la
funcin original como una suma de unos coecientes multiplicados por las funciones de
la base: de esta forma
X1
uD k k ;
kD1

donde cada una de las k es una funcin de la base.


El siguiente paso es convertir nuestra ecuacin diferencial en algo llamado su for-
mulacin dbil. Esto se hace bsicamente multiplicando por una funcin de prueba y
luego integrando en el espacio. Sin entrar en los detalles de momento, se trata de hacer
lo mnimo necesario para convertir nuestra ecuacin diferencial en algo en lo que poda-
mos utilizar nuestras matemticas de espacios vectoriales. Esencialmente, donde exista
una forma de "producto interior", en nuestro caso con funciones como la de prueba en
vez de vectores, y la solucin. Este producto interior ser una integral y podremos usar
integracin por partes para convertirlo en formatos ms manejables.
7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 133

Despus nos desharemos de alguna manera de la abstraccin empleada y comproba-


remos que realmente estamos tratando con un espacio vectorial de dimensin nita: los
vectores funcin no son innitos ni estamos sumando innitos trminos.

Figura 7.1: Discretizacin en malla de una pieza de geometra sencilla

Este proceso es lo que se entiende por discretizacin en las tcnicas de los elementos
nitos. La discretizacin que se utiliza est determinada por una malla o retcula (una
retcula de por ejemplo 20  20 dara como resultado 441 funciones base nicas) mesh
como la de la gura 7.1 y normalmente se emplean dos funciones de base a cada lado
de un elemento de la malla.
Con esas funciones de base la solucin de nuestra ecuacin diferencial se represen-
tara de esta manera
Xn
0
u D k k :
kD1
La nica diferencia con la expresin anterior es el lmite superior del sumatorio.
El siguiente paso es hacer que nuestra funcin de prueba sea una funcin de base.
Tambin habr que asegurarse que las funciones base no se superpongan, lo cual ga-
rantiza el que sean ortogonales como pretendamos antes y nos permite aproximar ms
fcilmente la solucin en el dominio de inters. Las funciones de base que se suelen usar
son polinomios (especialmente polinomios lineales o cuadrticos).
Despus de lo que puede parecer que es complicar el problema original agregando
toda esta abstraccin y matemticas para llegar a lo que hemos llegado, qu hemos
conseguido realmente? Pues convertir el problema en una ecuacin algebraica matricial
sencilla para poderlo resolver por medio del lgebra que conocemos. Si el problema
fuese lineal, simplemente tendremos que resolver la ecuacin Ax D b.
Para un problema simple como el de la ecuacin de Poisson

@2 u @2 u
u.x; y/ D 2
C 2 D f .x; y/;
@x @y

por Simon Denis Poisson, Francia, 1781-1840. la matriz A es muy fcil de calcular y se
denomina la matriz de rigidez en homenaje a los principios de las tcnicas de elementos
134 j 7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

nitos en problemas de elasticidad. Esta matriz muy dispersa (con pocos coecientes
distintos de cero) y diagonal dominante est formada por el producto interior de las
funciones de base con ellas mismas, multiplicadas si es el caso por la constante que
aparezca en la ecuacin original. El vector solucin de ese sistema se multiplica por el
de las funciones de base y se obtiene la del problema original, o una que se aproxima
mucho a la misma.
Resumiendo, el procedimiento de resolucin del mtodo de los elementos nitos
consta de las siguientes fases u operaciones:
Conversin del problema original de dimensin innita, mediante las propiedades
de los espacios de Hilbert, en uno similar prximo en un espacio vectorial de
dimensin nita. En ste se estudia la existencia y unicidad de la solucin.
Creacin de una formulacin dbil del problema original con la que podamos usar
las herramientas de producto interior y medida.
Discretizacin del dominio de denicin del problema y eleccin de una base de
funciones que sean ortogonales entre si.
Conversin de los productos interiores entre funciones de base en sistemas lineales
de ecuaciones.
Resolucin de ese sistema lineal resultante mediante tcnicas de matrices disper-
sas.
Las ventajas de este mtodo frente a otros son muchas en bastantes mbitos de la in-
geniera, la ciencia y la investigacin por lo que su extensin y precisin, as como los
algoritmos que emplea, cada vez son ms amplios, ambiciosos y potentes.
Para concretar con cierto detalle los pasos del mtodo, vamos a desarrollar el estu-
dio de un problema preciso habitual. Seguiremos esencialmente el trabajo de Francisco
Javier Sayas [2015].

7.1 Solucin de una ecuacin en derivadas parciales


Consideraremos en lo que sigue el siguiente problema de una ecuacin en derivadas
parciales elptica de segundo orden con condiciones de contorno:
  u.x; y/ C cu.x; y/ D f .x; y/ dentro de 
u.x; y/ D g0 .x; y/ en la frontera D
@n u.x; y/ D g1 .x; y/ en la frontera N :

Esta forma de formularlo se denomina formulacin fuerte.


La geometra del entorno fsico esquemtico en el que se desenvolver ser tan
simple como la de la gura 7.2, o una generalizacin de ella. En este caso con-
creto es un subconjunto abierto  2 Rd representado por un polgono en el plano
R2 , pegado o adherido en su frontera a la curva que dene , dividida sta en
dos partes: la que dene D , que materializan unas condiciones de contorno de
7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 135

D
N

Figura 7.2: Dominio de denicin  y condiciones de contorno

Dirichlet por Johann Peter Gustav Lejeune Dirichlet, Alemania 1805-1859

y la N , con condiciones de contorno de Neumann por Karl Gottfried Neu-


mann, Alemania 1832-1925. En trminos fsicos, las condiciones de Dirichlet
determinan unos posibles desplazamientos fsicos de esa frontera, mientras que las
de Neumann unas posibles tensiones mximas o mnimas.
La ecuacin en derivadas parciales propiamente dicha, la primera en la formula-
cin, se denomina habitualmente ecuacin difusin-reaccin. El trmino que re-
presenta la difusin es  u y el de reaccin cu, cuando c > 0. La constante c es
no negativa; en principio puede adoptar los valores 0 1.
La funcin escalar u.x; y/ W R2 ! R, denida en el dominio , es la incgnita
de este problema.
La funcin f .x; y/ est denida en  y se puede considerar como una densidad
supercial de fuerzas.
Las dos funciones que expresan las condiciones de contorno, g0 .x; y/ y g1 .x; y/,
estn denidas en dos partes diferentes de la frontera. La funcin g0 deber ser
continua; la g1 puede ser discontinua.
El smbolo @n designa la derivada normal hacia afuera, es decir

@n u D ru  n;

donde n es el vector unidad hacia afuera en puntos de la frontera  y ru es el


gradiente de u. Supondremos que existe.
136 j 7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

7.1.1 El problema en forma dbil o variacional


Siguiendo cada uno de los pasos de la estrategia enunciada para resolver este problema,
vamos a formularlo de una forma diferente de la original denominada forma dbil o
forma variacional.
Para ello utilizaremos el teorema de Green, a menudo denominado primera frmula
o identidad de Green, derivada del teorema de la divergencia, que no es sino una forma
de integracin por partes. Aplicado a nuestro caso dice que
Z Z Z
. u/ v C ru  rv D .@n u/ v:
 

La funcin v es una funcin de prueba, continua, en principio denida en  D  [ .


En esa expresin hay dos tipos de integrales: las dos del miembro de la izquierda son
integrales de supercie, en el dominio . La del derecho es una integral lineal en el borde
o frontera . Hemos prescindido de los diferenciales correspondientes para compactar
la notacin. El punto de la segunda integral del miembro de la izquierda se reere al
producto interior de dos vectores, es decir ru  rv D @u @v
@x @x
C @u @v
@y @y
.
El resultado sera aplicable tambin a tres dimensiones: las dos integrales de la iz-
quierda seran de volumen; la de la derecha de supercie.

Figura 7.3: Regin o volumen V acotada por la supercie o frontera S D @V con la


normal a la supercie n

La identidad expresada es una consecuencia del resultado del teorema de la diver-


gencia que dice que para un subconjunto V 2 Rn en el caso de tres dimensiones V
representa un volumen como el de la gura 7.3, en principio compacto, de supercie,
o borde, S continua a trozos (expresada por @V D S ), si F es un campo vectorial con
derivadas parciales de primer orden continuas denido en un entorno de V , se cumple
que
.r  F/ d V D .F  n/ dS:
V S
Aplicado a una funcin escalar f W Rn ! R y un vector constante c distinto de cero

c  rf d V C f .r  c/ d V D .cf /  d S;
V V S
7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 137

donde d S expresa de forma compacta ndS .


Haciendo f D ru y c D v se tiene la expresin anterior de la primera identidad de
Green.
Si sustituimos u D f  cu en la expresin obtenida a partir de la identidad de
Green en donde se integra en  y que @n u D g1 en N , despus de reordenar un poco
se llega a
Z Z Z Z Z
ru  rv C c uv D fv C g1 v C .@n u/ v:
  
N
D

Como no sabemos el valor de @n u en D imponemos que la funcin v sea cero en esa


parte de la frontera o borde: v D 0 en D . A partir de ah,
Z Z Z Z
ru  rv C c uv D fv C g1 v; si v D 0 en D :
  
N

La expresin del miembro de la izquierda es lineal en las funciones u y v. Es una forma


bilineal de las variables u y v. La de la derecha es lineal en v. Todava no hemos hecho
uso de la condicin de Dirichlet en la frontera, u D g0 en D .

u D g
La formulacin dbil del problema queda por n as:

Z 0en D Z
R R
Determinar una funcin u tal que: ru  rv C c uv D  f v C
N g1 v;
 
para todo v tal que v D 0 en la frontera D :
En esta formulacin la condicin de Dirichlet desplazamientos dados se impone
como una condicin aparte que ha de cumplir la funcin de prueba v. Se denomina
condicin esencial de borde o frontera. La condicin de Neumann fuerzas normales
aparece como una condicin de frontera natural dentro de la formulacin del problema.
Como indicbamos anteriormente, la funcin de prueba v chequea la ecuacin que
satisface u. Juega un papel de funcin de ponderacin para comprobar el comportamien-
to medio de la ecuacin. En alguna referencia interesante se la denomina desplazamiento
virtual para enfatizar que no es una incognita sino algo utilizado para formular el pro-
blema de esta manera: mediante desplazamientos virtuales de la realidad, si se llega a
conocer.

7.1.2 Espacios de trabajo


Hasta ahora hemos dado por hecho que el contexto matemtico donde se desenvuelve
este problema y las formulaciones que estamos utilizando cumplen una serie de requisi-
tos matemticos que permiten su existencia y solucin. Vamos a formalizarlo un poco.
El primer espacio que estamos utilizando es el espacio vectorial de las funciones al cua-
drado integrables en , es decir,
 Z

L2 ./ D f W  ! R jf j2 < 1 :

138 j 7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

Como vimos en la seccin dedicada a espacios vectoriales, la denicin requiere la in-


tegral de Lebesgue,
R la mtrica o medida de Lebesgue y el espacio de Lebesgue. Sim-
plicadamente, si  f .x/ dx es la integral de Lebesgue de f .x/ y se dene la norma
R
kf kLp ./ D .  f p dx/1=p , para 1  p < 1, los espacios de Lebesgue son

Lp ./ D f .x/ W kf kLp ./ < 1 :

El segundo es el espacio de Sobolev por Sergi Lvvich Sobolv, Rusia 1908-


1989. Es une espacio vectorial de funciones dotado de una norma que es combinacin
de normas Lp de la funcin y de sus derivadas hasta un orden dado. Formalmente para
dos dimensiones es

@u @u
H 1 ./ D u 2 L2 ./ ; 2 L2 ./ :
@x1 @x2

Las derivadas de este espacio se entienden en un sentido dbil que hagan que el espa-
cio sea completo si toda sucesin de Cauchy en l tiene lmite y por lo tanto sea
un espacio de Banach. En sentido dbil no es sino una generalizacin del concepto de
derivada a funciones no necesariamente derivables pero si integrables localmente en el
sentido de Lebesgue en un dominio dado  de Lp ./.
La norma correspondiente de este espacio completo es
Z Z 1=2 Z Z Z !1=2
@u 2 @u 2
kuk1;D 2
jruj C juj2
D C C juj2
;

   @x1  @x2 

denominada en ingeniera norma de energa. Las funciones que usan esta forma ni-
ta son funciones de energa nita. Intuitivamente, un espacio de Sobolev es un espacio
de funciones con derivadas de orden suciente para un dominio de aplicacin determi-
nado y equipado con una norma que mida adecuadamente tamao y regularidad en las
funciones. Un subespacio de inters de ese espacio H 1 ./ es

H
1D ./ D v 2 H 1 ./ jv D 0 en D :

Establecido todo este aparato matemtico, la formulacin dbil del problema original
queda as:
Determinar una funcin u 2 H ./ tal que 1

u D g0 en D Z
Z Z Z
ru  rv C c uv D fv C g1 v; para todo v 2 H
1D ./:
  
N

La condicin que se impone a la funcin de prueba, v 2 H


1D ./, es la misma que

v 2 H 1 ./ tal que v D 0 en D ;


7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 139

lo que quiere decir que v est en el mismo espacio de la funcin que se busca u pero
satisface una versin homognea de la condicin esencial de borde o frontera.
Los datos del problema estn en los siguientes espacios f 2 L2 ./, g1 2 L2 .N /
y g0 2 H 1=2 .D /. El segundo espacio restringe el dominio de las integrales en la l-
nea que marca N en vez de en . Que g0 2 H 1=2 .D / quiere decir que existe al
menos una funcin u0 2 H 1 ./ tal que u0 D g0 en D . De n hecho, todas las dems
o
que cumplen esta condicin pertenecen a u0 C H
D ./ D u0 C vjv 2 H
1D ./ D
1

w 2 H 1 ./jw D g0 en D . Que g0 pertenezca a H 1=2 .D / signica que no se busca
la solucin en el conjunto vaco.

7.1.3 Discretizacin del problema en un subespacio de elementos -


nitos lineales
Como venimos anunciando, la resolucin del problema que estudiamos con el concur-
so de elementos nitos est basada en la aproximacin, debida a Boris Grigoryevich
Galerkin, Rusia 1871-194,

del espacio H 1 ./ mediante funciones polinomiales sencillas por tramos o trozos. Esto
transformar el espacio original de dimensin innita en un subespacio de dimensin
nita de funciones admisibles fciles de obtener.
Para conseguirlo se utiliza una particin del dominio de clculo  en subdominios,
a los que se denomina mallado. El ms sencillo es aquel en el que  es un intervalo de
la recta real, por ejemplo el abierto .0; 1/, en el que se tiene la particin 0 D x0 < x1 <
   < xn D 1 dividida en subintervalos Ij D .xj 1 ; xj / de longitud hj D xj  xj 1 ,
j D 1; : : : ; n. Si h D mKax hj y Vh es el espacio lineal de funciones v tal que v 2
C 0 .0; 1/, vjxi 1 ;xi  es un polinomio lineal, i D 1; : : : ; n, perteneciente por tanto a P1 ,
y v.0/ D 0.
Para cada i D 1; : : : ; n se dene la funcin i como una delta de Kronecker,

Leopold Kronecker, Polonia 1823-Alemania 1891


140 j 7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

de tal forma que (


1 si i D j
i .xj / D ij D ;
0 si i j
segn se indica en la gura 7.4.

i

0 xi 1
Figura 7.4: Funcin de base lineal por tramos

Se tiene que fi W 1  i  ng es una base de Vh . El conjunto fi g es una base nodal
de Vh y fv.xi /g son los valores nodales de una funcin v. Los puntos .xi / se denominan
nodos o nudos.
Dada una funcin v 2 C 0 .0; 1/,Pel interpolante, o funcin de interpolacin, vh 2
Vh de v se obtiene mediante vh D niD1 v.xi /i como se aprecia en la gura 7.5. Si
v 2 Vh ) v D vi .

Vh

0 xi 1
Figura 7.5: Aproximacin mediante vh de una funcin de base lineal por tramos

Otra particin quizs la ms utilizada consiste en triangularizar un dominio de


dos dimensiones, como , en pequeos tringulos que lo cubran enteramente. En la
gura 7.6 se ve la correspondiente al dominio con el que venimos experimentando en
estas notas.
Para simplicar se supone que la frontera o borde, , del dominio  es una curva
poligonal. Si no lo es, primero se le aproxima a un polgono. La triangularizacin con-
siste en dividir  en un conjunto de tringulos Th D K1 ; : : : ; Km que no se solapen y
que solo compartan lados completos, o lo que es lo mismo, que ningn vrtice de ningn
tringulo caiga en algn lado de otro. Se cumplir que
[
D K D K1 [ K2    [ Km :
K2Th
7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 141

Figura 7.6: Triangularizacin del dominio 

El subespacio Vh de H 1 ./ es ahora




Vh D funciones v 2 C./vjK es lineal para todo K 2 Th ; v D 0 en  ;

donde vjK 2 P1 se reere a la funcin v restringida a K. Recordemos que P1 es el


espacio de polinomios lineales del tipo a0 C a1 x1 C a2 x2 , donde los coecientes a0 , a1
y a2 seran los parmetros de cada tringulo.
Los parmetros que denirn la funcin v 2 Vh sern los valores v.Ni / de v en los
nodos Ni ; i D 1; : : : ; M de Th excluyendo aquellos en los bordes pues v D 0 en .
Los valores de los nodos de la triangularizacin del dominio son los grados de libertad
que determinan un elemento de Vh . Una numeracin de esos nodos para nuestro dominio
de trabajo sera la de la gura 7.7. Los nodos se indican mediante el vector xi , donde
i D 1; : : : ; M , el nmero de nodos.
14
10
5

15
6 11
2

16
12 18
3 7

8 17
4
13

Figura 7.7: Numeracin de los nodos del dominio 

Si se ja un nodo del dominio y se le asocia el valor 1 y 0 a todos los dems, existe


142 j 7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

una funcin nica, i 2 Vh , funcin de base de nodo, tal que


(
1 si i D j
i .xj / D ij D ; i; j D 1; : : : ; M:
0 si i j

El aspecto de una de estas funciones es el de la gura 7.8. Si un tringulo K no tiene a


i

xi

Figura 7.8: Grca de la funciones de base de los nodos del dominio 

xi como uno de sus vrtices, i es cero en todo el tringulo pues el valor de la funcin
en todos sus vrtices es cero. El soporte por tanto de i la envoltura del conjunto
de puntos donde i no es cero es la misma que la unin de todos los tringulos que
comparten xi como vrtices. Ver gura 7.9.

Figura 7.9: Soporte de dos funciones de base del dominio 

Una funcin cualquiera uh 2 Vh se representa entonces como

X
M X
M X
M
uh D uh .xj /j .xi / D uh .xj /j i D uh .xj /j :
j D1 j D1 j D1

El conjunto fi ; i D 1; : : : ; M g es una base de Vh .


Hasta ahora no hemos tenido en cuenta si los nodos de la frontera estn en el seg-
mento de borde tipo Dirichlet o Neumann. Si tenamos hasta ahora el espacio

H
1D ./ D v 2 H 1 ./v D 0; en D ;
7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 143

ahora nos interesa



Vh
D D Vh \ H
1D ./ D vk 2 Vh vh D 0; en D :
La idea es llevar constancia de qu nodos son Dirichlet Dir y cules no, indepen-
dientes, Ind. En el caso del ejemplo que tratamos,
Dir D f9; 13; 14; 15; 17; 18g
Ind D f1; 2; 3; 4; 5; 6; 7; 8; 10; 11; 12; 16g :
Entonces, un elemento de Vh se podra escribir como
X X
uh D uj j C uj j ; uj D uh .xj /
j 2Ind j 2Dir

y uno de Vh
D as
X
uh D uj j :
j 2Ind

7.1.4 Reformulacin del problema como un sistema de ecuaciones li-


neales
Recapitulando, el mtodo nos ha hecho llegar a la siguiente formulacin:

 u .x / D g .x / 8j 2 Dir
Obtener una funcin uh 2 Vh
h j 0 j
tal que Z Z Z Z
ruh  ri C c uh i D f i C g1 i ; 8i 2 Ind:
  
N

Para ello:
Hemos convertido el espacio de Sobolev en el que buscamos la funcin solucin
en uno de dimensin nita, Vh . Es decir, hemos reducido el problema a calcular
uh en los vrtices de una triangularizacin los nodos y a un nmero nito de
incgnitas.
Hemos sustituido las condiciones tipo Dirichlet jando condiciones a los nodos
Dirichlet, lo que reduce an ms el nmero de incgnitas: a los nodos indepen-
dientes.
Hemos reducido el espacio de prueba de H
1D ./ a un subespacio discreto Vh
D ,
lo que reduce un nmero innito de pruebas en la formulacin dbil a un nmero
nito de ecuaciones lineales.
Para obtener nalmente el sistema de ecuaciones lineales escribimos uh en trminos
de las funciones de base de los nodos:
X X
uh D uj j C uj j :
j 2Ind j 2Dir
144 j 7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

Luego sustituimos en esta expresin las condiciones de Dirichlet discretizadas:


X X
uh D uj j C g0 .xj /j :
j 2Ind j 2Dir

Finalmente incorporamos esta expresin en la formulacin variacional discreta:


Z Z Z Z
ruh  ri C c u h i D f i C g1 i ;
  
N

linealizando, teniendo en cuenta que


X X
ruh D uj rj C g0 .xj /rj
j 2Ind j 2Dir

y reordenando llegamos a
i Z Z  Z Z
rj  ri C c j j uj D f i C g1 i
  
N
j 2Ind
i Z Z 
 rj  ri C c j j g0 .xj /:
 
j 2Dir

Este es un sistema de ecuaciones lineales con un nmero de ecuaciones igual al nmero


de incgnitas (# Ind D dim Vh
D ), que son precisamente los valores de la funcin uh en
los nodos libres de la triangularizacin llevada a cabo.
Hay dos matrices importantes en este sistema de ecuaciones, la matriz de rigideces,
Z
W ij D rj  ri


y la matriz de masas Z
M ij D j i :

Ambas son simtricas. La Rde masas es
R denida positiva. La de rigideces semidenida
positiva. Si hacemos bi D  f i C
N g1 i , i 2 Ind, se llega a
i ! i !
W ij C cM ij uj D bi  W ij C cM ij g0 .xj /; i 2 Ind:
j 2Ind j 2Dir

Estas matrices poseen patrones de dispersidad muy pronunciados pues slo interactan
nodos que estn unidos entre si por lados de tringulos. Ello las hacen propicias para
ordenaciones en torno a la diagonal principal. Su manipulacin es sencilla y las ope-
raciones necesarias para resolver los gigantescos sistemas de ecuaciones lineales a que
pueden dar lugar son perfectamente tratables por los ordenadores disponibles actualmen-
te.
7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 145

7.2 Fundamentos de funcionales y clculo de variaciones


Denicin 7.1 Un funcional es una funcin que tiene funciones como argumento a
las que asigna un valor real. Es decir, una funcin cuyo dominio es un conjunto de
funciones.
En la gura 7.10 se esquematiza2 la diferencia entre una funcin ordinaria y un fun-
cional.

Input: argument x Output: function


Function value y (dependent
(independent operator
variable) variable)

(a) x f y=y(x)=f(x)
FUNCIONES
Input 1: argument x Input 2: function
(independent y=y(x) (primary Functional Output: functional
variable) dependent variable) operator value J (a scalar)

(b) x f y=f(x) J J(y)=J(x,y)

Input 1: argument x Input 2: function


(independent y=y(x) (primary Functional Output: functional
variable) dependent variable) operator value J (a scalar)
(c)
x f y=f(x) J J(y)=J(x,y,y')

Input 3: derivative
of primary y'=dy/dx
dependent variable
FUNCIONALES

Figura 7.10: Diagrama de bloques que ilustra la diferencia formal en una dimensin entre
una funcin ordinaria y un funcional. (a) Una funcin ordinaria y D y.x/ D f .x/ de
una variable independiente x; (b) Un funcional J.y/ D J.x; y/ de la funcin y.x/; Un
funcional J.y/ D J.x; y; y 0 / de la funcin y.x/ y su derivada y 0 D dy=dx

El funcional bsico unidimensional lineal ms tpico tiene la forma


Z b


J.y/ D F x; y.x/; y 0 .x/ dx; x D a; b; a  b; y.a/ D yOa ; y.b/ D yOb :
a

En palabras, la funcin y D y.x/ est denida en el segmento x 2 a; b, a  b, de la


recta real. Dado un x, y.x/ se supone real y nico. Adems, y.x/ es continua y derivable
por lo que y 0 .x/ existe al igual que la integral enunciada. La funcin debe satisfacer
2 Fuente: http://www.colorado.edu/engineering/CAS/courses.d/AVMM.d/AVMM.Ch01.d/AVMM.Ch01.pdf.
146 j 7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

en x D a y en x D b unas determinadas condiciones de contorno: concretamente,


yOa D y.a/ y yOb D y.b/.
As era cmo la palabra funcional fue utilizada inicialmente en el clculo de varia-
ciones, donde el integrando a ser minimizado deba ser un funcional, aplicada a una
todava desconocida funcin que satisfaca solamente una cierta condicin de contorno,
y condiciones de derivabilidad.
Otro funcional lineal habitual es la funcin delta de Dirac, t f ./ D f .t /, por
Paul Adrien Maurice Dirac, Reino Unido, 1902-1984

que se puede escribir tambin como


Z b
t f ./ D f .x/.x  t/ dt:
a

Un problema de clculo de variaciones o problema variacional tpico sera el de


encontrar la funcin y 2 a; b ! R que minimiza el funcional anterior, J.y/, con las
condiciones de contorno indicadas.
En varios campos de la ingeniera, la fsica matemtica, el reconocimiento de im-
genes y otros muchos, el clculo de variaciones es un interesante problema matemti-
co consistente en buscar mximos y mnimos (o ms generalmente extremos relativos)
de funcionales continuos denidos sobre algn espacio funcional. Constituyen una ge-
neralizacin del clculo elemental de mximos y mnimos de funciones reales de una
variable. Muchos problemas de este tipo3 son fciles de formular pero sus soluciones
implican a menudo, a su vez, difciles procedimientos de clculo diferencial, los cuales
generalmente suponen usar ecuaciones diferenciales ordinarias Ordinary Differential
Equations, as como las ecuaciones (diferenciales) en derivadas parciales Partial
Differential Equations.
En la gura 7.11 se pueden ver algunos problemas clsicos de funcionales en una
dimensin.
Por regla general, no todas las funciones pueden encajar en un funcional. La gu-
ra 7.12 ilustra grosso modo algunos tipos de funciones permitidas y otras no admisibles.
Si se considera un funcional general
Z x2
I D F .x; y; y 0 / dx
x1

3 Por ejemplo el de encontrar la curva de longitud ms corta que una dos puntos.
7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 147

y (a) y (b)
Arclength L
A y=y(x) A

y(a)=y^a B B
Area A y(b)=y^ b

x=a x=b x x=a x=b x


y (c)
Constant
gravity g
A
Straight line

Cycloid B
Parabola

x=a x=b x

Figura 7.11: Ejemplos unidimensionales de funcionales: (a) rea debajo de una curva,
Rb Rb p
a y.x/ dx;q(b) Longitud de un arco de curva, a 1 C .y 0 .x//2 dx; (c) Curva braquis-
Rb 0 .x//2
tcrona, a 1C.y 2gy dx

donde F es una funcin conocida con derivadas continuas hasta segundo orden respecto
a x, y y y 0 . El valor de I depender de la trayectoria de la funcin entre .x1 ; y1 / y
.x2 ; y2 /; es decir, depender de la funcin y.x/ que se escoja.
Si se introduce como prueba la familia de trayectorias
Q
y.x/ D y.x/ C ".x/;
donde " es un parmetro y .x/ una funcin derivable a la que se le pide que .x1 / D
.x2 / D 0, resulta que se pueden generar una innidad de trayectorias para una .x/
dada sin ms que variar el parmetro ". Todas ellas pasan por .x1 ; y1 / y .x2 ; y2 /. Consi-
deremos Z x2 Z x2
IQ D Q yQ 0 / dx D
F .x; y; F .x; y C "; y 0 C "0 / dx
x1 x1

Es evidente que los funcionales I y IQ alcanzarn el mismo valor extremo (valor mximo
o mnimo) cuando " D 0. Desarrollando, se tiene que
! !
d IQ d 2 Q
I "2
IQ D .IQ/"D0 C "C 2
C 
d" d" 2
"D0 "D0

Para que IQ sea extremo cuando " D 0 es necesario que


!
d IQ
D 0:
d"
"D0
148 j 7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

(a)
1
y B
2

3
A y(b)=y^b
4
y(a)=y^ a 5

x=a x=b x
(b)
y B
1
2

A 3 y(b)=y^b
y(a)=y^ a 4
5

x=a x=b x

Figura 7.12: Muestrario de funciones admisibles en un funcional: (a) Funciones conti-


nuas, C 1 , con un slo valor para cada x y que cumplen las condiciones de contorno; (b)
Inadmisibles: La 1 y la 3 tienen derivadas discontinuas; la 2 es discontinua y admite varios
valores para un x; la 4 admite varios valores para un x y la 5 no cumple las condiciones de
contorno

Es decir que
Z  
x2
@F d yQ @F d yQ 0
C 0 dx D 0:
x1 @yQ d " @yQ d " "D0

Q " D , que d yQ 0 =d " D 0 y que quitar las tildes de yQ y de yQ 0 en las


Dado que d y=d
derivadas de F es lo mismo que hacer " D 0 segn se requera ms arriba, la ecuacin
anterior se puede reescribir as:
Z x2  
@F @F
 C 0 0 dx D 0:
x1 @y @y

Integrando por partes el segundo trmino,


x2 Z
Z x2   
x2
@F 0 @F d @F
 dx D    dx:
x1 @y 0 @y 0 x1 dx @y 0
x1

Cuando  D 0 en los extremos la primera expresin del miembro de la derecha de esta


7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 149

ecuacin se hace cero. Sustituyendo lo que queda en la anterior se tiene que


Z x2   
@F d @F
  dx D 0:
x1 @y dx @y 0

Cualquiera que sea la funcin .x/ entre los puntos extremos, segn la frmula de Euler-
Lagrange se tiene que
d @F @F
 D0
dx @y 0 @y

que es la condicin que debe cumplir y.x/ para ser un mximo o un mnimo: un extremo.
Si en esta expresin se sustituye F por su expresin F .x; y; y 0 / resulta una ecuacin
diferencial de segundo orden en y.x/.

7.2.1 Proposiciones esenciales

Lema 7.1 Lema fundamental del Clculo de Variaciones. Sea M.x/ una funcin con-
tinua denida en el intervalo a  x  b. Supongamos que para cualquier funcin
continua .x/ se tiene que
Z b
M.x/.x/ dx D 0:
a

Se cumple entonces que


M.x/ D 0 para todo x 2 a; b.

Demostracin. Supongamos que M.x/ no es cero en algn punto x0 2 .a; b/. Concre-
tamente que M.x0 / > 0. Por la continuidad de M.x/, existe un > 0 tal que

M.x0 / M.x0 /
 < M.x/  M.x0 / < para jx  x0 j < con x 2 a; b:
2 2
En consecuencia, M.x/ > M.x0 /=2 en ese intervalo. Escojamos una funcin .x/ tal
que, como se ve en la gura 7.13,
0 si a  x  a1 D mKax.x0  ; a/
.x/ D > 0 si jx  x0 j < ; x 2 a; b
0 si mKn.x0 C ; b/ D b1  x  b:

Se tiene entonces que


Z b Z b1 Z b1
1
0D M.x/.x/ dx D M.x/.x/ dx > M.x0 / .x/ dx > 0;
a ai 2 a1
150 j 7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

M( x0 )

M( x0)
2
.x/

a x 0 b x0 x 0 +b b

Figura 7.13: Lema fundamental del Clculo de Variaciones

lo cual es una contradiccin.


Si M.x0 / < 0 el argumento sera idntico sustituyendo M.x/ por M.x/. Si x0 D a
o x0 D b la demostracin sera casi igual con pequeas modicaciones en la lnea
argumental.

Corolario 7.2 El resultado del Lema 7.2.1 sigue siendo aplicable si


.a/ D .b/ D 0:

Corolario 7.3 Supngase que M.x/ es continua en el intervalo I D a; b y que


f'n .x/g1
nD1 es un conjunto de funciones base. Supngase adems que
Z b
M.x/'n .x/ dx D 0 para n D 1; 2; : : :
a

Se cumple entonces que M.x/ D 0 para todo x 2 a; b.

Lema 7.4 Sea M.x/ una funcin continua en a  x  b. Supongamos que para
cualquier funcin continua .x/, de derivada continua, se tiene que
Z b
M.x/ 0 .x/ dx D 0
a

para .a/ D .b/ D 0. Se cumple as que M.x/ D cte para todo x 2 a; b:

Lema 7.5 Sea M.x/ una funcin continua denida en el intervalo a  x  b. Su-
pongamos que para cualquier funcin continua .x/, de derivadas continuas al menos
7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 151

hasta segundo grado, se tiene que


Z b
M.x/ 00 .x/ dx D 0
a

para .a/ D .b/ D 0 y  .a/ D  0 .b/ D 0. Se cumple entonces que M.x/ D c0 Cc1 x
0

para todo x 2 a; b, donde c0 y c1 son constantes.


152 j 7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales
8-Anlisis de componentes principales j 153

8 | Anlisis de componentes principales


E L anlisis de componentes principales ACP en espaol, PCA en ingls tie-
ne como objetivo representar la informacin de n observaciones de p variables
con un nmero sustancialmente menor de unas nuevas variables construidas como com-
binaciones lineales de las originales. Sirve para hallar las causas fundamentales de la
variabilidad de un conjunto de datos y ordenarlas por importancia. Es uno de los instru-
mentos bsicos del anlisis de datos y del Big_Data que tanto inters terico y prctico
despiertan en la actualidad para explicar multitud de tendencias y comportamientos de
la vida cotidiana.
Tcnicamente el ACP busca la proyeccin del espacio original de variables en un
subespacio en el cual los datos queden adecuadamente representados en trminos de
mnimos cuadrados lineales de unos componentes principales (variables articiales in-
dependientes entre s), perdindose la menor cantidad de informacin original posible.
Comporta el clculo de la descomposicin en valores propios de la matriz de covarianza
de los datos, una vez centrados en la media de cada atributo. La PCA Es una exten-
sin inmediata de lo apuntado en la seccin 3.3.2, en la pgina 45, dedicada a valores
singulares.
El anlisis de componentes principales fue formulado por Harold Hotelling, EE.UU.
1895-1973.

Sus orgenes se remontan al trabajo sobre ajustes ortogonales por mnimos cuadrados de
Karl Pearson, Reino Unido, 1857-1936.

Como apuntbamos, permite transformar las variables originales de los datos de un pro-
blema, en general correladas, en un nmero menor de nuevas variables incorreladas,
facilitando as la interpretacin de esos datos.
154 j 8-Anlisis de componentes principales

8.1 Algunos conceptos de estadstica


Sea X 1    X n  una matriz p  n de n observaciones de p variables. La media de esta
muestra es Pn
Xi
X D i D1 :
n
La desviacin tpica, o estndar,
s
Pn
2
i D1 Xi  X
.X / D :
n
La varianza, medida de la dispersidad de la muestra, es la desviacin tpica al cuadrado,
esto es,
Pn
2
Xi  X
Var.X / D i D1 :
n
El grado de asociacin lineal ms simple de cada variable con las dems, dos a dos, es
lo que congura la matriz de covarianzas, de dimensin p  p,
Pn

2
iD1 Xi  X Yi Y
cov.X ; Y / D D :
n
Si la covarianza entre dos variables es positiva, cuando una de ellas se incrementa la otra
hace lo mismo. Si es negativa, cuando una de ellas se incrementa, la otra decrece. Si es
cero, las dos variables son independientes entre si. Los coecientes de la diagonal prin-
cipal de la matriz de covarianzas son las varianzas de cada variable individual. La matriz
de covarianzas es simtrica. La varianza total de los datos es la suma de cada varianza
individual por lo que la traza de la matriz de covarianzas es precisamente esa varianza
total. En la gura 8.1 se ilustran unos patrones de datos y las matrices de covarianzas
correspondientes.
La matriz de covarianzas es semidenida positiva, es decir, x Tcov.X ; Y /x  0 para
cualquier vector x 0.
La covarianza como medida de asociacin tiene el inconveniente de que depende de
las unidades de medida de las variables. Si por ejemplo la covarianza entre la estatura de
una persona, medida en centmetros, y su peso, en gramos, es 200, si se expresa el peso
en kilogramos, la covarianza ser 0;002. Para construir una media adimensional se divide
la covarianza por un trmino con sus mismas dimensiones. Se dene as el coeciente
de correlacin y a partir de l la matriz de correlacin, de dimensin tambin p  p,
es
cov.X ; Y /
corr.X ; Y / D D R:
.X / .Y /
Esta matriz se utiliza para estandarizar los diversos datos. Es tambin semidenida po-
sitiva.
8-Anlisis de componentes principales j 155

Figura 8.1: La matriz de covarianzas expresa la forma de los datos. La variabilidad en


torno a la diagonal la determina la covarianza mientras que alrededor de los ejes la dene
la varianza

La matriz de covarianzas y la matriz de correlacin estn relacionadas mediante la ex-


presin corr.X ; Y / D D 1 cov.X ; Y /D 1 , donde D es una matriz diagonal construida
con las desviaciones tpicas de las variables.
Una medida global escalar de la variabilidad conjunta de k variables es la varianza
generalizada, que es el determinante de la matriz de covarianzas. Mide aproximadamente
el rea, volumen o hipervolumen ocupado por el conjunto de datos.
La matriz de covarianzas o la matriz de correlacin determinar si existen altas
correlaciones entre las variables y por tanto existe informacin redundante entre ellas,
es decir, una misma informacin vista desde varios perspectivas. Cuanto mayor sea la
variabilidad de los datos (varianza), ms rica la informacin disponible.
Si
1
M D .X 1 C    C X n /
n
O k D X k  M , la matriz de covarianzas es
yX
2 3
O T1
X
6 OT 7
1hO O i6X
O n 6 :2
7
7 D 1 BB T :
cov.X ; Y / D X 1X 2    X 6 : 7
n 4 : 5 n
O Tn
X
156 j 8-Anlisis de componentes principales

8.2 Planteamiento del problema matemtico


Se trata de encontrar un subespacio de dimensin menor a p tal que al proyectar sobre
l los puntos de la muestra se conserve su estructura con la menor distorsin posible.
Para conseguirlo se construye una transformacin lineal que determina un nuevo sis-
tema ortogonal de coordenadas para el conjunto de datos original en el cual la varianza
de mayor tamao de los datos dene el primer eje primer Componente Principal ,
la segunda varianza el segundo eje y as sucesivamente. Esto se lleva a efecto mediante
la descomposicin espectral de la matriz de covarianzas,

cov.X ; Y / D  D U U T ;

donde U , U T U D U U T D I, es una matriz ortogonal p  p formada por los vectores


propios correspondientes a los valores propios 1 ;    p y D diag.1 ; : : : ; p /. Se
cumple que 1      p y que los Componentes Principales son los p vectores la de
la matriz, p  n, U T B.
El subespacio generado por los k primeros vectores propios es, de todos los posibles
del espacio de dimensin p, el que mejor representa los datos originales en trminos de
mnimos cuadrados lineales.
Si la matriz de covarianzas de los datos es diagonal las varianzas son iguales a los
valores propios de esa matriz y los vectores propios coinciden con los ejes x e y las
covarianzas son cero. Si la matriz de covarianzas no es diagonal, la covarianzas no
son cero pero los valores propios siguen indicando la magnitud de la varianza en las
direcciones ortogonales de los vectores propios, de mayor a menor, que ya no coinciden
con x e y. Esto se ilustra en la gura4 8.2 donde un mismo conjunto de datos est rotado
diversos ngulos para visualizar en qu consiste la matriz de covarianzas. La matriz de
covarianzas, desde el punto de vista del lgebra lineal, representa una transformacin
lineal. El utilizarla en estos algoritmos es como tratar de descorrelar los datos originales
para encontrar sus componentes subyacentes o principales llevar los datos a unos ejes
donde se perciba el menor ruido posible.
Para proceder numricamente con este mtodo y obtener la transformacin que se
busca primero se adaptan los datos originales para tratarlos segn convenga. Luego de
construye la matriz de covarianzas. A continuacin, como esquematiza5 el diagrama de
bloques numricos de la gura 8.3, se puede proceder de dos maneras:
Se calculan los valores propios y los correspondientes vectores propios de la matriz
de covarianzas. Luego se proyectan en esos vectores propios los datos. Una versin
de esta forma de actuar en M ATLAB sera el programa pca1 del cuadro 8.1.
Se calcula la descomposicin en valores singulares de pBn y se obtienen las varian-
zas. El programa pca2 materializa esta variante.
Como ejemplo de introduccin a este anlisis por componentes principales estudia-
mos los datos del cuadro 8.2. En l se presenta informacin sobre pisos construidos por
4 Fuente: http://www.visiondummy.com/2014/04/geometric-interpretation-covariance-matrix/.
5 Fuente: http://mengnote.blogspot.com/2013/05/an-intuitive-explanation-of-pca.html.
8-Anlisis de componentes principales j 157

Figura 8.2: Valores y vectores propios de un mismo conjunto de datos pero rotado ngulos
distintos

10 constructoras distintas en diversos lugares de Espaa. Se trata de considerar slo tres


variables X1 , X2 y X3 . La salida que proporciona una sesin de M ATLAB con los datos
de la tabla y los programas apuntados es la que se puede ver en la gura 8.4.
Como se puede ver en el listado, la matriz de covarianzas de los datos estudiados es
2 3
56;9685 5;1705 30;4775
 D 4 5;1705 0;8941 3;64795 :
30;4775 3;6479 18;7641

Los valores propios son D diag.74;3739; 2;1580; 0;0948/.


Los componentes principales de este ejemplo son

P C1 D 0;8714X1 C 0;0853X2 C 0;4832X3 ;


P C2 D 0;4798X1  0;3542X2  0;8027X3 y
P C3 D 0;1026X1 C 0;9313X2 C 0;3495X3 :
158 j 8-Anlisis de componentes principales

Figura 8.3: Esquema de la transformacin del ACP mediante descomposicin en valores


propios y descomposicin en valores singulares

Los porcentajes de variabilidad que explica cada componente principal son


74;3739 2;1580 0;0948
 100 D 97;06 %;  100 D 2;82 % y  100 D 0;12 %:
76;6267 76;6267 76;6267
Con el primer componente, y por supuesto con los dos primeros, sera suciente para
representar casi perfectamente este conjunto de datos.
8-Anlisis de componentes principales j 159

function [signals,PC,V] = pca1(data)


% Se analizan datos por Componentes Principales
% Datos: data-matriz MxN, M dimensiones y N datos
% signals: matriz MxN de datos proyectados;
% PC: componentes en columnas
% V: Mx1 matriz de varianzas
%
[~,N] = size(data);
mn = mean(data,2); data = data-repmat(mn,1,N); % datos-media
covariance = 1/N * (data*data) % Matriz covarianzas
[PC,V] = eig(covariance); % Valores y vectores propios
V = diag(V); % Diagonal principal
[~,rindi] = sort(-1*V); % Orden decreciente varianzas
V = V(rindi); PC = PC(:,rindi);
signals = PC*data; % Proyecta datos de origen
end

function [signals,PC,V] = pca2(data)


% Se analizan datos por Componentes Principales
% Datos: data-matriz MxN, M dimensiones y N datos
% signals: matriz MxN de datos proyectados;
% PC: componentes en columnas
% V: Mx1 matriz de varianzas
%
[~,N] = size(data);
mn = mean(data,2); data = data-repmat(mn,1,N); % datos-media
Y = data/sqrt(N); % matriz Y
[u,S,PC] = svd(Y); % Valores singulares
S = diag(S); V = S.* S; % Varianzas
signals = PC * data; % Proyecta datos de origen
end

Cuadro 8.1: Dos programas de M ATLAB para llevar a cabo un anlisis PCA

X1 =Duracion media X2 =Precio medio X3 =Supercie media


$POTUSVDDJO
hipoteca (a
nos) (millones euros) (m2 ) de cocina
1 8,7 0,3 3,1
2 14,3 0,9 7,4
3 18,9 1,8 9,0
4 19,0 0,8 9,4
5 20,5 0,9 8,3
6 14,7 1,1 7,6
7 18 8 2,5 12,6
8 37,3 2,7 18,1
9 12,6 1,3 5,9
10 25,7 3,4 15,9

Cuadro 8.2: Datos sobre pisos que promocionan diversas constructoras en Espaa
160 j 8-Anlisis de componentes principales

>> datos=[1 2 3 4 5 6 7 8 9 10;


8.7 14.3 18.9 19.0 20.5 14.7 18.8 37.3 12.6 25.7;
0.3 0.9 1.8 0.8 0.9 1.1 2.5 2.7 1.3 3.4;3.1 7.4 9.0 9.4 8.3 7.6 12.6 18.1 5.9 15.9]

datos =
1.0000 2.0000 3.0000 4.0000 5.0000 6.0000 7.0000 8.0000 9.0000 10.0000
8.7000 14.3000 18.9000 19.0000 20.5000 14.7000 18.8000 37.3000 12.6000 25.7000
0.3000 0.9000 1.8000 0.8000 0.9000 1.1000 2.5000 2.7000 1.3000 3.4000
3.1000 7.4000 9.0000 9.4000 8.3000 7.6000 12.6000 18.1000 5.9000 15.9000

>> [signal PC V]=pca1(datos(2:4,1:10))

covariance =
56.9685 5.1705 30.4775
5.1705 0.8941 3.6479
30.4775 3.6479 18.7641

signal =
-12.3303 -5.3219 -0.4638 -0.2687 0.5154 -4.8597 1.2482 20.0429 -7.4938 8.9318
0.8063 -0.1713 0.4326 0.5136 2.0809 -0.2107 -2.7532 1.6367 0.0756 -2.4105
-0.0723 0.2971 -0.4540 0.6069 -0.0247 0.1397 0.1627 -0.0000 -0.4252 -0.2302

PC =
0.8714 0.4798 -0.1026
0.0853 -0.3542 -0.9313
0.4832 -0.8027 0.3495

V =
74.3739
2.1580
0.0948

>> [signal PC V]=pca2(datos(2:4,1:10))


signal =
-12.3303 -5.3219 -0.4638 -0.2687 0.5154 -4.8597 1.2482 20.0429 -7.4938 8.9318
0.8063 -0.1713 0.4326 0.5136 2.0809 -0.2107 -2.7532 1.6367 0.0756 -2.4105
-0.0723 0.2971 -0.4540 0.6069 -0.0247 0.1397 0.1627 -0.0000 -0.4252 -0.2302

PC =
0.8714 0.4798 -0.1026
0.0853 -0.3542 -0.9313
0.4832 -0.8027 0.3495

V =
74.3739
2.1580
0.0948

Figura 8.4: Sesin de M ATLAB para analizar los datos sobre pisos construidos
9-Nmeros complejos, funciones e integracin j 161

9 | Nmeros complejos, funciones e integra-


cin
p C de lo p
L OS nmeros del cuerpo complejos surgen para dar sentido a races de
nmeros negativos, a2 D a 1 pues as se usan para representar modelos
y problemas en pmuchas reas de la ciencia e ingeniera. Para ello se utiliza la unidad
imaginaria i D 1.
Cualquier nmero complejo z D x C yi, donde x es la parte real e y la imaginaria
(ambas reales), se representa geomtricamente
p en el plano complejo como se ve en la
gura 9.1. El mdulo de z, jzj D r D x 2 C y 2 .

Figura 9.1: Un nmero en el plano complejo

Las operaciones elementales con nmeros complejos, si z D a C i b y w D c C id ,


son la suma, zCw D .aCc/C.bCd /i y la multiplicacin, zw D .acbd /Ci.ad Cbc/.
Como i  i D i 2 D 1, 1i D i y i.i / D 1.
El complejo conjugado de un nmero complejo z D x C iy es zN D x  iy. Slo
si z es real se cumple que z D z. Es decir, su imagen en el espejo que dene el eje x.
Adems, z C w D z C w, zw D z w y z D z. Estas frmulas se extienden a sumas
y productos de ms de don nmeros complejos y a integrales (recordemos que son el
lmite de una suma de innitos sumandos), as
Z Z
f .t/g.t/ d t D f .t/ g.t/ dt:

El cociente z=w es
z a C bi
D
w c C di
a C bi c  d i
D
c C di c  di
.a C bi /.c  d i / .ac C bd / C .bc  ad /i
D D :
c Cd
2 2 c2 C d 2
162 j 9-Nmeros complejos, funciones e integracin



En su forma polar un nmero complejo se escribe z D re i' D r cos ' C i sen ' ,
p
donde r D x 2 C y 2 y ' D arctan.y=x/. A e i' D cos ' C i sen ' se la conoce como
identidad de Euler.
La circunferencia de radio unidad en el plano complejo es el lugar geomtrico de los
nmeros complejos con r D 1 gura 9.2. Si se multiplican dos nmeros e i y e i 
de esa circunferencia,



e i e i D cos
C i sen
cos C i sen


D cos
cos  sen
sen C i sen
cos C sen cos
:
i i i i
Reordenando, y recordando que cos
D e Ce 2
y sen
D i e 2e , resulta que
e i. C /
D cos.
C / C i sen.
C /. Por tanto, el producto de dos nmeros complejos
en la circunferencia de radio unidad es otro nmero de la misma circunferencia cuyo
ngulo es la suma de los dos precedentes.
y

i
e2 = i
i
e4

e i= 1 + 0i e0= 1 + 0i
x

Figura 9.2: Circunferencia de radio unidad en el plano complejo

Los nmeros Moivre, z tales que z n  1 D 0, races n-simas de la unidad, por


Abraham de Moivre, Francia, 1667-1754,

tienen un especial inters en aplicaciones prcticas:


En la recta de nmeros reales slo hay dos: 1 y 1.
En el plano complejo hay muchos. Por ejemplo, i es una raz cuarta de 1: i 4 D
p 4
1 D .1/2 D 1.
9-Nmeros complejos, funciones e integracin j 163

Estn localizados en la circunferencia del plano complejo de radio la unidad: forman los
vrtices de un polgono regular de n lados con un vrtice en 1 como se ve en la gura 9.3
para n D 5.

+i

1 0 +1

Figura 9.3: Circunferencia de radio unidad en el plano complejo y nmeros de Moivre


para n D 5

Una raz n-sima de la unidad se denomina primitiva si no es una raz k-sima para
k < n. As, 1 es una raz segunda primitiva de la unidad y cuarta no primitiva de ella.
Visto de otra manera, la raz n-sima de la unidad es primitiva, si slo si sus k-
simas potencias, k D 0; 1; : : : ; n  1 son distintas. Las races cuartas de 1 son: 1, 1,
i, i. En el caso de 1 sus potencias de grado 0, 1, 2 y 3 son iguales; no es raz primitiva.
Para i , se calcula que las potencias de grado 0, 1, 2, 3 son, respectivamente, 1, i , 1, i ,
distintas, luego i es una raz cuarta primitiva de 1.
Lema 9.1 Sea ! una raz primitiva n-sima de la unidad y k un nmero entero. En-
tonces (
X
n1
n si k=n es un entero;
!j k D
j D0
0 en cualquier otro caso.

Es fcil ver que, para una n cualquiera, el nmero complejo !n D e i 2 =n es una


raz n-sima primitiva de la unidad (tambin lo es !n D e i 2 =n ). En la gura 9.4 se ve
la raz cuarta primitiva de la unidad, !4 D e i2 =4 , y las otras tres. Son, en general, las
potencias !4k , k D 0; 1; 2; 3. Las !nk se denominan tambin factores twiddle. Se puede
vericar que la raz n-sima de la unidad, ! D e i2 =n , con n > 1, cumple que
1 C ! C ! 2 C ! 3 C    C ! n1 D 0;
164 j 9-Nmeros complejos, funciones e integracin

i = 3 = 1 4 4
...
....
....
....................
.... ....2/4
...
.... .
42 = 42 = 1
.
...
...
...
...
...
...
...
...
...
...
...
...
..
..
...
. .
. ..
...
...
..
...
......
.........................
.. 1 = 40 = 44
....
....
....
....
....
..
i = 41 = 43
y

5 7

4 /4 0 = 8 = 1
x

i2
3 =e 8

Figura 9.4: Raz cuarta primitiva de la unidad !4 D e i2 =4 y las otras tres. Nmeros de
Moivre de n D 8

1 C ! 2 C ! 4 C ! 6 C    C ! 2.n1/ D 0;
1 C ! 3 C ! 6 C ! 9 C    C ! 3.n1/ D 0;
::
:
1 C ! n1 C ! .n1/2 C ! .n1/3 C    C ! .n1/.n1/ D 0:

Tambin que 1 C ! n C ! 2n C ! 3n C    C ! n.n1/ D 1 C 1 C 1 C 1 C    C 1 D n:


Adems, si k es un nmero entero,

X
n1 
jk n si k=n es entero,
! D
0 en otro caso.
j D0
9-Nmeros complejos, funciones e integracin j 165

9.1 Integracin. Teorema de Cauchy


Las funciones de nmeros reales se integran en intervalos. Las de nmeros complejos en
o sobre curvas y tienen muchas de sus propiedades en comn con las integrales de lnea
de los campos vectoriales
El teorema de Cauchy es una de las piezas esenciales de la teora de integracin de
las funciones de nmeros complejos.
Si hay una curva continua, simple y cerrada en el plano, , la misma separa a ese
plano en tres partes: la curva en s misma, una zona de nominada interior de , que no es
sino una regin abierta y acotada por la propia curva, y la zona exterior a , que es una
regin o conjunto no acotada ver gura 9.5.

Exterior
y

Interior
x

Figura 9.5: Interior y exterior de una curva

Nos referiremos en lo que sigue a una curva simple, continua por tramos, como ca-
mino o ruta. Un camino en un conjunto S es un camino cuya trayectoria y grca queda
enteramente dentro de S .
Un conjunto de nmeros complejos est conectado si cualesquiera dos puntos de
S son principio y nal de un camino de S . En trminos ms coloquiales esto quiere
decir que desde cualquier punto de S podemos llegar a cualquier otro, tambin de S ,
movindonos a travs de algn camino sin abandonar S . Un conjunto abierto y conectado
se denomina dominio. Por ejemplo, el cuadrante del plano x > 0, y > 0.
Un conjunto S de nmeros complejos es simplemente conexo si cualquier camino
cerrado en S encierra dentro de l puntos de S.
Teorema 9.2 Teorema integral de Cauchy. Si la funcin f es derivable en un dominio
simplemente conexo G, entonces
I
f .z/ dz D 0


para todo camino cerrado de G.


Este teorema quiere decir que f .z/ dz D 0 si f es derivable en el camino y
en todos los puntos que encierra . Las curvas o caminos se suponen orientados en el
166 j 9-Nmeros complejos, funciones e integracin

sentido contrario a las agujas del reloj.


douard Goursat Francia, 1858-1936

demostr que el teorema es vlido igualmente aunque dentro de G haya un nmero


nitos de puntos que aun siendo derivables su derivada no es continua, como se exiga
previamente. El teorema se conoce en la actualidad como de Cauchy-Goursat.
10-Anlisis de Fourier j 167

10 | Anlisis de Fourier
L AS series y polinomios de Taylor permiten aproximar funciones mediante polino-
mios, o hallan una serie de potencias que converja a una determinada funcin.
El anlisis de Fourier va en esa misma lnea de intenciones, pero aproximando la
funcin mediante combinaciones de funciones seno y coseno adecuadamente elegidas.
Lo que sigue sale bsicamente de Villanueva [2016] y Contreras [2016].
En muchas ramas de la ingeniera y de la ciencia anlisis de circuitos, tratamiento
digital de seales, compresin de imgenes y archivos digitales, etc. las funciones que
se analizan son peridicas (o van moduladas sobre funciones peridicas), es decir, existe
un perodo T > 0 tal que

f .t C T / D f .t C nT / D f .t/ para cualquier t 2 R y n 2 Z:

Conocido el valor que adopta la funcin en un intervalo de longitud T , por ejemplo el


0; T , o  T2 ; T2 , se conoce en todo R.
Ejemplos tpicos de funciones peridicas son las funciones trigonomtricas sen.t / y
cos.t /, que son peridicas con perodo 2. Las funciones sen.2t / y cos.2t / tambin tie-
nen perodo 2. En general, para w0 > 0 y n 2 N, las funciones sen.nw0 t / y cos.nwo t /
son peridicas de perodo
2
T D :
nw0
Para medir la velocidad de repeticin de una funcin con perodo T se utiliza la frecuen-
cia, a veces denominada frecuencia angular, denida por
2 2
frecuencia D D ;
perodo T
que se mide en radianes por segundo (en algunos textos la palabra frecuencia se reserva
para la inversa del perodo, 1=T , y se mide en ciclos por segundo o hertzios).
Denicin 10.1 Un polinomio trigonomtrico con perodo T y frecuencia w0 D
2=T es una funcin de la forma

1 Xn0
f .t / D a0 C an cos.nw0 t/ C bn sen.nw0 t /:
2 nD1

Es decir, una combinacin lineal de senos y cosenos que tienen un perodo comn T .
Los coecientes a0 , an y bn se denominan coecientes de Fourier del polinomio, w0
es la frecuencia fundamental y el ndice n0 , el grado del polinomio.
168 j 10-Anlisis de Fourier

10.1 Series de Fourier


Jean Baptiste Joseph Fourier, Francia, 1768-1830,

fue pionero en el anlisis de funciones peridicas para describir fenmenos fsicos. Na-
cido en Auxerre y profesor de la cole Polytechnique, en 1807 formul la ecuacin
de difusin del calor mediante ecuaciones matemticas. Concretamente, la ecuacin en
derivadas parciales (parablica):

@u 1 @2 u
D o u t D Duxx :
@t 2 @x 2
La constante D > 0 se denomina coeciente de difusin y representa la difusividad
trmica del material del cuerpo que se estudia.
Para resolver el problema de la distribucin de temperaturas en el cuerpo a partir de la
distribucin en un instante inicial necesitaba escribir la funcin que da el dato inicial co-
mo suma de una serie trigonomtrica. Este es el aspecto de sus mltiples contribuciones
al conocimiento cientco que vamos a considerar aqu brevemente.
Aunque se presenta de varias maneras segn el tipo de problema estudiado, en ge-
neral, para una funcin de periodo T , el problema consiste en, dada una funcin f .x/,
encontrar una serie trigonomtrica de Fourier
1
a0 X
C an cos.nw0 x/ C bn sen.nw0 x/ ;
2 nD1

donde w0 D 2 T
, que converja a aproximar a f .x/ en cada punto x. Para todo w0 > 0
las funciones sen.w0 x/ y cos.w0 x/ son peridicas de periodo T D w 2
0
. Si conocemos
una funcin en un intervalo de longitud T conocemos su valor en todo R.
Para determinar adecuadamente esa serie, lo primero es obtener los coecientes an y
bn . Para ello hay que usar de nuevo la nocin de ortogonalidad y el ngulo entre vectores.
Recordemos que dos vectores del espacio eucldeo ndimensional son ortogonales si se
cruzan formando un ngulo de 90 grados. Es decir, si su producto interior hji es cero:
f ? g y hf jgi D 0. La ortogonalidad y las bases ortogonales de espacios vectoriales son
el fundamento de mltiples tcnicas numricas, estadsticas y cientcas a las que nos
referimos en este libro.
Para construir el razonamiento necesitamos introducir un producto interior (escalar)
que sea conveniente para espacios de funciones de dimensin innita. Con ese objetivo
10-Anlisis de Fourier j 169

utilizaremos el del espacio de Lebesgue L2 .I /, concreta el que dene


Z
1
hf jgi D f .x/g.x/ dx
2 I
de funciones integrables en el intervalo I . La norma asociada a partir de ese producto
interior es s Z
p 1
kf k D hf jf i D f .x/2 dx:
 I

Lema 10.1 Con el producto interior (escalar) de L2 denido por


Z T
1 2
hf jgi D f .x/g.x/ dx
2  T2

la familia de funciones trigonomtricas

f1; sen.nw0 x/; cos.mw0 x/I n; m 2 Ng

satisface las relaciones de ortogonalidad

hcos.kw0 x/j cos.lw0 x/i D hsen.kw0 x/j sen.lw0 x/i D 0 para kl


p hcos.kw 0 x/j sen.lw 0 x/i D 0 para todo k; l
k1k D 2; k cos.kw0 x/k D k sen.kw0 x/k D 1 para k 0;

por lo que esa familia es ortogonal sobre  T2 ; T2 , con T D 2


w0
y para k; l  0.

Demostracin. Las frmulas de las relaciones se obtienen inmediatamente de estas in-


tegrales:

Z T
 0;
kl
2
cos.kw0 x/ cos.lw0 x/ dx D 2; k D l D 0
 T2
; k D l 0;
Z T
(
2 0; k l
sen.kw0 x/ sen.lw0 x/ dx D
 T2 ; k D l 0;
Z T
2
cos.kw0 x/ sen.lw0 x/ dx D 0
 T2

que son vlidas para todos los enteros k; l  0.


Si de momento dejamos a un lado los asuntos de convergencia, estas relaciones de
ortogonalidad permiten el clculo de los coecientes de Fourier. En efecto, tomando el
170 j 10-Anlisis de Fourier

P1interior por cos.lw0 x/, l > 0, en los dos trminos de la ecuacin f .x/ D
producto
a0
2
C nD1 an cos.nw0 x/ C bn sen.nw0 x/ se tiene que

a0
hf j cos.lw0 x/i D h1j cos.lw0 x/iC
2
1
X
C an hcos.nw0 x/j cos.lw0 x/i C bn hsen.nw0 x/j cos.lw0 x/i
nD1
D al hcos.lw0 x/j cos.lw0 x/i D al ;

obtenindose as el coeciente al . De la misma manera, operando con sen.lw0 x/ se


obtiene el coeciente bl . Tomando el producto interior en la misma ecuacin por la
funcin constante 1 se tiene que

X1
a0
hf j1i D h1j1i C an hcos.nw0 x/j1i C bn hsen.nw0 x/j1i
2 nD1
a0
D k1k2 D a0 :
2
Esta expresin de a0 explica tambin el por qu de introducir en la formulacin de la
serie el sumando a0 dividido por 2.
En consecuencia, si la serie de Fourier converge a la funcin f .x/, los coecientes
de la misma resultan de tomar productos interiores con las funciones trigonomtricas
bsicas; es decir, son
Z T
2 2
a0 D f .x/ dx
T  T2
Z T
2 2
ak D hf j cos.lw0 x/i D f .x/ cos.kw0 x/ dx; k D 0; 1; 2;   
T  T2
Z T
2 2
bk D hf j sen.lw0 x/i D f .x/ sen.kw0 x/ dx; k D 1; 2; 3;   
T  T2

Las integrales deben estar bien denidas y ser nitas. Queda por demostrar que existe
convergencia hacia f .x/.
Ejemplo 10.1 Consideremos la funcin f .x/ D x en  2 ; 2 . Calculemos los coe-
cientes de Fourier se su aproximacin por series trigonomtricas:
Z 
2 2
a0 D x dx D 0
 
2
Z    2
2 2 2 x sen.kw0 x/ cos.kw0 x/
ak D x cos.kw0 x/ dx D C D0
 
2
 k k2 xD 
2
10-Anlisis de Fourier j 171

Z   
2 2 2 x cos.kw0 x/ sen.kw0 x/ 2
bk D x sen.kw0 x/ dx D  C D
 
2
 k k2 xD  2
2
D .1/kC1 :
k
La serie de Fourier es pues
 
sen 2x sen 3x sen 4x
f .x/  2 sen x  C  C  :
2 3 4

Demostrar que es convergente (que lo es) dista mucho de ser evidente y ms de ser trivial
el hacerlo.

Ejemplo 10.2 Otro ejemplo interesante para la aplicabilidad de las series de Fourier lo
constituye la funcin escaln denida as:
(
0;  < x < 0;
f .x/ D
h; 0 < x < :

El coeciente a0 D h dado que el valor medio de f .x/ en el intervalo completo es h=2.


Los dems coecientes son
Z
1 C
an D h cos nx dx D 0
 0
y
Z C
1 h
bn D h sen nx dx D .1  cos n/;
 0 n
que simplicando es (
2h
; si n es impar,
bn D n
0; si n es par.
La serie de Fourier es pues
 
h 2h sen 3x sen 5x
f .x/  C sen x C C C  :
2  3 5

En la gura 10.1 se presenta esta funcin y los cuatro primeros trminos de la serie de
Fourier, lo que esboza el denominado fenmeno de Gibbs.

10.1.1 Expresin compleja de la serie de Fourier


Recordemos la expresin
e i D cos
C i sen
:
172 j 10-Anlisis de Fourier

1.2

0.8

0.6

0.4
f(x)

0.2

0.2

0.4

0.6

0.8
4 3 2 1 0 1 2 3 4
x
Figura 10.1: Cuatro primeros trminos de la serie de Fourier de la funcin escaln, con
h D 1, y fenmeno de Gibbs

De la misma se derivan
e i C e i e i  e i
cos
D y sen
D :
2 2i
Si f .t / es una funcin peridica de perodo T con desarrollo en serie de Fourier
1 1
a0 X X
f .t/ D C an cos.nw0 t/ C bn sen.nw0 t /;
2 nD1 nD1

sustituyendo los senos y cosenos por la expresiones anteriores se tiene que


1 1
a0 X e i nw0 t C e i nw0 t X e i nw0 t  e i nw0 t
f .t/ D C an C bn :
2 nD1
2 nD1
2i

Reordenando un poco
1
X 1
X C1
X
f .t/ D c0 C cn e i nw0 t C cn e i nw0 t D cn e i nw0 t ;
nD1 nD1 nD1

donde c0 D a0 =2, cn D .an  i bn /=2 y cn D .an C i bn /=2


Como en el caso de funciones reales denimos ahora un producto escalar de funcio-
nes complejas f; g W I  R ! C como
Z
hf jgi D f .t/g.t/ dt
I
10-Anlisis de Fourier j 173

donde z denota el complejo conjugado de z.


Las funciones f y g son ortogonales si su producto escalar (interior) es 0. La norma
2 de una funcin compleja f W I ! C es

p Z 2: 1

kf k2 D hf jf i D f .t/f .t / dt
I

Proposicin 10.2 La familia fe i nw0 t gn2Z es ortogonal en el intervalo  T2 ; T2  (o en


0; T ), donde T D w
2
0
.

Demostracin. Sea n m. Entonces


Z T Z T
2 2
he i nw0 t
je i nw0 t
iD e i nw0 t e imw0 t dt D e i nw0 t e i mw0 t dt D
 T2  T2
Z T
2
.cos nw0 t C i sen nw0 t/.cos mw0 t  i sen mw0 t / dt D 0:
 T2

Con este resultado podemos calcular los coecientes cn para representar una funcin
f W  T2 ; T2  ! C de la forma
C1
X
f .t/ D cn e i nw0 t :
nD1

Son
Z T
2
f .t/e i nw0 t dt
 T2
cn D :
T
Muchas seales se representan de manera natural como una funcin con valores reales
por ejemplo una seal sonora mientras que otras, en particular los campos electro-
magnticos, se representan como una funcin de valores complejos.

10.1.2 Convergencia de las series de Fourier


A falta de demostraciones sobre sus resultados, lo que Fourier leg fue un problema en
el que estaban implicados los conceptos de funcin integral, suma de series y tipo de
convergencia. La inuencia de este problema en el desarrollo posterior de conceptos de
anlisis matemtico ha sido muy importante.
Los intentos de probar la convergencia de la serie de Fourier aparecieron pronto.
Poisson y Cauchy publicaron sendas pruebas incorrectas. Fue Dirichlet en 1829 el que
public el primer resultado correcto.
174 j 10-Anlisis de Fourier

Denicin 10.2 Sea f W R ! R una funcin peridica de perodo T . Se dice que f


satisface las condiciones de Dirichlet si en cada perodo la funcin f W 0; T  ! R es
continua salvo un nmero nito de discontinuidades de salto y slo tiene una cantidad
nita de mximos y mnimos locales estrictos.
Prcticamente todas las funciones seales de inters en las aplicaciones cotidia-
nas verican las condiciones de Dirichlet.
Teorema 10.3 Convergencia de Dirichlet de la serie de Fourier. Sea f W I ! R una
funcin peridica de perodo T que satisface las condiciones de Dirichlet. La serie de
Fourier de f converge a f .t0 / en todo t0 2 I en el que f sea continua. En los puntos
t0 2 I en los que f no sea continua se tiene que la serie de Fourier converge al punto
medio del salto,
f .t0C / C f .t0 /
;
2
donde f .t0C / D lKm t !t C f .t/ y f .t0 / D lKm t!t0 f .t/.
0

El teorema de Dirichlet nos dice que, en los puntos de discontinuidad, la grca


de la suma de la serie de Fourier pasa por el punto medio del salto. Si se dibujan las
sumas parciales se ve que en las cercanas de los puntos de discontinuidad se reduce la
velocidad de convergencia de la serie y que la grca de la suma parcial oscila alrededor
de la grca de la funcin. Cuando se aumenta el nmero de trminos, las oscilaciones
se condensan a ambos lados del punto pero su amplitud no parece decrecer.
Esto se conoce como el fenmeno de Gibbs Josiah Willard Gibbs, EE.UU. 1839-
1903,

quien lo analiz en 1899. Este fenmeno ocurre en las proximidades de una disconti-
nuidad importante de la seal. Apunta a que no importa cuntos trminos de la serie de
Fourier se incluyan, siempre se producir un error o salto en esa discontinuidad. Ese salto
es un porcentaje adicional al valor de la seal en ese punto.
R senLa amplitud de la oscilacin
a cada lado de la grca de la funcin tiende a ser 2 1
0 t
t
dt  1  0;0895 veces el
tamao del salto: en torno al 9 % de ese salto. Consideramos la funcin onda cuadrada
de perodo 2 denida en ;  por

(
1 si  < t < 0;
f .t/ D
1 si 0 < t < 
10-Anlisis de Fourier j 175

y extendida peridicamente a R. Su serie de Fourier es


 
4 sen 3t sen 5t sen 7t sen 9t
sen t C C C C C  :
 3 5 7 9

En la gura 10.2 se ilustra esta seal de onda cuadrada y cmo las series de Fourier se
ajustan bien en todos los puntos pero es muy perceptible el salto aludido. En la gura
max n=9 quiere decir que se han incluido los trminos n D 1; 3; 5; 7 y 9 en la serie de
Fourier.
Para la convergencia en norma 2 consideramos este resultado.
Teorema 10.4 Teorema de la mejor aproximacin y convergencia en media cuadrtica
de la serie de Fourier. Sea f W I ! R una funcin peridica de perodo T que satisface
las condiciones de Dirichlet. Sea la serie de Fourier de f

X1 X1
1
f .t/  a0 C an cos.nw0 t/ C bn sen.nw0 t / D cn e i nw0 t
2 nD1 nD1

y el polinomio trigonomtrico obtenido como la suma m-sima de dicha serie:

1 Xm Xm
fm .t / D a0 C an cos.nw0 t/ C bn sen.nw0 t / D cn e i nw0 t :
2 nD1 nDm

Entonces fm es, de todos los polinomios trigonomtricos de grado m y perodo T ,


el que mejor se aproxima a f en media cuadrtica. Es decir, si gm es un polinomio
trigonomtrico de grado m distinto de fm , entonces
Z T Z T
2 2
2
jf .t/  fm .t / dt < jf .t /  gm .t /2 dt
 T2  T2

R T
y, adems, lKmm!1 2
jf .t/  fm .t /2 dt D 0.
 T2

10.1.3 Propiedades de las series de Fourier


En lo que sigue se supone que f y g son funciones peridicas de perodo T (reales
o complejas) que verican las condiciones de Dirichlet y cuyos desarrollos o series de
Fourier son, respectivamente,
1
X 1
X
f .t/ D cn e i nw0 t y g.t/ D dn e i nw0 t ;
nD1 nD1

siendo w0 D 2=T .
176 j 10-Anlisis de Fourier

1.18 1.18
1 1

t t
1 1 1 1

1 1
1.18 1.18

Gibbs: max n = 1 Gibbs: max n = 3

1.18 1.18
1 1

t t
1 1 1 1

1 1
1.18 1.18

Gibbs: max n = 9 Gibbs: max n = 33

Figura 10.2: Fenmeno de Gibbs en la onda cuadrada

10.1.3.1 Linealidad
Si p y q son nmeros complejos, entonces la serie de Fourier de pf .t / C qg.t / es

1
X
pf .t / C qg.t / D .pcn C qdn /e i nw0 t :
nD1

10.1.3.2 Traslacin en el tiempo


Si t0 es un nmero real, entonces la serie de Fourier de la funcin trasladada f .t  t0 / es

1
X 1
X
f .t  t0 / D cn e i nw0 t e i nw0 t D cn e i nw0 .t t0 / :
nD1 nD1
10-Anlisis de Fourier j 177

10.1.3.3 Escalado en el tiempo


Si p es un nmero real, entonces funcin f .pt/ es peridica de perodo T =p y frecuen-
cia pw0 . Su serie de Fourier es
1
X
f .pt/ D cn e i n.pw0 /t :
nD1

Es decir, f .t/ y f .pt/ tienen las mismas amplitudes y fases pero correspondientes a
frecuencias distintas.

10.1.3.4 Derivacin
La regla de la cadena muestra que la derivada de una funcin peridica es peridica
y tiene el mismo perodo. Si f es una funcin continua y peridica de perodo T y
su derivada f 0 verica las condiciones de Dirichlet, entonces, la serie de Fourier de f
puede derivarse trmino a trmino de manera que si
X1
1
f .t / D a0 C an cos.nw0 t/ C bn sen.nw0 t /;
2 nD1

entonces
1
X
f 0 .t / nbn w0 cos.nw0 t/  nan w0 sen.nw0 t /
nD1

para cada t 2 R.

10.1.3.5 Integracin
A diferencia de la derivacin, la integral de una funcin no necesariamente vuelve a ser
peridica. Sea f una funcin peridica con perodo T y consideremos la funcin F .t / D
Rt RT
t0 f . / d . La funcin F es T -peridica si y slo si a0 D 2=T 0 f .t / dt D 0. En
Rt
caso contrario, se tiene que la funcin t0 f . / d  1=2a0 .t  t0 / es T -peridica. Si la
funcin f verica las condiciones de Dirichlet, entonces la serie de Fourier de f puede
integrarse trmino a trmino de manera que si
X1
1
f .t / D a0 C an cos.nw0 t/ C bn sen.nw0 t /
2 nD1

y t0 ; t 2 T =2; T =2, entonces


Z t
f . / d  1=2a0 .t  t0 / D
t0
1 
X 
bn .cos.nw0 t0 /  cos.nw0 t// an .sen.nw0 t /  sen.nw0 t0 //
D C :
nD1
nw0 nw0
178 j 10-Anlisis de Fourier

10.1.3.6 Convolucin
P1
Los coecientes complejos de Fourier de la convolucin f .t /g.t / D nD1 hn e i nw0 t
son
X1 X1
hn D ck dnk D cnk dk :
kD1 kD1

10.1.3.7 Multiplicacin
Se verica que
Z T 1
X
1 2
f .t/g.t/ dt D cn dn :
T  T2 nD1

10.1.3.8 Igualdad de Parseval


Un resultado muy interesante en anlisis de Fourier es el Teorema de Parseval, por Marc-
Antoine Parseval des Chnes, Francia 1755-1836.

Fsicamente se puede leer como que la energa de una seal peridica es igual a la suma
de las energas de sus componentes. Geomtricamente se puede interpretar como una
consecuencia de una versin innito dimensional del Teorema de Pitgoras.
Proposicin 10.5 Sean f1 ; f2 2 L2 . T2 ; T2 / y .cn1 /n2Z , .cn2 /n2Z sus respectivos
coecientes de Fourier. Entonces
Z T
X
1 2
f1 .t /f2 .t / dt D cn1 cn2 ;
T  T2 n2Z

Teorema 10.6 Teorema de Parseval. Sean f 2 L2 . T2 ; T2 / y .cn1 / sus coecientes


de Fourier. Entonces
Z T
X
1 1 2
.kf k2 /2 D f .t/f .t/ dt D jcn j2 :
T T  T2 n2Z
10-Anlisis de Fourier j 179

Cuando f .t/ es una seal peridica de perodo fundamental T , la igualdad de Parseval


puede interpretarse de la siguiente manera
Z T
1 2
P D jf .t/j2 dt:
T  T2

Esta integral se denomina media cuadrtica o potencia media de f . Por ejemplo, si f .t /


representa la tensin en voltios que se aplica a una resistencia de 1 ohmio, entonces la
potencia media de f coincide con la potencia elctrica media (energa por unidad de
tiempo medida en watios) disipada por la resistencia en cada perodo. Ahora bien, la
potencia media de cada uno de los armnicos presentes en la seal es
Z T
1 2 1 2
P0 D a0 =22 dt D a ;
T  T2 4 0
ZT
1 2 1 2
Pn D an cos.nw0 t/ C bn sen.nw0 t /2 dt D b D 2jcn j2 ;
T  T2 2 n

para n D 1; 2; : : : La igualdad de Parseval nos dice que la potencia mediaPde la seal


es la suma de las potencias medias de sus componentes armnicos, P D 1
P nD0 Pn D
1
nD1 jcn j2
. Por eso, la representacin de los valores jc n j2
cuando situamos las fre-
cuencias en el eje de abcisas se llama espectro discreto de potencias.

10.2 La Transformada de Fourier


Lo visto hasta ahora sobre anlisis de Fourier se aplicaba al estudio de funciones peri-
dicas, o funciones denidas en un intervalo a; b. Para ciertas aplicaciones esto no es
suciente y necesitamos estudiar funciones f W R ! R C no peridicas. Este tipo
de funciones no puede ser representado por medio de una serie de Fourier, pero si por
medio de una integral de Fourier. Un ejemplo tpico es la funcin f W R ! R dada por
(
1 si t 2  12 ; 12 
f .t/ D
0 si jtj > 12 :

La idea, ms o menos intuitiva, que utiliz Fourier fue considerar una funcin no
peridica como una funcin peridica de perodo innito, lo que le llev a representarla
no como una serie cuyos trminos corresponden a mltiplos de la frecuencia fundamental
0; w; 2w; 3w; : : : ; sino como una integral cuya variable de integracin es una frecuencia
que se mueve de manera continua.
CuandoP hablbamos del espectro de una funcin peridica, representada por una serie
de Fourier n cn e i nw0 t , con la frecuencia fundamental w0 D 2=T , apuntbamos que
los coecientes cn podan ser entendidos como una funcin c.w/ W R ! C( R/ que
toma valores distintos de 0 slo en los puntos w D nw0 , con n 2 Z , en los que vale cn .
180 j 10-Anlisis de Fourier

Al hacer tender el perodo T a innito, la frecuencia fundamental, w0 , tiende a 0, por


lo que los puntos nw0 los armnicos estn cada vez ms prximos. Parece razonable
pensar que en el lmite el espectro se hace continuo, por lo que podemos denir c.w/
para todo w. Las amplitudes cn D c.nw0 / tendern tambin a 0.
Concretando, sea f .t / una funcin peridica de perodo T . Su serie de Fourier es
1
X
f .t/ D cn e i nw0 t ;
nD1

donde
Z T
1 2 2
cn D f .t/e i nw0 t dt y w0 D :
T  T2 T
Sustituyendo estas dos expresiones en la serie
1 Z !
X 1
T
2
i nw0 x
f .t/ D f .x/e dx e i nw0 t D
nD1
T  T2
1 Z !
X 1
T
2
i nw0 x
D f .x/e dx w0 e i nw0 t :
nD1
2  T2

Recordando la denicin de integral de Riemann y el paso de las sumas de Riemann


a la integral, si tenemos una funcin h W a; b ! R integrable y suponemos elegida
una particin equiespaciada P .w0 / D fa D x0 ; x1 ; : : : ; xk D bg de a; b en la que
xi  xi 1 D w0 para cada i 2 f1; : : : ; kg, tenemos que

X
k Z b
lKm h.a C nw0 /w0 D h.t / dt:
w0 !0 a
nD1

Con esto en la memoria y volviendo a la ltima expresin de f .t /, llamemos


Z T !
1 2
iwx
h.w/ D f .x/e dx e iwt :
2  T2

Haciendo el paso a una integral impropia tenemos que, cuando w0 tiende a 0 o cuando
T tiende a innito
Z 1 Z C1 
1
f .t/ D f .x/e iwx dx e iw t dw:
2 1 1

Si se dene la transformada de Fourier F.w/ de f como


Z C1
F.w/ D f .t/e iwx dt;
1
10-Anlisis de Fourier j 181

entonces Z 1
1
f .t/ D F.w/e iwx dt:
2 1

Denicin 10.3 Sea f W R ! R ( C). Su transformada integral de Fourier es una


funcin
F.f / D F W R ! C
dada por Z 1
F.f /.w/ D F.w/ D f .t /e iwt dt:
1

Denicin 10.4 Sea F W R ! C. Su transformada inversa de Fourier es una funcin

F 1 .F/ W R ! R . C/

dada por Z 1
1 1
F .F/.t/ D F.w/e iwt dt:
2 1

10.2.1 Propiedades de la transformada de Fourier


Las que siguen son algunas de sus propiedades y resultados ms interesantes. En cual-
quier caso, hay que tener en cuenta que la transformada de Fourier viene denida por
una integral impropia que puede ser convergente o no serlo.
Teorema 10.7 Sea f 2 L2 .R/. Entonces existe la transformada de Fourier de f y es
una funcin F W R ! C.
La condicin f 2 L2 .R/ es suciente pero no necesaria para la existencia de la
transformada F. Algunas propiedades bsicas de la transformada de Fourier son las que
siguen:

10.2.1.1 Linealidad
Si f; g 2 L2 .R/ y ; 2 R, entonces F.f C g/ D F.f / C F.g/.

10.2.1.2 Escalado en el dominio del tiempo


Si 0 2 R, f 2 L2 .R/ y g.t/ D f .t/ entonces

1 w 
F.g/.w/ D F.f / :
jaj a
182 j 10-Anlisis de Fourier

10.2.1.3 Desplazamiento en el dominio de la frecuencia


Si g.t/ D f .t/e it entonces F.g/.w/ D F.f / .w  /.

10.2.1.4 Desplazamiento en el dominio del tiempo


Si f 2 L2 .R/, t0 2 R y g.t/ D f .t  t0 / entonces F.g/.w/ D F.f /.w/e iwt0 .
Los dos resultados que siguen son interesantes para la resolucin de ecuaciones dife-
renciales pues garantizan el buen comportamiento de la transformada de Fourier.
Proposicin 10.8 Sea f W R ! R una funcin derivable que admite transformada
de Fourier F.f / y tal que lKm t!1 f .t/ D 0 (esta condicin se verica siempre que
f 2 L2 .R/). Entonces F.f 0 /.w/ D iwF.f /.w/.

Teorema 10.9 Si f 2 L2 .R/ entonces F.f / es continua y

lKm F.f /.w/ D 0:


w!1

Aunque f 2 L2 .R/ puede no ser continua, su transformada siempre lo es. El hecho


de que
lKm F.f /.w/ D 0
w!1

indica que, para cualquier seal, la amplitud de sus componentes en frecuencia tiende a
0 cuando la frecuencia tiende a innito.
Teorema 10.10 Inversin. Si f 2 L2 .R/ entonces F.f / 2 L2 .R/ y adems la fun-
cin Z 1
1
g.t/ D F.f /.w/e iw t dw;
2 1
la transformada inversa de la transformada de f , verica que f .t / D g.t/ en casi todo
punto.
La expresin en casi todo punto tiene un signicado matemtico muy preciso.
Quiere decir que f .t/ D g.t/ excepto en, a lo sumo, un conjunto de medida cero.
Aunque esto habra que desarrollarlo un poco ms, la idea intuitiva es que cualquier in-
tervalo no vaco no es de medida cero, mientras que un slo punto, o una cantidad nita,
o incluso numerable, de puntos, s forman un conjunto de medida cero. Por tanto, el teo-
rema de inversin nos dice que si tomo una funcin f 2 L2 .R/, hallo su transformada
de Fourier F.f / y a continuacin hallo la transformada inversa de F.f /, entonces re-
cupero f salvo quizs en unos pocos puntos, que no van a tener ninguna importancia en
la gran mayora de las aplicaciones. Esto es lo que nos permite decir que no perdemos
informacin al considerar F.f / en lugar de f , puesto que podemos recuperar f (salvo
quizs en unos pocos puntos) a partir de F.f /.
10-Anlisis de Fourier j 183

Denicin 10.5 Sean f; g W R ! R. Se dene su convolucin f


g como
Z 1
.f
g/.x/ D f .x  y/g.y/ dy;
1

siempre y cuando la integral impropia exista.

Teorema 10.11 Sean f; g 2 L2 .R/. Entonces f


g existe, f
g 2 L2 .R/ y adems
1. F.f
g/.w/ D F.f /.w/  F.g/.w/ para todo w 2 R.
2. F.f  g/.w/ D F.f /.w/
F.g/.w/ para todo w 2 R.
Estos ltimos resultados tienen una importancia fundamental para la realizacin de
ltros en frecuencia, que permitan, dada una seal, quedarnos con sus componentes en
cierto rango de frecuencias y desechar las dems. Junto con el teorema de Nyquist, o
teorema de muestreo, que proporciona informacin esencial para el paso de una seal
analgica, o continua, a una seal digital, conforman la base para el estudio y procesado
digital de seales DSP, digital signal processing.

10.2.2 La Transformada de Fourier discreta


La Transformada de Fourier discreta se reere al tratamiento de funciones discretas en
el tiempo y frecuencia. Su objetivo es transformar una sucesin discreta de valores, fn ,
n D 0; : : : ; N  1, en otra Fk , k D 0; : : : ; N  1.
Las sucesiones objeto de anlisis pueden ser el resultado de un registro de una seal
propiamente dicha, con valores peridicos, o el resultado de una seal continua que se ha
digitalizado. Esto ltimo consiste en muestrearla, o samplearla, es decir, no quedarse
con toda la seal sino con la sucesin de valores de la seal tomados cada T segundos
(este es el caso del muestreo uniforme en el tiempo), aunque para ciertas seales puede
ser ms interesante un muestreo no uniforme. En la gura 10.3 se ve una muestra de esta
idea.

 7 7 7 7 7 1 7

Figura 10.3
184 j 10-Anlisis de Fourier

Denicin 10.6 Para un vector de coecientes reales, x D x0 ; x1 ; : : : ; xn1 T , su


Transformada de Fourier Discreta, TFD, es el vector n-dimensional y D y0 , y1 ,
: : : ; yn1 T tal que
1 X
n1
yk D p xj ! j k ;
n j D0

donde ! D e i2 =n .
De acuerdo con el Lemap 9, de la pgina 163, la transformada de Fourier discreta de
x D 1, 1, : : : ; 1T es y D n, 0, : : : ; 0T .
En forma matricial, la denicin dice que
2 3 2 3 2 32 3
y0 a0 C i b0 !0 !0 !0    !0 x0
6 y 7 6 a C ib 7 6! 0 ! 1 !2  ! n1 7 6 7
6 1 7 6 1 1 7 6 7 6 x1 7
6 7 6 7 6 0 2 !4  ! 2.n1/ 7 6 7
6 y2 7 D 6 a2 C i b2 7 D p1 6! ! 7 6 x2 7.
6 : 7 6 7 n6 : 7 6 7
6 : 7 6 :: 7 6 : :: :: :: 7 6 :: 7
4 : 5 4 : 5 4 : : : : 54 : 5
2
yn1 an1 C i bn1 !0 ! n1 ! 2.n1/    ! .n1/ xn1
A la matriz simtrica
2 3
!0 !0 !0    !0
6! 0 ! 1 !2    ! n1 7
6 7
6! 0 2 !4    ! 2.n1/ 7
Fn D p1n 6
6 :
! 7
7
6 : :: :: :: 7
4 : : : : 5
2
!0 ! n1 ! 2.n1/    ! .n1/
se la denomina matriz de Fourier. Todas sus las y columnas, excepto las primeras,
suman cero. La inversa de la matriz de Fourier es
2 0 3
! !0 !0  !0
6! 0 ! 1 ! 2    ! .n1/ 7
6 7
6 0 2 ! 4    ! 2.n1/ 7
Fn1 D p1n 6!
6 :
! 7
7
6 : :: :: :: 7
4 : : : : 5
2
! 0 ! .n1/ ! 2.n1/  ! .n1/

y la Transformada Discreta de Fourier inversa de y es x D Fn1 y.


El algoritmo por excelencia para calcular la transformada de Fourier discreta es el co-
nocido por Transformada Rpida de Fourier FFT, debido a James William Cooley,
EE.UU. 1926 y John Tukey, EE.UU. 1915-2000.
10-Anlisis de Fourier j 185

Las frmulas para el clculo de la transformada de Fourier discreta son generales y


se pueden aplicar a cualquier conjunto de datos fx0 ; x1 ; x2 ; : : : ; xn1 g, sin que necesa-
riamente provengan del muestreo de una seal continua.
Volviendo a ese muestreo de seales continuas, su digitalizacin, o sampleo, tiene
una ventaja evidente, que permite trabajar con una sucesin de nmeros en lugar de
con toda la seal, lo que es muy til sobre todo para el tratamiento digital de la seal.
Tambin un inconveniente obvio, la seal muestreada no contiene, en principio, toda la
informacin que haba en la seal original. Parece claro que cuantas ms muestras por
segundo se tomen (esto es, cuanto menor sea T ) menos informacin se perder, pero
tambin costar ms muestrear, almacenar y manipular la informacin. Entonces cul
es intervalo de muestreo que debemos usar? La respuesta a esto la da el teorema de
Nyquist-Shannon, que veremos a continuacin.
Antes, veamos un ejemplo concreto muy prximo en nuestro devenir cotidiano: un
CD de msica. Hasta hace no muchos aos la msica se almacenaba siempre en vinilo
o en cinta magntica, y ambos soportes partan de una seal analgica y almacenaban
tambin una seal analgica. El progreso de la tecnologa y la relativamente baja calidad
y durabilidad de ambos soportes llevaron a plantearse el almacenamiento digital de la
msica en forma de CD, ya que el soporte fsico es muchsimo ms duradero y el tra-
tamiento de la seal digital ms verstil. El problema una vez ms es a qu velocidad
hemos de muestrear una seal sonora para que la seal muestreada sea de la mxima
calidad?
Primero un par de consideraciones biolgicas: nuestro odo oye en frecuencias (al
igual que nuestros ojos ven en frecuencias) y est limitado en frecuencia: nadie oye
seales de frecuencia superior a 20KHz, al igual que nadie ve luz infrarroja o ultravio-
leta. Este lmite no es comn a todos los animales: algunos, como ratas y perros tienen
la capacidad de or seales de frecuencia superior, y los famosos ultrasonidos usados
en ocasiones para intentar ahuyentar ratas no son sino sonidos de frecuencia superior a
20KHz y gran volumen, que nosotros no omos pero ellas s. Esta limitacin de nuestro
odo tiene consecuencias prcticas: si consideramos una seal sonora y le quitamos sus
componentes de frecuencias superiores a 20 KHz, nuestros odos no son capaces de per-
cibir ninguna diferencia entre ambas seales. Por tanto la respuesta a la pregunta anterior,
a qu velocidad hemos de muestrear una seal sonora para que la seal muestreada sea
gran calidad?, es A la velocidad necesaria para mantener las componentes de la seal
de frecuencias inferiores a 20 KHz. Y aqu es donde interviene por n el teorema de
Nyquist-Shannon.
Teorema 10.12 Teorema de Nyquist-Shannon. Sea f W R ! C una seal que admite
transformada de Fourier F (lo que ocurre por ejemplo si f 2 L2 .R/). Si F.!/ D 0
para todo ! > !M D 2fM entonces se puede determinar f en casi todo punto por
medio de sus valores separados por intervalos uniformes menores que 2f1M segundos.

Este teorema es fruto del trabajo de Harry Nyquist, Suecia 1889-EE.UU. 1976 y
186 j 10-Anlisis de Fourier

Claude Elwood Shannon, EE.UU. 1916-2001.

Al parecer, no obstante, cientcos como E. T. Whittaker, Vladimir Kotelnikov y otros


estaban trabajando tambin sobre este mismo asunto, por lo que en algunos casos se
referencia en la literatura especializada como teorema de Nyquist-Shannon-Kotelnikov,
Whittaker-Shannon-Kotelnikov o Whittaker-Nyquist-Kotelnikov-Shannon, adems de
teorema cardinal de interpolacin.
A partir de este teorema se puede demostrar que la manera de recuperar f .t /, a partir
de los datos muestreados y el resultado, es
1
X sen !M .t  nT /
f .t/ D f .nT / ;
nD1
!M .t  nT /

para el caso de que !M D 2fM y T D 2f1M .


Est demostrado que para evitar el fenmeno conocido como aliasing efecto que
causa que seales continuas distintas se tornen indistinguibles cuando se muestrean
digitalmente es necesario asegurarse de que en la seal analgica a muestrear, con
una frecuencia fs , no tenga componentes sinusoidales de frecuencia mayor a fs =2. Esta
condicin es llamada el criterio de Nyquist, y es equivalente a decir que la frecuencia de
muestreo fs s debe ser al menos dos veces mayor que el ancho de banda de la seal. En
la gura 10.4 se ven dos sinusoides que pueden ser representados por la misma muestra
y que dara lugar al efecto aliasing.

Figura 10.4

El Teorema de Nyquist indica que la frecuencia de muestreo mnima que tenemos que
utilizar debe ser mayor que 2fM (frecuencia crtica de Nyquist), donde fM es la frecuen-
cia mxima de la seal compleja. Si utilizamos esa frecuencia de muestreo, podremos
10-Anlisis de Fourier j 187

reproducir posteriormente la seal a partir de las muestras tomadas. En la prctica, debi-


do a las limitaciones de los circuitos, la utilizacin de una frecuencia ms alta que la que
nos dice Nyquist permite obtener una representacin ms exacta de la seal de entrada.
188 j 10-Anlisis de Fourier
11-La Transformada del coseno discreta j 189

11 | La Transformada del coseno discreta


A lo largo de este libro estamos constatando lo til que es el concepto de ortogona-
lidad par representar y comprimir datos de diversos tipos.
La Transformada del coseno discreta DCT o TCD se utiliza habitualmente para
la compresin de imgenes y vdeo. Los formatos JPEG, MP3 y AAC son conocidos,
para compresin de imgenes, audio y vdeo, y utilizan esencialmente las tcnicas de la
transformada del coseno discreta.
La transformada del coseno discreta es una transformada basada en la de Fourier dis-
creta que utiliza nicamente nmeros reales. Aunque la parte real de la TFD y la TCD
estn relacionadas, la DCT no es la parte real de la TFD. Como la TFD, la TCD consiste
en dividir una seal (discreta) en la suma de una serie de funciones (tambin discretas)
ponderadas por unos coecientes. Estas funciones, llamadas funciones base, son ortogo-
nales y por tanto independientes (no existe la posibilidad de que una de estas funciones
pueda representarse a travs de una combinacin de las dems, sin embargo, el conjunto
completo pueden representar cualquier seal cuando se ponderan mediante coecientes
y se suman entre si). Las funciones base slo dependen del nmero de muestras de la se-
al, y jado ste las funciones base siempre son iguales. El conjunto de coecientes que
ponderan las funciones base son el resultado de la transformacin directa. Al proceso de
reconstruir la seal a partir de los coecientes de la transformada directa se denomina
transformacin inversa.
La diferencia entre la TFD y la TCD es que sta utiliza nicamente funciones coseno,
y por lo tanto sus coecientes son nmeros reales. Formalmente, la transformada de
coseno discreta unidimensional es una funcin lineal invertible de Rn en Rn , equivalente
a una matriz cuadrada n  n ortogonal de coecientes reales.
Existen ocho variantes diferentes de TCD unidimensionales. Las utilizadas en com-
presin de imgenes son la DCT-II, cuya inversa es la DCT-III, tambin llamadas trans-
formada directa del coseno, FDCT Forward Discrete Cosine Transform, y transfor-
mada inversa del coseno, IDCT Inverse Discrete Cosine Transform, respectivamen-
te.
La transformada de coseno discreta unidimensional es una funcin lineal f W RN !
R , equivalente a una matriz cuadrada N  N , invertible, que transforma un vector x D
N

x0 ; : : : ; xN 1 > en otro y D y0 ; : : : ; yN 1 > de acuerdo con las siguientes frmulas:


DCT-I

1  NX h  i
2
k
yk D x0 C .1/ xN 1 C xn cos nk ; k D 0; : : : ; N  1:
2 nD1
N 1
190 j 11-La Transformada del coseno discreta

DCT-II
X
N 1    
 1
yk D xn cos nC k ; k D 0; : : : ; N  1:
nD0
N 2
DCT-III
X
N 1   
1  1
yk D x 0 C xn cos n kC ; k D 0; : : : ; N  1:
2 nD1
N 2

DCT-IV
X
N 1    
 1 1
yk D xn cos nC kC ; k D 0; : : : ; N  1:
nD0
N 2 2

Tambin existen frmulas DCT de V a VIII, para otras tantas transformaciones.


La transformacin se puede expresar matricialmente de la forma

y D C x:

Para que la matriz C sea una matriz ortonormal (y por tanto su inversa coincida con
su transpuesta) se han de multiplicar las ecuaciones anteriores por unos coecientes de
escalado y normalizacin que pueden depender de k y n. Para la DCT-II son
   ( 1
 1 p si j D 0
ck n D w.k/ cos k nC ; con w.k/ D N
N 2 p 2
si j 0:
N

Se pueden componer dos (o ms) grupos de funciones bsicas para crear transfor-
madas de dos (o ms) dimensiones. La DCT bidimensional (DCT-2D) es una funcin
lineal invertible de RN N ! RN N que descompone el bloque de imagen en una suma
de frecuencias espaciales. Los coecientes ykl de la DCT para bloques xij de 8  8 se
expresan como:
   
c.k/c.l/ X X
7 7
.2i C 1/k .2j C 1/l
ykl D xij cos cos ;
4 16 16
i D0 j D0
(
1
si x D 0
donde k; l D 0; 1; : : : ; 7 y c.x/ D 2 : Su inversa, IDCT-2D,
1 si x 0

X
7 X
7    
c.k/c.l/ .2i C 1/k .2j C 1/l
xij D ykl cos cos :
4 16 16
kD0 lD0

El bloque de coecientes de la DCT est ordenado de modo que la componente continua


corresponde al elemento y00 y la frecuencia espacial crece con los ndices k y l siendo
y77 el coeciente correspondiente a la mayor frecuencia.
11-La Transformada del coseno discreta j 191

En la gura 11.1 se representa un conjunto de 64 funciones base bidimensionales


(imgenes base) que se generan multiplicando un conjunto de funciones base unidimen-
sionales de ocho puntos (N=8) orientadas horizontalmente, por un conjunto verticalmen-
te orientado de las mismas funciones. Las imgenes base orientadas horizontalmente
representan las frecuencias horizontales y las orientadas verticalmente representan las
frecuencias verticales. La la superior y la columna de la izquierda tienen variaciones de
intensidad en una sola dimensin. Para propsitos de ilustracin, un gris neutro represen-
ta cero en estas guras, el blanco representa amplitudes positivas, y el negro representa
amplitudes negativas.

Figura 11.1

La ventaja que tiene la DCT frente a la DFT para la compresin de imgenes, a parte
de solo utilizar nmeros reales, es que produce una mejor compactacin de la energa
(consigue concentrar la mayor parte de la informacin en pocos coecientes) y un menor
efecto de bloque. Este efecto se esquematiza en la gura 11.2.
El efecto de bloque se produce cuando se divide la imagen en bloques de 88 pxeles
o macrobloques de 16  16 pxeles para poder ejecutar los algoritmos de transformacin.
Cuando se lleva a cabo la DFT del bloque, se asume la periodicidad del mismo (que se
repite a lo largo de todo el plano bidimensional que contiene la imagen). En la trans-
formada de Fourier el pxel B del borde derecho ser tratado por el algoritmo como si
estuviera seguido por el pxel A. Si los niveles de gris en cada pxel dieren considera-
blemente cualquier reconstruccin del bloque a partir de nicamente un nmero limitado
de coecientes de Fourier dar lugar a valores errneos en A y B. Este fenmeno es lo
que se conoce como efecto de bloque, que tiende a hacer muy visibles los lmites de los
bloques en la compresin, especialmente cuando la proporcin de compresin es eleva-
da. Sin embargo, mientras que la teora de Fourier implica la repeticin de los bloques
LxL, la teora de la DCT impone esta repeticin sobre bloques 2Lx2L, que estn relacio-
nados con los bloques originales LxL a travs de simetras especulares. La consecuencia
192 j 11-La Transformada del coseno discreta

Figura 11.2: Compactacin de la energa de una TCD comparada con una TFD

de esta simetra especular es que despus del pxel B, le sigue otro pxel B, eliminando
as la discontinuidad, esto provoca una reduccin considerable del efecto de bloque. En
la gura 11.3 se muestra la periodicidad de un bloque 4  4 en la TFD y la TCD.

Bloque de A B A B Rplica de pixels debido


pixels 4x4 a la periodicidad de la DFT

(a)

2L
L
A B B A

2L

(b)

Figura 11.3: Periodicidad supuesta de un bloque 4  4 de una TFD (a) y una TCD (b)

La transformacin lineal ptima que minimiza el error cuadrtico medio entre la


imagen original y la imagen recuperada (despus de transformar y comprimir la imagen)
es la transformada de Karhunen-Love (KLT). La KLT realiza una descomposicin de
componentes principales (PCA) de los bloques de la imagen, por lo que las funciones
bases (y la matriz de la transformacin) dependen de las propiedades estadsticas de
la imagen. Las funciones base (y su matriz de transformacin) de la DCT dependen
11-La Transformada del coseno discreta j 193

nicamente del orden N. Por lo que como se mencion antes, jado el nmero de puntos
estas son siempre iguales sea cual sea la imagen. Una de las ventajas de la DCT es que
siendo ja la transformacin su eciencia de compresin se aproxima a la de la KLT (la
ptima) para imgenes con alto grado de correlacin espacial.
194 j 11-La Transformada del coseno discreta
12-La Transformada de Laplace j 195

12 | La Transformada de Laplace
E NUNCIADA por Pierre-Simon Laplace, Francia, 1749-1827,

esta transformada integral es similar a la de Fourier. Mientras sta es una funcin com-
pleja de una variable real, la frecuencia, la de Laplace es una funcin compleja de una
variable compleja.
Denicin 12.1 Dada una funcin f .t/ denida en 0; 1/, su Transformada de La-
place es la funcin Z 1
F .s/ D Lff g D e st f .t / dt:
0

La transformada de Laplace es un operador: denido para funciones y que transforma


funciones en otras funciones. En general s es una variable compleja.R Como la integral de
c
la denicin es impropia, al evaluarla hay que considerar lKmc!1 0 e st f .t / dt.
La transformada de Laplace mejora algunas de las prestaciones de la Transformada
de Fourier al no exigir que la seal f .t/ sea absolutamente integrable. La Transformada
de Laplace es invertible en un gran nmero de funciones.
Ejemplo 12.1 Consideremos la funcin f .t/ denida por
(
0 si t < 0
f .t/ D at
Ae si t  0:

Su transformada de Laplace es
Z 1
Lff .t/g D Ae at e st dt
0
Z 1
D Ae .sCa/t dt
0
1
e .sCa/t A
A D ;
.s C a/ sCa
0
196 j 12-La Transformada de Laplace

supuesto que s C a > 0. Es decir se lleva a cabo la correspondencia


A
Ae at .t  0/ , :
sCa

Ejemplo 12.2 Sea ahora f .t/ D 1. La transformada de Laplace es


Z 1 1
1 1
Lf1g D e st dt D  e st D :
0 s 0 s

Ejemplo 12.3 Sea ahora f .t/ D t . La transformada de Laplace es


Z 1 1 Z
t 1 1 st 1
Lft g D e st t dt D  e st C e dt D 2 :
0 s 0 s 0 s

Algunas funciones tiles para ingeniera y control de procesos, y sus transformadas


de Laplace, se listan en la tabla del cuadro 12.1.
La Transformada de Laplace hace sombra a la de Fourier en algunas aplicaciones
ingenieriles como el control de procesos industriales, el anlisis de sistemas lineales,
la electrnica industrial y otros anes. Su uso y estudio est ampliamente extendido
para ayudar a entender problemas donde las funciones que surgen estn denidas en
un tiempo nito y estn acotadas. Tambin para integracin numrica de ecuaciones
diferenciales ordinarias.
El operador transformada de Laplace permite transformar un problema de funciones
en un problema de sus respectivas transformadas. ste se resuelve si se puede mediante
ecuaciones algebraicas y despus se vuelve hacia atrs (problema inverso) recobrando
la solucin original ahora en funciones. Por ejemplo, la transformada de Laplace per-
mite cambiar el dominio tiempo por el dominio frecuencia en problema de ecuaciones
diferenciales, convirtindolo en ecuaciones lineales, la convolucin en multiplicacin,
etc.
Para terminar con una osada comparativa rpida general:
La transformada de Laplace mapea o transforma una funcin en otra en el plano
complejo con variable compleja; la de Fourier transforma una funcin en otra com-
pleja con variable real (la frecuencia).
La transformada de Laplace se usa para estudios de estabilidad de seales y siste-
mas mientras que la de Fourier para analizar el comportamiento de sistemas ante
entradas sinusoidales.
La primera para seales permanentes; la segunda para seales dinmicas o transi-
torias.
La transformada de Fourier se usa para integrar ecuaciones diferenciales de pro-
blemas de contorno en la recta real; la de Laplace para problemas de valor inicial.
12-La Transformada de Laplace j 197

f .t/; t 2 0; 1/ Lff g

1
1 s

e at ; a 2 R 1
sa

t n; n 2 N n
s nC1

sen wt; w 2 R w
s 2 Cw 2

cos wt; w 2 R s
s 2 Cw 2

senh wt; w 2 R w
s 2 w 2

cosh wt; w 2 R s
s 2 w 2

e at sen wt; a; w 2 R w
.sa/2 Cw 2

e at cos wt; a; w 2 R sa


.sa/2 Cw 2

t sen wt; w 2 R 2ws


.s 2 Cw 2 /2

s 2 w 2
t cos wt; w 2 R .s 2 Cw 2 /2

Cuadro 12.1
198 j 12-La Transformada de Laplace
13-Clculo estocstico y simulacin j 199

13 | Clculo estocstico y simulacin


U N proceso estocstico o aleatorio se puede concebir en trminos de variables alea-
torias ligadas al paso del tiempo (en la escala que sea), o a la ubicacin en el
espacio. Muchos modelos matemticos de realidades econmicas, fsicas, ambientales,
sociales, nancieras o ingenieriles consideran cantidades que cambian aleatoriamente
con el paso del tiempo. Tales modelos se suelen formular y analizar en trminos de pro-
cesos estocsticos.
En este apartado perseguimos dos objetivos. El primero es proporcionar al lector
cierta base terica sobre procesos estocsticos y espacios de probabilidad, que se usan
para modelizar matemticamente fenmenos aleatorios en el tiempo o el espacio, y sus
herramientas de clculo bsicas. El segundo, repasar algunos fundamentos matemticos
de los algoritmos ms usados para generar muestras con las que utilizar o analizar esos
modelos. Sigo esencialmente a Nualart [2017] y Sauer [2012].

13.1 Variables aleatorias y espacios de probabilidad


Cada resultado posible de un experimento o experiencia aleatoria, !, es un evento o
suceso elemental. El conjunto de todos los posibles sucesos es el conjunto muestral,
designado habitualmente por .
Ejemplo 13.1 En una sucesin de clculos realizados con un ordenador observamos los
primeros 9 dgitos no tenidos en cuenta al truncar los resultados de las operaciones con
una cierta cifra decimal. En este caso el conjunto muestral es  D f.a1 ; : : : ; ak / W ai 2
Z; 0  ai  9g.
Ejemplo 13.2 Se lanza un dado varias veces y se cuenta el nmero de lanzamientos
hasta que salga el 6 por primera vez. En este caso el conjunto muestral es el conjunto de
nmeros naturales, N. Es decir  D f1; 2; 3; : : :g.
Ejemplo 13.3 Si se mide la presin y la temperatura en una estacin meteorolgica,
 D f.p; t / W p > 0; t 2 Rg.
En la prctica, al realizar un experimento, suele interesar saber si algn subconjunto
de sucesos de  se repite o se da bajo distintas formas. Interesa por lo tanto en considerar
familias de subconjuntos de , signicadas por F.
Denicin 13.1 Una familia F de subconjuntos de un conjunto muestral  se dice
que tiene una estructura de  -lgebra si satisface estas condiciones:
1. ; 2 F;
2. Al realizar un experimento algo ocurre, es decir  2 F. A  se le denomina
200 j 13-Clculo estocstico y simulacin

evento o suceso cierto;


3. Si A 2 F su complemento Ac (no ocurre A), tambin pertenece a F: Ac 2 F;
4. Si los sucesos A1 ; A2 ; : : : ; An ; : : : ocurren, el suceso ocurre alguno
S de los An
tambin es un suceso o evento. Es decir, A1 ; A2 ; : : : 2 F H) 1 iD1 i 2 F.
A

Denicin 13.2 La  -lgebra generada por los conjuntos abiertos de Rn se denomina


 -lgebra de Borel de Rn , representndose por BRn .
Debe su nombre a Flix douard Justin mile Borel, Francia 1871-1956.

Ahora denamos el entorno general de probabilidad en el que nos vamos a enmarcar.


Denicin 13.3 Un espacio de probabilidad es una terna .; F; P / formada por
I Un conjunto muestral  que representa el conjunto de posibles resultados de un
experimento aleatorio.
II Una familia F de subconjuntos de  que tiene estructura de  -lgebra.
III Una aplicacin P W F ! 0; 1, denominada probabilidad, que cumple que:
a) P .;/ D 0, P ./ D 1.
b) Para todo A 2 , P .A/  0. La probabilidad de un suceso cualquiera A
es un nmero real no negativo.
c) Si A1 ; A2 ; : : : 2 F son conjuntos disjuntos dos a dos (es decir, Ai \Aj D ;
si i j ), entonces
1
! 1
[ X
P Ai D P .Ai /:
i D1 iD1

Si P .F / D 1 diremos que el suceso F ocurre con probabilidad uno, o casi segura-


mente. Algunas reglas bsicas del clculo de probabilidades son:
P .A \ B/ D P .A/ C P .B/ si A [ B D ;
P .Ac / D 1  P .A/
A  B H) P .A/  P .B/
Ejemplo 13.4 Elegimos un nmero al azar en el intervalo 0; 2.  D 0; 2, F es la
 -lgebra de Borel generada por los intervalos de 0; 2. La probabilidad de cualquier
intervalo a; b  0; 2 ser
ab
P .a; b/ D :
2
13-Clculo estocstico y simulacin j 201

Se dice que un espacio de probabilidad .; F; P / es completo si dado un suceso A


de probabilidad cero, todos los subconjuntos de A pertenecen a la  -lgebra F.
Denicin 13.4 Una variable aleatoria denida sobre un espacio de probabilidad
.; F; P / es una aplicacin X.!/ W  ! R que es F-medible, es decir, X 1 .B/ 2 F,
para todo conjunto B de la  -lgebra de Borel de R, BR .
De forma ms sencilla, una variable aleatoria es una funcin real denida en el espacio
de probabilidad .; F; P / que otorga un valor numrico a un experimento aleatorio.
Una variable aleatoria determina una  -lgebra fX 1 .B/; B 2 BR g  F que se
denomina -lgebra generada por X .
Una variable aleatoria determina una probabilidad en la  -lgebra de Borel BR de-
nida por PX D P X 1 , es decir,

PX .B/ D P .X 1 .B// D P .f! W X.!/ 2 Bg/:

El smbolo denota composicin de funciones y X 1 la preimagen. La probabilidad PX


se denomina la ley o distribucin de la variable X .
Denicin 13.5 Se dice que una variable aleatoria X tiene una densidad de probabi-
lidad fX si fX .x/ es una funcin positiva, medible respecto de la -lgebra de Borel
y tal que
Z b
P .a < X < b/ D fX .x/ dx;
a

para todo a < b.

Ejemplo 13.5 Una variable aleatoria tiene ley normal N.m;  2 / si


Z b 2
1  .xm/
P .a < X < b/ D p e 22 dx;
2 2 a

para todo par de nmeros reales a < b.


Las variables discretas que toman un conjunto nito o numerable de valores distin-
tos xk no tienen densidad de probabilidad y su ley est determinada por la funcin de
probabilidad
pk D P .X D xk /:
Ejemplo 13.6 Una variable aleatoria tiene ley binomial B.n; p/ si
 
n
P .X D k/ D p k .1  p/nk ;
k

para k D 0; 1; : : : ; n.
202 j 13-Clculo estocstico y simulacin

Denicin 13.6 La distribucin de una variable aleatoria X puede caracterizarse me-


diante su funcin de distribucin denida como la probabilidad acumulada

FX .x/ D P .X  x/ D PX ..1; x/:

La funcin FX W R ! 0; 1 es creciente, continua por la derecha y con lmites iguales


a cero en 1 y 1 en C1. Si la variable tiene densidad fX , entonces
Z x
FX .x/ D fX .y/ dy;
1

y si la densidad es continua, FX0 .x/ D fX .x/:

Denicin 13.7 La esperanza matemtica de una variable aleatoria X se dene como


la integral de X con respecto a la probabilidad P , considerada como una medida en
el espacio .; F/. En particular, si X es una variable elemental que toma los valores
1 ; : : : ; n en los conjuntos A1 ; : : : ; An , su esperanza matemtica valdr

X
n
E.X / D i P .Ai /:
i D1

El clculo de la esperanza matemtica de una variable aleatoria se efecta integrando


la funcin X respecto de la ley de probabilidad de la variable. Es decir, si X es una
variable que tiene esperanza (E.jX j/ < 1) se tiene que
Z Z 1
E.X / D X.!/ dP .!/ D x dPX .x/:
 1

En general, si g W R ! R es una funcin medible respecto de la  -lgebra de Borel y


E.g.X// < 1 entonces la esperanza de la variable g.X/ se puede calcular integrando
la funcin g respecto de la ley de la variable X, es decir
Z Z 1
E.g.X // D g.X.!// dP .!/ D g.x/ dPX .x/:
 1
R1
La integral 1 g.x/ dPX .x/ se calcula utilizando la densidad o funcin de probabilidad
de la variable X :
Z 1
Z 1 g.x/fX .x/ dx fX .x/ es la densidad de X
1
g.x/ dPX .x/ D X
1 g.xk /P .x D xk / X es variable discreta.
k
13-Clculo estocstico y simulacin j 203

Ejemplo 13.7 Si X es una variable aleatoria con ley normal N.0;  2 / y  es un nmero
real,
1
2
1  x
E.e X / D p e x e 2 2 dx
2 2 1
1
.x   2 /2
1  2 2 
Dp e 2 e 2 2 dx
2
2 1

 2 2
De 2 :

Denicin 13.8 La varianza de una variable aleatoria X se dene por




X2 D Var.X / D E .X  E.X //2 D E.X 2 /  E.X /2 :

La varianza mide el grado de dispersin de los valores de la variable respecto de su


esperanza.
Por ejemplo, si X es una variable aleatoria con ley normal N.m;  2 / se tiene que

X m
P .m  1;96  X  m C 1;96 / D P .1;96   1;96/

.1;96/  .1;96/ D 0;95;

donde es la funcin de distribucin de la ley N.m;  2 /. Es decir, la probabilidad de


que la variable X tome valores en el intervalo m  1;96; m C 1;96  es igual a 0;95.
Denicin 13.9 Se dice que X D X1 ; : : : ; Xn > es un vector aleatorio n-dimensional
si sus coecientes, o componentes, son variables aleatorias.
La esperanza matemtica de un vector aleatorio n-dimensional X ser el vector
E.X / D .E.X1 /; : : : ; E.Xn //
Denicin 13.10 La matriz de covarianzas de un vector aleatorio n-dimensional X
es la matriz

X D cov.Xi ; Xj / 1i;j n ;

donde cov.Xi ; Xj / D E .Xi  E.Xi //.Xj  E.Xj // :
Es decir, los coecientes de la diagonal principal de esta matriz son las varianzas de
las variables Xi y fuera de la diagonal estn las covarianzas entre dos variables Xi y Xj .
La ley o distribucin de un vector aleatorio n-dimensional X es la probabilidad
denida en el  -lgebra de Borel BRn por PX .B/ D P .X 1 .B// D P .X 2 B/, para
todo conjunto B de la -lgebra de Borel de R.
204 j 13-Clculo estocstico y simulacin

Se dice que un vector aleatorio n-dimensional X tiene una ley normal N.m; /,
donde m 2 Rn y  es una matriz simtrica y denida positiva, si

P .ai  Xi  bi ; i D 1; : : : m/ D
Z bn Z b1
n 1 Pn 1
D  .2 det / 2 e  2 i;j D1 .xi mi /.xj mj /
ij dx1    dxn :
an a1

En tal caso, se tiene que m D E.X / y  D x . Si la matriz  es diagonal,


2 3
12    0
6 : :: 7
 D 4 :: : : : : 5
0  n2

entonces la densidad del vector X ser el producto de n densidades normales unidimen-


sionales: 0 1
2
Y n
B 1 
.xmi /
2 C
fX .x1 ; : : : ; xn / D @q e 2i A :
i D1 2i2

Existen tambin leyes normales degeneradas en las que la matriz  es singular. En este
caso no existe la densidad de probabilidad y la ley de X queda determinada por su
funcin caracterstica:  0  0 1 0
E e it X D e .it m 2 t
t / ;

donde t 2 Rn . En esta frmula t 0 es un vector la 1  n y t uno columna n  1.


Si X es un vector normal n-dimensional con ley N.m; / y A es una matriz m  n,
entonces AX es un vector normal n-dimensional con ley N.Am; AA 0 /.
Se dice que una variable tiene media de orden p  1 si E.jXjp / < 1. En tal caso
se dene el momento de orden p de la variable aleatoria X como mp D E.X p /.
El conjunto de las variables que tienen media de orden p se representa por

Lp .; F; P /:

Sea X una variable aleatoria con funcin caracterstica 'X .t / D E.e i tX /. Los mo-
mentos de la variable aleatoria pueden calcularse a partir de las derivadas de la funcin
caracterstica en el origen
1
mn D n 'X.n/ .t / :
i tD0
Un concepto fundamental en probabilidades en el de la independencia.
Denicin 13.11 Dos sucesos A; B 2 F se dicen independientes si

P .A \ B/ D P .A/P .B/:
13-Clculo estocstico y simulacin j 205

Si se tiene una sucesin nita o innita de sucesos fAi ; i 2 I g, se dice que los sucesos
de la coleccin son independientes si

P .Ai1 \    \ Aik / D P .Ai1 /    P .Aik /

para todo conjunto nito de ndices fi1 ; : : : ; ik g  I .


Una coleccin de conjuntos de sucesos fGi ; i 2 I g se dice ques es independiente
si cualquier coleccin de sucesos fAi ; i 2 I g tal que Ai 2 Gi para todo i 2 I es
independiente.
Una coleccin de variables aleatorias fXi ; i 2 I g se dice que es independiente si la
coleccin de  -lgebras fXi1 .BRn /; i 2 I g lo es. Esto signica que
P .Xi1 2 Bi1 ; : : : ; Xik 2 Bik / D P .X1 2 Bi1 /    P .Xik 2 Bik /;
para todo conjunto nito de ndices fi1 ; : : : ; ik g  I , donde los Bj son conjuntos de
Borel.
Si dos variables aleatorias reales X e Y son independientes y tienen esperanza nita,
el producto X Y tiene esperanza nita y se cumple que E.X Y / D E.X /E.Y /.
En general, si las variables X1 ; : : : ; Xn son independientes,
Eg1 .X1 /    gn .Xn / D Eg1 .X1 /    Egn .Xn /:
donde las gi son funciones medibles tales que Ejgi .Xi /j < 1.
Las componentes de un vector aleatorio de variables aleatorias son independientes s
y slo s su densidad o funcin de probabilidad es igual al producto de las densidades o
funciones de probabilidad de cada componente.
Denicin 13.12 La probabilidad condicionada de un suceso A por un suceso B,
suponiendo P .B/ > 0, se dene como

P .A \ B/
P .AjB/ D :
P .B/

Dos sucesos A y B son independientes si y slo si P .AjB/ D P .A/. La probabili-


dad condicionada P .AjB/ representa la probabilidad del suceso A suponiendo sabemos
que B ha ocurrido. La aplicacin A 7! P .AjB/ dene una nueva probabilidad en el
-lgebra F que se concentra en el conjunto B. Se puede calcular la esperanza condi-
cionada por B de una variable aleatoria integrable X :
1
E.X jB/ D E.X 1B /;
P .B/
donde 1B representa la funcin indicatriz del suceso B, denida por
(
1 si ! 2 B
1B D
0 si ! B:
206 j 13-Clculo estocstico y simulacin

13.2 Procesos estocsticos


Denicin 13.13 Un proceso estocstico es una familia de variables aleatorias reales
fXi ; t  0g, es decir, de funciones medibles, X t .!/ W  ! R, denidas en une espacio
de probabilidad .; F; P /, e indexadas en un conjunto T 2 0; 1/. A t ! X t .!/ se
le denomina funcin de muestra o trayectoria del proceso estocstico.
Si T D N el proceso estocstico se dice discreto. Si T D 0; 1/ el proceso se deno-
mina continuo.
En la gura 13.1 se ven cuatro muestras de un proceso estocstico. El valor de X.t /
cambia con el tiempo y de muestra a muestra.

X(t) 0

5
4
3 100
50
Muestra nmero 2 t
1 0

Figura 13.1

Si jamos un conjunto nito de instantes f0  t1 <    < tn g tendremos un vector


aleatorio .X t1 ; : : : ; X tn / W  ! Rn . Las distribuciones de probabilidad P t1 ;:::;tn D
P .X t1 ; : : : ; X tn /1 se denominan distribuciones en dimensin nita del proceso.
La media (muestral) y la autocovarianza de un proceso estocstico se denen as:
mX .t / D E.X t /
X .s; t / D Cov.Xs :X t /
D E..Xs  mX .s//.X t  mX .t //:
La varianza (muestral) del proceso X se dene por X2 .t / D X .t; t / D Var.X t /.
Se dice que un proceso estocstico fX t ; t  0g es gaussiano o normal si sus distri-
buciones en dimensin nita son leyes normales multidimensionales. En el caso de un
proceso estocstico gaussiano, la media mX .t / y la autocovarianza X .s; t / determinan
las distribuciones de dimensin nita del proceso.
La media mX .t / y la varianza X2 .t / nos permiten conocer dnde se concentran los
valores de la variable X t as como su grado de dispersin, para cada instante t jo. Por
ejemplo, en el caso de un proceso gaussiano,
P .mX .t /  2X .t /  X t  mX .t / C 2X .t // ' 0;95:
Un proceso estocstico fX t ; t  0g es continuo en probabilidad si para todo " > 0
y todo t  0, lKms!t P .jXy  Xs j > "/ D 0: Si el proceso tiene una E.jX t jp / < 1
13-Clculo estocstico y simulacin j 207

para todo t  0, con p  1, se dice que el proceso es continuo en media de orden p si


lKmx!t E.jX t  Xs jp / D 0: La continuidad en media de orden p implica la continui-
dad en probabilidad. La continuidad de media de orden p no implica necesariamente la
continuidad de las trayectorias.
Acotaciones adecuadas de los momentos de los incrementos del proceso, permiten
deducir la continuidad de las trayectorias. Este es el contenido del siguiente criterio de
continuidad, debido a Kolmogorov.
Proposicin 13.1 Criterio de continuidad de Kolmogorof. Supongamos que un proce-
so estocstico fX t ; t  0g cumple la condicin siguiente:

E.jX t  Xs jp /  cT jt  sj

para todo 0  s < t  T , donde a > 1 y p > 0. Entonces existe una versin del
proceso estocstico X t que tiene trayectorias continuas.
Toma su nombre de Andri Nikolyevich Kolmogrov, Rusia 1903-1987.

13.2.1 Ejemplos
Sea X.t / D A cos.10t /, t  0, donde A es una variable aleatoria uniformemente distri-
buida en el intervalo 0; 1. X.t/ es un proceso estocstico pues para cada tiempo dado
t0 , X.to / es una variable aleatoria uniforme. En la gura 13.2 se ven tres ejemplos de
X.t/, para 0  t  1.

1 Muestra 1
Muestra 2
Muestra 3

X(t) 0

1
0 0.25 0.5 0.75 1
t
Figura 13.2
208 j 13-Clculo estocstico y simulacin

13.2.1.1 Proceso de Bernoulli


Debido a Daniel Bernoulli, Groningen (Pases Bajos), 1700-Basilea, Suiza, 1782.

Es uno de los procesos estocsticos ms simples. Los constituyen secuencias de variables


aleatorias independientes e idnticamente distribuidas, cada una de las cuales toma el
valor 1, con probabilidad p, o el 0, con probabilidad 1  p.
Un ejemplo tpico es el de lanzar al aire una moneda un nmero de veces. Cada
lanzamiento lo representa una variable aleatoria de Bernoulli con probabilidad p de que
salga cara y 1  p de que salga cruz.

13.2.1.2 Paseo aleatorio


Bajo esta denominacin tan general se encuentran un buen nmero de procesos estocs-
ticos.
P
Denicin 13.14 Un paseo aleatorio es una sucesin Sn D niD1 i , donde las i
son variables aleatorias independientes idnticamente distribuidas y denidas sobre
el mismo espacio de probabilidad .; F; P /. Cuando las variables i toman valores
enteros se dice que el paseo aleatorio lo es en valores discretos y cuando i 2 1; 1
el paseo aleatorio se denomina simple.
Un paseo aleatorio S t se dene en la recta real comenzando en S0 D 0 y avanzando
un paso de longitud i en cada unidad de tiempo entera i . Asumiremos que cada i es
C1 o 1 con la misma probabilidad, igual a 1=2.
El movimiento browniano discreto fue observado por primera ver por Robert Brown,
Reino Unido, 1773-1857, en el movimiento irregular de los granos de polen en suspen-
sin.

Se dene como el paseo aleatorio dado por la sucesin de pasos acumulados


S t D S0 C 1 C 2 C    C  t ; t D 0; 1; 2; : : : :
En la gura 13.3 se pueden ver dos desarrollos tpicos de movimiento browniano discre-
to. El programa de M ATLAB del cuadro 13.1 lleva a cabo un paseo aleatorio de 10 pasos.
13-Clculo estocstico y simulacin j 209

6 6

4  4  

   

2    2   

       

           
5 10 15 20 5 10 15 20
      

2 2 

4 4

6 6

Figura 13.3: Paseos aleatorios tpicos

% Movimiento browniano de 10 pasos


%
t=10; w=0;
for i=1:t
if rand>1/2
w=w+1;
else
w=w-1;
end
end

Cuadro 13.1

La esperanza matemtica de cada paso i del paseo aleatorio S t es E.i / D .0;5/.1/C


.0;5/.1/ D 0. Su varianza Var./ D E.i  0/2  D .0;5/.1/2 C .0;5/.1/2 D 1.
La esperanza matemtica del paseo aleatorio despus de t pasos es E.S t / D E.1 C
   C  t / D E.1 / C    C E. t / D 0 y la varianza Var.S t / D Var.1 C    C  t / D
Var.1 / C    C Var. t / D t , pues la varianza es aditiva sobre las variables aleatorias
independientes.
El hecho de que la media de S t sea 0 y su varianza t indica que al calcular n diferentes
desarrollos de la variable aleatoria S t , la media muestral

S t1 C    C S tn
mS .t / D E.S t / D
n
y la varianza muestral

.S t1  Es /2 C    C .S tn  Es /2
S .t; t / D Var.S t / D
n1
deberan aproximarse a 0 y t , respectivamente. La desviacin estndar muestral, que es
210 j 13-Clculo estocstico y simulacin

la raz cuadrada de la varianza muestral, tambin se conoce como el error estndar de la


media.
Si se reduce cada paso p del paseo aleatorio en trminos de amplitud y altura del mis-
mo, por factores k y 1= k respectivamente, se conseguir que la esperanza matemtica
del proceso siga siendo la misma, al igual que la varianza. Esto es as pues la multiplica-
cin de una variable aleatoria por una constante hace que su varianza cambie en trminos
de la raz cuadrada de esa constante. p
Si S tk es la variable aleatoria de paso 1=k del de S t , y de altura un 1= k, con igual
probabilidad, la esperanza matemtica despus de t pasos es

X
kt X
kt
E.S tk / D E.Sik / D 0 D 0:
i D1 i D1

La varianza ser

"    #
X
kt X kt
1 2 1 2 kt
Var.S tk / D Var.Sik / D p .0;5/ C  p .0;5/ D D t:
k k k
i D1 i D1

La gura 13.4 muestra un paseo aleatorio discreto con 10 pasos y otro con k D 25, es
decir con 250.

y y

5 5

x x
5 10 5 10

5 5

Figura 13.4

El lmite de esta subdivisin de S t cuando k ! 1 da lugar al movimiento browniano


continuo en el que t es una variable real y W t D S t1 es una variable aleatoria para cada
t  0. Se conoce ms concretamente como Proceso de Wiener, por Norbert Wiener,
EE.UU. 1894-1964, que fue quien estableci en los aos 20 del siglo XX el modelo
13-Clculo estocstico y simulacin j 211

matemtico del movimiento browniano basado en la teora de los procesos estocsticos.

Denicin 13.15 Un proceso estocstico fW t ; t  0g es un proceso de Wiener o


movimiento browniano continuo en el espacio .; F; P / si se cumplen estas condi-
ciones:
I W0 D 0.
II Fijados unos instantes 0  t1 <    < tn , los incrementos W tn W tn1 ; : : : ; W t2 
W t1 son variables aleatorias independientes.
III Si s < t, el incremento W t  Ws tiene una ley normal N.0; t  s/.
IV Las trayectorias del proceso son funciones continuas.
La condicin III es consecuencia del teorema central del lmite.
El proceso de Wiener es un proceso gaussiano ya que la ley de un vector aleato-
rio .W t1 ; : : : ; W tn / es normal ya que ste es una transformacin lineal de .W t1 ; W t2 
W t1 ; : : : ; W tn W tn1 / que tiene ley normal ya que tiene las componentes independientes
y normales.
La esperanza matemtica o media y la autocovarianza son

E.W t / D 0
E.Ws W t / D E.Ws .W t  Ws C Ws //
D E.Ws .W t  Ws // C E.Ws2 / D s D mi n.s; t /

si s  t . Si un proceso gaussiano tiene media cero y funcin de autocovarianza X .s; t / D


mi n.s:t /, cumple las condiciones I, II y III.
El programa de M ATLAB del cuadro 13.2, que utiliza el generador de numeros alea-
torios normales randn, genera un proceso de Wiener con un paso t D 1=25 como se
vea en la gura 13.4.

% Proceso de Wiener de 250 pasos


%
k=250;
sqdelt=sqrt(1/25);
b=0:
for i=1:k
b=b+sqdelt*randn;
end

Cuadro 13.2
212 j 13-Clculo estocstico y simulacin

13.2.1.3 Procesos de Poisson


Toman su nombre de Simon Denis Poisson, Francia, 1781-1840.
Denicin 13.16 Un proceso de Poisson fN t ; t  0g es un proceso estocstico carac-
terizado por las siguientes propiedades:
I N0 D 0.
II Fijados unos instantes 0  t1 <    < tn , los incrementos N tn N tn1 ; : : : ; N t2 
N t1 son variables aleatorias independientes.
III Si s < t, el incremento N t  Ns tiene una ley de Poisson de parmetro .t  s/,
es decir

.t  s/k
P .N t  Ns D k/ D e .t s/ ; k D 0; 1; 2; : : :
k

Un proceso de Poisson se construye a partir de una sucesin fYn ; n  1g de variables


aleatorias independientes y con una ley geomtrica de parmetro . Es decir, para todo
x  0, P .Yn  x/ D e x : Si se hace T0 D 0 y para n  1, Tn D Y1 C    C Yn ,
entonces el proceso N t denido por N t D n si Tn  t < TnC1 es un proceso de Poisson
de parmetro , denominado intensidad.
Las trayectorias del proceso de Poisson tienen saltos de amplitud 1 y son constantes
en cada par de saltos. Los tiempos entre cada par de saltos son variables aleatorias inde-
pendientes con leyes exponenciales de parmetro . Las trayectorias no son continuas,
aunque si lo son en media cuadrtica:
1
X k 2 .t  s/k
E.N t  Ns /2  D e .ts/
k
kD1
s!t
D .t  s/ C .t  s/2 ! 0:

13.2.1.4 Procesos de Markov


Toman su nombre de Andrey Andreyevich Markov, Rusia 1856-1922.

Denicin 13.17 Un proceso estocstico fXn ; n  og, en el que las variables alea-
torias estn denidas en un espacio medible, es un proceso o cadena de Markov si
para cualquier n y cualquier conjunto A se cumple que P .XnC1 2 AjX0 ; : : : ; Xn / D
13-Clculo estocstico y simulacin j 213

P .XnC1 2 AjXn /. A los procesos que se comportan de esta manera se dicen, en gene-
ral, que cumplen la propiedad de Markov.
Lo que quiere decir que dado el presente cualquier otra informacin del pasado es re-
dundante o irrelevante para predecir el futuro. La denicin es equivalente a la identidad
E.f .XnC1 /jX1 ; : : : ; Xn / D E.f .XnC1 /jXn /.
Los procesos de Bernoulli, Wiener, brownianos y de Poisson son procesos que cum-
plen esta propiedad.

13.3 Simulacin
Los modelos matemticos, para ser crebles y robustos ante distintos escenarios de ac-
tuacin, necesitan simular sus prestaciones a partir de patrones de situaciones ya dadas
o de datos imaginados. Esto permite analizarlos para conocer sus debilidades numricas
o tericas y as mejorarlos. Si se alimentan con datos que jen un punto de partida ade-
cuado y unas condiciones de contorno previsibles, pueden permitir, con el resultado de
su operacin, tomar decisiones con un grado de certeza o riesgo ms o menos aceptable
de acuerdo con el grado de dicultad o entidad de la decisin.
Los modelos de procesos estocsticos se basan en situaciones probables, aunque in-
ciertas, dentro de unos determinados mrgenes de actuacin. Su evolucin es aleatoria y
dotada de ruido por lo que para simular su comportamiento es necesario generar nmeros
aleatorios que imiten o reproduzcan hasta donde sea posible ese ruido o aleatoriedad. En
los apartados anteriores hemos presentado unos ejemplos muy sencillos de cmo hacer
unas modestas simulaciones con la ayuda de M ATLAB para generar paseos aleatorios,
procesos de Wiener, etc.
Aunque todos disponemos intuitivamente de una cierta nocin de un nmero aleato-
rio, no es nada fcil denirlo con precisin. Tampoco en fcil imaginar cmo generarlos
mediante una mquina y que su patrn de ocurrencia responda a una distribucin con-
creta como la normal, la exponencial, la gaussiana, etc.

13.3.1 Generacin de nmeros aleatorios


Aunque el objetivo a alcanzar sera producir nmeros aleatorios sucesivamente de tal
manera que cualquiera de ellos fuese absolutamente independiente de los anteriores y
su distribucin idntica, independientemente de su posicin en el orden dado, lo cierto
es que tal aspiracin, con los medios nitos de que disponemos y con el sistema de nu-
meracin implcito en los ordenadores actuales tan limitado, es imposible. S se pueden
conseguir nmeros pseudo-aleatorios o cuasi-aleatorios con patrones de aproximacin
a las caractersticas ideales ms o menos adecuadas al objetivo en cada caso.
La mayora de los nmeros aleatorios generados por los ordenadores actuales son
pseudo-aleatorios, donde la secuencia se repite a partir de un cebado inicial con una
frecuencia determinada. Las prestaciones de estos nmeros es buena en general, pero no
son tan aleatorios como, por ejemplo, los sosticados nmeros generados por el ruido
214 j 13-Clculo estocstico y simulacin

atmosfrico electromagntico utilizado como fuente de entropa.


La serie de valores pseudo-aleatorios generados est generalmente determinada por
un nmero jo llamado semilla (seed), que desencadena la sucesin. Uno de los algo-
ritmos ms comunes es el denominado congruencial lineal que utiliza la frmula de
recurrencia xnC1 D .axn C b/ mod m, donde a, b y m son nmeros enteros grandes. El
nmero mximo de nmeros que la frmula puede producir es el mdulo m.
La mayora de los lenguajes de programacin informtica incluyen funciones o ruti-
nas que proporcionan nmeros aleatorios. El generador de nmeros aleatorios ms uti-
lizado y reconocido en la actualidad se basa en el algoritmo Mersenne Twister, del
tipo minimal standard random number generator. Se suele inicializar utilizando como
semilla el reloj de tiempo real del ordenador. Su nombre proviene de un monje, Marin
Mersenne, Francia 1588-1648, que estudi los nmeros primos que llevan su nombre
(primos iguales a una potencia de 2 menos 1).

Ejemplo 13.8 Vamos a utilizar este generador de nmeros aleatorios para, siguiendo a
Sauer [2012], y adelantndonos a la introduccin de la tcnica Monte Carlo, calcular el
rea del conjunto de puntos .x; y/ que satisfacen

4.2x  1/4 C 8.2y  1/8 < 1 C 2.2y  1/3 .3x  2/2 :

La idea es generar 10.000 pares de puntos .x; y/ de tal manera que los que cumplan esta
inecuacin se registran. Al nal del proceso se cuentan cuntos de estos hay en total,
y esa cantidad dividida por 10.000 nos dar el rea ms probable que encierra a ese
conjunto de puntos. En la gura 13.5 se puede ver el resultado de la simulacin que
numricamente es 0;547 y el rea cubierta por los puntos que cumplen la inecuacin.

Un pequeo cdigo de M ATLAB para llevar a efecto estos clculos se lista en el


cuadro 13.3. Se puede ensayar con diversos valores de n para comprobar el resultado.

13.3.2 Simulacin de variables aleatorias


Teniendo un generador de nmeros aleatorios (o pseudo-aleatorios), rand, suciente-
mente bueno, podremos simular variables aleatorias con distribuciones diferentes de la
uniforme en 0; 1. Esto se logra casi siempre mediante transformaciones de lo producido
por ese generador con mtodos como los que siguen.
13-Clculo estocstico y simulacin j 215

0.8

0.6

y
0.4

0.2

0
0 0.5 1
x

Figura 13.5

function x=MoCa_1(n)
xy=rand(n,2); k=0;
for i=1:n
if 4*(xy(i,1)*2-1)^4+8*(2*xy(i,2)-1)^8<1+2*(2*xy(i,2)-1)^3*(3*xy(i,1)-2)^2
k=k+1;
end
end
x=k/n;
end

Cuadro 13.3

13.3.2.1 Variables aleatorias discretas


Si X tiene una distribucin de probabilidad discreta dada por los pares suceso-probabi-
lidad de la matriz que sigue
 
x1 x2    xn
XD ;
p1 p2    pn
se denen unos nmeros 0 D q0 < q1 <    < qn D 1 tales que
q0 D 0; q1 D p1 ; q2 D p1 C p2 ; : : : ; qn D p1 C p2 C    pn D 1:
Para simular la variable aleatoria discreta X se utiliza el generador rand y se hace igual
a x1 si 0 rand< q1 , x2 si q1 rand< q2 , y as sucesivamente. Si la distribucin de
probabilidad es muy extensa, se puede truncar a un valor de n sucientemente grande.

13.3.2.2 El mtodo de las funciones inversas


Se basa en que si X es una variable aleatoria con una funcin de distribucin FX , la
variable aleatoria Y D FX .X / est uniformemente distribuida en 0; 1. Invirtiendo la
funcin de distribucin FX y aplicndola a Y se puede recuperar X.
216 j 13-Clculo estocstico y simulacin

Si se quiere simular una variable aleatoria con una funcin de distribucin invertible
F , primero se simula una variable aleatoria uniforme en 0; 1 y luego se le aplica al
resultado la funcin F 1 . El mtodo falla, por supuesto, si no se puede explicitar F 1 .
Ejemplo 13.9 Apliquemos este mtodo para simular una variable aleatoria X con dis-
tribucin exponencial y parmetro . Recordemos que la funcin de densidad de proba-
bilidad en este caso es fX .x/ D e x , x > 0, por lo que FX D 1  e x , x > 0,
y
1
FX1 .y/ D  log.1  y/:

Como 1-rand tiene la misma distribucin en 0; 1 que rand, se deduce que  log.rand)
= tiene la distribucin exponencial con parmetro  que se desea obtener.

13.3.2.3 El mtodo de Box-Mller


Este mtodo se usa para simular variables aleatorias con distribucin normal. Toma su
nombre del trabajo de George Edward Pelham Box, Reino Unido 1919-EE.UU. 2013,

y Mervin Edgar Mller. Se basa en este resultado.


Proposicin 13.2 Dadas dos variables Y1 e Y2 uniformemente distribuidas en 0; 1,
las variables aleatorias
p p
X1 D 2 log.1  Y1 / cos.2Y2 / y X2 D 2 log.1  Y1 / sen.2Y2 /

son independientes y de distribucin normal N.0; 1/.


De acuerdo con l, para simular una variable aleatoria de distribucin normal de
media  D 0 y varianza  2 D 1, se pude utilizar rand para obtener dos nmeros,
rand1y rand2 de tal manera que
p p
X1 D 2 log.rand1/ cos.2rand2/ y X2 D 2 log.rand1/ sen.2rand2/

sean dos variables aleatorias normales independientes.

13.3.2.4 Mtodo basado en el teorema central del lmite


Habitualmente se usa este procedimiento para simular una variable aleatoria normal:
1. Simular doce variables independientes X1 ; X2 ; : : : ; X12 uniformemente distribui-
das mediante rand.
13-Clculo estocstico y simulacin j 217

2. Hacer Y D X1 C X2 C    X12  6.
La distribucin de la variable aleatoria Y es muy prxima a una normal pero no exacta-
mente (pues P .Y > 6/ D 0 pero P .Z > 6/ 0 para una autntica normal). Esto es as
como consecuencia de este resultado.
Teorema 13.3 Sea X1 ; X2 ; : : : una sucesin de variables aleatorias independientes que
tienen la misma distribucin. Sea  D E.X1 / D E.X2 / D    y  2 D Var.X1 / D
Var.X2 / D    . La sucesin de variables aleatorias normales

.X1 C X2 C    Xn /  n
p
 n
converge a una variable aleatoria normal.
El que se escojan 12 u otro nmero de variables depende de la experiencia y de la
bondad de los resultados con la que se simulen los datos que se requieran.

13.3.2.5 Vector de variables


El esquema general para simular un vector de variables aleatorias normales de media 
y matriz de covarianzas  sera este:
1. Simular n variables aleatorias independientes y con ellas construir el vector .
2. Calcular la descomposicin de Cholesky A T A D .
3. El vector que se necesita se obtiene haciendo Y D A C .

13.3.3 El mtodo Montecarlo


Este mtodo materializa mediante un procedimiento de clculo el conocimiento de pro-
cesos estocsticos y sus resultados a base de llevar a cabo mltiples muestreos de los
datos esenciales de las variables que constituyen los problemas que estudian y analizan.
Contra ms muestras se hagan del problema, y de la dinmica de como evoluciona ste,
mejores sern los resultados que el procedimiento consiga. Ya hemos visto alguna de sus
prestaciones y posibilidades para calcular el rea dentro de una determinada curva.
En su versin moderna se debe al trabajo de Stanislaw Marcin Ulam, Lemberg,
Austria-Hungra 1909-EE.UU. 1984 y John von Neumann, Budapest, Austria-Hungra
1903-EE.UU. 1957.

Von Neumann es, como deca Newton, uno de los grandes gigantes que ha dado la
naturaleza humana. Sus contribuciones en los 53 aos de su vida a mltiples disciplinas
relacionadas con las matemticas son absolutamnte portentosas. No cabe duda de que a
218 j 13-Clculo estocstico y simulacin

hombros de l los avances de muchas reas a las que dedicamos este libro han permitido
ver e ir mucho ms lejos de lo que l comenz.
El mtodo Montecarlo est basado en este interesante resultado.
Teorema 13.4 Ley de los grandes nmeros. Sea X1 ; X2 ; : : : una sucesin de variables
aleatorias independientes que tienen la misma distribucin y la funcin g W R ! R tal
que  D Eg.X1 / D Eg.X2 / D    . Se cumple que
l 1
g.X1 / C g.X2 / C    C g.Xn /
!D g.x/fX1 .x/ dx al n ! 1:
n
1

De acuerdo con l, la estrategia de clculo del mtodo de Montecarlo es la siguiente:


SupngaseR1que una cantidad que se quiere determinar se puede escribir co-
mo y D 1 g.x/fX .x/ dx para alguna variable aleatoria X con funcin
de densidad de probabilidad fX , y para alguna funcin concreta g. Tambin,
que los nmeros x1 ; x2 ; : : : son muestras aleatorias de la distribucin de fX .
Entonces, la media
1
.g.x1 / C g.x2 / C    C g.xn //
n
p
aproxima el valor de y con una precisin aproximada dada por 1= n.
En la actualidad se usa masivamente para calcular expectativas de precios de de-
rivados nancieros, predicciones de evolucin en bolsa de determinados productos y
posiciones, procesos estocsticos complicados, etc.

13.4 Ecuaciones diferenciales estocsticas


Una variante de las ecuaciones diferenciales cada da ms extendida surge cuando la
dinmica del proceso que modelizan est afectada por movimientos aparentemente alea-
torias, o ruidos. En tal caso nos encontraremos con ecuaciones diferenciales estocsticas.
Lo que sigue es una breve introduccin a la solucin de las mismas, que son procesos
estocsticos continuos como, por ejemplo, el movimiento browniano que acabamos de
ver un poco ms arriba.
La resolucin de una ecuacin diferencial ordinaria, convertida en ecuacin diferen-
cial estocstica EDS, trata de obtener la solucin de
(
dy D r dt C  dB t
y.0/ D 0;

donde r y  son constantes coeciente de deriva y coeciente de difusin, respecti-


vamente y B t un proceso estocstico, como el movimiento browniano. La solucin
tendr la forma y.t / D rt C B t .
13-Clculo estocstico y simulacin j 219

Muchos procesos estocsticos, como el movimiento browniano, son continuos pero


no diferenciables. La EDS

dy D f .t; y/ dt C g.t; y/ dB t

expresa por denicin la ecuacin


Z 1 Z 1
y.t/ D y.0/ C f .s; y/ d C g.s; y/ dBs ;
0 0

donde la segunda integral se denomina integral de Ito. Su nombre proviene de Kiyosi


It, Japn 1915-2008.

La integral de Ito, de forma parecida a como se dene la integral de Riemann, es


Z b X
n
f .t/ dB t D lKm f .ti1 / Bi ;
a t!0
iD1

donde Bi D B ti  B ti1 , es un paso browniano a lo largo del intervalo de integracin.


Rb
La integral de Ito, I D a f .t/ dB t es una variable aleatoria. El diferencial dI es
dI D f dB t . El diferencial dB t se denomina ruido blanco.
Si en la ecuacin diferencia estocstica dy.t / D r dt C  dB t , y D f .t; x/, la regla
de la cadena en trminos estocsticos dene la frmula de Ito

@f @f 1 @2 f
dy D .t; x/ dt C .t; x/ dx C .t; x/ dx dx;
@t @x 2 @x 2
donde dx dx se puede interpretar en trminos de dt dt D 0, dt dB t D dB t , dt D 0 y
dB t dB t D dt.
La frmula de Ito permite resolver explcitamente algunas ecuaciones diferenciales
estocsticas.
Ejemplo 13.10 Comprobemos si la ecuacin de movimiento browniano geomtrico
1 2 /tCB
y.t/ D y0 e .r 2  t

satisface la ecuacin diferencial estocstica

dy D ry dt C y dB t :
220 j 13-Clculo estocstico y simulacin

Hagamos y D f .t; x/ D y0 e x , donde x D .r  12  2 /t C B t . Mediante la frmula

1
dy D y0 e x C y0 e x dx dx;
2
donde dx D .r  1=2 2 /dt C dB t . Haciendo uso de los valores diferenciales de la
frmula de Ito, se tiene que dx dx D  2 dt. En consecuencia,
 
x 1 2 1
dy D y0 e r   dt C y0 e x  dB t C y0  2 e x dt
2 2
D y0 e x r dt C y0 e x  dB t
D ry dt C y dB t :

Esta ecuacin se utiliza habitualmente en modelos nancieros. En concreto, es la frmula


detrs del modelo de Black-Scholes para poner precio a los derivados nancieros.
Muchas ecuaciones diferenciales estocsticas no pueden resolverse explcitamente.
Por ello es conveniente disponer de mtodos numricos que permiten la simulacin de
soluciones.

13.4.1 Integracin numrica de ecuaciones diferenciales estocsticas


El mtodo de Euler-Maruyama, similar al de Euler para integrar EDO, toma su nombre
de Gisiro Maruyama, Japn 1916-1986.

Se trata de resolver el problema


(
dy.t / D f .t; y/ dt C g.t; y/ dB t
y.a/ D ya

Se subdivide el intervalo de integracin a; b en n subintervalos de longitud ti .


La frmula de recurrencia que utiliza es

wiC1 D wi C f .ti ; wi / ti C g.ti ; wi / Bi :

En ella ti D tiC1  ti , Bi D B tiC1  B ti y w0 D ya .


Lo crucial es modelizar el movimiento browniano Bi . Para ello basta con obtener
pvariables aleatorias 1 ; : : : ; n independientes con ley N.0; 1/ y substituir
valores de n
Bi por i ti .
13-Clculo estocstico y simulacin j 221

El error que comete este procedimiento al aproximar y.T / por w.T /, en funcin del
t escogido es
e D Ejy.T /  w.T /j2  c. t /1=2 :
El mtodo de Euler-Maruyama puede mejorarse mediante una correccin adicional
como la que introduce el mtodo de Grigori N. Milstein. Su idea es incorporar ms infor-
macin de segundas derivadas a los procesos f .t; y/ y g.t; y/ de la ecuacin diferencial
estocstica, con el concurso de la frmula de Ito. La frmula de recurrencia que utiliza
es esta:
1 @g
wiC1 D wi C f .ti ; wi / ti C g.ti ; wi / Bi C g.ti ; wi / .ti ; wi /.. Bi /2  ti /:
2 @y

El error que se comete en este caso es e D Ejy.T /  w.T /j2  c. t /.


Una mejora de esta variante la constituye la que incorpora la idea de los mtodos de
Runge-Kutta en el caso de ecuaciones diferenciales ordinarias. Su objetivo es evitar la
necesidad del clculo de las derivadas parciales que requiere lo propuesto por Milstein,
aproximndolas mediante la frmula
p
@g g.ti ; wi C g.ti ; wi / ti /  g.ti ; wi /
.ti ; wi /  p :
@y g.ti ; wi / ti

La frmula de recurrencia queda as:

wiC1 D wi C f .ti ; wi / ti C g.ti ; wi / Bi C


1 h p i
C p g.ti ; wi C g.ti ; wi / ti /  g.ti ; wi / . Bi /2  ti :
2 ti

13.5 Aplicacin del clculo estocstico a la cobertura y va-


loracin de derivados nancieros. El modelo de Black
y Scholes
El rea nanciera, tan omnipresente en nuestras vidas en la actualidad, es donde proba-
blemente ms uso se hace de la simulacin y optimizacin de procesos estocsticos.
Los derivados nancieros son instrumentos cuyo valor deriva de otro instrumento.
En particular, una opcin es el derecho a llevar a efecto una determinada transaccin
nanciera sin estar obligado a ello.
Una opcin de compra (European call option) da a su comprador el derecho a com-
prar una accin o activo a un precio predeterminado strike price en una fecha con-
creta exercise date. El vendedor de la opcin de compra tiene la obligacin de ven-
der el activo en el caso de que el comprador ejerza el derecho a comprar. Las opciones se
usan por las empresas para gestionar el riesgo de sus operaciones especulativas y posi-
ciones nancieras. Los particulares las usan como estrategias de inversin y para cubrir
222 j 13-Clculo estocstico y simulacin

riesgos en otras operaciones. Todo esto conforma todo un entramado hoy en da dif-
cilmente controlable y entendible por sus innidad de ramicaciones e interpretaciones.
Ni qu decir tiene que los clculos para valorar opciones y los datos en qu basarlos no
estn al alcance de cualquiera, por lo que son las grandes corporaciones o los analistas y
gestores especializados los que saben cmo usarlos y cundo.
En estas breves lneas simplemente esbozamos cmo se puede calcular el precio de
esas opciones y el modelo de Black y Scholes, por Fischer Sheffey Black, EE.UU. 1938-
1995, y Myron Samuel Scholes, EE.UU. 1941,

que a la postre les vali para conseguir el Premio Nobel de Economa.


Un sencillo ejemplo para contextualizar las frmulas que emplearemos se reere a
una opcin de compra de acciones de la compaa IBD por 15 e el 1 de diciembre. Si el
precio de las acciones de esta compaa, tan aparentemente atractiva, el 1 de junio est
en 12 e, la pregunta es cul es el valor de esa opcin o derecho de compra? El valor o
precio de la accin el da del vencimiento ser K euros. Si X es el valor de la accin en
un momento dado, el de la opcin esperable ser el mKax fX  K; 0g. Si X > Z, el valor
de la opcin el da de la ejecucin es positivo e igual a X  K euros. Si X < K el valor
ser cero para el comprador de la opcin.
El modelo para valorar estos derivados se basa en un movimiento browniano de tipo
geomtrico con la frmula

dX D mX dt C X dB t ;

donde m es la deriva, o tasa de crecimiento del precio de la accin, y  es la constante


de difusin, o volatilidad. Estos dos parmetros se pueden estimar estadsticamente en
funcin de los valores a los que ha cotizado la accin los ltimos tiempos.
El razonamiento de Black y Scholes para deducir su frmula se basa en considerar
una propuesta de arbitrage al respecto, nada ms que el valor correcto de esa opcin,
a T meses o aos vista, debera ser el valor presente del valor esperado de la opcin el
da de su vencimiento teniendo en cuenta que el valor real de la accin subyacente X.t /
satisface la ecuacin diferencial estocstica

dX D rX dt C X dB t :

Esto resulta en que si el precio de la accin objeto de anlisis es X D X0 en el instante


t D 0, el valor esperable de la opcin en el instante de su vencimiento t D T es

C.X; T / D e rT EmKax .X.T /  K; 0/;


13-Clculo estocstico y simulacin j 223

donde X.t / es el valor determinado por la ecuacin diferencial estocstica anterior. Lo


sorprendente de esta frmula es que la deriva m se reemplaza por la tasa de inters o
rentabilidad r. De hecho, el previsible crecimiento de la cotizacin de la accin es irre-
levante para el valor de la opcin, lo cual se desprende de la suposicin de no arbitrage,
base de la teora de Black y Scholes, que viene a decir que no existen ganancias libres
de riesgos en un mercado realmente eciente.
La ltima frmula depende del valor de la esperanza matemtica de la variable alea-
toria X.t /, que slo se puede conocer mediante simulacin, como sabemos. Si se aporta
esa informacin, la expresin compacta del valor de la opcin que dedujeron Black y
Scholes es
C.X; T / D XN.d1 /  Ke rT N.d2 /;
Rx 2
donde N.x/ D p1 1 e s =2 ds es la funcin de distribucin normal acumulada,
2



ln.X=K/ C r C 12  2 T ln.X=K/ C r  12  2 T
d1 D p y d2 D p :
 T  T
224 j 13-Clculo estocstico y simulacin
Bibliografa

[1] A ASEN , J.O. 1971. On the Reduction of a Symmetric Matrix to Tridiagonal Form. BIT 11,
pp. 233-242.
[2] A BADIE , J. ED . 1970. Integer and Nonlinear Programming. North-Holland.
[3] A BERTH , O. 2007. Introduction to Precise Numerical Methods. Elsevier.
[4] A BELL , M.L. Y B RASELTON , J.P. 2004. Mathematica by Example. Elsevier.
[5] ACTON , F.S. 1990. Numerical Methods that Work. The Mathematical Association of Ame-
rica.
[6] A DAMS , J.C., B RAINERD , W.S., M ARTIN , J.T., S MITH , B.T. Y WAGENER , J.L. 1992.
Fortran 90 Handbook. Complete ANSI/ISO Reference. McGraw-Hill.
[7] A DOBE S YSTEMS I NCORPORATED . 1986. PostScript Language. Tutorial and Cookbook.
Addison-Wesley.
[8] A DOBE S YSTEMS I NCORPORATED . 1990. PostScript Language. Reference Manual.
Addison-Wesley.
[9] A HUJA , R.K., M AGNATI , T.L. Y O RLIN , J.B. 1989. Network Flows. En Handbooks in
Operations Research and Management Science. Volume 1: Optimization. Nemhauser, G.L.,
Rinnooy Kan, A.H.G. y Todd, M.J. eds. North-Holland.
[10] A LJ , A. Y FAURE , R. 1988. Investigacin operativa. Elementos fundamentales. Vol. 1.
Masson.
[11] A LVARADO , F.L. 1979. A Note on Sorting Sparse Matrices. Proceedings of the IEEE 67,
pp. 1362-1363.
[12] A LVARADO , F.L. 1990. Manipulation and Visualization of Sparse Matrices. ORSA J. Com-
puting 2, pp. 186-207.
[13] A LLAIRE , G. Y K ABER , S.M. 2008. Numerical Linear Algebra. Springer.
[14] A NDERS , G.J. 1990. Probability Concepts in Electric Power Systems. Wiley.
[15] A NDERSON , E., BAI , Z., B ISCHOF, C., D EMMEL , J., D ONGARRA , J., D U C ROZ , J.,
G REENBAUM , A., H AMMARLING S., M C K ENNEY, A., O STROUCHOV, S. Y S ORENSEN ,
D. 1992. LAPACK Users Guide. SIAM.
[16] A NDERSON , E., BAI , Z., B ISCHOF, C., D EMMEL , J., D ONGARRA , J., D U C ROZ , J.,
G REENBAUM , A., H AMMARLING S., M C K ENNEY, A., O STROUCHOV, S. Y S ORENSEN ,
D. 1995. LAPACK Users Guide. Second Edition. SIAM.
[17] A NTONIOU , A. Y L U , W-S. 2007. Practical Optimization. Algorithms and Engineering
Applications. Springer.
226 j Bibliografa

[18] A RBEL , A. 1993. Exploring Interior-Point Linear Programming. Algorithms and Software.
MIT Press.
[19] A RMIJO , L. 1966. Minimization of Functions Having Lipschitz Continuos First Partial
Derivatives. Pacic J. Math. 16, pp. 1-3.
[20] A RRILLAGA , J. Y A RNOLD , C.P. 1990. Computer Analysis of Power Systems. Wiley.
[21] A SCHER , U.M. Y G REIF, C. 2011. A First Course in Numerical Methods. SIAM.
[22] ATKINSON , K. 1993. Elementary Numerical Analysis. Wiley.
[23] ATKINSON , K. Y H AN , W. 2009. Theoretical Numerical Analysis. A Functional Analysis
Framework. Third Edition, Springer.
[24] ATKINSON , K., H AN , W. Y S TEWART, D.E. 2009. Numerical Solution of Ordinary Diffe-
rential Equations. Wiley.
[25] ATKINSON , L.V., H ARLEY, P.J. Y H UDSON , J.D. 1989. Numerical Methods with Fortran
77. A Practical Introduction. Addison-Wesley.
[26] ATTAWAY, S. 2012. MATLAB. A Practical Introduction to Programming and Problem Sol-
ving. Elsevier.
[27] ATTEIA , M. Y P RADEL , M. 1990. lments dAnalyse Numrique. Cepadues-Editions.
[28] AUZINGER , W. 2013. Iterative Solution of Large Linear Systems. TU Wien, Institute for
Analysis and Scientic Computing.
http://www.asc.tuwien.ac.at/~winfried/teaching/101.403/SS2012/downloads/iter.pdf
[29] AVRIEL , M. 1976. Nonlinear Programming. Analysis and Methods. Prentice Hall.
[30] A XELSSON , O. 1996. Iterative Solution Methods. Cambridge.
[31] BARRETT, R., B ERRY, M., C HAN , T.F., D EMMEL , J., D ONATO , J.M., D ONGARRA , J.,
E IJKHOUT, V., P OZO , R., ROMINE , C. Y VAN DER VORST, H. 1994. Templates for the
Solution of Linear Systems: Building Blocks for Iterative Methods. Secon Edition. SIAM.
[32] BRSOV, A.S. 1988. Qu es la Programacin Lineal. Editorial Mir.
[33] BARTELS , R.H. Y G OLUB , G.H. 1969. The Simplex Method of Linear Programming Using
LU Decomposition. Communications of the ACM 12, pp. 266-268.
[34] BASHIROV, A.E. 2014. Mathematical Analysis Fundamentals. Elsevier.
[35] BAZARAA , M.S. Y JARVIS , J.J. 1977. Linear Programming and Network Flows. Wiley.
[36] BAZARAA , M.S., JARVIS , J.J. Y S HERALI , H.D. 1990. Linear Programming and Network
Flows. Wiley.
[37] BAZARAA , M.S. Y S HETTY, C.M. 1979. Nonlinear Programming. Theory and Algorithms.
Wiley.
[38] BAZARAA , M.S., S HERALY, H.D. Y S HETTY, C.M. 1994. Nonlinear Programming.
Theory and Algorithms. Second Edition. Wiley.
[39] B EALE , E.M.L. 1954. An Alternative Method for Linear Programming. Proceedings of the
Cambridge Philosophical Society 50, pp. 513-523.
[40] B EASLEY, J.E. 1996. Advances in Linear and Integer Programming. Oxford University
Press.
[41] B ECKMANN , M.J. 1968. Dynamic Programming of Economic Decisions. Springer.
[42] B ELLMAN , R. Y D REYFUS , S.E. 1962. Applied Dynamic Programming. Princeton Uni-
versity Press.
[43] B ELLMAN , R. 1970. Introduction to Matrix Analysis. SIAM.
Bibliografa j 227

[44] B ELLMAN , R. 1972. Dynamic Programming. Princeton University Press.


[45] B ELLMAN , R. 1985. Introduccin al anlisis matricial. Editorial Revert.
[46] B ERGE , C. 1970. Graphes et Hypergraphes. Dunod.
[47] B EN -TAL , A. Y N EMIROVSKI , A. 2001. Lecture Notes on Modern Convex Optimization.
Analysis, Algorithms, and Engineering Applications. SIAM.
[48] B ERGEN , A.R. 1986. Power Systems Analysis. Prentice Hall.
[49] B ERMAN , A. Y P LEMMONS , R.J. 1974. Codes and Iterative Methods for Best Least Squa-
res Solutions of Linear Systems. SIAM J. Numer. Anal. 11, pp. 145-154.
[50] B ERTSEKAS , D.P. 1982. Constrained Optimization and Lagrange Multiplier Methods.
Academic Press.
[51] B ERTSEKAS , D.P. 1991. Linear Newtwork Optimization: Algorithms and Codes. The MIT
Press.
[52] B ERTSEKAS , D.P. 1995. Nonlinear Programming. Athena Scientic.
[53] B ERTSEKAS , D.P. 2003. Convex Analysis and Optimization. Athena Scientic.
[54] B ERTSEKAS , D.P. 2009. Convex Optimization Theory. Athena Scientic.
[55] B ERTSEKAS , D.P. 2015. Convex Optimization Algorithms. Athena Scientic.
[56] B ERTSEKAS , D.P. Y T SITSIKLIS , J.N. 1989. Parallel and Distributed Computation. Nu-
merical Methods. Prentice Hall.
[57] B ERTSIMAS , D.P. Y T SITSIKLIS , J.N. 1997. Introduction to Linear Optimization. Athena
Scientic.
[58] B EST, M.J. Y R ITTER , K. 1985. Linear Programming. Active Set Analysis and Computer
Programms. Prentice Hall.
[59] B HATTI , M.A. 2000. Practical Optimization Methods. Springer.
[60] B IEGLER , L.T. 2010. Nonlinear Programming. Concepts, Algorithms, and Applications to
Chemical Processes. SIAM.
[61] V 1990. Least Squares Methods. En Handbook of Numerical Analysis. Volume
B JRK , A.
1: Finite Difference Methods (Part 1); Solution of Equations in Rn (Part 1). Ciarlet, P.G. y
Lions, J.L. eds. North-Holland.
[62] V 1996. Numerical Methods for Least Squares Problems. SIAM.
B JRK , A.
V 2015. Numerical Methods in Matrix Computations. Springer.
[63] B JRK , A.
V Y E LFVING , T. 1979. Accelerated Projection Methods for Computing Psudoin-
[64] B JRK , A
verse Solutions of Systems of Linear Equations. BIT 19, pp. 145-163.
[65] B LACKFORD , L.S., C HOI , J., C LEARY, A., DA ZEVEDO , E., D EMMEL , J., D HILLON ,
I., D ONGARRA , J., H AMMARLIG , S., H ENRY, G., P ETITE , A., S TANLEY, K., WALKER ,
D. Y W HALEY, R.C. 1997. ScaLAPACK Users Guide. SIAM.
[66] B LANCHARD , P., D EVANEY, R.L. Y H ALL , G.R. 1999. Ecuaciones diferenciales. Thom-
son.
[67] B LAND , R.G. 1977. New Finite Pivoting Rules for the Simplex Method. Mathematics of
Operations Research 2, pp. 103-107.
[68] B OGGS , P.T., B YRD , R.H. Y S CHNABEL , R.B. EDS . 1985. Numerical Optimization 1984.
SIAM.
[69] B ORSE , G.J. 1997. Numerical Methods with MATLAB. PWS.
228 j Bibliografa

[70] B OT, R.I., G RAD , S.M. Y WANKA , G. 2009. Duality in Vector Optimization. Springer.
[71] B OYCE , W.E. Y D I P RIMA , R.C. 2009. Elementary Differential Equations and Boundary
Value Problems. Ninth Edition. Wiley.
[72] B OYD , S. Y VANDENBERGHE , L. 2004. Convex Optimization. Cambridge.
[73] B ONNANS , J.F., G ILBERT, J.C., L EMARCHAL , C. Y S AGASTIZBAL , C.A. 2006. Nu-
merical Optimization. Theoretical and Practical Aspects. Second Edition. Springer.
[74] B RADLEY, G.H., B ROWN , G.G. Y G RAVES , G.W. 1977. Design and Implementation of
Large Scale Transshipment Algorithms. Management Science 24, pp. 1-34.
[75] B RAINERD , W.S., G OLDBERG , C.H. Y A DAMS , J.C. 1990. Programmers Guide to For-
tran 90. McGraw-Hill.
[76] B RAINERD , W.S., G OLDBERG , C.H. Y A DAMS , J.C. 1996. Programmers Guide to For-
tran 90. Springer.
[77] B RAESS , D. 2007. Finite Elements. Theory, Fast Solvers, and Applications in Elasticity
Theory. Cambridge.
[78] B RANDIMARTE , P. 2006. Numerical Methods in Finance and Economics. A MATLAB-
Based Introduction. Wiley.
[79] B RENNER , S.C. Y S COTT, L.R. 2008. The Mathematical Theory of Finite Element Meth-
ods. Springer.
[80] B RIGGS , W.L. Y H ENSON , V.E. 1995. The DFT. An owners manual for the Discrete
Fourier Transform. SIAM.
[81] B RIGHAM , E.O. 1988. The Fast Fourier Transform and its Applications. Prentice Hall.
[82] B ROOKE , A., K ENDRICK , D. Y M EERAUS , A. 1988. GAMS. A Users Guide. The Scien-
tic Press.
[83] B ROWN , H.E. 1975. Solution of Large Networks by Matrix Methods. Wiley.
[84] B ROYDEN , C.G. 1965. A Class of Methods for Solving Nonlinear Simultaneous Equations.
Mathematics of Computation 19, pp. 577-593.
[85] B UNCH , J.R. Y K AUFMAN , L. 1977. Some Stable Methods for Calculating Inertia and
Solving Symmetric Linear Systems. Mathematics of Computation 31, pp. 163-179.
[86] B UNCH , J.R. Y PARLETT, B.N. 1971. Direct Methods for Solving Symmetric Indenite
Systems of Linear Equations. SIAM J. Numer. Anal. 8, pp.639-655.
[87] B UNCH , J.R. Y ROSE , D.J. EDS . 1976. Sparse Matrix Computations. Academic Press.
[88] B UNCH , J.R., K AUFMAN , L. Y PARLETT, B.N. 1976. Decomposition of a Symetric Ma-
trix. Numerische Mathematik 27, pp. 95-109.
[89] B UNCH , J.R. 1971. Analysis of the Diagonal Pivoting Method. SIAM J. Numer. Anal. 8,
pp. 656-680.
[90] B UNCH , J.R. 1974. Partial Pivoting Strategies for Symmetric Matrices. SIAM J. Numer.
Anal. 11, pp. 521-528.
[91] B URDEN , R.L. Y FAIRES , J.D. 1985. Anlisis numrico. Grupo Editorial Iberoamrica.
[92] B URDEN , R.L. Y FAIRES , J.D. 2011. Numerical Analysis. Ninth Edition. Brooks/Cole.
[93] B UTCHER , J.C. 2008. Ordinary Differential Equations. Wiley.
[94] B UTT, R. 2010. Introduction to Numerical Analysis using MATLAB. Jones and Barlett.
[95] B UZZI -F ERRARIS , G. 1993. Scientic C++. Building Numerical Libraries the Object-
Oriented Way. Addison-Wesley.
Bibliografa j 229

[96] B YRD , R.H., G ILBERT, J.C. Y N OCEDAL , J. 1996. A Trust Region Method Based on
Interior Point Techniques for Nonlinear Programming. INRIA.
[97] C AJORI , F. 1991. A History of Mathematics. Fifth Edition. Chelsea Publishing Company.
[98] C ANUTO , C. Y TABACCO , A. 2015. Mathematical Analysis Vols I y II. Second Edition.
Springer.
[99] C ARREIRA -P ERPIAN , M.A. 2016. Lecture Notes on Optimization-EECS260. University
of California Merced, Electrical Engineering and Computer Science Dpt.
[100] C HAITIN -C HATELIN , F. Y F RAYSS , V. 1996. Lectures on Finite Precision Computations.
SIAM.
[101] C HAMBERLAND , L. 1995. Fortran 90. A Reference Guide. Prentice Hall.
[102] C HAN , T.F. 1982. Algorithm 581: An Improved Algorithm for Computing the Singular
Value Decomposition. ACM Trans. on Mathematical Software 8, pp. 84-88.
[103] C HAN , T.F. 1982. An Improved Algorithm for Computing the Singular Value Decomposi-
tion. ACM Trans. on Mathematical Software 8, pp. 72-83.
[104] C HAPRA , S.C. 2012. Applied Numerical Methods with MATLAB for Engineers and Scien-
tists. McGraw-Hill.
[105] C HAPRA , S.C. Y C ANALE , R.P. 2002. Numerical Metthods for Engineers with Applica-
tions and Programming Applications. Fourth Edition. McGraw-Hill.
[106] C HENEY, W. Y K INCAID , D. 1985. Numerical Mathematics and Computing. Brooks/Cole.
[107] C HIVERS , I. Y S LEIGHTHOLME , J. 1995. Introducing Fortran 90. Springer.
[108] C HONG , E.K.P. Y Z AK , S.H. 2001. An Introduction to Optimization. Second Edition. Wi-
ley.
[109] C HU , E., G EORGE , A., L IU , J, Y N G , E. 1984. SPARSPAK: Waterloo Sparse Matrix Pac-
kage. Users Guide for SPARSPAK-A. Research Report CS-84-36, Department of Computer
Science, University of Waterloo, Waterloo, Ontario, Canad.
[110] C HVTAL , V. 1983. Linear Programming. W.H. Freeman and Company.
[111] C IARLET, P.G. Y L IONS , J.L. EDS . 1990. Handbook of Numerical Analysis. Volume 1:
Finite Difference Methods (Part 1); Solution of Equations in Rn (Part 1). North-Holland.
[112] C IARLET, P.G. 1988. Introduction LAnalyse Numrique Matricielle et LOptimisation.
Masson, S.A.
[113] C IARLET, P.G. 1989. Introduction to Numerical Linear Algebra and Optimisation. Cam-
bridge.
[114] C IARLET, P.G. 2002. The Finite Element Method for Elliptic Problems. SIAM.
[115] C IRIANI , T.A. Y L EACHMAN , R.C. 1993. Optimization in Industry. Mathematical Pro-
gramming and Modeling Techniques in Practice. Wiley.
[116] C LINE , A.K., M OLER , C.B., S TEWART, G.W. Y W ILKINSON , J.H. 1979. An Estimate
for the Condition Number of a Matrix. SIAM J. Numer. Anal. 16, pp. 368-375.
[117] C ODDINGTON , E.A. Y C ARLSON , R. 1997. Linear Ordinary Differential Equations.
SIAM.
[118] C OLEMAN , T.F. Y L I , Y. EDS . 1990. Large-Scale Numerical Optimization. SIAM.
[119] C OLEMAN , T.F. Y VAN L OAN , C. 1988. Handbook for Matrix Computations. SIAM.
[120] C OLEMAN , T.F., E DENBRANDT, A. Y G ILBERT, J.R. 1986. Predicing Fill for Sparse
Orthogonal Factorization. Journal ACM 33, pp. 517-532.
230 j Bibliografa

[121] C ONTE , S.D. Y DE B OOR , C. 1987. Elementary Numerical Analysis. An Algorithmic Ap-
proach. McGraw-Hill.
[122] C ONTRERAS , M. 2016. Anlisis de Fourier. Universidad de Sevilla.
http://personal.us.es/contreras/
[123] C OOK , T.M. Y RUSSELL , R.A. 1977. Introduction to Management Science. Prentice Hall.
[124] C ORDENO , A., H UESO , J., M ARTNEZ . E. Y T ORREGOSA , J.R. 2006. Problemas resuel-
tos de mtodos numricos. Thomson.
[125] C ORMEN , T.H., L EISERSON , C.E. Y R IVEST, R.L. 1992. Introduction to Algorithms. The
MIT Press.
[126] C OWELL , W.R. ED . 1984. Sources and Development of Mathematical Software. Prentice
Hall.
[127] C OURANT, R. 1943. Variational Methods for the Solutions of Problems of Equilibrium and
Vibrations. Bulletin of the American Mathematical Society, Vol. 49, No. 1, pp. 1-23.
[128] C UTHILL , E. Y M C K EE , J. 1969. Reducing the bandwidth of Sparse Symmetric Matrices.
Proceedings of the 24th Nationeal Conference of the Association for Computing Machinery
(ACM), pp. 157-172. Brandon Systems Press.
[129] DAHLQUIST, G. Y B JRK , A. V 1974. Numerical Methods. Prentice Hall.
[130] DACOROGNA , B. 2004. Introduction to the Calculus of Variations. Imperial College Press.
[131] DAKIN , R.J. 1965. A Tree-Search Algorithm for Mixed Integer Programming Problems.
Computer Journal 8, pp. 250-255.
[132] DANAILA , I., J OLY, P., K ABER , S.M. Y P OSTEL , M. 2007. A, Introduction to Scientic
Computing. Twelve Computational Projects Solved with MATLAB. Springer.
[133] DANILINA , N.I., D UBROVSKAYA , N.S., K VASHA , O.P. Y S MIRNOV, G.L. 1988. Compu-
tational Mathematics. Mir Publishers.
[134] DANTZIG , G.B. 1963. Linear Programming and Extensions. Princeton University Press.
[135] DANTZIG , G.B. 1987. Origins of the Simplex Method. Technical Report SOL 87-5. Sys-
tems Optimization Laboratory, Department of Operations Research, Stanford University.
[136] DANTZIG , G.B. Y W OLFE , P H . 1960. Decomposition Principle for Linear Programming.
Operations Research 8, pp. 101-111.
[137] DARST, R.B. 1991. Introduction to Linear Programming: Applications and Extensions.
Marcel Dekker.
[138] DATTA , B.N. 1995. Numerical Linear Algebra and Applications. Brooks/Cole.
[139] DATTORRO , J. 2016. Convex Optimization  Euclidean Distance Geometry 2". M"oo
Publishing.
[140] DAVENPORT, J.H. S IRET, Y. Y T OURNIER , E. 1993. Computer Algebra. Systems and Al-
gorithms for Algebraic Computation. Academic Press.
[141] DAVIS , T.A. 2006. Direct Methods for Sparse Linear Systems. SIAM.
[142] DAVIS , P.J. Y R ABINOWITZ , P. 1984. Methods of Numerical Integration. Second Edition.
Academic Press.
[143] DAVIS , T.A. Y S IGMAN , K. 2005. MATLAB Primer. Seventh Edition. Chapman and Ha-
ll/CRC.
[144] DE LA F UENTE , J.L. Y L UMBRERAS , J. 1987. A New Implementation of an Optimal Power
Flow System Based on a General Purpose Nonlinear Programming Program. Proc. IEEE
PICA, pp. 422-428.
Bibliografa j 231

[145] DE LA F UENTE , J.L. 1986. Programacin en redes no lineales. El problema de redes elc-
tricas. Actas Optimizacin de Flujos en Redes86.
[146] DE LA F UENTE , J.L. 1987. Programacin no lineal: Aplicaciones en anlisis, gestin
y planicacin de sistemas elctricos. Actas I Seminario Internacional de Investigacin
Operativa-Programacin Matemtica86. J.P. Vilaplana y L.F. Escudero eds., pp. 255-278.
[147] DE LA F UENTE , J.L. 1988. Application of Nonlinear Network Optimization Techniques to
Large Scale Power Schedulling Problems. TIMS/ORSA National Meeting.
[148] DE LA F UENTE , J.L. 1989. La programacin matemtica y la planicacin de redes elc-
tricas. Actas Programacin Matemtica89.
[149] DE LA F UENTE , J.L. 1998. Tcnicas de clculo para sistemas de ecuaciones, programa-
cin lineal y programacin entera. Segunda edicin. Revert.
[150] DE LA F UENTE , J.L. 2016. Matemticas y algoritmos numricos. Deniciones, notacin y
proposiciones esenciales para un curso avanzado. Cculo Rojo.
[151] DE LA F UENTE , J.L. 2017. Ingeneira de los algoritmos y mtodos numricos. Un acerca-
miento prctico y avanzado a la computacin cientca e ingenieril con MATLAB. Cculo
Rojo.
[152] D EMBO , A. 2013. Stochastic Processes. Department of Statistics. Stanford University.
http://statweb.stanford.edu/~adembo/math-136/nnotes.pdf
[153] D EMMEL , J.W. 1997. Applied Numerical Linear Algebra. SIAM.
[154] D EMIDOVICH , B.P. Y M ARON , I.A. 1985. Clculo Numrico Fundamental. Paraninfo.
[155] D ENNIS , J.E. Y S CHNABEL , R.B. 1983. Numerical Methods for Unconstrained Optimiza-
tion and Nonlinear Equations. Prentice Hall.
[156] D ENNIS , J.E. Y S CHNABEL , R.B. 1996. Numerical Methods for Unconstrained Optimiza-
tion and Nonlinear Equations. SIAM.
[157] D OMMEL , H.W. Y T INNEY, W.F. 1968. Optimal Power Flow Solutions. IEEE Trans. on
Power Apparatus and Systems PAS-87, pp. 1866-1876.
[158] D ONGARRA , J.J., B UNCH , J.R., M OLER , C.B. Y S TEWART, G.W. 1979. LINPACK
Users Guide. SIAM.
[159] D ONGARRA , J.J., D UFF , I.S., S ORENSEN , D.C. Y VAN DER VORST, H.A. 1991. Solving
Linear Systems on Vector and Shared Memory Computers. SIAM.
[160] D ORFMAN , R., S AMUELSON , P. Y S OLOW, R. 1958. Linear Programming and Economic
Analysis. McGraw-Hill.
[161] D UBIN , D. 2003. Numerical and Analytical Methods for Scientists ans Engineers Using
Mathematica. Wiley.
[162] D UFF , I.S. 1981. MA32 - A Package for Solving Sparse Unsymmetric Systems Using the
Frontal Method. AERE Harwell Report AERE-R 10079. Computer Science & Systems
Division, AERE Harwell.
[163] D UFF , I.S., E RISMAN , A.M. Y R EID , J.K. 1986. Direct Methods for Sparse Matrices.
Oxford University Press.
[164] D UFF , I.S., G RIMES , G. Y L EWIS , J.G. 1989. Sparse Matrix Test Problems. ACM Trans.
on Mathematical Software 15, pp. 1-14.
[165] D UFF , I.S. Y R EID , J.K. 1979. Some Design Features of a Sparse Matrix Code. ACM
Trans. on Mathematical Software 5, pp.18-35.
[166] D UFF , I.S. Y S TEWART, G.W. EDS . 1979. Sparse Matrix Proceedings 1978. SIAM.
232 j Bibliografa

[167] D UOANDIKOETXEA , J. 2007. 200 aos de convergencia de las series de Fourier. La Gaceta
de la RSME, Vol. 10, No. 3.
[168] E ISELT, H.A. Y S ANDBLOM , C.L. 2007. Linear Programming and its Applications. Sprin-
ger.
[169] E ISENTAT, S.C., S CHULTZ , M.H. Y S HERMAN , A.H. 1981. Algorithms and Data Struc-
tures for Sparse Symmetric Gaussian Elimination. SIAM J. Sci. and Statist. Comput. 2, pp.
225-237.
[170] E LDN , L., W ITTMEYER -KOCH , L. Y B RUUN N IELSEN , H. 2004. Introduction to Nume-
rical Computation. Analysis and MATLAB Illustrations. Studentlitteratur AB.
[171] E LGERD , O.I. 1983. Electric Energy Systems Theory: An Introduction. McGraw-Hill.
[172] E L -H AWARY, M.E. Y C HRISTENSEN , G.S. 1979. Optimal Economic Operation of Electric
Power Systems. Academic Press.
[173] E LLIS , T.M.R., P HILIPS , I.R. Y L AHEY, T.M. 1994. Fortran 90 Programming. Addison-
Wesley.
[174] E NGELN -M LLGES , G. Y U HLIG , F. 1996. Numerical Algorithms with Fortran. Springer.
[175] E NGELN -M LLGES , G. Y U HLIG , F. 1996. Numerical Algorithms with C. Springer.
[176] E PPERSON , J.F. 2013. An Introducton to Numerical Methods and Analysis. Second Edition.
Wiley.
[177] E RISMAN , A.M., N EVES , K.W. Y DWARAKANATH , M.H. EDS . 1980. Electric Power
Problems: The Mathematical Challenge. SIAM.
[178] E VANS , L.C. 1997. Partial Differential Equations. American Mathematical Society.
[179] E VANS , J.R. Y M INIEKA , E. 1992. Optimization Algorithms for Network and Graphs.
Marcel Dekker.
[180] FAIRES , J.D. Y B URDEN , R.L. 1993. Numerical Methods. PWS.
[181] FANG , S.C., P UTHENPURA , S. 1993. Linear Optimization and Extensions. Theory and
Algorithms. Prentice Hall.
[182] FARIN , G. 1988. Curves and Surfaces for Computer Aided Geometric Design. Acaddemic
Press.
[183] FARKAS , J. 1902. Theorie der Einfachen Ungleichungen. Journal fr die Reine und Ange-
wandte Mathematik 124, pp. 1-27.
[184] F ERRIS , M.C., M ANGASARIAN , O.L. Y W RIGHT, S.J. 2007. Linear Programming with
MATLAB. SIAM.
[185] F IACCO , A.V. Y M C C ORMICK , G.P. 1968. Nonlinear Programming: Sequential Uncons-
trained Minimization Techniques. Wiley.
[186] F IACCO , A.V. Y M C C ORMICK , G.P. 1990. Nonlinear Programming: Sequential Uncons-
trained Minimization Techniques. SIAM.
[187] F IELD , R.V. 2008. Stochastic Models: Theory and Simulation. Sandia National Laborato-
ries.
http://prod.sandia.gov/techlib/access-control.cgi/2008/081365.pdf
[188] F ILBERT, F. 2009. Analyse numrique. Algorithme et tude mathmatique Dunod.
[189] F LETCHER , R. 1987. Practical methods of optimization. Wiley.
[190] F LOWERS , B.H. 1995. An Introduction to Numerical Methods in C++. Clarendon Press.
[191] F ORD , L.R. Y F ULKERSON , D.R. 1962. Flows in Networks. Princeton University Press.
Bibliografa j 233

[192] F ORREST, J.H. Y T OMLIN , J.A. 1972. Updated Triangular Factors of the Basis to Main-
tain Sparsity in the Product Form Simplex Method. Mathematical Programming 2, pp. 263-
278.
[193] F ORSGREN , A., G ILL , P.E. Y W RIGHT, M.H. 2002. Interior Methods for Nonlinear Op-
timization. SIAM Review, Vol. 44, No. 4, pp. 525-597.
[194] F ORSYTHE , G.E., M ALCOLM , M.A. Y M OLER , C.B. 1977. Computer Methods for Mat-
hematical Computations. Prentice Hall.
[195] F ORTIN , A. 2011. Analyse numrique pour ingnieurs. Presses internationales Polytechni-
que.
[196] F OURER , R., G AY, D.M. Y K ERNIGHAM , B.W. 1993. AMPL. A Modeling Language for
Mathematical Programming. Boyd and Fraser.
[197] F RANDSEN , P.E., J ONASSON , K., N IELSEN , H.B. Y T INGLEFF , O. 2004. Unconstrained
Optimization. Technical University of Denmark, Informatics.
[198] F REUND , R.M. 2009. Introduction to Semidenite Programming (SDP). MIT Open Course
Ware.
https://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-251j-
introduction-to-mathematical-programming-fall-2009/readings/MIT6_251JF09_SDP.pdf
[199] G AL , T. 1979. Postoptimal Analysis, Parametric Programming, and Related Topics.
McGraw-Hill.

[200] G ANDER , W. Y H REB
CEK , J. 1993. Solving Problems in Scientic Computing Using Ma-
ple and MATLAB. Springer.

[201] G ANDER , W. Y H REB
CEK , J. 1997. Solving Problems in Scientic Computing Using Ma-
ple and MATLAB. Third Edition. Springer.
[202] G ANDER , W., G ANDER , M.J. Y K WOK , F. 2014. Scientic Computing. An Introduction
using Maple and MATLAB. Springer.
[203] G ANDER , M.J. Y WANNER , G. 2012. From Euler, Ritz, and Galerkin to Modern Compu-
ting. SIAM Review, Vol. 54, No. 4. SIAM.
[204] G ARBOW, B.S., B OYLE , J.M., D ONGARRA , J.J. Y M OLER , C.B. 1977. Matrix Eigensys-
tem Routines-EISPACK Guide Extension. Springer.
[205] G ARCA , C.B. Y Z ANGWILL , W.I. 1981. Pathways to Solutions, Fixed Points, and Equili-
bria. Prentice Hall.
[206] G ARFINKEL , R.S. Y N EMHAUSER , G.L. 1972. Integer Programming. Wiley.
[207] G AUTSCHI , W. 2012. Numerical Analysis. Second Edition. Springer
[208] G ENTLE , J.E. 2007. Matrix Algebra. Springer
[209] G ENTLE , J.E. 2007. Matrix Algebra. Theory, Computations, and Applications in Statistics.
Springer
[210] G EORGE , A. Y H EATH , M.T. 1980. Solution of Sparse Linear Least Squares Problems
Using Givens Rotations. Linear Algebra and its Applications 34, pp. 69-83.
[211] G EORGE , A. Y L IU , J.W. 1979. An Implementation of a Pseudoperipherial Node Finder.
ACM Trans. on Mathematical Software 5, pp. 284-295.
[212] G EORGE , A. Y L IU , J.W. 1979. The Design of a User Interface for a Sparse Matrix Pac-
kage. ACM Trans. on Mathematical Software 5, pp. 139-162.
[213] G EORGE , A. Y L IU , J.W. 1981. Computer Solution of Large Sparse Positive Denite Sys-
tems. Prentice Hall.
234 j Bibliografa

[214] G EORGE , A. Y N G , E. 1984. SPARSPAK: Waterloo Sparse Matrix Package. Users Guide
for SPARSPAKB. Research Report CS-84-37, Department of Computer Science, University
of Waterloo, Waterloo, Ontario, Canad.
[215] G EORGE , A. Y N G , E. 1985. An Implementation of Gaussian Elimination with Partial
Pivoting for Sparse Systems. SIAM J. Sci. and Statist. Comput. 6, pp. 390-409.
[216] G EORGE , A. 1971. Computer Implementation of the Finite Element Method. Ph.D. Disser-
tation, Computer Science Department Report STAN-CS-71208, Stanford University.
[217] G EORGE , A. 1980. An Automatic One-way Disecction Algorithm for Irregular Finite Ele-
ment Problems. SIAM J. Numer. Anal. 17, pp. 740-751.
[218] G ERALD , C.F. Y W HEATLEY, P.O. 1994. Applied Numerical Analysis. Addison-Wesley.
[219] G IBBS , N.E., P OOLE , W.G. Y S TOCKMEYER , P.K. 1976. An Algorithm for Reducing the
Bandwidth and prole of a Sparse Matrix. SIAM J. Numer. Anal. 13, pp. 236-250.
[220] G ILL , P.E. Y M URRAY, W. 1974. Numerical Methods for Constrained Optimization. Aca-
demic Press.
[221] G ILL , P.E., M URRAY, W. Y W RIGHT, M.H. 1981. Practical Optimization. Academic
Press.
[222] G ILL , P.E., M URRAY, W. Y W RIGHT, M.H. 1991. Numerical Linear Algebra and Optimi-
zation. Volume 1. Addison-Wesley.
[223] G ILL , P.E., M URRAY, W., S AUNDERS , M.A. Y W RIGHT, M.H. 1986. Maintaining LU
Factors of a General Sparse Matrix. Technical Report SOL 86-8. Systems Optimization
Laboratory, Department of Operations Research, Stanford University.
[224] G ILL , P.E., M URRAY, W., S AUNDERS , M.A., T OMLIN , J.A. Y W RIGHT, M.H. 1986. On
Projected Newton Barrier Methods for Linear Programming and an Equivalence to Kar-
markars Projective Method. Technical Report SOL 85-11R, revision of May 1986. Systems
Optimization Laboratory, Department of Operations Research, Stanford University.
[225] G ILLETT, B.E. 1976. Introduction to Operations Research: A Computer Oriented Algo-
rithmic Approach. McGraw-Hill.
[226] G OLDBERG , S. 1958. Introduction to Difference Equations. Wiley.
[227] G OLDFARB , D. Y T ODD , M.J. 1989. Linear Programming. En Handbooks in Operations
Research and Management Science. Volume 1: Optimization. Nemhauser, G.L., Rinnooy
Kan, A.H.G. y Todd, M.J. eds. North-Holland.
[228] G OLDSTEIN , A.A. 1965. On Steepest Descent. SIAM J. Control 3, pp. 147-151.
[229] G OLOVINA , L.I. 1974. Algebra lineal y algunas de sus aplicaciones. Editorial Mir.
[230] G OLUB , G.H. Y M EURANT, G.A. 1983. Rsolution Numrique des Grands Systemes
Linaires. Editions Eyrolles.
[231] G OLUB , G.H. Y OL EARY, D.P. 1989. Some History of the Conjugate Gradient and Lan-
czos Algorithms: 1948-1976. SIAM Review 31, pp.50-102.
[232] G OLUB , G.H. Y O RTEGA , J.M. 1992. Scientic Computing and Differential Equations.
An Introduction to Numerical Methods. Academic Press.
[233] G OLUB , G.H. Y R EINSCH , C. 1970. Singular Value Decomposition and Least Squares
Solutions. Numerische Mathematik 14, pp. 403-20.
[234] G OLUB , G.H. Y VAN L OAN , C.F. 1983. Matrix Computations. The Johns Hopkins Uni-
versity Press.
Bibliografa j 235

[235] G OLUB , G.H. Y VAN L OAN , C.F. 1989. Matrix Computations. Second Edition. The Johns
Hopkins University Press.
[236] G OLUB , G.H. Y VAN L OAN , C.F. 1996. Matrix Computations. Third Edition. The Johns
Hopkins University Press.
[237] G OLUB , G.H. Y VAN L OAN , C.F. 2013. Matrix Computations. Fourth Edition. The Johns
Hopkins University Press.
[238] G OMORY, R.E. 1960. An Algorithm for the Mixed Integer Problem. RAND Corporation
paper RM-2597.
[239] G OMORY, R.E. 1963. An Algorithm for Integer Solutions to Linear Programs. Recent Ad-
vances in Mathematical Programming. Graves, R. y Wolfe, Ph. eds. McGraw-Hill.
[240] G ONDRAN , M. Y M INOUX , M. 1979. Graphes et Algorithmes. Editions Eyrolles.
[241] G ONIN , R. Y M ONEY, A.H. 1989. Nonlinear Lp Estimation. Marcel Dekker.
[242] G OOSSENS , M., M ITTELBACH , F. Y S AMARIN , A. 1994. The LATEX Companion. Addison-
Wesley.
[243] G OOSSENS , M., M ITTELBACH , F. Y S AMARIN , A. 2004. The LATEX Companion. Second
Edition. Addison-Wesley.
[244] G OOSSENS , M., R AHTZ , S. Y M ITTELBACH , F. 1997. The LATEX Graphics Companion.
Illustrating Documents with TEX and PostScript. Addison-Wesley.
[245] G RAINGER , J.J. Y S TEVENSON J R ., W.D. 1994. Power Systems Analysis. McGraw-Hill.
[246] G RAN , A. Anlisis de Componentes Principales. Departamento de Estadstica, Universi-
dad Carlos III de Madrid.
[247] G REENBAUM , A. 1997. Iterative Methods for Solving Linear Systema. SIAM.
[248] G REENBERG , H. 1971. Integer Programming. Academic Press.
[249] G RIFFITHS , D.F. Y H IGHAM , D.J. 2010. Numerical Methods for Ordinary Differential
Equations. Initial Vaue Problems. Springer.
[250] G RIGORIADIS , M.D. 1986. An Efcient Implementation of the Network Simplex Method.
Mathematical Programming Study 26, pp. 83-111.
[251] G RIVA , I., NASH , S.G. Y S OFER , A. 2009. Linear and Nonlinear Optimization. SIAM.
[252] G RTSCHEL , M., L OVSZ , L. Y S CHRIJVER , A. 1988. Geometric Algorithms and Com-
binatorial Optimization. Springer.
[253] G UTKNECHT, M.H. 2008. Iterative Methods. ETH Zurich, Seminar for Applied MAthe-
matics.
http://www.sam.math.ethz.ch/~mhg/unt/SWNLA/itmethSWNLA08.pdf
[254] H FELE , W. Y K IRCHMAYER , L.K. EDS . 1981. Modeling of Large-Scale Energy Systems.
Pergamon Press.
[255] H ABERMAN , R. 2013. Applied Partial Differential Equations with Fourier Series and
Boundary Value Problems. Pearson.
[256] H AGER , W.W. 1984. Condition Estimates. SIAM J. Sci. and Statist. Comput. 5, pp. 311-
316.
[257] H AGER , W.W. 1988. Applied Numerical Linear Algebra. Prentice Hall.
[258] H AHN , B. Y VALENTINE , D.T. 2007. Essential MATLAB for Engineers and Scientists.
Third Edition. Elsevier.
[259] H EATH , M.T. 2002. Scientic Computing. An Introductory Survey. Second Edition.
McGraw-Hill.
236 j Bibliografa

[260] H ALL , M. 1956. An Algorithm for Distinct Representatives. Amer. Math. Monthly 63, pp.
716-717.
[261] H ALMOS , P.R. 1974. Finite-Dimensional Vector Spaces. Springer.
[262] H AMMER , P.L., J OHNSON , E.L. Y KORTE , B.H. EDS . 1979. Discrete Optimization III.
North-Holland.
[263] H MMERLIN , G. Y H OFFMANN , K. H. 1991. Numerical Mathematics. Springer.
[264] H AMMING , R.W. 1986. Numerical Methods for Scientists and Engineers. Dover Publica-
tions.
[265] H ANSELMAN , D. Y L ITTLEFIELD , B. 1998. Mastering MATLAB 5. A Comprehensive Tu-
torial abd Reference. Prencite Hall.
[266] H ARMAN , T.L., DABNEY. J. Y R ICHERT, N. 2000. Advanced Enginerring Mathematics
with MATLAB. Second Edition. Brooks/Cole.
[267] H ARWELL L ABORATORY 1987. HARWELL Subroutine Library: A Catalogue of Subrouti-
nes (1987). Computer Science and Systems Division, AERE Harwell.
[268] H EATH , M.T. 2002. Scientic Computing. An Introductory Survey. Second Edition.
McGraw-Hill.
[269] H ELLERMAN , E, Y R ARICK , D. 1971. Reinversion with the Preassigned Pivot Procedure.
Mathematical Programming 1, pp. 195-216.
[270] H ELLERMAN , E, Y R ARICK , D. 1972. The Partitioned Preassigned Pivot Procedure (P4 ).
En Sparse Matrices and their Applications. Rose, D.J. y Willoughby, R.A. eds. Plenum
Press.
[271] H ERDRIX , E.M.T. Y T TH , B.G. 2010. Introduction to Nonlinear and Global Optimiza-
tion. Springer.
[272] H ENRICI , P. 1982. Essentials of Numerical Analysis with Pocket Calculator Demonstra-
tions. Wiley.
[273] H RON , B., I SSARD -ROCH , F. Y P ICARD , C. 2005. Analyse numrique. Exercices et pro-
blmes corrigs. Dunod.
[274] H ESTENES , M. 1980. Conjugate Direction Methods in Optimization. Springer.
[275] H IAI , F. Y P ETZ , D. 2014. Introduction to Matrix Analysis and Applications. Springer.
[276] H IGHAM , N.J. 1995. The Test Matrix Toolbox for MATLAB. Numerical Analysis Report
No. 276. The University of Manchester.
http://www.ma.man.ac.uk/MCMM.
[277] H IGHAM , N.J. 1996. Accuracy and Stability of Numerical Algorithms. SIAM.
[278] H IGHAM , N.J. 2002. Accuracy and Stability of Numerical Algorithms. Second Edition.
SIAM.
[279] H IGHAM , N.J. 2002. The Matrix Computation Toolbox for MATLAB. Numerical Analysis
Report No. 410. The University of Manchester.
http://www.ma.man.ac.uk/MCMM.
[280] H IGHAM , D.J. Y H IGHAM , N.J. 2000. MATLAB Guide. SIAM.
[281] H IGHAM , D.J. Y H IGHAM , N.J. 2005. MATLAB Guide. Second Edition. SIAM.
[282] H ILDEBRAND , F.B. 1987. Introduction to Numerical Analysis. Dover Publications.
[283] H ILLIER , F.S. Y L IEBERMAN , G.J. 1974. Introduction to Operations Research. Holden-
Day.
Bibliografa j 237

[284] H ILLIER , F.S. Y L IEBERMAN , G.J. 1995. Introduction to Mathematical Programming.


McGraw-Hill.
[285] H ILLIER , F.S. Y L IEBERMAN , G.J. 2010. Introduccin a la Investigacin de Operaciones.
McGraw-Hill.
[286] H IMMELBLAU , D.M. ED . 1973. Decomposition of Large-Scale Problems. North-Holland.
[287] H OCKNEY, R.W. 1996. The Science of Computer Benchmarking. SIAM.
[288] H OFFMAN , J.D. 2001. Numerical Methods for Engineers and Scientists. CRC Press.
[289] H OLMES , M.H. 2007. Introduction to Numerical Methods in Differential Equations. Sprin-
ger.
[290] H OPCROFT, J.E. Y K ENNEDY, K.W. C HAIRS 1989. Computer Science. Achievements and
Opportunities. SIAM.
[291] H ORN , R.A. Y J OHNSON , C.R. 1985. Matrix Analysis. Cambridge.
[292] H OUSEHOLDER , A.S. 1975. The Theory of Matrices in Numerical Analysis. Dover Publi-
cations.
[293] H U , T.C. 1970. Integer Programming and Network Flows. Addison-Wesley.
[294] H UNT, B.R., L IPSMAN , R.L. Y ROSENBERG , J.M. 2006. A Guide to MATLAB for Begin-
ners and Experienced Users. Second Edition. Cambridge.
[295] H URLBERT, G. 2010. Linear Optimization. The Simplex Workbook. Springer.
[296] H UYNH , H.T., L AI , V.S. Y S OUMARE , I. 2008. Stochastic Simulation and Applications in
Finance with MATLAB Programs. Wiley.
[297] H WANG , K. Y B RIGGS , F.A. 1985. Computer Architecture and Parallel Processing.
McGraw-Hill.
[298] I GNIZIO , J.P. Y C AVALIER , T.M. 1994. Linear Programming. Prentice Hall.
[299] I LI C , M.D. Y L IU , S. 1996. Hierarchical Power Systems Control. Its Value in a Changing
Industry. Springer.
[300] I NFANGER , G. 1994. Planning under Uncertainty. Solving Large-Scale Stochastic Linear
Programs. Boyd & fraser Publishing Company.
[301] I SAACSON , E. Y K ELLER , H.B. 1994. Analysis of Numerical Methods. Dover Publications.
[302] JACOBS , D. ED . 1977. The State of the Art in Numerical Analysis. Academic Press.
[303] JAMES , G. 2011. Advanced Modern Engineering Mathematics. Fourth Edition. Pearson.
[304] JAMES , G. 2015. Modern Engineering Mathematics. Fifth Edition. Pearson.
[305] JAHN , J. 2007. Introduction to the Theory of Nonlinear Optimization. Springer.
[306] JARRE , F. Y S TOER , J. 2004. Optimierung. Springer.
[307] J ENNINGS , A. Y M C K EOWN , J.J. 1992. Matrix Computation. Second Edition. Wiley.
[308] K ARLOFF , H. 1991. Linear Programming. Birkhuser.
[309] K ARMARKAR , N. 1984. A New Polynomial-Time Algorithm for Linear Programming.
Combinatorics 4, pp. 373-395.
[310] K ARRIS , S.T. 2004. Numerical Analysis using MATLAB and Spreadsheets. Orchard Publi-
cations.
[311] K ARUSH , W. 1939. Minima of Functions of Several Variables with Inequalities as Side
Constraints. M.Sc. Dissertation, Department of Mathematics, University of Chicago.
[312] K AUFMANN , A. Y H ENRY-L ABORDRE , A. 1974. Mthodes et Modles de la Recherche
Oprationnelle. Dunod.
238 j Bibliografa

[313] K ELLEY, C.T. 1995. Iterative Methods for Linear and Nonlinear Equations. SIAM.
[314] K ELLEY, C.T. 1999. Iterative Methods for Optimization. SIAM.
[315] K ENNINGTON , J.L. Y H ELGASON , R.V. 1980. Algorithms for Network Programming. Wi-
ley.
[316] K ERN , M. 2005. lments nis aspects mathmatiques. INRIA.
http://mms2.ensmp.fr/ef_paris/formulation/transparents/f_MathMef.pdf
[317] K HARAB , A. Y G UENTHER , R.B. 2012. An Introduction to Numerical Methods. A
MATLAB Approach. CRC Press.
[318] K INCAID , D.R. Y H AYES , L.J. EDS . 1990. Iterative Methods for Large Linear Systems.
Academic Press.
[319] K IUSALAAS , J. 2010. Numerical Methods in Engineering with MATLAB. Cambridge.
[320] K LEE , V. Y M INTY, G.J. 1972. How good is the Simplex Algorithm? En Inequalities III.
Shisha, O. ed. Academic Press.
[321] K LINGMAN , D., NAPIER , A. Y S TUTZ , J. 1974. NETGEN-A Program for Generating
Large-scale (Un)Capacitated Assigment, Transportation and Minimum Cost Flow Network
Problems. Management Science 20, pp. 814-821.
[322] K NIGHT, A. 2000. Basics of MATLAB and Beyond. Chapman and Hall/CRC.
[323] KOLMAN , B. Y B ECK , R.E. 1995. Elementary Linear Programming with Applications.
Academic Press.
[324] KOLMOGOROV, A.M. Y F OMIN , S.V. 1972. Elementos de la teora de funciones y del
anlisis funcional. Editorial Mir.
[325] KOLMOGOROV, A.M. Y F OMIN , S.V. 1975. Introductory Real Analysis. Dover Publica-
tions.
[326] KOPCHENOVA , N.V. Y M ARON , I.A. 1975. Computational Mathematics. Worked Exam-
ples and Problems with Elements of Theory. Mir Publishers.
[327] KOPKA , H. Y DALY, P.W. 1995. A Guide to LATEX 2" . Document Preparation for Beginners
and Advanced Users. Addison Wesley.
[328] KOROVKIN , P.P. 1976. Desigualdades. Editorial Mir.
[329] K RANTZ , S.G. Y PARKS , H.R. 2003. The Implicit Function Theorem. History, Theory, and
Applications. Birkhuser.
[330] K RESSNER , D. 2005. Numerical Methods for General and Structured Eigenvalue Pro-
blems. Springer.
[331] K REYSZIG , E. 2011. Advanced Engineering Mathematics. Wiley.
[332] K UESTER , J.L. Y M IZE , J.H. 1973. Optimization Techniques with Fortran. McGraw-Hill.
[333] K UHN , H.W. Y T UCKER , A.W. 1951. Nonlinear Programming. En Proceedings of the
Second Berkeley Symposium on Mathematical Statistics an Probability. University of Ca-
lifornia Press.
[334] K NZI , H.P. Y K RELLE , W. 1969. La Programmation Non Linaire. Gauthier-Villars.
[335] L AMPORT, L. 1994. LATEX. A Document Preparation System. Users Guide and Reference
Manual. Addison-Wesley.
[336] L AND , A. Y P OWELL , S. 1973. Fortran Codes for Mathematical Programming. Wiley.
[337] L ANG , S. 1968. Analysis. Vols. I y II. Addison-Wesley.
[338] L ANG , S. 1983. Linear Algebra. Addison-Wesley.
Bibliografa j 239

[339] L ARSON , R.E. 1968. State Increment Dynamic Programming. American Elsevier.
[340] L ARSSON , S. Y T HOME , V. 2009. Partial Differential Equations with Numerical Meth-
ods. Springer.
[341] L ASCAUX , P. Y T HODOR , R. 1986. Analyse Numrique Matricielle Applique a lArt de
lIngnieur. Vols. I y II. Masson, S.A.
[342] L ASDON , L.S. 1970. Optimization Theory for Large Systems. Macmillan Publishing Com-
pany.
[343] L AWLER , E.L. 1976. Combinatorial Optimization: Networks and Matroids. Holt, Rinehart
and Winston.
[344] L AWSON , C.L. Y H ANSON , R.J. 1974. Solving Least Squares Problems. Prentice Hall.
[345] L AWSON , C.L. Y H ANSON , R.J. 1995. Solving Least Squares Problems. SIAM.
[346] L AY, D.C. 2012. lgebra lineal y sus aplicaciones. Cuarta edicin. Pearson educacin.
[347] L AY, D.C. 2015. Linear Algebra and its Applications. Fourth Edition. Addison-Wesley.
[348] L AY, D.C. Y L AY, S.R. 2015. Linear Algebra and its Applications. Fifth Edition. Pearson.
[349] L EIFMAN , L.J. ED . 1990. Functional Analysis, Optimization, and Mathematical Econo-
mics. Oxford University Press.
[350] L EBOUCQ , R.B., S ORENSEN , D.C. Y YANG , C. 1998, ARPACK Users Guide: Solution
of Large-Scale Eigenvalue Problems with Implicitly Restarted Arnoldi Methods. SIAM.
[351] L EMKE , C.E. 1954. The Dual Method of Solving the Linear Programming Problem. Naval
Research Logistics Quarterly 1, pp. 36-47.
[352] L ERMAN , S.R. 1993. Problem Solving and Computation for Scientists and Engineers. An
Introduction Using C. Prentice Hall.
[353] L EW, A. Y M AUCH , H. 2007. Dynamic Programming. A Computational Tool. Springer.
[354] L EYFFER , S. Y M AHAJAN , A. 2010. Software for Nonlinear Constrained Optimization.
Argonne National Laboratory, Mathematics and Computer Science Division.
[355] L EVENBERG , K. 1944. A Method for the Solution of Certain Problems in Least Squares.
Quart. Appl. Math. 2, pp. 164-168.
[356] L IEBMAN , J., L ASDON , L., S CHRAGE , L. Y WAREN , A. 1986. Modeling and Optimiza-
tion with GINO. The Scientic Press.
[357] L INDFIELD , G. Y P ENNY, J. 1995. Numerical Methods Using MATLAB. Ellis Horwood.
[358] L OEHR , N 2014. Advanced Linear Algebra. CRC Press.
[359] L ONGLEY, J.W. 1984. Least Squares Computations Using Orthogonalization Methods.
Marcel Dekker.
[360] L UENBERGER , D.G. 1969. Optimization by Vector Space Methods. Wiley.
[361] L UENBERGER , D.G. 1984. Linear and Nonlinear Programming. Addison-Wesley.
[362] L UENBERGER , D.G. 1989. Programacin lineal y no lineal. Addison-Wesley Iberoameri-
cana.
[363] L UENBERGER , D.G. Y Y E , Y. 2016. Linear and Nonlinear Programming. Fourth Edition.
Springer.
[364] L USTIG , I.J., M ARSTEN , R.E. Y S HANNO , D.F. 1992. On Implementing Mehrotras
Predictor-Corrector Interior-Point Method for Linear Programming. SIAM J. Optimiza-
tion, Vol. 2, No. 3, pp. 435-449.
240 j Bibliografa

[365] M ADDEN , N. 2012. Numerical Solution to Differential Equations using MATLAB: Part 2.
Finite Element Methods. National University of Ireland Galway, School of Mathematics,
Statistics and Applied Mathematics.
http://www.maths.nuigalway.ie/~niall/teaching/Archive/1112/Finite-V02.pdf
[366] M ADDEN , N. 2012. Numerical Solution to Differential Equations using MATLAB: Part
3. A nite element implementation for 2D elliptic problem. National University of Ireland
Galway, School of Mathematics, Statistics and Applied Mathematics.
http://www.maths.nuigalway.ie/~niall/teaching/Archive/1112/Finite-V01.pdf
[367] M ADSEN , K. Y N IELSEN , H.B. 2010. Introduction to Optimization and Data Fitting. Tech-
nical University of Denmark, Informatics.
[368] M ADSEN , K., N IELSEN , H.B. Y T INGLEFF , O. 2004. Methods for Nonlinear Least Squa-
res Problems. Technical University of Denmark, Informatics.
[369] M ADSEN , K., N IELSEN , H.B. Y T INGLEFF , O. 2004. Optimization with Constraints.
Technical University of Denmark, Informatics.
[370] M ANDL , C. 1979. Applied Network Optimization. Academic Press.
[371] M ANASSAH , J.T. 2001. Elementary Mathematical and Computational Tools for Electrical
and Computer Engineers Using MATLAB. CRC Press.
[372] M ANGASARIAN , O.L. 1994. Nonlinear Programming. SIAM.
[373] M ANNEBACK , P. 1985. On Some Numerical Methods for Solving Large Sparse Linear
Least Squares Problems. Ph.D. Dissertation, Facults Iniversitaires Notre-Dame de la Paix,
Namur, Blgica.
[374] M ARCHUK , G.I. Y DYMNIKOV, V.P. 1985. Problems of Computational Mathematics and
Mathematical Modelling. Mir Publishers.
[375] M ARCUS , M. Y M ING , H. 1964. A Survey of Matrix Theory and Matrix Inequalities. Allyn
and Bacon.
[376] M ARTINEZ , W.L. Y M ARTNEZ , A.R. 2002. Computational Statistics Handbook with
MATLAB. Chapman and Hall/CRC.
[377] M ARKOWITZ , H.M. 1957. The Elimination Form of the Inverse and its Application to
Linear Programming. Management Science 3, pp. 255-269.
[378] M ARQUARDT, D. 1963. An Algorithm for Least Squares Estimation of Nonlinear Parame-
ters. SIAM J. Appl. Math. 11, pp. 431-441.
[379] M ATHEWS , J.H. 1992. Numerical Methods for Mathematics, Science, and Engineering.
Prentice Hall.
[380] M ATHEWS , J.H. Y F INK , K.D. 2000. Mtodos numricos con MATLAB. Prentice Hall.
[381] M C M AHON , D. Y T OPA , D.M. 2006. A Beginnerss Guide to Mathematica. Chapman and
Hall/CRC.
[382] M C C ORMICK , G.P. 1983. Nonlinear Programming. Wiley.
[383] M EHROTRA , S. 1992. On the Implementation of a Primal-Dual Interior Point Method.
SIAM J. Optimization, Vol. 2, No. 4, pp. 575-601.
[384] M ESIROV, J.P. ED . 1991. Very Large Scale Computation in the 21st Century. SIAM.
[385] M ETCALF, M. Y R EID , J. 1990. Fortran 90 Explained. Oxford University Press.
[386] M ETCALF, M. Y R EID , J. 1996. Fortran 90/95 Explained. Oxford University Press.
[387] M EYER , C.D. 2000. Matrix Analysis and Applied Linear Algebra. SIAM.
Bibliografa j 241

[388] M EYER , Y. 1993. Wavelets. Algorithms and Applications. SIAM.


[389] M IERSEMANN , E. 2012. Partial Differential Equations. Lecture notes. Department of Mat-
hematics, Leipzig University.
http://www.math.uni-leipzig.de/~miersemann/pdebook.pdf
[390] M INOUX , M. Y BARTNIK , G. 1986. Graphes, Algorithmes, Logiciels. Dunod.
[391] M INOUX , M. 1986. Mathematical Programming: Theory and Algorithms. Wiley.
[392] M OIN , P. 2010. Fundamentals of Engineering Numerical Analysis. Cambridge.
[393] M OLER , C.B. 2004. Numerical Computing with MATLAB. SIAM.
[394] M OLER , C.B., L ITTLE , J.N. Y BANGERT, S. 1987. PC-MATLAB Users Guide. The Math-
Works.
[395] M OR , J.J. Y W RIGHT, S.J. 1993. Optimization Software Guide. SIAM.
[396] M ORGAN , S.S. 1997. A Comparison of Simplex Method Algorithms. University of Florida,
Computer and Information Science and Engineering Dept.
[397] M OTZ , L. Y W EAVER , J.H. 1993. The Story of Mathematics. Avon Books.
[398] M ORGANSTERN , R.E. 2014. Numerical Anlisis I. Self Edition.
[399] M ORGANSTERN , R.E. 2014. Numerical Anlisis II. Self Edition.
[400] M URTAGH , B.A. Y S AUNDERS , M.A. 1978. Large Scale Linearly Constrained Optimiza-
tion. Mathematical Programming 14, pp. 41-72.
[401] M URTAGH , B.A. Y S AUNDERS , M.A. 1982. A Projected Lagrangian Algorithm and its
Implementation for Sparse Nonlinear Constraints. Mathematical Programming Study 16,
pp. 84-117.
[402] M URTAGH , B.A. Y S AUNDERS , M.A. 1987. MINOS 5.1 Users Guide. Systems Optimi-
zation Laboratory, Department of Operations Research, Stanford University.
[403] M URTY, K.G. 1983. Linear Programming. Wiley.
[404] M URTY, K.G. 1992. Network Programming. Prentice Hall.
[405] NAG 1992. C Library Manual. Numerical Algorithms Group, Mark 2, Oxford, England.
[406] NAG 1993. Fortran Library Manual. Numerical Algorithms Group, Mark 16, Oxford, En-
gland.
[407] NAGLE , R.K., S AFF , E.B. Y S NIDER , A.D. 2005. Ecuaciones diferenciales y problemas
con valores en la frontera. Pearson.
[408] NAKAMURA , S. 1996. Numerical Analysis and Graphic Visualization with MATLAB. Pren-
tice Hall PTR.
[409] NASH , S.G. Y S OFER , A. 1996. Linear and Nonlinear Programming. McGraw-Hill.
[410] N EMHAUSER , G.L. Y W OLSEY, L.A. 1988. Integer and Combinatorial Optimization. Wi-
ley.
[411] N EMHAUSER , G.L. Y W OLSEY, L.A. 1989. Integer Programming. En Handbooks in Ope-
rations Research and Management Science. Volume 1: Optimization. Nemhauser, G.L.,
Rinnooy Kan, A.H.G. y Todd, M.J. eds. North-Holland.
[412] N EMHAUSER , G.L., R INNOOY K AN , A.H.G. Y T ODD , M.J. EDS . 1989. Handbooks in
Operations Research and Management Science. Volume 1: Optimization. North-Holland.
[413] N ERING , E.D. Y T UCKER , A.W. 1993. Linear Programs and Related Problems. Academic
Press.
242 j Bibliografa

[414] N ESTEROV, Y. Y N EMIROVSKII , A. 1994. Interior-Point Polynomial Algorithms in Convex


Programming. SIAM.
[415] N IEDERREITER , H. 1992. Random Number Generation and Quasi-Monte Carlo Methods.
SIAM.
[416] N OCEDAL , J. Y W RIGHT, S.J. 2006. Numerical Optimization. Springer.
[417] N UALART, D. 2017. Stochastic Processes The University of Kansas.
https://www.math.ku.edu/~nualart/StochasticCalculus.pdf
[418] O LVER , P.J. 2014. Introduction to Partial Differential Equations. Springer.
[419] O LVER , P.J. Y S HAKIBAN , C. 2006. Applied Linear Algebra. Pearson.
[420] ON EIL , P.V. 2010. Advanced Engineering mathematics. Brooks/Cole.
[421] O RCHARD -H AYS , W. 1968. Advanced Linear Programming Computing Techniques.
McGraw-Hill.
[422] O RTEGA , J.M. Y R HEINBOLDT, W.C. 1970. Iterative Solution of Nonlinear Equations in
Several Variables. Academic Press.
[423] O RTEGA , J.M. 1988. Introduction to Parallel and Vector Solution of Linear Systems. Ple-
num Press.
[424] PADBERG , M. 1995. Linear Programming and Extensions. Springer.
[425] PAI , M. A. 1986. Computer Techniques in Power System Analysis. McGraw-Hill.
[426] PAIGE , C.C. 1979. Computer Solution of Perturbation Analysis of Generalized Linear
Least Squares Problems. Mathematics of Computation 33, pp. 171-184.
[427] PAIGE , C.C. 1979. Fast Numerically Stable Computations for Generalized Linear Least
Squares Problems. SIAM J. Numer. Anal. 16, pp. 165-171.
[428] PANIK , M.J. 1996. Linear Programming: Mathematics, Theory and Algorithms. Kluver
Academic Publishers.
[429] PANNELL , D.J. 1997. Introduction to Practical Linear Programming. Wiley.
[430] PARKER , R.G. Y R ARDIN , R.L. 1988. Discrete Optimization. Academic Press.
[431] PARTER , S.V. 1961. The Use of Linear Graphs in Gaussian Elimination. SIAM Review 3,
pp. 119-130.
[432] PATEL , R.V., L AUB , A.J. Y VAN D OOREN , P.M. EDS . 1994. Numerical Linear Algebra
Techniques for Systems and Control. IEEE Press.
[433] P EDREGAL , P. 2004. Introduction to Optimization. Springer.
[434] P ETERSEN , K.B. Y P EDERSEN , M.S. 2012. The Matrix Cookbook.
http://matrixcookbook.com
[435] P EA S NCHEZ DE R IVERA , D. 1986. Estadstica. Modelos y mtodos. 1. Fundamentos.
Alianza Universidad Textos.
[436] P FAFFENBERGER , R.C. Y WALKER , D.A. 1976. Mathematical Programming for Econo-
mics and Business. The Iowa State University Press.
[437] P HAN , D. 2010. Introduction au calcul des variations. EPFL.
[438] P HILLIPS , C. Y C ORNELIUS , B. 1986. Computational Numerical Methods. Ellis Horwood
Limited.
[439] P HILLIPS , D.T., R AVINDRAN , A. Y S OLBERG , J. 1976. Operations Research: Principles
and Practice. Wiley.
Bibliografa j 243

[440] P HILLIPS , G.M. Y TAYLOR , P.J. 1996. Theory and Applications of Numerical Anaylis.
Second Edition. Academic Press.
[441] P IERRE , D.A. Y L OWE , M.J. 1975. Mathematical Programming Via Augmented Lagran-
gians. An Introduction with Computer Programs. Addison-Wesley.
[442] P IERRE , D.A. 1986. Optimization Theory with Applications. Dover Publications.
[443] P IKE , R.W. 1986. Optimization for Engineering Systems. Van Nostrand Reinhold Com-
pany.
[444] P ISSANETZKY, S. 1984. Sparse Matrix Technology. Academic Press.
[445] P LATO , R. 2003. Concise Numerical Mathematics. American Mathematical Society.
[446] P LYBON , B.F. 1992. An Introduction to Applied Numerical Analysis. PWS-Kent Publishing
Company.
[447] P OWELL , M.J.D. ED . 1982. Nonlinear Optimization. Academic Press.
[448] P RESS , W.H., F LANNERY, B.P., T EUKOLSKY, S.A. Y V ETTERLING , W.T. 1986. Nume-
rical Recipes in Fortran. The Art of Scientic Computing. Cambridge.
[449] P RESS , W.H., T EUKOLSKY, S.A., V ETTERLING , W.T. Y F LANNERY, B.P. 1992. Nume-
rical Recipes in C. The Art of Scientic Computing. Second Edition. Cambridge.
[450] P RESS , W.H., T EUKOLSKY, S.A., V ETTERLING , W.T. Y F LANNERY, B.P. 1996. Nume-
rical Recipes in Fortran 90. The Art of Parallel Scientic Computing. Cambridge.
[451] P RESS , W.H., T EUKOLSKY, S.A., V ETTERLING , W.T. Y F LANNERY, B.P. 2007. Nume-
rical Recipes. The Art of Scientic Computing. Third Edition. Cambridge.
[452] P YTLAK , R. 2009. Conjugate Gradient Algorithms in Nonconvex Optimization. Springer.
[453] Q UARTERONI , A., S ACCO , R. Y S ALERI , F. 2000. Numerical Mathematics. Springer.
[454] Q UARTERONI , A., S ALERI , F. Y G ERVASIO , P. 2010. Scientic Computing with MATLAB
and Octave. Springer.
[455] R AO , S.S. 2002. Applied Numerical Methods for Engineers and Scientists. Prentice Hall.
[456] R AO , K.R., K IM , D.N. Y H WANG , J.J. 2010. Fast Fourier Transform: Algorithms and
Applications. Springer.
[457] R AVINDRA , A., R AGSDELL , K.M. Y R EKLAITIS , G.V. 2006. Engineering Optimization.
Methods and Applications. Second Edition. Wiley.
[458] R EDFERN , D. Y C AMPBELL , C. 1998. The MATLAB 5 Handbook. Springer.
[459] R ECKTENWALD , G. 2000. Numerical Methods with MATLAB. Implementation Applica-
tion. Prentice Hall.
[460] R EDWINE , C. 1995. Upgrading to Fortran 90. Springer.
[461] R EGISTER , A.H. 2007. A Guide to MATLAB Object Oriented Programming. Chapman and
Hall/CRC.
[462] R EID , J.K. ED . 1971. Large Sparse Sets of Linear Equations. Academic Press.
[463] R EID , J.K. 1982. A Sparsity-Exploiting Variant of the Bartels-Golub Decomposition for
Linear Programming Bases. Mathematical Programming 24, pp. 55-69.
[464] R EKLAITIS , G.V., R AVINDRAN , A. Y R AGSDELL , K.M. 1983. Engineering Optimization.
Methods and Applications. Wiley.
[465] R HEINBOLDT, W.C. 1988. Methods for Solving Systems of Nonlinear Equations. SIAM.
[466] R IAZA , R. Y LVAREZ , M. 1996. Clculo innitesimal. Vols. I y II. Sociedad de Amigos
de la Escuela Tcnica Superior de Ingenieros Industriales de Madrid.
244 j Bibliografa

[467] R BNIKOV, K. 1987. Historia de las matemticas. Editorial Mir.


[468] R ICE , J.R. 1966. Experiments on Gram-Schmidt Orthogonalization. Mathematics of
Computation 20, pp. 325-328.
[469] R ICE , J.R. 1983. Matrix Computations and Mathematical Software. McGraw-Hill.
[470] R ICE , J.R. 1993. Numerical Methods, Software, and Analysis. Academic Press.
[471] ROCKAFELLAR , R.T. 1970. Convex Analysis. Princeton University Press.
[472] ROOS , C. T ERLAKY, T. Y V IAL , J. 1997. Theory and Algorithms for Linear Optimization.
An Interior Point Approach. Wiley.
[473] ROOS , C. T ERLAKY, T. Y V IAL , J. 2005. Interior Point Methods for Linear Optimization.
Springer.
[474] ROSE , D.J. Y W ILLOUGHBY, R.A. EDS . 1972. Sparse Matrices and Their Applications.
Plenum Press.
[475] ROSEN , J.B., M ANGASARIAN , O.L. Y R ITTER , K. EDS . 1970. Nonlinear Programming.
Academic Press.
[476] RUTISHAUSER , H. 1990. Lectures on Numerical Mathematics. Birkhuser.
[477] S AAD , Y. 1994. SPARSKIT: A Basic Tool Kit for Sparse Matrix Computations. Version 2.
Computer Science Department, University of Minnesota, Minneapolis, EE. UU.
[478] S AAD , Y. 1996. Iterative Methods for Sparse Linear Systems. PWS.
[479] S AIGAL , R. 1995. Linear Programming. A Modern Integrated Analysis. Kluver Academic
Publishers.
[480] S ALKIN , H.M. 1975. Integer Programming. Addison-Wesley.
[481] S ALKIN , H.M. Y M ATHUR , K 1989. Introduction to Integer Programming. North-Holland.
[482] S ALKIN , H.M. Y S AHA , J. EDS . 1975. Studies in Linear Programming. North-Holland.
[483] S ARGENT, R.W.H. Y W ESTERBERG , A.W. 1964. Speed-up in Chemical Engineering De-
sign. Trans. Inst. Chem. Eng. 42, pp.190-197.
[484] S AUER , T. 2012. Numerical Analysis. Second Edition. Pearson.
[485] S AUER , T. 2013. Anlisis numrico. Segunda edicin. Pearson educacin.
[486] S AUNDERS , M.A. 1976. A Fast Stable Implementation of the Simplex Method using
Bartels-Golub Updating. En Sparse Matrix Computations. Bunch, J.R. y Rose, D.J. eds.
Academic Press.
[487] S AVILLE , D.J. Y W OOD , G.R. 1991. Statistical Methods: The Geometric Approach. Sprin-
ger.
[488] S AYAS , F.J. 2015. A Gentle Introduction to the Finite Element Method.
[489] S CHATZMAN , M. 1991. Analyse numrique. Cours et exercices pour la licence. InterEdi-
tions.
[490] S CHENDEL , U. 1989. Sparse Matrices. Numerical Aspects with Applications to Scientists
and Engineers. Ellis Horwood Limited.
[491] S CHERER , C.R. 1977. Estimating Electric Power System Marginal Costs. North-Holland.
[492] S CHITTKOWSKI , K. ED . 1985. Computational Mathematical Programming. Springer.
[493] S CHITTKOWSKI , K. 1980. Nonlinear Programming Codes. Information, Tests, Performan-
ce. Lecture Notes in Economics and Mathematical Systems, 183. Springer.
[494] S CHITTKOWSKI , K. 1981. Test Examples for Nonlineal Programming Codes. Lecture No-
tes in Economics and Mathematical Systems, 187. Springer.
Bibliografa j 245

[495] S CHITTKOWSKI , K. 2009. Test Examples for Nonlinear Programming Codes. All Problems
from the Hock-Schittkowski-Collection. Department of Computer Science, University of
Bayreuth.
[496] S CHRAGE , L. 1989. Users Manual for Linear, Integer, and Quadratic Programming with
LINDO. The Scientic Press.
[497] S CHRAGE , L. 1991. LINDO. An Optimization Modeling System. Boyd and Fraser Publis-
hing Company.
[498] S CHRIJVER , A. 1986. Theory of Linear and Integer Programming. Wiley.
[499] S COTT, L.R. 2011. Numerical Analysis. Princeton University Press.
[500] S EDGEWICK , R. 1992. Algorithms in C++. Addison-Wesley.
[501] S EN , R. 2013. A First Course in Functional analysis. Theroy and Applications. Anthem
Press.
[502] S ENIOR , T.B.A. 1986. Mathematical Methods in Electrical Engineering. Cambridge.
[503] S HAMPINE , L.F., G LADWELL , I. Y T HOMPSON , S. 2003. Solvin ODEs with MATLAB.
Cambridge.
[504] S HAPIRO , J.F. 1979. Mathematical Programming. Structures and Algorithms. Wiley.
[505] S HEWCHUK , J.R. 1994. An Introduction to Conjugate Gradient Method without the Ago-
nizing Pain. School Of Computer Science, Carnegie Mellon University.
[506] S IDDALL , J.N. 1982. Optimal Engineering Design. Principles and Applications. Marcel
Dekker.
[507] S IERKSMA G. 1996. Linear and Integer Programming: Theory and Practice. Marcel Dek-
ker.
[508] S IMONNARD , M. 1972. Programmation Linaire. Technique du Calcul conomique. Fon-
dements. Dunod.
[509] S IMONNARD , M. 1973. Programmation Linaire. Technique du Calcul conomique. Ex-
tensions. Dunod.
[510] S KORNIAKOV, L.A. 1988. Sistemas de Ecuaciones Lineales. Editorial Mir.
[511] S MITH , B.T., B OYLE , J.M., D ONGARRA , J.J., G ARBOW, B.S., I KEBE , Y., K LEMA , V.C.
Y M OLER , C.B. 1976. Matrix Eigensystem Routines-EISPACK Guide. Springer.
[512] S BOL , I.M. 1983. Mtodo de Montecarlo. Editorial Mir.
[513] S OLODVNIKOV, A.S. 1980. Sistemas de Desigualdades Lineales. Editorial Mir.
[514] S ORDET, J. 1970. La Programmation Linaire Applique lEntreprise. Dunod.
[515] S ORENSEN , D.C. 2015. CAAM 454 Lecture Notes: Iterative Methods for Linear Systems.
Rice University, Department of Computational and Applied Mathematics
http://www.caam.rice.edu/~caam551/NOTES/Notes454.pdf
[516] S PEDICATO , E. ED . 1991. Computer Algorithms for Solving Linear Algebraic Equations.
The State of the Art. Springer, NATO Scientic Affairs.
[517] S TAGG , G.W. Y E L -A BIAD , A.H. 1968. Computer Methods in Power Systems Analysis.
McGraw-Hill.
[518] S TAHEL , A. 2012. Numerical Methods.
[519] S TEVENSON , W. D. 1984. Elements of Power System Analysis. McGraw-Hill.
[520] S TEWART, G.W. 1973. Introduction to Matrix Computations. Academic Press.
[521] S TEWART, G.W. 1996. Afternotes on Numerical Analysis. SIAM.
246 j Bibliografa

[522] S TEWART, G.W. 1998. Matrix Computations. Vol 1: Basic Decompositions. SIAM.
[523] S TEWART, J. 2015. Calculus. Eighth Edition. Brooks/Cole.
[524] S TOER , J. Y B ULIRSCH , R. 1980. Introduction to Numerical Analysis. Springer.
[525] S TOTT, B. Y A LSAC , O. 1974. Fast Decoupled Load Flow. IEEE Trans. on Power Appa-
ratus and Systems PAS-93, pp. 859-869.
[526] S TRANG , G. 1976. Linear Algebra and its Applications. Academic Press.
[527] S TRANG , G. 1988. Linear Algebra and its Applications. Harcourt Brace Jovanovich.
[528] S TRAUSS , W.A. 2008. Partial Differential Equations. An Introduction. Second Edition.
Wiley.
[529] S LI , E. Y M AYERS , D. 2003. An Introduction to Numerical Analysis. Cambridge.
[530] S ULTAN , A. 1993. Linear Programming. An Introduction with Applications. Academic
Press.
[531] S LLI , E. 2012. Lecture Notes on Finite Element Methods for Partial Differential Equa-
tions. Mathematical Institute University of Oxford.
http://people.maths.ox.ac.uk/suli/fem.pdf
[532] S UN , W. Y Y UAN , Y-X. 2006. Optimization Theory and Methods. Nonlinear Program-
ming. Springer.
[533] TARJAN , R. 1972. Depth-First Search and Linear Graph Algorithms. SIAM J. Computing
1, pp. 146-160.
[534] T EWARSON , R.P. 1973. Sparse Matrices. Academic Press.
[535] T HOMAS , B.J. 1996. The Internet for Scientists and Engineers. Oxford University Press.
[536] T HOMAS , G.B. 2014. Thomas Calculus. Thirteenth Edition. Pearson.
[537] T INNEY, W.F. Y WALKER , J.W. 1967. Direct Solution of Sparse Network Equations by
Optimally Ordered Triangular Factorizations. Proceedings of the IEEE 55, pp.1801-1809.
[538] T ITS , A.L., WCHTE , A., BAKHTIARI , S., U RBAN , T.J. Y L AWRENCE , G.T. 2003. A
Primal-Dual Interior-Point Method for Nonlinear Programming with Strong and Local
Convergence Properties. SIAM J. Optimizaton, Vol. 14, No. 1, pp. 173-199.
[539] T OMLIN , J.A. 1970. Branch-and-Bound Methods for Integer and Non-Convex Program-
ming. En Integer and Nonlinear Programming. Abadie, J. ed. North-Holland.
[540] T OMLIN , J.A. 1972. Pivoting for Size and Sparsity in Linear Programming. J. Inst. Maths.
Applics. 10, pp. 289-295.
[541] T REFETHEN , L.N. Y BAU , D. 1997. Numerical Linear Algebra. SIAM.
[542] T REFETHEN , L.N. 2005. Who invented the great numerical algorithms? Oxford University
Mathematical Institute, Oxford University.
http://www.maths.ox.ac.uk/~trefethen
[543] T YRRELL ROCKAFELLAR , R. 1972. Convex Analysis. Princeton University Press.
[544] T YRRELL ROCKAFELLAR , R. Y W ETS , R.J-B. 1997. Variatonal Analysis. Springer.
[545] U EBERHUBER , C.W. 1995. Numerical Computation. Methods, Software, and Analysis.
Vols I y II. Springer.
[546] VAN DE PANNE , C. 1976. Linear Programming and Related Techniques. North-Holland.
[547] VAN DER VORST, H.A. 2003. Iterative Krylov Methods for Large Linear Systems. Cam-
bridge.
Bibliografa j 247

[548] VAN L OAN , C.F. 1997. Introduction to Scientic Computing. A Matrix-Vector Approach
Using MATLAB. Prentice Hall.
[549] VANDERBEI , R.J. 2001. Linear Programming. Foundations and Extensions. Princeton Uni-
versity, Operations Research and Financial Engineering Dept.
[550] VANDERBEI , R.J. 1999. LOQO: An Interior Point Code for Quadratic Programming. Jour-
nal on Optimization Methods and Software, Vol. 11, pp. 451-484
[551] VARGA , R.S. 1962. Matrix Iterative Analysis. Prentice Hall.
[552] V ENKATARAMAN , P. 2002. Applied Optimization with MATLAB Programming. Wiley.
[553] V ILENKIN , N.YA . 1984. Mtodo de Aproximaciones Sucesivas. Editorial Mir.
[554] V ILLANUEVA , I. 2016. Apuntes de Ampliacin de Clculo. Universidad Complutense de
Madrid.
http://www.mat.ucm.es/~cruizb/Informatica-2/Apuntes-i/Otros-Grupos/AC-Fourier.pdf
[555] WCHTER , A. Y B IEGLER , L.T. 2006. On the Implementation of a Primal-Dual Interior
Point Filter Line Search Algorithm for Large-Scale Nonlinear Programming. Mathematical
Programming 106, pp. 25-57.
[556] WALSH , G.R. 1975. Methods of Optimization. Wiley.
[557] WATKINS , D.S. 1991. Fundamentals of Matrix Computations. Wiley.
[558] WATKINS , D.S. 2002. Fundamentals of Matrix Computations. Second Edition. Wiley.
[559] WATKINS , D.S. 2007. The Matrix Eigenvalue Problem. GR and Krylov Subspace Methods.
SIAM.
[560] W ELLIN , P., K AMIN , S. Y G AYLORD , R. 2005. An Introduction to programming with
Mathematica. Cambridge.
[561] W ENTZEL , E.S. 1983. Operations Research. A Methodological Approach. Mir Publishers.
[562] W HEEDEN , R.L. Y Z YGMUND , A. 2015. Measure ans Integral. An Introduction to Real
Analysis. Second Edition. CRC Press.
[563] W HITE , R.E. 1985. An Introduction to Finite Element Method with Applications to Nonli-
near Problems. Wiley.
[564] W HITEHOUSE , G.E. Y W ECHSLER , B. 1976. Applied Operations Research: A Survey.
Wiley.
[565] W ILKINSON , J.H. 1965. The Algebraic Eigenvalue Problem. Oxford University Press.
[566] W ILKINSON , J.H. 1994. Rounding Errors in Algebraic Processes. Dover Publications.
[567] W ILSON , D.I. 2015. Numerical Methods with MATLAB for Engineers. Auckland Univer-
sity of Technology.
[568] W ILSON , H.B., T URCOTTE , L.H. Y H ALPERN , D. 2003. Advanced Mathematics and
Mechanics Applications Using MATLAB. Third Edition. Chapman and Hall/CRC.
[569] W INSTON , W.L. 1994. Operations Research. Applications and Algorithms. Duxbury Press.
[570] W OLFE , M.A. 1978. Numerical Methods for Unconstrained Optimization. An Introduction.
Van Nostrand Reinhold Company.
[571] W OLFE , P. 1961. A Duality Theorem for Non-Linear Programming. Quart. Appl. Math. 19,
N 3.
[572] W OLFE , P. 1967. Methods of Nonlinear Programming. En Nonlinear Programming. Abadie
J. ed. North-Holland.
248 j Bibliografa

[573] W ONNACOTT, T.H. Y W ONNACOTT, R.J. 1972. Introductory Statistics for Business and
Economics. Wiley.
[574] W OOD , A.J. Y W OLLENBERG , B.F. 1984.cc Power Generation Operation and Control.
Wiley.
[575] W RIGHT, M.H. 2004. The Interior-Point Revolution in Optimization: History, Recent De-
velopments, and lasting Consequences. Bulletin of The American Mathematical Society,
Vol. 42, No. 1, pp. 39-56.
[576] W RIGHT, M.H. 1991. Interior Methods for Constrained Optimization. ATT Bell Laborato-
ries. Acta Numerica.
[577] W RIGHT, S.J. 1997. Primal-Dual Interior Point Methods. SIAM.
[578] YANG , W.Y., C AO , W., C HUNG , T.-S. Y M ORRIS , J. 2005. Applied Numerical Methods
Using MATLAB. Wiley.
[579] YOUNG , D.M. Y G REGORY, R.T. 1988. A Survey of Numerical Mathematics. Vols. I y II.
Dover Publications.
[580] Z IENKIEWICZ , O.C., TAYLOR , R.L. Y Z HU , J.Z. 2005. The Finite Element Method: Its
Basis and Fundamentals. Second Edition. Elsevier.
[581] ZL ITKOVI C , G. 2017. Introduction to Stochastic Processes. Lecture notes. Department of
Mathematics. The University of Texas at Austin.
https://www.ma.utexas.edu/users/gordanz/notes/introduction_to_stochastic_processes.pdf
ndice de materias y autores

A cerrada, en un espacio vectorial normado,


Abierto, conjunto o subconjunto, 13 12
Adherencia, 13 eucldea, 78
de un conjunto, 13 norma, 79
punto de, 13 Borel, F.E.J.E. 200
Anmente dependiente, independiente, 72 Box, G.E.P. 216
lgebra, 32 Brown, R. 208
Teorema fundamental del lgebra, 39 Browniano, movimiento, 208
-lgebra de Borel, 200
Algoritmo, 1 C
Mersenne Twister, 214 C, cuerpo de los nmeros complejos, 1, 3
Aliasing, fenmeno en seales, 186 Campo escalar, 122
Aplicacin, 2 Campo vectorial, 122
biyectiva, 3 Cannica,
dominio de denicin, origen, 3 base de un espacio vectorial, 8
dominio de valores, 3 Cantor, G.F.L.P. 1
imagen, 3 Cara, de un politopo, 78
inyectiva, 3 Carathodory, C. 75
lineal, 17 Cauchy, A.L. 15
ncleo, 17 sucesin de, 15
permutaciones, 3 Cauchy-Schwarz, desigualdad de 22
suprayectiva, 3 Cayley, A. 40, 29
traspuesta, 17 Combinaciones convexas, 71
Autovalor, o valor propoio, 34 estrictamente, 71
Combinacin lineal, de vectores, 7
B Compacto, subconjunto o conjunto, 14
Banach, S. 15 Complemento, de un subconjunto, 2
espacio vectorial de, 15, 19 Completo, espacio vectorial, 15
Base, de un espacio vectorial, 8 Componenetes principales, 153
cannica, 8 Compresin de imgenes y vdeo, JPG, MP3,
Bernoulli, D. 208 189
Bilineal, forma, 21 Condicin,
Biyectiva, aplicacin, 3 de complementariedad de holguras, en
Black, F.S. 222 programacin lineal, 90
Bola, de Lipschitz, R.O.S. 52
abierta, en un espacio vectorial normado, 12 nmero de, de una matriz, 253
250 j ndice de Materias y Autores

Condiciones, convexo, 75
necesarias y sucientes de primer y dual, 81
segundo orden de un mnimo, 69 norma, 79
Conjugada de Fenchel, 103 puntiagudo 79
Conjunto(s), 1 verdadero o apropiado, 79
N, 1 Continuidad, 51
Z, 1 de Lipschitz, 52
R, 1 Convergencia, de una sucesin en espacio
C, 1 vectorial normado, 13
Q, 1 Convergencia puntual, 58
abierto, subconjunto de un espacio Convergencia uniforme, 58
normado, 13 Convexo,
entorno, 12 conjunto, 70, 71
afn, 72 cono, 75
aplicacin, funcin, trasnformacin o Convolucin, de dos funciones, 183
mapeo entre conjuntos, 1 Cooley, J.W. 185
imagen, cionjunto imagen, 3 Coordenadas baricntricas, 73
origen o dominio de denicin, 3 Correlacin, 154
dominio de valores, 3 coeciente, matriz, 154
inyectiva, 3 Cota
suprayectiva, 3 inferior mxima, o nmo, 2
biyectiva, 3 superior mnima, o supremo, 2
cerrado, 13 Criterio o regla
compacto, 14 de Weierstrass, 61
complemento, de un subconjunto, 2 de Nyquist, 186
convexo, 70, 71 Cuadrtica, forma, 48
cota superior mnima o supremo, 1
cota inferior mxima o nmo, 1 D
elemento o miembro, 1 Denida positiva,
elemento mnimo, 80 forma cuadrtica, 48
elemento mximo, 80 matriz, 36
elemento minimal, 80 Desnsidad de probabilidad, 201
estructura algebraica en conjuntos, 3 Dependencia lineal, vectores de espacio
grupo, 3 vectorial, 7
anillo, 3 Derivada de una funcin, 53
cuerpo, 3 Derivada de Frchet, 54
espacio vecctorial, 3 Derivada de Gteaux, 54
frontera o borde de, 13 Descomposicin,
interior de, 13 o triangularizacin de Schur, 42
interseccin, 1 de Jordan, 42
numerable, 3 en valores singulares, 45
sucesin de elementos, 3 espectral, 42
lmite superior de la sucesin, 3 Desigualdad,
lmite inferior de la sucesin, 3 de Cauchy-Schwarz, 22
unin, 1 de Fenchel-Young, 105
vaco, 1 Desigualdades generalizadas, 80
Cono, 75 Diagonal dominante, matriz de, 37
ndice de Materias y Autores j 251

Diferenciabilidad, 53 combinacin lineal de vectores, 7


Dimensin, de espacio vectorial, 8 completo, 15
Dirac, P.A.M. 146 de Lebesgue, 26
funcin delta de, 146 de Sobolev, 28
Direccin, de probabilidad, 200
de un politopo, 91 dimensin, 8
extrema, 91 distancia en espacio vectorial, 10
Dirichlet, P.G.L. 135 elementos o vectores, 5
Distancia, elemento neutro o nulo, 5
en espacio vectorial normado, 10, 19 familia libre, 8
Divergencia, de un campo vectorial 128 fucional, elementos son funciones, 15
Dominio generado o engendrado por un subconjunto,
de denicin, de una aplicacin, 2 8
de valores, de una aplicacin, 2 parte generadora, 8
Dual, dual, 17
espacio vectorial, 17 mtrico, 10, 19
Dualidad, en programacin lineal, 100, 102 norma vectorial, 10
dbil, 97 norma eucldea, 11
norma innito o norma del suprefmo, 11
E p de Hlder, 11
Ecuacin de Poisson, 133 normado, 10
Ecuacin caracterstica, de una matriz, 39 bola abierta, en un espacio vectorial
Elemento de un conjunto, 1 normado, 12
Elemento minimal, 80 bola cerrada, en un espacio vectorial
Elemento mnimo, 80 normado, 12
Elemento mximo, 80 completo, 15
Eipsoide(s), 78 de Banach, 19
degenerado, 78 de Hilbert, 22
Endomorsmo, 17 eucldeo, 11, 22
Entorno, de un punto en un conjunto, 13 prehilbertiano, 21
Envoltura afn, 72 subespacio vectorial, 7
Envoltura cnica, 75 subespacios suplementarios, 8
Envoltura convexa, 71 variedad lineal o subespacio afn, 76
Epigrafo de una funcin, 51 vectores linealmente independientes, 7
Escalar(es), 5 vectores linealmente dependientes, 7
Espacio afn, o variedad lineal, 76 Esperanza matemtica, de variable aleatoria,
Espacio(s) vectorial(es), 5 202
Pn , 7 Espectral, norma de una matriz, 34
Rn , 7 Espectro de una matriz, 39
`p , 18 Estrictamente dominante, matriz, 37
Lp , 18 Eucldeo, espacio vectorial, 22
aplicacin, funcin o transformacin, 17 Euclides de Alejandra, 11
imagen y ncleo, 17 European call option, 222
variedad lineal, 17
contnua, 17 F
base, 8 Faceta, de un politopo, 78
base cannica o base estndar, 8 Factores twiddle, 162
252 j ndice de Materias y Autores

Familia libre, en espacio vectorial, 8 fenmeno de, 174


Farkas, G. 88 Goursat, . 165
Farkas, lema, 88 Gradiente, vector gradiente de una funcin, 53
Fenchel, M.W. 71 Grco de una funcin, 51
desigualdad de Fenchel-Young, 105 Green, G. 136
funcin conjugada de, 103
Fermat, P. 70 H
Forma, Hadamard, J.S. 108
bilineal, 21, 48 Hamilton, W.R. 40
cuadrtica, 48 Hermtica, forma, 21
rango, 48 Hessenberg, K.A. 38
signatura, 48 matriz de, 38
hermtica, 21 Hesse, L.O. 55
lineal, 17 matriz hessiana, 55
sesquilineal, 21 Hessiana, matriz de una funcin, 55
Frmula de Black y Scholes, 222 Hilbert, D. 22
Formulacin dbil, 133, 135, 137 espacio vectorial, 22
Formulacin fuerte, 134 Hiperplano, variedad lineal, 76
Fourier, J.B.J. 167 separador, 85
Frchet, M. 54 teorema de existencia, 84
Frecuencia de Nyquist, 186 soporte, o de apoyo 78, 87
Frobenius, F.G. 33 teorema de existencia, 86
norma de, 33 vector caracterstico, 76
Frontera, o borde de un conjunto, 13 Hipografo de una funcin, 51
Fubini, G. 121 Hlder, O. 11
Funcin, 2 normas p de Hlder, 11
afn, 52 Homomorsmo, 17
conjugada, 103 Hotelling, H. 153
de distribucin, 202
dual, 96, 97, 98, 100 I
continua, 52 Imagen,
continua de Lipschitz, 52 de una aplicacin, 2
convexa, 70 de una matriz, 31
matriz Hessiana de, 55 subespacio, 17
objetivo, de un programa lineal, 69 Independencia lineal, vectores en espacio
subdiferenciable, 56 vectorial, 7
Funcional, funcin de funciones, 145 Inmo, o cota inferior mxima, 2
Integral denida, 25, 58
G Integral doble, 120
Galerkin, B.G. 133 Integral de Cauchy, 165
Gap de dualidad, 95, 98, 101, 103 Integral de Fourier, 179
en condiciones de punto ptimo de Integral de It, 219
Programacin Lineal, 90 Integral de Riemann, 58
Gteaux, R.E. 54 Integral de Lebesgue, 25
Gerschgorin, S.A. 44 Integral en lnea, 122, 123, 125
teorema de, 44 Interior, de un conjunto, 13
Gibbs, J.W. 174 punto, 13
ndice de Materias y Autores j 253

Interseccin, de conjuntos, 1 de proyeccin, 39


Inyectiva, aplicacin, 3 de proyeccin ortogonal, 39
Isomtrico, operador, 22 de Vandermonde, 38
It, K. 219 ecuacin caracterstica, 39
espectro, 39
J estrictamente dominante, 37
Jacobi, C.G.J. 53 hermtica, 36
Jacobiana, matriz, 53 Hessiana, de una funcin, 55
Jordan, M.E.C. 43 imagen, 31
indenida, 37
K Jacobiana, de una funcin vectorial, 53
Karush, W. 90 normal, 36
Karush-Kuhn-Tucker, condiciones en ncleo, 31
programacin lineal, 90 nmero de condicin,
Kolmogorof, A.N. 207
ortogonal, 36
Kronecker, L. 140
pseudoinversa, 47
Krylov, A. 40
radio espectral, 39
subespacio de, 40
rango, 31
Kuhn, H.W. 90
completo, 31
L regular, 31
`p , espacio vectorial, 18 semejante a otra, 42
Lp , espacio vectorial, 18 semidenida negativa, 36
Lagrange, J.L. 95 semidenida positiva, 36
multiplicadores, 100 simtrica, 36
Laplace, P.S. 195 singular, 31
Lebesgue, H.L. 26 unitaria, 36
integral de, 25 Matriz simtrica, 36
espacio de, 26 denida negativa, 36
Libre, familia, en espacio vectorial, 8 denida positiva, 36
Lmite, de una sucesin, 19 indenida, 36
Lineal, forma, 17 semidenida positiva, 36
Lipschitz, R.O.S. 52 semidenida negativa, 36
condicin de, 52 Matriz compaera, de un polinomio, 41, 40
funcin continua, 52 Matriz diagonalizable por semejanza, 42, 43
Matriz de proyeccin, 39
M Matriz de proyeccin ortogonal, 39
Markov, A.A. 212 Matriz pseudoinversa, 47
Maruyama, G. 220 Menores, nmeros de una matriz, 48
Matriz, 29 Mtodo Box-Mller, 216
congruente ortogonal, 43 Mtodo de Euler-Maruyama, 220
denida negativa, 36 Mersenne, M. 214
de covarianzas, 154, 203 Mtrico, espacio vectorial, 19
de diagonal dominante, 37 Mnimo global, 69
de diagonal estrictamente dominante, 37 Mnimo local, 69
de Hankel, 38 Mnimo local estricto, 69
de Hessenberg, 38 Minkowski, H.M. 10
de permutacin, 39 desigualdad de, 10
254 j ndice de Materias y Autores

Modelo de Black y Scholes, 222 Optimizacin, 69


Moivre, A. 162 sin condiciones, existencia de punto
nmeros de Moivre, 162 mnimo, 69
Montecarlo, mtodo, 217 con condiciones, lineles, 69
Moreau, J.J. 71 con condiciones, no lineles, 69
Movimiento Browniano, 208 escalar, 111
Muestreo de seales, 185 optimizacin vectorial, 111
Multiplicadores de Lagrange, en optimizacin ptimo de Pareto, 113
lineal, 90 Ortante no negativo RnC , 81, 96
en optimizacin, 90, 95, 99 Ortogonal(es),
matriz, 36
N subespacio, 22
N, conjunto de los nmeros naturales, 1 vectores, 22
Neumann, K.G. 135 Ortonormales, vectores, 22
Norma,
bola, 79 P
cono, 79 Parte generadora, de un espacio vectorial, 7
de nerga, 28 Pareto, V.F. 113
matricial, 31, 32 Parseval, M-A. 178
consistente, 32 Paseo aleatorio, 208
de Frobenius, 32 Pearson, K. 153
espectral, 34 Permutacin, matriz de, 36
inducida, 34 Plano afn, 72
kAk1 , 34 Poliedro, 78
kAk1 , 34 Polinomio caracterstico, de una matriz, 39
vectorial, 10 Polinomio de Taylor, 63
kxk1 , 11 Polinomio mnimo de una matriz, 41
kxk1 , 11 Polinomio mnico, 40
eucldea, 11 Polinomio trigonomtrico, 167
p de Hlder, 11 coecientes de Fourier, 167
Ncleo, frecuencia fundamental, 167
de una aplicacin, 17 grado, 167
de una matriz, 31 Politopo(s), 78
Numerable, conjunto, 3 arista, 78
Nmero de condicin de una matriz, 253 cara, 78
Nyquist, H. 186 cnico, 78
direccin de un politopo, 91
O extrema, 91
Opcin de compra, 222 faceta, 78
Operador, y regin factible de un programa lineal, 91
adjunto, 22 vrtice, 78
autoadjunto, 22 Poisson, S.D. 133
hermtico, 22 Prehilbertiano, espacio vectorial, 21
isomtrico, 22 Probabilidad, 200
lineal 17 condicionada, 205
simtrico, 22 densidad, 201
unitario, 22 espacio de, 200
ndice de Materias y Autores j 255

Problema de optimizacin escalar, 111 Rolle, M. 65


Problema de optimizacin vectorial, 111
Proceso, de Markov, 212 S
Proceso, de Poisson, 212 Sampleo de seales, 185
Proceso, de Wiener, 210 Scholes, M.S. 222
Proceso estocstico, 206 Schur, I. 42
Producto escalar, o producto interior, en un Schwarz, K.H.A. 22
espacio vectorial, 22 Schwarz, desigualdad de Cauchy-Shwarz, 22
Producto exterior, 31 Semidenida negativa,
Programa dual, de uno lineal, 100, 102 matriz, 36
Proyeccin, Semidenida positiva,
matriz de, 39 matriz, 36
ortogonal de un vector, 39 Semiespacio,
matriz de, 39 abierto, 76
teorema de la, 23 cerrado, 76
Proyector suplementario, 39 Separador, hiperplano, 85
Punto, Serie de Taylor, 63
de acumulacin, 13 Serie trigonomtrica de Fourier, 167
de adherencia, 13 Sesquilineal, forma, 21
extremo de una regin factible, 75 en un espascio vectorial, 21
de conjunto convexo, 75 Shannon, C.E. 186
estacionario, 69 Signatura, de una forma cuadrtica, 48
interior, 13 Smplex, o simplejo, 72
Punto extremo o vrtice de una regin factible, smplex unidad, 73
75 Stokes, G.G. 129
Subconjunto, 1
Q abierto, 13
Q, conjunto de los nmeros racionales, 1 cerrado, 13
compacto, 13
R Subespacio(s),
R, cuerpo de los nmeros reales, 1, 3 de Krylov, 40
Radio espectral de una matriz, 39 imagen, de una aplicacin, 17
Rango, ortogonal, 23
de una forma cuadrtica, 48 propio, 39
de una matriz, 31 suplementarios, 8
completo, 31 vectorial, 7
Regin factible, Subdiferencial, de una funcin, 56
punto extremo, o vrtice, 75 Subgradiente, de una funcin, 56
y politopo, 91 Sucesin, 3
Regla, convergencia en un espacio vectorial
del tringulo, 10 normado, 19
desigualdad de Mnkowski, 10 de Cauchy, 15
Resto de Taylor, 63 de elementos de un conjunto, aplicacin, 3
Riemann, G.F.B. 58 lmite de, 19
Riesz, F 110 Suma directa, de dos subespacios vectoriales, 8
Ritz, W. 131 Suprayectiva, aplicacin, 3
Rockafellar, R.T. 71 Supremo, o cota superior mnima, 2
256 j ndice de Materias y Autores

Sylvester, J.J. 29 U
Ulam, S.M. 217
Unidad imaginaria, 161
T Unin, de conjuntos, 1
Taylor, B. 63
teorema de, 63 V
desarrollo en serie de, 63 Valor(es) propio(s), 39
polinomio de, 63 defectuoso, 39
resto de, 63 dominante, 41
serie de, 63 multiplicidad algebraica, 39
Teorema, multiplicidad geomtrica, 39
central del lmite, 217 Valor(es) singular(es), 43
de Abel, 62 descomposicin en, 45
de Cayley-Hamilton, 39 Vandermonde, A.T. 38
de Fermat, 70 Vandermonde, matriz de, 38
de Fubini, 120 Variable aleatoria, 201
de Green, 127 desnsidad de probabilidad, 201
de Nyquist-Shannon, 186 esperanza matemtica, 202
de Parseval, 178 funcin de distribucin, 202
de Riesz-Frchet, 110 varianza, 202
de Rolle, 65 Variedad afn, variedad lineal, 72
de Stokes, 129 Variedad lineal, hiperplano, 76
de Taylor, 63 separador, 85
de la divergencia, 136 teorema de existencia, 84
de la dualidad fuerte, 99 soporte, 78, 87
de la funcin implcita, 67 teorema de existencia, 86
del valor intermedio, 64 vector caracterstico, 76
Vector(es), 3
del valor medio, 64
aleatorio, 203
espectral, 42
alineados, 23
fundamental del lgebra, 39
caracterstico, de un hiperplano o variedad
fundamental del clculo, 58
lineal, 76
fundamental de la Programacin Lineal, 93
formado ngulo obtuso, 23
fundamental de las integrales en lnea, 125
formado ngulo agudo, 23
Weierstrass, 52 gradiente, 53
Transformacin, linealmente dependientes, 7
de Fenchel, 103 linealmente independientes, 7
Transformada de Fourier, 181 opuestos, 23
Transformada de Fourier discreta, 183 ortogonales, 22
Transformada de Karhunen-Love, 192 ortonormales, 22
Transformada de Laplace, 195 Vector propio, 41
Transformada del coseno discreta, 189 Vrtice de una regin factible, 75
Transformada inversa de Fourier, 181 de un politopo, 78
Transformada rpida de Fourier, 185 Von Neumann, J. 217
Tringulo, regla, 10
Tucker, A.W. 90 W
Tukey, J. 185 Weierstra, K.T.W. 14
ndice de Materias y Autores j 257

criterio de, 61
teorema de, 52
Wiener, N. 210
Wiener, Proceso de, 210
Wolfe, P.S. 102

Z
Z, conjunto (anillo) de los nmeros enteros, 1