You are on page 1of 187

http://digiteria.com.ve/wp/?

p=342

METODOS
NUMERICOS
Un Curso Introductorio Para Ingenieros y Cientficos

Andr
es L. Granados M.
UNIVERSIDAD SIMON BOLIVAR
Departamento de Mecanica
Sartenejas, Baruta, Edo. Miranda
Apdo.89000, Caracas 1080-A
Caracas, Venezuela.

E-Mail: agrana@usb.ve

Ilustracion de la portada: Conjunto de Julia del proceso iterativo complejo zk+1 = zk2 +c con valor c = 0.32+0.043 i.

METODOS
NUMERICOS
Un Curso Introductorio Para Ingenieros y Cientficos

ANDRES L. GRANADOS M.
UNIVERSIDAD SIMON BOLIVAR. Departamento de Mec
anica.
Valle de Sartenejas. Caracas.
Estado Miranda. Venezuela.

RESUMEN
En esta monografa se han desarrollado los metodos numericos fundamentales b
asicos para un curso
introductorio de calculo numerico. He intentado plasmar toda mi experiencia pedagogica en la Universidad
Simon Bolvar de alrededor de 25 aos, durante los cursos de pre-grado MC-2416 Metodos Aproximados, MC2421 Mecanica Computacional I y MC-2422 Mec
anica Computacional II. Eventualmente me correspondi
o
dictar tambien los cursos de post-grado MC-6461 Analisis Avanzado en Ingeniera y MC-7465 Tecnicas
Aproximadas en Mec
anica. Fuera de la Universidad Sim on Bolvar ocasionalmente dicte del curso de Doctorado Tecnicas Numericas en la Universidad Nacional Experimental Politecnica-UNEXPO, Sede Los Dos
Caminos, Av. Sucre. He incluido material para cursos cortos como el de Flujo en Redes de Tuberas
para PDVSA-ESP OIL (An
alisis, Diagn
ostico y Simulacion de Redes de Fluidos) y PETRO-ECUADOR
(Almacenamiento de Petr
oleo y Transferencia).
Tambien he incluido de forma diluida varios de mis artculos mas emblem
aticos. Tratando de hacer
inserciones continuas en el texto, allanando en lo posible los cambios de nivel, para hacer, de una lectura
para un auditorio exclusivo de especializados, una lectura para una p
ublico m
as general e ingenuo y avido de
aprender. He incluido, en lo relativo al tema, mi experiencia durante mi doctorado en Espa
na, cuya tesis fue
b
asicamente numerica aplicada a la Mec
anica de Fluidos, ujo bif
asico solido-Gas, en regimen turbulento.
Particularmente, mi experiencia con soluciones de ecuaciones diferenciales ordinarias, en derivadas parciales
para uidos e interpolaciones polin
omicas y derivaci
on numerica estan plasmados en el texto.
Las siguientes referencias producidas en las u
ltimas decadas, constituyen la inspiraci
on inicial de esta
obra, que se ha extendido lo posible en su contenido y habr
a de extenderse todava mas.
REFERENCIAS
[1] Granados M., A. L. Nuevas Correlaciones para Flujo Multif
asico. INTEVEP S.A. Reporte
Tecnico No. INT-EPPR/322-91-0001. Los Teques, Febrero de 1991. Trabajo presentado en la Conferencia sobre: Estado del Arte en Mecanica de Fluidos Computacional. Auditorium de INTEVEP S.A.
Los Teques, del 27 al 28 de Mayo de (1991).
[2] Granados M., A. L. Second Order Methods for Solving Non-Linear Equations, INTEVEP, S.
A. (Research Institute for Venezuelan Petroleum Industry), Tech. Rep. No.INT-EPPR/322-91-0002,
Los Teques, Edo. Miranda, pp.14-36, Jun. 1991.
[3] Granados M., A. L. Free Order Polynomial Interpolation Algorithm. INTEVEP S.A. Nota
Tecnica. Los Teques, Jul. 1991.
iii

[4] Granados M., A.L. Lobatto Implicit Sixth Order Runge-Kutta Method for Solving Ordinary Dierential Equations with Stepsize Control. INTEVEP S.A. Reporte Tecnico No.
INT-EPPR/3-NT-92-003. Los Teques, Marzo 1992.
[5] Granados M., A. L. Fractal Techniques to Measure the Numerical Instability of Optimization Methods. Numerical Methods in Engineering Simulation: Proceedings of The Third International
Congress on Numerical Methods in Engineering and Applied Sciences, CIMENICS96. Cultural Centre Tulio Febres Cordero, March 25-29, 1996. Merida, Venezuela. Editors: M. Cerrolaza, C. Gajardo,
C. A. Brebbia. Computational Mechanics Publications of the Wessex Institute of Technology (UK),
pp.239-247, (1996).
[6] Granados M. A. L. Lobatto Implicit Sixth Order Runge-Kutta Method for Solving Ordinary Dierential Equations with Stepsize Control. Mec
anica Computacional Vol.XVI: Anales del V Congreso
Argentino de Mec
anica Computacional, MECOM96. Universidad Nacional de Tucum
an, Residencia
Universitaria Horco Molle, Comuna de Yerba Buena, 10-13 de Septiembre de (1996). San Miguel de
Tucuman, Argentina. Compilado por: Etse, G. y Luccioni, B. Asociaci
on Argentina de Mec
anica
Computacional (AMCA), pp.349-359, (1996).
[7] Granados M., A. L. Implicit Runge-Kutta Algorithm Using Newton-Raphson Method. Simulaci
on con M
etodos Num
ericos: Nuevas Tendencias y Aplicaciones, Editores: O. Prado,
M. Rao y M. Cerrolaza. Memorias del IV CONGRESO INTERNACIONAL DE METODOS NUMERICOS EN INGENIERIA Y CIENCIAS APLICADAS, CIMENICS98. Hotel Intercontinental
Guayana, 17-20 de Marzo de 1998, Puerto Ordaz, Ciudad Guayana. Sociedad Venezolana de Metodos
Numericos en Ingeniera (SVMNI), pp.TM9-TM16. Corregido y ampliado Abril, 2016. https://
www.academia.edu/11949052/Implicit Runge-Kutta Algorithm Using Newton-Raphson Method
[8] Granados M., A. L. Implicit Runge-Kutta Algorithm Using Newton-Raphson Method. Fourth World
Congress on Computational Mechanics, realizado en el Hotel Sheraton, Buenos Aires, Argentina,
29/Jun/98 al 2/Jul/98. International Association for Computational Mechanics, Abstracts, Vol.I,
p.37, (1998).
[9] Granados, A. L. Numerical Taylors Methods for Solving Multi-Variable Equations, Universidad
Simon Bolvar, Mayo, 2015. https://www.academia.edu/12520473/Numerical Taylors Methods for
Solving Multi-Variable Equations
[10] Granados, A. L. Taylor Series for Multi-Variable Functions, Universidad Sim
on Bolvar, Dic. 2015.
https://www.academia.edu/12345807/Taylor Series for Multi-Variables Functions

iv

DEDICATORIA

Dedico este trabajo a mi querida esposa Magaly y a mi adoradas hijas Andrena y Andrea, con todo
el amor del mundo.

Deseo tambien dedicar este trabajo a todos aquellos hombres sabios que han hecho posible el desarrollo
del ...

ANALISIS
NUMERICO
como una parte importantsima de las Matematicas Aplicadas.

Andres L. Granados M.

PREFACIO

Una importante raz


on motiv
o la elaboraci
on de este trabajo. En la literatura especializada de habla
espa
nola no existe un texto que realice una introduccion al C
alculo Numerico de una forma sencilla, resumida
y completa, simult
aneamente con aplicaciones al campo de la ingeniera mecanica. Un texto de An
alisis
Numerico sera demasiado tedioso para un curso enfocado para estudiantes de ingeniera. Un compendio
de algoritmos sin la formalidad del an
alisis sera demasiado esteril para aquellos estudiantes que quieren un
enfoque m
as general. En esta oportunidad se ha tratado de crear un hbrido de ambos aspectos aparentemente
extremos. Esto se ha hecho mediante la estructuraci
on de un recetario de metodos numericos con inserciones
de aspectos analticos importantes, que en primera instancia pueden ser obviados. Sin embargo, para los
estudiantes mas curiosos, estos aspectos analticos pueden ser revisados en una segunda o tercera lectura m
as
detallada.
Esta monografa en primera instancia fue desarrollada para estudiantes de pregrado, sin embargo,
puede servir para un curso introductorio a nivel de postgrado, en donde se haga m
as enfasis a los aspectos
analticos. El curso se ha dise
nado para completarse en un trimestre, pero puede facilmente extenderse a un
semestre si los dos u
ltimos captulos se estudian con mayor profundidad.
Todo el temario de este texto se ha estructurado en cinco (5) captulos y un (1) apendice:
Soluci
on de Ecuaciones No Lineales.
Soluci
on de Sistemas de Ecuaciones.
Interpolaci
on, Integraci
on y Aproximaci
on.
Ecuaciones Diferenciales Ordinarias.
Ecuaciones en Derivadas Parciales.
Series de Taylor.
Todos los temas tratados en este trabajo se han enfocado siguiendo un proceso de desarrollo de los
temas de forma inductiva. Se comienzan los temas con problemas o algoritmos particulares y luego se
generalizan dentro de un espacio de problemas o de algoritmos. Esto u
ltimo, como se plante
o antes, viene
acompa
nado de su respectivo an
alisis, lo cual completa y formaliza las ideas vagamente planteadas en un
principio.
El Captulo I presenta un breve resumen de todos los metodos numericos mas importantes para resolver
una s
ola ecuaci
on algebraica no lineal, en donde intervengan una que otra funci
on trascendental. Esto cubre
todo el espectro de posibilidades.
El Captulo II trata de los sistemas de ecuaciones. Basicamente se distinguen dos grupos de problemas:
Sistemas de Ecuaciones Lineales y Sistemas de Ecuaciones No Lineales. Par el primer grupo pueden existir
metodos directos y metodos iterativos. Para el segundo grupo, todos los metodos son iterativos.
El Captulo III contiene metodos para estimar valores de funciones dadas de manera discreta. En los
metodos de interpolaci
on la funci
on que estima los valores pasa por todos los puntos discretos. Tambien
se presenta un conjunto de metodos para estimar las derivadas e integrales bas
andose en los metodos de
interpolaci
on estudiados en la Secci
on anterior. En los metodos de aproximaci
on los datos forman una
muestra estadstica, y por lo tanto es casi imposible que la funci
on que estima los valores pase por todos y
cada uno de los puntos datos.
El Captulo IV desarrolla el tema de integraci
on de ecuaciones diferenciales ordinarias mediante
metodos de un s
olo paso o metodos de paso m
ultiples. En ambos casos, se presentan las alternativas de
metodos explcitos (predictores) y metodos implcitos (correctores).
El Captulo V concluye el contenido de esta monografa con el estudio introductorio de metodos para
la resoluci
on de ecuaciones diferenciales en derivadas parciales (en desarrollo). Basicamente se distinguen tres
categoras de metodos: Diferencia Finita, Vol
umenes Finitos y Variacionales. Tambien se presentan algunos
vii

metodos mixtos como lo son el metodo de la lneas y el metodos de las caractersticas. Al nal de este caitulo
se hace una introducci
on muy b
asica a los metodos de los elementos nitos.
En los Anexos existe un apendice que han sido colocado para hacer consultas rapidas acerca de
cuestiones de contenido matematico relacionadas con las series de Taylor, que de otra manera recargaran el
texto en su parte pricipal. En este apendice el tratamiento de los temas es formal tratando de ser lo mas
general posible. Sin embargo, se han omitido demostraciones y fundamentos que son importantes, puesto que
no son el objetivo primordial de este texto. Se incluyen dentro de los anexos la bibliografa general compilada
de toda esta monografa en un s
olo lugar, aunque ya este redundantemente distribuida por cada captulo.
Los captulos han sido numerados con n
umeros romanos, como ya se habr
a visto, las secciones con
n
umeros consecutivos y las sub-secciones y subsub-secciones con n
umeros de apartados de los n
umeros de las
secciones y sub-secciones respectivamente. Es decir, por ejemplo, el Captulo VII tiene una Seccion 2., una
Sub-seccion 2.1. y una Subsub-secci
on 2.1.3. Cuando se hace dentro del texto una referencia a una secci
on o
sub-seccion en particular se menciona de la siguiente manera: ... ver la Secci
on VII.2. ... o ... ver la Secci
on
VII.2.1.3. En caso de que se este referenciando una parte del texto perteneciente al mismo captulo o a la
misma seccion esta informaci
on se omite. Los apendices han sido ordenados seg
un las letras del alfabeto,
por ejemplo, Apendice A, Apendice B, etc. La organizacion interna de cada Apendice es la misma que para
los captulos. Existe una tabla de contenido general al principio del texto, sin embargo, al principio de cada
captulo se ha colocado una tabla de contenido mas detallada para facilitar la b
usqueda de los temas de
interes para el lector.
Las ecuaciones han sido numeradas de forma consecutiva por sub-secciones. Eventualmente la primera
sub-seccion puede incluir la secci
on principal (anterior) dentro de la numeraci
on de ecuaciones. Para referenciar las ecuaciones se hace de la siguiente forma: ... basado en la ecuacion VII.2.1.(13) ..., cuyo signicado
es obvio. Para las ecuaciones tambien es valida la observaci
on hecha antes con respecto a la informaci
on
superua. As que si estoy dentro del mismo captulo se dira ... ecuacion 2.1.(13) ... , o si se est
a en la
misma sub-seccion simplemente se habla de la ecuacion (13). En alguna ocasiones un grupo de ecuaciones
se numera con un s
olo n
umero. En estos casos debe entenderse que las ecuaciones internas estan ordenadas
con letra de arriba hacia abajo y de izquierda a derecha. Por ejemplo, ... ver ecuaci
on (10.c) ... Aunque el
grupo de ecuaciones este numerado con el n
umero (10) solamente, se entender
a que la ecuacion a la que se
hizo referencia es la tercera dentro del grupo.
Los axiomas, deniciones, proposiciones, lemas, teoremas y corolarios han sido numerados de forma
consecutiva por sub-secciones, al igual que las ecuaciones, con la particularidad de que el n
umero, en lugar
de aparecer entre parentesis, se presentar
a en negrillas. Por ejemplo, ... Teorema A.3.2.1. Una consideraci
on
adicional es que cuando en una sub-seccion exista un s
olo teorema, axioma, etc., este no se numerara, sin
embargo se sobreentender
a que es el teorema, axioma, etc. n
umero 1 de esa sub-seccion. En las denici
ones
cuando aparezcan por primera vez se colocara la palabra o palabras denidas en letras inclinadas.
Para las referencias bibliogr
acas no se sigue el mismo principio que las ecuaciones para referirlas. Al
nal de la monografa se dispone de un listado de las bibliografas mas importante a las cuales puede o no
hacerse referencia. Las bibliografas se han ordenado en un listado de forma alfabetica, empleando al mismo
tiempo el apellido del autor y a
no entre corchetes o un u
mero entre corchetes, para indicar el lugar que ocupa
dentro de dicho ordenamiento. Existen dos formas para hacer mencion a una referencia. Una de ellas, la m
as
abreviada, es mediante el n
umero entre corchetes que se mencion
o antes, dentro de cada captulo. La otra
forma, es mediante el apellido del primer autor y el a
no entre corchetes o entre parentesis. Cuando el a
no de
la publicaci
on est
a encerrado entre parentesis signica que la publicaci
on es peri
odica, y, en caso contrario,
signica que es una monografa, por ejemplo, ... ver la referencia [15], o ... ver a [Wilkinson,1972], o ... ver a
[Atkinson,(1965)]. Cuando para un mismo autor y un mismo a
no existen dos publicaciones o mas, se anexa
al a
no las diferentes letras min
usculas del alfabeto, por ejemplo, ... [Marquardt,1960a] ... [Marquardt,1960b].
Finalmente, cuando se desea mencionar un nombre o un autor que a su vez es referenciado en otra parte, este
debe aparecer fuera de los corchetes, por ejemplo, ... Taylor [Marquardt,1960], o tambien puede aparecer de
la forma ... Taylor [10], aunque Taylor no sea el autor de la referencia [10]. Dentro de los corchetes puede
aparecer eventualmente informacion adicional a la referencia como el captulo o las p
aginas como por ejemplo,
... [Marquardt,1960;.81,p.347]. El smbolo se emplea para indicar los captulos o secciones, el smbolo
se emplea para indicar los p
arrafos y el smbolo p para indicar las p
aginas. Cuando estos smbolos aparecen
viii

dos veces signica que son varios las entidades a la que se hace referencia, las cuales se pueden indicar como
un rango de cantidades separadas por el smbolo -.
La notaci
on usada en el texto es la convencional para estos temas, sin embargo, al nal del texto se
ha hecho un anexo con la notaci
on m
as importante. De manera general, se puede decir que se ha empleado
la notacion de Gibbs, empleando it
alicas para los escalares, negrillas min
usculas para los vectores y negrillas
may
usculas para los tensores de orden dos o mas. Esta regla, aunque general tiene algunas excepciones,
en cuyo caso el caracter de la cantidad se especica ampliamente. El producto escalar se especica con un
punto, el producto vectorial se especica con una cruz y la doble contraccion del producto de dos tensores
de segundo orden (o producto escalar de dos tensores) se especica con el doble punto. Tambien se ha
denido el producto punto de un tensor y un vector como la transformacion de este por aquel, signicando
al mismo tiempo que existe una contraccion en los dices adyacentes en las componentes. Algo similar se ha
denido para el producto cruz de un tensor y un vector, donde el producto s
olamente afecta los vectores bases
adyacentes al smbolo de multiplicaci
on. Tambien se dene el producto cu
na como el producto exterior y su
relacion con el producto cruz y con el producto tensorial. El producto tensorial, para los efectos de simplicar
la notacion en la gran mayora de los casos, se indica como un producto di
adico y no con una cruz encerrada
en un crculo, como normalmente se hace en los textos de analisis matematico. Sin embargo, en donde se
hace necesario emplear el producto tensorial de forma explcita se emplea el smbolo antes mencionado. La
notacion matricial se ha practicamente connado al Captulo II.
Cualquier comentario de forma o de fondo acerca de esta obra ser
a bien recibido por el autor, puesto
que se esta bien seguro que ellos redundar
an en mejoras y a
nadiduras, que de otra forma tardaran mucho
tiempo en realizarse.
Deseo dar las gracias a todas aquellas personas que de alguna forma se han interesado en la obra, y
espero que sea de mucha utilidad, tanto en los cursos que la emplean, como en su uso en calidad de material
de consulta.

Andres L. Granados M.
UNIVERSIDAD SIMON BOLIVAR
Departamento de Mec
anica
Caracas, Venezuela, Agosto de 2016

ix

CONTENIDO
DEDICATORIA.

PREFACIO.

vii

CONTENIDO.

xiii

CAPITULO I. SOLUCION DE ECUACIONES NO LINEALES.


1. METODOS CERRADOS.
2. METODOS ABIERTOS.

2
7

BIBLIOGRAFIA.

17

CAPITULO II. SOLUCION DE SISTEMAS DE ECUACIONES.


1. SISTEMAS LINEALES.

21

2. SISTEMAS NO-LINEALES.
BIBLIOGRAFIA.

37
52

CAPITULO III. INTERPOLACION, INTEGRACION Y APROXIMACION.


1. INTERPOLACION.

56

2. INTEGRACION.
3. APROXIMACION.

73
78

BIBLIOGRAFIA.

86

CAPITULO IV. ECUACIONES DIFERENCIALES ORDINARIAS.


1. PROBLEMA DE VALOR INICIAL.

90

2. PROBLEMA DE VALOR EN LA FRONTERA.


3. SISTEMAS DE ECUACIONES.
BIBLIOGRAFIA.

105
107
126

CAPITULO V. ECUACIONES EN DERIVADAS PARCIALES.


1. INTRODUCCION.
2. METODO DE DIFERENCIAS FINITAS.

130
131

3. METODO DE VOLUMENES FINITOS.


4. FLUJO GENERAL INCOMPRESIBLE VISCOSO.

135
142

5. METODOS VARIACIONALES.
BIBLIOGRAFIA.

147
157

APENDICE. SERIES DE TAYLOR.

159

BIBLIOGRAFIA GENERAL.

167

xi

CURSO SOBRE:

METODOS
NUMERICOS

FUNDAMENTOS

CAPITULO I
SOLUCION DE
ECUACIONES
NO-LINEALES
CONTENIDO
1. METODOS CERRADOS.

1.1. Teorema de Bolzano.


1.2. Bisecci
on del Intervalo.
1.3. Interpolaci
on Lineal.
1.3.1. Simple.

2
2
3
3

1.3.2. Modicada.
1.4. Metodos de Segundo Orden.
1.4.1. Metodo de Brent.

4
5
5

1.4.2. Metodo de Interpolaci


on.
2. METODOS ABIERTOS.
2.1. Punto Fijo.
2.2. Aceleraci
on de Aitken.

6
7
7
9

2.3. Metodo de la Secante.


2.4. Metodo de Newton.
2.4.1. Simple.

9
10
10

2.4.1. Relajado.
2.5. Metodo de Segundo Orden.
2.5.1. Metodo de Richmond.
2.5.2. Metodo de Muller.

11
13
13
13

2.5.3. Metodo de La Par


abola Secante.
2.6. Metodo de Bairstow.
BIBLIOGRAFIA.

14
16
17

Es frecuente encontrarse con expresiones matematicas que involucran funciones trascendentales o polinomios de orden superior, en la cual se desea hallar el valor de alguna de las variables involucradas que
satisfaga dicha expresi
on, de aqu el interes en desarrollar metodos numericos para solventar dicha necesidad.
Entre los casos mas frecuentes en ingeniera mecanica se encuentran las expresiones correspondientes
a las ecuaciones de estado para una sustancia determinada, la cual viene dada por f (p, v, T ), donde no todas
las variables pueden ser despejadas en forma explcita. Tambien podemos citar las ecuaciones que rigen los
1

A. GRANADOS

METODOS NUMERICOS

modos de vibracion de medios continuos, las cuales involucran funciones exponenciales y trigonometricas, o
en la soluci
on de problemas mediante series de Fourier, etc.
Describiremos algunos de los metodos m
as utilizados para resolver el presente problema, como lo son:
a. Metodo de la biseccion, atribuido a Bolzano.
b. Metodo de interpolaci
on lineal.
c. Metodo de la secante.
d. Metodo iterativo o de punto jo.
e. Metodo de Newton-Raphson.
f. Metodos de Segundo Orden cerrados y abiertos.

1. METODOS CERRADOS
1.1. TEOREMA DE BOLZANO
Sea f (x) una funcion contnua en el intervalo [a, b] tal que f (a)f (b) 0, entonces se puede garantizar
que existe un valor r tal que f (r) = 0, este valor r se denomina la raz de f (x).
1.2. BISECCION DEL INTERVALO
El metodo que a continuaci
on se describe est
a basado en el teorema de Bolzano para funciones
contnuas. Por la forma como se implementa el algoritmo se podra decir que este metodo es de orden
cero. Utilizando este teorema, y dada una expresion del tipo f = f (x) se selecciona un intervalo [a, b] donde
se verique la condici
on de f (a) f (b) 0 impuesta por el teorema. Si dividimos este intervalo en dos subintervalos de igual longitud, se debe vericar la condici
on del teorema en alguno de los dos sub-intervalos,
por lo tanto r esta en el intervalo donde la funci
on f (x) cambia de signo. Repitiendo el proceso en forma
iterativa se obtendr
an intervalos de menor longitud hasta acotar el valor de la raz r.
El proceso de subdivision del intervalo se lleva a cabo hasta que se verique una tolerancia especicada
para el problema, entre las cuales se pueden mencionar:
Tolerancia max en la variable independiente (error local) en forma absoluta o relativa. El error absoluto
representa la distancia (cuando se usa valor absoluto) entre dos estimados consecutivos de la raz, y el
error relativo es el valor absoluto del cociente entre el error absoluto y el u
ltimo estimado de la raz.
Tolerancia dmax en el valor absoluto de la funci
on (desviaci
on global). La desviaci
on viene a representar
el valor obtenido al evaluar el valor de la funci
on f (x) en el estimado de la raz.
Ambas simultaneamente (condic
on inclusiva). Cuando es en una variable la tolerancia de la otra
variable se escoge de valor grande para que siempre se cumpla la condici
on.
O se alcance (condici
on exclusiva) la tolerancia kmax de n
umero de iteraciones maximas permitidas
que se puede estimar con max (b a)/2kmax .
Es responsabilidad de quien utiliza el algoritmo conocer cual de estas formas es mas restrictiva en
cuanto a la precisi
on en el valor de la raz r.
Ya descrito el metodo podemos organizarlo de la siguiente forma:
1. Sea f (x) una funci
on contnua tal que f (a) f (b) 0 en el intervalo [a, b]. Se escoge un n
umero m
aximo
de iteraciones kmax [ log(b a) log max ]/ log 2.
Denotando k = 1, x1 = a y x2 = b.
2. Se eval
ua el estimado de la raz mediante ck = (x1 + x2 )/2.
3. Se determina el signo de f (ck )f (x1 ):
Si el signo es positivo se toma x2 = ck .
En caso contrario x1 = ck .
2

SOLUCION DE ECUACIONES NO-LINEALES

CAP.I

FUNDAMENTOS

4. Se eval
ua el error y la desviacion mediante las expresiones:
Error local: k = ck ck1 .
Desviacion global: dk = f (ck ).
5. Se verica si el error local k y la desviaci
on global dk son en valor absoluto menores que las tolerancias
seleccionadas max y dmax . En caso armativo se detiene el proceso de c
alculo y el valor deseado de
la raz es igual al valor de ck , r = ck . En caso contrario, se vuelve al punto 2 y realiza una nueva
iteraci
on (k k + 1).
EJEMPLO:
Hallar el factor de fricci
on de una tubera comercial(/D = 0.00001) por la cual circula un uido con
on de Colebrook:
un n
umero de Reynolds igual a IRe = 106 , utilizando para ello la ecuaci


a
1
/D
+
= 2 log
b
f
IRe f

a = 2.51
b = 3.71

Substituyendo los valores donde x = f es la variable independiente




1
2.51 106

f (x) = + 0.86 ln 2.6954 106 +


=0
f
f
on (por experiencia), se
Escogiendo f1 = 0.001 y f2 = 0.05, basados en el conocimiento del factor fricci
obtiene la siguiente tabla.
Tabla. Resultados del Ejemplo.
a

f (a)

0.0010

23.5319

0.0072
0.0103
0.0118

2.8944
0.8218
0.1198

f (b)

f (c)

0.0500
0.0255
0.0133

5.1445
3.1138
0.4593

0.0126
0.0122

0.2009
0.0452

0.0255
0.0133
0.0072
0.0103
0.0118
0.0126
0.0122
0.0120

3.1138
0.4593
2.8944
0.8218
0.1198
0.2009
0.0452
0.0363

El valor del factor de fricci


on es 0.0120 con una tolerancia de 2 104 y 8 iteraciones. Una tolerancia
2
en la desviacion de 4 10 sera suciente.
1.3. INTERPOLACION LINEAL
1.3.1. Simple
Al igual que el metodo de biseccion del intervalo, el metodo de interpolaci
on lineal se basa en el teorema
de Bolzano, pero con una variante para el c
alculo del estimado de la raz r.
La idea fundamental de este algoritmo es acelerar la convergencia al valor de r, de forma de disminuir
el tiempo de c
alculo.
De forma de hallar el valor de r que satisface la expresion f (r) = 0, se supondr
a que la funci
on se
comporta como una recta que pasa por los puntos (a, f (a)) y (b, f (b)), correspondientes a los extremos del
intervalo.
SEC. 1.3. INTERPOLACION LINEAL

A. GRANADOS

METODOS NUMERICOS

La ecuacion de la recta que pasa por estos dos puntos viene dada por:
xa
y f (a)
=
f (b) f (a)
ba

(1)

Bajo la suposici
on de un comportamiento la lineal, la aproximaci
on de r sera el punto de corte c de la
recta con el eje de las abscisas y = 0, lo cual genera dos nuevos sub-intervalos [a, c] y [c, b], en los cuales se
deben vericar las condiciones del teorema de Bolzano y escoger el intervalo que las satisfaga. Posteriormente
se repite el procedimiento hasta vericar alguna de las tolerancias seleccionadas.
La expresion que permite evaluar el estimado de la raz queda de la siguiente forma:
c = a f (a)

1.
2.
3.

4.

5.

ba
ba
= b f (b)
f (b) f (a)
f (b) f (a)

(2)

Ya descrito el algoritmo, se puede agrupar de la siguiente forma:


Sea f (x) una funci
on continua tal que f (a)f (b) 0 en el intervalo [a, b].
Denotando k = 1, x1 = a y x2 = b.
Se eval
ua el estimado de la raz ck mediante la equacion (2).
Se determina el signo de f (ck )f (x1 ):
Si el signo es positivo se toma x2 = ck .
En caso contrario x1 = ck .
Se eval
ua el error y la desviacion mediante las expresiones:
Error local: k = ck ck1 .
Desviacion global: dk = f (ck ).
Se verica si el error local k o la desviaci
on global dk son menores en valor absoluto que las tolerancia
seleccionada max y dmax . En caso armativo se detiene el proceso de calculo y el valor deseado de la
raz r es igual al valor de ck , r = ck . En caso contrario se vuelve al punto 2 (k k + 1).

EJEMPLO:
Hallar la raz cercana a x = 1 de la expresion:
f (x) = ex 3x2 = 0
Tabla. Resultados del ejemplo.
a
0.0000
0.7802
0.9029
0.9097

f (a)
1.0000
0.3558
0.0212
0.0011

f (b)

1.0000

0.2817

c
0.7802
0.9029
0.9097
0.90999

f (c)
0.3558
0.0212
0.0011
0.000052

La raz buscada es r = 0.90999 con una desviacion de 5.2 105 .


1.3.2. Modicada
El metodo de interpolaci
on lineal modicada es una variedad de la anterior donde, en el caso de
obtener una convergencia marcadamente unilateral como en el ejemplo anterior, el extremo inalterado sufre
una modicacion en la f
ormula algortmica 1.3.(2), el valor de la funci
on se divide por dos consecutivamente
hasta que la convergencia deje de ser unilateral (en el ejemplo f (x2 )/2[[kn]], donde n es el n
umero de
4

SOLUCION DE ECUACIONES NO-LINEALES

CAP.I

FUNDAMENTOS

repeticiones permitida en el extremo x2 ). Lo mismo para el otro extremo x1 en caso de que se repita.
Normalmente la convergencia unilateral ocurre siempre por el mismo lado. El smbolo [[]] indica que es el
valor positivo sobre 0, [[x]] = max[0, x], luego de que k se ha reinicializado despues de un cambio en la
unilateralidad de la convergencia.
1.4. METODOS DE SEGUNDO ORDEN
los metodos de segundo orden se basan en hacer pasar una par
abola u
nica por los puntos tres puntos
[a, f (a)], [b, f (b)] y [c, f (c)], los extremos y el intermedio. Los puntos extremos en x = a y x = b satisfacen
el teorema de Bolzano y el punto intermedio bien sea el obtenido con el metodo de bolzano c o el metodo de
interpolaci
on lineal c .
estos metodos de basa en los polinomios de Newton en diferencias divididas, como por ejemplo la
par
abola que pasa por los tres puntos (a, f (a)), (b, f (b)) y (c, f (c)) tiene la forma
P2 (x) = f [a] + (x a)f [a, b] + (x a)(x b)f [a, b, c]

(1)

donde el smbolo f [ ] se denomina diferencia dividida y se dene de forma recurrente empleando las
siguientes expresiones [Carnahan et al.,1969]
f [x0 ] = f (x0 )
f [x1 , x0 ] =
f [x2 , x1 , x0 ] =
f [x3 , x2 , x1 , x0 ] =
f [xn , xn1 , . . . , x1 , x0 ] =

(2.a)

f [x1 ] f [x0 ]
x1 x0

(2.b)

f [x2 , x1 ] f [x1 , x0 ]
x2 x0

(2.c)

f [x3 , x2 , x1 ] f [x2 , x1 , x0 ]
x3 x0

f [xn , xn1 , . . . , x2 , x1 ] f [xn1 , xn2 , . . . , x1 , x0 ]


xn x0

(2.d)
(2.e)

Siendo f [xn , xn1 , . . . , x1 , x0 ] = f [x0 , x1 , . . . , xn1 , xn ] n IN .


1.4.1. M
etodo de Brent
El metodo de Brent [Brent,1973] se basa en hacer pasar por los tres puntos antes mencionados una
par
abola inversa. Es decir, una par
abola acostada cuyo polinomio de interpolaci
on (de Lagrange secci
on
III.1.2) de segundo grado inverso es (intercambiando el rol de variables independiente y dependiente)
x=

[y f (a)] [y f (c)] b
[y f (a)] [y f (b)] c
[y f (b)] [y f (c)] a
+
+
[f (a) f (b)] [f (a) f (c)] [f (b) f (a)] [f (b) f (c)] [f (c) f (a)] [f (c) f (b)]

(3)

Colando y = 0 obtenemos el nuevo estimado ck de la raz, el cual puede ser escrito


ck = b +

P
Q

(4)

donde
P = S [ T (R T ) (c b) (1 R) (b a) ]
Q = (T 1) (R 1) (S 1)

R = f (b)/f (c)
S = f (b)/f (a)

(5)

T = f (a)/f (c)

Este metodo escoge usar la par


abola acostada para garantizar que corta al eje x en un u
nico punto ck .
SEC. 1.4. METODOS DE SEGUNDO ORDEN

A. GRANADOS

METODOS NUMERICOS

1.4.2. M
etodo de Interpolaci
on
El metodo de interpolaci
on al igual que el anterior usa una par
abola que para por los tres puntos a, b
y c, pero en este caso es una par erguida cuya ecuacion es
x2 + x + = 0

(6)

donde
= f [a, b, c]
= f [a, b] (a + b)f [a, b, c]
= f [a] a f [a, b] + ab f [a, b, c]
La solucion de esta parabola es el estimado de un nuevo iterado ck y puede ser obtenida mediante la resolvente

ck =


2 4
2

(7)

Un ejemplo de este procedimiento se presenta en la gure 1 donde ck se ha indicado como c para no confundirlo
con c. El punto c en la gura se ha obtenido mediante interpolaci
on lineal (segunda opci
on del algoritmo),
pero tambien pudo obtenerse mediante la biseccion del intervalo (primera opci
on del algoritmo).
La expresion (7) contiene dos soluciones para el nuevo iterado ck , sin embargo, una de las soluciones
pertenece al interv alo [a, b]. Esta restriccion resuelve este inconveniente y nalmente (7) puede ser expresada
de la siguiente forma

(8)
ck = c + 2 + (/4 ) sign()
donde
=ba
f [a, b] = [f (b) f (a)]/
c = (a + b)/2 , c = c
o c = a f (a)/f [a, b]
f [a, b, c] = {f [a, b] [f (b) f (c)]/(b c)}/(a c)
= 12 f [a, b]/f [a, b, c]
= f (a)/f [a, b, c]
Sign() = /||
El discriminante 2 4 en la soluci
on de la ecuaci
on (7) siempre tiene un valor positivo debido a
la condicion f (a).f (b) 0 que fuerza a la parabola, conteniendo los puntos (a, f (a)) y (b, f (b)), intersectar
la lnea f (x) = 0 en dos puntos que representan dos soluciones reales distintas de la ecuacion (7), una de
las cuales pertenece al intervalo cerrado [a, b]. El u
nico caso cuando el discriminante mencionado puede ser
cero es cuando en alguno de los extremos del intervalo [a, b] exista un mnimo o un m
aximo de la funci
on
parab
olica (6), de otra forma el discriminante siempre tiene un valor positivo. Esto garantiza que la raz
cuadrada de la expresiones (7) y por consiguiente (8) esta siempre denida en el conjunto de los n
umeros
reales positivos.
6

SOLUCION DE ECUACIONES NO-LINEALES

CAP.I

FUNDAMENTOS

Figura 1.a. Metodo de Interpolaci


on Lineal mostrando el c
alculo del nuevo iterado.

Figura 1.b. Metodo cerrado de Segundo Orden mostrando la interpolaci


on parab
olica.

2. METODOS ABIERTOS
2.1. PUNTO FIJO
Los metodos estudiados anteriormente consisten en la vericacion del teorema de Bolzano, el cual nos
garantiza la existencia de al menos una raz. Ahora se presenta un metodo que no hace uso de tal teorema y
que necesita un solo punto inicial para comenzar el proceso iterativo.
La ecuacion b
asica a resolver es en todo momento del tipo
f (x) = 0

(1)

la cual puede ser manipulada algebraicamente y reescribirla de la forma


x = g(x)
SEC. 2.1. PUNTO FIJO

(2)
7

A. GRANADOS

METODOS NUMERICOS

Ya cumplido este paso, escogemos un punto arbitrario x0 y comenzamos a evaluar dicha expresion en forma
iterativa, es decir
x1 = g(xo )
x2 = g(x1 )
x3 = g(x2 )
..
.
xk = g(xk1 )
xk+1 = g(xk )
Expresi
on que, si converge, llegara a vericar la expresion
r = g(r)

(3)

donde r es la raz buscada de la expresion f (r) = 0 y que para este metodo se denomina el punto fijo.
El problema de hallar la raz como el punto de corte entre la funci
on f (x) y el eje de las abscisas,
se ha transformado en hallar el punto de interseccion entre la curva g(x) y la recta identidad y = x. La
convergencia a una raz r puede ser unilateral si g  (r) > 0 o bilateral si g  (r) < 0.
EJEMPLO:
Hallar las races del polinomio x2 4x + 3. Entre las posibles expresiones para g(x) se tienen:
x0 = 6
x1
x2
x3
x4
x5
x6
..
.
x

x=

x2 +1
4

x=

9.75
24.51
151.004
5701.0111

..
.
diverge

4x 3

x=

4.5825
3.9154
3.5583
3.3516
3.2259
3.1470
..
.
3.0000

3
4x

1.5
0.5454
0.8684
0.9579
0.9862
0.9954
..
.
1.0000

Con lo que se muestra que no todos los esquemas convergen a una raz, como se observa en el primer
despeje, el cual diverge. Se puede probar que el tercer despeje diverge si el punto de partida est
a fuera del
intervalo [3, 3].
Designemos al error global como ek = xk r, entonces se tiene que
ek+1 = g  () ek

g  () =

g(xk ) g(r)
xk r

[xk , r]

(4)

Entonces el metodo de punto jo converge cuando


|g  ()| < 1

[xk , r]

(5)

Es decir, cuando la aplicacion g es una contraccion, o sea, aplicada sobre un subdominio de g alrededor de
lo contrae.
8

SOLUCION DE ECUACIONES NO-LINEALES

CAP.I

FUNDAMENTOS

2.2. ACELERACION DE AITKEN


La aceleracion d Aitken se basa en la suposici
on de que la pendiente de la curva y = g(x) vara muy
poco y, por lo tanto, se puede considerar que
g  () =

g(xk+1 ) g(xk )
g(xk ) g(r)
xk+2 xk+1

=
xk r
xk+1 xk
xk+1 xk

(1)

Substituyendo r = g(r), xk+1 = g(xk ) y despejando r de la expresion anterior se obtiene


r = xk

(xk+1 xk )2
(xk )2
= xk
xk+2 2xk+1 xk
2 xk

(2)

O sea, calculando las diferencias adelantadas de primer orden xk = xk+1 xk y de segundo orden 2 xk =
xk+1 xk = xk+2 2xk+1 xk , en dos iteraciones consecutivas con el metodo de punto jo a partir de
xk , se obtiene un valor r dado por la f
ormula (2), donde la convergencia hacia r se habr
a acelerado ( Una vez
a una aceleracion de la divergencia ).
comprobada la convergencia xk+1 < xk . En caso contrario, habr
2.3. METODO DE LA SECANTE
Al igual que el metodo de interpolaci
on lineal, el metodo de la secante supondra que la funci
on se
comporta en forma lineal, pero no hara uso del teorema de Bolzano.
El metodo interpolara o extrapolara, seg
un sea el caso, utilzando la misma ecuacion empleada en el
algoritmo de interpolaci
on lineal, pero los puntos involucrados no se seleccionan mediante el cambio de signo
de la funci
on f (x) necesariamente, sino en forma secuencial:
Dados x0 y x1 se obtiene x2
con x1 y x2 se obtiene x3
con x3 y x4 se obtiene x5
..
.
con xk2 y xk1 se obtiene xk
con xk1 y xk se obtiene xk+1
Por lo que la expresion para determinar el estimado k + 1 de la raz es:
xk+1 = xk f (xk )

xk xk1
f (xk ) f (xk1 )

(1)

Vemos que el segundo factor del segundo termino de (1) es el inverso de la derivada media entre xk1 y xk
f  (k ) =

f (xk ) f (xk1 )
xk xk1

k [xk , xk1 ]

(2)

El algoritmo puede ser resumido de la siguiente forma:


1. Se escogen dos puntos cualesquiera x0 y x1 . Se recomienda veriquen el teorema de Bolzano, pero no
es condici
on necesaria. Se escoge un n
umero m
aximo de iteraciones kmax .
2. Se determina el valor de xk+1 con la expresion (1).
3. Se eval
ua el error local y la desviacion global mediante las expresiones:
Error local: k = xk xk1 .
Desviacion global: dk = f (xk ).
SEC. 2.3. METODO DE LA SECANTE

A. GRANADOS

METODOS NUMERICOS

4. Se verica si el valor absoluto del error local k y la desviaci


on global dk son menores que la tolerancias
seleccionadas max y dmax . En caso armativo se detiene el proceso de c
alculo y el valor deseado de
la raz r es igual al valor de xk , r = xk . En caso contrario se vuelve al punto 2.
EJEMPLO:
Hallar la primera raz mayor que cero de la expresion
cosh(x) cos(x) = 1
Tomando x0 = 4.7 y x1 = 6.2 se obtienen los siguientes resultados:
x2 = 4.7102
x3 = 4.7170
x4 = 4.7303
x5 = 4.7300
x6 = 4.7300
La raz buscada es r= 4.7300.
2.4. METODO DE NEWTON
2.4.1. Simple
Al igual que el algoritmo de punto jo el metodo de Newton utiliza un solo punto de partida, pero con
una aproximacion mucho mas renada.
La idea fundamental consiste en extrapolar la raz de la ecuacion f (x) = 0 como el punto de corte de
la recta tangente a f (x) en xo con el eje de las abscisas, siendo xo un punto arbitrario a escojer. Dado que
xo no se conoce en forma exacta se utiliza la aproximaci
on en forma recurrente hasta obtener convergencia.
Ya descrito el metodo, intuitivamente, se procede a deducir la f
ormula de recurrencia. La ecuacion de
la recta tangente a f (x) en xo se puede expresar como
f (x) f (xo ) = f  (xo )(x xo )

(1)

que particularizada para el punto de corte con el eje de las abscisas queda de la siguiente forma
x = xo

f (xo )
= g(xo )
f  (xo )

(2)

la cual se puede decir que tiene la forma del metodo de punto jo con xk+1 = g(xk ), si el valor de x substituye
a xo y se vuelve a introducir en la ecuacion (2).
Se obtiene as el metodo de Newton
xk+1 = xk

f (xk )
f  (xk )

(3)

donde se dice que este metodo es del tipo punto fijo si denotamos
g(x) = x

f (x)
f  (x)

g  (x) =

f (x) f  (x)
[f (x)]2

(4)

y se cumple 2.1(3) que r = g(r) y 2.1.(5) que |g  ()| < 1 para la convergencia.
10

SOLUCION DE ECUACIONES NO-LINEALES

CAP.I

FUNDAMENTOS

Los criterios de parada de este metodo se basan en el error local k


k = xk xk1

|k | < max

(5.a)

y la desviaci
on global dk
|dk | < dmax

dk = f (xk )

(5.b)

El error global sera ek = xk r y la deviaci


on local sera k = f (xk ) f (xk1 ).
EJEMPLO:
Hallar la raz con el metodo de Newton cercana a x = 1 de la expresion:
f (x) = ex 3x2 = 0

f  (x) = ex 6x

Tomando x0 = 1.0 se obtienen los siguientes resultados:


x1 = 0.91415
x2 = 0.9100177
x3 = 0.91000776
La raz buscada es r= 0.91000.
Hagamos la expansi
on en series de Taylor de g(x) alrededor de r, hasta el termino de segundo orden
g(xk ) = g(r) + (xk r) g  (r) + (xk r)2

g  ()
2

[r, xk ]

(6)

Puesto que por (4.b) g  (r) = 0 ya que f (r) = 0, el termino de primer orden de la serie truncada (6) es nulo,
y realizando las substituciones necesarias en el error global ek = xk r, se tiene que
ek+1 =

g  () 2
ek
2

(7)

Lo que signica que el metodo de Newton posee una velocidad de convergencia cuadratica si f  (r)
= 0. Para
una raz r de multiplicidad mayor que 1, g  (r) ya no se anula en (6) y por consiguiente la velocidad de
convergencia del metodo de Newton vuelve a ser lineal.
Hagamos ahora la expasion de la serie de Taylor de la funcion f (x) alrededor de x y evaluada en r
f (r) = f (x) + (r x)f  (x) + e2

f  ()
=0
2

[r, x]

(8)

donde e = x r. Evaluada en x = xk esta expresion da


r = xk

f (xk )
f  (k )
e2k

f (xk )
2 f  (k )

k [r, xk ]

(9)

ltimo termino. Colocando r = xk+1 se vuelve a obtener la


donde ek = xk r y k permite agrupar el u
f
ormula algortmica de metodo de Newton (3), cuya velocidad de convergencia es cuadr
atica, salvo cuando
la raz tiene multiplidad mayor que la unidad.
2.4.1. Relajado
La f
ormula algortmica del metodo de Newton se relaja de la siguiente forma
xk = xk
SEC. 2.4. METODO DE NEWTON

f (xk )
f  (xk )

(10)
11

A. GRANADOS

METODOS NUMERICOS

donde se dice que el metodo esta


< 1 Subrelajado.
= 0 Simple.
> 1 Sobrerelajado.
La multiplicidad m de una raz se establece para una funcion continua, con cotinuas derivadas hasta
del orden m, si
f (r) = f  (r) = f  (r) = f  (r) = = f (m1) (r) = 0 , f (m)
= 0
(11)
Se sabe que para una raz de multiplicidad m el lmite


f (x) f  (x)
m1
g  (r) = lim g  (x) = lim
=
xr
xr
[f (x)]2
m

(12)

donde para obtener este resultado, se ha tenido que aplicar la Regla de LHopital para la indeterminaci
on de
tipo 0/0.
Para el metodo de Newton, si se escoge el factor de relajacion igual que la multiplicidad, = m la
funci
on
f (x)
g(x) = x m 
(13)
f (x)
tiene derivada g  (r) siempre nula debido al lmite (12), lo que arma que con esta sobrerelajaci
on siempre la
convergencia sera de velocidad cuadr
atica.
Para el metodo de Newton relajado la funci
on g(x), considerandolo un caso particular de un metodo
de punto jo, cambia a
g(x) = x

f (x)
f  (x)

g  (x) = 1 +

f (x) f  (x)
[f  (x)]2

(14)

on g  (r) = 0
y el metodo converge de forma segura cuando |g  ()| < 1, [r, x]. Cuando = m la funci
siempre debido al lmite (12), como ya se indico.
Para evitar la indeterminaci
on antes mencionada en el caso de races de multiplicidades mayores que
uno, Ralston & Rabinowitz [1978] propusiero un metodo de Newton modicado que consiste en denir una
nueva funci
on U (x)
f (x)
U (x) = 
(15)
f (x)
que como parece obvio, posee las misma races que la funci
on f (x). Por consiguiente, si se aplica el metodo
de Newton a la funcion U (x), se obtienen los mismos resultados que para la funcion f (x). Esto es
xk+1 = xk

U (xk )
U  (xk )

(16)

Para expresar esta f


ormula recurrente en funcion de f (x) y sus derivadas, vamos a hallar U  (x)
U  (x) =

[f  (x)]2 f (x) f  (x)


f (x) f  (x)
=
1

[f  (x)]2
[f  (x)]2

(17)

ormula recurrente (16), se obtiene


Substituyendo U (x) y U  (x) en la f
xk+1 = xk

f (xk ) f  (xk )
f (xk ) f  (xk )

[f  (xk )]2

(18)

As que g  (r) es siempre nula para este metodo sin importar la multiplicidad de la raz r, lo que se demuestra
aplicando la regla de LHopital sucesivamente. Por lo tanto el metodo de Newton modicado (16) siempre
converge cuadr
aticamente.
12

SOLUCION DE ECUACIONES NO-LINEALES

CAP.I

FUNDAMENTOS

2.5. METODOS DE SEGUNDO ORDEN


2.5.1. M
etodo de Richmond
El metodo de Richmond se basa en la expansion de las series de Taylor de una funci
on escalar, hasta
el termino de segundo orden [Gundersen,(1982)]
f (r) = f (x) + (r x) f  (x) +

1
2

(r x)2 f  (x) + O(|e|3 )

(1)

donde e = x r es el error global de x. Reorganizando esta expresion factorizando (r x), se obtiene


[ f  (x) +

1
2

(r x) f  (x) ] (r x) = f (x) O(|e|3 )

(2)

Sin tener en cuenta el termino O(|e|3 ) y cambiando luego r por xk+1 y x por xk , se puede aplicar un
procedimiento iterativo en la forma
xk+1 = xk [ f  (xk ) + 12 zk f  (xk ) ]1 f (xk )

(3)

donde zk es el error local k+1 obtenido con el metodo de Newton 2.4.(3) para la iteraci
on k, as
zk =

f (xk )
f  (xk )

(4)

Debe notarse que en la expresion (2) la cantidad (r x), entre los corchetes, se ha substituido por un
estimado ofrecido por el metodo de Newton una s
ola vez, en lugar de volverlo a corregir por un valor m
as
preciso (xk+1 xk ), siguiendo un esquema iterativo de punto jo (correcciones sucesivas). Este aspecto hace
que el metodo de Richmond sea un metodo casi de segundo orden.
Para solventar este u
ltimo aspecto reformulamos la formula algortmica (3) as
xk+1 = xk + zk

zk,t + 1 = [ f  (xk ) + 12 zk,t f  (xk ) ]1 f (xk )

(3 )

e implementamos un esquema iterativo secundario en t iteraciones internas de tipo punto jo en zk,t (para cada
k) con la ecuaci
on (3 .b), y el u
ltimo valor obtenido de zk de este proceso iterativo secundario (normalmente
se usa un n
umero tmax de iteraciones internas o correcciones sucesivas, de 3 a 6 son sucientes) es el que
on (4) como el valor o iterado inicial zk,0 del
se introduce en (3 .a). Se escoge el valor dado por la ecuaci
proceso iterativo secundario. Se puede decir que el metodo as reformulado se vuelve un metodo predictor
en la ecuacion (4) y corrector en la ecuaci
on (3 .b), que si es completamente de segundo orden. Se podra

decir que el metodo en (3 ) para un tmax lo sucientemente alto es equivalente al metodo en la seccion 2.5.3
adelante (versi
on 1), donde zk se resuelve analticamente con la resolvente de un polinomio de segundo grado.
Los criterios de parada para este metodo son los mismos que para el metodo de Newton ofrecidos por
2.4.(5).
2.5.2. M
etodo de Muller
El metodo de Muller [(1956)] generaliza el metodo de la secante (seccion 2.3), pero usa una interpolaci
on
cuadr
atica (parab
olica) entre tres puntos en lugar de una interpolaci
on lineal entre dos puntos. Resolviendo
para los ceros de la parabola permite el metodo encontrar complejos pares de races. Dados tres iterados
previos xk2 , xk1 y xk y sus correspondientes valores de la funci
on f (x) en dichos puntos, la siguiente
aproximaci
on xk+1 se produce con la siguiente f
ormula

xk+1 = xk (xk xk1 )
SEC. 2.5. METODOS DE SEGUNDO ORDEN

2 Ak

Bk Dk


(5)
13

A. GRANADOS

METODOS NUMERICOS

donde
q=

xk xk1
xk1 xk2

Ak = (1 + q) f (xk )
Bk = (2q + 1) f (xk ) (1 + q)2 f (xk1 ) + q 2 f (xk2 )

(6)

Ck = q f (xk ) q (1 + q) f (xk1 ) + q 2 f (xk2 )


Dk = Bk2 4 Ak Ck
y donde el signo del denominador se escoge para hacer su valor absoluto o m
odulo (caso complejo) tan grande
como sea posible. Se puede comenzar comenzar el proceso iterativo con tres valores cualesquiera, e.g. tres
valores igualmente espaciados en la recta real. N
otese que el metodo debe permitir la posibilidad de un
complejo en el denominador, y la subsecuente aritmetica compleja.
El metodo de Muller fue creado en principio para hallar las races de un polinomio, pero ha sido usado
con exito con funciones analticas en el plano complejo, por ejemplo in la rutina IMSL llamada ZANLYT
[Press et al.,1986].
2.5.3. M
etodo de La Par
abola Secante
El metodo de la par
abola secante es una generalizaci
on del metodo de Newton. Si en lugar de usar
una recta con pendiente igual a f  (xk ) para estimar el nuevo iterado xk+1 como en el metodo de Newton, se
on f (x) en el punto
usara una par
abola con pendiente f  (xk ) y segunda derivada f  (xk ) iguales que la funci
xk , como muestra la gura 2, para proyectar el nuevo iterado xk+1 , donde dicha par
abola corta al eje de las
x, se obtendra el metodo de segundo orden de la par
abola secante.

Figura 2.a. Metodo de Newton-Raphson mostrando el nuevo iterado.

14

SOLUCION DE ECUACIONES NO-LINEALES

CAP.I

FUNDAMENTOS

Figura 2.b. Metodo abierto de Segundo Orden mostrando la extrapolacion parab


olica.
Su ecuacion algortmica se basa en la expansi
on en series de taylor, evaluada en r alrededor de x, hasta
el termino de segundo orden
f (r) = f (x) + (r x)f  (x) + 12 (r x)2 f  (x) + O(|e|3 )

(7)

donde e = x r es el error global del valor x relativo a la raz r, y por denici


on de una raz f (r) 0.
Eliminando el termino con O(|e|3 ) y haciendo el cambio de r por xk+1 y x por xk (siguiendo el mismo
razonamiento que para el metodo de Newton), se obtiene la siguiente expresion
f (xk ) + (xk+1 xk ) f  (xk ) +

1
2

(xk+1 xk )2 f  (xk ) = 0

(8)

el cual representa la ecuacion de un polinomio de segundo grado en (xk+1 xk ). Finalmente, resolviendo


para xk+1 en la ecuacion anterior se obtiene
xk+1 = xk

f  (xk )


[f  (xk )]2 2 f (xk )f  (xk )
f  (xk )

(9)

Se debe observar que existen dos soluciones para la ecuacion (8). Un ejemplo graco puede observarse
en la gura 2, donde este metodo es comparado con el metodo de Newton. Con la nalidad de resolver con
el doble signo, se selecciona la solucion para xk+1 mas cercana a xk . Esto se hace modicando la ecuacion
(9) en la forma

Bk Dk Sign(Bk )
xk+1 = xk
(10)
Ck
donde
Ak = f (xk )
Bk = f  (xk ) f [xk , xk1 ] + (xk xk1 )f [xk , xk1 , xk2 ]
Ck = f  (xk ) 2 f [xk , xk1 , xk2 ]

(11)

Dk = [[ (Bk )2 2 Ak Ck ]]
SEC. 2.5. METODOS DE SEGUNDO ORDEN

15

A. GRANADOS

METODOS NUMERICOS

Aqu existen dos versiones del metodo. Si se conocen las derivadas f  (xk ) y f  (xk ) (versi
on 1) o
estas se estiman con base a los valores funcionales del punto xk y de los dos puntos anteriores xk1 y xk2
mediante diferencias divididas (version 2). En el el primer caso estaramos hablado de una par
abola con
pendiente y segunda derivada igual que la funci
on f (x) en el punto xk . En el segundo caso estamos hablando
de un metodo equivalente al metodo de Muller de la seccion anterior (aunque la forma (5) reduce mejor la
propagaci
on del error de redondeo). El discriminante Dk si es negativo se asume cero (eso es lo que signica
el smbolo [[ ]]) y el resultado, en lugar de una soluci
on de corte con la recta y = 0, da la ubicaci
on del vertice
de la par
abola. En este u
ltimo caso, el metodo tambien sirve para hallar mnimos o maximos.
2.6. METODO DE BAIRSTOW
El metodo de Bairstow se fundamenta en hallar dos races simult
aneamente en cada intento, para un
polinomio Pn (x) de grado n. En dicho intento se consiguen los coecientes r y s de una par
abola x2 r x s

que divide de forma exacta a Pn (x). Las dos races, x1,2 = (r )/2, en el caso s r2 /4 descrito son
reales, puesto que el discriminante = r2 + 4s 0. En el caso complejo, s < r2 /4, el resultado da un
discriminante < 0 negativo, por lo que las dos races halladas son complejas conjugadas.
Sea un polinomio Pn (x) de grado n
Pn (x) = an xn + an1 xn1 + + a1 x + a0
= ( x2 r x s ) ( bn2 xn2 + bn3 xn3 + + b1 x + b0 ) + b1 (x r) + b2

(1)

se puede factorizar con una par


abola (x2 r x s) y un polinomio Pn2 (x) de forma exacta como se indico
arriba, cuando el residuo b1 (x r) + b2 correspondiente es nulo. El resultado de dividir por la par
abola
produce los coecientes de Pn2 (x) y el residuo como
bn2 = an
bn3 = an1 + r bn2

(2)
i = n 4, n 5, . . . , 0, 1, 2

bi = ai+2 + r bi+1 + s bi+2

Denimos dos funciones objetivos f y g a anular, para as anular el residuo, dependientes de r y s,


tales que
f (r, s) = b1

r = r + r

g(r, s) = b2

s = s + s

f /r
g/r

f /s
g/s



r
s


=

f (r, s)
g(r, s)


(3)

El proceso iterativo (3.b) se realiza varias veces hasta que las funciones objetivo (3.a) se anulen. En cada
iteraci
on, r y s se obtienen de resolver el sistema de ecuaciones lineales (3.c), donde la matriz se actualiza
en cada iteracion. Este metodo resumido aqu, para resolver dos ecuaciones f = 0 y g = 0 con dos inc
ognitas
r y s, es el metodo de Newton-Raphson que veremos m
as adelante en el pr
oximo captulo, secci
on II.2.2. (se
puede deducir facilmente con la expansion en series de Taylor de dos funciones f y g, ver apendice, alrededor
de r y s, hasta el termino de primer orden, y anulando las funciones f y g en r y s ).
Bairstow observo que las derivadas parciales requeridas en (3.c) pueden ser obtenidas de las bs, mediante una segunda division sintetica por la misma par
abola x2 r x s, en la misma forma que las bs
fueron obtenidas a partir de las as. Denamos un conjunto de coecientes cs por las relaciones siguientes,
obtenidos de la segunda divisi
on por la par
abola
cn4 = bn2
(4)

cn5 = bn3 + r cn4


ci = bi+2 + r ci+1 + s ci+2
16

i = n 6, n 5, . . . , 0, 1, 2, 3
SOLUCION DE ECUACIONES NO-LINEALES

CAP.I

FUNDAMENTOS

y comparese con las dos siguientes columnas de derivadas parciales de la primera division por la par
abola
bn2
=0
r
bn3
bn2
= bn2 + r
= cn4
r
r
bi+2
bi
bi+1
= bi+1 + r
+s
= ci1
r
r
r

bn2
=0
s
bn3
=0
s
bi
bi+1
bi+2
=r
+s
+ bi+2 = ci
s
s
s

(5)

b1
f
=
= c1
s
s
b2
g
=
= c2
s
s

(6)

con i recorriendo los mismo valores que (2).


Finalmente se obtiene que
f
b1
=
= c2
r
r
b2
g
=
= c3
r
r

por lo que el sistema de ecuaciones lineales (3.c), queda como




c2
c3

c1
c2



r
s


=

b1
b2


(7)

y es mas f
acil realizar el proceso iterativo y actualizar las bs y las cs en cada iteracion [Ralston & Rabinowitz,1978] [Gerald,1978].
BIBLIOGRAFIA
[1] Brent, R. P. Algorithms for Minimization without Derivatives. Prentice-Hall (Englewood Clis,
N. J.), 1973.
[2] Burden R. L.; Faires, J. D. Numerical Analysis. 3rd Edition. PWS. Boston, 1985.
[3] Carnahan, B.; Luther, H. A.; Wilkes, J. O. Applied Numerical Methods. John Wiley & Sons,
1969.
[4] Gerald, C. F. Applied Numerical Analysis. 2nd Edition. Addison-Wesley, 1978.
[5] Granados M., A.L. Second Order Method for Solving Non-Linear Equations. INTEVEP S.A.
Reporte Tecnico No. INT-EPPR/322-91-0002. Los Teques, Junio de 1991.
[6] Gundersen, T. Computer and Chemistry Engineering. Vol.3, p. 245, (1982).
[7] Hildebrand, F. B. Introduction to Numerical Analysis, 2nd Edition. Dover Publications (New
York), 1974.
[8] Householder, A. S. The Numerical Treatment of a Single Nonlinear Equation. McGraw-Hill
(New York), 1970.
[9] Muller, D. E. A Method of Solving Algebraic Equations Using an Automatic Computer. Mathematical Tables and Other Aids to Computation (MTAC). Vol.10, pp.208-215, (1956).
[10] Press, W. H.; Flannery, B. P.; Teukolsky, S. A.; Vetterling, W. T. Numerical Recipes. The Art of
Scientic Computing. Cambridge University Press, 1986.
[11] Ralston, A.; Rabinowitz, P. A First Course in Numerical Analysis, 2nd Edition. McGraw-Hill
(New York), 1978.

SEC. BIBLIOGRAFIA

17

CAPITULO II
SOLUCION DE
SISTEMAS DE
ECUACIONES
CONTENIDO
1. SISTEMAS LINEALES.
1.1. Metodos Directos.

21
21

1.1.1. Eliminaci
on Simple.

21

1.1.2. Pivotes.
Pivote Parcial.

22
22

Pivote Total.

23

1.1.3. Eliminaci
on de Gauss.
1.1.4. Eliminaci
on de Gauss-Jordan.

23
24

1.1.5. Normalizaci
on.

24

Por Filas.
Global.

24
25

1.1.6. Descomposici
on L-U.

25

Doolittle.
Crout-Cholesky.

26
27

1.1.7. Sistemas Tridiagonales.

27

Eliminaci
on.
Algoritmo de Thomas.

28
28

1.1.8. Determinante.

28

1.1.9. Matriz Inversa.


1.1.10. Autovalores y Autovectores.

28
29

1.1.11. Normas.

30

Norma de Vectores.
Norma de Matrices.

30
30

1.1.12. Condicionamiento.

31

1.2. Metodos Iterativos.

32

1.2.1. Metodo de Jacobi.


1.2.2. Metodo de Gauss-Seidel.

32
32

1.2.3. Relajaci
on Sucesiva.

32

1.2.4. Estabilidad.

33
19

1.3. Otros Metodos.

33

1.3.1. Metodo de la Potencia.

33

1.3.2. Ortogonalizaci
on de Gram-Schmidt.

34

1.3.3. Reexiones de Householder.

35

1.3.4. Algoritmo de QR.

37

2. SISTEMAS NO-LINEALES.

37

2.1. Metodos del Punto Fijo.

38

2.2. Metodos de Newton-Raphson.

39

2.2.1. Simple.

39

2.2.2. Relajado.

40

2.3. Metodos Cuasi-Newton.

40

2.3.1. Metodo de Broyden.

40

2.4. Metodos de Mnimos Cuadrados.

41

2.5. Metodos de Segundo Orden.

42

2.5.1. Metodo de Richmond.

42

2.5.2. Metodo del Paraboloide Secante.

43

2.5.3. Metodo de Taylor.

44

2.6. Convergencia.

45

2.6.1. Criterios.

45

2.6.2. Tipos.

45

2.7. Estabilidad.

46

2.8. Metodos Numericos para Redes.

49

2.8.1. Introducci
on.

49

2.8.2. Expansi
on en Series de Taylor.

50

Serie de Taylor.

50

Matriz Jacobiana.

50

Tensor Hessiano.

50

2.8.3. Algebraicos.

50

Punto Fijo

50

Linealizacion de Wood

51

2.8.4. Analticos.

51

Newton-Raphson.

51

Hardy-Cross.

51

2.8.5. An
alisis.

52

BIBLIOGRAFIA.

52

Al momento de resolver problemas de ingeniera, es frecuente encontrar un sistema de ecuaciones


algebraicas que representa la solucion deseada. Estos sistemas de ecuaciones pueden ser lineales o no-lineales,
segun sea la categora del problema o la rama a la cual pertenece. En todo momento estos sistemas representan
ecuaciones algebraicas.
Como ejemplo de sistemas equaciones algebraicas se pueden citar:
20

FUNDAMENTOS

Resolver una red electrica formada por resistencias, la cual origina un sistema de ecuaciones lineales
(frecuentemente) para las intensidades que circulan por el circuito.
Cuando se desea correlacionar un conjunto de datos experimentales o resultados numericos, es frecuente
hacer uso del metodo de los mnimos cuadrados,el cual origina un sistema de ecuaciones para las
constantes de la expresion atrabajar. El sistema de ecuaciones obtenido puede ser lneal o no-lneal
dependiendo de la complejidad de la aproximaci
on propuesta.
Al resolver ecuaciones diferenciales parciales u ordinarias con valor en el contorno se hace uso del
metodo de las diferencias nitas (entre otros) , originando un sistema de ecuaciones lneal o no-lneal
dependiendo de las aproximaciones utilizadas o de la misma ecuacion diferencial.
Al momento de obtener los caudales que circulan por una red de tuberas, se presenta un sistema de
ecuaciones no-lneal para los caudales y/o las alturas piezometricas en los puntos de uni
on.
Aqu se tratar
an ambos tipos de sistemas de ecuaciones, comenzando con los sistemas lineales, de
forma de facilitar la descripcion de los algoritmos de soluci
on para los sistemas de ecuaciones no-lineales.

1. SISTEMAS LINEALES
1.1. METODOS DIRECTOS
1.1.1. Eliminaci
on Simple
Este metodo se basa en las propiedades de una matriz cuadrada, principalmente la que establece que
al sumar una la a otra se mantiene la independencia entre las mismas, es decir, que el determinante no
cambia.
El metodo consiste en que dado un sistema de ecuaciones lineales, que pueda ser representado mediante
[A]x = b

(1)

donde
[A] es la matriz de coecientes del sistema,
x es el vector de inc
ognitas del problema,
b es el vector idependiente.
realizar operaciones de adici
on sustracci
on entre las las de forma sistematica, sobre la matriz [A] y el vector
b, hasta obtener una matriz triangular superior [U] en el lugar de [A].
Para facilitar las operaciones, se acostumbra a expresar de forma completa la matriz de todo el sistema
en un matriz ampliada con una columna adicional, en todo un conjunto, que se denomina matriz ampliada,
de la forma
[A|b]
(2)
de manera que es mas facil exponer las operaciones que sobre ella se realizan para resolver el sistema de
ecuaciones. Las operaciones se realizan sobre toda la matriz ampliada, para que el sistema de ecuaciones
lineales original quede inalterado.
EJEMPLO:
Hallar la soluci
on del siguente sistema de ecuaciones:
2.51 x1 + 1.48 x2 + 4.53 x3 = 0.05
1.48 x1 + 0.93 x2 1.30 x3 = 1.03
2.68 x1 + 3.04 x2 1.48 x3 = 0.53
SEC. 1.1. METODOS DIRECTOS

21

A. GRANADOS

METODOS NUMERICOS

El cual puede ser escrito en forma de matriz ampliada:

2.51 1.48 4.53 | 0.05


1.48 0.93 1.30 | 1.03 .
2.68 3.04 1.48 | 0.53
Se multiplica la primera la por M21 = 1.48
2.51 y se le suma a la segunda la.
Se multiplica la primera la por M31 = 2.68
2.51 y se le suma a la tercera la.

2.51 1.48
4.53 |
0.05
0.00 0.059 3.96 |
1.00 .
0.00 1.48 6.98 | 0.583
Ya culminado el proceso de eliminacion para la primera columna se procede con la segunda.
1.48
Se multiplica la segunda la por M32 = 0.059
y se le suma a la tercera la

2.51 1.48
4.53 | 0.05
0.00 0.059 3.96 | 1.00 .
0.00 0.00
92.7 | 25.5
En donde se ha obtenido una matriz triangular superior, que en notaci
on expandida queda
2.51 x1 + 1.48 x2 + 4.53 x3 = 0.05
0.059 x2 3.96 x3 = 1.00
92.7 x3 = 25.5
de donde despejando de forma ascendente y regresiva se obtiene la siguiente solucion
x3 = 0.275
x2 = 1.35
x1 = 1.30
Presentado el ejemplo es posible entonces organizar el algoritmo de la siguiente forma:
ALGORITMO:
1.- Dado un sistema de n ecuaciones lineales con n inc
ognitas, con matriz cuadrada, se construye su matriz
ampliada.
2.- Se inicia el proceso de eliminacion desde la columna k = 1 hasta la columna k = n 1. La u
ltima
columna k = n no es necesario eliminarla.
Aik
y se realizan las operaciones de multiplicar la la k por
3.- Se evalu
an los multiplicadores Mik = A
kk
Mik y sumarla a la la i. Al elemento Ak,k se le denomina el elemento de pivote k. La la resultante
se almacena en la la i. La variable i va desde i = k + 1 hasta i = n. La variable j en la la i va
desde j = k + 1 hasta j = n + 1, para todos los elementos Aij de la la i que se han modicado, hasta
inclusive la parte ampliada en la columna j = n + 1. Los elementos eliminados, Aik , son en teora
nulos, por lo que no es necesario mostrar sus resultados.
4.- Al obtener la matriz triangular superior se inicia un proceso de sustituci
on regresiva para as obtener
no en valor absoluto,
la soluci
on del sistema. Si al nal el valor de An,n queda con un valor muy peque
signica que la matriz es singular (con este procedimiento).
22

SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

1.1.2. Pivotes
Los pivotes pueden ser parciales o totales, seg
un se intercambien s
olo las o las y columnas, justo
antes de la eliminaci
on de la columna correspondiente.
Pivote Parcial
Se intercambian las, entre la la k y las las i = k + 1 hasta i = n, de manera que al nal quede como
elemento Akk , en la diagonal principal, el mayor valor absoluto de los elementos. Cuando este elemento
Akk , que le denominamos elemento de pivote, este una vez localizado en su lugar, se procede a hacer la
eliminacion de la columna k.
El intercambio entre la debe ocurrir siempre por debajo del elemento de pivote para no alterar los
elementos ya eliminados.
Pivote Total
Se intercambian las/columnas, entre la la/columna k y las la/columna i = k + 1 hasta i = n, de
manera que al nal quede como elemento Akk , en la diagonal principal, el mayor valor absoluto de los
elementos. Cuando este elemento Akk , que le denominamos elemento de pivote, este una vez localizado en
su lugar, se procede a hacer la eliminaci
on de la columna k.
Al intercambiar columnas se altera el orden de las inc
ognitas, por lo que es necesario guardar este
orden utilizando un puntero en la variable JJ(j) que originalmente tiene el valor j y se puede ir modicando,
seg
un se intercambien las columnas.
El intercambio entre las/columnas debe ocurrir siempre por debajo/derecha del elemento de pivote
para no alterar los elementos ya eliminados.
1.1.3. Eliminaci
on de Gauss
Durante el proceso de eliminaci
on es posible que uno de los elementos de la diagonal principal sea nulo,
lo cual originara el problema de una division por cero. De forma de evitar este problema se incluye en el
proceso de eliminacion el intercambio de las, comunmente llamado pivote parcial, el cual tambien permite
controlar la propagaci
on del error de redondeo que ocurre en sistemas de ecuaciones cuyo determinante es
cercanamente singular. El algoritmo propuesto es conocido en la literatura de an
alisis numerico como el
metodo de eliminaci
on gaussiana.
El proceso de intercambio de las se hace buscando que el valor absoluto de los multiplicadores Mik
sea siempre menor o igual a la unidad, |Mik | 1. De forma de cumplir con esta restricci
on, el elemento Akk
sobre la columna que se esta eliminando deber
a ser el mayor en magnitud de todos los elementos que estan
por debajo de la la k, |Akk | |Aik | con i k.
EJEMPLO:
De forma de observar la propagaci
on del error de redondeo, se repetira la soluci
on del ejemplo, de la
sub-subseccion 1.1.1, pero utilizando como algoritmo de soluci
on el metodo de eliminaci
on de Gauss.
Partiendo del sistema de ecuaciones, ya en su forma de matriz ampliada

2.51 1.48 4.53 | 0.05


1.48 0.93 1.30 | 1.03 .
2.68 3.04 1.48 | 0.53
en el cual se puede observar que el elemento de mayor
intercambiando la la 1 con la la 3 la matriz queda de la

2.68 3.04 1.48


1.48 0.93 1.30
2.51 1.48 4.53

magnitud en la columna 1 es el elemento A31 ,


forma:

| 0.53
| 1.03 .
| 0.05

Se multiplica la primera la por M21 = 1.48


2.68 y se le suma a la segunda la.
SEC. 1.1. METODOS DIRECTOS

23

A. GRANADOS

METODOS NUMERICOS

Se multiplica la primera la por M31 = 2.51


2.68 y se le suma a la tercera la.
Se puede observar que ambos multiplicadores tienen magnitud menor o igual a la unidad. Despues de
hacer las operaciones indicadas, la matriz ampliada es

2.68
3.04
1.48 | 0.53
0.00 0.74 0.484 | 1.32 .
0.00 1.368
5.91
| 0.546
Nuevamente se puede observar que el elemento A32 es de mayor magnitud que el elemento A22 , por lo
cual se hace necesario un nuevo cambio de la entre la la 2 y la la 3.
es

0.74
y se le suma a la tercera la, la nueva matriz ampliada
Si se multiplica la segunda la por M32 = 1.36

2.68 3.04 1.48 | 0.53


0.00 1.36 5.91 | 0.546 .
0.00 0.00 3.69 | 1.02

Ya obtenida la matriz ampliada triangular superior, se realiza el proceso de sustitucion regresiva para
obtener la soluci
on del sistema propuesto
x3 = 0.276
x2 = 1.59
x1 = 1.45
Como puede observarse el resultado no es el mismo que el obtenido con el metodo de eliminaci
on
simple debido a la propagaci
on del error de redondeo. La soluci
on exacta del sistema es
x3 = 0.2749
x2 = 1.5892
x1 = 1.4531
El algoritmo del metodo de eliminaci
on de Gauss quedara as
ALGORITMO:
1.- Dado un sistema de n ecuaciones lineales con n inc
ognitas, con matriz cuadrada, se construye su matriz
ampliada.
2.- Se inicia el proceso de eliminacion desde la columna k = 1 hasta la columna k = n 1.
3.- Se verica que el elemento Akk es el de mayor magnitud en valor absoluto de todos los elementos por
debajo de la la k, |Akk | |Aik | con i k. En caso negativo, hacer el cambio de la que garantice tal
condici
on.
ik
4.- Se eval
uan los multiplicadores Mik = aakk
y se realizan las operaciones de multiplicar la la k por
Mik y sumarla a la la i, la la resultante se almacena en la la i. La variable i va desde i = k + 1
hasta i = n. La variable j en la la i va desde j = k + 1 hasta j = n + 1, para todos los elementos
Aij de la la i que se han modicado, hasta inclusive la parte ampliada en la columna j = n + 1. Los
elementos eliminados, Aik , son en teora nulos, por lo que no es necesario mostrar sus resultados.
5.- Al obtener la matriz triangular superior se inicia un proceso de sustituci
on regresiva para as obtener
la soluci
on del sistema.
1.1.4. Eliminaci
on de Gauss-Jordan
En este metodo se realiza la eliminaci
on de los elementos por columnas (i = 1 hasta i = n, i
= k) con
la excepcion del elemento de pivote k. Finalmente se ejecuta un despeje simple xk = bk /Akk en la matriz
diagonal obtenida mediante, eliminaci
on simple, eliminaci
on de Gauss o con pivote total.
24

SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

1.1.5 Normalizaci
on
Este procediemiento busca obtener una matriz equivalente (con la misma solucion) cuyos elementos
sean en valor absoluto menor o igual a la unidad.
Por Filas En este procedimiento se busca el elemento de mayor valor absoluto por las y luego se divide
la correspondiente la entre dicho elemento.
Global En este procedimiento se busca el elemento de mayor valor absoluto por las/columnas en toda la
matiz y luego se divide toda la matriz entre dicho elemento.
Puede aplicarse de forma inicial o de forma intermedia despues de el proceso de eliminacion de cada
columna. Puede incluir o no la parte ampliada de la matriz.
1.1.6 Descomposici
on L-U
La decomposicion L-U busca obtener la descomposicion de la matriz de un sistema [A] = [L][U],
donde [L] es una matriz triangular inferior y [U] es una matriz triangular superior, todas cuadradas. Una
vez teniendo en cuenta los elementos nulos en cada matriz, el producto se desarrolla como
Aij =

i1

Lik Ukj + Lii Uij

(i j)

(3.a)

Lik Ukj + Lij Ujj

(i j)

(3.b)

k=1

Aij =

j1

k=1

De donde se obtienen las siguientes ecuaciones


Aij

Lik Ukj

k=1

Uij =

Lii
Aij

Lij =

i1

j1

(i j)

(4.a)

(i j)

(4.b)

Lik Ukj

k=1

Ujj

Para resolver el problema de la igualdad, se estipula o impone el valor de Lii , Ujj o ambos.
Luego el problema de resolver un sistema de ecuaciones, una vez obtenidas [L] y [U], se replantea como
dos sistemas
[A]x = [L][U]x = b
[U]x = z
[L]z = b
(5)
con la ayuda de una variable auxiliar z. Por la forma de las matrices esto se reduce a hacer una sustitucion
progresiva
i1

Lik zk
bi
k=1
(6)
zi =
Lii
y una sustituci
on regresiva
zi
xi =

n

k=i+1

Uii

Uik xk
(7)

que permite obtener la soluci


on del sistema original.
Lo interesante de este metodo es que s
olamente hace falta hacer la descomposicion de la matriz [A]
una vez y, en el caso de resolver varios sistemas con distintos vectores independientes b, solo hace falta hacer
las dos sustituciones progresiva y regresiva para cada b.
SEC. 1.1. METODOS DIRECTOS

25

A. GRANADOS

METODOS NUMERICOS

El procedimiento propuesto para elmacenar la informacion del metodo conocido como el metodo de
descomposici
on LU, es tal que
[A|b] [L\U|z] [L\U|x]

[A]x = [L][U]x = [L]z = b

(8)

sin haber interferencia de memoria. La matrices [A], [L] y [U] y los vectores b, z y x pueden ocupar el mismo
espacio de memoria de una matriz ampliada sin problema como se ver
a mas adelante.
M
etodo de Doolittle
En el metodo de Doolittle se escoge Lii = 1, por lo que las ecuaciones anteriores se reducen a encontrar
una la p = 1, 2, 3, . . . , n de [U] y una columna p = 1, 2, 3, . . . , n 1 de [L] de forma alternante con las
ecuaciones
p1

Upj = Apj
Lpk Ukj
j = p, p + 1, . . . , n + 1
(9.a)
k=1

Aip
Lip =

p1

Lik Ukp

k=1

i = p + 1, p + 2, . . . , n

Upp

(9.b)

El caso de [U] con j = n + 1 coincide con la substituci


on progresiva cuando se trabaja con la matriz ampliada
[A|b]. Para p = 1 las sumatorias de (9) son nulas.
La sustituci
on regresiva viene dada por
n

Up,n+1

Upk xk

k=p+1

xp =

p = n, n 1, . . . , 1

Upp

(10)

Cuando p = n la sumatoria es nula, al igual que en todos los casos de sumatorias donde el lmite inferior
supera al lmite superior.
El metodo esta basado en descomponer la matriz de coecientes [A] en el producto de dos matrices [L]
y [U], las cuales son matrices triangulares inferior (Lower) y superior (Upper) respectivamente. La matriz
[L] tiene la particularidad de que todos los elementos de la diagonal principal son iguales a la unidad por lo
que no es necesario guardar su valor en memoria.
En forma matricial, la descomposicion quedara de la siguiente forma

1
L21
.
..
Ln1

0
1
..
.
Ln2

... 0
... 0
.
..
. ..
... 1

U11
0
.
..
0

U12
U22
..
.

...
...
..
.

...

U1n
U2n
=
..
.

A11

A21
.
..
An1

Unn

A12
A22
..
.
An2

A1n
..
...
.
..
..
.
.
. . . Ann
...

(11)

Para determinar los coecientes Lij y Uij se utilizan las expresiones (9).
EJEMPLO:
Construir las matrices [L] y [U] para el sistema de ecuaciones del ejemplo de la subseccion 1.1.1.
El primer paso es construir la primera la de [U] y la primera columna de [L]:
U1j = A1j
Li1 =
26

A1j
U11

j = 1, 2, 3
i = 2, 3
SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

El segundo paso es construir la segunda la de [U] y la segunda columna de [L], las cuales quedan:
U2j = A2j L21 U1j
L32 =

j = 2, 3

A32 L31 U12


U22

El u
ltimo paso (en este ejemplo) es hallar la u
ltima la de [U]
U33 = A33 L31 U13 L32 U23
Quedando las matrices [L] y [U] de la siguiente forma:

1
0
0
0.589
1
0
1.06 25.0 1

2.51 1.48
4.53
0
0.059 3.96
0
0
92.7

En las cuales se observa que en la matriz [L] se almacena la informacion correspondiente a los multiplicadores, y en la matriz [U] se tiene la matriz triangular superior nal del proceso de eliminacion, donde
podemos incluir adicionalmente la parte ampliada del vector independiente modicado con las operaciones.
Conocidas las matrices [L] y [U] debemos resolver el sistema de ecuaciones planteado. Recordando que
el sistema de ecuaciones viene dado por la expresion (5.a) y expresando el producto [U]x como el vector z, el
sistema se desdobla en los sistemas (5.c) y (5.b), que pueden ser resueltos por simples sustituciones progresiva
y regresiva, respectivamente.
M
etodo de Crout-Cholesky
En el metodo de Crout se escoge Ujj = 1, por lo que el procedimiento se reduce a encontrar una
columna p = 1, 2, 3, . . . , n de [L] y una la p = 1, 2, 3, . . . , n 1 de [U] de forma alternante con la ecuaciones
p1

Lip = Aip

Lik Ukp

i = p, p + 1, . . . , n

(12.a)

j = p + 1, p + 2, . . . , n + 1

(12.b)

k=1

Apj
Upj =

p1

Lpk Ukj

k=1

Lpp

El indice j = n + 1 en (12.b) es la parte ampliada de la matriz [A].


Luego la sustituci
on regresiva se calcula con
xp = Up,n+1

Upk xk

p = n, n 1, . . . , 1

(13)

k=p+1

El metodo de Choleski Upp = Lpp , por lo que los elementos de la diagonal principal, tanto de [L] como
de [U] se calculan como

Lpp = Upp




= A

pp

p1

Lpk Ukp

p = 1, 2, . . . , n

(14)

k=1

y se comienza indistintamente con una la p de [U] y una columna p de [L] con p = 1, 2, 3, . . . , n 1 usando
las ecuaciones (4).
SEC. 1.1. METODOS DIRECTOS

27

A. GRANADOS

METODOS NUMERICOS

1.1.7 Sistemas Tridiagonales


Son los sistemas de ecuaciones lineales con tres diagonales principales, con elementos ai en la diagonal
inferior, bi en la diagonal central y principal y ci en la diagonal superior. Los elementos a1 y cn no existen
en este sistema. Los elementos del vector independiente son di .
Para resolverlo hemos escogido el metodo de eliminaci
on simple o descomposicion L-U (Doolittle), que
son equivalentes
Eliminaci
on
como normalmente son sistemas diagonalmente dominante no hace falta pivotear. Los elementos ai se
eliminan formando los elementos i tambien en la diagonal principal
i = b i

ai
ci1
i1

(15)

para i = 1, 2, . . . , n. Los elementos del vector independiente di se tranforman en i


i = di

ai
i1
i1

(16)

tambien para i = 1, 2, . . . , n. Los elementos ci quedan inalterados.


Luego la sustituci
on regresiva es
i ci xi+1
xi =
i

(17)

para i = n, n 1, . . . , 1. Este algoritmo usa tres ecuaciones i , i y xi .


Algoritmo de Thomas
Se hace el siguiente cambio de variables i = zi /Uii = i /i , siendo Uii = bi Li,i1 Ui1,i = i ,
Ui,i+1 = ci y Li,i1 = ai /i1 , por lo que la ecuaci
on de zi queda
zi = di Li,i1 zi1

i =

di i1 ai
i

(18)

Finalmente la sustituci
on regresiva da la soluci
on
xi =

zi Ui,i+1 xi+1
ci
= i
xi+1
Uii
i

(19)

donde se ha empleado parcialmente la notacion de la descomposicion L-U (Doolittle). A este algoritmo


tambien se le denomina TDMA (Three Diagonal Matrix Algorithm). Este algoritmo utiliza tambien tres
ecuaciones i , i y xi , pero de dice que es mucho mas eciente numericamente que el algoritmo de eliminacion.
Los espacios de memoria utilizados pueden ser los mismos que los de las variable originales sin interferencia.
1.1.8. Determinante
El determinante es de facil calculo, pues
det([A]) = (1)p det([U])

(20)

donde [U] es la matriz triangular superior que queda despues del proceso de eliminacion y p es el n
umero de
pivotes que cambia el signo al determinante.
1.1.9. Matriz Inversa
Si con el metodo de Gauss-Jordan se trabaja con la matrix [A] ampliada con la matrix identidad [I] en
la forma [A|I], y se logra convertir con el procedimiento planteado a la matriz [A] en la matriz [I], entonces la
matriz [I] en la parte ampliada se convierte en la matriz [B], tal que [A] [B] = [I], por lo que [B] es realmente
[A]1 .
28

SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

1.1.10. Autovalores y Autovectores


Las deniciones de los autovalores y autovectores e se resume en las siguientes expresiones (ver por
ejemplo [Homan & Kunze,1971])
P () = det(A I) = 0

A.e = e

= + i

|| = 2 + 2

(A) = max |i |
1ik

(21)

P () es el polinomio caracterstico cuya races son los autovalores. es el radio espectral. La multiplicidad
dk de los autovalores k originan varios sub-espacios Wk , cuya uni
on es el espacio completo V = Rn
P () =

k


( i )di

i=1

dim Wi = dim V = n

dim Wi = di

(22)

i=1

Defnase la matriz S con columnas siendo los autovectores ei,j (j di , puede haber m
as de un
autovector para cada autovalor) que generan el subespacio Wi para cada autovalor i (1 i k n)
(A i I) . x = 0

S = [ S1 , S2 , . . . , Sk ] = [ IB1 , IB2 , . . . , IBk ]

(23)

El sistema lineal (23.a) sirve para obtener las componentes de cada autovector ei,j en la construccion de S.
umero di de autovectores que generan el subespacio Wi . Entonces, la matriz S
Cada base IBi contiene el n
diagonaliza A de la siguiente manera
S1. A . S = = diag{ 1 , 2 , . . . , k }

A . S = .S = S.

(24)

El valor i puede estar repetido en la matriz dependiendo de di . Las matrices A y (over F = R)


son semejantes y las matrices S y permutan. Cuando la matriz A es simetrica (o hermtica en el caso
complejo) los autovalores son todos reales, la transformaci
on S es tambien ortogonal (cuando los autovectores
se normalizan), y A y (over F = R) son tambien congruentes.
Dada la denicion del polinomio caracterstico [Pennington,1970]
P () = | [A] [I] | = 0

(21)

(el smbolo |[A]| signica det([A])), se ha implementado las siguientes f


ormulas recurrentes
P1 = tr[A1 ]
[A1 ] = [A]
[A2 ] = [A] ( [A1 ] P1 [I] )
[A3 ] = [A] ( [A1 ] P2 [I] )
..
.
[An ] = [A] ( [An1 ] Pn1 [I] )

1
tr[A2 ]
2
1
P3 = tr[A3 ]
3
..
.

P2 =

Pn =

(22)

1
tr[An ]
n

que permite nalmente obtener


| [An Pn [I] | = 0

(23)

y con las cuales se puede calcular la inversa de la matriz [A]


[A]1 =
SEC. 1.1. METODOS DIRECTOS

1
( [An1 ] Pn1 [I] )
Pn

(24)
29

A. GRANADOS

METODOS NUMERICOS

y el polynomio caractrstico
n P1 n1 P2 n2 Pn = 0

(25)

que al resolver sus races nos permite obtener los autovalores.


1.1.11. Normas
Las normas permiten obtener una medida positiva de vectores y matrices y se dene como la funcion
, que se puede usar para estimar longitudes, distancias y ordenes de magnitud.
Norma de Vectores
Las normas de los vectores en Rn tienen las siguientes propiedades:
i) x 0 para todo x Rn .
ii) x = 0 si y solo si x = 0.
iii) x = || x para toda R y x Rn .
iv) x + y x + y para todo x y y Rn
Existe muchos tipos de normas para vectores, pero las mas importantes son:
Norma 1
n

x 1 =
|xi |

(26)

i=1

Norma

x = max |xi |
1in

Norma 2 (euclidiana)
x 2 =
Norma p
x p =

x.x


n

(27)

(28)

1/p
|xi |p

(29)

i=1

La norma en (29) con p = 2 es equivalente a la norma 2 en (28).


Norma de Matrices
Una norma matricial en el conjunto de todas las matrices de Rn Rn es una funci
on de valores reales
positivos, denida en este conjunto que satisface las siguientes propiedades, para todas las matrices A y B
de Rn Rn y todo escalar alpha R:
i) A 0.
ii) A = 0 si y solo si A = O.
iii) A = || A .
iv) A + B A + B .
v) AB A B .
Existe muchos tipos de normas para Matrices, pero las m
as importantes son:
Norma 1
n

A 1 = max
|Aij |
(30)
1jn

Norma
A = max

1in

30

i=1

|Aij |

(31)

j=1
SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

Norma 2 (euclidiana)
A 2 =
Norma p
A p =


(Ah A)


n
n

(32)

1/p

|Aij |

(33)

j=1 i=1

El radio espectral se dene como


= + i

|| = 2 + 2

(A) = max |i |
1ik

(34)

el mayor de todos los modulos de los autovalores y satisface que


(A) = lim Ar 1/r A

(35)

es menor que cualquier norma natural . Cuando p = 2 en la f


ormula (33) la norma se denomina de
Frobenius o de Hilbert-Schmidt
A F =


n
n

|Aij |2

1/2
=


tr(Ah A)

(36)

j=1 i=1

Las normas de matrices se dice que son normas subordinadas o inducida por las normas de los vectores,
o norma natural, en el sentido que
A = max Ax
x=1

A = max

x=0

Ax
x

(37)

que son equivalentes.


1.1.12 Condicionamiento
El n
umero de condici
on K(A) de la matriz no singular A, relativo a la norma , se dene como
K(A) = A A1

(38)

Se sabe que
Axk = bk

Ax = b

Ar = b

Aek = dk

(39)

donde r es la soluci
on exacta del sistema. De la u
ltima ecuacion (39.d) y de la denici
on (38) se obtiene
dk
A

(40)

ek
dk
K(A)
r
b

(41)

1 = I = AA1 A A1 = K(A)

(42)

ek K(A)
o introduciendo (39.c) A r b

Ya que para cualquier matriz no-singular A

SEC. 1.2. METODOS ITERATIVOS

31

A. GRANADOS

METODOS NUMERICOS

se espera que la matriz A tenga un buen comportamiento (llamada formalmente una matriz bien condicionada) si K(A) esta cerca de uno y un comportamiento defectuoso (llamada mal condicionada) cuando
K(A) sea signicativa mayor que uno. El comprtamiento en esta situaci
on se reere a la relativa seguridad
k
de que un vector residual d peque
no implique correspondientemente una soluci
on aproximada precisa. La
on relativa dk / b con
expresion (41) da una interrelaci
on entre el vector error relativo ek / r y desviaci
el n
umero de condici
on K(A).
1.2. METODOS ITERATIVOS
1.2.1. M
etodo de Jacobi
Dentro de los metodos de soluci
on de ecuaciones diferenciales parciales guran las diferencias nitas, los
elementos nitos, los elementos de frontera, entre otros, pero todos tienen el denominador com
un de generar
sistemas de ecuaciones algebraicas de gran tama
no. Una de las caractersticas de estos sistemas de ecuaciones
es la presencia de elementos nulos dentro de la matriz en una forma bien determinada, representando el mayor
porcentaje de elementos dentro de la matriz, normalmente del 80% al 95%.
Debido a la existencia de una gran cantidad de elementos nulos no es conveniente trabajar con metodos
directos, en los cuales se debe almacenar la matriz de coecientes, sino utilizar metodos iterativos entre los
cuales gura el metodo de Jacobi. Dicho algoritmo consiste en suponer un vector solucion inicial xo y
determinar la soluci
on mediante un procedimiento iterativo o de punto jo, el cual tiene la siguiente forma
=
xk+1
i



i1
n


1
Aij xkj
Aij xkj
bi
Aii
j=1
j=i+1

i = 1, 2, 3, . . . , n

(1)

Para obtener convergencia, es necesario que la matriz [A] sea una matriz diagonalmente dominante,
es decir, la magnitud del elemento de la diagonal debe ser mayor que la suma en valor absoluto de todos los
elementos restantes en la la
|Aii | >

|Aij | = |Ai1 | + |Ai2 | + . . . + |Ai,i1 | + |Ai,i+1 | + . . . + |Ain |

(2)

j=1
j=i

Teorema.Si la matriz [A] es diagonalmente dominante por las en forma estricta (expresi
on (2)), entonces
los metodos de Jacobi y de Gauss-Seidel convergen.
1.2.2. M
etodo de Gauss-Seidel
El metodo de Gauss-Seidel es una variante del metodo de Jacobi, donde las variables se van actualizando
en la medida que se van calculando en la forma
xk+1
i



i1
n


1
k+1
k
=
Aij xj
Aij xj
bi
Aii
j=1
j=i+1

i = 1, 2, 3, . . . , n

(3)

Teorema (Stein-Rosemberg). Si la matriz [A] es diagonalmente dominante por las en forma estricta
(expresion (2)), y adicionalmente los signos de los elementos de la diagonal principal son de signos opuestos
a los elementos fuera de esta, el metodo de Gauss-Seidel converge mas rapido.
1.2.3 Relajaci
on Sucesiva
El metodo de relajacion sucesivas (SOR-Succesive Over Relaxation-Southwell) es una variante del
metodo de Gauss-Seidel, donde se sobre-relaja el metodo. Si denimos el vector independiente aproximado
bk = [A]xk

bki =

i1

j=1

32

Aij xk+1
+ Aii xki +
j

Aij xkj

i = 1, 2, 3, . . . , n

(4)

j=i+1
SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

y la desviaci
on global o residuo (a veces denido como -residuo)
dk = bk b

dki =

i1

Aij xk+1
+ Aii xki +
j

j=1

Aij xkj bi

i = 1, 2, 3, . . . , n

(5)

j=i+1

entonce el metodo de relajacion sucesiva se expresa algortmicamente como


xk+1
= xki
i

dki
Aii

(6)

donde el factor de relajacion es:


< 1 Subrelajado
= 1 Gauss-Seidel
> 1 Sobrerelajado
La desviacion local k y los errores locales k y globales ek son denidos como
k = bk bk1

k = xk xk1

ek = xk r

(7)

extendiendo los conceptos antes denidos.


Teorema (Ostrowski-Reich). Si A es una matriz positiva denida y 0 < < 2, entonces el metodo SOR
converge para cualquier elecci
on del iterado inicial xo o aproximaci
on inicial del vector de soluci
on.
1.2.4. Estabilidad
Sea una cierta perturbacion en b igual a b
[A]x = b

[A](x + x) = b + b

[A]x + [A]x = b + b

[A]x = b

x = [A]1 b

(8)

Si [A] es casi singular, cualquier modicaci


on en b producir
a grandes cambios en la soluci
on de x.
Sea una cierta perturbacion en [A]
[A]x = b

([A] + [A]) (x + x) = b

[A]x + [A]x + [A]x + [A]x = b

[A]x + [A]x = 0

despreciando los terminos de segundo orden [A]x, queda


x = [A]1 [A]x

(9)

Si [A] es casi singular, x puede ser grande, por consiguiente, [A] y b se deben trabajar con la m
axima
capacidad, de lo contrario, al no ser valores exactos, no hay manera de obtener una soluci
on aceptable.
1.3. OTROS METODOS
1.3.1. M
etodo de la Potencia
Sea A la matriz cuyo autovalor se desea hallar. Aplicamos dicha matriz aun vector inicial e0 , el vector
resultante se normaliza y se le vuelve a aplicar la matriz A otra vez, y as sucesivamente. Esto es,
Aek = vk+1
SEC. 1.3. OTROS METODOS

ek+1 =

vk+1
vk+1

(1)
33

A. GRANADOS

METODOS NUMERICOS

El proceso iterativo denominado metodo de la potencia es de tipo punto jo [Gerald,1978]. Sea un vector
v(0) cualquiera y e1 , e2 , . . ., en los autovectores para los autovalore 1 , 2 , . . ., n . Entonces
v(0) = c1 e1 + c2 e2 + + cn en

(2)

umero
Cualquier vector es una combinaci
on lineal de los autovectores. Si aplicamos a v(0) la matriz A un n
de m veces, se obtiene
m
m
(3)
v(m) = Am v(0) = c1 m
1 e1 + c2 2 e2 + + cn n em
Si un autovalor, sea 1 , es el mas grande que todos en valor absoluto, los valores de m
a despreciable
i , i
= 1, ser
en comparacion a m
,
cuando
m
sea
muy
grande
y
1
Am v(0) c1 m
1 e1

vm |1 |

(4)

Este es el principio detr


as de el metodo de la potencia.
Sea Ae = e, multiplicando por A1 se obtiene
A1 A e = A1 e = A1 e

A1 e =

1
e

(5)

Lo que es lo mismo que decir que la matriz inversa A tiene los autovalores inversos que la original. Esto hace
que el metodo de la potencia descrito anteriormente permite hallar el menor autovalor de la matriz A1 .
Dado Ae = e, substrayendo sIe = se en ambos miembros, se obtiene
(A sI)e = ( s)e

(6)

La expresion anterior puede ser aplicada de dos formas diferentes. Si deseamos obtener un autovalor cercano
a s, basta con extraer s de la diagonal principal de A, y al invertir la matriz modicada y aplicar el metodo
de la potencia se obtendra el valor inverso 1/( s) (el cual es grande). Luego volviendo al problema original
se puede anar el resultado buscado. La otra forma es escoger s un valor ya obtenido, con lo que aplicar
el metodo de la potencia a la matriz modicada en la diagonal principal brindara otro valor diferente del
autovalor antes hallado, donde ( s) sea el mas grande en valor absoluto.
1.3.2. Ortogonalizaci
on de Gram-Schmidt
Este algoritmo recibe su nombre de los matematicos Jrgen Pedersen Gram y Erhard Schmidt. Sea un
conjunto de vectores v1 , v2 , . . . , vn linealmente independiente en el espacio vectorial V. Entonces [Homan
& Kunze,1971]
u1 = v1
u2 = v2

v2 , u1 
u1
u1 , u1 

u3 = v3

v3 , u1 
v3 , u2 
u1
u2
u1 , u1 
u2 , u2 

..
.

..
.

(7)

..
.

De forma general se puede expresar como


uk = vk

k1

j=1

vk , uj 
uj
uj , uj 

(8)

donde k = 1, 2, . . . , n. Cuando en la sumatoria el lmite superior es menor que el lmite inferior la sumatoria
no se realiza o su resultado es nulo.
34

SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

Siendo uk ortogonales entre s y se pueden normalizar como


ek =

uk
uk

uk =


uk , uk 

(9)

donde a, b en el cuerpo F, es el producto interior de a y b, cualquier par de vectores del espacio vectorial
V correspondiente de dimensi
on nita n. Entonces el conjunto de vectores ek forma una base ortonormal.
Recurriendo al metodo de ortogonalizacin de Gram-Schmidt, con las columnas de A como los vectores
a procesar [A] = [a1 |a2 | |an ]. Entonces
uk = ak

k1

ak , ej  ej

(10)

j=1

Despejando ak , queda
ak =

k1

ej , ak  ej + ek uk

(11)

j=1

En vista de que [Q] = [e1 |e2 | |en ], entonces


u e , a  e , a 
1
1 2
1
3
u2
e2 , a3 
0

[A] = [Q][R] = [e1 |e2 | |en ]

0
u3
0
..
..
..
..
.
.
.
.

(12)

siendo [R] es una matriz triangular superior. Por lo que


e , a  e , a  e , a 
1 1
1
2
1
3
0
e2 , a2  e2 , a3 

[R] = [Q]t [A] =


0
0
e3 , a3 

..
..
..
.
.
.

..
.

(13)

Notese que ej , aj  = uj , ej , aj  = 0 para j > k, y [Q][Q]t = [I], entonces [Q]t = [Q]1 es ortogonal.
1.3.3. Reexiones de Householder
Una reflexion de Householder es una transformacion que reeja el espacio con respecto a un plano
determinado. Esta propiedad se puede utilizar para realizar la transformacion QR de una matriz si tenemos
en cuenta que es posible elegir la matriz de Householder de manera que un vector elegido quede con una
u
nica componente no nula tras ser transformado (es decir, premultiplicando por la matriz de Householder).
Gr
acamente, esto signica que es posible reejar el vector elegido respecto de un plano de forma que el
reejo quede sobre uno de los ejes de la base cartesiana [Householder,1975] [Burden & Faires,1985].
La manera de elegir el plano de reexi
on y formar la matriz de Householder asociada es el siguiente:
Sea ak un vector columna arbitrario m-dimensional tal que ak = |k |, donde k es un escalar (si el
algoritmo se implementa utilizando aritmetica de coma otante, entonces debe adoptar el signo contrario
que ak para evitar perdida de precision).
Entonces, siendo ek el vector {1, 0, ..., 0}t, y la norma eucldea, se dene
u = ak k ek
SEC. 1.3. OTROS METODOS

v=

u
u

Q = I 2 vvt

(14)
35

A. GRANADOS

METODOS NUMERICOS

El vector v unitario perpendicular al plano de reexi


on elegido. Q es una matriz de Householder asociada a
dicho plano, tal que
Qak = {k , 0, , 0}t
(15)
Esta propiedad se puede usar para transformar gradualmente los vectores columna de una matriz A de
dimensiones m por n en una matriz triangular superior. En primer lugar, se multiplica A con la matriz
de Householder Q que obtenemos al elegir como vector ak la primera columna de la matriz (k = 1). Esto
proporciona una matriz Q1 A con ceros en la primera columna (excepto el elemento de la primera la en la
diagonal principal, donde aparece una k ). Esto es,

Q1 A =

1
0
..
.


..
.

[A ]
..

(16)

y el procedimiento se puede repetir para A (que se obtiene de A eliminando la columna 1), obteniendo as
una matriz de Householder Q2 . Hay que tener en cuenta que Q2 es menor que Q1 . Para conseguir que esta
matriz opere con Q1 A en lugar de A es necesario expandirla hacia arriba a la izquierda, completando con
unos en Qk y con ceros en ak y ek , sobre la diagonal principal, o en general

Qk =

Ik1
0

0
Qk


(17)

on k 1. Tras repetir el proceso t veces, donde t = min(m1, n),


donde Ik1 es la matriz identidad de dimensi
R = Qt Q2 Q1 A

(18.a)

es una matriz triangular superior. De forma que, tomando


Q = Q1 Q2 Qt

(18.b)

donde A = Qt R es una descomposicion QR de la matriz A.


Este metodo tiene una estabilidad numerica mayor que la del metodo de Gram-Schmidt descrito arriba.
Una pequea variaci
on de este metodo se utiliza para obtener matrices semejantes con la forma de
Hessenberg, muy u
tiles en el calculo de autovalores por acelerar la convergencia del algoritmo QR reduciendo
as enormemente su coste computacional. Existen otros metodos de factorizacion de tipo QR como el metodo
de rotaciones de Givens, etc.
En cualquiera de los casos antes dscrito el determinante de A es facilmente obtenible. Es posible
utilizar la descomposici
on QR para encontrar el valor absoluto del determinante de una matriz. Suponiendo
que una matriz se descompone seg
un A = QR. Entonces se tiene
det(A) = det(Q) det(R)

(19)

Puesto que Q es unitaria, | det(Q)| = 1. Por tanto,


n




| det(A)| = | det(R)| = 
rii 

(20)

i=1

donde rii son los valores de la diagonal de R.


La factorizacion QR tambien puede usarse para obtener la soluci
on de un sistema de ecuaciones lineales
en la forma
[A].x = [Q].[R].x = b
[R].x = [Q]t.b
(21)
36

SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

donde, en la expresion (21.b), la soluci


on x se obtiene de hacer una substituci
on regresiva, debido a que [R]
es una matriz triangular superior. Al pasar [Q] al otro miembro, simplemente se traspone debido a que [Q]
es ortogonal [Q]1 = [Q]t .
1.3.4. Algoritmo de QR
Sea A = A0 Cnn . El algoritmo QR produce una secuencia A0 , A1 , A2 , . . . de matrices similares,
como sigue [Stewart,1973]. Dada una matriz Ak , un escalar k llamado deplazamiento original se determina
de los elementos de Ak (a medida que las iteraciones convergen, k se acerca a uno de los autovalores de A).
La matriz Ak k I se puede factorizar de la siguiente forma
Ak k I = Qk Rk

(22)

on
donde Qk es unitaria (ortogonal en el caso real) y Rk es triangular superior. Se sabe que dicha factorizaci
nica, provisto
existe bajo ciertas condiciones (Ak tiene que ser no singular invertible) y es esencialmente u
que A k I no es singular. Finalmente, Ak+1 se calcula como
Ak+1 = Rk Qk + k I

(23)

t es el transpuesto conjugado),
N
otese que de (22), se tiene que Rk = Qhk (Ak k I) (la hermitiana Qh = Q
y de aqu a partir de (23) se obtiene
Ak+1 = Qhk (Ak k I)Qk + k I = Qhk Ak Qk

(24)

asi que Ak+1 es en verdad unitariamente similar a Ak .


De aqu en adelante la variantes de los metodos son innitas. Hay metodos para matrices tridiagonal,
matrices de Hessenberg, matrices hermticas, etc. Dejamos al lector profundice mas de acuerdo a sus intereses.

2. SISTEMAS NO-LINEALES
A diferencia de los sistemas de ecuaciones lineales, los sistemas de ecuaciones no-lineales no pueden ser
agrupados en forma matricial por lo tanto ninguno de los algoritmos discutidos en la seccion anterior podran
ser aplicados sobre ellos. Un sistema de ecuaciones no-lineales no es mas que una extension del problema
de hallar la raz de una ecuacion no-lneal a hallar n races para las n inc
ognitas que se tienen, por ello uno
de los metodos m
as utilizados para resolverlos es el metodo de Newton-Raphson extendido para sistemas de
ecuaciones, sin olvidar que existen otros algoritmos muy ecientes para casos particulares.
El objetivo es resolver un sistema de ecuaciones algebraicas de la forma:
f1 (x) =f1 (x1 , x2 , . . . , xn ) = 0
f2 (x) =f2 (x1 , x2 , . . . , xn ) = 0
(1)

..
.
fn (x) =fn (x1 , x2 , . . . , xn ) = 0
o en forma m
as compacta usando la notacion simb
olica
f (x) = 0

(2)

A esta ecuacion le llamaremos la ecuacion homogenea y a su soluci


on r, raz de la ecuacion f (r) 0.

SEC. 1.3. OTROS METODOS

37

A. GRANADOS

METODOS NUMERICOS

2.1. METODO DEL PUNTO FIJO


Cualquier manipulaci
on algebraica del sistema (1), espejando una componente diferente en cada
ecuacion nos da un sistema, que de forma resumida se expresa como
x = g(x)

(3)

Se puede entonces implementar un esquema iterativo de la forma


xk+1 = g(xk )

(4)

Encontraremos la soluci
on r de dicho sistema (tambien solucion del sistema (2)), cuando comenzando con un
iterado inicial xo se llega a un punto donde
r g(r)
(5)
A este punto le denominamos el punto fijo r.
Una expansi
on en series de Taylor de primer orden de la funci
on g(x), centrado en r y evaluado en xk
nos da que
g(xk ) = g(r) + (xk r).g(r) + O( ek 2 )
(6)
Eliminando el termino con O( ek 2 ), introduciendo (4) y (5), y evaluando en gradiente de g en un punto
intermedio
xk+1 r = [Jg ()] . (xk r)

B(r, ek )

ek+1 = [Jg ()] . ek

(7)

donde B(r, ek ) es la Rn bola cerrada con centro en r y radio ek . El tensor Jg (x) es el jacobiano de la
funci
on g denido como
gi
[Jg (x)]ij =
(8)
Jg (x) = [g(x)]t
xj
Del lado derecho se muestra como se calculan las componente matricial del tensor jacobiano.
Obteniendo la norma de la expresion (7.b), resulta
ek+1 Jg () ek

(9)

Lo que nos dice esta expresion es que el proceso iterativo (4) es convergente, o sea los errores ek son cada
vez menores, si se satisface que
(10)
Jg () < 1
En terminos geometricos signica que la funci
on g debe ser una contaccion alrededor de r. La funci
on g
deforma el espacio alrededor de r, tal que contrae sus dimensiones o volumen.
EJEMPLO:
Hallar la soluci
on del siguiente sistema de ecuaciones no-lineales
x2 + y 2 = 4
ex y = 1
Utilizando un metodo iterativo de punto jo se pueden obtener dos tipos de despejes

Caso I
38

x=


4 y2

y = 1 ex


Caso II

x = ln(1 y)

y = 4 x2

SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

Resultados
1.83

1.815

1.8163

1.8162

0.84

0.8372

0.8374

0.8374

1.05

0.743

1.669

1.857

1.102

4.307

x
Caso I
y

0.8

x
Caso I

1.7

x
Caso II
y

1.7

Imaginario

0.993

1.006

1.0038

1.0042

1.0042

1.736

1.7286

1.7299

1.7296

1.7296

2.2. METODOS DE NEWTON-RAPHSON


los metodos de Newton-Raphson se deducen a partir de la expansi
on en series de Taylor de la funci
on
f alrededor de x y evaluado en r. Esta ecuacion pueden ser truncadas despues del termino de primer orden.
Igual
andola a cero, como indica 2.(2) para la funci
on, se obtiene
f (r) = f (x) + (r x) .f (x) + O( e 2 ) 0

(1)

donde e = x r es el error global.


Al despejar r de esta ecuacion queda
r = x { [f (x)]t }1. [ f (x) + O( e 2 ) ]

(2)

donde se ha invertido el transpuesto de f . Veremos mas adelante que cambiando la notaci


on y estandarizando el procedimiento resulta mas sencillo.
2.2.1. Simple
Si no se toma en consideracion el termino ( e 2 ), la expresion anterior no se iguala a r exactamente,
pero si a un valor cercano r. De acuerdo a este razonamiento, se puede substituir r por xk+1 y x por xk y
aplicar un procedimiento iterativo de la forma
xk+1 = xk [Jf (xk )]1. f (xk )

(3)

on f evaluada en el punto xk . As, es mas


donde [Jf (xk )] = [f (xk )]t es la matriz del jacobiano de la funci
pr
actico escribir la expresion (3) como
xk+1 = xk + zk
(4)
on del sistema de ecuaciones lineales
donde zk es la soluci
[Jf (xk )] . zk = f (xk )

(5)

El proceso iterativo establecido se aplica, comenzando con un estimado del valor inicial de la raz que
se llamara xo , en forma sucesiva, hasta que se satisfagan las tolerancias max y dmax (impuestas al principio
al igual que kmax )
y
dk < dmax
(6)
k < max
SEC. 2.2. METODOS DE NEWTON-RAPHSON

39

A. GRANADOS

METODOS NUMERICOS

donde k y dk son el error local y la desviacion global, respectivamente, y se denen de la siguiente manera
k

k = xk xk1

dk = f (x )

(7)

La norma usada en este analisis es la norma euclidiana que se dene como


x =

x.x

A =


(At. A)

(8)

2.2.2. Relajado
El metodo de Newton-Raphson puede ser relajado en la forma
xk+1 = xk + zk

(9)

donde es el factor de relajaci


on, y podr
a tomar los siguientes valores
> 1 sobrerelajado
< 1 subrelajado
El valor de zk igualmente que antes, se obtiene del sistema de ecuaciones lineales (5).
2.3. METODOS CUASI-NEWTON
Los metodos cuasi-Newton se basa en los dos siguientes lemas preparativos para formular sus formulas
algortmicas [Dennis & More,(1977)]
, tal que a todo vector perpendicular a x, es
Lema 1. Sea A una transformacion lineal A.x = x
decir x.y = 0, lo enva a C.y, con C siendo otra transformaci
on lineal conocida. Con estas condiciones la
transformacion A que denida univocamente como
A=C+

(
x C.x)x
x 2

(1)

La prueba de este lema se hace con A.y = C.y = (A C).y = 0 = A C = ax = (A C).x = ax.x
= a = (A C).x/ x 2 .
Lema 2. Sea A una transformacion lineal cuya matriz es no singular, es decir det A
= 0. Ai a y b
son dos vectores, tales que b.A1.a
= 1, entonces A + ab es no singular y se tiene que
(A + ab)1 = A1

A1. ab . A1
1 + b . A1. a

(2)

La prueba de este lema se hace multiplicando (A + ab).(A + ab)1 = I.


2.3.1. M
etodo de Broyden
La f
ormula algortmica del metodo de Broyden es [Broyden,(1965)]
xk+1 = xk [Ak ]1. f (xk )

(3)

tal que
[Ak ].k = k

[Ak ].y = [Ak1 ].y

k .y = 0

(4)

donde k = xk xk1 es el error local y k = f (xk ) f (xk1 ) es la desviacion local.


40

SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

La transformacion [Ak ] es una aproximacion de la transformaci


on jacobiana [Jf (xk )], que deja el espacio
ortogonal a k tal como lo deja la transformaci
on anterior (4.b). Esto dene por el lema 1 de forma u
nica
Ak = Ak1 +

( k [Ak1 ] . k ) k
k 2

(5)

Por el lema 2 se tiene una forma alterna de [Ak ]1 = [Bk ]




( k [Bk1 ] . k ) k
B = I+
k . [Bk1 ] . k

. Bk1

(6)

Entonces la f
ormula algortmica queda
xk+1 = xk [Bk ] . f (xk )

(7)

donde [Bk ] es una aproximacion del jacobiano inverso [Jf (xk )]1 calculado con (6) de forma recurrente.
2.4. METODOS DE MINIMOS CUADRADOS
Este metodo reformula el objetivo del problema a resolver, que de encontrar la solucion de la ecuaci
on
homogenea 2.(2), se pasa ahora a encontrar el mnimo de la funci
on S denida por
f (x) = 0

S(x) = f (x) . f (x) =

[fi (x)]2

(1)

i=1

El gradiente de esta funci


on es
S(x) = 2 [f (x)] . f (x) = 2 f (x) . [Jf (x)]

(2)

Indica la direcci
on en la cual S aumenta. Por consiguiente, para encontrar el mnimo la iteraciones debes
dirigirse en sentido contrario S y este gradiente se afecta con un factor de relajaci
on /2 (el 1/2 es
simplemente para eliminar el 2 en la ecuaci
on (2)) que se ajusta de manera tal que el descenso de S sea el
maximo posible. De esta forma se implementa el esquema iterativo

S(xk )
2
= xk f (xk ) . [Jf (xk )]

xk+1 = xk

(3)

oxima iteracion. En caso contrario


Si se tiene que S(xk+1 ) < S(xk ), entonces  = ( > 1) para la pr

k+1
y S(xk+1 ). Normalmente se escoge el
= ( < 1) y se prueba de nuevo calculando otra vez x
crecimiento de menor que su disminuci
on (( 1) < (1 )).
En realidad hay que hacer como mnimo tres intentos 1 , 2 y 3 , obteniendo S1 (xk+1 ), S2 (xk+1 ) y
), para luego de hacer una interpolaci
on o extrapolacion cuadr
atica, y obtener un valor de
optimo
S3 (x
(usar por ejemplo el metodo de Muller seccion I.2.5.2 o el metodo de la par
abola secante secci
on I.2.5.3).
Este valor optimo estar
a cerca del valor ofrecido por
k+1

k+1
S 
= f (xk ) . [Jf (xk )] . S(xk+1 ) = 0


(4)

que da el optimo analtico de para minimizar S(xk+1 ).


SEC. 2.5. METODOS DE SEGUNDO ORDEN

41

A. GRANADOS

METODOS NUMERICOS

2.5. METODOS DE SEGUNDO ORDEN


Los metodo se segundo orden se originan mediante la expansion en series de Taylor de segundo orden
de la funci
on f (x) de la ecuacion homogenea 2.(2). Se hace la expansion alrededor de x y se eval
ua en la raz
r en la forma
1
(1)
f (r) = f (x) + (r x) . f (x) + (r x)(r x) : f (x) + O( e 3 )
2
donde e = x r es el error global del valor de x respecto a la raz r, y por denici
on de una raz, f (r) 0.
La operaci
on doble producto : es una doble contraccion de los ndices contiguos de las componentes
de los factores (identicable como el producto escalar de dos tensores de segundo orden), mientras que un
solo punto es una contraccion simple (identicable como el producto escalar de dos vectores). Esto hace
que los vectores y tensores descritos pertenezcan a espacios de Hilbert. Los dos vectores contiguos (sin
ninguna operaci
on en el medio) es lo que se denomina una di
adica equivalente a un tensor de segundo orden
(ab a b).
on en (1), se puede expresar como
Eliminando el termino con O( e 3 ) y cambiando la notaci
f (r) = f (x) + [Jf (x)] . (r x) +

1
2

[Hf (x)] : (r x)(r x) = 0

(2)

El tensor de segundo orden Jf en la expansion en serie anterior se denomina el tensor jabobiano, se dene
como [Jf (x)] [f (x)]t , y agrupados de forma matricial en un arreglo de dos ndices tiene componentes
[Jf (x)]ij Jij =

fi
xj

(3.a)

El tensor de tercer orden Hf en la expansion en serie anterior se denomina el tensor hessiano, se dene como
[Hf (x)] [[f (x)]t ]t , y agrupados de forma indicial en un arreglo de tres ndices tiene componentes
[Hf (x)]ijk Hijk =

2 fi
xj xk

(3.b)

Los ndices i, j, k = 1, . . . , n.
Substituyendo xk+1 por r y x por xk queda la expresi
on
f (xk ) + { [Jf (xk )] +

1
2

[Hf (xk )] . zk } . zk = 0

(4)

donde zk = xk+1 xk = k+1 es el error local con lo que metodo de segundo orden implementado como
xk+1 = xk + zk

(5)

y el incoveniente se traslada a la forma como obtener zk en los metodos que siguen.


2.5.1. M
etodo de Richmond
El metodo de Richmond pretende resolver la ecuacion (4) introduciendo en la parte interna de la
ecuacion, dentro de las llaves, el estimado ofrecido por el metodo de Newton-Raphson 2.2.(3)
zk = [Jf (xk )]1. f (xk )

(6)

y luego resolver el sistema lineal resultante en la parte externa.


Aqu se propone, como un metodo mas completo, un esquema iterativo secundario interno para cada
k de tipo punto jo con la ecuaci
on (4) de la forma
{ [Jf (xk )] +
42

1
2

[Hf (xk )] . zk,s } . zk,s+1 = f (xk )


SOLUCION DE SISTEMAS DE ECUACIONES

(7)
CAP.II

FUNDAMENTOS

en iteraciones secundarias s. Se escoge como iterado inicial (s = 0) de este proceso iterativo secundario
interno (para cada k) el valor dado por (6)
zk,0 = [Jf (xk )]1. f (xk )

(8)

Luego se resuelve (7) de forma iterativa, tantas veces como sea necesaria hasta que zk = zk+1 zk sea
menor en valor absoluto que una tolerancia max , mucho menor que max por supuesto. Normalmente entre
on
unas 5 a 10 iteraciones secundarias smax son sucientes. El metodo de Richmond es con solo una iteraci
secundaria interna (hasta s = 1). El metodo aqu propuesto corrige mas veces el valor de z. Viendolo como
un metodo predictor con (8) y corrector con (7), cuantas veces se quiera.
2.5.2. M
etodo del Paraboloide Secante
Un metodo mas completo que el anterior consiste en resolver el problema (4) que es un paraboloide
F(z) = f (xk ) + { [Jf (xk )] +

1
2

[Hf (xk )] . z } . z = 0

(9)

en la inc
ognita z, con el metodo de Newton-Raphson con el jacobiano
[JF (z)] = [Jf (x)] + [Hf (x)] . z

(10)

Todos los valores dependientes de las iteraciones k permanecen constante en este proceso iterativo secundario
interno en s, resumido de la siguiente manera
[JF (zk,s )] . zk,s = F(zk,s )

zk,s + 1 = zk,s + zk,s

(11)

Luego de nalizado este proceso iterativo secundario interno en s (para cada k), bien por satisfacer la
tolerancia |zk,s | < max o por n
umero de iteraciones smax = 3 6, el u
ltimo valor de z se substituye en
(5)
(12)
xk+1 = xk + zk
y se contin
ua con las iteraciones en k.
El metodo del plano secante es una modicacion del metodo de Newton-Raphson (3), donde los elementos de la matriz jacobiana se aproximan con los dos u
ltimos iterados xk y xk1 por

[Jf (xk )] =

fi
xj

k

fi (xk1 , xk2 , xk3 , . . . , xkj , . . . , xkn ) fi (xk1 , xk2 , xk3 , . . . , xkj


xkj xkj

, . . . , xkn )

(13)

El mismo argumento se puede seguir para calcular las componentes del tensor hessiano de forma aproximada
con los tres u
ltimos iterado xk , xk1 y xk2 por



fi k
fi k
[ x
] [ x
]
2 fi (xk )
k
k j
[Hf (x )] =

k1
k
xj xk
xj xj
k

fi k
fi k
[ x
] [ x
]
j
j j

xkj xkj

, .., xkk , .., xkn ) fi (xk1 , xk2 , .., xkj

(j
= k)

(14.a)

(j = k)

(14.b)

donde


fi
xk

k
=

fi (xk1 , xk2 , .., xkj

SEC. 2.5. METODOS DE SEGUNDO ORDEN

k1

xkk xk

, .., xkk

, .., xkn )

(j
= k)

(14 .a)
43

A. GRANADOS

fi
xj

METODOS NUMERICOS

k
=

fi (xk1 , xk2 , xk3 , . . . , xkj

, . . . , xkn ) fi (xk1 , xk2 , xk3 , . . . , xkj


xkj

xkj

, . . . , xkn )

(14 .b)

(j = k)

En estos casos, el metodo recibe adicionalmente el apelativo de secante.


Cuando se usa el procedimiento de la perturbaci
on, entonces xkj

= xkj x y xkj

= xkj 2 x

na (fraccion de
(esquema atrasado) o xkj 2 = xkj + x (esquema central), donde x es una cantidad peque
on y k como sub-ndice
la tolerancia para el error local max ). No confundir k como super-ndice iteraci
componente.
Estos metodos se pueden relajar utilizando tres factores de relajacion , h y z de la siguiente forma
F(z) = f (xk ) + { [Jf (xk )] +

h
[Hf (xk )] . z } . z = 0
2

(15.a)

en la inc
ognita z, con el metodo de Newton-Raphson con el jacobiano
[JF (z)] = [Jf (x)] + h [Hf (x)] . z

(15.b)

relajando con h cunta inuencia se quiere del termino de segundo orden. Todos los valores dependientes
de las iteraciones k permanecen constante en este proceso iterativo secundario interno en s, resumido de la
siguiente manera relajando con z
zk,s + 1 = zk,s + z zk,s

[JF (zk,s )] . zk,s = F(zk,s )

(15.c)

Luego de nalizado este proceso iterativo secundario interno en s (para cada k), bien por satisfacer la
tolerancia |zk,s | < max o por n
umero de iteraciones smax , el u
ltimo valor de z se substituye en (5),
relajando tambien con
xk+1 = xk + zk
(15.d)
Una vez escogido los factores de relajacion mencionados iniciales, el procedimiento puede modular el valor
de dichos factores en cada iteracion o grupos de iteraciones k (principio-medio-nal).
2.5.3. M
etodo de Taylor
Los metodos de Newton-Raphson, Richmond, Paraboloide caen dentro de esta categora para n = 2.
As como se pueden anidar los diferentes terminos de un polinomio de grado n en la forma
P1 (x) = a0 + a1 x
P2 (x) = a0 + (a1 + a2 x)x
P3 (x) = a0 + (a1 + (a2 + a3 x)x)x

(16)

P4 (x) = a0 + (a1 + (a2 + (a3 + a4 x)x)x)x


n1

  
Pn (x) = a0 + (a1 + (a2 + (a3 + (a4 + + (an1 + ak x) x)x)x)x)x

as tambien de igual manera se pueden anidar los terminos de la expansi


on en series de Taylor
f (x) = Pn (z) + Rn (z)
n1

= fo + [ Jfo/1! +

[ Jf2o/2! +

[ Jf3o/3!

+ +

[ Jfn1
/(n
o

1)! +

Jfno/n! . z ]




. z ] . z ] . z ] . z +Rn (z)

(17)

donde el desplazamiento es z = x xo , el jacobiano generalizado es Jfno = Jfn(xo ) y el termino del residual es

Rn (z) = O( z(n+1) ).
44

SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

Teniendo esto en cuenta, los metodos de Taylor se implementa de la siguiente manera, una vez escogido
el grado n del polinomio con el que se desee trabajar
F(z) = Pn (z) = 0
n1

= f (xk ) + [ Jfk/1! +

[ Jf2k/2! +

[ Jf3k/3! +

[ Jfn1
/(n
k

1)! +

Jfnk/n! . z ]




.z].z].z].z = 0

(18)

y luego resolver este problema al estilo de Richmond con el iterado inicial estimado o predicho con NewtonRaphson (8) interiormente en la ecuacion, y la inc
ognita m
as exterior resolverla con un esquema de punto
jo e irla corrigiendo y substituyendo de nuevo interiormente. Tambien se puede utilizar un metodo de
Newton-Raphson para resolver el problema (18) con el jacobiano de F(x)
n2

JF(z) = Jfk +

[ Jf2k/1!

[ Jf3k/2!

+ +

[ Jfn1
/(n
k

2)! +

Jfnk/(n

  
1)! . z ] . z ] . z ] . z

(19)

siguiendo un procedimiento similar al metodo del paraboloide en las ecuaciones (11) y (12). El jacobiano
(19) se ha calculado manteniendo constante los coecientes tensoriales Jfn (xk ) = Jfnk . Los demas detalles son
similares.
2.6. CONVERGENCIA
2.6.1. Criterios
El metodo de Newton-Raphson al ser un metodo de tipo punto jo la funci
on g(x) que lo dene es
g(x) = x [Jf (x)]1 . f (x)

[Jf (x)].(x g(x)) = f (x)

(1)

Extrayendo el gradiente de la segunda expresion da





t
[Jf (x)] . [ I ] [Jg (x)] + [Hf (x)] . [Jf (x)]1. f (x) = [Jf (x)]t

(2)


t
[Jf (x)].[Jg (x)] = [Jf (x)] [Jf (x)]t + [Hf (x)] . [Jf (x)]1. f (x)

(3)

Finalmente se obtiene el gradiente de g



t
[Jg (x)] = [ I ] [Jf (x)]1. [Jf (x)]t + [Jf (x)]1. [Hf (x)] . [Jf (x)]1. f (x)

(4)

Este gradiente para un punto intermedio debe satisfacer


Jg () < 1

B(r, ek )

(5)

para que el metodo de Newton-Raphson converga. Las diferencias con una sola ecuacion pueden verse
comparando con I.2.4.(14). Para una sola ecuaci
on el primer y el segundo terminos se calcelan ( = 1) y el
tercero da el resultado esperado I.2.4.(4.b).
2.6.2. Tipos
Haciendo la expansion en series de Taylor de la funci
on g(x) alrededor de r y evaluada en xk , se obtiene
g(xk ) = g(r) + [Jg (r)] . (xk r) +

1
2

[Hg ()] : (xk r)(xk r)

B(r, ek )

(5)

El metodo de Newton-Raphson es siempre de convergencia lineal porque [Jg (r)] = [ I ] [Jf (r)]1. [Jf (r)]t
= 0
siempre (r de multiplicidad 1), usando (3), y donde el u
ltimo termino se anula por ser f (r) = 0.
SEC. 2.7. ESTABILIDAD

45

A. GRANADOS

METODOS NUMERICOS

2.7. ESTABILIDAD
Los metodos iterativos, todos generan un mapa fractal del procedimiento, si cada punto del espacio visto
como iterado inicial, se colorea con un color distinto dependiendo de la raz a la cual converge. De acuerdo
a Mandelbrot [1983], quien acu
no el termino Fractal un subconjunto del espacio A es llamado fractal,
dependiendo si su dimensi
on de Hausdor Dh (A) es un n
umero fraccionado y no un entero. Intuitivamente
Dh mide la el crecimiento del n
umero de esferas de di
ametro e necesarias para cubrir el dominio analizado
A, cuando e 0. M
as precisamente, si el dominio A es un subconjunto de Rn , sea N (e) el mnimo de bolas

Fig.1. Metodo de Newton-Raphson ( Kmin = 3, Kmed = 9.6, Kmax = 83, Dh = 1.974688 ).


n-dimensionales de di
ametro e necesario para cubrir el dominio. Luego, si N (e) crece exponencialmente como
exp(Dh ) cuando e 0, se dice el dominio A tiene una dimensi
on de Hausdor Dh [Peitgen & Richter,1986].
No es diccil mostra que la dimension de Hausdor puede ser obtenida por
Dh = lim

e0

log[N (e)]
log(k/e)

(1)

donde k es la constante de proporcionalidad cuando


N k exp(Dh )

e0

(2)

De acuerdo a esto, la dimensi


on de Hausdor representa una medida de cuan fractal es una gura inmersa
n
en R . Consecuentemente, mientras m
as fractal sea la gura menos estable o ca
otico es el sistema dinamico,
y por lo tanto menos estable es el proceso iterativo representado por su mapa fractal [Devaney,1987]. Mas
cercano al entero siguiente (dimension topol
ogica, que en el plano es 2). Usaremos los nombre de regi
on
fractal para las zonas donde los colores est
an m
as dispersos con una forma intrincada y alternada, y cuenca
de convergencia donde los colores son m
as uniformes alrededor de un punto de convergencia nal. Las
distintas zonas tiene un sombreado en forma de cebra que indican las iteraciones. Al pasar de un sombreado
(impar) a no-sombreado (par) indica una sola iteraci
on.
46

SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

Fig.2. Metodo de La Secante (Kmin = 3, Kmed = 12, Kmax = 889, Dh = 1.943245) .


El problema que vamos a usar como ejemplo es el de f (z) = z 4 1 = 0 en el plano complejo z = z + iy.
Consiste en hallar las cuatro races del problema que son r = +1, +i, 1, i coloreados los puntos azul,
amarillo, rojo y verde. El problema en el plano R2 se representa como el sistemas de 2 ecuaciones no-lineales
con 2 inc
ognitas ( {f (x)} = {fx (x), fy (x)}, {x} = {x, y} )
fx (x, y) = (x2 y 2 )2 4 x2 y 2 1 = 0

f (z) = z 4 1 = 0
con la matriz jacobiana [Jij ] = [fi /xj ]
[Jf (x)] =

fy (x, y) = 4 xy (x2 y 2 ) = 0


4x(x2 3y 2 ) 4y(3x2 y 2 )
4y(3x2 y 2 ) 4x(x2 3y 2 )

Fig.3.a. Metodo de Broyden, con 1 iteration Newton-Raphson al inicio (Kmin = 1, Kmed = 11.8,
Kmax = 698626, Dh = 1.811758).
SEC. 2.7. ESTABILIDAD

(3)


(4.a)

Fig.3.b. Metodo de Broyden, con 3 iteraciones previas de Newton-Raphson (Kmin = 1, Kmed = 8.2,
Kmax = 100000, Dh = 1.909757).
47

A. GRANADOS

METODOS NUMERICOS

y el tensor Hessiano [Hijk ] = [ 2 fi /xj xk ]



[Hf (x)] =

12(x2 y 2 )
24xy
24xy
12(x2 y 2 )



24xy
12(x2 y 2 )
2
2
12(x y )
24xy


(4.b)

en el u
ltimo caso las matrices contiguas contienen las derivadas de los jacobianos [Jf /x] y [Jf /y].
La gura 1 muestra el metodo de Newton-Raphson de la seccion 2.2.1 con jacobiano calculado
analticamente (f
ormulas (4.a)). Muestra las cuencas de convergencia bien denidas y las zonas fractales
denotan un proceso iterativo ca
otico.
La gura 2 muestra el metodo de la secante, metodo de la seccion 2.2.1 con jacobiano calculado de
forma aproximada con las dos u
ltimas iteraciones (f
ormula 2.5.(13). Las regiones fractales se difuminan
(polvo fractal) y las cuencas de convergencia presenta iteraciones (zonas sombreadas) en forma de c
uspides.
Levemente peor que el metodo de Newton-Raphson.

Fig.4.a. Metodo de Segundo orden con 1 iteraci


on
interna ( Kmin = 12, Kmed = 24, Kmax = 199,
Dh = 1.984425 ).

Fig.4.b. Metodo de Segundo Orden con 3 iteracciones internas ( Kmin = 25, Kmed = 48.6, Kmax =
300, Dh = 1.988387 ).

La gura 3 muestra el metodo de Broyden del segundo tipo de la secci


on 2.3.1 (f
ormulas 2.3.(6)-(7))
con 1 y 3 iteraciones previas iniciales con el metodo de Newton-Raphson. Presenta zonas inestables de color
negro donde no se llega a ninguna raz. El metodo de Newton-Raphson previo estabiliza un poco el metodo.
Las cuencas de convergencia son reducidas. Es el peor de todos los metodos.
La gura 4 muestra el metodo de segundo orden de la secci
on 2.5.2, paraboloide con jacobiano y
hessiano calculados analticamente (f
ormulas (4)). Las cuencas de convergencia aumentan de tama
no y se
reducen las regiones fractales en la medida que se incrementa el n
umero de las iteraciones internas. Es el
mejor de todos los metodos.

48

SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

Fig. 5. Metodo del Paraboloide Secante. 2 y 3 iteraciones internas (Kmed = 11.7, 10.3, Dh = 1.944819,
1.946966).
La gura 5 muestra el metodo del paraboloide secante de la seccion 2.5.2, con jacobiano y hessiano
calculados de forma aproximada con las tres u
ltimas iteraciones (f
ormulas 2.5.(13)-(14)). Igual que el caso
anterior, pero las regiones fractales est
an difuminadas y las cuencas de convergencia presentan la caractersticas de c
uspides de los metodos secantes. Es un metodo intermedio entre el metodo de Newton-Raphson
y levemente peor que el metodo de segundo orden analtico.
2.8. METODOS NUMERICOS PARA REDES
Llamemos redes a los sistemas conformados por elementos que estan unidos por nodos. Existen
dos tipos de variables puntual y distribuda tanto en elementos como nodos.
En cada elemento la variable puntual puede ser: Caudal, Intensidad de Corriente, Fuerza-Momento,
etc. La variable distribuda puede ser: Presion, Voltaje, Deformacion, etc. Estas variables se relacionan
mediante una ecuacion homogenea, por ejemplo, P + f (Q) = 0. El diferencial de la variable distribuda es
funci
on de una potencia de la variable puntual Q en cada elemento. Estos elementos pueden ser: Tuberas,
Lneas Electricas, Vigas, etc. Puede ser que f (Q) = C |Q|1 Q, lo que determina unvocamente el sentido
de Q. El coeciente C tambien puede depender de Q, normalmente de forma no-lineal, aunque cuando se
linealiza el sistema, este coeciente se considera constante, al menos para una iteracion (linealizaci
on de
Wood).
En cada nodo, las variables se invierten, las puntuales se convierten
en distribuda y viceversa. La

sumatoria de todas las variables distribudas es nula, por ejemplo,
Q = 0, y existe una u
nica variable
puntual P en el nodo. La ecuacion por supuesto t
ambien es homogenea (aunque la variable P no interviene
explcitamente en su ecuacion). La convencion de suma para estas ecuaciones es simple: lo que entra en el
nodo se suma, lo que sale se resta.
Existen tantas ecuaciones homogeneas como nodos y elementos (una variable por cada uno), y el
sistema de ecuaciones planteado para las incognitas, variables puntuales y distribudas, se pueden resolver
con estos metodos. Para que el sistema sea compatible determinado al menos una P en un nodo debe ser
conocida. Los elementos se pueden agrupar en circuitos no redundantes o dependientes (teora de grafos)
para eliminar variables P . De otra forma el sistema se convierte en compatible indeterminado.
2.8.1 Introducci
on
El problema que se desea resolver es un sistema de ecuaciones algebraicas de los siguientes dos tipos
f (x) = 0

x = g(x)

(1)

La primera ecuacion de la izquierda se denomina ecuacion homogenea. La segunda en la derecha es cualquier


despeje de la primera. La soluci
on de las ecuaciones anterior, designada con la letra r, satisface las siguientes
SEC. 2.8. METODOS NUMERICOS PARA REDES

49

A. GRANADOS

METODOS NUMERICOS

deniciones
f (r) 0

r g(r)

(2)

En el primer caso r se denomina la raz de la funci


on f , y en el segundo caso r se denomina el punto fijo de
la funci
on g.
La funci
on f : Rn Rn es una funci
on vectorial de la variable x tambien vectorial. Es decir, existe
una dependencia de las componentes de la forma fi (x1 , x2 , . . . , xj , . . . , xn ) con i = 1, 2, . . . , n. Lo mismo es
v
alido para la funci
on g.
2.8.2 Expansi
on en Series de Taylor
Serie de Taylor
La expansion en series de Taylor de la funci
on f involucrada en la ecuaci
on homogenea hasta el termino
de segundo orden es
f (r) = f (x) + [Jf (x)].(r x) +

1
2

[Hf (x)] : (r x)(r x) +

(3)

La serie se desarrolla alrededor del punto x y esta evaluada en r. La operaci


on producto : es una doble
contraccion de los ndices contiguos de las componentes de los factores (identicable como el producto escalar
de dos tensores de segundo orden), mientras que un solo punto es una contracci
on simple (identicable como
el producto escalar de dos vectores). Esto hace que los vectores y tensores descritos pertenezcan a espacios
de Hilbert. Una generalizaci
on de las expansiones en Series de Taylor para funciones multi-variables puede
verse en el Apendice.
Matriz Jacobiana
El tensor de segundo orden Jf en la expansion en serie anterior se denomina el tensor jabobiano y
tiene componentes
fi
(4)
[Jf (x)]ij Jij =
xj
agrupados de forma matricial en un arreglo de dos ndices.
Tensor Hessiano
El tensor de tercer orden Hf en la expansion en serie anterior se denomina el tensor hessiano y tiene
componentes
2 fi
[Hf (x)]ijk Hijk =
(5)
xj xk
agrupados en un arreglo de tres ndices.
2.8.3. M
etodos Algebraicos
Punto Fijo
Utilizando el despeje de la ecuaci
on homogenea en la forma
xk+1 = g(xk )

(6)

se puede implementar un esquema interativo convergente tal que k+1 < k , donde k = xk xk1 es el
error local. Dicho esquema se detendra si se satisface la condici
on de parada en el error local k = k max
y simult
aneamente en la desviacion global k = f (xk ) max , donde los valores max y max son las
tolerancias permitidas. Tambien se impone una condici
on de parada en el n
umero de iteraciones s > smax
para evitar procesos iterativos no convergentes en un n
umero m
aximo razonable de iteraciones smax .
50

SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

Este metodo se puede relajar en la forma


xk+1 = xk + [g(xk ) xk ]

(7)

siendo el factor de relajaci


on.
Linealizaci
on de Wood
Una forma particular del metodo de punto jo es mediante la linealizaci
on del tipo
[A(xk )] . xk+1 = b

(8)

donde lo que no depende del valor actual xk+1 se aglomera en una matriz A dependiente de la iteraci
on
on s se obtiene el esquema
anterior xk . Resolviendo el sistema de ecuaciones lineales anterior para cada iteraci
iterativo deseado. Los criterios de convergencia y las condiciones de parada seguiran siendo los mismos para
todos los esquemas iterativos propuestos.
Este metodo se relajara de forma parecida al metodo de punto jo como
xk+1 = xk + { [A(xk )]1. b xk }

(9)

utilizando la matriz inversa A1 .


2.8.4 M
etodos Analticos
Dos metodos iterativos, que tambien son metodos del tipo punto jo, se deducen de forma analtica a
partir de la expansion en series de Taylor hasta el termino de primer orden. Luego reasignando r = xk+1 y
x = xk se obtienen los dos siguientes metodos.
Newton-Raphson
Directamente con la reasignacion antes descrita y despejando r se obtiene el metodo de NewtonRaphson, cuya f
ormula algortmica se traduce en las siguientes expresiones
xk+1 = xk + zk

[Jf (xk )] . zk = f (xk )

(10)

donde la expresion de la derecha es un sistema de ecuaciones lineales. El vector zk = k+1 es el error local en
la iteraci
on s + 1, en el caso de que no haya relajamiento del metodo ( = 1). El metodo de Newton-Raphson
es un caso especial de metodo de punto jo si se dene la siguiente aplicacion
g(x) = x [Jf (x)]1 .f (x)

(11)

Hardy-Cross
Asumiendo un valor de zki de avance del metodo de Newton-Raphson anterior, que es igual para todas
las componentes de la variable xk , pero u
nicamente las envueltas en la ecuaci
on i. Se establece entonces el
siguiente metodo de Hardy-Cross
xk+1 = xk + zki

zik = fi (xk )/

Jij

zki = zik 1

(12)

j=1

donde la sumatoria aparece de sumar todos los elementos de la la i de la matriz jacobiana Jij . El rango
m del ndice i (i = 1, 2, . . . , m) puede ser menor que el rango n del ndice j (j = 1, 2, . . . , n), a diferencia de
los metodos anteriores, donde el sistema de ecuaciones debe ser compatible determinado (igual n
umero de
ecuaciones que de inc
ognitas). El vector 1 tiene unos en todas sus componentes.
El recorrido de la red se hace en m circuitos cerrados o pseudo-circuitos abiertos, tales que la variable
Pj tenga el mismo valor en el nodo de partida y de llegada (o un diferencial P conocido, al menos que se
eliga dicho diferencial como inc
ognita), y as se elimine dicha variable de la ecuaci
on i correspondiente (o solo
quede P como incognita). Las variables P intermedias tambien quedan eliminadas en todo su recorrido
del circuito dentro de este proceso. Los circuitos no deben ser redundantes, es decir, dos circuitos no deben
tener las mismas incognitas.
SEC. 2.8. METODOS NUMERICOS PARA REDES

51

A. GRANADOS

METODOS NUMERICOS

2.8.5. An
alisis
De todos los metodos anteriores, el mejor de ellos es el metodo de Newton-Raphson. Le sigue de cerca
el metodo de Crank-Nicholson. De u
ltimo, el peor de ellos, es el metodo de linealizaci
on de Wood. Por esta
razon en este u
ltimo metodo es casi imprescindible sub-relajarlo ( < 1) para obtener convergencia segura
en caso de escoger un iterado inicial x0 lejano a a la soluci
on.
Todo metodo de punto jo converge a la soluci
on r, si se satisface que la aplicacion g en una contraccion
del espacio en su cercana. Esto es,
Jg () < 1
(13)
donde pertenece a un entorno Vrk = B(r, r xk ), o sea, la n-bola abierta con centro en r y radio r xk .
La norma del tensor debe estar subordinada a la norma sobre vectores. Por ejemplo, ver ecuaci
on 2.6.(4)
para el metodo de Newton-Raphson relajado.
Aunque el metodo no se muestra aqu, y por la forma de la ecuacion de los elementos de la red, el
mejor metodo de todos, con convergencia casi segura, es el metodo de Segundo Orden mostrado en la seccion
2.5 (comprobado por experiencia propia).
BIBLIOGRAFIA
[1] Broyden, C. G. A Class of Methods for Solving Non-Linear Simultaneous Equations, Mathematics
of Computation, Vol.19, pp.577-593, (1965).
[2] Burden R. L.; Faires, J. D. Numerical Analysis. 3rd Edition. PWS (Boston), 1985.
[3] Dennis, J. E. Jr.; More, J. J. Cuasi-Newton Methods, Motivation and Theory, SIAM Review,
Vol.19, No.1, pp.46-89, (1977).
[4] Devaney, R. L. An Introduction to Chaotic Dynamical Systems. Addison-Wesley, 1987.
[5] Gerald, C. F. Applied Numerical Analysis. 2nd Edition. Addison-Wesley, 1978.
[6] Granados M., A. L. Second Order Methods for Solving Non-Linear Equations, INTEVEP, S.
A. (Research Institute for Venezuelan Petroleum Industry), Tech. Rep. No.INT-EPPR/322-91-0002,
Los Teques, Edo. Miranda, Jun, 1991, pgs. 14-36.
[7] Granados M., A. L. Fractal Techniques to Measure the Numerical Instability of Optimization Methods. Numerical Methods in Engineering Simulation: Proceedings of The Third International
Congress on Numerical Methods in Engineering and Applied Sciences, CIMENICS96. Cultural Centre Tulio Febres Cordero, March 25-29, 1996. Merida, Venezuela. Editors: M. Cerrolaza, C. Gajardo,
C. A. Brebbia. Computational Mechanics Publications of the Wessex Institute of Technology (UK),
pp.239-247, (1996).
[8] Granados, A. L. Numerical Taylors Methods for Solving Multi-Variable Equations, Universidad
Simon Bolvar, Mayo, 2015. https://www.academia.edu/12520473/Numerical Taylors Methods for
Solving Multi-Variable Equations
[9] Granados, A. L. Taylor Series for Multi-Variable Functions, Universidad Sim
on Bolvar, Dic. 2015.
https://www.academia.edu/12345807/Taylor Series for Multi-Variables Functions
[10] Homan, K.; Kunze, R. Linear Algebra, 2nd Edition. Prentice-Hall (Englewood Cli-New Jersey),
1971.
[11] Householder, A. S. The Theory of Matrices in Numerical Analysis. Blaisdell Publishing Company (New York), 1964. Dover Publications (new York), 1975.
[12] Mandelbrot, B. B. The Fractal Geometry of Nature, Updated and Augmented Edition. W. H.
Freeman and Company (New York), 1983.
[13] Mendez, M. V. Tuberas a Presi
on. En Los Sistemas de Abastecimiento de Agua. Fundacion Polar
& Universidad Cat
olica Andres Bello, 1995.
[14] Ortega, J. M. Numerical Analysis, A Second Course. SIAM, 1990.
52

SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

[15] Ortega, J. M.; Rheinboldt, W. C. Iterative Solution of Nonlinear Equations in Several Variables. Academic Press, 1970.
[16] Peitgen, H.-O.; Richter, P. H. The Beauty of Fractals. Images of Complex Dynamical Systems. Springer-Verlag, 1986.
[17] Pennington, R. H. Introductory Computer Methods and Numerical Analysis, 2nd Edition.
Collier Macmillan Ltd., 1970.
[18] Stewart, G. W. Introduction to Matrix Computations. Academic Press (New York), 1973.

SEC. BIBLIOGRAFIA

53

CAPITULO III
INTERPOLACION,
INTEGRACION Y
APROXIMACION
CONTENIDO
1. INTERPOLACION.
1.1. Datos Irregulares.
1.1.1. Diferencias Divididas.
1.1.2. Polinomios en Diferencias Divididas.
1.1.3. Residual.
1.2. Polinomios de Lagrange.
1.3. Datos Regulares.
1.3.1. Diferencias Adelantada.
1.3.2. Polinomios de Newton-Gregory.
1.3.3. Diagrama Romboidal.
Polinomios Regresivos.
Polinomios de Gauss.
Polinomios de Stirling.
Polinomios de Bessel.
1.4. Criterios de interpolaci
on.
1.4.1. Simetra.
1.4.2. Monotona.
1.4.3. Algoritmo.
1.5. Interpolaci
on Espacial
1.5.1. Dos Dimensiones.
1.5.2. Tres Dimensiones.
1.6. Trazadores.
1.6.1. Trazadores Rectilneos.
1.6.2. Trazadores Parab
olicos.
1.6.3. Trazadores C
ubicos.
1.7. Derivaci
on.
2. INTEGRACION.
2.1. Datos Regulares.
2.1.1. F
ormulas de Newton-Cotes.
55

56
57
57
58
59
60
61
61
61
61
62
62
63
63
63
63
63
64
64
64
64
65
65
65
67
69
73
73
73

2.1.2. Extrapolaci
on de Richardson.

75

2.1.3. Algoritmo de Romberg.

75

2.2. Datos Irregulares.

75

2.2.1. Polin
omica.

76

2.2.2. Cuadratura de Gauss-Legendre.

76

2.3. Integraci
on M
ultiple.

78

3. APROXIMACION.

78

3.1. Lineal.

79

3.1.1. Series de Funciones Bases.

80

3.1.2. Series de Polinomios.

81

3.2. No Lineal.

81

3.2.1. Metodo del M


aximo Descenso.

82

3.2.2. Metodo de Gauss-Newton.

83

3.2.3. Metodo de Levenberg-Marquardt.

84

3.3. Evaluaci
on.

85

BIBLIOGRAFIA.

86

En la interpolaci
on las funciones usadas, normalmente polinomios, pasan por los puntos dados como
datos. No puede haber puntos con abscisas repetidas. En la aproximaci
on las funciones pasan aproximadamente por los puntos datos, que conforman una nube de puntos, minimizando los errores en promedio
cuadr
atica. Pueden haber abscisas repetidas, inclusive puntos repetidos.

1. INTERPOLACION
Sean (x0 , f (x0 )), (x1 , f (x1 )), (x2 , f (x2 )) hasta (xn , f (xn )) los n + 1 puntos discretos que representan
a una funci
on y = f (x). Como se sabe, existe un u
nico polinomio y = Pn (x) de grado n que pasa por los
n + 1 puntos mencionados. Estos polinomios son adecuados para realizar estimaciones de la funci
on y = f (x)
para un valor x cualquiera perteneciente al intervalo [x0 , x1 , x2 , x3 , . . . , xn ] que contiene a todos los puntos,
estando los valores xi no necesariamente ordenados, ni habiendo valores repetidos. A este proceso se le
denomina Interpolaci
on. Si el valor x esta fuera del intervalo de los puntos entonces el proceso se denomina
Extrapolacion.
En esta seccion se ha desarrollado un algoritmo de interpolaci
on usando los polinomios de Newton en
diferencias divididas. Se han usado dos criterios para hacer la interpolaci
on lo m
as consistente posible con
los puntos discretos dados: Simetra y monotona.
El criterio de la simetra consiste en escoger la distribucion de puntos lo m
as simetricamente posible,
alrededor de donde se desee interpolar. Esto se puede hacer de dos maneras: mediante el n
umero de puntos
o mediante la distancia de inuencia a uno y otro lado del punto donde se vaya a interpolar. En el caso de
intervalos regulares una de las formas implica a la otra, pero no cuando los datos son irregulares o no est
an
ordenados.
El criterio de la monotona se basa en la denici
on de monotona de una funci
on: Una funci
on se dice
que es monotona hasta el orden m, en un determinado intervalo, si todas sus derivadas de hasta dicho orden
conservan siempre su signo en dicho intervalo. Las diferencias divididas son proporcionales a las derivadas en
su entorno, por ello el criterio de monotona implica escoger hasta el mayor orden en las diferencias divididas
que tengan igual signo. La u
ltima diferencia dividida deber
a tener signo opuesto a una o ambas de las
56

FUNDAMENTOS

diferencias divididas vecinas. La falta de monotona implica que pueden producirse oscilaciones indeseables
de la funci
on alrededor o entre los puntos dados.
Los criterios de simetra y monotona se complementan para indicar que puntos y cuantos de ellos se
deben usar en la interpolaci
on. En cualquier caso, el grado del polinomio ser
a siempre una unidad menor
que el n
umero de puntos. El algoritmo se resume de la siguiente manera: se escogen los puntos m
as cercanos
al punto donde se desee interpolar, en un n
umero (o distancia) simetrica, hasta que dicho n
umero de puntos
reejen, en las diferencias divididas, que la funci
on conserva la monotona deseada.
El algoritmo antes explicado puede usarse para hacer interpolaciones en una o en varias dimensiones.
Tambien permite la interpolaci
on sin necesidad de pre-ordenar los puntos usados. En varias dimensiones, lo
u
nico que se exige es que los valores de las funciones sean siempre para los mismos y todos los valores discretos
en cada dimensi
on. El algoritmo tampoco necesita escoger un grado del polinomio anticipadamente, durante
el proceso de la interpolacion el algoritmo decide el grado del polinomio optimo que garantice satisfacer los
criterios de simetra y monotona.
Los algoritmos explicados adelante se han utilizado, por ejemplo, para encontrar el campo de velocidades y sus derivadas en todo el dominio del ujo, basado en los valores de dicho campo en puntos discretos en
el espacio. Se ha escogido interpolaciones polinomicas de hasta cuarto grado (cinco puntos en cada direccion
espacial) para hacer las interpolaciones, siguiendo el criterio de que el error de las interpolaciones debe ser
menor que el de los valores discretos usados (segundo orden). Ademas, el n
umero de puntos se justica
al usar el criterio de la simetra. Luego la monotona elimina el orden innecesario. Durante el proceso de
convergencia, apenas se ha usado interpolaciones parab
olicas (tres puntos en cada direcci
on) para agilizar los
tiempos de ejecucion.
1.1. DATOS IRREGULARES
Los datos discretos no necesariamente est
an ordenados, y en el caso de que as lo sean, las distancias
entre dos puntos consecutivos es constante. A esto es lo que denominamos datos irregulares.
1.1.1. Diferencias Divididas
Las diferencias divididas [Carnahan et al.,1969] simbolizadas por f [ ] se denen de manera recurrente
de la siguiente forma
(1.a)
f [x0 ] = f (x0 )
f [x1 , x0 ] =
f [x2 , x1 , x0 ] =
f [x3 , x2 , x1 , x0 ] =

f [x1 ] f [x0 ]
x1 x0

(1.b)

f [x2 , x1 ] f [x1 , x0 ]
x2 x0

(1.c)

f [x3 , x2 , x1 ] f [x2 , x1 , x0 ]
x3 x0

(1.d)

..
.
f [xn , xn1 , . . . , x1 , x0 ] =

f [xn , xn1 , . . . , x2 , x1 ] f [xn1 , xn2 , . . . , x1 , x0 ]


xn x0

(1.e)

Las diferencias divididas cumplen con la propiedad


f [xn , xn1 , . . . , x1 , x0 ] = f [x0 , x1 , . . . , xn1 , xn ]

n N

(2)

Esta propiedad, expresada para cualquier n, lo que signica es que, sin importar el orden en que estan los
valores xi dentro de una diferencia dividida, el resultado es siempre el mismo. Dicho de otra forma concisa, la
diferencia dividida es invariante a cualquier permutaci
on de sus argumentos. Esta propiedad la hace adecuada
para los c
alculos, como veremos en adelante.
SEC. 1.1. DATOS IRREGULARES

57

A. GRANADOS

METODOS NUMERICOS

Una forma de expresar todas las diferencias divididas posibles de generar mediante, por ejemplo, un
conjunto de cuatro puntos (x0 , f (x0 )), (x1 , f (x1 ), (x2 , f (x2 )), (x3 , f (x3 )) y (x4 , f (x4 )), no necesariamente
ordenados, es lo que se denomina el Diagrama Romboidal de diferencias divididas. Para el ejemplo propuesto
se tiene que el diagrama romboidal se representa como
x0

f [x0 ]

x1

f [x1 ]

x2

f [x2 ]

x3

f [x3 ]

x4

f [x4 ]

f [x0 , x1 ]
f [x1 , x2 ]
f [x2 , x3 ]
f [x3 , x4 ]

f [x0 , x1 , x2 ]
f [x1 , x2 , x3 ]
f [x2 , x3 , x4 ]

f [x0 , x1 , x2 , x3 ]
f [x1 , x2 , x3 , x4 ]

f [x0 , x1 , x2 , x3 , x4 ]

(3)

Se puede observar que para obtener cualquier diferencia dividida en un vertice de un triangulo imaginario,
basta con restar las diferencias divididas contiguas y dividirla entre la resta de los valores extremos de x de
la base de dicho tri
angulo.
Manipulaci
on algebraca de la diferencias de ordenes crecientes conlleva, mediante inducci
on, a una
forma simetrica similar para la k-esima diferencia dividida, en termino de los argumentos xi y de los valores
funcionales f (xi ). Esta forma simetrica puede ser escrita de manera compacta como

f [x0 , x1 , x2 , . . . , xk1 , xk ] =

k

i=0

f (xi )
k


(4)

(xi xj )

j=0
j=i

Substituir esta expresion (4) en los polinomios de Newton en diferencias divididas (6.b) luego, no conlleva
directamente a los polinomios de Lagrange 1.2.(1)-(2), como veremos m
as adelante.
1.1.2. Polinomios en Diferencias Divididas
Estos polinomios se les conoce como polinomios de Newton en diferencias divididas. Los polinomios
de Newton Pn (x) de grado n en diferencias divididas [Carnahan et al.,1969], como se dijo antes, permiten
hacer estimaciones de la funcion y = f (x) de puntos intermedios (o estrapolaciones en puntos extramedios)
en la forma
f (x) = Pn (x) + Rn (x)
(5)
donde Pn (x) es el polinomio de grado n
Pn (x) =f [x0 ] + (x x0 ) f [x0 , x1 ] + (x x0 )(x x1 ) f [x0 , x1 , x2 ] +
+ (x x0 )(x x1 )(x x2 ) (x xn1 ) f [x0 , x1 , x2 , . . . , xn1 , xn ]
=

n k1



(x xj ) f [x0 , x1 , x2 , . . . , xk1 , xk ]

(6)

k=0 j=0

y la funci
on Rn (x) es el error cometido en la interpolaci
on
Rn (x) =

n


(x xj ) f [x0 , x1 , x2 , . . . , xn1 , xn , x]

(7.a)

j=0

n


(x xj )

j=0

58

f (n+1) ()
(n + 1)!

[x0 , x1 , . . . , xn1 , xn ]

INTERPOLACION, INTEGRACION Y APROXIMACION

(7.b)

CAP.III

FUNDAMENTOS

siendo el valor comprendido entre el menor y mayor de los valores {x0 , x1 , . . . , xn1 , xn }. Naturalmente
Rn (xi ) = 0 para i = 1, 2, 3, . . . , n, ya que el polinomio pasa por cada uno de los puntos (xi , f (xi )). Cuando
el lmite superior de una productoria es menor que el lmite inferior, como ocurre con el primer termino de
(6), el resultado de dicha productoria es la unidad.
La expresion (6)-(7.a) se obtiene de tomar inicialmente f [x] = f [x0 ]+ (x x0 ) f [x0 , x] y luego mediante
inducci
on f [x0 , x1 , . . . , xn1 , x] = f [x0 , x1 , . . . , xn1 , xn ] + (x xn ) f [x0 , x1 , . . . , xn1 , xn , x].
Un ejemplo sencillo es la parabola que pasa por los tres puntos (a, f (a)), (b, f (b)) y (c, f (c))
P2 (x) = f [a] + (x a)f [a, b] + (x a)(x b)f [a, b, c]

(8)

donde f [a, b] es la pendiente de recta entre los puntos a y b y f [a, b, c] es la curvatura de la par
abola, que si
es positiva es abierta hacia arriba y si es negativa es abierta hacia abajo. Esta par
abola ya se ha usado antes
en los metodos de segundo orden cerrados seccion I.1.4.2 y abiertos secciones I.2.5.2 y I.2.5.3.
En general, los datos utilizados en interpolaci
on no estar
an ordenados, ni seran regulares. Al nal se
usan los polinomios en diferencias divididas por la raz
on adicional, justicada adelante, de que se pueden
aplicar f
acilmente los criterios de interpolaci
on sin tener que pre-ordenar los datos, y al agregar datos nuevos
cercanos a la interpolaci
on que no estaban antes. Esto, sin tener que armar todo el polinomio de interpolaci
on
otra vez, como en el caso del polinomio de Lagrange.
1.1.3. Residual
A continuaci
on se har
a la deducci
on de la expresion (7.b) para Rn (x) [Carnahan et al.,1969]. Consideremos las f
ormulas (5), (6) y (7.a) fundamentales de Newton

f (x) = Pn (x) + Rn (x) = Pn (x) +


n


(x xi ) G(x)

(9)

i=0

con
G(x) = f [x0 , x1 , x2 , . . . , xn1 , xn , x]

(10)

on de orden n dado por (6) y Rn (x) es el termino residual o


en la cual Pn (x) es el polinomio de interpolaci
residuo (7.a) y G(x) es el cociente incremental que incluye x de orden n + 1 y que es deconocido.
Para los puntos que forman la base de datos x0 , x1 , . . . , xn1 , xn , Rn (xi ) = 0, pero para cualquier otro
punto, en general Rn (x)
= 0. Consideremos por otro lado una nueva funci
on Q(t), tal que
Q(t) = f (t) Pn (t)


n


(t xi ) G(x)

(11)

i=0

Cuando t = xi , i = 0, 1, 2, . . . , n, Q(t) = 0; y cuando t = x tambien Q(t) = 0, ya que el termino de la derecha


de (11) desaparece (vease (6)). Es decir, que la funcion Q(t) se anula n + 2 veces, o sea que tiene n + 2 races
en el intevalo m
as peque
no que contenga x y los n + 1 puntos base x0 , x1 , . . . , xn1 , xn . si f (t) es continua y
convenientemente diferenciable, se le puede aplicar el siguiente teorema:
Teorema 1. (Teorema de Rolle). Sea f (x) una funci
on continua en el intervalo a x b y
diferenciable en a < x < b; si f (a) = f (b), entonces existe por lo menos un punto , siendo a < < b, para
el cual f  () = 0.
El teorema exige que la funcion Q (t) se anule por lo menos n + 1 veces en intervalo de los puntos
base. Aplicando el teorema repetidamente a las derivadas de orden superior, se observa que Q (t) debe tener
n races, Q (t), n 1 races, etc... y que Q(n+1) (t) debe anularse por lo menos una vez en el intervalo que
contenga los puntos bases. Sea dicho punto t = . Derivando la expresion (11) n + 1 veces, se obtiene
Q(n+1) (t) = f (n+1) (t) Pn(n+1) (t) (n + 1)! G(x)
SEC. 1.1. DATOS IRREGULARES

(12)
59

A. GRANADOS

METODOS NUMERICOS

(n+1)

Pero Pn (t) es un polinomio de grado n, de modo que Pn


G(x) =

f (n+1) ()
(n + 1)!

(t) = 0, y por tanto, para t = se satisface

[x0 , x1 , . . . , xn1 , xn , x]

(13)

o sea que se justica (7.b), cuando x esta en el intervalo base (interpolaci


on) y
Rn (x) =

n

j=0

(x xj )

f (n+1) ()
(n + 1)!

[x0 , x1 , . . . , xn1 , xn , x]

(14)

El valor de es desconocido, salvo que se conoce que esta contenido en el intervalo formado por x y los valores
on f (x) se describe solamente de forma tabular, la expresi
on (14) es de poca
x0 , x1 , . . . , xn1 , xn . Si la funci
(n+1)
utilidad, ya que f
() no se puede determinar. No obstante, agregando uno o m
as puntos adicionales al
calculo, se puede usar la diferencia dividida del mismo orden que la derivada para tener un valor estimativo
del error. Por el contrario, si f (x) se conoce de forma analtica, entonces (14) es u
til para establecer una cota
superior al error.
1.2. POLINOMIOS DE LAGRANGE
Los polinomios de Lagrange [Hildebrand,1956] son otra forma de expresar los mismos polinomios Pn (x)
de la ecuacion (7), pero a traves de (4). De manera que se tiene [Carnahan et al.,1969]
Pn (x) =

Li (x) f (xi )

(1)

i=0

donde
Li (x) =

n

(x xj )
(xi xj )
j=0

(2)

j=i

El error Rn (x) contin


ua siendo el mismo que la expresion 1.1.(7). Cada valor funcional f (xi ) incluido en la
expresion (1) es multiplicado por Li (x), que son todos polinomios de grado n. Por ello reciben el nombre de
multiplicadores de Lagrange. Un incoveniente que tienen los polinomios de Lagrange es que, para aumentar
el grado del polinomio en una unidad, implica el proceso engorroso de agregar un factor adicional a cada
multiplicador (productos), y hay que calcular todo de nuevo. Este inconveniente no lo presenta los polinomios
de Newton, donde para aumentar un grado al polinomio, s
olo hay que agregar un punto y calcular un termino
adicional (sumas), y todos los calculos anteriores siguen sirviendo.
EJEMPLO:
Sea la funcion f (x) = ln x. Dada la tabla de valores
xi

0.40

0.50

0.70

0.80

f (xi )

0.916291

0.693147

0.356675

0.223144

Datos

estimar el valor de ln 0.60. Evaluando los coecientes de Lagrange para i = 1, 2, 3, 4:


L1 (0.60) = 23 , L2 (0.60) = 23 , L3 (0.60) = 61 . Por lo que

L0 (0.60) = 61 ,

P3 (0.60) = L0 (0.60) f (x0 ) + L1 (0.60) f (x1 ) + L2 (0.60) f (x2 ) + L3 (0.60) f (x3 )


Sustituyendo, se obtiene que la interpolaci
on del ln 0.60 es P3 (0.60) = 0.5099075, el cual comparado
con el valor exacto de ln(0.60) = 0.5108256 muestra un desviaci
on global igual a 0.000918.
60

INTERPOLACION, INTEGRACION Y APROXIMACION

CAP.III

FUNDAMENTOS

1.3. DATOS REGULARES


Cuando se tienen datos regulares, estos deber
an est
ar ordenados en la variable independiente x. Por
lo que dos puntos consecutivos se distancian en x en un valor constante que designaremos con la letra h.
Es decir, h = xi xi1 = xi+1 xi constante para todo i, sin importar si es positivo (datos crecientes) o
negativo (datos decrecientes).
1.3.1. Diferencias Adelantadas
Las diferencias adelantadas se obtienen con el mismo procedimiento que las diferencias divididas, s
olo
que no se dividen.
Para intervalos regulales en x, donde los xi estan ordenados, se dene la diferencia adelantada k fi ,
tal que
(1)
k fi = k! hk f [xi , xi+1 , xi+2 , . . . , xi+k1 , xi+k ]
donde h es el tama
no del intervalo en x consecutivos (h = xi+1 xi ). Se ordenan de forma romboidal al
igual que antes, s
olo que como no son divididas, por ello el factor k! hk .
1.3.2. Polinomios de Newton-Gregory
Para intervalos regulares, el polinomio de Newton en diferencias divididas 1.1.(6) se convierte en
Pn (x) =

n  

s
k=0

k f0

(2)

denominado polinomio de Newton-Gregory progresivo y donde el n


umero combinatorio signica
 
(s + 1)
s
=
k
(s k + 1) (k + 1)

s=

x x0
h

(3)

Particularmente, (k + 1) = k! por ser k un entero positivo y, aunque la funci


on (s) no es un factorial
siempre, se satisface (s + 1)/(s k + 1) = s(s 1)(s 2) . . . (s k + 1) [Gerald,1970]. La expresion (2) se
ha obtenido de substituir
 
k1

(s + 1)
s
= k! hk
(x xj ) = hk
(4)
k
(s k + 1)
j=0

y (1), despejada en f [ ] para i = 0, en 1.1.(6).


Para intervalos regulares, el error 1.1.(7) se convierte en

Rn (x) =

s
n+1

hn+1 f (n+1) ()

[x0 , x1 , . . . , xn1 , xn , x]

(5)

teniendo el mismo signicado que antes. Los polinomios para intervalos regulares se muestran aqu solo
como caso particular. Aunque es muy difcil o poco pr
actico conseguir los datos ordenados regularmente
siempre.
1.3.3. Diagrama Romboidal
Al igual que en 1.1.(3), las diferencias adelantadas se pueden ordenar de forma tabular, siguiendo un
ordenamiento romboidal, insertando en las caras de los rombos los n
umeros combinatorios correspondientes,
de la forma indicada en el diagrama de abajo.
Si se hace un recorrido del diagrama de izquierda a derecha: Al bajar la diferencia se multiplica por
el n
umero combinatorio de arriba. Al subir la diferencia se multiplica por el n
umero combinatorio de abajo.
Al hacer un recorrido horizontal la diferencia se multiplica por la semisuma de los n
umeros combinatorios o
el n
umero combinatorio se multiplica por la semisuma de las diferencias.
SEC. 1.3. DATOS REGULARES

61

A. GRANADOS

METODOS NUMERICOS

Figura. Diagrama Romboidal para la interpolaci


on en datos regulares.
 Progresivo  Regresivo Zig Zag Gauss Stirling y0 Bessel y0 y1 .
Los n
umeros combinatorios en las caras de los rombos cumplen con la regla SE+PC=NE (SE=sureste,
PC=central, NE=noreste). Las diferencias en los vertices de los rombos cumplen con la regla SW+VC=NW
(SW=suroeste, VC=central, NW=noroeste) .
Sea la primera columna a la izquierda de los valores funcionales del diagrama romboidal la base de
un tri
angulo isosceles, cuyos lados iguales son la diagonal descendente y diagonal ascendente de diferencias,
que se intersectan en el vertice a la derecha de mayor orden. Siempre que se comience en la base y se haga
cualquier recorrido del diagrama romboidal, sin salir del mencionado tri
angulo is
osceles, llegando al vertice
de mayor orden, el polinomio de interpolaci
on ser
a siempre el mismo.
Polinomios Regresivos
Se hace una recorrido del diagrama romboidal siguiendo una diagonal ascendente se obtiene el polinomio
de Newton-Gregory regresivo. Son progresivos si se sigue un recorrido descendente como en la secci
on 1.3.2.
Polinomios de Gauss
Si se sigue un recorrido del diagrama romboidal en zig-zag se denomina polinomios de Gauss. Progresivo
si comienza subiendo o regresivo si comienza bajando.
62

INTERPOLACION, INTEGRACION Y APROXIMACION

CAP.III

FUNDAMENTOS

Polinomios de Stirling
Si se hace un recorrido horizontal del diagrama romboidal comenzando en y0 se denomina polinomio
de Stirling.
Polinomios de Bessel
Si se hace un recorrido horizontal del diagrama romboidal comenzando entre y0 y y1 se denomina
polinomios de Bessel.
1.4. CRITERIOS DE INTERPOLACION
Se ha desarrollado un algoritmo de interpolaci
on usando los polinomios de Newton en diferencias
divididas. Para hacer ecientemente la interpolaci
on se han usado dos criterios que hacen de esta la mas
consistente posible con los puntos discretos dados. Estos criterios son el de Simetra y el de Monotona. Estos
criterios, aplicados en conjunto, permiten determinar el grado del polinomio optimo a utilizar durante una
interpolaci
on.
A continuaci
on se describen los dos criterios utilizados en el algoritmo: simetra y monotona. Luego
se formula como se acoplan en el algorithm.
1.4.1. Simetra
El criterio de la simetra consiste en escoger la distribucion de puntos lo m
as simetricamente posible,
alrededor de donde se desee interpolar. Esto se puede hacer de dos maneras: mediante el n
umero de puntos
o mediante la distancia de inuencia, a uno y otro lado del punto donde se vaya a interpolar. En el caso de
intervalos irregulares, la segunda opci
on se convierte en un criterio de Proximidad. En el caso de intervalos
regulares una de las formas implica a la otra. En cualquier caso, el n
umero de puntos pr
oximos lo determina
el criterio de monotona descrito abajo. En los extremos del intervalo que contiene a los puntos, a veces es
imposible seguir el criterio de simetra de forma estricta, y entonces se hace necesario en su lugar seguir el
criterio de proximidad, si se desea alcanzar un mayor orden de monotona como se explica abajo.
El criterio de simetra tiene otra ventaja. Por ejemplo, en los esquemas de diferencias nitas centradas
las formulaciones presentan un menor error, que cuando no lo son, usando inclusive el mismo n
umero de
puntos.
1.4.2. Monotona
El criterio de la monotona se basa en la denici
on de monotona de una funci
on: Una funci
on se dice
que es monotona hasta el orden m, en un determinado intervalo, si todas sus derivadas de hasta dicho orden
conservan siempre su signo en dicho intervalo. En otras palabras, una funci
on continua f (x) es monotona de
orden m en un intervalo [a, b], si
f  (x)
= 0

f  (x)
= 0

f  (x)
= 0

f (m) (x)
= 0
f (m+1) (x) = 0

para todo

x [a, b]

para alg
un x [a, b]

(16)

En el ejemplo mostrado en (9), la par


abola tiene monotona de orden 2 en los intervalos (, v) y (v, ),
1
separadamente, donde v = 2 { a + b f [a, b]/f [a, b, c] } es la localizacion del vertice de dicha parabola.
Las diferencias divididas son proporcionales a las derivadas en su entorno, tal como lo indica la siguiente
relacion reejada en 1.1.(7.b)
f [x0 , x1 , x2 , . . . , xn1 , xn , x] =

f (n+1) ()
(n + 1)!

[x0 , x1 , . . . , xn1 , xn , x]

(17)

Por ello, el criterio de monotona implica escoger hasta el mayor orden en las diferencias divididas que tengan
igual signo por columna en el diagrama romboidal. La u
ltima diferencia dividida a evita a partir de aqu,
junto con el u
ltimo punto que la origin
o, deber
a tener signo opuesto a todas las demas diferencias divididas
SEC. 1.4. CRITERIOS DE INTERPOLACION

63

A. GRANADOS

METODOS NUMERICOS

vecinas del mismo orden (misma columna). Esto signica que el criterio de la monotona acepta polinomios de
interpolaci
on hasta el grado m. La falta de monotona en las interpolaciones implica que pueden producirse
oscilaciones indeseables de la funcion alrededor o entre los puntos dados. Como el u
ltimo punto agregado
es el mas lejano, por el criterio de la simetra, no existe inconveniente en dejarlo (no recomendado), ya que
los calculos estan hechos y son del u
ltimo orden en el error. Entre m
as parecidas sean las monotonas de la
funci
on discreta y el polinomio de interpolaci
on, en esa misma medida la interpolaci
on ser
a mas consistente.
1.4.3. Algortmo
Los criterios de simetra y monotona se complementan para indicar cuales puntos y el n
umero de
ellos se deben usar en la interpolaci
on. En cualquier caso, el grado del polinomio ser
a siempre una unidad
menor que el n
umero de puntos usados. El algoritmo se resume de la siguiente manera: se escogen los puntos
mas cercanos al punto donde se desee interpolar, en un n
umero (distancia) simetrico (pr
oxima), uno a uno
(calculando cada vez las diferencias divididas de la diagonal incluido el vertice), hasta que dicho n
umero de
puntos, reejado en las diferencias divididas, conserve el m
aximo orden posible de monotona del polinomio
de interpolaci
on igual que el de la funci
on discreta.
El algoritmo antes explicado puede usarse para hacer interpolaciones en una o en varias dimensiones.
Tambien permite la interpolaci
on sin necesidad de pre-ordenar los puntos usados o pre escoger su n
umero.
En varias dimensiones lo u
nico que se exige es que los valores de las funciones sean siempre para los mismos y
todos los puntos discretos en cada dimension. El algoritmo tampoco necesita escoger un grado del polinomio
anticipadamente, durante el proceso de la interpolaci
on. El algoritmo decide el grado del polinomio optimo
que garantice satisfacer los criterios de simetra y monotona.
1.5. INTERPOLACION ESPACIAL
Las interpolaciones con funciones dependientes de m
as de una variable se hacen mediante el mismo
algoritmo de interpolaci
on en una variable, repetido varias veces en curvas (dos dimensiones) o supercies
paralelas (tres dimensiones), y a su vez, las interpolaciones en las supercies paralelas se realizan como en
funciones de dos variables.
1.5.1. Dos Dimensiones
El algoritmo para la interpolaci
on en dos dimensiones para la funci
on discreta zij = z(xi , yj ), con
i = 0, . . . , nx 1 en x y j = 0, . . . , ny 1 en y, se describe de forma estructurada a continuaci
on:
Para i = 0, . . . , nx 1
Para j = 0, . . . , ny 1
Se asigna i (yj ) = zij = z(xi , yj )
Siguiente j
Para cada curva i se interpola en el punto y con los valores de i (yj ), lo que dan los valores interpolados
i = (xi ) = z(xi , y ) de la funci
on z(x, y) en la curva que pasa por y y esta parametrizada con los
valores xi .
Siguiente i.
Finalmente se interpola en el punto x con los valores i = (xi ), lo que da como resultado el valor
deseado z = z(x , y ).
1.5.2. Tres Dimensiones
El algoritmo para la interpolaci
on en tres dimensiones para la funci
on discreta tijk = t(xi , yj , zk ), con
i = 0, . . . , nx 1 en x, j = 0, . . . , ny 1 en y y k = 0, . . . , nz 1 en z, se describe de forma estructurada a
continuacion:
Para k = 0, . . . , nz 1.
Para j = 0, . . . , ny 1.
Para i = 0, . . . , nx 1.
64

INTERPOLACION, INTEGRACION Y APROXIMACION

CAP.III

FUNDAMENTOS

Se asigna k (xi , yj ) = tijk = t(xi , yj , zk ).


Siguiente i.
Siguiente j.
Para cada supercie k se interpola en dos dimensiones en el punto (x , y ) con los valores de k (xi , yj ),
lo que dan los valores interpolados k = (zk ) = t(x , y , zk ) de la funci
on t(x, y, z) en la curva que
pasa por (x , y ) y esta parametrizada con los valores zk .
Siguiente k.
Finalmente se interpola en el punto z con los valores k = (zk ), lo que da como resultado el valor
deseado t = t(x , y , z ).
Para mayores dimensiones se sigue la misma pr
actica de apoyar el algoritmo en algoritmos para dimensiones menores.
1.6. TRAZADORES
Dado un comjunto de n puntos (xi , yi ), i = 1, 2, 3, . . . , n, se denominan trazadores (splines), al conjunto
de n 1 polinomios de orden m
y = yi +

aij (x xi )j

x [xi , xi+1 )

(1)

j=1

con coecientes aij , tales que garanticen la continuidad de la funci


on y y de sus derivadas y  , y  , y  ,. . . ,
y ( m 1) en todo el dominio [x1 , xn ].
1.6.1. Trazadores Rectilneos (m = 1)
Sea
y = yi + bi (x xi )

(2)

un polinomio de primer orden que pasa por los puntos (xi , yi ) y (xi+1 , yi+1 ). Si tenemos en cuenta que el
tama
no del intervalo [xi , xi+1 ) es hi = xi+1 xi , entonces
yi+1 = yi + bi hi
De esta expresion se obtiene que
bi =

(3)

yi+1 yi
hi

(4)

Es obvio que el comjunto de trazadores rectilneos hallados de esta forma garantizan la continuidad de la
funci
on y en todo el dominio [x1 , xn ], lo cual esta de acuerdo con la denicion de los trazadores polin
omicos
de orden m = 1. La funci
on y  de primera derivada representa yna funci
on escalonada que por supuesto no
es continua.
1.6.2. Trazadores Parab
olicos (m = 2)
Sea
y = yi + bi (x xi ) + ci (x xi )2

(5)

un polinomio de segundo grado, que pasa por los puntos (xi , yi ) y (xi+1 , yi+1 ).
Sean
y  = 2 ci
y  = bi + 2 ci (x xi )

(6)

la primera y segunda derivadas del polinomio respectivo. Si tenemos en cuenta que el tama
no del intervalo
[xi , xi+1 ) es hi = xi+1 xi y llamamos a pi a la primera derivada y  evaluada en xi , esto es
hi = xi+1 xi
SEC. 1.6. TRAZADORES

pi = yi

(7)
65

A. GRANADOS

METODOS NUMERICOS

entonces, para que el polinomio parab


olico pase por los puntos (xi , yi ) y (xi+1 , yi+1 ), los coecientes bi y ci
de ben cumplir con las siguientes condiciones
yi+1 = yi + bi hi + ci h2i

pi = b i

De estas relaciones se obtiene que


b i = pi

ci =

pi+1 = bi + 2 ci hi

pi+1 pi
2 hi

(8)

(9)

on de los Pi en la expresion de yi+1 , queda


Si ahora substituimos bi y ci en funci

yi+1 = yi + pi hi +

pi+1 pi
2 hi

h2i

(10)

Rorganizando esta ecuacion, nalmente se obtiene



pi + pi+1 = 2

yi+1 yi
hi


(11)

Esta ecuacion se puede aplicar solo para los puntos x2 , x3 , . . ., xn1 . Para los puntos extremos x1 y xn se
puede asumir cualquiera de las siguientes condiciones:
a:) Los polinomios en los intervalos 1 y n son rectas
p1 p2 = 0

pn1 pn = 0

(12)

b:) Los polinomios en los intervalos 1 y n son par


abolas
p2 p1
p3 p2
=
h1
h2
h2 p1 + (h1 + h2 ) p2 h1 p3 = 0

pn pn1
pn1 pn2
=
hn1
hn2
hn1 pn2 + (hn2 + hn1 ) pn1 hn2 pn = 0

(13)

Con todas estas ecuaciones se obtiene el siguiente sitemas de n ecuaciones lineales con n incognitas pi
i = 1, 2, 3, . . . , n

T1
p1
U1 V1 W1
y3 y2

p2
1
1
2

y hy

4
3

p3
1
1

h3

.
.
.

.
..
..
..

(14)

. = 2
.

.
..
..

.
.
.
.

y y.

n n1
1
1 pn1
hn1
Un Vn Wn
pn
Tn
donde
V1 = 1
Vn = 1

a:)

U1 = 1
Un = 0

b:)

U1 = h2
Un = hn1

W1 = 0
Wn = 1

V1 = h1 + h2
Vn = hn2 + hn1

T1 = 0
Tn = 0
W1 = h1
Wn = hn2

T1 = 0
Tn = 0

Aplicando un proceso de eliminacion, se puede lograr eliminar algunos terminos y as convertir el sistema de
ecuaciones en bidiagonal. Como se dabe, un sistema de ecuaciones as puede ser resuelto por substitucion
progresiva o regresiva. Esto signica que solamente puede aplicarse una de las condiciones nombradas anteriormente para un extremo y el otro extremo debe quedar libre, sin condicion. Una vez halladas las inc
ognitas
66

INTERPOLACION, INTEGRACION Y APROXIMACION

CAP.III

FUNDAMENTOS

pi , se pueden calcular los coecientes de los trazadores usando la expresi


on (9). De acuerdo a esto los primeros
yu
ltimos coecientes de la matriz cambian a
a:)

U1 = 1

V1 = 0

W1 = 0

T1 =

y2 y1
2 h1

Un = 0

Vn = 0

Wn = 1

Tn =

yn yn1
2 hn1

U1 = 1

V1 = 0

W1 = 0

T1 =

(2h1 +h2 ) 2h 1 h1
1
2 (h1 +h2 )

y y

b:)

(2hn1 +hn2 )

y3 y2
h2

yn yn1
h

hn1

yn1 yn2
h

n1
n2
Un = 0
Vn = 0
Wn = 1
Tn =
Es obvio que el
2 (hn1 +hn2 )
conjunto de trazadores parab
olicos hallados de esta forma garantizan la continuidad de la funci
on y y su
primera derivada y  en todo el dominio [x1 , xn ], lo cual esta de acuerdo con la denicion de los trazadores
polin
omicos de orden m = 2. La funci
on y  de segunda derivada representa una funcion escalonada que por
supuesto no es continua.

1.6.3. Trazadores C
ubicos (m = 3)
La interpolaci
on numerica no debe ser solo vista como una herramienta para calculo sino tambien como
una herramienta para el dibujante moderno, ya que es muy u
til al momento de desarrollar algoritmos para
el dibujo asistido por computador.
Dado un conjunto de puntos (xi , fi ) se desea construir la curva de la funcion f (x) en el intervalo
on
(x1 , xn ) por lo cual se hace necesario obtener puntos adicionales para una mejor representacion de la funci
f (x). Una de las metodologas existentes es la de utilizar polinomios a trozos en cada sub-intervalo garantizando continuidad de la funci
on y sus derivadas en los extremos de los sub-intervalos, estas expresiones son
denominadas curva especiales.
Dado un sub-intervalo [xi , xi+1 ) se propone un polinomio c
ubico de la forma
f (x) = yi + bi (x xi ) + ci (x xi )2 + di (x xi )3

(15)

donde las contantes bi , ci , di son validas unicamente en el sub-intervalo [xi , xi+1 ). El polinomio de tercer
grado pasa por los puntos (xi , yi ) y (xi+1 , yi+1 ).
Sean
y  = bi + 2 ci (x xi ) + 3 di (x xi )2
y  = 2 ci + 6 di (x xi )
y



(16)

= 6 di

la primera, segunda y tercera derivadas del polinomio respectivo.


Si tenemos en cuenta que el tama no del intervalo [xi , xi+1 ) es hi = xi+1 xi y llamamos pi y si a la
primera derivada y  y a la segunda derivada y  , respectivamente evaluadas en xi , esto es
hi = xi+1 xi

pi = yi

si = yi

(17)

entonces, para que el polinomio c


ubico pase por los puntos (xi , yi ) y (xi+1 , yi+1 ), dado que el polinomio
c
ubico admite continuidad en el valor de la funci
on, en su primera y segunda derivadas, los coecientes bi , ci
y di deben cumplir con las siguientes condiciones
yi+1 = yi + bi hi + ci h2i + di h3i
pi = b i

pi+1 = bi + 2 ci hi + 3 di h2i

si = 2 ci

si+1 = 2 ci + 6 di hi

(18)

De estas relaciones se obtienen que


bi =
SEC. 1.6. TRAZADORES

yi+1 yi
hi (2 si + si+1 )

hi
6

ci =

si
2

di =

si+1 si
6 hi

(19)
67

A. GRANADOS

METODOS NUMERICOS

La derivadas en el punto xi usando un polinomio v


alido en el intervalo [xi , xi+1 ) y usando un polinomio
v
alido para el intervalo [xi1 , xi ), deben ser las mismas
pi = bi = bi1 + 2 ci1 hi1 + 3 di1 h2i1

(20)

Si ahora substituimos bi , bi1 , ci1 y di1 en funci


on de los yi y si en la expresion de pi anterior, al imponer
la condicion de continuidad de la primera derivada se, obtiene la siguiente expresi
on




si1
si si1
yi yi1
yi+1 yi
hi (2si + si+1 )
hi1 (2si1 + si )
=
+2

h2i1 (21)
hi1 + 3
hi
6
hi1
6
2
6 hi1
Reorganizando esta ecuacion, nalmente se obtiene

hi1 si1 + 2 (hi1 + hi ) si + hi si+1 = 6

yi+1 + yi yi yi1

hi
hi1


(22)

Esta ecuacion se puede aplicar solo para los puntos x2 , x3 , . . ., xn1 . Para los puntos x1 y xn se pueden
asumir cualquiera de las siguientes condiciones:
a:) Los polinomios en los intervalos 1 y n se empalman con rectas, es decir, los extremos son puntos
de inexi
on
sn = 0
s1 = 0
b:) Los polinomios en los intervalos 1 y n son par
abolas (d1 = dn1 = 0)
s1 s2 = 0

sn1 sn = 0

c:) Los polinomios en los intervalos 1 y n son c


ubicas condici
on natural (d1 = d2 , dn2 = dn1 )
s2 s 1
s3 s2
=
h1
h2
h2 s1 + (h1 + h2 ) s2 h1 s3 = 0

sn sn1
sn1 sn2
=
hn1
hn2
hn1 sn2 + (hn2 + hn1 ) sn1 hn2 sn = 0

Estas expresiones representan un sistema de ecuaciones lineales tridiagonal para las incognitas si , i
1, 2, . . . , n, y el mismo puede ser resuelto utilizando el algoritmo de Thomas.
El sistema de ecuaciones lineales planteado se muestra a continuaci
on

T1
U1
V1
W1
s1
y3 y2
1

y2hy
s2
h1 2(h1 + h2 )
h2
h2
1

y4 y3
y3 y2

h2
s3

h2
2(h2 + h3 ) h3

h3
.

..
..
.

..
.
.
. = 6

..
..
..
...

.
.

yn yn1 yn1 yn2


hn2 2(hn2 + hn1 ) hn1 sn1
hn1
hn2
sn
Un
Vn
Wn
Tn

(23)
donde
a:)

U1 = 1
V1 = 0
W1 = 0
T1 = 0
Vn = 0
Wn = 1
Tn = 0
Un = 0
b:) U1 = 1
V1 = 1
W1 = 0
T1 = 0
Vn = 1
Wn = 1
Tn = 0
Un = 0
V1 = h1 + h2
W1 = h1
T1 = 0
c:) U1 = h2
Un = hn1
Vn = hn2 + hn1
Wn = hn2
Tn = 0
Aplicando un proceso de eliminacion, see puede lograr eliminar algunos terminos y as convertir el
sistema de ecuaciones en tridiagonal. Como se sabe un sistema de ecuaciones as puede ser resuelto utilizando
el algoritmo de Thomas (seccion II.1.1.7). Una vez halladas las inc
ognitas si , se pueden calcular los coecientes
de los trazadores c
ubicos con las expresiones (19).
68

INTERPOLACION, INTEGRACION Y APROXIMACION

CAP.III

FUNDAMENTOS

De acuerdo a esto entonces los coecientes cambian a


c:)

U 1 = h1 h2
Un = 0

V1 = 2h1 + h2

W1 = 0

T1 =

h1
h1 +h2

y3 y2
h2

y2 y1
h1

Vn = hn2 + 2hn1
Wn = hn1 hn2


hn1
yn yn1
yn1 yn2
Tn = hn2 +hn1

hn1
hn2

Es obvio que el conjunto de trazadores c


ubicos hallados de esta forma garantizan la continuidad de
la funci
on y, sus primeras derivadas y  y sus segundas derivadas y  en todo el dominio [x1 , xn ], lo cual esta
de acuerdo con la denici
on de los trazadores polin
omicos de grado m = 3. La funci
on y  tercera derivada
representa una funci
on escalonada que por supuesto no es continua.
Si ocurre que h1 = h2 , entonces U1 = 0 y ya no se puede aplicar el algoritmo de Thomas. En este caso,
la ecuacion a aplicar es la obtenida haciendo eliminaciones de terminos con las primera tres ecuaciones y
evaluando las dos primeras segundas derivadas. Tambien se puede aplicar lo mismo para los u
ltimos puntos.
Basandonos en esto se obtiene
V1 = h1
W1 = 0
c:) U1 = h1
 y4 y3 y3 y2

y3 y2
y y
h
2h 1
h21
h3
h2
2
1
T1 = h1 +h2 +h3

h2 +h3
h1 +h2
Vn = hn1
Wn = hn1
 yn yn1 yn1 yn2

Un = 0
Tn =

h2n1
hn3 +hn2 +hn1

hn1

hn2

hn2 +hn1

yn1 yn2
hn2

yn2 yn3
hn3

hn3 +hn2

EJEMPLO:
Determine el spline cubico natural que interpola a la funci
on f (x) en el intervalo [0.25, 0.53], a partir
de la siguiente tabla de datos
xi

0.25

0.30

0.39

0.45

0.53

f (xi )

0.5000

0.5477

0.6245

0.6708

0.7280

Datos

De los datos de la tabla se pueden determinar los valores de los hi


h1 = 0.05

h2 = 0.09

h3 = 0.06

h4 = 0.08

Construyendo el sistema de ecuaciones para los si con i=2,3,4, recordando la condici


on natural en los extremos, se obtiene
0.28s2 + 0.09s3
= 0.604
0.09s2 + 0.30s3 + 0.06s4 = 0.490
0.06s3 + 0.28s4 = 0.340
cuya soluci
on es:
s2 = 1.8806

s3 = 0.8226

s4 = 1.0261

1.7. DERIVACION
Las derivadas de cualquier orden se calculan numericamente utilizando los polinomios de interpolaci
on
y luego deriv
andolo seg
un requerimiento. Escogiento los valores funcionales diferentes y diferentes ordenes
en los polinomio de interpolaci
on, se han generado la siguientes f
ormulas para las derivadas, siguiendo las
reglas dictadas al nal de la secci
on 1.3.3.
SEC. 1.7. DERIVACION

69

A. GRANADOS

METODOS NUMERICOS

F
ormulas para la Primera Derivada
1
(f1 f0 ) + O(h)
h
1
(f1 f1 ) + O(h2 )
f  (x0 ) =
2h
1
(f2 + 4 f1 3 f0 ) + O(h2 )
f  (x0 ) =
2h
1
(f2 + 8 f1 8 f1 + f2 ) + O(h4 )
f  (x0 ) =
12h
f  (x0 ) =

(Diferencia Central)
(1)

(Diferencia Central)

F
ormulas para la Segunda Derivada
1
(f2 2 f1 + f0 ) + O(h)
h2
1
f  (x0 ) = 2 (f1 2 f0 + f1 ) + O(h2 )
h
1
f  (x0 ) = 2 (f3 + 4 f2 5 f1 + 2 f0 ) + O(h2 )
h
1
(f2 + 16 f1 30 f0 + 16 f1 f2 ) + O(h4 )
f  (x0 ) =
12h2
f  (x0 ) =

(Diferencia Central)
(2)

(Diferencia Central)

F
ormulas para la Tercera Derivada
1
(f3 3 f3 + 3 f1 f0 ) + O(h)
h3
1
f  (x0 ) = 3 (f2 2 f1 + 2 f1 f2 ) + O(h2 )
2h
f  (x0 ) =

(3)
(Diferencia Promedio)

F
ormulas para la Cuarta Derivada
1
(f4 4 f3 + 6 f2 4 f1 + f0 ) + O(h)
h4
1
f iv (x0 ) = 4 (f2 4 f1 + 6 f0 4 f1 + f2 ) + O(h2 )
h

f iv (x0 ) =

(4)
(Diferencia Central)

Para intervalos irregulares con puntos no ordenados se utiliza la expresi


on 1.1.(6), derivada y evaluada
en x = x0 , lo cual da
n k1


P  (x0 ) =
(x xj ) f [x0 , x1 , x2 , . . . , xk1 , xk ]
(5)
k=1 j=1

Todos los terminos que contienen x x0 al derivar, cuando se eval


ua en x = x0 , se anulan. El resultado es
la misma expresion 1.1.(6), sin el primer termino y sin el primer factor en la productoria. Haciendo el uso
de esta ecuacion (5), cambiando cada vez el punto designado como x0 , se tiene una tabla de valores de las
primeras derivadas en distintos puntos, tabla con la cual se puede interpolar donde se desee. Si se aplica este
mismo procedimiento a los valores de primeras derivadas, se obtienen los valores de las segundas derivadas, y
as sucesivamente. Cuando el lmite superior de una productoria es menor que el lmite inferior, como ocurre
con el primer termino de (5), el resultado de dicha productoria es la unidad.

70

INTERPOLACION, INTEGRACION Y APROXIMACION

CAP.III

FUNDAMENTOS

Figura 1. Diagrama Romboidal de la primera derivada. Multiplicar por 1/h.


La gura 1 anterior se obtuvo de derivar respecto a s las caras del diagrama romboidal (n
umeros
combianatorios) de la secci
on 1.3.3, y luego evaluarla en s = 0. Por eso hay que multiplicar por 1/h para
on).
obtener f  (x0 ) (dx = h ds), cualesquiera de los resultados en su aplicacion (reglas al nal de la secci

SEC. 1.7. DERIVACION

71

A. GRANADOS

METODOS NUMERICOS

Figura 2. Diagrama Romboidal de la segunda derivada. Multiplicar por 1/h2 .


La gura 2 anterior se obtuvo de derivar doblemente respecto a s las caras del diagrama romboidal
(n
umeros combianatorios) de la secci
on 1.3.3, y luego evaluarla en s = 0. Por eso hay que multiplicar por
1/h2 para obtener f  (x0 ) (dx = h ds), cualesquiera de los resultados en su aplicacion (reglas al nal de la
seccion).

72

INTERPOLACION, INTEGRACION Y APROXIMACION

CAP.III

FUNDAMENTOS

2. INTEGRACION
La integracion de funciones es una operaci
on matematica de mucha importancia, y al estudiante de
calculo le toma tiempo en aprender a dominar las distintas tecnicas analticas para resolverlas.
Con mucha frecuencia es necesario integrar a funcion que es conocida en forma tabular, por ejemplo
un conjunto de datos experimentales. Los metodos numericos nos permiten llevar a cabo esta operacion.
Adicionalmente, la integraci
on analtica de funciones no es un proceso de f
acil manejo para el computador,
por lo cual el uso de tecnicas numericas para su evaluaci
on son necesarias.
Entre las tecnicas numericas mas conocidas estan las f
ormulas de Newton-Cotes, la formulas de la
Cuadratura de Gauss, y distintas variantes de estas.
2.1. DATOS REGULARES
Cuando los datos son regulares, estos est
an ordenados y la distancia entre dos puntos en x es denotada
h = xi+1 xi , i = 1, 2, . . . , N
2.1.1. F
ormulas de Newton-Cotes
Al momento de evaluar una integral sobre un conjunto de datos discretos, dados en forma tabular, se
hace necesario desarrollar metodos particulares. Al conjunto de N + 1 puntos se le subdivide en grupos de
n + 1 puntos (n < N ) cada uno, siendo el extremo nal de cada grupo el extremo comienzo del siguiente.
Entre los metodos para evaluar este tipo de integrales estan las Formulas de Newton-Cotes, entre las cuales
se agrupan a las conocidas formulas del trapezoide y de Simpson.
Para cada grupo de n + 1 puntos se utiliza un polinomio de interpolaci
n Pn (x) de grado n, con el cual
se calcula un estimado de la integral. El polinomio que en este caso es el m
as apropiado, es el polinomio
de Lagrange (seccion 1.2). Con esto se generan las f
ormulas de Newton-Cotes. Cuando aplicamos algunas
de estas Formulas a un conjunto grandes de N + 1 puntos le denominamos La Regla. Pueden usarse
combinaciones de f
ormulas cuando el n
umero de puntos as lo amerite.
Usando los polinomios de Lagrange
f (x) = Pn (x) + R(x)

Pn (x) =

Li (x) f (xi )

(1)

i=0

las f
ormulas de Newton-Cotes tienen la forma
xn

xn

f (x) dx =

xn

Pn (x) dx +

x0

x0

R(x) dx = I n + E n

(2)

x0

donde
In =

xn

Pn (x) dx =
x0

En =

xn

n
xn !
x0

n

"
Li (x) f (xi ) dx = h
Cin f (xi )

i=0

Cin =

i=0
n

R(x) dx = hn+2 f (n+1) ()


0

x0

s
n+1

ds = n Kn hn+2 f (n+1) ()

1
h

xn

Li (x) dx

(3)

[x0 , xn ]

(4)

x0

Se ha usado el residual para intervalos regulares 1.3.(5) (dx = h ds)



Rn (x) =

s
n+1

hn+1 f (n+1) ()

[x0 , xn ]

(5)

porque es el mas adecuado para este caso.


SEC. 2.1. DATOS REGULARES

73

A. GRANADOS

METODOS NUMERICOS

Ocurre para los casos n par, que la integral (4) es nula, por lo que se le agrega un grado m
as al
polinomio de interpolaci
on (cuya integraci
on da nula) y el residual se incrementa en un grado, por lo que el
resultado de su integracion da un grado mayor en el exponente de h y el orden de la derivaci
on (identicado
con m adelante, a veces m = n + 2 (n par), a veces m = n + 1 (n impar)).
La tabla siguiente resume estos resultados para varios valores de n, d
andole nombre en cada caso para
las f
ormulas de Newton-Cotes
Tabla. Coecientes de Las F
ormulas de Newton-Cotes.
n m

Factor

C0n

C1n

C2n

C3n

C4n

C5n

1 2

1
2

2 4

1
3

3 4

3
8

4 6

2
45

32

12

32

5 6

5
288

19

75

50

50

75

19

6 8

1
140

41

216

27

272

27

216

C6n

41

n Kn

Kn

1
12

1
12

1
90

1
180

3
80

1
80

8
945

2
945

275
12096

55
12096

9
1400

3
2800

Nota: N debe ser m


ultiplo de n de la f
ormula.
1-Trapecio, 2-Simpson1/3, 3-Simpson3/8-Newton, 4-Villarceau-Boole, 5-Villarceau, 6-Hardy.
Aplicando la f
ormula para cada grupo de datos x [xi , xi+n ] (fi = f (xi ))
xi+n

f (x) dx = h
xi

Cjn fi+j n Kn hm+1 f (m) (i )

i [xi , xi+n ]

f (m) (i ) =

j=0

2 n + 3 + (1)n
m=
2

= I n + En

N (m)
f ()
n

(6)

E n = n Kn hm+1 f (m) (i )

Aplicando la regla para todo el conjunto de puntos de los datos x [x0 , xN ]


xN

f (x) dx = h

x0

n
N
n

Cjn fi+j Kn (b a) hm f (m) ()

[x0 , xN ]

a = x0

b = xN

i=0 j=0
n

(7)

n
n
= IN
+ EN

N=

(b a)
h

n
EN
= Kn (b a)hm f (m) ()

EJEMPLO:
Hallar la integral de la funci
on F (x), dada en foma tabular, en el intervalo [0.0, 0.6]. Usar la formula
de Newton-Cotes basada en un polinomio de tercer grado (n = 3), tambien conocida como la formula de
Simpson 3/8.
xi

0.0

0.1

0.2

0.3

0.4

0.5

0.6

f (xi )

0.0000

0.0998

0.1987

0.2955

0.3894

0.4794

0.5646

Datos

74

INTERPOLACION, INTEGRACION Y APROXIMACION

CAP.III

FUNDAMENTOS

La expresion para la Regla de Simpson 3/8 correspondiente sera


I=

3
h (f0 + 3 f1 + 3 f2 + 2 f3 + 3 f4 + 3 f5 + f6 )
8

donde h = 0.1. Sustituyendo los valores de la tabla se obtiene que el valor de la integral I es 0.1747.
2.1.2. Extrapolaci
on de Richardson
Si denotamos con I el valor exacto de la integral de la funci
on en un intervalo [a, b] con datos regulares
y luego hacemos la integraci
on numerica del mismo orden n, pero con distintos n
umeros totales de puntos
N1 y N2 en dos oportunidades
n
n
n
n
I = IN
+ EN
= IN
+ EN
(8)
1
1
2
2
Asumiendo que f (m) (1 ) f (m) (2 ), queda que
n
EN
1
n
EN
2

N2
N1

m
=

h1
h2

m
(9)

Substituyendo esta expresion queda

I =


n
IN
1

n
EN
1

n
IN
2

n
EN
1

N1
N2

m
n
EN
=
1

n
n
IN
IN
2
1
1 (N1 /N2 )m

(10)

y resulta la f
ormula de extrapolaci
on de Richardson
n
I = IN

n
n
n
n
IN
IN
IN
(N2 /N1 )m IN
1
2
2
1
=
1 (N1 /N2 )m
(N2 /N1 )m 1

(11)

2.1.3. Algoritmo de Romberg


n+2
Si tomamos N2 = 2 N1 , y aumimos que I = IN
, se obtiene la f
ormula de Romberg
2

n+2
IN
=
2

n
n
2m IN
IN
2
1
2m 1

(12)

Tambien se acostumbra a colocarla como (biparticiones sucesivas)


Ii+1,j+1 =

4j Ii+1,j Ii,j
4j 1

(13)

comenzando con la regla del trapecio (j = 1), y siguiendo j = 1, 2, 3, . . ., i = j, j + 1, . . ., h = (b a)/N


N = 2i , m = n + 1 = 2 j n = 2 j 1. Las diferentes integraciones se ordenan de forma triangular, cada
la i es la bipartici
on de la anterior y las columnas j indican el orden del error.
2.2. DATOS IRREGULARES
Estos metodos se obtienen al hacer pasar un polinomio Pn (x) en diferencias divididas de grado n en
los n + 1 puntos de cada grupo. Cada grupo termina en xi+n donde el siguiente comienza, i = 0 hasta N de
n en n.

SEC. 2.2. DATOS IRREGULARES

75

A. GRANADOS

METODOS NUMERICOS

2.2.1. Polin
omica
La regla del trapecio
xN

y(x) dx =
x0

N
1
(yi + yi1 ) (xi xi1 )
2 i=1

(1)

obtenida al hacer pasar un polinomio P1 (x) por los puntos xi y xi1


La regla de Simpson (N par)
xN

y(x) dx =
x0

N 

i=2
2

(xi xi2 ) (yi1 yi2 )


(xi xi2 ) yi2 +
(xi1 xi2 )
2

(yi yi1 ) (yi1 yi2 )


1
(2 x2i xi xi2 x2i2 + 3 xi1 xi2 3 xi xi1 )
6
(xi xi1 ) (xi1 xi2 )



(2)

obtenida al hacer pasar un polinomio P2 (x) por los puntos xi , xi1 y xi2 .
2.2.2. Cuadratura de Gauss-Legendre
La cuadratura de Gauss-Legendre utiliza los polinomios de Legendre como auxiliares para realizar el
computo de las integrales, adicionalmente utiliza las races de dichos polinomios en el intervalo [-1,1] como
puntos de colocaci
on.
Los polinomios de Legendre son ( Pk (1) = 1, Pk (x) = (1)k Pk (x), Pk (1) = k(k + 1)/2 )
P0 (x) = 1

P1 (x) = x
P5 (x) =

P2 (x) =

1
(3x2 1)
2

1
(63x5 70x3 + 15x)
8

P3 (x) =

1
(5x3 3x)
2

P6 (x) =

1
(231x6 315x4 + 105x2 5)
16

P4 (x) =

1
(35x4 30x2 + 3)
8
(3)

los demas se pueden hallar con las siguientes expresiones


n  2
1 dn
1 n
2
n
Pn (x) = n
[(x 1) ] = n
(x 1)k (x+ 1)nk
k
2 n! dxn
2

2n 1
n1
x Pn1 (x)
Pn2 (x)
Pn (x) =
n
n

k=0

(4)
La primera se conoce como la relacion de recurrencia, la segunda es la f
ormula de Rodriges. Estos polinomios
satisfacen la ortogonalidad dentro del operador integral en el intervalo [-1,1]
Pn , Pm  =

1
1

Pn (x) Pm (x) dx =

si n
= m
2
c(n) =

0 si n = m
=
2n + 1
0

(5)

En general los metodos de cuadratura se formulizan como


b

f (x) dx
a

wi f (xi )

(6)

i=0

Esta expresion es exacta si:


a:) Los xi son prejados y regulares, i = 0, 1, 2, . . . , n, y los n + 1 par
ametros wi pueden ser denidos
suponiendo que f (x) es un polinomio de grado n (cuadratura de Newton).
ametros pueden ser
b:) Los xi como los wi , i = 0, 1, 2, . . . , n, no estan prejados y estos 2n + 2 par
denidos suponiendo que f (x) es un polinomio de grado 2n + 1 (cuadratura de Gauss).
76

INTERPOLACION, INTEGRACION Y APROXIMACION

CAP.III

FUNDAMENTOS

Haciendo el siguiente cambio de variables


z=

2x (a + b)
(b a)

x=

(b a) z + (a + b)
2

dx =

(b a)
dz
2

(7)

el problema de integrar en el intervalo [a, b] en x, se lleva a el problema de integrar en el intervalo [1, 1] en


z. Si utilizamos los polinomios de Lagrange en este u
ltimo intervalo entonces
f (z) = Pn (z)+Rn (z)

Pn (z) =

Li (z) f (zi )

R(z) =

i=0

n


(zzj )

j=0

f (n+1) ()
= Sn+1 (z) Qn (z) (8)
(n + 1)!

donde [1, 1], Sn+1 (z) es un polinomio de grado n + 1, y Qn (z) es un polinomio de grado n.
Para hallar los zi , llamados puntos de colocacion, tales que anulen la integral de Rn (z), vamos a
expandir los polinomios Sn+1 y Qn en terminos de los polinomios de legendre

Sn+1 (z) =

n


(z zj ) =

j=0

n+1

f (n+1) ()
=
bj Pj (z)
(n + 1)!
j=0
n

aj Pj (z)

Qn (z) =

j=0

(9)

Basandonos en la propiedad de ortogonalidad


1
1

Rn (z) dz =

ai b i

i=0

[Pi (z)]2 dz

(10)

Una forma de anular esta expresi


on es especicando que bi = 0 con i = 0, 1, 2, . . . , n, o sea que
Sn+1 (z) =

n


(z zj ) = an+1 Pn+1 (z)

(11)

j=0

Esta u
ltima ecuacion nos indica que an+1 es inverso del coeciente que acompa
na a z n+1 en el polinomio de
Legendre Pn+1 (z) y que las races zi , i = 0, 1, 2, . . . , n de Sn+1 (z) = 0 son las mismas que las del polinomio
de Legendre Pn+1 (z) = 0, con lo cual se obtienen los puntos de colocacion zi .
Entonces la integral de la funci
on de calcula como
b
a

(b a)
f (x) dx =
2

f (z) dz =
1

wi f (zi ) + En

wi =

i=0

Li (z) dz

(12)

donde el error se estima con


En =

22n+3 [(n + 1)!]4


f (2n+2) ()
[(2n + 2)!]3 (2n + 3)

[1, 1]

(13)

i = 0, 1, 2, . . . , n

(14)

y otra forma de calcular wi es


wi =

SEC. 2.2. DATOS IRREGULARES

(n +


2)Pn+1
(zi ) Pn+2 (zi )

77

A. GRANADOS

METODOS NUMERICOS

EJEMPLO:

# /2
Evaluar I = 0 sen x dx usando el metodo de cuadratura de Gauss-Legendre con dos puntos de
colocacion (n = 1). El cambio de variables es
a=0

b=

(z + 1)
4

z1 = 0.57735

z0 = 0.57735
I

x=

dx =

dz
4

w0 = w1 = 1

[sen(0.10566 ) + sen (0.39434 )] = 0.99847


4

con un error de En = 1.53 103 (el valor exacto es 1). Un error equivalente a haber usado simpson 3/8
(polinomio de grado 2n + 1 = 3).
2.3. INTEGRACION MULTIPLE
Sea la siguiente funci
on z = f (x, y) denida en el plano x y de forma discreta donde fi j = f (xi , yj ),
hx = xi+1 xi y hy = yj+1 yj (intervalos regulares).
Hallar la integral
y4

x5

II =

f (x, y) dx dy
y0

(1)

x0

usando las reglas del trapecio en x y la regla de Simpson en y.


Llamemos

x5

I(y) =

f (x, y) dx

(2)

xo

y su aproximaci
on Ij = I(yj ), donde
Ij =

hx
(f0j + 2 f1j + 2 f2j + 2 f3j + 2 f4j + f5j )
2

j = 0, 1, 2, 3, 4

(3)

As se obtiene que
y4

II =
y0

I(y) dy

hy
(I0 + 4 I1 + 2 I2 + 4 I3 + I4 )
3

(4)

3. APROXIMACION
Sea un conjunto de p valores x1 , x2 , x3 , . . ., xp , donde cada xi representa una (m + 1)-upla de la forma
xi = (x1 , x2 , x3 , . . . , xm , xm+1 )i

(1)

con todas sus componentes independientes entre s.


Sea y = f (x) una funci
on escalar que expresa una de las componentes de la (m + 1)-upla en funci
on
de las restantes. Es decir, por ejemplo, que
xm+1 = f (x1 , x2 , x3 , . . . , xm )

(2)

Esto se puede hacer sin perdida de generalidad, puesto que siempre se puede hacer una transformacion del
tipo
= H(x)
x
(3)
78

INTERPOLACION, INTEGRACION Y APROXIMACION

CAP.III

FUNDAMENTOS

i tengan todos sus componentes independientes entre s, al igual que los xi en (1).
tal que los x
Dados los valores xi y denida la funci
on y = f (x), se puede ahora tratar de encontrar una funci
on
de aproximacion Y = F (x, c) dependiente, no s
olo de los x, sino tambien de n par
ametros cj , los cuales son
expresados en la forma de una n-upla como
c = (c1 , c2 , c3 , . . . , cn )

(4)

on
Estos par
ametros c se escogen tales que la funcion Yi = F (xi , c) se aproxime lo mejor posible a la funci
yi = f (xi ), para todos los valores xi , con i = 1, 2, 3, . . . , p.
El metodo de los mnimos cuadrados en particular lo que trata es de encontrar los valores de los
par
ametros c de la funci
on Y = F (x, c), tales que el valor

S=

(Yi yi )2

(5)

i=1

sea el mnimo posible. El valor S representa la sumatoria de todas las desviaciones, entre la funcion denida
para los puntos y la funci
on de aproximaci
on encontrada, al cuadrado.
El valor S se puede interpretar de dos formas posibles. Se puede interpretar como un funcional de la
funci
on F , es decir, S = S(F (x, c), donde a su vez la funci
on F depende de unos par
ametros c que forman
parte de la misma. En este caso el metodo de mnimos cuadrados se convierte en un problema variacional.
El valor S tambien se puede interpretar como una funci
on de los par
ametros, es decir, S = S(c), asumiendo
una funci
on de aproximaci
on ya encontrada. Esta u
ltima forma es la que vamos a interpretar aqu.
Con la aclaratoria precedente, entonces la denicion (5) se puede expresar como

S(c) =

[ F (xi , c) f (xi ) ]2

(6)

i=1

En algunos casos se alteran la desviaciones con una funci


on de peso W (x) para hacer que el ajuste de los
par
ametros tienda a hacer la aproximacion mejor para unos valores de xi que para otros. Esto es
S(c) =

W (x) [ F (xi , c) f (xi ) ]2

(7)

i=1

Sin embargo, todas las deducciones se har


an para el metodo de los mnimos cuadrados expresado como esta
en (6). Extender estos resultados a como esta expresado el metodo en (7) es muy sencillo.
3.1. LINEAL
El metodo de mnimos cuadrados es en s un procedimiento para encontrar el valor mnimo de la
funci
on (6) de S = S(c). Para ello deben encontrarse los valores de cj , tales que hagan las derivadas de S(c)
todas nulas. En otras palabras,
p
$ F %

S
=2
[ F (xi , c) f (xi ) ]
=0
cj
cj xi
i=1

(8)

Las expresiones (8) se denominan Ecuaciones Normales y deben cumplirse simultaneamente para
j = 1, 2, 3, . . . , n. Su nombre se debe a que la derivadas son calculadas para una hipersupercie donde las
direcciones cj son ortogonales entre s y estan evaluadas en un punto c donde todas son nulas. Las direcciones
son ortogonales debido a que los par
ametros cj son todos independientes entre s.
SEC. 3.1. LINEAL

79

A. GRANADOS

METODOS NUMERICOS

Es bueno hacer notar que lo que se halla mediante este procedimiento es un mnimo de la funci
on
escalar S(c) y no un m
aximo, puesto que la funci
on Yi = F (xi , c) puede estar tan alejada de los valores xi
como se quiera, variando los valores de los par
ametros cj .
EJEMPLO:
En el an
alisis de la aproximacion de m
ultiples variables, el metodo de los mnimos cuadrados es utilizada
con bastante frecuencia, para una funci
on de aproximaci
on del tipo F (x, y, a) = a1 + a2 x + a3 y, encuentre el
sistema de ecuaciones lineales a resolver para determinar las constantes de la aproximacion.
Con la siguiente tabla de datos, determine las constantes de la aproximaci
on suponiendo que la funcion
se comporta linealmente en las dos variables independientes.

Datos

xi

1.2

2.1

3.4

4.0

4.2

5.6

5.8

6.9

yi

0.5

6.0

0.5

5.1

3.2

1.3

7.4

10.2

f (xi , yi )

1.2

3.4

4.6

9.9

2.4

7.2

14.3

3.5

1.3

3.1.1. Series de Funciones Bases


El ajuste lineal es el mas empleado y el m
as reportado en la literatura. Su nombre se debe a que la
funci
on de aproximaci
on posee una expresion lineal de la forma

F (x, c) =

ck gk (x)

(9)

k=1

lo que no es mas que una serie de funciones gj (x) todas diferentes entre s, por lo que son consideradas que
forman parte de una base de un espacio de funciones.
Para el caso particular de la funci
on de aproximaci
on denida por (8) se tiene que
F
= gj (x)
cj

(10)

Substituyendo este resultado en la expresion (8) de la sub-secci


on 3.1, junto con la denici
on (1) e intercambiando las sumatorias de k con la sumatoria de i, se obtiene

p 
n

S
=2
ck gk (xi ) f (xi ) gj (xi ) = 0
cj
i=1

(11.a)

k=1

p
n

ck gk (xi ) gj (xi ) =

i=1 k=1
p
n 

f (xi ) gj (xi )

(11.b)

i=1


p

gj (xi ) gk (xi ) ck =
gj (xi ) f (xi )

k=1 i=1

(11.c)

i=1

Al nal queda un sistema de ecuaciones lineales de la forma


n

Ajk ck = bj

[A] c = b

(12)

k=1

80

INTERPOLACION, INTEGRACION Y APROXIMACION

CAP.III

FUNDAMENTOS

donde los elementos de la matriz del sistema y el vector independiente se expresan como
p

Ajk =

gj (xi ) gk (xi )

(13.a)

gj (xi ) f (xi )

(13.b)

i=1

bj =

p

i=1

EJEMPLO:
Hallar la aproximaci
on cuadr
atica para la siguiente tabla de datos

xi

0.05

0.11

0.15

0.31

0.46

0.52

0.70

0.74

0.82

0.98

1.17

f (xi )

0.956

0.890

0.832

0.717

0.571

0.539

0.378

0.370

0.306

0.242

0.104

Datos

Las funciones base son g1 (x) = 1, g2 (x) = x y g3 (x) = x2 . El sistema de ecuaciones toma la forma
11 a1 + 6.01 a2 + 4.65 a3 = 5.905
6.01 a1 + 4.65 a2 + 4.12 a3 = 2.1839
4.65 a1 + 4.12 a2 + 3.92 a3 = 1.3357
el cual tiene como soluci
on a1 = 0.998, a2 = 1.018 y a3 = 0.225.
3.1.2. Series de Polinomios
Como ejemplos de funciones de aproximaci
on m
as utilizadas se tienen las series de funciones polin
omicas
F (x, c) =

ck xk1

(14)

ck cos[(k 1)x]

(15)

k=1

y la serie de funciones trigonometricas


F (x, c) =

n

k=1

Tambien existen series de funciones racionales, hiperb


olicas, polinomios de Chebyshev, polinomios de Legendre, etc. Tambien se pueden tener combinaciones de estas funciones.
3.2. NO LINEAL
En el ajuste no lineal de los par
ametros cj la funci
on de aproximaci
on F (x, c) tiene una expresion
distinta a la expresi
on (1) de la sub-secci
on 3.2, por consiguiente, lo que se obtiene es un sistema de ecuaciones
no lineales en las variable cj que puede ser resuelto con cualquier metodo para tales tipo de sistemas, como,
por ejemplo, el metodo de Newton-Raphson. Sin embargo esto trae como consecuencia que el procedimiento
de mnimos cuadrados se vuelva m
as complicado, ya que hay que calcular la matriz jacobiana del sistema de
funciones no lineales.
Para evitar el incoveniente mencionado se han desarrollado varios metodos, dentro los cuales estan:
- Metodo del m
aximo descenso.
SEC. 3.2. NO LINEAL

81

A. GRANADOS

METODOS NUMERICOS

- Metodo de Gauss-Newton.
- Metodo de Levenberg-Marquardt.
Todos estos metodos se derivan del siguiente an
alisis.
Sea la expansi
on en series de Taylor hasta el termino de primer orden de la funci
on de aproximaci
on
F (xi , c) alrededor de un valor estimado c de los par
ametros. Esto es,
F (xi , c) = F (xi , c ) +

n $

F %
k=1

donde

ck

xi

ck + O( c 2 )

ck = ck ck

(1.a)

(1.b)

Substituyendo este resultado en la expresion (8) de la sub-secci


on 3.1, e intercambiando las sumatorias de k
con la sumatoria de i, se obtiene un sistema de ecuaciones de la forma
p $
p
n &
$ F %


F % $ F % '
ck =
[ F (xi , c ) f (xi ) ]
cj xi ck xi
cj xi
i=1
i=1

(2)

k=1

on del punto valor ck al valor ck , entonces la


Si se supone que las derivadas F/cj no sufren gran variaci
expresion (2) se podra reescribir aproximadamente como
n

Ajk ck = bj

(3.a)

k=1

donde
Ajk =

bj =

p $

F % $ F %
cj xi ck xi
i=1

[ F (xi , c ) f (xi ) ]

i=1

(3.b)

$ F %
cj

xi

(3.c)

Con base en este analisis, entonces se pueden aplicar los diferentes metodos que se explican a continuaci
on.
3.2.1. M
etodo del M
aximo Descenso
El metodo del m
aximo descenso esta basado en el hecho de que
S s
 = bsj
cj

(4)

Es decir, que S(cs ) se incrementa en la direccion indicada por el gradiente (4). Si se escoge una direccion
cs opuesta a este gradiente tal que
(5)
csj = bsj
se obtendr
a el maximo descenso de la funci
on S(c).
La expresion (5) se puede reescribir como
n

s
Djk
csk = bsj

(6)

k=1

82

INTERPOLACION, INTEGRACION Y APROXIMACION

CAP.III

FUNDAMENTOS

donde
s
Djk
= jk

(7)

cs+1 = cs + cs+1

(8)

y se tiene que
s
tenga dimensiones
Sin embargo, el metodo puede ser modicado de manera tal que la matriz Djk
acorde con la funci
on S(c), y, por consiguiente, se puede hacer
s
Djk
= As jk

(9)

El valor de se modica de igual forma que el metodo de Gauss-Newton para asegurar la convergencia, pero por el contrario el metodo del m
aximo descenso converge muy lentamente y por lo tanto no es
recomendable su uso.
3.2.2. M
etodo de Gauss-Newton
El metodo de Gauss-Newton consiste en un procedimiento iterativo que se origina a partir de las
expresiones (1) junto con la denicion (3.b). De esta forma resulta el siguiente algoritmo iterativo con s como
indicador del n
umero de la iteraci
on
n

Asjk csk = bsj
(10)
k=1

donde
Asjk =

bsj

p $

F %s $ F %s
cj xi ck xi
i=1

[ F (xi , cs ) f (xi ) ]

i=1

(11.a)

$ F %s
cj

xi

(11.b)

y luego se obtiene
cs+1 = cs + cs

(12)

La expresion (10) representa un sistema de ecuaciones lineales que se resuelve en cada iteracion s,
conociendo los parametros cs . Despues se substituye este resultado en la expresion (12) para obtener los
ametros en la siguiente iteracion. El procedimiento se contin
ua hasta obtener convervalores cs+1 de los par
gencia hacia la solucion c de las ecuaciones normales (8) de la sub-seccion, aplicando un criterio de parada
de la forma
(13)
cs < max
en el error local de las variables cs y donde max es la tolerancia permitida para dicho error local.
Frecuentemente es recomendable alterar el algoritmo relajandolo en la forma
cs+1 = cs + cs

(12 )

para asegurar la convergencia del proceso iterativo. Aqu es el factor de relajaci


on y en cada iteracion se
altera
<1
(14)
 =
de manera de garantizar que dentro de esa iteracion se cumpla que
S(cs+1 ) < S(cs )

(15)

Recuerdese que lo que se esta buscando es el valor de c para que la funci


on S(c) se haga mnima.
SEC. 3.2. NO LINEAL

83

A. GRANADOS

METODOS NUMERICOS

Si la relacion (15) se cumple en una iteracion, entonces en la siguiente iteracion se permite un incremento de en la forma
>1
(14 )
 =
Normalmente se emplean los valores de = 0.5 y = 2, para producir el efecto de una b
usqueda del

optimo mediante la biseccion consecutiva de los intervalos [csk , csk + csk ], comenzando con un = 1.
Cuando las derivadas de las expresiones (11) se hacen complicadas de calcular, estas pueden ser
obtenidas numericamente de la siguiente forma
$ F %s
cj

xi

F (xi , cs ) F (xi , cs1


(j) )
csj cs1
j

(16.a)

donde
s1
s s s
F (xi , cs1
, . . . , csn )
(j) ) = F (xi , c1 , c2 , c3 , . . . , cj

(16.b)

3.2.3. M
etodo de Levenberg-Marquardt
La formula algortmica del metodo de Levenberg-Marquardt es la siguiente [Levenberg,(1944)]
n

s
(Asjk + Djk
) csk = bsj

(17)

k=1

cs+1 = cs + cs

(18)

donde el factor funciona similar a un factor de relajacion y le da al metodo de Marquardt un car


acter
hibrido donde existe un compromiso entre el metodo del m
aximo descenso y el metodo de Gauss-Newton.
Cuando 0, la direcci
on del metodo se dirije hacia el metodo de Gauss-Newton. Cuando , la
direccion del metodo se dirije hacia el metodo del m
aximo descenso.
Los estudios de Marquardt [(1963)] indican que el metodo posee un angulo promedio entre los metodos
de Gauss-Newton y M
aximo Descenso de 90 . La seleccion de un entre 0 e produce una direccion
intermedia.
Para efectos de garantizar la convergencia en cada iteraci
n se altera el factor de la forma
 = /

<1

(19)

hasta que se cumpla dentro de la misma iteraci


on que
S(cs+1 ) < S(cs )

(15)

Una vez satisfecha la relacion anterior en una iteraci


on se puede disminuir en la siguiente iteraci
on de
manera que
>1
(19 )
 = /
Notese que incrementar en el metodo de Marquardt es equivalente a disminuir en el metodo de GaussNewton.
Normalmente, se toman los valores de inicial = 103 , = 0.1 y = 10.
Cuando en varias iteraciones consecutivas el metodo mejora su convergencia, es decir se cumple la
relacion (15), entonces 0, y esencialmente se estara empleando el metodo de Gauss-Newton. Si la
convergencia no mejora, por el contrario, se incrementa y se estara usando pr
acticamente el metodo del
M
aximo Descenso.

84

INTERPOLACION, INTEGRACION Y APROXIMACION

CAP.III

FUNDAMENTOS

3.3. EVALUACION
La evaluacion del ajuste viene dada mediante el an
alisis de de ciertos factores que permiten, por un lado
comparar cuan bueno es un ajuste en relaci
on a otro, y por otro lado comparar cuando un ajuste reproduce
bien el conjunto de puntos de datos.
Estas cantidades y coecientes son los siguientes:
Suma de los cuadrados de las desviaciones con respecto a la funcion de aproximaci
on o suma de las
desviaciones con respecto a la funcion de aproximaci
on

S(c) =

i2

=
S(c)

i=1

i = F (xi , c) f (xi )

(1)

i=1

Media de la variable dependiente o media de las desviaciones

fm

p
1
=
f (xi )
p i=1

S(c)
p

m =

(2)

Suma de los cuadrados de las desviaciones con respecto a la media de la variable dependiente o
desviaciones respecto a la desviacion media

Sm =

[ f (xi ) fm ]2

Sm =

i=1

(i m )2

(3)

i=1

on de aproximaci
on
Desviacion est
andar () o varianza ( 2 ) con respecto a la funci
(
=

S
pn

(4)

2
Desviacion est
andar (m ) o varianza (m
) con respecto a la media fm o la media m

(
m =

Sm
p1

m =

Sm
p1

(5)

Coeciente de determinacion (r2 ) o coeciente de correlacion (r). r2 indica el porcentaje de la incertidumbre inicial que ha sido disminuido usando la funci
on de aproximaci
on
r2 =

Sm S
Sm

r2 =

Sm S
Sm

(6)

En algunas literaturas denen el coeciente de determinaci


on (R2 ) o coeciente de correlacion (R) de
la siguiente forma alternativa
m
m
2 =
R
R2 =
(7)
m

m
Coeciente de variacion
Cv =
SEC. 3.3. EVALUACION

m
fm

m
Cv =
m

(8)
85

A. GRANADOS

METODOS NUMERICOS

Desviacion RMS (Root of the Mean Square).


(
rms =

S
p

(9)

Desviacion m
axima.
max = max |F (xi , c) f (xi )| = max |i |
1ip

(10)

1ip

En la desviacion est
andar , la cantidad S esta dividida por (p n), debido a que n par
ametros
(c1 , c2 , c3 , . . . , cn ), derivados de los datos originales (x1 , x2 , x3 , . . . , xp ), fueron usados para computar S(c).
De aqu que se hallan perdido n grados de libertad en la probabilidad.
En la desviacion est
andar m , la cantidad Sm esta dividida por (p 1), debido a que la media de la
variable dependiente, fm , la cual se deriv
o de los datos originales (x1 , x2 , x3 , . . . , xp ), fue usada para computar
Sm . De aqu que se halla perdido un grado de libertad.
on
La desviacion est
andar m debe ser mayor que , de otra forma no se justica el uso de la funci
on a los datos que la funci
on de aproximaci
on
de aproximacion, y la media fm da una mejor aproximaci
propuesta. Los an
alisis con las cantidades con barra son con respecto al curva F (x, c) en s y los sin barras
son con respecto a la media fm . Normalmente
m es mucho menor que m , pero cuando son comparables
signica que los datos estan muy dispersos y no siguen una tendencia marcada por alguna curva propuesta
como modelo. En este caso es conveniente pre-procesar los datos para eliminar el ruido (noise) y realizar el
ajuste a posteriori con un modelo o curva mas aceptable. Las desviacione m y
m son ambas mayores que
, al igual que Sm y Sm respecto a S, lo que hace que los coeciente r2 y R2 , con y sin barras, sean levemente
inferiores a la unidad.
La funci
on de aproximaci
on que mejor se ajusta a los datos originales (x1 , x2 , x3 , . . . , xp ), no es aquella
que ofrece un menor valor de S, sino aquella que brinda una menor desviacion est
andar , con respecto a la
2 , es el mas adecuado para
funci
on de aproximaci
on. Esto implica que el coeciente de determinacion R2 o R
la evaluacion del ajuste, mejor cuando sea mas cercano a la unidad por debajo, normalmente expresado de
forma porcentual multiplicando su valor por 100.
El coeciente de variacion Cv nos brinda una medida normalizada de cual es la dispersi
on de los
datos originales y normalmente se da en forma porcentual. Cuando la dispersi
on de los datos es muy grande
signica que los puntos est
an muy dispersos y si se gracan formar
an una nube ancha alrededor de cualquier
correlacion que se trate de hallar. En este caso, la mejor correlacion la ofrecera la media fm .
La desviacion RMS y la desviacion m
axima dependen del ajuste particular que se esta realizando. La
desviacion RMS se puede interpretar como una desviacion promedio del ajuste, pero siempre es menor que el
valor absoluto que la desviacion media. La desviaci
on m
axima max acota cu
anto va a hacer el mayor error
cometido con el ajuste. Entre mayor sea la diferencia entre estas dos desviaciones rms y max , mejor sera el
ajuste por s mismo.
m . Este procediUna forma de optimizar el ajuste es descartar aquellos puntos para los cuales |i | >
miento aumenta los coecientes de correlacion r y R, con y sin barra.
BIBLIOGRAFIA
[1] Burden R. L.; Faires, J. D. Numerical Analysis. 3rd Edition. PWS (Boston), 1985.
[2] Carnahan, B.; Luther, H. A.; Wilkes, J. O. Applied Numerical Methods. John Wiley & Sons (New
York), 1969.
[3] Chapra, S. C.; Canale, R. P. Numerical Methods for Engineers, with Personal Computer Applications. McGraw-Hill Book Company, 1985.
[4] Gerald, C. F. Applied Numerical Analysis, 2nd Edition. Addison-Wesley (New York), 1978.
86

INTERPOLACION, INTEGRACION Y APROXIMACION

CAP.III

FUNDAMENTOS

[5] Granados M., A. L. Nuevas Correlaciones para Flujo Multif


asico. INTEVEP S.A. Reporte
Tecnico No. INT-EPPR/322-91-0001. Los Teques, Febrero de 1991. Trabajo presentado en la Conferencia sobre: Estado del Arte en Mecanica de Fluidos Computacional. Auditorium de INTEVEP S.A.
Los Teques, del 27 al 28 de Mayo de (1991).
[6] Granados M., A. L. Free Order Polynomial Interpolation Algorithm. INTEVEP S.A. Nota
Tecnica. Los Teques, Julio de 1991.
[7] Hildebrand, F. B. Introduction to Numerical Analysis. McGraw-Hill (New York),1956.
[8] Levenberg, K. A Method for the Solution of Certain Non-Linear Problems in Least Squares. Quarterly of Applied Mathematics, Vol.2, pp.164168, (1944).
[9] Marquardt, D. An Algorithm for Least Squares Estimation of Non-Linear Parameters. SIAM J.
Appl. Math., Vol.11, No.2, pp.431-441, (1963).
[10] Nocedal, J.; Wright, S. J. Numerical Optimization, 2nd Edition. Springer (New York), 2006.

SEC. 3.3. EVALUACION

87

CAPITULO IV
ECUACIONES
DIFERENCIALES
ORDINARIAS
CONTENIDO
1. PROBLEMA DE VALOR INICIAL.
1.1. Metodo de un Solo Paso.

90
90

1.1.1. Metodo de Euler.

90

Simple.
Modicado.

90
91

1.1.2. Metodo de Taylor.

92

1.1.3. Metodo Runge-Kutta.


Segundo Orden.

93
93

Tercer Orden.

93

Cuarto orden.
Quinto orden.

94
95

1.2. Notaci
on de Butcher.

96

1.3. Control del Paso.


1.3.1. An
alisis del Error.

100
100

1.3.2. Algoritmo de Control.

103

1.4. Metodos de Pasos M


ultiples.
1.4.1. Adams-Bashforth.

104
104

1.4.2. Adams-Moulton.

105

2. PROBLEMA DE VALOR EN LA FRONTERA.


2.1. Transformacion.
2.2. Disparo.

105
106
106

2.3. Discretizaci
on.
3. SISTEMAS DE ECUACIONES.

107
107

3.1. Fundamentos.

108

3.2. Metodos Explcitos.

111

3.2.1. Cuadratura de Kutta.


3.2.2. Extrapolaci
on de Lagrange.

111
113

3.3. Metodos Implcitos.

114

3.3.1. Cuadratura de Gauss.

114
89

A. GRANADOS

METODOS NUMERICOS

3.3.2. Cuadratura de Lobatto.


Proceso Iterativo.
3.3.3. Resuelto con Newton-Raphson.
Implcito Parcial.
Implcito Total.
3.4. Estabilidad.
3.5. Resultados.
BIBLIOGRAFIA.

114
116
118
120
120
121
123
126

1. PROBLEMA DE VALOR INICIAL


Un problema de ecuacion diferencial ordinaria (ODE - Ordinary Diferential Equation) con valor inicial
de primer orden de dene como
dy
= f (x, y)
dx

x = x0

y(x0 ) = y0

(1)

donde y(x) : R R es la soluci


on que se desea encontrar, conocido su valor en un punto y(x0 ) = y0
denominado valor inicial. En teora la soluci
on se puede encontrar hacia adelante o hacia atr
as del punto
inicial.
Un sistema de ecuaciones diferenciales ordinarias con valor inicial de primer orden de igual manera se
dene como
dy
= f (x, y)
x = x0
y(x0 ) = y0
(2)
dx
donde y(x) : R RM es la soluci
on que se desea encontrar, conocido su valor en un punto y(x0 ) = y0
denominado igualmente valor inicial (aunque en realidad sean M valores denidos en un u
nico punto x = x0 ).
Al igual que antes se puede encontrar hacia adelante o hacia atr
as del punto inicial. Estos sistemas se trataran
mas extensamente en la seccion 3.
1.1. METODOS DE UN SOLO PASO
Los metodos de un s
olo paso se basan en que, a partir de un valor inicial y0 , se encuentran valores
consecutivos y1 , y2 , y3 , . . ., tales que cada valor yn+1 se obtiene del inmediatamente anterior yn , donde
xn+1 = xn + h, siendo h el tama
no del paso. Se hace un avance o integraci
on en el paso a la vez, pudiendose
utilizar un tama
no del paso h igual o diferente en cada avance. Si se desea un avance hacia atr
as basta con
escoger un valor negativo para h.
Metodos m
as complejos como el metodo de Taylor o Runge-Kutta ser
an considerado tambien metodo
de un solo paso.
1.1.1. M
etodo de Euler
El metodo de Euler es el m
as sencillo de todos los metodos de un solo paso. Su f
ormula algortmica se
basa en hallar una pendiente de recta apropiada para saltar cada paso.
Simple
El metodo de Euler simple se basa en que el valor siguiente yn+1 se obtiene de yn a partir de
yn+1 = yn + h f (xn , yn ) + O(h2 )

(3)

1
90

ECUACIONES DIFERENCIALES ORDINARIAS

CAP.IV

FUNDAMENTOS

En el extremo derecho se ha colocado este metodo en la notaci


on de Butcher que se vera en la seccion 1.1.4.
on
El valor f (xn , yn ) es la pendiente de recta de la solucion en el punto xn , como indica (1). La soluci
numerica viene a ser polgono de tramos rectos cada uno con una pendiente diferente en el punto precedente
yn .
EJEMPLO:
De forma de ilustrar el uso del metodo, se presenta la soluci
on para la siguiente ecuaci
on diferencial
dy
= ky
dx

con

y(0) = 1

cuya soluci
on analtica es y = exp(kt). Utilizando el metodo de Euler vericar la exactitud de la soluci
on
propuesta, se evalua la expresion obtenida para un valor de k = 1 y los valores obtenidos se presentan en la
siguiente tabla con distintos pasos de integraci
on h
Resultados
yn
xn

h = 0.2

h = 0.1

h = 0.05

ex

0.0

1.000

1.000

1.000

1.000

0.1

1.100

1.103

1.105

0.2

1.200

1.210

1.216

1.221

0.4

1.440

1.464

1.478

1.492

0.8

2.072

2.143

2.184

2.226

1.0

2.487

2.593

2.654

2.718

En la tabla es posible apreciar que cuanto menor es el paso de integracion, menores son los errores.
Modicado
El metodo de Euler se modica de dos maneras distintas a saber. La primera forma (metodo de Heun)
se formula en la siguientes dos expresiones
yn+1 = yn + h f (xn , yn ) + O(h2 )
yn+1 = yn +

0
1

h
[f (xn , yn ) + f (xn+1 , yn+1 )] + O(h3 )
2

0
1

0
0

(4)

1/2 1/2

La primera f
ormula es la de Euler simple (3) y se usa como predictora, la segunda f
ormula utiliza una
pendiente de recta promedio entre los puntos de xn y xn+1 y se usa como correctora. Del lado derecho se
coloca en la notacion de Butcher. Cuando se corrige una s
ola vez, el metodo se considera explcito. Cuando
se corrige mas de una vez, el metodo se considera implcito y en la matriz de Butcher habra que cambiar el
1 de la posici
on a21 a a22 .
La segunda forma (metodo del polgono) se formula con las siguientes dos expresiones
h
f (xn , yn ) + O(h2 )
2
= yn + h f (xn+1/2 , yn+1/2 ) + O(h3 )

yn+1/2 = yn +
yn+1

SEC. 1.1. METODOS DE UN SOLO PASO

0
1/2

0
1/2

0
0

(5)

91

A. GRANADOS

METODOS NUMERICOS

La primera f
ormula es la Euler simple (3) usada para estimar el punto medio yn+1/2 con h/2, donde luego
se utiliza la pendiente del punto medio f (xn+1/2 , yn+1/2 ) para con Euler simple de nuevo calcular yn+1 . Del
lado derecho esta la notaci
on de Butcher para este metodo.
La diferencia entre estos dos metodos en la forma como se calcula la pendiente usada. En la primera
forma es la media de las pendientes (inicial y nal), en la segunda forma es la pendiente del punto medio.
Los ordenes de los errores locales son de h3 para los metodos modicados, a diferencia del metodo de Euler
simple que era de h2 .
1.1.2. M
etodo de Taylor
El metodo de Taylor se basa en la expansi
on de series de Taylor
yn+1 = yn + h y  (xn ) +

1 2 
1
1 P (P )
h y (xn ) + h3 y  (xn ) + +
h y (xn ) + O(hP +1 )
2!
3!
P!

(6)

donde las diferentes derivadas se calculan aplicando la regla de la cadena, puesto que
y  (x) = f (x, y)

y  (x) = fx + fy y 

y  (x) = fxx + fyx y  + fy y  + fyy (y  )2

(7)

etc. y deben evaluarse en x = xn .


EJEMPLO:
De forma de ilustrar el uso del metodo, se presenta la soluci
on para la siguiente ecuaci
on diferencial
dy
= ky
dx

con

y(0) = 1

cuya soluci
on analtica es y = exp(kt). Utilizando el metodo de Taylor se deben evaluar las derivadas primera,
segunda y sucesivas, por lo cual, derivando la ecuacion diferencial, se obtiene
dn y
= kn y
dxn
Para vericar la exactitud de la soluci
on propuesta, se evalua la expresion obtenida para un valor de k = 1
y los valores obtenidos se presentan en la siguiente tabla
Resultados
yn
xn

P =1

P =3

P =5

ex

0.0

1.000

1.000

1.000

1.000

0.1

1.100

1.105

1.105

1.105

0.2

1.200

1.221

1.221

1.221

0.3

1.300

1.350

1.350

1.350

0.5

1.500

1.646

1.649

1.649

1.0

2.000

2.667

2.717

2.718

2.0

3.000

6.333

7.267

7.389

En la tabla es posible apreciar dos caractersticas sumamente importantes del metodo de Taylor, una
de ellas es que a medida que nos alejamos del centro de la serie para un valor de P jo, los errores con
92

ECUACIONES DIFERENCIALES ORDINARIAS

CAP.IV

FUNDAMENTOS

respecto a la solucion exacta tienden a incrementarse; y la segunda es que a medida que el valor de P se
incrementa para un mismo valor de x, la solucion obtenida se acerca rapidamente a la soluci
on exacta.
1.1.3. M
etodo Runge-Kutta
Un metodo Runge-Kutta al igual que los meetodos anteriores son metodos de un solo paso. Un metodo
de N etapas y orden P tiene la siguiente formula algortmica
yn+1 = yn + h N (xn , yn ) + O(hP +1 )

(8)

donde (xn , yn ) es la ponderaci


on de varias pendientes de recta ks en el intervalo [xn , xn+1 ]
N

N (xn , yn ) = c1 k1 + c2 k2 + c3 k3 + + cN kN

cs = 1

(9)

s=1

y las variables auxiliares ks se denen como


k1 = f (xn , yn )
k2 = f (xn + b2 h, yn + h a21 k1 )
k3 = f (xn + b3 h, yn + h a31 k1 + h a32 k2 )
(10)

k4 = f (xn + b4 h, yn + h a41 k1 + h a42 k2 + h a43 k3 )


..
.

..
.

xN = f (xn + bN h, yn + h aN 1 k1 + h aN 2 k2 + + h aN,N 1 kN 1 )
No siempre el n
umero de etapas coincide con el orden.
Segundo Orden
Este metodo coincide con el metodo de Euler modicado tipo Heun con una sola correci
on (secci
on
1.1.1 Modicado)
k1 = f (xn , yn )
k2 = f (xn + h, yn + h k1 )
yn+1

0
1

h
= yn + (k1 + k2 ) + O(h3 )
2

0
1

0
0

(11)

1/2 1/2

El metodo de Ralston es
k1 = f (xn , yn )
k2 = f (xn + 3h/4, yn + h 3k1 /4)
yn+1

0
3/4

h
= yn + (k1 + 2 k2 ) + O(h3 )
3

0
3/4

0
0

(12)

1/3 2/3

Tercer Orden
El metodo de Ralston & Rabinowitz es el siguiente
k1 = f (xn , yn )
k2 = f (xn + h/2, yn + h k1 /2)
k3 = f (xn + h, yn h k1 + 2 h k2 )
yn+1 = yn +

h
(k1 + 4 k2 + k3 ) + O(h4 )
6

SEC. 1.1. METODOS DE UN SOLO PASO

0
1/2
1

0
1/2
1

0
0
2

0
0
0

(13)

1/6 2/3 1/6


93

A. GRANADOS

METODOS NUMERICOS

Cuarto Orden
El metodo de Kutta del primer tipo es
k1 = f (xn , yn )
k2 = f (xn + h/2, yn + h k1 /2)
k3 = f (xn + h/2, yn + h k2 /2)
k4 = f (xn + h, yn + h k3 )
yn+1 = yn +

0
1/2

0
1/2

0
0

0
0

0
0

1/2
1

0
0

1/2
0

0
1

0
0

h
(k1 + 2 k2 + 2 k3 + k4 ) + O(h5 )
6

(14)

1/6 1/3 1/3 1/6

EJEMPLO:
De forma de ilustrar el uso del metodo, se presenta la soluci
on para la siguiente ecuaci
on diferencial
dy
= ky
dx

con

y(0) = 1

cuya soluci
on analtica es y = exp(kt). Utilizando el metodo de Kutta del primer tipo.
Para vericar la exactitud de la soluci
on propuesta, se eval
ua la expresion obtenida para un valor de
k = 1 y los valores obtenidos se presentan en la siguiente tabla
Resultados
yn
xn

h = 0.1

h = 0.5

ex

0.0

1.0

1.0

1.0

0.1

1.10517

1.1057

0.2

1.22140

1.22140

0.5

1.64844

1.64872

1.0

2.71781

2.71828

En la tabla anterior se evidencia la precision del metodo de Runge-Kutta de cuarto orden cl


asico de
tipo explicito, que a
un incrementando el paso cinco veces puede estimar valores con bastante precision. Esta
caracterstica es propia de la mayoria de los metodos de esta familia, por lo cual son los mas populares para
hallar la soluci
on numerica de ecuaciones diferenciales ordinarias.
El metodo de Kutta del segundo tipo es
k1 = f (xn , yn )
k2 = f (xn + h/3, yn + h k1 /3)
k3 = f (xn + 2h/3, yn h k1 /3 + h k2 )
k4 = f (xn + h, yn + h k1 h k2 + h k3 )
yn+1 = yn +
94

h
(k1 + 3 k2 + 3 k3 + k4 ) + O(h5 )
8

0
1/3

0
1/3

0
0

0
0

0
0

2/3
1

1/3
1

1
1

0
1

0
0

1/8

(15)

3/8 3/8 1/8

ECUACIONES DIFERENCIALES ORDINARIAS

CAP.IV

FUNDAMENTOS

Existen metodos con coecientes ex


oticos como el metodo de Gill
0
1/2

0
1/2

0
0

1/2

1+ 2
2

2 2
2

22

2 2
6

0
1/6

0
0

0
0

(16)

2+ 2
2

2+ 2
6

0
1/6

Los valores de los coecientes estan alrededor de los coecientes del metodo de Kutta del primer tipo (13).
Un metodo de 5 etapas pero tambien de cuarto orden es el metodo de Merson
k1 = f (xn , yn )
k2 = f (xn + h/3, yn + h k1 /3)
k3 = f (xn + h/3, yn + h k1 /6 + h k2 /6)
k4 = f (xn + h/2, yn + h k1 /8 + h 3k3 /8)
k5 = f (xn + h, yn + h k1 /2 h 3k3 /2 + h 2k4 )
yn+1 = yn +

h
(k1 + 4 k4 + k5 ) + O(h5 )
6

0
1/3

0
1/3

0
0

0
0

0
0

0
0

1/3

1/6 1/6

1/2

1/8

3/8

1/2

3/2

1/6

(17)

2/3 1/6

cuyo error de truncamiento local se conoce en funcion de las ks


n+1 =

1
(2 k1 9 k3 + 8 k4 k5 ) = O(h5 )
30

(18)

Quinto Orden
El metodo de Butcher es. Aqui se cumple que el n
umero de etapas N = 6 y el orden P = 5 no
coinciden.
k1 = f (xn , yn )
k2 = f (xn + h/4, yn + h k1 /4)
k3 = f (xn + h/4, yn + h k1 /8 + h k2 /8)
k4 = f (xn + h/2, yn h k2 /2 + h k3 )
k5 = f (xn + 3h/4, yn + h 3k1 /16 + h 9k4 /16)
k6 = f (xn + h, yn h 3k1 /7 + h 2k2 /7 + h 12k3 /7 h 12k4 /7 + h 8k5 /7)
yn+1 = yn +

h
(7 k1 + 32 k3 + 12 k4 + 32 k5 + 7 k6 ) + O(h6 )
90

SEC. 1.1. METODOS DE UN SOLO PASO

95

A. GRANADOS

METODOS NUMERICOS

0
1/4

0
1/4

0
0

0
0

0
0

0
0

0
0

1/4

1/8

1/8

1/2

1/2

3/4

3/16

9/16

3/7

2/7

12/7

12/7

8/7

7/90

16/45

2/15

(19)

16/45 7/90

1.2. NOTACION DE BUTCHER


Como es bien conocido, todo sistema de ecuaciones diferenciales de cualquier orden, con un conveniente
cambio de variables, puede ser transformado en un sistema de ecuaciones diferenciales de primer orden
[Gerald,1979][Burden & Faires,1985]. Por esta raz
on, estos u
ltimos sistemas son los que se estudiaran en esta
parte.
Sea el siguiente sistema de M ecuaciones diferenciales de primer orden
dy i
= f i (x, y)
dx

i = 1, 2, 3, . . . , M

(1)

siendo y una funci


on M -dimensional con cada una de sus componentes dependiendo de x. Esto es

donde

dy
= f (x, y)
dx

(2)

y = y(x) = (y 1 (x), y 2 (x), y 3 (x), . . . , y M (x))

(3)

olo de la variable y i , se dice que el sistema esta desacoplado,


Cuando cada funci
on f i (x, y) depende s
de lo contrario se dice que est
a acoplado. Si el sistema est
a desacoplado, entonces cada una de las ecuaciones
diferenciales se puede resolver separadamente.
Cuando las condiciones de las soluci
on de y(x) son conocidas en un u
nico punto, por ejemplo
x = xo

y i (xo ) = yoi

(4)

las expresiones (1) y (4) se dicen que conforman un problema de valor inicial, de lo contrario se dice que
es un problema de valor en la frontera.
En realidad, el sistema (1) es una caso particular del caso mas general expresado de la siguiente forma
[Burden & Faires,1985][Gear,1971]
dy
= f (y)
dx

dy i /dx = 1
dy i /dx = f i (y)

if i = 1
if i = 2, 3, . . . , M + 1

(5)

pero con el adicional cambio de variable yo1 = xo en (4).


Tratando de hacer una formulaci
on general, se puede plantear al metodo Runge-Kutta de orden P y
equipado con N etapas con la siguiente expresion [Gear,1971]
i
yn+1
= yni + cr h kri

(6.a)

donde las variables M -dimensionales auxiliares bf kr son calculadas de la forma


kri = f i (xn + br h, yn + ars h ks )
96

ECUACIONES DIFERENCIALES ORDINARIAS

(6.b)
CAP.IV

FUNDAMENTOS

para
i = 1, 2, 3, . . . , M

r, s = 1, 2, 3, . . . , N

(6.c)

N
otese que se ha usado la notaci
on indicial, de manera que si un ndice aparece dos veces (o mas) en un
termino, se debe realizar una sumatoria en todo su rango (en este contexto, no es importante el n
umero de
factores con el mismo ndice en cada termino).
Un metodo Runge-Kutta (6) tiene orden P , si para un problema lo sucientemente suave del tipo (2)
y (4), se tiene que
y(xn + h) yn+1 () hP +1 = O(hP +1 )

[xn , xn + h],

(7)

es decir, si la expansi
on en series de Taylor para la soluci
on exacta y(xn + h) del problema y la soluci
on
P
aproximada yn+1 coinciden hasta (e incluyendo) el termino del orden de h [Lapidus & Seinfeld,1971].
El metodo Runge-Kutta antes denido se puede aplicar para resolver un problema de valor inicial y se
usa recurrentemente. Dado un punto (xn , yn ), el punto siguiente (xn+1 , yn+1 ) se obtiene usando la expresion
(6), siendo
xn+1 = xn + h
(8)
y h el paso del metodo. Cada vez que se hace este procedimiento, el metodo avanza hacia adelante (
o hacia
atr
as si h es negativo) un paso de integracion h en x, ofreciendo la solucion en puntos consecutivos, uno para
cada salto. De esta forma, si el metodo comienza con el punto (x0 , y0 ) denido por (4), entonces luego se
pueden calcular (x1 , y1 ), (x2 , y2 ), (x3 , y3 ), . . . , (xn , yn ), y continuar de esta forma, hasta la frontera deseada en
x. Cada integraci
on o salto el metodo se reinicializa con la informacion del punto precedente inmediatamente
anterior, por ello el metodo Runge-Kutta se considera dentro del grupo de metodos denominados de un solo
paso. No obstante, se debe notar que las variables auxiliares kri son calculadas para todo r hasta N en cada
paso. Estos calculos no son mas que evaluaciones de f i (x, y) para puntos intermedios x + br h en el intervalo
[xn , xn+1 ] (0 br 1), pero pre-multiplicadas por h (esta multiplicacion por h puede hacerse al nal, lo que
hace al metodo mas eciente). La evaluaci
on de cada variable M -dimensional auxiliar kr , representa una
etapa del metodo.
Ahora se introduce una representacion condensada del metodo Runge-Kutta generalizado, originalmente desarrollada por Butcher [1964]. Esta representacion matricial del metodo Runge-Kutta se presenta de
forma sistematica en las referencias [Lapidus & Seinfeld,1971], [Hairer et al.,1987] y [Hairer & Wanner,1991],
siendo las dos u
ltimas un par de cat
alogos de todos los metodos Runge-Kutta imaginables. Despues del
artculo de Butcher [1964] se ha vuelto costumbre simbolizar un metodo Runge-Kutta (6) con valores ordenados de forma tabular. Con la nalidad de ilustrar la notacion de Butcher, como se le denomina actualmente,
considerese (6) aplicado a un metodo de cuatro etapas (N = 4). Acomodando los coecientes ars , br y cr de
forma ordenada como en la siguiente tabla matricial
b1
b2
b3
b4

a11
a21
a31
a41

a12
a22
a32
a42

a13
a23
a33
a43

a14
a24
a34
a44

c1

c2

c3

c4

0 br 1
N

ars = br

s=1
N

(9)

cr = 1

r=1

con valores particulares, se obtiene la notacion de Butcher del metodo en particular.


La representaci
on anterior permite hacer una distinci
on b
asica para los distintos metodos Runge-Kutta,
de acuerdo a las caractersticas de la matriz ars : Si ars = 0 para s r, entonces la matriz ars es triangular
inferior, excluyendo la diagonal principal, y el metodo se clasica como completamente explcito. Si, ars = 0
para s > r, entonces la matriz ars es triangular inferior, pero incluyendo la diagonal principal, y el metodo
se clasica como semi-implcito
o simple-diagonalmente implcito. Si la matriz ars es diagonal por bloques,
SEC. 1.2. NOTACION DE BUTCHER

97

A. GRANADOS

METODOS NUMERICOS

se dice que el metodo es diagonalmente implcito (por bloques). Si la primera la de la matriz ars esta
llena de ceros, a1,s = 0, y el metodo es diagonalmente implcito, entoces se denomina metodo de Lagrange
[van der Houwen & Sommeijer,1991] (los coecientes br pueden ser arbitrarios). Si un metodo de Lagrange
tiene bN = 1 y la u
ltima la es el arreglo aN,s = cs , entonces el metodo se dice que es rgidamente preciso.
Si, contrariamente, ninguna de las condiciones previas son satisfechas, el metodo se clasica de implcito.
Cuando ning
un elemento de la matriz ars es nulo, se dice que el metodo es completamente implcito. En
los casos de los metodos Runge-Kutta implcitos, se debe hacer notar que una variable auxiliar kr puede
depender de ella misma y de otras variables auxiliares no calculadas hasta el momento en la misma etapa.
Es por ello, que estos metodos se llaman implcitos en estos casos.
Adicionalmente, la representaci
on arriba descrita, permite vericar muy f
acilmente las propiedades que
los coecientes ars , br , y cr deben tener. En particular, se deben satisfacer las siguientes propiedades
0 br 1

ars s = br

cr r = 1

(10.a, b, c)

donde el vector es unitario en todas sus componentes (r = 1 r = 1, 2, 3, . . . , N ). Las anteriores propiedades


pueden interpretarse de la siguiente manera: La propiedad (10.a) expresa que el metodo Runge-Kutta es un
metodo de un s
olo paso, y que las funciones f i (x, y(x)) en (6.b) deben ser evaluadas para x [xn , xn+1 ].
La propiedad (10.b) resulta de aplicar el metodo Runge-Kutta (6) a un sistema de ecuaciones diferenciales
del tipo (5), donde ks1 = 1 s = 1, 2, 3, . . . , N , y as la suma de ars en cada lnea r ofrece el valor de br . La
i
propiedad (10.c) signica que en la expresion (6.a), el valor de yn+1
es obtenido del valor de yni , proyectando
con h un promedio de las derivadas dy i /dx = f i (x, y) en los puntos intermedio del paso. Este promedio se
hace con los coecientes de peso cr , por lo que la suma obviamente debe ser la unidad.
on de las propiedades (10) y usando
Los coecientes ars , br y cr son determinados mediante la aplicaci
algunas relaciones que son deducidas de la siguiente manera:
Sea el siguiente sistema de ecuaciones diferenciales ordinarias de primer orden expresado de acuerdo a (5)
como un problema de valor inicial del tipo
dy
= f (y)
dx
x = x0

(5 )
(4 )

y(x0 ) = y0

El metodo Runge-Kutta aplicado a este problema se formula como


(6.a )

yn+1 = yn + cr kr
donde las variables auxiliares kr se denen como

(6.b )

kr = h f (yn + ars ks )

Si ahora se hace una expansion en serie de Taylor a la componente kri de (6.b ), alrededor del punto
(xn , yn ), siendo yn = y(xn ), resulta que
kri =h f i [r ] + h fji [ars ksj ] +

h i
f [ars ksj ] [art ktk ]
2 jk

h i
f [ars ksj ] [art ktk ] [aru kul ]
6 jkl
h i
+
f
[ars ksj ] [art ktk ] [aru kul ] [arv kvm ] + O(h6 )
24 jklm
+

(11.a)

donde la regla del ndice repetido y la siguiente notaci


on ha sido usada
f i = f i (xn )
98

fji =

f i 

y j yn

i
fjk
=

2 f i 

y j y k yn

ECUACIONES DIFERENCIALES ORDINARIAS

(11.b)
CAP.IV

FUNDAMENTOS

Aqu las functiones se suponen del tipo C (funciones analticas), y por consiguiente los ndices en (11.b)
son permutables.
La variable ksj en el segundo termino del miembro de la derecha de (11.a) puede de nuevo ser expandida
en serie de Taylor como
h j
[as kk ] [as kl ]
ksj =h f j [s ] + h fkj [as kk ] + fkl
2
(11.c)
h j
k
l
m
5
+ fklm [as k ] [as k ] [as k ] + O(h )
6
De la misma manera kk puede ser expandida como
kk = h f k [ ] + h flk [a kl ] +

h k
f [a kl ] [a km ] + O(h4 )
2 lm

(11.d)

y as sucesivamente

hasta

l
[a km ] + O(h3 )
kl = h f l [ ] + h fm

(11.e)

km = h f m [ ] + O(h2 )

(11.f )

Si nalmente se hace una recurrente substituci


on regresiva, se obtiene que
1 i j k 2
kri =h f i [r ] + h2 [fji f j br ] + h3 [fji fkj f k ars bs + fjk
f f br ]
2
1
j k l
f f ars b2s
+ h4 [fji fkj flk f l ars ast bt + fji fkl
2
1 i j k l 3
i
+ fjk
flj f k f l br ars bs + fjkl
f f f br ]
6
1
l m
k
f ars ast atu bu + fji fkj flm
f l f m ars ast b2t
+ h5 [fji fkj flk fm
2
1
j k l m
j
+ fji fkl
fm f f ars bs ast bt + fji fklm
f k f l f m ars b3s
6
1 i j k l m
i
l m
+ fjk
flj f k fm
f br ars ast bt + fjk
flm f f f br ars b2s
2
1 i j k l m
1 i j k l m 2
+ fjk
fl fm f f ars bs art bt + fjkl
fm f f f br ars bs
2
2
1 i
+ fjklm
f j f k f l f m b4r ] + O(h6 )
24

(11.g)

Insertando esta u
ltima expresion de los componentes de kr en la ecuacion (6.a ), y comparando luego
con la siguiente expansion en series de Taylor de yn+1 (Esta expansi
on se desarrolla alrededor del punto yn )
i
yn+1
= yni + h f i +

h2 i j
h3
i
(fj f ) + (fji fkj f k + fjk
f jf k)
2
6

h4 i j k l
j k l
i
i
(f f f f + fji fkl
f f + 3fjk
flj f l f k + fjkl
f j f kf l)
24 j k l
h5 i j k l m
j k l m
j
k
i
l m
+
(f f f f f + fji fkj flm
f l f m + 3fji fkl
fm f f + fji fklm
f k f l f m + 4fjk
flj f k fm
f
120 j k l m
+

(11.h)

j
i
i
k l m
i
j k l m
i
+ 4fjk
flm
f k f l f m + 3fjk
flj fm
f f + 6fjkl
fm
f f f + fjklm
f j f k f l f m ) + O(h6 )

SEC. 1.2. NOTACION DE BUTCHER

99

A. GRANADOS

METODOS NUMERICOS

resultan las siguientes relaciones que deben satisfacerse por los coecientes ars , br y cr para un metodo
Runge-Kutta de hasta quinto orden
cr ars ast atu bu = 1/120
h

cr ars ast b2t = 1/60

cr r = 1

cr ars bs ast bt = 1/40

cr ars ast bt = 1/24


h2

cr ars b3s = 1/20

cr ars b2s = 1/12

cr br = 1/2

cr br ars ast bt = 1/30

cr br ars bs = 1/8
h4

cr b3r = 1/4

cr ars bs = 1/6
h

cr b2r

cr br ars b2s = 1/15

(12)

cr ars bs art bt = 1/20


cr b2r ars bs = 1/10

= 1/3
h5

cr b4r = 1/5

En estas relaciones, br se ha denido de acuerdo a la propiedad (10.b). N


otese tambien que se han
usado expansiones de las series de Taylor hasta el termino de quinto orden (con h5 ) en el desarrollo de las
anteriores relaciones. Por consiguiente, las relaciones (12) son v
alidas para los metodos Runge-Kutta, tanto
explcitos como implcitos, desde el primer orden (e.g. Metodo de Euler), pasando por los de segundo orden
(e.g. Metodo de Euler modicado en sus variantes del paso medio o del trapecio), los de tercer y cuarto
ordenes (e.g. Metodos de Kutta), hasta el metodo de quinto orden (e.g. metodo Fehlberg y metodo de Cash

& Karp) y de sexto orden (e.g. Metodos basados en las cuadraturas de Gauss-Legendre y de Lobatto). En
todos los casos los ndices r, s, t y u varan desde 1 hasta N , que es el n
umero de etapas.
Gear [1971] presenta una deducci
on similar a (11), pero s
olo para metodos explcitos. En Hairer et al.
[1987], aparecen relaciones similares a (12), pero s
olo para metodos explcitos hasta de cuarto orden. En esta
u
ltima referencia aparece un teorema que resalta la equivalencia entre el metodo Runge-Kutta y los metodos
de colocacion ortogonal. El siguiente teorema [Hairer & Wanner,1991] resume los resultados de (12) de una
forma m
as concisa:
Teorema [Butcher,1964]. Sea la siguiente condicion denida como
B(P )

ci bq1
=
i

i=1

C()

1
q

aij bq1
=
j

j=1

D()

ci bq1
aij
i

i=1

bqi
q

q = 1, 2, . . . , P

i = 1, 2, . . . , N

cqj
(1 bqj )
=
q

(12 )

q = 1, 2, . . . ,

j = 1, 2, . . . , N

q = 1, 2, . . . ,

Si los coecientes bi , ci y aij de un metodo Runge-Kutta satisfacen las condiciones B(P ), C() y D(), con
P + + 1 and P 2 + 2, entonces el metodo es de orden P .
1.3. CONTROL DEL PASO
1.3.1. An
alisis del Error
Sean los coecientes de la cuadratura de Lobatto
0
0
0
0

(5 5)/10
(5 + 5)/60
1/6
(15 7 5)/60

(5 + 5)/10
(5 5)/60 (15 + 7 5)/60
1/6

1
1/6
(5 5)/12
(5 + 5)/12
1/12
100

5/12

5/12

0
0
0

(1.a)

0
1/12

ECUACIONES DIFERENCIALES ORDINARIAS

CAP.IV

FUNDAMENTOS

Este metodo sera denominado como el principal de sexto orden (P = 6).


Dentro de los coecientes del metodo principal, pueden ser detectados una parte de ellos que forman
otro metodo Runge-Kutta secundario empotrado en el primero. Este otro metodo es de tercer orden
= 3) y en la notacion de Butcher son
(P = 3), tiene tres etapas (N
0

(5 5)/10

(5 + 5)/10

0
0
0

(5 + 5)/60
1/6
(15 7 5)/60

(5 5)/60 (15 + 7 5)/60


1/6

1/6
(5 5)/12
(5 + 5)/12

(1.b)

Ambos metodos, el principal y el secundario, constituyen lo que se denomina la forma de la cuadratura


de Lobatto empotrada de tercer y sexto ordenes con cuatro etapas (el metodo de Fehlberg [1971] posee una
forma similar, pero es explcito). El metodo Runge-Kutta implcito de sexto orden y cuatro etapas denido
por los coecientes (1.a) , en realidad representa dos metodos: uno de tercer orden y tres etapas, empotrado
en el otro de sexto orden y cuatro etapas. Es decir, los coecientes (1.b) estan incluidos en (1.a). Este aspecto
es relevante para controlar el tama
no del paso. Resolviendo un sistema de ecuaciones diferenciales ordinarias
para los mismos coecientes, se obtienen con un solo esfuerzo dos soluciones de diferentes ordenes en el error
de truncamiento local, reduciendo a un mnimo el n
umero de c
alculos.
Fehlberg [1971] report
o este aspecto al dise
nar un algoritmo del control del paso para su metodo
Runge-Kutta-Fehlberg explcito de cuarto y quinto ordenes empotrado o encapsulado completamente uno en
el otro. Por ejemplo,
0
0
0
0
0
0
0
1
4

1
4

3
8

3
32

9
32

12
13

1932
2197

7200
2197

7296
2197

439
216

3680
513

845
4104

1
2

8
27

3544
20520

1859
4104

11
40

4to

25
216

1408
2565

2197
4104

15

5to

16
135

6656
12825

28561
56430

9
50

2
55

1
5

1
5

3
10

3
40

9
40

3
5

3
10

9
10

6
5

11
54

5
2

70
27

35
27

7
8

1631
55296

175
512

575
13824

44275
110592

253
4096

4to

37
378

250
621

125
594

512
1771

5to

2825
27648

18575
48384

13525
55296

277
14336

1
4

(2.a)

(2.b)

donde existen dos juegos de coeciente cr , uno para el metodo de cuarto orden (lnea de arriba) y otro para el
metodo de quinto orden (lnea de abajo). Debe observarse que los coecientes expuestos antes en (35.a) son
SEC. 1.3. CONTROL DEL PASO

101

A. GRANADOS

METODOS NUMERICOS

i
los originales de Fehlberg [1971]. El error en este caso entre el metodo de quinto orden yn+1
y el de cuarto
i
orden yn+1 en la tabla (2.a) es
i
i
i
En+1
= yn+1
yn+1
=

1
( 2090 k1i 22528 k3i 21970 k4i + 15048 k5i + 27360 k6 ) + O(h5n )
752400

(3)

Los coecientes particulares expuestos antes en (2.b) fueron desarrollados por Cash & Karp [1990], y
aunque estan basados en la misma losofa y orden, no son los originales de Fehlberg, pero algunos piensan que
tiene un mejor comportamiento [Chapra & Canale,1999]. No obstante, los valores particulares encontrados
por Cash & Karp hacen el metodo mas eciente que el metodo original de Fehlberg, con una mejora en las
propiedades de los errores [Press et al.,1992].
n+1 las soluciones del sistema de ecuaciones diferenciales ordinarias, ofrecidas por los
Sean yn y y
metodos Runge-Kutta implcitos tipo Lobatto de sexto y tercer ordenes, respectivamente, empotrados en
una s
ola formulacion como se describi
o antes en (1.a). Esto es,
1 i
(k + 5k2i + 5k3i + k4i )
12 1

(4)

1
[2k1i + (5 5)k2i + (5 + 5)k3i ]
12

(5)

i
yn+1
= yni +

i
yn+1
= yni +

Las variables auxiliares k1 , k2 , k3 y k4 son las mismas para ambas expresiones y son obtenidas usando el
sistema de ecuaciones diferenciales ordinarias con los coecientes (1.a) y (1.b).
i
Se denotara como En+1
la diferencia entre la soluci
on del metodo de sexto orden y el metodo de tercer
orden, es decir, la ecuacion (4) menos la ecuaci
on (5). Esto es,

i
i
i
En+1
= yn+1
yn+1
=

1
[k1i + 5(k2i k3i ) + k4i ] + O(h4n )
12

(6)

on diferencial en el valor x = xn , entonces los errores de truncamiento


Si y(xn ) es la solucion exacta de la ecuaci
local de las soluciones numericas (4) y (5) son denidos respectivamente por
ein = yni y i (xn ) = O(h7n1 )

(7)

ein = yni y i (xn ) = O(h4n1 )

(8)

i
i
i
En+1
= yn+1
yn+1
= ein+1 ein+1 = O(h4n )

(9)

y luego
Recuerdese que, si el metodo Runge-Kutta es de orden P , el error de truncamiento local es de orden P + 1 .
Si la expresion (41) se organiza de la siguiente forma
i
En+1
=

& yi

y i (xn+1 ) ' i
i
y (xn+1 ) [
yn+1
y i (xn+1 )]
y i (xn+1 )

n+1

(10)

se obtiene que
i
En+1
= ei(r),n+1 y i (xn+1 ) ein+1

donde
ei(r),n+1 =

& yi

y i (xn+1 ) '
y i (xn+1 )

n+1

(11)

(12)

es el error de truncamiento local relativo.


102

ECUACIONES DIFERENCIALES ORDINARIAS

CAP.IV

FUNDAMENTOS

i
Si ahora se asume que y i (xn+1 ) es aproximado por yn+1
en el denominador de (12), se puede aplicar
la desigualdad de Cauchy-Schwartz y la desigualdad triangular a la expresion (11), y de esto resulta
i
i
| |ei(r),n+1 | |y i (xn+1 )| + |
ein+1 | e(r),max |yn+1
| + emax
|En+1

(13)

donde e(r),max y emax son respectivamente las tolerancias para el error de truncamiento local relativo y
absoluto de los metodos Runge-Kutta implcitos de sexto y tercer ordenes. La expresion (13) tambien
signica que, para que la soluci
on de la ecuaci
on diferencial en un s
olo paso sea aceptada, se debe vericar
que
i
|
|En+1
Qin =
1
(14)
i
e(r),max |yn+1
| + emax
siendo las tolerancias para los errores de truncamiento local relativo y absoluto propuestos por el usuario del
algoritmo de control que se explicar
a a continuacion.
1.3.2. Algoritmo de Control
Sea hn+1 el tama
no del paso en el siguiente paso que tiende a hacer Qin
= 1. Teniendo en cuenta el
i
orden de la diferencia En+1
denida por (9), el parametro Qn puede ser redenido como
Qn =

$ h %P +1
n
hn+1

donde

P = 3 o 4

 
Qn = max Qin

(15)

(16)

1iM

y as, resolviendo para hn+1 , se obtiene


hn+1 = hn
con
Sn =

$ 1 %
Qn

$ 1 %
= h n Sn
Qn

(17)

1
= 1/4 o 1/5

P +1

(18)

Para el metodo de Fehlberg descrito antes en (2), el exponente sera = 1/5, puesto que los errores mas
grandes provendran del metodo con el menor orden, que en ese caso sera el de cuarto orden con P = 4.
Aqu es conveniente mencionar que Shampine et al.[1976] usan expresiones similares a (17) y (18) para
controlar el tama
no del paso en el metodo Runge-Kutta de cuarto y quinto ordenes desarrollado originalmente por Fehlberg [1971], pero con algunas modicaciones, con la nalidad de garantizar que Sn siempre
este acotado en el intervalo [Smin , Smax ], y que hn+1 siempre sea mas grande que el valor lmite hmin . Adicionalmente, los mencionados autores multiplican Sn por un coeciente Cq menor que la unidad para que
hn+1 tienda a ser casi igual que hn , y as hacer Qn
= 1, pero un poco menor. Todas las modicaciones
descritas estan resumidas a continuaci
on
Sn = Cq

SEC. 1.3. CONTROL DEL PASO

$ 1 %
Qn

Cq = 0.9 0.99

= 1/4

(19)

Sn = max(min(Sn , Smax ), Smin )

(20)

hn+1 = hn Sn

(21)

hn+1 = max(hn+1 , hmin )

(22)
103

A. GRANADOS

METODOS NUMERICOS

Mientras que en [Shampine et al.,1976] el exponente es 1/5 en la expresion (19) para el metodo de
Fehlberg, aqu dicho exponente es 1/4 para el metodo de Cuadratura de Lobatto. En la mencionada referencia
tambien se recomienda para los coecientes y lmites los valores Cq = 0.9, Smin = 0.1 and Smax = 5. El valor
del mnimo paso de integraci
on, hmin , se determina con la precision del computador usado. En este trabajo
se usaron los mismos valores antes citados para las expresiones de (19) a (22).
El procedimiento para calcular el valor optimo del paso de integracion, que permita satisfacer las
tolerancias e(r),max y emax , se describe a continuacion:
Estimado un tama
no de paso inicial hn , el metodo Runge-Kutta implcito tipo Lobatto es utilizado para
calcular las variables auxiliares k1i , k2i , k3i y k4i con la expresion del sistema de cuaciones diferenciales
ordinarias, usando los coecientes (1.a) y con el proceso iterativo involucrado para resolver las ks , y
usando los valores iniciales del problema.
i
i
Las expresiones (4) y (5) permiten encontrar las soluciones yn+1
y yn+1
de los metodos de sexto y
tercer ordenes, respectivamente.
i
La denici
on (6) permite calcular la diferencia En+1
entre los dos metodos.

Con la ecuacion (14) se puede calcular los par


ametros Qin , y con la ecuacion (16) se puede obtener el
maximo de ellos.
Las relaciones (19) a (22) determinan el valor del tama
no del paso siguiente hn+1 .
on con el paso hn (
o la aplicaci
on del metodo Runge-Kutta desde xn hasta
Si Qn 1, la integraci
on (
o la siguiente
xn+1 ) se acepta y el paso hn+1 se considera el paso optimo para la siguiente integraci
aplicacion del metodo Runge-Kutta desde xn+1 hasta xn+2 ).
Si Qn > 1, la integraci
on con el paso hn se rechaza y se repite todo el algoritmo de nuevo pero con
hn = hn+1 obtenido de (22).
Este procedimiento algunas veces incrementa el tama
no del paso, y otras veces lo disminuye, con la
nalidad de garantizar que el error relativo ei(r),n+1 del metodo Runge-Kutta de sexto orden sea menor que la
tolerancia e(r),max , y que el error ein+1 del meetodo Runge-Kutta de tercer orden sea menor que la tolerancia
i
emax . En cualquier caso, la soluci
on del metodo Runge-Kutta ser
a yn+1
, es decir, la soluci
on con el metodo
de sexto orden.
1.4. METODOS DE PASOS MULTIPLES
Las f
ormulas de Adams-Bashforth (predictoras) y las formulas de Adams-Moulton (correctoras), debe
utilizarse en parejas que tenga el mismo error de turncamiento local, para que el metodo predictor-corrector
sea consistente. No obstante en el metodo de Euler modicado tipo Heun se han usado de ordenes h2 y h3
(seccion 1.1.1 Modicado).
1.4.1. Adams-Bashforth
Estas son las formulas predictoras
yn+1 = yn + h fn +

(1.b)

h
3
(23 fn 16 fn1 + 5 fn2 ) + h4 f  ()
12
8

(1.c)

h
251 5 iv
(55 fn 59 fn1 + 37 fn2 9 fn3 ) +
h f ()
24
720

(1.d)

yn+1 = yn +

yn+1 = yn +
104

(1.a)

h
5 3 
(3 fn fn1 ) +
h f ()
2
12

yn+1 = yn +

yn+1 = yn +

1 2 
h f ()
2

h
475 6 v
(1901 fn 2774 fn1 + 2616 fn2 1274 fn3 + 251 fn4) +
h f ()
720
1440
ECUACIONES DIFERENCIALES ORDINARIAS

(1.e)
CAP.IV

FUNDAMENTOS

yn+1 = yn +

h
19087 7 vi
(4277 fn 7923 fn1 + 9982 fn2 7298 fn3 + 2877 fn4 475 fn5)+
h f () (1.f )
720
60480

La predicci
on se hace una sola vez, al inicio del proceso iterativo (con n constante).
1.4.2. Adams-Moulton
Estas son las formulas correctoras
yn+1 = yn + h (fn+1 )

(2.b)

h
1 4 
(5 fn+1 + 8 fn fn1 )
h f ()
12
24

(2.c)

h
19 5 iv
(9 fn+1 + 19 fn 5 fn1 + fn2 )
h f ()
24
720

(2.d)

h
27 6 v
(251 fn+1 + 646 fn 264 fn1 + 106 fn2 19 fn3 )
h f ()
720
1440

(2.e)

yn+1 = yn +
yn+1 = yn +

yn+1 = yn +

(2.a)

h
1 3 
(fn+1 + fn )
h f ()
2
12

yn+1 = yn +

yn+1 = yn +

1 2 
h f ()
2

h
863 7 vi
(475 fn+1 + 1427 fn 798 fn1 + 482 fn2 173 fn3 + 27 fn4 )
h f () (2.f )
1440
60480

Las correciones se pueden hacer las veces necesarias, hasta que el proceso iterativo converga, con cierta
tolerancia. Una vez logrado un resultado, se salta en n al siguiente paso de integraci
on n + 1. No confundir
iteracion con integraci
on.

2. PROBLEMA DE VALOR EN LA FRONTERA


Un problema de valor en la frontera debe tener tantas condiciones como la suma de los ordenes de las
ecuaciones diferenciales involucradas. Por ejemplo, si se tiene dos ecuaciones diferenciales ordinarias (una
sola variable independiente) de tercer y cuarto ordenes. Entonces, hacen falta siete condiciones para que el
problema este bien planteado, normalmente en derivadas menores a las superiores. Estas condiciones pueden
darse en un solo punto para todas las variables, en cuyo caso estamos en la presencia de un problema de
valor inicial. Pero eventualmente pueden darse las condiciones de forma mixta en la frontera. Si x [a, b],
entonces x = a
o x = b se denomina la frontera.
Sea la siguiente ecuacion diferencial ordinaria de segundo orden
y  = f (x, y, y  )

axb

(1)

con condiciones en la frontera


y(a) =

y(b) =

(2)

Teorema de Unicidad. Sea al siguiente dominio

D=

a x b
<y <

(3)

<y <

Si f , f /y y f /y  existen y son continuas en D y ademas:


1:)

f
y

> 0 en D.

SEC. 2.1. TRANSFORMACION

105

A. GRANADOS

METODOS NUMERICOS

f
2:) Existe un valor M , tal que | y
 | M en D.

Entonces el problema posee solucion u


nica.
2.1. TRANSFORMACION
Un problema de valor en la frontera tiene condiciones de valor o derivadas (de orden inferior a la
mayor) en la frontera x = a
o x = b, de forma mixta, algunas en x = a, algunas en x = b, o de formas
combinadas, valores mas derivadas.
Sea el siguiente problema de segundo orden de valor en la frontera
y  = P (x) y  + Q(x) y + R(x)
y(a) =
on, tal que
Sea y1 una soluci

y(b) =

y1 = P (x) y1 + Q(x) y1 + R(x)


y1 (a) = 0

y1 (a) =

(4)
(5)
(6)
(5)

entonces se postula
y(x) = y1 (x) + K y2 (x)

(6)

Substituyendo esto en la ecuacion diferencial original, queda


K y2 = P (x) K y2 + Q(x) K y2

(7)

y2 = P (x) y2 + Q(x) y2

(8)

K y2 (a) = y  (a)

y2 (a) = 0

(9)

Se ja K = y  (a) = y2 (a) = 1


= y1 (b) + K y2 (b) = K =

y1 (b)
= y  (a)
y2 (b)

(10)


y1 (b)
y(x) = y1 (x) +
y2 (x)
y2 (b)

(11)

Se ha transformado un problema de valor en la frontera en dos problemas de valor inicial, que combinados
apropiadamente da la solucion del problema original.
2.2. DISPARO
Sea la siguiente ecuacion diferencial ordinaria de segundo orden
y  = f (x, y, y  )

axb

(1)

con condiciones en la frontera


y(a) =

y(b) =

(2)

Se formula el problema de valor inicial


y  = f (x, y, y  )
y(a) =
106

axb
y  (a) = t
ECUACIONES DIFERENCIALES ORDINARIAS

(3)
(4)
CAP.IV

FUNDAMENTOS

cuya soluci
on y = y(t, x) depende adicionalmente de t variable. Se dene la funci
on
g(t) = y(t, b)

(5)

Se desea hallar t, tal que g(t) = 0. Eta ecuaci


on se puede resolver aplicando el metodo de la secante
tk+1 = tk

g(tk ) (tk tk1 )


[ y(tk , b) ] (tk tk1 )
= tk
g(tk ) g(tk1 )
y(tk , b) y(tk1 , b)

(6)

Para los primeros estimados, se puede tomar


t0 =

ba

t1 =

ba

(7)

donde es la tolerancia con que se obtiene y(b). El problema (1)-(2) de valor en en la frontera se ha convertido
en un problema de valor inicial con t como valor inicial estimado e iterado (disparo con t) para hacer coincidir
en la otra frontera (x = b) el otro valor y(t, b) = 0 (blanco).
2.3. DISCRETIZACION
Sea la siguiente ecuacion diferencial ordinaria
y  (x) = P (x) y  (x) + Q(x) y(x) + R(x)
y(a) =

axb

y(b) =

(1)
(2)

Se pueden substiruir la aproximaciones obtenidas de la secci


on III.1.7
y(xi )yi
yi+1 yi1
+ O(h2 )
2h
yi+1 2 yi + yi1
y  (xi ) =
+ O(h2 )
h2
y  (xi ) =

(3)

Substituyendo en la ecuaci
on diferencial
yi+1 2 yi + yi1
= P (xi )
h2

yi+1 yi1
2h


+ Q(xi ) yi + R(xi )

Reorganizando esta expresi


on queda




h
h
2
P (xi ) + 1 yi1 + [ 2 + h Q(xi ) ] yi +
P (xi ) 1 yi+1 = h2 R(xi )
2
2

(4)

(5)

Se obtienen n ecuaciones de este tipo con n inc


ognitas que son los valores yi , i = 1, 2, . . . , n en intervalos
regulares. En los puntos extremos considerar las condiciones de contorno y0 = y(a) = y yn+1 = y(b) = ,
h = (b a)/(n + 1). La matriz de los coecientes de este sistema de ecuaciones es una matriz tridiagonal
(resolver con el algoritmo de Thomas seccion II.1.1.7).

3. SISTEMAS DE ECUACIONES
Una ecuacion homogenea del siguiente tipo


dy d2 y d3 y
dM y
F x, y,
, 2, 3,..., M = 0
dx dx dx
dx
SEC. 2.3. DISCRETIZACION

(1)
107

A. GRANADOS

METODOS NUMERICOS

se dice que es una ecuacion diferencial ordinaria de orden M . Despejando la derivada de mayor orden se
obtiene


dM y
dy d2 y
dM1 y
= f x, y, , 2 , . . . , M1
(2)
dxM
dx dx
dx
Haciendo el siguiente cambio de variables
y = y1

dk y
= y k+1
dxk

dM1 y
= f (x, y 1 , y 2 , . . . , y M )
dxM1

(3)

a la nal (1) se convierte en un sistema de ecuaciones diferenciales ordinarias de primer orden


dy
= f (x, y)
dx

y(x) : R RM

(4)

nico punto x = x0 , entonces se tiene un problema de


Si se especican los valores de las distintas y k para un u
valor inicial, donde se conoce y(x0 ) = y0 . En cuanto a la funci
on f (x, y) : R RM RM se puede decir
k
k+1
M
1 2
, k = 1, 2, . . . , M 1, y f (x, y) = f (x, y , y , . . . , y M ) denido por el despeje (2).
que f (x, y) = y
3.1. FUNDAMENTOS
En esta parte, para hacer una presentacion que se considera didactica, se mostrar
n las distintas tecnicas
numericas aplicadas a resolver un u
nico problema, las Orbitas de Arenstorf, con dos metodos Runge-Kutta
ambos implcitos de sexto orden, uno parcial implcito y el otro total implcito.
Uno de los metodos que se analizara es el metodo Runge-Kutta de sexto orden (P = 6) y cuatro etapas
(N = 4), basado en la cuadratura de Lobatto [lobatto,1851-52]
0

5)/10

(5 + 5)/10
(5

0
0
0

5)/60
1/6
(15 7 5)/60

(5 5)/60 (15 + 7 5)/60


1/6

1/6
(5 5)/12
(5 + 5)/12
(5 +

1/12

5/12

5/12

0
0
0

(5)

0
1/12

que realmente engloba dos metodos empotrado uno en el otro. El m


as peque
no adentro (separado con barras)
es de tercer orden (P = 3). El metodo es implcito solamente en la segunda y tercera etapa.
El otro metodo que se analizara sera el metodo Runge-Kutta de sexto orden (P = 6) y tres etapas
(N = 3), basado en la cuadratura de Gauss (Kuntzmann-Butcher) [Hairer et al.,1987]
(5

15)/10

1/2

(5 + 15)/10

5/36
(10 3 15)/45 (25 6 15)/180

(10 + 3 15)/72
2/9
(10 3 15)/72

(25 + 6 15)/180 (10 + 3 15)/45


5/36
5/18

4/9

(6)

5/18

totalmente implcito. Resultados numericos impresionantes de la mecanica celecte con este metodo fueron
reportados en la tesis de D. Sommer [Sommer,(1965)].
El u
nico problema a resolver sera el de las orbitas Arenstorf (1963), que ilustra un buen problema de
la mecanica celestial, rgido por una parte y ca
otico por otro, completamente bien planteado, que es un caso
particular del problema de tres cuerpos, con uno de ellos de masa despreciable. La orbita de este u
ltimo es
el de la orbita que se describe. Considerese dos cuerpos m
asicos de masas y en traslacion cuasi-circular
108

ECUACIONES DIFERENCIALES ORDINARIAS

CAP.IV

FUNDAMENTOS

en un plano y un tercer cuerpo de masa desprecible moviendose alrededor en el mismo plano. Las ecuaciones
diferenciales en variables relativas del caso Tierra y Luna son (u = {v}x , v = {v}y )
dx
=u
dt




x+
x
du
= x + 2v

dt
A
B
dy
=v
dt
 
 
y
dv
y
= y 2u

dt
A
B
donde


[(x + )2 + y 2 ]3

B = [(x )2 + y 2 ]3
A=

= 0.012277471
=1

(7)

(8)

La gura 1 muestra el resultado de esta orbita con varios metodos [Hairer et al.,1987,pp.127-129].

Figure 1. La orbita de Arenstorf computada con Euler equidistante,


Runge-Kutta equidistante y paso variable con el metodo de Dormand y Prince (DOPRI5).
SEC. 3.1. FUNDAMENTOS

109

A. GRANADOS

METODOS NUMERICOS

Las condiciones iniciales han sido cuidadosamente determinadas


x(0) = 0.994

u(0) = 0

y(0) = 0

(9)

v(0) = 2.00158510637908252240537862224
para que la soluci
on sea cclica con perodo
T = 17.0652165601579625588917206249

(10)

Tales soluciones periodicas orbitales han facinado astr


onomos y matematicos por muchas decadas (Poincare)
y ahora frecuentemente llamadas Arenstorf orbits en honor a Arenstorf (1963), quien ademas hizo muchas
simulaciones numericas en computadoras electronicas de alta velocidad. El problema es C con la excepcion
de dos puntos singulares x = y x = , para y = 0, por lo tanto la soluci
on poligonal de Euler se sabe que
converge a la soluci
on exacta. Pero son numericamente y realmente u
tiles aqu? Se ha escogido ns = 24000
pasos de longitud h = T /ns para resolver el problema razonablemente regular. Con un metodo Runge-Kutta
convencional de cuarto orden se han necesita 6000 pasos para resover el problema razonablemente bien.
Con la nalidad de simplicar el problema y los c
alculos se han cambiado algunas variable y han
convertido el problema en este otro
dx
dt
du
dt
dy
dt
dv
dt

=u
= x (1 a3 b3 ) + 2v (a3 b3 )
(11)
=v
= y (1 a3 b3 ) 2u

donde

3
1/A = [(x + )2 + y 2 ]1/2

a3
= 3 (x + ) a5
x

a3
= 3 y a5
y


b(x, y) = 3 1/B = [(x )2 + y 2 ]1/2

b3
= 3 (x ) b5
x

b3
= 3 y b5
y

a(x, y) =

(12)

Si asignamos el siguiente orden a las variables


dy
= f (y)
dt

y = {x, u, y, v}

(13)

la matriz jacobiana del problema es

[Jf (y)] =

f 2
x

f 4
x

1
0
0
2

f 2
y

f 4
y

0
2

1
0

(14.a)

donde algunos desarrollo ha sido colocado afuera por simplicidad


f 2
= 3 [ (x + )2 a5 + (x )2 b5 ] + 1 a3 b3
x
110

ECUACIONES DIFERENCIALES ORDINARIAS

(14.b)
CAP.IV

FUNDAMENTOS

f 4
= 3 y [ (x + ) a5 + (x ) b5 ]
x

(14.c)

f 2
= 3 y [ (x + ) a5 + (x ) b5 ]
y

(14.d)

f 4
= 3 y 2 (a5 + b5 ) + 1 a3 b3
y

(14.e)

El problema u
nico planteado ya est
a en condiciones de ser resulto.
3.2. METODOS EXPLICITOS
Los metodo implcitos utilizados 3.3.(5) y 3.1.(6), requieren para su solucion unos iterados iniciales en
las variable ks para cada paso de integraci
on (n constante). Las tecnicas que siguen permiten lograr este
cometido.
3.2.1. Cuadratura de Kutta
En 1965 Ralston hizo un an
alisis similar a 1.2.(8), para obtener las relaciones de los coecientes de un
metodo Runge-Kutta explcito de cuarto orden y cuatro etapas, y encontr
o la siguiente familia de metodos
en funci
on de los coecientes b2 y b3 (ver por ejemplo [Ralston & Rabinowitz,1978])
b1 = 0
a31 = b3 a32

a21 = b2
a42 =

a32 =

b3 (b3 b2 )
2 b2 (1 2 b2 )

(1 b2 )[b2 + b3 1 (2 b3 1)2 ]
2 b2 (b3 b2 )[6 b2 b3 4 (b2 + b3 ) + 3]

a43 =

(1.a c)

a41 = 1 a42 a43

(1 2 b2 )(1 b2 )(1 b3 )
b3 (b3 b2 )[6 b2 b3 4 (b2 + b3 ) + 3]

(1.d g)
(1.h, i)

1 1 2(b2 + b3 )
+
2
12 b2 b3

c2 =

2 b3 1
12 b2 (b3 b2 )(1 b2 )

(1.j, k)

1 2 b2
12 b3 (b3 b2 )(1 b3 )

c4 =

2 (b2 + b3 ) 3
1
+
2 12 (1 b2 )(1 b3 )

(1.l, m)

c1 =
c3 =

ars = 0 (s r)

b4 = 1

N
otese que la substitucion de los valores b2 = 1/2 y b3 = 1/2, o los valores b2 = 1/3 y b3 = 2/3,
permiten obtener los cl
asicos, bien conocidos y muy utilizados metodos de Kutta de cuarto orden y cuatro
etapas del primer o segundo tipo, y que se muestran a continuaci
on
0
1/2

0
1/2

0
0

0
0

0
0

0
1/3

0
1/3

0
0

0
0

0
0

1/2
1

0
0

1/2
0

0
1

0
0

2/3
1

0
1

1/3
1

1
1

0
0

1/8

3/8

1/6 1/3 1/3 1/6


0
1/2

0
1/2

0
0

1/2

1+ 2
2

2 2
2

22

2 2
6

0
1/6

SEC. 3.2. METODOS EXPLICITOS

0
0

0
0

2+ 2
2

2+ 2
6

(2.a, b)

3/8 1/8

(2.c)

0
1/6
111

A. GRANADOS

METODOS NUMERICOS

El primer de los metodos arriba mostrados se basa en la cuadratura propuesta por Kutta originalmente. El
segundo metodo en una variante del anterior, s
olo que las evaluaciones intermedias son equidistantes (a veces
se le denomina cuadratura de Kutta del segundo tipo). El tercer de los metodos es el metodo de Gill [1951],
y no pertenece a la familia descrita por (1). No obstante, es una variante que mejora en cierta medida al
metodo de Kutta del primer tipo [Carnahan et al.,1969], al cual se le parece mucho por la similitud de los
coecientes y por ser del mismo orden y tener el mismo n
umero de etapas. Los coecientes del metodo de
Gill, por supuesto satisfacen las relaciones 1.2.(12) y 1.2.(12 ). Todos los metodos de cuatro etapas (1) antes
descritos son de cuarto orden en el error global y quinto orden en el error local.

Asi que, si b2 = (5 5)/10 y b3 = (5 + 5)/10 del metodo 3.1.5) son substituidos en la relaciones
(1), se obtiene que

(5 5)

(3.a)
a21 =
10

(5 + 3 5)

(3.b)
a31 =
20

(3 + 5)

a32 =
(3.c)
4
Estos son los coecientes de un nuevo metodo Runge-Kutta explcito, que en la notaci
on de Butcher puede
ser expresado como
0

(5 5)/10

(5 + 5)/10
1

0
0

(5 5)/10
0

(5 + 3 5)/20
(3 + 5)/4

(1 + 5 5)/4 (5 + 3 5)/4
1/12

(5 5)/2

0
0

5/12

1/12

5/12

(4)

El metodo Runge-Kutta explcito asi encontrado no esta reportado en la literaturatura especializada y no


corresponde a ninguna cuadratura en particular (aqu le hemos denominado cuadratura de Kutta), pero tiene
los mismo puntos de colocacion que el metodo de cuadratura de Lobatto, y pertenece a la familia de metodos
Runge-Kutta explcito de cuarto orden de la soluci
on (1). Las k2 y k3 que se obtienen con este metodo de
coecientes cambiados ars

(5 5)

(5.a)
a21 =
10

(5 + 3 5)

a31 =
(5.b)
20

(3 + 5)

a32 =
(5.c)
4
son las estimaciones iniciales para el proceso iterativo
k2,(0) = f (xn + b2 h , yn + a21 h k1 )

(6.a)

k3,(0) = f (xn + b3 h , yn + a31 h k1 + a32 h k2 )

(6.b)

Una vez substituida estas estimaciones, se espera una r


apida convergencia del metodo implcito 3.1.(5) en
cada paso (n constante). Sea que se implemente une esquema iterativo de punto jo (seccion 3.3.2) o de
Newton-Raphson (secci
on 3.3.3) como se ver
a adelante.

112

ECUACIONES DIFERENCIALES ORDINARIAS

CAP.IV

FUNDAMENTOS

3.2.2. Extrapolaci
on de Lagrange
El proceso iterativo para resolver el metodo Runge-Kutta implcito 3.1.(6) comienza con un iterado
inicial para las variable kr,(0) , r = 1, 2, 3, en cada paso. Para el caso en que estamos interesados, usaremos
el metodo Runge-Kutta de quinto orden (P = 5), generado por la extrapolaci
on de Lagrange, o el metodo
Runge-Kutta de tercer orden (P = 3) [Ralston & Rabinowitz,1978], ambos explcitos
0
- -
- - (5 15)/10
1/2

(5 + 15)/10
- - - - 1

0
- -
- - - (5 15)/10

(3 + 15)/4

3(4 + 15)/5
- - - - - 1

0
0
0
- - - - - - - - - - - 0
0
0

(5 + 15)/4
0
0

(35 + 9 15)/10 2(4 + 15)/5


0
- - - - - - - - - - - 5/3
20/15
25/15

5/18

4/9

5/18

0
0
0
0

0
1/2
1

0
1/2
1

0
0
2

0
0
0

1/6 2/3 1/6

0
0

(7.a, b)
El primero de estos Runge-Kutta, ec. (7.a), fue generado por la extrpolaci
on de los polinomios de Lagrange
Pn (x) =

Li (x) f (xi )

Li (x) =

i=0

n

(x xj )
(x
i xj )
j=0

(8)

j=i

que pasa por las etapas previas s = 1, 2, . . . , r 1, con puntos de colocaci


on bs como variables independientes
y ks como variables dependientes conocidas (s = 1, 2, . . . , r 1, r = 2, . . . , N ). Entonces, mediante extrapolacion de el polinomio Pr2 (x) (r 2), para la siguiente etapa br (b1 = 0), los coecientes ars son calculados
como (a1s = 0, a21 = b2 )
ars = br s /

s = Ls (br ) =

r1

j=1
j=s

(br bj )
(bs bj )

r1

(9)

s=1


neas puntiadas en la ec.(7.a)
El valor de es para normalizar s y satisface ars s = r1
s=1 ars = br (entre l
estan los valores en los que estamos interesados, pero la primera etapa es necesaria solo para completar el
esquema, las dos u
ltimas las son innecesarias). Para este caso en (7.a) = 1 siempre. Cuando el lmite
superior es menor que el lmite inferior, el smbolo es 1. Los coecientes cr (r = 1, 2, . . . , N ) son calculados
usando de nuevo (8), el polinomio de Lagrange PN 1 (x), por integracion de
1

cr =

Lr (x) dx

Lr (x) =

N

(x bj )
(br bj )
j=1

(10)

j=r

N
y debe satisfacer r=1 cr = 1 (para el caso de la ec.(7.a), N = P = 5). De hecho, no solo (7.a), sino tambien
(7.b), satisfacen (29) (30). El metodo explcito (4) no pertenece al porceso de generaci
on de coecientes
(9), s
olo (10)
La segunda, ec. (7.b) equivalente a la cuadratura de Simpson 1/3, m
as simple, is un Runge-Kutta

explcito de tercer orden que tiene los puntos de colocacion cercanos a los requeridos. El valor (5 15)/10

0.1127 es cercano a 0 (r = 1 en Gauss), el valor (5 + 15)/10 0.8873 es crecano a 1 (r = 3 en Gauss), y el


valor 1/2 es exacto (r = 2 Gauss). Estas estimaciones de las variables kr (r = 1, 2, 3) para los iterados iniciales
son considerados sucientes para garantizar la convergencia en cada pasofor initial iterates are considered
enough to guarantee convergence in each step. Cualquiera de los dos Runge-Kutta explcitos (7), seleccionado
para los iterados iniciales de kr es opcional.
SEC. 3.3. METODOS IMPLICITOS

113

A. GRANADOS

METODOS NUMERICOS

3.3. METODOS IMPLICITOS


Ambos metodos utilizados para resolver el problema planteado son implcitos.
3.3.1. Cuadratura de Gauss
Los metodos de Runge-Kutta basados en la cuadratura de Gauss-Legendre son completamente
implcitos (las matrices estan totalmente llenas). En estos casos, los coecientes satisfacen las siguientes
relaciones
b
1
ars b1
cs b1
= 1, 2, 3, . . . , N
(1)
= r
=
s
s

donde los coecientes br son las races del polinomio de Legendre de orden N , el n
umero de etapas, es decir,
PN (2 br 1) = 0

(2)

donde el orden del metodo Runge-Kutta que se origina es el doble del n


umero de etapa (P = 2N ). En la
notacion de Butcher, los tres primeros de estos metodos son

1/2

1/2

3)/6

(3 + 3)/6
(3

1/4
(3 2 3)/12

(3 + 2 3)/12
1/4

(5

15)/10

1/2

(5 + 15)/10

1/2

(3.a, b)

1/2

5/36
(10 3 15)/45 (25 6 15)/180

(10 + 3 15)/72
2/9
(10 3 15)/72

(25 + 6 15)/180 (10 + 3 15)/45


5/36
5/18

4/9

(3.c)

5/18

de segundo (P = 2) orden, cuarto (P = 4) orden (Hammer-Hollingsworth) y sexto (P = 6) orden


(Kuntzmann-Butcher), respectivamente.
3.3.2. Cuadratura de Lobatto
Los metodos Runge-Kutta explcitos son de aplicaci
on directa, mientras que los metodos Runge-Kutta
implcitos requieren la resolucion de un sistema de ecuaciones con las variables auxiliares kr en cada paso de
integraci
on de las ecuaciones diferenciales, como esta sugerido por las ecuaciones 1.2.(6.b). Este sistema de
ecuaciones es generalmente no lineal, al menos que la funci
on f (x, y) sea lineal, y puede ser resuelto aplicando
un esquema iterativo del tipo punto jo.
El metodo Runge-Kutta implcito que va a ser usado aqu, es un metodo de sexto orden (P = 6) con
cuatro etapas (N = 4), desarrollado sobre las bases de la cuadratura de Lobatto [1851] (para m
as detalles
ver [Butcher,1987] y [Lapidus & Seinfeld,1971]). Los coecientes de este metodo organizados en la notacion
de Butcher son
0

(5 5)/10

(5 + 5)/10
1

0
0
0

(5 + 5)/60
1/6
(15 7 5)/60

(5 5)/60 (15 + 7 5)/60


1/6

1/6
(5 5)/12
(5 + 5)/12
1/12

5/12

5/12

0
0
0

(4.a)

0
1/12

Este metodo sera denominado como el principal.


114

ECUACIONES DIFERENCIALES ORDINARIAS

CAP.IV

FUNDAMENTOS

Dentro de los coecientes del metodo principal, pueden ser detectados una parte de ellos que forman
otro metodo Runge-Kutta secundario empotrado en el primero. Este otro metodo es de tercer orden
(P = 3), tiene tres etapas (N = 3) y en la notacion de Butcher son
0

(5 5)/10

(5 + 5)/10

0
0
0

(5 + 5)/60
1/6
(15 7 5)/60

(5 5)/60 (15 + 7 5)/60


1/6

1/6
(5 5)/12
(5 + 5)/12

(4.b)

Ambos metodos, el principal y el secundario, constituyen lo que se denomina la forma de la cuadratura


de Lobatto empotrada de tercer y sexto ordenes con cuatro etapas (el metodo de Fehlberg [1971] posee una
forma similar, pero es explcito). N
otese que esta forma Lobatto s
olo es implcita en en las variables k2 and
k3 , y por lo tanto debe ser resuelto el sistema solo en esas dos variables, lo que trae como consecuencia un
incremento de la eciencia de resolucion, comparado con otros metodos implcitos. Las otras variables son
de resoluci
on directa (en la u
ltima etapa, una vez encontradas las anteriores.
Con la nalidad de aplicar un proceso iterativo para resolver el sistema de ecuaciones no lineales
se requieren estimaciones iniciales de las variables auxiliares implcitas. La mejor forma de hacer esto es
obtenerlas de un metodo Runge-Kutta explcito, donde las variables auxiliares kr esten evaluadas en los
mismos puntos intermedios en cada paso, o sea, que el metodo explcito tenga los mismos valores en los
coecientes br que el metodo implcito, o lo que es lo mismo que tenga los mismos puntos de colocacion.
Observando el metodo (15.a), esta claro que el mencionado metodo explcito se puede obtener r
apidamente

de las relaciones (13) sugeridas por Gear, asumiendo los valores b1 = 0, b2 = (5 5)/10, b3 = (5 + 5)/10
y b4 = 1. N
otese que la seleccion de valores es consistente con las caracterstica de un metodo explcito. Este
u
ltimo aspecto, casualmente hace que el metodo implcito (4.a) sea ideal para los prop
ositos deseados.
As que, si los valores seleccionados para b2 y b3 son substituidos en las relaciones 3.2.(1), se obtienen
los siguientes coecientes

(5 5)

(5.a)
a21 =
10

(5 + 3 5)

(5.b)
a31 =
20

(3 + 5)

a32 =
(5.c)
4
Estos son los coecientes de un nuevo metodo Runge-Kutta explcito, que en la notaci
on de Butcher pueden
globalmente ser expresados como
0

(5 5)/10

(5 + 5)/10

(5 5)/10

(5 + 3 5)/20

1/6
1/12

0
0

(3 + 5)/4
0

(5 5)/12 (5 + 5)/12
5/12

5/12

0
0
0

(6)

0
1/12

Este metodo, perteneciente a la familia de soluciones (13), ser


a usado para obtener los estimados iniciales de
k2 y k3 para el proceso iterativo de la siguiente forma

SEC. 3.3. METODOS IMPLICITOS

k2,(0) = f (xn + b2 h , yn + a21 h k1 )

(7.a)

k3,(0) = f (xn + b3 h , yn + a31 h k1 + a32 h k2 )

(7.b)
115

A. GRANADOS

METODOS NUMERICOS

con los coecientes de (6). Una vez que estas estimaciones iniciales son usadas, se espera que exista una
convergencia segura y r
apida hacia la soluci
on del sistema no lineal 1.2.(6.b ), con los coecientes br de (4.a).
Proceso Iterativo
Como se menciono antes, el sistema de ecuaciones no lineales (6.b), que es originado por cualquier
metodo Runge-Kutta implcito, puede ser resuelto en las variables auxiliares kr , aplicando un procedimiento
iterativo de punto jo (ver [Gear,1971])
i
= f i (xn + br h , yn + ars h ks,(m) )
kr,(m+1)

(8)

el cual es el mas sencillo de usar debido a la forma de variable despejada que tiene el mencionado sistema
de ecuaciones. Aqu el ndice m = 0, 1, 2, 3, . . . es el n
umero de la iteracion en el proceso iterativo para cada
paso de integraci
on.
El error global durante el proceso iterativo se dene como
i
kri
ir,(m) = kr,(m)

(9.a)

on exacta del sistema de ecuaciones no lineal.


donde kri es la soluci
El error local en cada iteracion se dene como
i
i
kr,(m)
ir,(m) = kr,(m+1)

(9.b)

El procedimiento iterativo se detiene cuando se satisfaga


cr r,(m) < max

(9.c)

i
donde max es la tolerancia impuesta al error local para encontrar la soluci
on yn+1
de las ecuaciones diferenciales en un paso de integracion, y donde la norma del error local r,(m) se supone euclidiana.

Si ahora la expresi
on 1.2.(6.b) se sustrae de la expresion (8), queda
i
kr,(m+1)
kri = f i (xn + br h , yn + ars h ks,(m) ) f i (xn + br h , yn + ars h ks )]

(10)

Luego, si se aplica la condicion de Lipschitz (con h > 0 por conveniencia), resulta


j
i
|kr,(m+1)
kri | h lji |ars | |ks,(m)
ksj |

(11)

|ir,(m+1) | h lji |ars | |js,(m) |

(12)

donde lji es el maximo del valor absoluto de cada elemento de la matriz jacobiana de f . Esto es
|fji | lji
De manera que, si se satisface que
(m) = max

(13)


max |js,(m) |

1jM 1sN

(14)

entonces
|ir,(m+1) | h lji |ars | |js,(m) | h lji j |ars | s (m)
max


!

"

max |ir,(m+1) | max max h lji j |ars | s (m)

1iM 1rN

1iM 1rN

(m+1) h L A (m)
116

(15)
(16)
(17)

ECUACIONES DIFERENCIALES ORDINARIAS

CAP.IV

FUNDAMENTOS

donde



L = max lji j



A = max |ars | s

1iM

1rN

(18)

La expresion (17) signica que, para un alto n


umero de iteraciones, m , el error global (m) 0 cuando
h

1
LA

(19)

y el proceso iterativo es convergente localmente (tambien globalmente) en la forma


cr r,(m+1) < cr r,(m)

(20)

(se suma en r). La expresion (19) es el lmite del tama


no del paso para que el procedimiento iterativo de

punto jo descrito antes sea convergente. Esta


es la u
nica restricci
on adicional de los metodos implcitos,
frente a los explcitos. No obstante, los metodos implcitos son m
as estables que los explcitos, como se vera
mas adelante.
En la secci
on 3.7 se encontrar
a una formulaci
on general del proceso iterativo, cuando se usa el metodo
de Newton-Raphson, mas costoso en cuanto al computo y con una convergencia m
as rapida, en lugar del
sencillo y de lenta convergencia metodo de punto jo (7).
Algunas veces el sistema de ecuaciones diferenciales no aparece en la forma de (1), sino de una forma
implcita del tipo
$
dy i
dy %
= f i x, y,
i = 1, 2, 3, . . . , M
(21)
dx
dx
En estos casos, el procedimiento iterativo se aplica en la forma descrita antes, pero se requiere estimaciones
iniciales de kr tambien para el metodo Runge-Kutta explcito. Estas estimaciones debe ser aceptables, o de
otra forma el n
umero de iteraciones puede volverse muy grande. Una forma de obtener tales estimaciones es
mediante extrapolaciones con polinomios de Lagrange. esto es, para estimar k2 , se hace una extrapolaci
on
on con un polinomio
con un polinomio de grado 0 comenzando en k1 ; para estimar k3 , se hace una extrapolaci
de grado 1 denido por k1 and k2 ; Para estimar k4 , se hace una extrapolaci
on con un polinomio de grado 2
denido por k1 , k2 y k3 . El procedimiento descrito arroja los siguientes resultados
k2 = k1
b2 b3
b3
k1 + k2
b2
b2

(22.b)

(b4 b2 )(b4 b3 )
b4 (b4 b3 )
b4 (b4 b2 )
k2 +
k3
k1 +
b2 b3
b2 (b2 b3 )
b3 (b3 b2 )

(22.c)

k3 =
k4 =

(22.a)

N
otese que los coecientes br han sido usado como los puntos de colocaci
on de los correspondientes polinomios.
Para el metodo Runge-Kutta Lobatto las expresiones (22) se particularizan como
k2 = k1
k3

1+ 5
3+ 5
k1 +
k2
=
2
2

k4 = k1 5(k2 k3 )

(23.a)
(23.b)
(23.c)

En cualquier caso, la estimaci


on de k1 se hace con la variable k4 del paso inmediatamente anterior.

SEC. 3.3. METODOS IMPLICITOS

117

A. GRANADOS

METODOS NUMERICOS

3.3.3. Resuelto con Newton-Raphson


Esta seccion explica como el metodo Newton-Raphson puede ser aplicado para resolver el sistema de
acuaciones no lineales con las variables auxiliares kri en los metodos Runge-Kutta implcitos en general.
Sea un sistema de ecuaciones diferenciales ordinarias expresado como
dy i
= f i (y)
dx

dy
= f (y)
dx

(24.a)

con las condiciones iniciales


y i (xo ) = yoi

x = xo

y(xo ) = yo

(24.b)

Para resolver el problema de valor inicial (24.a, b) en un sistema autonomo, el metodo de Runge-Kutta
implcito
i
yn+1
= yni + h cr kri + O(hP +1 )
yn+1 = yn + h cr kr + O(hP +1 )
(24.c)
kr = f (yn + h ars ks )
kri = f i (yn + h ars ks )
puede ser utilizado con exito acompa
nado del metodo de Newton-Raphson (del lado izquierdo se han colocado
las expresiones en notacion indicial, mientras que en el lado derecho se han escrito usando notaci
on simb
olica).
La expresion (24.c) (segunda lnea) debe ser interpretada como un sistema de ecuaciones no lineales con las
variables auxiliares kri como incognitas en cada paso (n constante). Por esta razon, es conveniente denir la
funci
on
gr (k) = f (yn + h ars ks ) kr = 0
(25)
gri (k) = f i (yn + h ars ks ) kri = 0
que debe ser cero en cada componente cuando la solucion para cada kri ha sido encontrada en cada paso.
Con la nalidad de resolver el sistema de ecuaciones no lineales (25), es m
as eciente usar el metodo
de Newton-Raphson que el metodo de punto jo (como es sugerido por (10.b) y (25))
i
= f i (yn + h ars ks,(m) )
kr,(m+1)

kr,(m+1) = f (yn + h ars ks,(m) )

(26)

el cual es m
as f
acil de usar, pero tiene peor convergencia.
Sin embargo, para usar el metodo de Newton-Raphson method, la matriz jacobiana de la funci
on gri (k),
j
con respecto a las variables kt tiene que ser calculada, y tiene que ser denida como
gri
ktj

=h
=


f i 
ars kj st ij rt
y k yn +hars ks

h Jfij (yn

Jg (k) = h Jf (yn + h ars ks ) A If IA

(27)

+ h ars ks ) art rt
ij

donde ha sido usada la regla de la cadena y, del lado derecho de (25) y (27), k contiene todas las kr ,
r = 1, 2, . . . , N . Los superndices signican las componentes del sistema de ecuaciones diferenciales y los
subdices signican las correspondientes etapas. La notaci
on Jfij se usa en lugar de f i /y j , para los elementos
de la matriz jacobiana Jf (yn + h ars ks ), y r no suma aunque aparezca repetida dos veces. La matrices
identidad If y IA tienen las dimensiones de f y A, respectivamente (rangos de los ndices de las delta de
uscula negrilla sin ndice
Kronecker ij y rt ). De ahora en adelante, reservaremos el uso de la letra k min
(excepto el ndice m para las iteraciones internas) para aquellas variables donde se han agrupado en un solo
arreglo todas las etapas.
As, el metodo de Newton-Raphson puede ser aplicado de la siguiente manera algortmica
i
i
i
= kr,(m)
+ kr,(m)
kr,(m+1)

118

k(m+1) = k(m) + k(m)


ECUACIONES DIFERENCIALES ORDINARIAS

(28.a)
CAP.IV

FUNDAMENTOS

i
donde las variables del error kt,(m)
se encuentran de la resoluci
on del siguiente sistema de ecuaciones lineales

& g i '
r

ktj

(m)

j
kt,(m)
= gri (k(m) )

[Jg (k(m) )].k(m) = g(k(m) )

(28.b)

donde es el factor de relajaci


on y (m) indica el n
umero de la iteraci
on interna (se mantiene yn y h

olica. El proceso
constantes). Los dices j y t son los que se contraen en la operacion de la ecuacion simb
iterativo descrito por (28) se aplica de forma sucesiva hasta satisfacer
h cr r,(m) = h cr kr,(m) < max

donde

i
i
ir,(m) = kr,(m+1)
kr,(m)

(29)

El valor ir,(m) es el error local en la variable auxiliar kri , mientras que h cr r,(m) es el error local para yn+1 ,
i
on numerica de yn+1
. El ndice r suma
y max es la tolerancia para el error de truncamiento local en la soluci
en (29.a)

Para funciones muy complicadas, es conveniente expresar las derivadas parciales en la matriz (tensor)
jacobiana (27) usando diferencias nitas atrasada, como esta indicado en la siguiente expresi
on
& g i '
r
ktj

& f i (y + y ) f i (y(j) ) '


n
n
n
ynj

art ji rt

(30)

donde la perturbaci
on para derivar es
ynj = h ars ksj

and

f i (yn(j) ) = f i (yn1 + yn1 , yn2 + yn2 , . . . , ynj , . . . , ynM + ynM )

(31)

(j)

on perturbada
y la evaluaci
on de la derivada se hace mediante diferencias atrasadas siendo f i (yn ) la funci
(hacia atr
as) u
nicamente en la componenten j.
j
para el proceso iterativo se pueden estimar con un metodo Runge-Kutta
Los valores iniciales kr,(0)

explcito, cuyos puntos de colocaci


on br sean los mismos que los del metodo implcito.
El problema planteado en (25) puede ser re-escrito de la siguiente forma

g(k) = F(k) k = 0

f (yn + h a1s ks )

..

F(k) = f (yn + h ars ks )

..

f (yn + h aN s ks )

f (yn + h a1s ks ) k1

..

g(k) =
f (yn + h ars ks ) kr

..

f (yn + h aN s ks ) kN

(32)

La funci
on F y la variable k tienen dimensiones M N (caso autonomo). El algoritmo del metodo NewtonRaphson (28) se puede exprear como
km+1 = km [Jg (km )]1. g(km ) = km [JF (km ) II]1. (F(km ) km )

[Jg (k)] = [JF (k)] [ II ] (33)

con II = If IA o lo que es en resumen lo mismo


km+1 = km + km

[Jg (km )].km = g(km )

[JF (km ) II].km = (F(km ) km )

(33 )

on g(k) en (33.b) puede ser


donde [JF (k)] es el jacobiano de la funcion F(k), y el jacobiano [Jg (k)] de la funci
calculada de (27).
SEC. 3.3. METODOS IMPLICITOS

119

A. GRANADOS

METODOS NUMERICOS

El metodo de punto jo (26) tiene convergencia lineal en la proximidad de la soluci


on cuando
km+1 = F(km )

[JF ()]IB (k ) < 1

[JF (k)]rt = h art Jf (yn + h ars ks )

(34.a, b, c)

h a11 [ Jf (yn + h a1s ks ) ] h a1t [ Jf (yn + h a1s ks ) ] h a1N [ Jf (yn + h a1s ks ) ]

..
..
..

.
.
.

[JF (k)] = h ar1 [ Jf (yn + h ars ks ) ] h art [ Jf (yn + h ars ks ) ] h arN [ Jf (yn + h ars ks ) ]

..
..
..

.
.
.
h aN 1 [ Jf (yn + h aN s ks ) ] h aN t [ Jf (yn + h aN s ks ) ] h aN N [ Jf (yn + h aN s ks ) ]

(34.c )

con el bloque de la la y la columna r, t indicado (no suma en r y si suma en s), r, t, s = 1, . . . , N . De forma


similar, es bien conocido que, en la proximidad de la soluci
on, el metodo de Newton-Raphson (33) tiene una
convergencia cuadr
atica cuando
Jh () IB (k ) < 1

h(k) = k [Jg (k)]1 . g(k)


t
[Jh (k)] = [ I ] [Jg ]1. [Jg ]t + [Jg ]1. [IHg ] . [Jg ]1. g

with

(35)

donde los jacobianos son [Jg (k)] = [JF (k)] [ II ], los hessianos son iguales, [IHg (k)] = [IHF (k)], y IB (K ) es
la bola cerrada de radio = k k < con centro en k , la soluci
on de (32.a). La norma usada es la
norma innita [Burden & Faires,1985].
Cuando la condici
on (35.a) es apropiadamente aplicada al metodo Runge-Kutta, esta impone una
restriccion al valor del tamao del paso h. Esta restriccion nunca debe ser confundida con la restricci
on
impuesta por los criterios de estabilidad, ni con el control del tama
no del paso. Para un an
alisis de estos
u
ltimos aspectos en el caso propuesto como ejemplo, referirse a [Granados,1996].
Implcito Parcial
El proceso iterativo ser
a ilustrado para el metodo Runge-Kutta de la cuadratura de lobato, implcito
onoma y = f (y). As,
solo en k2 y k3 del ejemplo (4.a), en el caso the una ecuacion diferencial ordinaria aut
la funci
on de la ecuaci
on homogenea es

{g(k)} =

g2 (k)
g3 (k)


=

f (yn + h a2s ks ) k2
f (yn + h a3s ks ) k3


=0

(36)

y tiene un jacobiano igual a




h a22 f  (yn + h a2s ks ) 1


h a23 f  (yn + h a2s ks )
[Jg (k)] =

h a32 f (yn + h a3s ks )
h a33 f  (yn + h a3s ks ) 1


(37)

Entonces el proceso iterativo se implementa como



[Jg (k)]m

k2
k3


=
m

g2 (k)
g3 (k)


m

k2
k3


=
m+1

k2
k3


+
m

k2
k3


(38)
m

las iteraciones en m se realizan para cada paso de tama


no h (n constante) hasta que la condicion (29) se
satisfaga. Despues de sto se calcula k4 y yn+1 , y se puede intentar realizar la integraci
opn en otro paso
(siguiente n) con el mismo u otro tama
no.
Implcito Total
Un metodo Runge-Kutta con tres etapas N = 3, como el ejemplo (3.c), para un sistema autonomo de
ecuaciones diferenciales ordinarias
kr = f (yn + h ars ks )
120

r, s = 1, 2, . . . , N
ECUACIONES DIFERENCIALES ORDINARIAS

(39)
CAP.IV

FUNDAMENTOS

encuentra la soluci
on del paso siguiente yn+1 , con un error local del orden de hP +1 , como
yn+1 = yn + h cr kr + O(hP +1 )

(40)

El error global es del orden de hP . Para resolver las inc


ognitas ks en cada paso, se establece el sistema de
ecuaciones no lineales, as se puede aplica el metodo de Newton-Raphson a la funcion g(k)

f (yn + h a1s ks )
F(k) = f (yn + h a2s ks )

f (yn + h a3s ks )

f (yn + h a1s ks ) k1
g(k) = f (yn + h a2s ks ) k2

f (yn + h a3s ks ) k3

(41)

h a12 [ Jf (yn + h a1s ks ) ]


h a13 [ Jf (yn + h a1s ks ) ]
h a11 [ Jf (yn + h a1s ks ) ] [ I ]
[Jg (k)] = h a21 [ Jf (yn + h a2s ks ) ]
h a22 [ Jf (yn + h a2s ks ) ] [ I ]
h a23 [ Jf (yn + h a2s ks ) ]
h a32 [ Jf (yn + h a3s ks ) ]
h a33 [ Jf (yn + h a3s ks ) ] [ I ]
h a31 [ Jf (yn + h a3s ks ) ]

(42)

g(k) = F(k) k = 0

El jacobiano de dicha funci


on es

Un procedimiento iterativo se aplica despues para obtener siguientes iterados

k1
[Jg (km )] k2
= g(km )

k3 m

k1
k1
k1
k2
=
k2
+ k2

k3 m+1
k3 m
k3 m

(43)

dentro de un u
nico paso h (n constante). Las iteraciones se calculan (ndice m) hasta que se asegure la
convergencia en (29).
3.4. ESTABILIDAD
La estabilidad de los metodos Runge-Kutta se establecen mediante el an
alisis del problema
dy
= f (y)
dx

f (y) = y

(1)

La aplicaci
on del metodo Runge-Kutta el problema (1) da
kr = f (yn + h ars ks ) = (yn + h ars ks ) = yn + h ars ks

(2)

Agrupando las ks y extrayendo el factor com


un, se obtiene
(rs h ars )ks = yn r

[ I hA ] .{k} = {1} yn

(3)

La matriz [A] contiene los coecientes ars del metodo. El vector k representa las ks para todas las etapas
en un arreglo. El vector {1} es un vector lleno de 1 en todas sus componentes, y [ I ] es la matriz identidad.
La dimensi
on del sistema (3) es el n
umero de etapas N . Resolviendo el sistema de ecuaciones para el vector
k se obtiene
(4)
k = [ I h A ]1. {1} yn
y computando la nueva integraci
on yn+1
yn+1 = yn + h cr kr

yn+1 = yn + h c.k


= yn + h c . [ I h A ]1. {1} yn = 1 + c . [ I h A ]1. {1} h yn

(5)

= (h) yn
SEC. 3.4. ESTABILIDAD

121

A. GRANADOS

METODOS NUMERICOS

donde la funci
on involucrada (z), z = h, es la denominada raz caracterstica del metodo y puede ser
expresada por
(z) = 1 + c . [ I z A ]1. {1} z
(6)
El metodo se dice que es estable en los rangos de z = h donde (z) es menor en valor absoluto que la
unidad. Si |(h)| es menor que la unidad, entonces se satisface que |yn+1 | es menor que |yn | y la estabilidad
es garantizada.
Para el metodo 3.3.(3.c), metodo de Cuadratura de Gauss, la funci
on de la raz caracterstica es
[Lapidus & Seinfeld,1971,p.135]
1 2
1 3
z + 120
z
1 + 12 z + 10
(z) =
(7)
1
1 2
1 3
1 2 z + 10 z 120
z
una aproximacion de Pade para ez en la posicion diagonal de la tabla [Burden & Faires,1985] [Lapidus &
Seinfeld,1971]. In este caso |(h)| < 1 para la parte real () < 0, por lo tanto el metodo se dice que es
A-stable o absolutamente estable.
Para el metodo 3.3.(4.a), metodo de Cuadratura de Lobatto, la funci
on de la raz caracterstica es
[Granados,(1996)]
1 3
1 4
1 + 23 z + 15 z 2 + 30
z + 360
z
(z) =
(8)
1
1 2
1 3 z + 30 z
y tambien es una aproximaci
on de Pade de ez . La expresion (8) es siempre positiva y menor que la unidad en


3
el intervalo z ( 9.648495248 , 0.0 ) = (a, 0), donde a = 4 + b 4/b y b = 124 + 4 965 = 6.284937532.
Se puede notar que la funci
on (z) se appoxima relativamente bien a la funci
on y = ez para el rango z>
4,
donde cercanamente tiene un mnimo (z = 3.827958538). Aunque existe un m
aximo local y un mnimo
local alrededor de z = 6.276350 y z = 12.278646, respectivamente (no se ven en la graca de la gura 1).
Characteristic Root

Characteristic Root

0.8

0.8

0.6

0.6
(h)

(h)

0.4

0.4

0.2

0.2

0
Gauss
Lobatto

-0.2
-10

-9

-8

-7

-6

-5

-4
h

-3

-2

-1

Ralston
Lagrange
1

-0.2
-3

-2.5

-2

-1.5

-1

-0.5

0.5

Figura 1. Raz Caracterstica para cuadraturas de Gauss y de Lobatto implcitos (izquierda).


Raz Caracter. para los coecientes del metodo de Lobatto explcito, calc. con Ralston y Lagrange (derecha).
La gura 1 (izquierda) muestra las funciones de las races caractersticas para los metodos de cuadratura
de Lobatto 3.3.(4.a) con la ec. (8), y el metodo de cuadratura de Gauss 3.3.(3.c) con la ec. (7) en el intervalo
h [10, 1]. Un aspecto especial es el hecho de que, siendo irracionales la mayor parte de los coecientes
de los metodos, las funciones de las races caractersticas obtenidas con (6) son completamentes racionales.
La gura 1 (derecha) compara las funciones de la races caractersticas en el intervalo h [3, 0.5],
de la familia de metodos de Ralston ec. 3.2.(1), R-K explcito (P = 4) eq. 3.3.(6), y mediante la generacion
122

ECUACIONES DIFERENCIALES ORDINARIAS

CAP.IV

FUNDAMENTOS

con extrapolaci
on de Lagrange ec. 3.2.(9), R-K explicito (P = 4) (a21 = (5 5)/10, a31 = (5 + 3 5)/10,

a32 = (5 + 2 5)/5, a41 = 1, a42 = 5, a43 = 5, ars = 0 s r), ambos con los mismos puntos de

colocacion (b1 = 0, b2 = (5 5)/10, b3 = (5 + 5)/10, b4 = 1) del metodo de cuadratura de Lobatto.


Las curvas estan muy cercanas entre s con mnimos en ( h = 1.5961 , = 0.2704 ) y ( h = 1.6974
, = 0.0786 ) y lmites de estabilidad en ( h = 2.7853 , = 1 ) y ( h = 2.625253 , = 1 ), para
los tipos de Ralston y Lagrange, respectivamente. Esto signica que las caractersticas de estabilidad para
ambos metodos son similares.
Para el caso del metodo Runge-Kutta implcito tipo Lobatto de tercer orden (P = 3), resumido en los
coecientes 3.3.(4.b), se obtiene
1
0
1 3
1 + 23 z + 15 z 2 + 30
z
(9)

(z) =
1 2
1 13 z + 30
z
Expresi
on que ya no es una aproximaci
on de Pade.
Los lmites de estabilidad de los metodos de cuadratura de Lobatto son los siguientes
h

6.8232
||

(Metodo Implcito de 3er orden)

(10)

9.6485
||

(Metodo Implcito de 6to orden)

(11)

Las condiciones (10) y (11) revelan que los metodos Runge-Kutta implcitos tipo Lobatto de tercer
y sexto ordenes son mas estables que el metodo Runge-Kutta explcito tipo Fehlberg de cuarto y quinto
ordenes, los cuales poseen las siguientes condiciones de estabilidad

2.785
||

(Metodo Explcito 4to orden)

(12)

3.15
||

(Metodo Explcito 5to orden)

(13)

Una consideracion importante es que los metodo implcitos son mucho mas estables que los metodos
explcitos, con rangos de estabilidad mucho mas amplios. Esto permite escoger tama
nos de pasos mucho
mas grandes para los metodos implcitos, lo que reduce el tiempo de computo substancialmente, aunque los
algoritmos numericos seam m
as complejos como se acaba de ver.
3.5. RESULTADOS
La gura 1 muestra los resultados de comparar los metodos de cuadratura de Lobatto implcitos de
tercer y sexto ordenes (RKI36) y Fehlberg de cuart y quinto ordenes (RKF45). Ambos con control de paso
y con ns = 2000 pasos. Se observa que RKF45 luego de realizar 4 orbitas se vuelve inestable, mientras que
RKI36 continua siendo estable.

SEC. 3.5. RESULTADOS

123

A. GRANADOS

METODOS NUMERICOS

Figura 1. Orbitas de Arenstorf computadas con metodos Runge-Kutta implcitos (RKI36) y explcitos (RKF45)
con ns = 2000 pasos por orbita (para impresi
on) con control de paso autom
atico (4 y 5 orbitas).
124

ECUACIONES DIFERENCIALES ORDINARIAS

CAP.IV

FUNDAMENTOS

La gura 2 muestra los resultados para el c


omputo de las orbitas de Arenstorf con el metodo de
cuadratura de Gauss 3.3.(3.c), con tres tipos de procedimientos para resolver las variables auxiliares kr .
Arenstorf Orbit
1.5

0.5

0.5

y Position

y Position

Arenstorf Orbit
1.5

-0.5

-0.5

-1

-1
Initial Iteration
Fixed Point 1
Newton-Raphson 1
N-R Numeric 1

-1.5
-1.5

-1

-0.5

0
x Position

0.5

Fixed Point 2
Newton-Raphson 2
N-R Numeric 2
-1.5
-1.5

1.5

-1

-0.5

0.5

1.5

0.5

0.5

-0.5

1.5

-0.5

-1

-1
Fixed Point 3
Newton-Raphson 3
N-R Numeric 3

-1.5
-1.5

Arenstorf Orbit

1.5

y Position

y Position

Arenstorf Orbit

0
x Position

-1

-0.5

0
x Position

0.5

Fixed Point 4
Newton-Raphson 4
N-R Numeric 4
1.5

-1.5
-1.5

-1

-0.5

0
x Position

0.5

1.5

Figura 2. Una orbita de Arenstorf computada con Runge-Kutta implcito equidistante (ns = 3000 pasos).
Punto Fijo, Newton-Raphson Analtico, y Newton-Raphson Numerico. Una, dos, tres, y cuatro iterationes.
El problema 3.1.(7) (10) fue resuelto para ns = 3000 pasos en un perodo T (h = T /ns ), que es una
rbita completa. El problema fue reformulado en 3.1.(11) (14) con la nalidad de calcular el jacobiano [Jf ]
o
mas f
acilmente. Con los valores iniciales estimados con la precisi
on mostrada en las ecuaciones, un proceso
iterativo (en el ndice m para cada paso) se implement
o con tres variantes: Metodo de Punto Fijo, Metodo
de Newton-Raphson, y Metodo de Newton-Raphson con el jacobiano [Jg ] calculado numericamente. De una
a cuatro iteraciones fueron ejecutadas en cada procedimiento, identicados en la leyenda de las gr
acas en
la esquina inferior derecha con los dgitos 1, 2, 3 o 4. Para obtener una soluci
on razonable con el metodos
explcito 3.2.(7.a), linea punteada en la primera pantalla (arriba-izquierda) en la gura 2, identicada con
Iteracion Inicial, fue necesario mas de ns = 7.3 105 pasos. Con ns = 3000 este metodo produce un espiral
incremental que se sale de pantalla en el sentido del reloj con centro en (1,0). Lo mismo para el Metodo de
Newton-Raphson Numerico, una iteraci
on, pero con una espiral m
as grande.
Para este caso (ns = 3000), dos iteraciones son sucientes para el Metodo Newton-Raphson Analtico
SEC. 3.5. RESULTADOS

125

A. GRANADOS

METODOS NUMERICOS

y cuatro iteraciones para el Metodo de Punto Fijo para obtener una buena precision. Con tres iteraciones,
tanto los Metodos Newton-Raphson Analtico como el Numerico son equivalentes en precisi
on.
La gura 3 muestra los resultados para ns = 2000, cerca de los lmites de estabilidad. El Metodo
Newton-Raphson Analtico necesita dos iteraciones para tener una buena ejecuci
on. En cambio, el Metodo
Newton-Raphson Numerico y Metodo de Punto Fijo necesitan cuatro iteraciones para estabilizarse, pero el
segundo se comporto mejor.
Arenstorf Orbit
1.5

0.5

0.5

y Position

y Position

Arenstorf Orbit
1.5

-0.5

-0.5

-1

-1
Fixed Point 2
Newton-Raphson 2
N-R Numeric 2

-1.5
-1.5

-1

-0.5

0
x Position

0.5

Fixed Point 4
Newton-Raphson 4
N-R Numeric 4
1.5

-1.5
-1.5

-1

-0.5

0
x Position

0.5

1.5

Figura 3. Una orbita de Arenstorf computada con Runge-Kutta implcito equidistante (ns = 2000 pasos).
Punto Fijo, Newton-Raphson Analtico, y Newton-Raphson Numerico. Dos y cuatro iteraciones.
La conclusi
on es que los metodos se han ordenados del mejor al peor: Newton-Raphson Analtico,
Newton-Raphson Numerico y Punto Fijo, para alto n
umero de iteraciones (m 4). Para bajo n
umero
de iteraciones (m = 2), Newton-Raphson Numerico y Punto jo son competitivos por razones numericas
al calcular estimaciones de las derivadas en la matriz jacobiana, pero esto declina con el incremento del
n
umero de iteraciones o la disminuci
on del tama
no del paso, cuando los metodos Newton-Raphson Numerico
y Analtico se vuelven equivalentes.
BIBLIOGRAFIA
[1] Burden R. L.; Faires, J. D. Numerical Analysis, 3rd Edition. PWS (Boston), 1985.
[2] Butcher, J. C. Implicit Runge-Kutta Processes, Math. Comput., Vol.18, pp.50-64, (1964).
[3] Butcher, J. C. On the Runge-Kutta Processes of High Order, J. Austral. Math. Soc., Vol.IV,
Part 2, pp.179-194, (1964).
[4] Butcher, J. C. The Numerical Analysis of Ordinary Dierential Equations, Runge-Kutta
and General Linear Methods. John Wiley (New York), 1987.
[5] Butcher, J. C. Numerical Methods for Ordinary Dierential Equations, 2nd /3rd Editions.
John Wiley & Sons (New York), 2008/2016.
[6] Cash, J. R.; Karp, A. H. ACM Transactions on Mathematical Software, Vol.16, pp.201-222,
1990.
[7] Chapra S. C.; Canale, R. P. M
etodos Num
ericos para Ingenieros, Tercera Edici
on. McGraw-Hill
Interamericana Editores (Mexico), 1999.
[8] Fehlberg, E. Low-Order Classical Runge-Kutta Formulas with Stepsize Control, NASA Report
No. TR R-315, 1971.
126

ECUACIONES DIFERENCIALES ORDINARIAS

CAP.IV

FUNDAMENTOS

[9] Gear, C. W. Numerical Initial Value Problems in Ordinary Dierential Equations. PrenticeHall (Englewood Clis-New Jersey), 1971.
[10] Gerald, C. F. Applied Numerical Analysis, 2nd Edition. Addison-Wesley (New York), 1978.
[11] Granados M., A. L. Lobatto Implicit Sixth Order Runge-Kutta Method for Solving Ordinary Dierential Equations With Stepsize Control, Mec
anica Computacional, Vol.XVI, compilado por G.
Etse y B. Luccioni (AMCA, Asociaci
on Argentina de Mec
anica Computacional), pp.349-359, (1996).
[12] Granados M., A. L. Implicit Runge-Kutta Algorithm Using Newton-Raphson Method. Simulaci
on con M
etodos Num
ericos: Nuevas Tendencias y Aplicaciones, Editores: O. Prado,
M. Rao y M. Cerrolaza. Memorias del IV CONGRESO INTERNACIONAL DE METODOS NUMERICOS EN INGENIERIA Y CIENCIAS APLICADAS, CIMENICS98. Hotel Intercontinental
Guayana, 17-20 de Marzo de 1998, Puerto Ordaz, Ciudad Guayana. Sociedad Venezolana de Metodos
Numericos en Ingeniera (SVMNI), pp.TM9-TM16. Corregido y ampliado Abril, 2016. https://
www.academia.edu/11949052/Implicit Runge-Kutta Algorithm Using Newton-Raphson Method
[13] Granados M., A. L. Implicit Runge-Kutta Algorithm Using Newton-Raphson Method. Fourth World
Congress on Computational Mechanics, realizado en el Hotel Sheraton, Buenos Aires, Argentina,
29/Jun/98 al 2/Jul/98. International Association for Computational Mechanics, Abstracts, Vol.I,
p.37, (1998).
[14] Hairer, E.; Nrsett, S. P.; Wanner, G. Solving Ordinary Dierential Equations I. Nonsti
Problems. Springer-Verlag (Berlin), 1987.
[15] Hairer, E.; Wanner, G. Solving Ordinary Dierential Equations II: Sti and Dierential Algebraic Problems. Springer-Verlag (Berlin), 1991.
[16] Lapidus, L.; Seinfeld, J. H. Numerical Solution of Ordinary Dierential Equations. Academic
Press (New York), 1971.
[17] Lobatto, R. Lessen over Dierentiaal- en Integraal-Rekening. 2 Vols. (La Haye), 1851-52.
[18] Ralston, A.; Rabinowitz, P. A First Course in Numerical Analysis, 2nd Edition. McGraw-Hill
(New York), 1978.
[19] Shampine, L. F.; Watts, H. A.; Davenport, S. M. Solving Non-Sti Ordinary Dierential Equations
- The State of the Art. SANDIA Laboratories, Report No. SAND75-0182, 1975. SIAM Review,
Vol.18, No.3, pp.376-411, (1976).
[20] Sommer, D. Numerische Anwendung Impliziter Runge Kutta-Formeln, ZAMM, Vol.45 (Sonderheft),
pp.T77-T79, (1965).
[21] van der Houwen, P. J.; Sommeijer, B. P. Iterated Runge-Kutta Methods on Parallel Computers.
SIAM J. Sci. Stat. Comput., Vol.12, No.5, pp.1000-1028, (1991).

SEC. BIBLIOGRAFIA

127

CAPITULO V
ECUACIONES
EN DERIVADAS
PARCIALES
CONTENIDO
1. INTRODUCCION.

130

1.1. Fundamentos.
1.2. Clasicaci
on de Las Ecuaciones.

130
130

1.3. Consistencia, Estabilidad y Convergencia.


2. METODO DE DIFERENCIAS FINITAS.
2.1. Ecuaciones Elpticas.

131
131
131

2.1.1. Discretizaci
on del Laplaciano.
2.1.2. Termino de Fuente.

131
132

2.1.3. Termino Advectivo.


2.2. Ecuaciones Parab
olicas.

132
132

2.2.1. Metodo de Euler.


2.2.2. Metodo de Crack-Nicholson.

132
133

2.2.3. Metodo de Las Lneas.


2.3. Ecuaciones Hiperb
olicas.

134
134

3. METODO DE VOLUMENES FINITOS.


3.1. Fundamentos.

135
135

3.1.1. Cuatro Reglas B


asicas.
3.1.2. Difusidad en la Interfaz.

136
136

3.1.3. Discretizaci
on de Dos Puntos.
3.2. Discretizaci
on General.

137
140

3.2.1. Ecuaci
on Estacionaria.

140

3.2.2. Ecuaci
on Transitoria.
3.2.3. Metodo ADI.

141
142

4. FLUJO GENERAL INCOMPRESIBLE VISCOSO.


4.1. Ecuaciones Fundamentales.

142
142

4.2. Aproximaciones Discretas Directas.


4.3. Aproximaciones Discretas Proyectadas.

143
144

4.4. Metodo de Paso Fraccionado.

145

129

A. GRANADOS

METODOS NUMERICOS

5. METODOS VARIACIONALES.
5.1. Metodo de los Residuos Ponderados.
5.2. Metodo de Colocacion.
5.2.1. Colocaci
on Determinstica.
5.2.2. Colocaci
on Sobre Especicada.
5.2.3. Colocaci
on Ortogonal.
5.3. Metodo de Galerkin.
5.4. Metodo de Elementos Finitos.
5.4.1. Unidimensional.
5.4.2. Bidimensional.
5.4.3. Transitorio.
BIBLIOGRAFIA.

147
147
149
149
150
151
152
152
153
154
156
157

1. INTRODUCCION
1.1. FUNDAMENTOS
Las ecuaciones diferenciales en derivadas parciales son todas aquellas que poseen terminos en funci
on
de derivadas parciales. Pueden ser lineales con coecientes constantes, variables (funci
on de x y y y sus
derivadas parciales en 2D) y no lineales (potencias o funciones trascendentes de derivadas parciales).
1.2. CLASIFICACION DE LAS ECUACIONES
Sea f (x, y) una funci
on de x y y, entonces la ecuacion diferential en derivadas parciales de segundo
orden con coecientes constantes o dependientes de x y y
a

2f
f
2f
f
2f
+
c
+e
+hf +g = 0
+
b
+d
x2
xy
y 2
x
y

(1)

v
alida en un dominio D y con condiciones de contorno en la frontera D de tipo valor (Dirichlet), derivada
(Neumann) o mixtas, se dice que es lineal. Si adicionalmente a, b y c dependenden de f , f /x y f /y, y
d y e dependen de f , se dice que es cuasi-lineal. En caso contrario, se dice que es no-lineal.
Si denimos el discriminante
= b2 4 a c
(2)
entonces la ecuacion diferencial (1) se clasica como:
< 0 Ecuaci
on elptica e.g.
2U
2U
+
=S
2
x
y 2

= 4

(3.a)

= 0 Ecuaci
on parab
olica e.g.
2U
U
=
x
y 2

=0

(3.b)

> 0 Ecuaci
on hiperb
olica e.g.
2
2U
2 U
=
C
=0
x2
y 2

= 4 C2

(3.c)

La ecuacion (3.a) recibe el nombre de la ecuacion de Laplace si S = 0 o de Poisson si S


= 0. La
ecuacion (3.b) recibe el nombre de difusi
on transitoria (x = t). La ecuacion (3.c) recibe el nombre de la
ecuacion de onda (x = t).
130

ECUACIONES EN DERIVADAS PARCIALES

CAP.V

FUNDAMENTOS

1.3. CONSISTENCIA, ESTABILIDAD y CONVERGENCIA


Si designamos por:
on analtica de la ecuacion diferencial.
U (xi ) Soluci
on exacta del esquema numerico.
Ui Soluci
ui Soluci
on numerica hallada por la computadora.
Vamos a denir los siguientes terminos:
Error de Truncamiento. Eit = |U (xi ) Ui | Es el error causado por el metodo numerico y se debe al hecho
de que el metodo en cuestion se origina de una serie truncada.
umero limitado de dgitos en los
Error de Redondeo. Eir = |Ui ui | Es el error causado por el uso de un n
calculos que realiza el computador.
Error Total. Ei = |U (xi ) ui | Eit + Eir Es el error global causado por los dos aspectos anteriormente
mencionados, pero que no son simplemente aditivos.
Consistencia. Un esquema numerico es consistente si el error e truncamiento tiende a anularse cuando x
tiende a cero (x 0 = Eit 0).
Estabilidad. Un esquema numerico es estable si el error de redondeo tiende a anularse cuando x tiende a
cero (x 0 = Eir 0).
Convergencia. (Teorema de Lax) Si un esquema numerico es consistente y estable, entonces converge
(x 0 = Ei 0).

2. METODO DE DIFERENCIAS FINITAS


2.1. ECUACIONES ELIPTICAS
2.1.1. Discretizaci
on del Laplaciano
El laplaciano se discretiza con diferencias centrales (III.1.7.(2.b)) para intervalos regulares como
(2 u)i = IL(Ui ) + O(h2 ) =

Ui1 2 Ui + Ui+1
+ O(h2 )
h2

(1)

Para intervalos irregulares como


IL(Ui ) = 2 U [xi1 , xi , xi+1 ]

(2)

hallada con la par


abola que pasa por los puntos xi1 , xi y xi+1 . Se ha usado la notaci
on de los polinomios
de Newton en diferencias divididas.
Para dos dimensiones cartesianas la expresi
on (1) se convierte en
(2 u)i,j = IL(Ui,j ) + O(h2 ) =

Ui1,j 2 Ui,j + Ui+1,j


Ui,j1 2 Ui,j + Ui,j+1
+
+ O(h2 )
h2x
h2y

(3)

siendo h2 = h2x +h2y . Para dimensi


on tres, el resultado es similar para IL(Ui,j,k ). En los tres casos los terminos
con Ui , Ui,j y Ui,j,k se acumulan teniendo al nal un coeciente 2D (D = dimensi
on).
En el caso unidimensional en intervalos regulares, la substituci
on de la ecuaci
on (1) para cada punto
i = 1, 2, . . . , N discretizados para la ecuacion de Laplace
2 u = 0

u(a) =

u(b) =

(4)

resulta en un sistema de ecuaciones lineales en las incognitas Ui , con una matriz tridiagonal, donde en los
extremos se aplica las condiciones de valor en la frontera U0 = u(a) = y UN +1 = u(b) = .
SEC. 2.1. ECUACIONES ELIPTICAS

131

A. GRANADOS

METODOS NUMERICOS

2.1.2. T
ermino de Fuente
En las discretizaciones antes realizadas, para la ecuaci
on de Poisson, el termino de fuente debe evaluarse
un el caso.
para el termino central Si , Si,j y Si,j,k , seg
2.1.3. T
ermino Adventivo
En algunas ecuaciones semi-elpticas, como la ecuacion de Burgers o de Navier-Stokes, contiene un
termino adventivo IH(u) = u.u, que se discretiza seg
un tenga una inuencia aguas-arriba o aguas-abajo.
Aunque el termino adventivo tiene car
acter hiperb
olico, aunque este tipo de ecuaciones no cae dentro de la
clasicacion dada en la seccion 1.2.
El adventivo se discretiza con diferencias no-centrales (III.1.7.(1.c)) para intervalos regulares como
Ui2 4 Ui1 + 3 Ui
+ O(h2 )
2h

(5.a)

3 Ui + 4 Ui+1 Ui+2
+ O(h2 )
2h

(5.b)

u.(u)i = IH(Ui ) + O(h2 ) = Ui


u.(u)i = IH(Ui ) + O(h2 ) = Ui

la expresion (5.a) para aguas-abajo y la expresi


on (5.b) para aguas-arriba.
Para intervalos irregulares como
IH(Ui ) = U (xi ) { U [xi1 , xi ] + (xi xi1 ) U [xi2 , xi1 , xi ] }

(6.a)

IH(Ui ) = U (xi ) { U [xi , xi+1 ] + (xi xi+1 ) U [xi , xi+1 , xi+2 ] }

(6.b)

halladas con la par


abola que pasa por los puntos xi2 , xi1 y xi o los puntos xi , xi+1 y xi+2 .
2.2. ECUACIONES PARABOLICAS
Estos metodos los vamos a explicar con el ejemplo de la ecuacion de difusi
on transitoria unidimensional

u(0, x) = uo (x)

u
2u
= 2
u(a, t) = (t)
(1)

t
x

u(b, t) = (t)
donde del lado derecho se han colocado las condiciones iniciales y las condiciones de contorno de valor en la
frontera.
2.2.1. M
etodo de Euler
El termino transitorio u/t se discretiza de dos formas: explcita e implcita.
La discretizacion explcita es
u
t

t
=
i

t
U t 2 Uit + Ui+1
Uit+1 Uit
+ O(t) = IL(Uit ) + O(h2 ) = i1
+ O(h2 )
t
h2

(2)

Se acostumbra a agrupar los ordenes del error de truncamiento bajo un mismo smbolo O(t+h2 ). Despejando
Uit+1 se obtiene


t t
2 t
t t
t+1
Uit + 2 Ui+1
(3)
Ui = 2 Ui1 + 1
2
h
h
h
Este esquema iterativo es similar al de Jacobi (seccion II.1.2.1), luego es convergente si la matriz es
diagonalmente dominante. El metodo es estable si
CF L =
132

t
1

2
h
2

(4)
ECUACIONES EN DERIVADAS PARCIALES

CAP.V

FUNDAMENTOS

El par
ametro del lado izquierdo de la desigualdad anterior es lo que se denomina el factor CFL (CourantFriedrichs-Lewy). Esta condicion se llama as en honor a Richard Courant, Kurt Friedrichs y Hans Lewy que
la describieron en un artculo en 1928.
La discretizacion implcita es
u
t

t+1
=
i

Uit+1 Uit
+ O(t)
t

(5.a)

t+1
U t+1 2 Uit+1 + Ui+1
Uit+1 Uit
= IL(Uit+1 ) + O(t + h2 ) = i1
+ O(t + h2 )
t
h2

(5.b)

La primera derivada u/t en (2) y (5.a) se ha discretizado seg


un III.1.7.(1.a).
Reorganizando la ecuacion queda


t t+1
2 t
t t+1
U

1
+
= Uit
Uit+1 + 2 Ui+1
h2 i1
h2
h

(6)

que aplicada a todos los puntos i = 1, 2, . . . , N forma un sistema de ecuaciones lineales en las incognitas
Uit+1 con matriz tridiagonal. Esta se puede resolver con el algoritmo de Thomas. El metodo planteado es
incondicionalmente estable.
2.2.2. M
etodo de Crank-Nicholson
Si hacemos un promedio de los metodos anteriores explcitos e implcito se obtiene


t+1
t+1
t
t
2 Uit+1 + Ui+1
Ui1
2 Uit + Ui+1
Ui1
+
h2
h2
"
!
=
IL(Uit ) + IL(Uit+1 ) + O(t2 + h2 )
2

Uit+1 Uit

=
t
2

+ O(t2 + h2 )
(7)

Reorganizando los terminos U t+1 de una lado y los terminos U t del otro, queda




t
t t+1
t t
t
t t
t t+1
t+1
U

1
+
+
U
=

U
Uit 2 Ui+1
i
2 h2 i1
h2
2 h2 i+1
2 h2 i1
h2
h

(8)

Se obtiene un sistema de ecuaciones en Uit+1 , con matriz tridiagonal.


Cuando el metodo se aplica en dos dimensiones x y y con dos mallados de tama
nos h = x y k = y,
entonces la estabilidad del metodo
t+1
t
!
"
Ui,j
Ui,j
t+1
t
= (1 ) IL(Ui,j
) + IL(Ui,j
)
t

(9)

viene determinada por > 1 estable, 1 > > 2 estable oscilante y < 2 inestable, donde
1 = 1

1
4

2 =



1
1
1
2
2

t
+ k2

h2

(10)

Los metodos (7) y (9) son aplicaciones particulares del metodo Runge-Kutta (Euler modicado tipo Heun) de
segundo orden en t, para el sistema de ecuaciones diferenciales ordinarias planteado en dichas ecuaciones,
como se vera en la seccion siguiente.

SEC. 2.2. ECUACIONES PARABOLICAS

133

A. GRANADOS

METODOS NUMERICOS

2.2.3. M
etodo de Las Lneas
El metodo de las lneas consiste en discratizar s
olamente en aquella direcciones donde la ecuacion diferencial es elptica y, en una direcci
on diferente, se hace la integracion del sistemas de ecuaciones diferenciales
ordinarias de primer orden que se origina, por otro metodo. Al hacer esta discretizacion se obtiene, por
ejemplo,
dUi,j
dUi,j,k
dUi
= IL(Ui )
= IL(Ui,j )
= IL(Ui,j,k )
(11)
dy
dz
dt
donde IL(U ) es la discretizacion del laplaciano de U en Ui o Ui,j o Ui,j,k , en el dominio de 1, 2 o 3 dimensiones.
El sistema de ecuaciones diferenciales ordinarias resultante se puede resolver con un metodo Runge-Kutta.
2.3. ECUACIONES HIPERBOLICAS
Considerese la ecuacion parcial-diferencial de segundo orden en las dos variables x y t
a uxx + b uxt + c utt + e = 0

(1)

Aqu hemos usado la notaci


on de subndices para representa las derivadas parciales. Los coecientes a, b,
c y e pueden ser funciones de x, t, ux , ut y u, as que la ecuacion planteada es muy general. Cuando los
coeciente son independientes de u o sus derivadas, se dice que es lineal. Si son funciones de u, ux o ut (pero
no uxx o utt ), se dice que es cuasi-lineal [Gerald,1970,p.442].
Asumimos uxt = utx por ser continuas (teorema de Clairaut). Para facilitar la manipulacion, sean
p=

u
= ux
x

q=

u
= ut
t

(2)

Escribimos los diferenciales de p y q


p
dx +
x
q
dq =
dx +
x

dp =

p
dt = uxx dx + uxt dt
t
q
dt = utx dx + utt dt
t

(3)

Despejando estas ecuaciones para uxx y utt , respectivamente, tenemos


dp
dt
dp uxt dt
=
uxt
dx
dx
dx
dq
dx
dq utx dt
=
utx
utt =
dt
dt
dt

uxx =

(4)

Substituyendo en (1) y re-arreglando la ecuaci


on, obtenemos
a uxt

dq
dp
dt
b uxt + c uxt a
c
+e=0
dx
dx
dt

(5)

Ahora, multiplicando por dt/dx, nalmente nos queda


 
  2
 

dt
dt
dq
dt
dp dt
+c
+e
b
uxt a
+c a
dx
dx
dx dx
dx
dx

(6)

Suponga que, en el plane x t, denimos las curvas tales que la expresion entre los primeros corchetes se
anulan. Sobre tales curvas, la ecuaci
on diferencial original es equivalente a anular la segunda expresi
on entre
corchetes. Esto es,
(7)
a m2 b m + c = 0
134

ECUACIONES EN DERIVADAS PARCIALES

CAP.V

FUNDAMENTOS

donde m = dt/dx = 1/C, dene la pendiente inversa de la curva caracterstica antes mencionada. La solucion
de la ecuacion diferencial (1) se obtiene de integrar
a m dp + c dq + e dt = 0

(8)

un
Obviamente, el discriminante = b2 4ac de la ecuacion (7), coincidente con el discriminante de (1) seg
seccion 1.2 (clasicacion de las ecuaciones), debe ser positivo para que (1) sea hiperb
olica y este enfoque sea
exitoso.
atica (7). Sobre la lnea
Sean dos lneas caractesticas C + y C , dadas por las dos soluciones de la cuadr
+
caracterstica C hallamos la solucion de (8) entre los puntos A inicial y P nal. Sobre la lnea caracterstica
C hallamos la solucion de (8) entre los puntos B inicial y P nal. Estas dos soluciones, obtenidas a partir
de los puntos iniciales A y B donde es conocida la soluci
on, permite obtener las condiciones para el punto
u
nico nal P
a m+ (pP pA ) + c (qP qA ) + e t = 0
(9)
a m (pP pB ) + c (qP qB ) + e t = 0
Esto conforma un sistema lineal de dos ecuaciones con dos incognitas pP y q P . Los coecientes a, c y e deben
tomarse en promedio entre los puntos A y P o entre los puntos B y P , seg
un el recorrido seguido.
Resolviendo el sistema da

pP =

a m
aAP m+
BP
cAP
cBP

1  

a m pB
aAP m+ pA
BP
cAP
cBP

qP = qA


+ (qA qB )

e
eAP
BP
cAP
cBP

 
t

aAP m+
e
(pP pA ) AP t
cAP
cAP

(10.a)

(10.b)

Una vez resuelto para todos los puntos A y B regulares distanciados entre s 2x se tienen las soluciones
de p y q para los diferentes puntos P , desplazados en el tiempo t y ubicados en la mitad entre cada A
y B. Se deben recorrer todos los puntos xi = x0 + i x, i = 1, 2, . . . , N , y los puntos x0 = a y xN +1
(xN = b, x = (b a)/N ) se utilizan para formular las condiciones de contorno en la frontera u(a) = (t) y
x(b) = (t). Todo el proceso iterativo comienza con las condiciones iniciales u(0, x) = uo (x), x [a, b].
Luego que tenemos las soluciones de p y q, encontramos las soluciones de u mediante la integraci
on de
du = p dx + q dt

uP = uA + u|P
A
u|P
A = pAP x + qAP t

uP = uB + u|P
B
u|P
B = pBP x + qBP t

(11)

Para que el problema este bien formulado las condiciones iniciales y de borde de p = ux y q = ut deben ser
conocidas.

3. METODO DE VOLUMENES FINITOS


Los metodos de vol
umenes Finitos fueron dise
nados b
asicamente para resolver problemas de transporte
y su evoluci
on. Por ello sus fundamentos se basan en la discretizaci
on de la ecuaci
on de transporte de
cantidades como: densidad, cantidad de movimiento lineal, cantidad de movimiento angular, temperatura,
entalpa, entropa, concentraci
on, especie, energa, disipaci
on, vorticidad, etc. Su concepto fundamental es
que el mallado divide el dominio en diminutos vol
umenes, donde es cada uno y sus alrederores se satisfacen
los mismos principios de conservacion que en la totalidad del dominio.
3.1. FUNDAMENTOS
El metodo de vol
umenes nitos de basan en unas pocas reglas que iremos mencionando en las siguientes
secciones.
SEC. 3.1. FUNDAMENTOS

135

A. GRANADOS

METODOS NUMERICOS

3.1.1. Cuatro Reglas B


asicas
Las cuatro reglas basicas de este metodo son.
Regla 1. Consistencia del Volumen de Control
Cada volumen de control en el que se divide el dominio esta identicado por un punto central o nodo
umenes vecinos igualmente se identican con letras
cuyo valor de la propiedad transportada es P . Los v
may
usculas como en una br
ujula N , S, W , E, T y B (T -top, B-bottom). Entre cada par de vol
umenes existe
una supercie inteface que se identica con las letras min
usculas n, s, w, e, t y b. En cada interfaz existe
un ujo u
nico, sea este calculado con, por ejemplo, los tres de los valores W , P y E que la contiene, u
otro grupo de tres valores que tambien la contenga (en la misma direccion). El ujo en cada interfaz viene
gobernado por la difusividad i en la interfaz, dependiente de la difusividades de los nodos vecinos L y R .
umero de Peclet
Tambien interviene una velocidad ui perpendicular a la interfaz i, la cual determina un n
IP i = i ui xi /i u
nico (Peclet de malla). Por consiguiente, la interpolaci
on de la cuadr
atica que pasa por tres
nodos, tpica de las diferencias nitas, no es consistente. La interfaz tiene una identidad propia independiente
del volumen precedente o el volumen posterior y determinada por las condiciones de ujo dependientes del
n
umero de Peclet y el gradiente de en dicha interfaz.
Regla 2. Coecientes Positivos
na a cada variable en la discretizaci
on, por ejemplo aJ J , son tales que
Los coeciente aJ que acompa
aP P =

aJ J + b

(1)

JN

El coeciente del nodo central tiene signo igual que los signos de los coecientes de los nodos vecinos (N Vecindad). Todos positivos. Esto garantiza que, si el valor en un nodo vecino se incrementa, tambien lo
har
an los valores en los demas nodos.
Regla 3. Pendiente Negativa en el T
ermino de Fuente
La linealizaci
on del termino de fuente del tipo
S = So + SP (P o ) = Sc + SP P

Sc = So SP o

(2)

donde la pendiente SP debe ser negativa o nula. Esto garantiza en parte que la soluci
on sea estable, debida
a este termino.
Regla 4. Suma de Los Coecientes Vecinos
La suma de los coecientes de los nodos vecinos J P suman igual que el coeciente del nodo central
P
aP =

aJ

(3)

JP

Excluyendo el termino de fuente y el termino transitorio. De esta forma, problemas con soluciones igualmente
v
alidas mas una constante, satisfacen tambien la ecuacion diferencial.
3.1.2. Difusividad en la Interfaz
Consideremos dos nodos vecinos P y E tales que alrededor de cada uno domina una difusividad
distintas. Sean dichas difusividades P y E . Surge la duda de cuales de ambas aplica para la interfaz e
intermedia mostrada en la gura 1 ( J = ).
136

ECUACIONES EN DERIVADAS PARCIALES

CAP.V

FUNDAMENTOS

Figura 1. Distancias asociadas con la difusi


on en la interfaz e.
Un an
alisis sencillo del ujo Je , por difusi
on lineal de la variable en la interfaz e, nos da que
Je = e

E P
P
= E
xe
xe /P + x+
e /E

e P
e
= E E + = Je

xe
xe

(4)

donde el u
ltimo miembro de (4.a) se ha obtenido de eliminar e del balance del ujo a uno y otro lado de
la interfaz en (4.b) ( Intensidad del ujo J = diferencial del potencial difusivo entre la suma de las
resistencias difusivas x/ en serie ). Esto se reduce a tener una difusividad intermedia equivalente igual a

e =

1 fe
fe
+
P
E

1
fe =

x+
e
xe

(5)

siendo fe la fraccion de la distancia que separa la interfaz e del nodo E. Se observa claramente que esto
diere de una simple interpolaci
on lineal de la difusividad , como lo hubiese sugerido el sentido com
un
(ver por ejemplo Apendice B en [Versteeg & Malalasekera,1995]), y tiene un fundamento fsico mayormente
justicable [Patankar,1980]. Cuando fe = 0.5, es decir con la interfaz justamente en la mitad entre los nodos,
la relacion (5) se convierte en la media armonica, m
as que en la media aritmetica obtenida mediante
una interpolaci
on lineal. La expresion (5) ser
a usada en aquellas interfases ubicadas entre dos secciones del
dominio con difusividades diferente ( = 0 ).
3.1.3. Discretizaci
on de Dos Puntos
La discretizacion de dos puntos de basa en la soluci
on de la ecuaci
on


d
d
d
( u ) =

dx
dx
dx

dJ
=0
dx

x=0

= L

x = x

= R

J = u

d
dx

(6)

(7)

donde J es el ujo neto convecci


on + difusi
on = constante. La soluci
on de (6) con las condiciones (7) es
(x) L
exp(IP x/x) 1
=
R L
exp(IP ) 1

IP =

u x

(8)

con IP siendo el n
umero de Peclet. La velocidad u y el gradiente d/dx son perpendiculares a la interfaz.
SEC. 3.1. FUNDAMENTOS

137

A. GRANADOS

METODOS NUMERICOS

Figura 2. Flujo total entre dos puntos del mallado i (L-Left) e i + 1 (R-Right).
Derecha. Solucion exacta para el problema de conveccion-difusi
on uni-dimensional x [0, x].
La gura 2 muestra el dominio de integraci
on identicando el nodo L con el nodo i y el nodo R con el
nodo i+1. La interfaz, donde quiera que este, deja pasar un ujo J constante. Del lado derecho de la gura se
observa como es el perl de en la soluci
on exacta para el problema de difusion-convecci
on uni-dimensional,
donde el n
umero de Peclet IP , adimensional, es un modulador de la soluci
on (a veces denominado Peclet de
malla).
El ujo J constante adimesionalizado es J
J =

d
J x
= IP

d(x/x)

(9)

El valor de en la interfaz i entre los nodos L y R es una promedio ponderado de L y R , mientras que el
on
gradiente es un m
ultiplo de (R L ). As, se propone la expresi
J = IP [ L + (1 ) R ] (R L )

(10)

donde y son multiplicadores adimensionales que dependen de IP . De manera que, J tambien puede ser
expresado como
"
!
J = B(IP ) L A(IP ) R
B(IP ) L A(IP ) R
(11)
J=
x
La subtituci
on de (8), para una interfaz intermedia en un x cualquiera, es nalmente independiente de x,
puesto que J es constante. Esto da que y en (10) se asocien de la forma
A(IP ) = IP (1 ) =

IP
exp(IP ) 1

B(IP ) = + IP =

IP exp(IP )
exp(IP ) 1

(12)

mostrados en la gura 3.
138

ECUACIONES EN DERIVADAS PARCIALES

CAP.V

FUNDAMENTOS

Figura 3. Variaci
on de A y B con el n
umero de Peclet IP .
Los coecientes A y B tienen ciertas propiedades que es menester mostrar. Primero, en el caso donde
on es cero y J es simplemente el ujo por convecci
on J = IP L = IP R
L y L son iguales, el ujo por difusi
(u se asume constante). Bajo estas condiciones y comparando con (11.a) da que
B(IP ) = A(IP ) + IP

(13)

Propiedad tambien mostrada en la gura 3, donde la diferencia entre las curvas es justamente IP . El mismo
resultado se obtiene colocando A y B en funci
on de y .
La segunda propiedad de A y B tiene que ver con su simetra. Si cambiamos el sistema de coordenadas
y lo revertimos, entonces IP debera aparecer como IP , y A y B intercambian sus roles. As A(IP ) y B(IP )
se relacionan mediante
A(IP ) = B(IP )
B(IP ) = A(IP )
(14)
Propiedad iguamente mostrada en la gura 3, con la simetris de las curvas respecto al eje central vertical.
Estas propiedades producen que nalmente A y B pueden expresarse u
nicamente en funci
on de A(|IP |)
de la forma
A(IP ) = A(|IP |) + [[IP , 0]]
B(IP ) = A(|IP |) + [[IP , 0]]
(15)
donde el smbolo [[ ]] signica el mayor valor, que en este caso es comparando con 0.
Debido a que la forma (12) con el exponencial de A(|IP |) es computacionalmente costosa desde el punto
de vista de su calculo, se ha ideado una forma aproximada m
as conveniente desde ese punto de vista, que se
denomina la ley de potencia y se expresa como
A(|IP |) = [[(1 0.1 |IP |)5 , 0]]

(16)

la tabla siguiente muestra una comparaci


on con este esquema y otros esquemas provenientes de diversos tipos
de discretizaciones.
Tabla. La funci
on A(|IP |) para diferentes esquemas.

SEC. 3.1. FUNDAMENTOS

Esquema

F
ormula A(|IP |)

Diferencia Central

( 1 0.5 |IP | )

Aguas Arriba

Hbrido

[[ (1 0.5 |IP |), 0 ]]

Ley de Potencia

[[ (1 0.1 |IP |)5 , 0 ]]

Exponencial (exacta)

|IP | / [ exp(|IP |) 1 ]
139

A. GRANADOS

METODOS NUMERICOS

Es de hacer notar que la ecuacion diferencial (9) se resolvi


o haciendo IP (x)  (x) = a + bx + cx2
o

2
IP (x) (x) = exp(a + bx + cx ), de manera de hacerla depender de dos parametros adicionales b y c, que
permitiese a aplicaci
on de trazadores rectilneos o parab
olicos en x = 0 y tener continuidad en la primera
derivada de dos curvas denidas antes y despues de dicho nodo central (x = 0). El resultado nal fue que
o independiente de b y c y J (0) = a o J (0) = exp(a) (siempre constante), lo que impidio aplicar
 (0) di
este procedimiento.
3.2. DISCRETIZACION GENERAL
La discretizacion general de cualquier ecuaci
on de transporte se hace mediante la aplicaci
on de la
discretizacion de dos puntos 3.1.(11.b) a todas las parejas de punto vecino - punto central que aparecen en
cada conguraci
on. La gura 4 muestra un ejemplo de coordenadas cilndricas indicando la localizaci
on de
on + difusi
on ) son perpendiculares a las interfaces i.
los nodos y las interfaces. Los ujos Ji ( convecci

Figura 4. Volumen nito en el caso de coordenadas cilndricas.

3.2.1. Ecuaci
on Estacionaria
Sea la ecuacion diferencial
. ( u ) = . ( ) + S

. J = S

J = u

(1)

N
otese la similitud de esta ecuacion global y la ecuaci
on unidimensional para dos puntos 3.1.(6).
La integracion de la equacion diferencial (1) para un volumen nito VP = x y z, cuyo nodo
central es el nodo P . Los nodos vecinos son designados con las letras may
usculas N , S, E, W , T y B. Las
on del teorema de
interfaces que rodean al volumen innito son An , As , Ae , Aw , At y Ab . La aplicaci
Gauss a la integral de (1.b) sobre el volumen de control nito VP da
Jn An Js As + Je Ae Jw Aw + Jt At Jb Ab = S VP

(2)

Los ujos Jn , Js , Je , Jw , Jt , Jb (positivos saliendo del volumen nito, negativos entrando), son perpendiculares
a las respectivas caras (interfaces) del volumen nito.
Substituyendo la discretizaci
on para dos puntos 3.1.(11.b) en la ecuacion anterior, se obtiene
aP P = aN N + aS S + aE E + aW W + aT T + aB B + b

(3)

con coecientes
n An
A(IP n )
yn
s As
B(IP s )
aS =
ys

aN =

140

e Ae
A(IP e )
xe
w Aw
B(IP w )
aW =
xw
aE =

t At
A(IP t )
zt
b Ab
B(IP b )
aB =
zb
aT =

(4.af )

ECUACIONES EN DERIVADAS PARCIALES

CAP.V

FUNDAMENTOS

aP = aN + aS + aE + aW + aT + aB SP VP

b = Sc Vp

(4.g, h)

donde la linealizaci
on 3.1.(2), S = Sc + SP P , del termino de fuente se ha aplicado. En (4.g) se ha aplicado
la regla 4 (ec. 3.1.(3)).
La gura 5 muestra un volumen de control en el borde y un volumen de control tpico en el medio del
dominio. El tama
no del volumen de control es xP y los nodos vecinos W y E estan ubicados a distancias
xw y xe del nodo central P (central no necesariamente signica que esta en el centro), respectivamente.
En el volumen de control en el borde, el nodo central coincide con la frontera del dominio.

Figura 5. Vol
umenes nitos mostrando un volumen de borde y otro tpico en el medio del dominio.
Se puede escoger entre ubicar los nodos en la mitad de las interfaces o ubicar las interfaces en la mitad
entre los nodos.
3.2.2. Ecuaci
on Transitoria
Sea la ecuacion diferencial

+ . ( u ) = . ( ) + S
t

+ . J = S
t

J = u

(5)

El termino transitorio se discretiza aplicando el metodo Euler implcito (seccion 2.2.1, ec. 2.2.(5.a))
Po Po

= P P
+ O(t)
t
t

(6)

Con el procedimiento de la secci


on anterior y agregando la parte transitoria, se obtiene
(P P Po Po ) VP
+ Jn An Js As + Je Ae Jw Aw + Jt At Jb Ab = (Sc + SP P ) VP
t

(7)

donde o Po son las condiciones en el paso anterior. La ecuaci


on (7) es un caso particular de la ecuacion m
as
general
d
P Vp P + Jn An Js As + Je Ae Jw Aw + Jt At Jb Ab = S VP
(8)
dt
ltima aplicada a todos los
aplicando el metodo de Euler implcito (P = constante, S = Sc + SP P ). Esta u
nodos centrales P conforma un sistema de ecuaciones diferenciales ordinarias de primer orden, el cual se
puede resolver con cualquier metodo Runge-Kutta.
SEC. 3.2. DISCRETIZACION GENERAL

141

A. GRANADOS

METODOS NUMERICOS

Substituyendo la discretizaci
on para dos puntos 3.1.(11.b) en la ecuacion anterior, se obtiene
aP P = aN N + aS S + aE E + aW W + aT T + aB B + b

(9)

con coecientes
n An
A(IP n )
yn
s As
B(IP s )
aS =
ys

aN =

e Ae
A(IP e )
xe
w Aw
B(IP w )
aW =
xw

t At
A(IP t )
zt
b Ab
B(IP b )
aB =
zb

aE =

aP = aPo + aN + aS + aE + aW + aT + aB SP VP

aPo =

aT =

Po VP
t

(10.af )

b = aPo Po + Sc Vp (10.g, h, i)

Los coecientes en (10.af ) son exactamente los mismos que en (4.af ). Los cambios han sido en las ecuaciones
(10.g, h, i) para aP y b.
Una forma m
as general de plantear (9) es
P VP

dP
= aP P + aN N + aS S + aE E + aW W + aT T + aB B + b
dt

aP = aN + aS + aE + aW + aT + aB SP VP

b = Sc Vp

(11)
(12.a, b)

donde la ecuaciones (12.a, b) substituyen a las ecuaciones (10.g, h, i), formando como ya se dijo un sistema
de ecuaciones diferenciales ordinarias de primer orden.
3.2.3. M
etodo ADI
Cuando el problema es transitorio, se acostumbra a usar el esquema ADI (Alternate Direction Implicit),
en el cual se resuelve el problema con Euler implcito en una s
ola direcci
on y con Euler explcito en las
direcciones restantes (ver secci
on 2.2.1). Lo que garatiza que el sistema siempre tiene una matriz tridiagonal.
Estas direcciones se van alternando de manera secuencial en cada oportunidad (cada integracion en t).

4. FLUJO GENERAL INCOMPRESIBLE VISCOSO


La metodologa planteada para la ecuaci
on de transporte , aplica tambien cuando = v, la ecuacion
de transporte de la cantidad de movimiento lineal. A esta ecuaci
on en el caso de los uidos newtoniano
incompresibles se le denomina la ecuaci
on de Navier-Stokes. La diferencia con los metodos para el transporte
de antes planteados, es que el mallado para la velocidad tiene los nodos justo en el medio de las caras de
los vol
umenes nitos para , que es donde se necesita la informacion de la velocidad (mallas desplazadas).
En esta parte se ha hecho el replanteamiento de los problemas de ujo incompresible viscoso llevando
la ecuacion de Navier-Stokes a formularse como un sistema de ecuaciones diferenciales ordinarias de primer
orden de dimension innita en el caso analtico y de dimension nita en el caso discretizado. Las condiciones
de frontera se ven reejadas en la vecindad de la misma y las soluciones dentro del conjunto abierto del
dominio estan subordinadas a ellas. Las condiciones en la frontera no forma parte del sistema de ecuaciones
diferenciales ordinarias, sino a traves de las ecuaciones de los puntos vecinos. Modernamente se estan usando
metodos que se denominan de pasos fraccionados (e.g. [Kim & Moin,(1985)] y [Orlandi,2000]) que no son
mas que metodos Runge-Kutta de varias etapas. Con esta formulaci
on se hace adecuado el planteamiento
para usar cualquiera de estos metodos Runge-Kutta.
4.1. ECUACIONES FUNDAMENTALES
Las ecuaciones fundamentales para el estudio del ujo incompresible son la ecuaci
on de conservaci
on
de masa o continuidad
.v = 0
(1)
142

ECUACIONES EN DERIVADAS PARCIALES

CAP.V

FUNDAMENTOS

y la ecuacion de conservaci
on de cantidad de movimiento lineal o Navier-Stokes


v

+ v.v = g P + 2 v
t

(2)

Para eliminar la densidad de esta u


ltima expresion, se divide por , resultando
v
= P v.v + 2 v
t

v
+ . J = P
t

J = vv v

(3)

La ecuacion de transporte transitoria para = v con densidad uno, difusividad (viscosidad cinematica) y
fuente menos gradiente de presion. Las fuerzas m
asicas son conservativas, por lo que g = se genera de
una funci
on potencial (e.g. la fuerza de gravedad g = g ez se genera a partir del potencial = g z). La
cantidad P = (P Po )/ + ( o ) es la presion equivalente o reducida. Los valores Po y o son dos valores
de referencia arbitrarios que no alteran la ecuacion original (3). Finalmente, tomando la divergencia de la
ecuacion (3.a), se obtiene la ecuacion de Poisson para la presion
2 P = v : v = G : G

G = [v]t

(4)

Se ha usado la identidad . (T.a) = (.T).a+T : (a)t y la conmutatividad de la divergencia y el gradiente.


En esta u
ltima parte se ha supuesto que los operadores de la divergencia y el laplaciano conmutan, y de igual
manera la divergencia conmuta con la derivacion parcial con respecto al tiempo. Donde al conmutar, aparece
la divergencia de v, el termino se anula. Para conmutar, las derivadas se han supuesto continuas en su
dominio.
4.2. APROXIMACIONES DISCRETAS DIRECTAS
Haciendo un abuso de la notacion, se han designado los siguientes operadores como aproximaciones
discretas de las operaciones diferenciales de los miembros de la derecha
/ P ) P
G(

ID(v) .v

IH(v) v.v = . (vv)

IL(v) 2 v

(1)

El operador discreto aplicado a un punto se calcula tomando en consideraci


on los valores de los puntos
vecinos, utlizando cualquiera de los metodos de discretizaci
on de ecuaciones diferenciales en derivadas parciales (diferencias nitas, vol
umenes nitos, elementos nitos, etc.) y sus variantes. Con la denici
on de los
operadores, la ecuaci
on 4.1.(3) en derivadas parciales de funciones continuas se convierte en un sistema de
ecuaciones diferenciales ordinarias de la forma
dv
/ (P ) IH(v) + IL(v)
G
dt

ID(v) = 0

(2)

El problema original que era un problema de valor en la frontera con condiciones iniciales, se convierte en un
problema exclusivamente de valores iniciales.
Involucrando la ecuaci
on 4.1.(4), el sistema de ecuaciones diferenciales (2) se puede reformular en el
siguiente sistema

F(v) = IH(v) + IL(v)

/ (v) : G
/ (v)
IL(P ) = ID[IH(v)] = G
(3)

dv = f (v) = F(v) G
/ (P )
dt
/ ( ) se utiliza de manera
donde se ha tenido en cuenta que ID[IL(v)] = 0. El operador diferencial discreto G
indistinta para campos escalares y campos vectoriales, debido a que es lineal y no act
ua sobre la base del
espacio vectorial.
SEC. 4.2. APROXIMACIONES DISCRETAS DIRECTAS

143

A. GRANADOS

METODOS NUMERICOS

En cuanto a las condiciones de frontera para la velocidad, se tienen dos circunstancias. La primera, la
condici
on de Dirichlet v = vw +vo , donde se tiene que el uido sobre una pared adquiere su velocidad vw , mas
on de Neumann n v = Tw /, donde el
la velocidad de transpiraci
on vo , si la hubiese. La segunda, la condici
gradiente de la velocidad en la direcci
on normal a la pared es conocida. En cualquiera de estas circunstancias,
la condicion de la frontera introducida en la ecuacion de movimiento 4.1.(3), da como resultado la condici
on
2

de la frontera de tipo Neumann n P = dvn /dt + vn para la presion, en caso que no se conozca la
condici
on de tipo Dirichlet P = Pw , siendo vn = (v.n) n y n la normal exterior al uido en la frontera.
4.3. APROXIMACIONES DISCRETAS PROYECTADAS
A priori, conociendo el campo de velocidades, se puede obtener el campo de presiones resolviendo la
ecuacion de Poisson 4.1.(4). Sin embargo, para conocer el campo de velocidades, se requiere a priori conocer
el campo de presiones. Este crculo vicioso se puede romper, si en lugar de usar la ecuacion 4.2.(2), se elimina
de la misma el gradiente de la presion, de manera que ahora la ecuaci
on
d
v
IH(
v) + IL(
v)
dt

ID(
v)
= 0

(1)

permite obtener un campo de velocidades, sin conocer a priori el campo de presiones. No obstante, dicho
campo de velocidades ya no sera solenoidal, como se indica en la segunda parte de (1). Consideremos que
tanto el campo de velocidades solenoidal y el no solenoidal parten de las mismas condiciones iniciales y con
condiciones de borde siempre siendo las mismas, tal como se indica a continuacion
c.i.

o = v(to , x)
vo = v

c.b.

= h(t, x)
v=v

.vo = 0

para t = to

para x

(2)

Si ahora a la ecuaci
on 4.2.(2) le restamos la ecuaci
on (1), resulta la siguiente ecuacion diferencial
d
/ (P ) IH(v) + IH(
) G
)
(v v
v) + IL(v v
dt

(3)

Con el siguiente cambio de variables


d
) =
(v v
dt

d
=
dt

=
vv

(4)

formulado bajo el supuesto que las diferencias de velocidades se originan de una funci
on potencial , y
asumiendo que, cerca del instante inicial, los terminos no lineales son muy parecidos
IH(v) IH(
v) 0

(5)

entonces, aplicando la divergencia a (3) y (4), se obtiene que


2

d
[ID(
v)]
dt

P IL() .
v

(6)

Este planteamiento permite formular el siguiente sistema de ecuaciones diferenciales

d
v

= IH(
v) + IL(
v)

dt

d
2 = [ID(
v)]

dt

dv = d
/ ()
G
dt
dt
144

ECUACIONES EN DERIVADAS PARCIALES

(7)

CAP.V

FUNDAMENTOS

Geometricamente, el sistema anterior se puede interpretar como que el campo de velocidades v, se pueden
, proyect
obtener a partir del campo de velocidades v
andolo de tal forma que, el complemento ortogonal
sea justamente el gradiente del campo escalar . De una forma mas estructurada, el sistema (7) se puede
expresar como

v) = IH(
v) + IL(
v)
F(

IL() = ID[F(
v)]

(8)
d
v

= F(
v)

dt

dv

/ ()
= f (v) = F(
v) G
dt
usando la funci
on auxiliar F. Aunque en la segunda ecuacion se tiene que ID[F(
v)] = ID[IH(
v)], se ha
preferido dejarlo as, para poder aplicar adecuadamente el metodo Runge-Kutta.
4.4. METODO DE PASO FRACCIONADO
Para el sistema 4.3.(8) tambien se puede usar el metodo Runge-Kutta de la siguiente forma
n+1 = v
n + cr t Kr
v
v

n+1

Kr = F(
vn + ars t Ks )

IL(r ) = ID(Kr )

/ (r )
kr = f (v + ars t ks ) = Kr G

= v + cr t kr

n = vn
v

(1)

donde para cada paso de integraci


on en el tiempo se parte de un campo de velocidades solenoidal, que es el
campo de velocidades actual vn para dicho instante tn = to + n t.
El metodo de paso fraccionado, a diferencia del metodo Runge-Kutta, se expresa mediante la siguente
f
ormulas algortmicas [Kim & Moin,1985]
n+1

v
= vn + t [ n IH(vn ) n IH(vn1 ) + 0.5 n IL(
vn+1 + vn ) ]

n IL(n+1 ) + n IL(n ) = ID(


vn+1 )/t
n = n + n

n+1
/ n+1 ) + n G
/ (n ) ]
s+1 t [ n G(
v
=v

(2)

El factor de 0.5 se debe a que se esta usando un esquema del tipo Crank-Nicholson para la parte implcita
en las derivaciones de segundo orden en el operador L.
Los valores de los coecientes, que con cierta frecuencia se usan, son:
8
15
5
2 =
12
3
3 =
4

1 = 0

1 =

8
15
2
2 =
15
1
3 =
3

1 =

17
60
5
3 =
12

2 =

(3)

Tratando de hacer una analoga con el metodo Runge-Kutta de tercer orden, en la notaci
on de Butcher, los
coecientes del metodo de paso fraccionado se pueden expresar, para el operador IH como
0
1
1 + 2 + 2
1 + 2 + 3 + 2 + 3

SEC. 4.4. METODO DE PASO FRACCIONADO

0
1
1 + 2
1 + 2

0
0
2
2 + 3

0
0
0
3

0
0
0
0

(4.a)

145

A. GRANADOS

METODOS NUMERICOS

y para el operador IL como


0
1
1 + 2

0
0.5 1
0.5 1

0
0.5 1
0.5 (1 + 2 )

1 + 2 + 3

0.5 1

0.5 (1 + 2 ) 0.5 (2 + 3 )

0
0
0.5 2

0
0
0

(4.b)

0.5 3
1

Teniendo en cuenta la relacion s = s + s , con 1 = 0, se puede observar que los puntos de colocaci
on
de ambas matrices de Butcher son los mismos. No obstante, el esquema es explcito para el operador no
lineal IH y semi-implcito para el operador lineal IL. Sacadas las cuentas con los valores particulares antes
mencionados en (2), las dos matrices (4.a, b) quedan como
0
8/15

0
8/15

0
0

0
0

0
0

0
8/15

0
0
4/15 4/15

2/3

1/4

5/12

2/3

4/15

1/4

3/4 0
0

0
0

0
0

1/3

1/15

4/15

1/3

7/30 1/6

(5)

Dos aspectos diferencian al metodo de paso fraccionado con el metodo Runge-Kutta. Primero, que en
el metodo de paso fraccionado se usa en donde sea posible el campo de velocidades solenoidal v, en lugar de
para la evaluaci
v
on de la funci
on F(
v ) = IH(
v) + IL(
v). Esto hace que en el metodo de paso fraccionado,
s+1 este mas cerca del campo solenoidal, y por lo tanto,
el campo de velocidades obtenido en cada paso v
haga que el campo escalar = s s+1 + s s tambien este mas cerca del campo de presiones P (valor de
IL() .
v peque
no). Segundo, en el metodo de paso fraccionado el campo escalar se descompone en la
/ () de la
nos, y as reducir los errores t G
forma antes mencionada, para obtener valores de s+1 mas peque
velocidad (en realidad, lo que se reduce es el error parcial por cada componente de en cada paso).
Las races caractersticas de los metodos Runge-Kutta (5) se encuentran de igual forma que antes,
resolviendo el sistema de ecuaciones lineales IV.3.4.(3), con lo cual se obtienen
!
1
1 "

(z)
= 1 + z + z2 + z3 + z4
2
6

191 2
586 3
56 4
128 5 
1 23
z
+
z

30
150
3375 z 2025 z + 50625 z
(z) =
93 2
76 3
8
4
1 23
30 z + 450 z 3375 z + 10125 z

(6.a)
(6.b)

respectivamente para el operador IH y el operador IL. Luego la estabilidad de los diferentes metodos se
establece imponiendo que las races caractersticas sean menores que la unidad. Esto da los siguientes lmites
para el avance del tiempo t
7.243
1.596
t
(7)
t
||
||
respectivamente para los dos operadores. Como se tiene que el lmite CFL Um t/x, si consideramos
que el autovalor || = Um /x, entonces los valores en los numeradores de (7) son los valores CFL maximos
necesarios para que las diferentes partes del metodo de pasos escalonados sea estable (El metodo de Euler
explcito, con b1 = 1, a11 = 0 y c1 = 1 y (z) = 1 + z requiere de un CFL=1). Esto permite relajar un poco
el procedimiento (2) de integraci
on en el tiempo con valores de t mas grandes, de manera de obtener un
avance mas r
apido en el algoritmo numerico. En la tesis [Granados,2003] se ha recomendado y utilizado el
valor CFL=1.7, levemente superior al menor de los valores de CFL en (7), contando que la parte implcita
del metodo mejore en cierta medida a su parte explcita.
146

ECUACIONES EN DERIVADAS PARCIALES

CAP.V

FUNDAMENTOS

Cuando el metodo Runge-Kutta se hace muy pesado y se desea un avance mas r


apido en el tiempo, se
puede usar un metodo de paso m
ultiple del tipo Adams-Bashforth de segundo orden (semi-implcito). Para
este metodo los valores de los coecientes son:
1 =

3
2

1 =

1
2

(8)

1 = 1

respectivamente para los operadores IH y IL. Particularmente en este metodo, por ser tan s
olo de dos pasos,
no se hace la descomposicion de . Con los coecientes (8) se obtienen las siguientes matrices de Butcher
0
3/2

0 0
3/2 0
0

0
1

0
0
1/2 1/2

(9)

y las siguientes races caractersticas


!
3 "

(z)
= 1 + z + z2
2


(z) =

1 + 12 z + 12 z 2
1 12 z


(10)

La estabilidad de estos metodos queda establecida con los dos lmites siguientes
0.666
t
||

2
||

(11)

Como se podra observar, la estabilidad del metodo para la parte explcita es peor que el metodo de Euler,
no obstante, la estabilidad se mejora notablemente con la parte implcita.
Es conveniente expresar la primera ecuaci
on del metodo de paso fraccionado como
[ II 0.5 s t IL ] (
vs+1 vs ) = t [ s IH(vs ) s IH(vs1 ) + s IL(vs ) ]

(12)

(II es el operador identidad) debido a que el operador diferencial se puede ahora factorizar de la siguiente
forma aproximada

[ I 0.5 s t L ] [ (I L1 ) (I L2 ) (I L3 ) ]

Li 0.5 s t ( 2i )

Li = 0.5 s t L

(13)

(siendo i = 1, 2, 3 tres direcciones ortogonales) lo que permite que las matrices a resolver sean tridiagonales,
en lugar de grandes matrices de banda dispersa. Esto resulta en una signicante reducci
on del costo de
computo y de memoria. Finalmente la ecuacion (12) del metodo de paso fraccionado queda en la forma
vs+1 vs ) = t [ s H(vs ) s H(vs1 ) + s L(vs ) ]
[ (I L1 ) (I L2 ) (I L3 ) ] (

(12 )

(H(v) = v.v) que se aplica en direcciones alternadas (ADI - Alternating Direction Implicit) para hacer
mas eciente el algoritmo.

5. METODOS VARIACIONALES
5.1. METODO DE LOS RESIDUOS PONDERADOS
Sea la ecuacion diferencial en 1D para (x)


d
d

+ S(x) = 0
dx
dx
SEC. 5.1. METODO DE LOS RESIDUOS PONDERADOS

axb

(1)
147

A. GRANADOS

METODOS NUMERICOS

con valor en la frontera


(a) =

(b) =

(2)

El coeciente puede depender de x. Este problema es el mismo problema de difusion pura (sin convecci
on)
con fuente propuesto antes, con coeciente de difusi
on (x) dependiente.
Denominamos el residuo a la funci
on

(a)

d $ d %
R(x) =

+ S(x)

dx
dx

(b)

si x = a
(3)

a<x<b
si x = b

donde = (x)

es la solucion aproximada.
El promedio del residuo es
=
R

1
ba

R(x) dx

(4)

y el promedio ponderado sera


w =
R

1
ba

w(x) R(x) dx

(5)

donde w(x) es la funci


on de ponderaci
on. Finalmente el residuo ponderado se dene como
b

Rw =

w(x) R(x) dx

(6)

El metodo de los residuos ponderados consiste en determinar a priori la estructura matematica de (x),

que hace Rw = 0.
Lema (Lema fundamental del calculo d variaciones). Sea C 1 [a, b] un conjunto de funciones w(x)
continuas y con derivadas continuas en el intervalo cerrado [a, b], tales w(a) = w(b) = 0. Si R(x) es continua
en [a, b] y se cumple que
b

w C 1 [a, b]

w(x) R(x) dx = 0

(7)

entonces R(x) 0 en [a, b].


Demostracion. Suponer que R(xo ) > 0 para un xo [a, b] en su entorno xo y xo + . Si existe un
w(xo ) > 0 en [xo , xo + ] y w(x) = 0 fuera de este entorno, entonces
xo +

w(x) R(x) dx =
a

w(x) R(x) dx > 0

(8)

xo

y esto contradice el lema.


1

Corolario. Sea el residuo ponderado Rw dado por (6). Si Rw = 0 para toda w(x) C [a, b], entonces
(x)

= (x).
Encontrar (x) que satisfaga (1), con las condiciones de contorno (2) (formulaci
on diferencial), se
convierte en un problema equivalente a encontrar (x)

en (3), que substituida en (6) satisfaga Rw = 0 para


on variacional).
toda w(x) C 1 [a, b] (formulaci

148

ECUACIONES EN DERIVADAS PARCIALES

CAP.V

FUNDAMENTOS

5.2. METODO DE COLOCACION


La funci
on impulso o delta de Dirac se dene como
2
(x) =

0 si x
= 0
si x = 0

(x) dx = 1

(1)

Esta funci
on es la derivada de la funci
on escalon o de Heaviside denida como

dh
0 si x < 0
h(x) =
(x) =
1 si x 0
dx

(2)

Esta funci
on se puede desplazar de la forma
(x a) =

0 si x
= a
si x = a

(x a) f (x) dx = f (a)

(3)

La integral del lado derecho se deduce del teorema del valor medio
a+

a+

f (x) (x a) dx = f ()

(x a) dx = f ()

[a , a + ]

(4)

Tomando el lmite, cuando 0 entonces a.


5.2.1. Colocaci
on Determinstica
Proponemos una soluci
on aproximada
(x)

cj j (x)

(5)

j=1

donde j (x) son las funciones bases (especicadas a priori) y cj son los coecientes indeterminados, cuyo
calculo ser
a el objetivo del metodo. Cuando la funci
on de ponderaci
on de escoge como la funci
on delta de
Dirac, entonces
b

(x xk ) R(x) dx = R(xk )

Rk =

w(x) = (x xk )

(6)

Los valores xk donde se conoce el residuo, se denominan puntos de colocacion.


Imponiendo la condici
on de que el residuo sea nulo en cada uno de los puntos de colocacion xi ,
i = 1, 2, . . . , p, tenemos
Ri = R(xi ) = 0

R(xi ) =



d
d
+ S(xi ) = 0

dx
dx xi

i = 1, 2, . . . , p

(7)

Substituyendo la soluci
on aproximada (5), obtenemos
n

j=1

cj



d
dj
= S(xi )

dx
dx xi

[A].c = b

Aij =



d
dj

dx
dx xi

bi = S(xi )

(8)

satisfaga las condiciones de borde. En caso contrario, si


Se deben denir las j (x) de tal forma que (x)
se substituye (x)

en las condiciones de borde, se agregan dos ecuaciones m


as al sistema de ecuaciones, que
debe coincidir (p = n) con el n
umero de inc
ognitas cj , j = 1, 2, . . . , n. En este caso, los bordes se convierten
en puntos de colocaci
on.
SEC. 5.2. METODO DE COLOCACION

149

A. GRANADOS

METODOS NUMERICOS

5.2.2. Colocaci
on Sobre Especicada
En este caso el n
umero de ls puntos de colocaci
on p supera al n
umero de coecientes indeterminados
n. Se dene un error cuadr
atico global
E=

[R(xi )]2

R(xi ) =

i=1

cj

j=1



d
dj
+ S(xi )

dx
dx xi

(9)

y en el valor de coecientes ck , donde este error se minimiza E = Emin , se cumplen las ecuaciones normales

E
R(xi )
=
2 R(xi )
=0
ck
ck
i=1
p

E
=0
ck
p 
n

i=1


cj

j=1

(10)

 



d
d
dj
dk
+ S(xi )
=0

dx
dx
dx
dx
xi
xi

(11)

donde se ha eliminado el factor com


un 2. Intercambiando las sumatorias sobre p y sobre n se obtiene

  
 


p 
p 
n 


d
d
d
dk
dj
dk
S(xi )
cj =

dx
dx
dx
dx
dx
xi dx
xi
xi
j=1
i=1
i=1

(12)

o lo que es equivalente
n

Akj cj = bk

Akj =

j=1

Qki Qtij

bk =

i=1


Qki S(xi )

Qki =

i=1



d
dk

dx
dx
xi

(13)

Todo se reduce a resolver un sistema de n ecuaciones lineales con las incognitas aj .


EJEMPLO:
Resolver la ecuacion diferencial


d
d

+ S(x) = 0
dx
dx

S(x) = a x2

(0) = (l) = 0

con tres puntos de colocaci


on
x1 =

l
4

x2 =

l
2

x3 =

3l
4

(p = 3)

y dos funciones bases


1 = sen

x
l

Los resultados son

2 = sen

2x
l

(n = 2)


6.979 9.870 6.979
39.478
0
39.478




2 194.83
0
6.829
t
[A] = [Q][Q] = 4
b = [Q]S = a
0
3117.0
19.739
l
[Q] =

150

l2

ECUACIONES EN DERIVADAS PARCIALES

CAP.V

FUNDAMENTOS

5.2.3. Colocaci
on Ortogonal
Mediante el cambio de variable propuesto en III.2.2.(7), se puede cambiar el dominio del problema
(1) y llevarlo de x [a, b] a Z [1, 1]. Haciendo esto el residuo ponderado se transforma en (z =
[2x (a + b)]/(b a), x = [(b a)z + (a + b)]/2)
1

Rw =

w(z) R(z) dz

i w(zi ) R(zi ) 0

(14)

i=0

Como i w(zi )
= 0, para que Rw = 0, se debe satisfacer que
R(zi ) = 0

i = 0, 1, 2, . . . , n

(15)

por lo que se escogen estos puntos como los puntos de colocaci


on determinstica, siendo z , = i + 1 =
1, 2, . . . , p, las races del polinomio de Legendre Pp (z) de grado p = n + 1, transformadas las variables x al
intervalo [-1,1] de z. Esto es
 

p

d
dj
cj
+ S(z ) = 0
(16)

dz
dz
z
j=1
donde las funciones bases se pueden escoger como los p polinomios de Legendre j (z) = Pj1 (z), j =
1, 2, . . . , p, si satisfacen las condiciones de borde. En este caso, el n + 1 del grado del polinomio de donde
obtener la races, no tiene que ver con el n
umero de coecientes incognitas cj , j = 1, 2, . . . , p. Los p puntos
de colocacion x se escogen interiores al intervalo [a, b]. Para los puntos extremos se utilizan las condiciones
de borde.
La seleccion de (x)

se puede hacer de la siguiente manera, si se toma en cuenta III.2.2.(4.b)

(x)

= (x) +

cj (x a) (x b)j

(17.a)

cj (x a)j (x b)

(17.b)

j=1

o alternativamente
(x)

= (x) +

p

j=1

donde
(x) =

(x a) +
ba

(18)

para que se satisfagan las condiciones de borde (a)

= (a) = y (b)
= (b) = . Si se conoce el comportamiento de la ecuacion diferencial, se pueden escoger otras funciones bases j (x) que no sean necesariamente
polin
omicas.
Como [x(z)]

son polinomios de grado p + 1, se puede expresar como combinacion lineal de los polinomios de Legendre Pk (z)

[x(z)]

+1
p

k Pk (z)

k=0

k =

 ,
Pk 
Pk , Pk 

f, g =

f (z) g(z) dz

(19)

donde se ha usado la ortogonalidad de los polinomios de Legendre III.2.2.(5) (secci


on 2.2.2).

SEC. 5.2. METODO DE COLOCACION

151

A. GRANADOS

METODOS NUMERICOS

5.3. METODO DE GALERKIN


En el metodo de Galerkin se escoge como funcion de ponderaci
on w(x) para los residuos 5.1.(6), las
mismas funciones bases j (x). Esto es, el residuo ponderado
b

R =

k C 0 [a, b]

k (x) R(x) dx = 0

(1)

se establece para todas las funciones bases k , k = 1, 2, . . . , n.


Para el mismo problema planteado en 5.1.(1) (2), substituyendo la soluci
on aproximada 5.2.(5), se
obtiene


n
b
b

d
dj
cj
k (x)
k (x) S(x) dx
(2)

dx =
dx
dx
a
a
j=1
Lo que resulta en un sistema de ecuaciones lineales
n

Akj cj = bk

Akj =
a

j=1



d
dj
k (x)

dx
dx
dx

bk =

k (x) S(x) dx

(3)

que permite el calculo de los coecientes cj .


Cuando el termino de fuente depende de la variable dependiente, igualmente se substituye en (3.c)
S[(x)].

Observaci
on que tambien es valida para los metodos de colocacion.
Si la integraci
on en (3) se realiza de forma numerica, con cuadratura de Newton-Cotes (colocacion
regular, secci
on III.2.2.1.) o cuadratura de Gauss-Legendre (colocacion ortogonal, secci
on III.2.2.2.), el
metodo es igualmente valido.
La integral (3.b) puede hacerse por partes, aplicando el teorema de Green, con lo cual
b

Akj =
a



d
dj
dj
k (x)

dx = k (x)
dx
dx
dx

b



a

dk dj
dx
dx dx

(4)

lo que facilita m
as a
un la resoluci
on. La formulacion (4) se denomina formulaci
on debil, en contraposicion
de la formulacion fuerte (1), porque las restricciones sobre la continuidad de las funciones y sus derivadas
son menores, como puede observarse ahora en (1.b) (En 5.1.(7.b) la restricci
on era w C 1 [a, b]).
5.4. METODO DE ELEMENTOS FINITOS
Es un procedimiento sistematico aplicando la formulaci
on de Galerkin, pero en donde se ha usado unas
funciones bases muy particulares. Estas funciones bases reciben el nombre de funciones de forma tales que
i (xj ) = ij

x m

m = 1, 2, . . . , M

(1)

Cada elemento m , del total de M elementos en el dominio , tiene varios nodos i = 1, 2, . . .. Para cada uno
de estos nodos existen varias funciones de forma en los elementos vecinos que comparten dichos nodos, cada
una con las mismas caracterstica (1). Fuera de cada elemento donde la funci
on de forma act
ua, tiene valor
nulo. Dentro de cada elemento tiene una dependencia, que en el caso m
as simple, es lineal. De manera que
(x)

j j (x)

(2)

j=1

umero de nodos N
donde j es el valor de la variable resuelta en el nodo j, de un total de N nodos. El n
y el n
umero de elementos M no son lo mismo, porque un nodo es compartido por varios elementos.
152

ECUACIONES EN DERIVADAS PARCIALES

CAP.V

FUNDAMENTOS

En el caso unidimensional estos elementos m tienen forma de segmentos con nodos m1 y m2 en los
extremos y en el caso bidimensional pueden tener forma de tri
angulos o rect
angulos con nodos m1, m2, m3 y
hasta m4 en los vertices, en el sentido anti-horario.
5.4.1. Unidimensional
En el caso unidimensional el dominio = [a, b] se divide en M elementos que son segmentos que van
del nodo m1 = i 1, i al nodo m2 = i, i + 1 para cada elemento m = i + 1 = 1, 2, . . . , M . Las funciones de
forma tienen la siguiente expresion lineal

xx
x xm1

i1

si k = m2

si xi1 x xi

xm

i1

x [xm1 , xm2 ]
k (x) = xm2 x
(3)
i (x) = xi+1 x si xi x xi+1

si k = m1

xi

0
si x xi1
o x xi+1
0
si k
= m1 y k
= m2
no del elemento m = i + 1 y xm = xm2 xm1 es el tama
no del mismo
donde xi = xi+1 xi es el tama
elemento m. Vemos que dentro de un mismo elemento existen parcialmente dos funciones de forma distintas
para los nodos extremos de dicho elemento. De hecho se cruzan en cada elemento. La gura 1 muestra la
angulos en dicha
gr
aca de estas funciones de forma i para todo el dominio [a, b]. Las alturas de todos los tri
gura son la unidad.

Figura 1. Funciones de forma i (x) para elementos nitos unidimensionales.


La solucion aproximada es
(x)


j j (x)

j (xk ) =

j=1

1
0

si j = k
si j =

(4)

de donde j = (x
j ). Para el problema planteado 5.1.(1) (2) el residuo ponderado de Galerkin es
b

R =

k (x) R(x) dx =
a


d $ d %

+ S(x) dx = 0
k (x)
dx
dx


k C 0 [a, b]

(5)

Substituyendo la soluci
on aproximada (4), obtenemos
N

j=1

k (x)
a

d $ dj %

dx +
dx
dx

k (x) S(x) dx = 0
a

Akj j = bk

k = 1, 2, . . . , N

(6)

j=1

Aunque esta expresion es elegante a la hora de explicar el metodo de Galerkin, como se coloca a continuacion
b

Akj =
a

b
d $ dj %
dj 

dx = k (x)
k (x)

dx
dx
dx a

SEC. 5.4. METODO DE ELEMENTOS FINITOS

dk dj
dx
dx dx

bk =

k (x) S(x) dx

(7)

153

A. GRANADOS

METODOS NUMERICOS

donde la integraci
on sobre todo el dominio [a, b] se ha hecho sumando los resultados por elementos m

Akj = k (x)

b
M

dj 
+
Am
dx a m=1 kj

xm2

Am
kj =

xm1

dk dj
dx =
dx dx

= 0 si k, j =

m1 y k, j
= m2
(8)

= 0 si k, j = m1 o k, j = m2

es mas conveniente para realizar los c


alculos, mostrar el sistema de ecuaciones lineales con una matriz tridiagonal, donde los coecientes no nulos acompa
nan s
olo a la variable de los nodos vecinos al nodo central k
para cada la k
Ak,k1 k1 + Ak,k k + Ak,k+1 k+1 = bk
(9)
y se calculan los coecientes individualmente de forma
xk1 + xk
S(xk )
2
(10)
Los coeciente de difusividad k es el coeciente promedio en cada elemento k. Los resultados anteriores se
han obtenido jando k (x) y extendiendo el resultado no negativo de las integrales (7.a) y (8.b) a los nodos
k ) es el valor medio del termino de fuente alrededor
vecinos para j (x), con j = k 1, k, k + 1. El valor S(x
del nodo k, ponderado con las distancias relativas xk1 /(xk1 + xk ) y xk /(xk1 + xk ).
Ak,k1 =

k1
xk1

Ak,k =

k1
k

xk1
xk

Ak,k+1 =

k
xk

bk =

Para los nodos inicial y nal se aplican las condiciones de borde como se muestra en (8.a) y se alteran
los coecientes b1 y bN
b1


d0 
= b1 A1,0 0 + 1 (x)
0
dx a

bN


dN +1 
= bN AN,N +1 N +1 N (x)
N +1
dx b

(11)

aunque los u
ltimos terminos de las expresiones anteriores son nulos debido a que 1 (a) = N (b) = 0. Las
condiciones de borde se establecen como (a) = 0 = y (b) = N +1 = .
5.4.2. Bidimensional
Se la siguiente ecuacion diferencial en 2D para (x)


. []. + S(x) = 0

x R2

(12)

con valor en la frontera


(x) =

x = a 1

n.[].(x) =

x = b 2

(13)

donde la frontera de se ha dividido en dos partes, siendo la primera 1 con valor especicado (Dirichlet),
y la segunda 2 con gradiente perpendicular especicado (Neumann). El coeciente de difusividad tensorial
[(x)] tiene componentes


xx xy
[] =
(14)
yx yy
y puede depender de la posicion x. El vector n es la normal unitaria exterior a .
El residuo de la equacion diferencial (12) con la soluci
on aproximada (x)

es

(x)



R(x) = . []. + S(x)

n.[].(x)

154

si x = a 1

si x

(15)

si x = b 2
ECUACIONES EN DERIVADAS PARCIALES

CAP.V

FUNDAMENTOS

donde = es el interior de (tambien se le denomina abierto de ). El residuo ponderado se dene


como
Rw =

w(x) R(x) dA

(16)

Para la formulaci
on de Galerkin, la soluci
on aproximada y su residuo ponderado con las funciones bases j (x)
son
N

(x)

=
j j (x)
R =
k (x) R(x) dA = 0
k C 0 ()
(17)

j=1

Substituda estas expresiones, se obtiene el siguiente sistema de ecuaciones lineales


N

j=1

Akj j = bk

k = 1, 2, . . . , N

(18)

j=1

donde los coecientes del sistema lineal son


3


Akj =
k (x) . [].j dA =

bk =


"
!

k (x) . [].j + S(x) dA = 0

k (x) n.[].j dC

k (x).[].j (x) dA
(19)

k (x) S(x) dA

Fjese que se ha aplicado el teorema de Green a los coecientes Akj . El primer termino del tercer miembro
4
de (19.a) es realmente la integral cerrada de lnea dC, donde C = 1 2 es la curva de la frontera.
La funci
on de forma i , i = m1, m2, m3, para la interpolaci
on en un elemento triangular m son
[Reddy,2005] [Reddy & Gartling,2000]
m
i = xj yk xk yj
1
i =
(m +im x+im y)
2Am i

im = yj yk

Am
kj =

im = (xj xk )

1
{ km
4Am


km }

xx
yx

xy
yy

m 

jm
jm


(20)

Los ndices i, j, k en (20.a, b) son cualquier permutaci


on derecha de m1, m2, m3. Los ndices k, j en (20.c) se
reeren a k y j en (21.b) abajo. El signo menos de (21.b) no se cancela, como en el caso unidimensional,
aunque estos dos gradientes tengan valores opuestos, pero dichos valores est
an contenidos en los coecientes
on
y de cada lado k y j. Uno de los A2m en el denominador de (20.c) se ha cancelado durante la integraci
de (21.b) con gradientes constantes. El super-ndice m en el tensor []m se reere a que dicho tensor se
establece promedio para el elemento m.
La integracion en (19) sobre todo el dominio se ha hecho sumando los resultados por elementos m
3
Akj =

k (x) n.[].j dC +

Am
kj

bk =

Am
kj

m=1

k (x).[].j (x) dA =

1
Am,k Sm (xk )
3
m,k

(21)

= 0 si k, j =

m1 y k, j
= m2 y k, j
= m3

= 0 si k, j = m1 o k, j = m2 o k, j = m3

El elemento bk se calcula como la media de los terminos de fuente en los elementos alrededor del nodo k,
ponderado con los vol
umenes 13 Am,k de las distintas funciones de forma k en los elementos m vecinos al
nodo k.
La matriz Akj se rellena de la siguiente manera:
SEC. 5.4. METODO DE ELEMENTOS FINITOS

155

A. GRANADOS

METODOS NUMERICOS

Para cada k jo, se ja tambien la la en la matriz y se ja un nodo k correspondiente en el dominio.


Se rellena los elementos de los nodos vecinos integrando los resultados (21.b) en los elementos vecinos a los
que pertenece, cuyos resultados para cada uno son (20.c). Luego el elemento del nodo central j = k es menos
la suma de los coecientes de los elementos de la matriz para los nodos vecinos.
Finalmente se establecen las condiciones de contorno. Todos los nodos j de la porci
on 1 , se le suma
al elemento independiente k (ndice del nodo pr
oximo a la frontera) de dicho nodo, el valor Akj j , donde
j = j (x) = , con x = a 1 . Para este borde, el termino con k (a) siempre se anula en (21.a) en la
porci
on 1 de C.
oximo
Todos los nodos j de la porci
on 2 , se le suma al elemento independiente k (ndice del nodo pr

a la frontera) de dicho nodo, el valor n.[].(x) b lk = lk , donde x = b 2 . La cantidad lk
es el tama
no del lado opuesto al nodo k, vertice en el triangulo del borde, donde el segmento lk forma parte
de la frontera aproximada poligonal en 2 . Para este borde, el termino con k (b) siempre se anula en (21.a)
en la porci
on 2 de C. Los valores the j para los nodos de la porci
on de la frontera 2 de C tambien
son inc
ognitas. Estos nodos son los vertices de los elementos triangulares con una sola punta (o varias) en
la frontera estrellada, una vez eliminados los segmentos ( frontera 2 = frontera poligonal (segmentos) +
frontera estrellada (nodos) ).
Al nal se contar
a con un sistema de N ecuaciones lineales con N inc
ognitas, los valores de k ,
k = 1, 2, . . . , N , indeterminados en los nodos, excluyendo los nodos en la frontera en la porci
on 1 , que
conforma una matriz diagonal en bloques.
5.4.3. Transitorio
Sea la ecuacion diferencial en (t, x)



= . []. + S
t

(22)

con condiciones iniciales o = (0, x) x conocidas en t = 0, y condiciones de borde (13) conocidas para
todo instante t. El coeciente de difusividad tensorial (t, x) y el termino de fuente S(t, x) pueden depender
tambien del tiempo t.
Una vez substituda la soluci
on aproximada

(t,
x) =

j (t) j (x)

(23)

j=1

y aplicado el metodo de Galerkin (17)-(18) y discretizado el problema en los elementos nitos (19)-(21), se
obtiene el siguiente sistema de ecuaciones diferenciales ordinaria de primer orden en (t) = {j (t)}
Bkj

dj (t)
= Akj j (t) bk
dt

[B].

d
= [A]. b
dt

(24)

donde Bkj se calcula como

Bkj =

k (x) j (x) dA =

M

m=1

m
Bkj

m
Bkj
=

k (x) j (x) dA

(25)

Los valores de Akj y bk son los mismos que en (19), con las mismas observaciones que all se han hecho.
El sistema se resuelve con cualquiera de los metodos expuestos en el captulo IV, una vez despejado el
vector d/dt al multiplicar la ecuaci
on (24) por [B]1 . Tambien se pueden emplear los esquemas de Euler
implcito de la seccion 2.2.1. o el esquema de Crank-Nicholson de la seccion 2.2.2., dise
nados para ecuaciones
m
son distintos de cero s
olamente para
diferenciales parab
olicas, como lo es la ecuacion (22). Los valores Bkj
156

ECUACIONES EN DERIVADAS PARCIALES

CAP.V

FUNDAMENTOS

m
los elementos m vecinos al nodo k. El ndice j indica la variable j (t) sobre la que act
ua Bkj
y Am
kj , para
cada elemento m vecino del nodo k, instant
aneamente.
Como los coecientes de (24.b) son matriciales, pero no necesariamente constantes en t, se puede aplicar
el factor integrante


t
1
[(t)] = exp
[B] . [A] dt
(26)
0

obteniendose

d 
[]. = [] . [B]1. b
dt

(t, x) = [] .
o

[].[B] .b dt

(27)

Cuando los coecientes A, B y b son constantes en el tiempo, la solucion (27.b) es facilmente obtenible sin
necesidad de utilizar ning
un metodo numerico adicional para el sistema de ecuaciones diferenciales ordinarias.
BIBLIOGRAFIA
[1] Anderson, D. A.; Tannehill, J. C.; Pletcher, R. H. Computational Fluid Mechanics and Heat
Transfer. Hemisphere Publishing Corporation, 1984.
[2] Bathe, K.-J. Finite Element Procedures. Prentice-Hall - Simon & Schuster (New Jersey), 1996.
[3] Burden R. L.; Faires, J. D. Numerical Analysis. 3rd Edition. PWS. Boston, 1985.
[4] Finlayson, B. A. The Method of Weighted Residuals and Variational Principles, with Application in Fluid Mechanics, Heat and Mass Transfer. Academic Press (New York), 1972.
[5] Gerald, C. F. Applied Numerical Analysis, 2nd Edition. Addison-Wesley (New York), 1978.
[6] Granados, A. L. Flujo Turbulento Cargado con Partculas S
olidas en una Tubera Circular,
Tesis Doctoral, Univ. Politecnica de Madrid, E. T. S. Ing. Industriales, 2003.
[7] Hughes, T. J. R. The Finite Element Method, Linear Static and Dynamic Finite Element Analysis.
Prentice-Hall (Englewood Cli, N. J.), 1987. Dover Publications (New York), 2000.
[8] Kim, J.; Moin, P. Application of a Fractional-Step Method to Incompresible Navier-Stokes Equations, J. Comp. Physics, Vol.59, pp.308-323, (1985).
[9] Orlandi, P. Fluid Flow Phenomena: A Numerical Toolkit. Kluwer Academic Publishers (Dordrecht, The Netherlands), 2000.
sik, M. Necati Finite Dierence Methods in Heat Transfer. CRC Press, 1994.
[10] Ozi
[11] Patankar, S.V. Numerical Heat Transfer and Fluid Flow. Hemisphere Publishing Corporation
(New York), 1980.
[12] Reddy, J. N. An Introduction to the Finite Element Method, Third Edition. McGraw-Hill,
2005.
[13] Reddy, J. N. Energy Principles and Variational Methods in Applied Mechanics, 2nd Edition.
John Wiley & Sons (New Jersey), 2002.
[14] Reddy, J. N.; Gartling, D. K. The Finite Element Method in Heat Transfer and Fluid Dynamics, Second Edition. CRC Press, 2000.
[15] Versteeg, H. K.; Malalasekera, W. An Introduction to Computational Fluid Dynamics: The
Finite Volume Method. Pearson Education, 1995. Second Edition, 2007.

SEC. BIBLIOGRAFIA

157

APENDICE. SERIES DE TAYLOR.

TAYLOR SERIES FOR MULTI-VARIABLE FUNCTIONS


Andr
es L. Granados M.
Department of Mechanics
SIMON BOLIVAR UNIVERSITY
Valle de Sartenejas, Estado Miranda
Apdo.89000, Caracas 1080A, Venezuela. e-mail: agrana@usb.ve
ABSTRACT
This paper intends to introduce the Taylor series for multi-variable real functions. More than a
demostration of the teorema, it shows how to expose the series in a compact notation. Generalization of
the jacobian of any order of a function with multiple dependence is dened. For this we use the dierential
operator with multiple tensor products. Also is established a special multiplication of the derivatives with
the displacement of independent variables. This multiplicaction is identied as the contraction of indexes. At
the end there is a new proof of the Taylors Theorem for vectorial and tensorial functions. Also it is included
the multi-index notation version of the series.
PRELIMINARS
We shall go here step by step. First we dene the dierent operators performed on escalar, vectorial
and tensorial function. The funtions may be on escalar or vectorial variable. Second we dene the operations,
dierent types of multiplications, between them or with functions or variables.
Escalars
Let be f (x): RM R a continuous escalar function, with continuous partial derivative. The gradient
is the following operation
i i
grad f = f
=e
(1)
Although the both notation are common, the second is more used. The operator , denominated nabla,
i is the constant base. There is not confusion about the ordering of
is dened in (1.b), with i = /xi and e
the operator and the operated. We follow the summation convention for repeated indexes (dummy index).
Vectors
Let be f (x): RM RN a continuous vectorial function, with continuous partial derivative of their
components. The gradient and the divergence are the following operations
grad f = (f )t = Jf

div f = .f = i f i

(2)

In the case of gradient we operate with , but then we transpose. That is the correct ordering. Thus the
jacobian Jf has component Jji = j f i . In a matrix, this componente will be in the row i and the column j.
That is why we transpose. With the divergence there is not confusion. The operator makes a escalar product
with the vectorial function. This product is commutative, but this is not necessary because the result is a
escalar.
Tensors
Let be F(x): RM RN RN a continuous second order tensorial function, with continuous partial
derivative of their components. The gradient and the divergence are the following operations
grad F = (F)t = JF

i j F ij
div F = .Ft = e
159

(3)

Andr
es L. Granados M.

The gradient needs a transposition with the operator nabla because the variable which is derivated has the
rst indice in the array (free index). For the divergence the double transposition is necessary because the
dummy index (repeated index by summation convention) contracted by the operation corresponds to
i .
ej = ji ). The dierence of operators, between grad
the last index of F components and the index of j ( e
or div and or . , is the ordering of derivation. That is why we eventually need the transpositions, as for
rot and in the rotational operator, when is applied to tensors.
Operators
Instead grad and div, we shall use the following operators that have some especial properties
=

= 2 = 2 = .

x = I

.x = N

(4)

The rst operator is the gradient. When applied on a vectorial function forms a diadic. Frequently, the
symbol is avoided for simplicity, as in (2.a) and (3.a). The second operator is the divergence and one has
to take care over which part acts the contraction to produce a dummy index. The third operator is the well
known laplacian. The last two properties between parenthesis are obvious, resulting in identity tensor I and
the dimension of x.
CALCULUS
Two aspects are involves in the following notation: the multiplicactions and the derivatives.
Multiplications
There are two forms of multiplicactions. The rst of them is called the tensorial multiplication. At
the left is shown how is the exponentiation of a vector by an exponent k with this multiplication.
k times

k times




= v v v




=

(5)

At the right it is shown how is the same exponentiation but with the dierential operator nabla. The
permutation of factors in (5.b) may be in any manner due to the interchageable of the ordering of derivation

by the continuity of derivatives. To be consistent with, v0 = 1 and 0 = non-derivatives.


The second form of multiplication is the escalar product or interior multiplication
u.v = ui v i

nml..rs
(A  B)..rs
ij.. = Aij..lmn B

U : V = Uij V ji

(6)

Between vectors is the escalar multiplication. Repeated twice between two second order tensor is the escalar
multiplication of tensors (some mathematicians use only one point for this multiplication). In general, in the
extreme right, it means the number of contraction of the adjacent index in each part, at one side and the
other side of the point, to form dummy indexes. In the example (6.c), k times products contract indexes nml..
in that ordering (from inside to outside), thus this number coincides (at last) with the number of repeated
indexes. Normally, this ocurres to mixed index.
Particularly, the notation in (5) may be extended to another kind of multiplication. This is the case
of the potency or the exponentiation of a second order tensor A where should be interpreted
k times

k




= A.A. .A Ak

(5 )

as in matrix exponentiation (matrixes are arrays of the components of second order tensors in a particular
basis, and their exponentiation is with conventional matrix multiplication where [A.B] = [A] [B]). Also, this
has been naively used for vectors in scalar multiplication such as v2 = v.v in (6.a) or . = 2 in (4.c).
Obviously, exponentiations with respect to k and k exponents are substantially dierent.
160

SERIES DE TAYLOR

APENDICE

TAYLOR SERIES FOR MULTI-VARIABLE FUNCTIONS

Derivatives
i ), we have the jacobian matrix
As two examples of gradient derivatives of vectorial functions ( x = xi e
and the hessian tensor, whose denitions are shown below

Jf (x) = [f (x)]t

Hf (x) = Jf2(x) = [[f (x)]t ]t = [2 f (x)]t

(7)

The necessary transposition are patent in the ordering of the indexes of the components (i=row, j=column
and k=layer)
f i
2f i
i
Hjk
=
(8)
Jji =
j
x
xj xk
A generalization of this concept of derivation, is the k order jacobian dened as follows
k times

Jfk(x)





= [[ [f (x)]t ]t ]t = [k f (x)]t

(9)

See the particular cases k = 1, 2 in (7), for the jacobian and the hessian. The number of transpositions and
tensorial multiplications are the same, k times. Here the symbol has been partially omitted for simplicity
as in (4.a). The expression is briey dened with symbols of (5.b) at the end of the expression (9). The
transposition is for the global factor. Obviously, Jf0 (x) = f (x).
TAYLOR SERIES
There are shown two forms of Taylor series, the escalar and the vectorial or tensorial. The tensorial
form is the same to the vectorial form, changing f by F, a slight modication of equation (9) (see (2.a) and
(3.a)). All the rest remains equal.
Escalar Series
The escalar form of the Taylor series [1,2] is the following
f (x) =

n

f (k) (xo )

k!

k=0

(x xo )k + Rn (x)

(10.a)

The remainder term Rn (x) is


x

Rn (x) =
xo

f (n+1) (t)
f (n+1) ()
(x t)n dt =
(x xo )(n+1)
n!
(n + 1)!

[xo , x]

(10.b)

The second member is the integral form used recurrently, with integrations by parts, to obtain the serie (10.a).
The third member is the form of Lagrange for the residual or remainder Rn (x), which may be demonstrated
by the Theorem of Mean-Value [3,4], but also by the Theorem of Rolle [5,6]. Remember that 0! = 1 and
f (0) = f .
Vectorial Series
The vectorial form of the Taylor series is the following
f (x) =

n

Jk(xo )
f

k=0

The remainder term Rn (x) is


1

Rn (x) =
SECT. SERIES DE TAYLOR

k!

 (x xo )k + Rn (x)

(11.a)
with B(xo , xxo )

Jn+1() n+1
Jfn+1(r(t)) n+1
 (x xo )(n+1) (1 t)n dt = f
 (x xo )(n+1)
n!
(n + 1)!

(11.b)
161

Andr
es L. Granados M.

where B(xo , x xo ) is the RN close ball of center in xo and radius x xo . The topological structures of
(11) and (10) are the same. Next section we shall show why the second member of (11.b) has such expression.
Some solutions use what is explained in continuation. Parametrize the line segment between xo and
x by r(t) = xo + t (x xo ) (t [0, 1]). Then we apply the one-variable version of Taylors theorem to the
function g(t) = f (r(t)), where g (t) = [f (r)]t . r (t). Results are the same as [6,7], but the notations are
dierent.

In [6] it is suggested to put under a unique exponent k the factors Jfk(xo ) and (x xo )k ,
k

and the multiple-operation  in between, although the operation (without exponent), comprehended
as a escalar product, is not exposed explicitly with symbol. The nabla operator is used for generalized
jacobian Jf(a) = f (a), with transposition included, implicitly understood. However, Jfk(x) should be seen
as k-times compositions of a dierential operator over f (transposition included), rather than a simple
power k of f (see equation (9)). One may be tempted to enclose the superindex of J with parenthesis, but
this will over-recharge the notation innecessarily (besides, there is no the confusion as in f k and f (k) ). In [7]
is used Df (a) instead f (a), and no explicit operation is mentioned between the factors Df and (x a) .
The remainder term is consistent.
Tensorial Series
This form is exactly the same as the vectorial form without any particularity, except as mentioned.
The demostration of vectorial (11) or tensorial form of series is similar to the escalar (10) form of series [3,4],
taking into account the particularity of the operations (5) and (6), and the denition (9).
TAYLORS THEOREM
Taylors theorem establish the existence of the corresponding series and the remainder term, under
already mentioned conditions. We present now two proof of Taylors theorem based on integration by parts,
one for escalar functions [4], the other for vectorial function, similar in context, but dierent in scope. The
rst will guide the second. Both are based on a recurrent relationship that starts with an initial expression.
Escalar Proof
Integration by parts states that
b

u dv = uv

v du
a

b
u(t) v  (t) dt = u(t) v(t) a

v(t) u (t) dt

(12)

If we select a = xo , b = x and
u(t) = f (k) (t)

du = f (k+1) (t) dt

v=

(x t)k
k!

dv =

(x t)k1
dt
(k 1)!

(13)

it is obtained
x
xo

f (k) (t)
f (k) (xo )
(x t)k1 dt =
(x xo )k +
(k 1)!
k!

x
xo

f (k+1) (t)
(x t)k dt
k!

(14)

The recurrent expression (14) permits to obtain (10.a) series, begining with k = 1 and
x

f  (t) dt = f (x) f (xo )

(15)

xo

Including its remainder term (10.b), with k = n, in its rst form (second member), which becomes in the
second form (last member) via the mean-value theorem
b

g(t) h(t) dt = g(c)


a

162

h(t) dt

c [a, b]

(16)

a
SERIES DE TAYLOR

APENDICE

TAYLOR SERIES FOR MULTI-VARIABLE FUNCTIONS

for continuous functions g(t) and h(t) in the interval.


Vectorial Proof
We now parametrize the line segment between xo and x by a function r(t): R RN dened as
r(t) = xo + t (x xo )

t [0, 1]

(17)

Then we apply the one-variable version of Taylors theorem to the function g(t): R RM with
g(t) = f (r(t))

g (t) = [f (r)]t . r (t) = Jf (r) . r (t)

and

(18)

where r (t) = x xo is a constant in t, therefore


g(k) (t) =

k
k
k1


dg(k1) 
= [Jk1
(r)]t  [r (t)](k1) . r (t) = Jkf (r)  [r (t)]k = Jkf (r)  (x xo )k
f
dt
k1

(19)
k

Note that, in the third member of (19), the operations  and . combine in one operation  .
Application of (14) to g(t) function, instead f (t); with a = 0 and b = 1 in (12), instead a = xo and b = x,
produces
1
0

Jfk(r(t)) k
Jk(xo ) k
 (x xo )k (1 t)k1 dt = f
 (x xo )k +
(k 1)!
k!

1
0

Jfk+1(r(t)) k+1
 (x xo )(k+1) (1 t)k dt
k!
(20)

The equivalent of (14).


The recurrent expression (20) permits to obtain (11.a) series, begining with k = 1 and
1
0

g (t) dt = g(1) g(0) = f (x) f (xo ) =

1
0

Jf (r(t)) . (x xo ) dt

(21)

Including its remainder term (11.b), with k = n, in its rst form (second member), which becomes in the
second form (last member) via the mean-value theorem (16), applied to a vectorial function g(t)
1

g(t) h(t) dt = g( )
0

h(t) dt
0

[0, 1]

(22)

what means that = xo + (x xo ) in (11.b). As x is in the close ball spherical cap of center xo , then is
inside the ball. All said here in this proof for vectorial functions is valid also for tensorial functions changing
f by F and g by G.
MULTI-INDEX FORM
An m-dimensional multi-index is an ordered m-tuple [8]
= (1 , 2 , 3 , . . . , m )

(23)

of non-negative integers Z+ (natural numbers N) i N. They have the properties:


Sum of components
|| = 1 + 2 + 3 + + m =

(24)

i=1
SECT. SERIES DE TAYLOR

163

Andr
es L. Granados M.

Factorial
! = 1 ! 2 ! 3 ! m ! =

m


i !

(25)

i=1

With this notation, the Taylor series will be expressed as


||=n

f (x) =

J||(xo ) ||

f
 (x xo )|| + Rn (x)
!

(26.a)

||0

The remainder term Rn (x) is


Rn (x) =

||=n+1

||

(n + 1) Jf (r(t)) ||
 (x xo )|| (1 t)n dt =
!


||=n+1

||

Jf () ||
 (x xo )||
!

(26.b)

with B(xo , x xo ) and n (|| = n


= 0) a multi-index limit. Where it must be interpreted
||
Jf (xo )



|| f

=
1
m 
x1 xm x=xo

(x xo )|| = (x1 xo1 )1 (xm xom )m

(27)

The order of derivatives and powers are the same, Term by term, which guarantees the contraction factor by
factor. Some factors for the derivatives, others factors for the powers, in each term. The order of derivations,
the exponent of powers and the number of contractions concide. The derivative notation has a natural way
to include the transposition of the operator implicitly (last derivates are respect to the rst variables), which
makes the transposition unnecessary.
This form means that the variability of a vectorial function, that depend on various variables, are
additive in multiple directions for several terms, mutiplied the directions for each term (powers) on corresponding variable, with the same directions and order of derivations. The factorial in the denominator of
(26), as a multi-index, takes into account the number of permutations of the same variable in a power, and
simplify it [7]. Contrary to (11), which contains all the possible permutations of the powers, and thus may
have repeated terms. However, both are equivalent. The same global power of variables may be repeated in
dierent terms, but in dierent ways.
Example
For example, the third order Taylor polynomial of a scalar function f : R2 R, denoting v = x xo ,
is
P3 (x) = f (xo ) +

f (xo )
f (xo )
v1 +
v2
x1
x2

2 f (xo )
2 f (xo ) v12
2 f (xo ) v22
+
v1 v2 +
2
x1 2!
x1 x2
x22 2!

3 f (xo ) v12 v2
3 f (xo ) v1 v22
3 f (xo ) v23
3 f (xo ) v13
+
+
+
x31 3!
x21 x2 2!
x1 x22 2!
x32 3!

(28)

where it can be observed the mentioned characteristic [7]. The central term of second order appear twice in
(11.a). As v1 v2 and v2 v1 , that is why when they are divided by 2, disappear the factorial for this term. The
two central terms of third order appear three times each one in (11.a). As v12 v2 , v1 v2 v1 and v2 v12 and as v1 v22 ,
v2 v1 v2 and v22 v1 , respectively, that is why when they are divided by 3!, disappear 3 and appear 2! for those
terms. This occurs only in the mixed terms. Finally, the polynomial (28) has the form (26.a), with (27) up
to || = n = 3, but can also be obtained with (11.a) for n = 3, and the posterior consolidation of terms.
164

SERIES DE TAYLOR

APENDICE

TAYLOR SERIES FOR MULTI-VARIABLE FUNCTIONS

REFERENCES
[1] Taylor, B. Methodus Incrementorum Directa et Inversa, Phylosophycal Transactions of the
Royal Society (London), (1715).
[2] Taylor, B. Contemplatio Philosophica. Published by his nephew Sir William Young, 1793.
[3] Apostol, T. M. Calculus. Volume 2: Multivariable Calculus and Linear Algebra, with
Applications to dierential Equations and probability, 2nd Edition. John Wiley & Sons (New
York), 1969.
[4] Thomas, G. B. Calculus and Analytic Geometry, 4th Edition. Addison-Wesley (Massachusetts),
1968.
[5] Thomas, G. B. Thomas Calculus, 12th Edition. Addison-Wesley (Massachusetts), 2010.
[6] https://es.wikipedia.org/wiki/Teorema de Taylor
[7] https://en.wikipedia.org/wiki/Taylor%27s theorem
[8] Saint Raymond, X. Elementary Introduction to The Theory of Pseudodierential Operators.
Chap 1.1. CRC Press, 1991.

SECT. SERIES DE TAYLOR

165

ANEXOS

BIBLIOGRAFIA GENERAL
Abramowitz, M.; Stegun, I. A. Handbook of Mathematical Functions with Formulas, Graphs,
and Mathematical Tables. Dover Publications, 1965. Ninth Printing, 1970.
Anderson, D. A.; Tannehill, J. C.; Pletcher, R. H. Computational Fluid Mechanics and Heat
Transfer. Hemisphere Publishing Corporation, 1984.
Atkinson, K.E. An Introduction to Numerical Analysis. 2nd Edition. John Wiley & Sons, 1989.
Bakhvalov, N. S. bf Numerical Methods. MIR Publishers-Moscow, 1977.
Bathe, K.-J. Finite Element Procedures. Prentice-Hall - Simon & Schuster (New Jersey), 1996.
Brent, R. P. Algorithms for Minimization without Derivatives. Prentice-Hall, 1973.
Broyden, C. G. A Class of Methods for Solving Non-Linear Simultaneous Equations, Mathematics
of Computation, Vol.19, pp.577-593, (1965).
Burden R. L.; Faires, J. D. Numerical Analysis. 3rd Edition. PWS. Boston, 1985.
Butcher, J. C. Implicit Runge-Kutta Processes. Math. Comput., Vol.18, pp.50-64, (1964).
Butcher, J. C. On the Runge-Kutta Processes of High Order. J. Austral. Math. Soc., Vol.IV,
Part 2, pp.179-194, (1964).
Butcher, J. C. The Numerical Analysis of Ordinary Dierential Equations, Runge-Kutta
and General Linear Methods. John Wiley & Sons (New York), 1987.
Butcher, J. C. Numerical Methods for Ordinary Dierential Equations, 2nd /3rd Editions.
John Wiley & Sons (New York), 2008/2016.
Carnahan, B.; Luther, H. A.; Wilkes, J. O. Applied Numerical Methods. John Wiley & Sons (New
York), 1969.
Cash, J. R.; Karp, A. H. ACM Transactions on Mathematical Software, Vol.16, pp.201-222,
1990.
Chapra, S. C.; Canale, R. P. Numerical Methods for Engineers, with Personal Computer Applications. McGraw-Hill Book Company, 1985.
Chapra S. C.; Canale, R. P. M
etodos Num
ericos para Ingenieros, Tercera Edici
on. McGraw-Hill
Interamericana Editores (Mexico), 1999.
Collatz, L. The Numerical Treatment of Dierential Equations. Third Edition. SpringerVerlag, 1960. Second Printing, 1966.
Conte, S.D.; Carl de Boor. An
alisis Num
erico. 2da Edici
on. McGraw-Hill, 1974.
. Numerical Methods. Prentice-Hall, 1974.
Dahlquist, G.; Bjorck, A
Dennis, J. E. Jr.; More, J. J. Cuasi-Newton Methods, Motivation and Theory, SIAM Review,
Vol.19, No.1, pp.46-89, (1977).
Devaney, R. L. An Introduction to Chaotic Dynamical Systems. Addison-Wesley, 1987.
Fehlberg, E. Low-Order Classical Runge-Kutta Formulas with Stepsize Control. NASA Report No.
TR R-315, 1971.
Finlayson, B. A. The Method of Weighted Residuals and Variational Principles, with Application in Fluid Mechanics, Heat and Mass Transfer. Academic Press (New York), 1972.
Gear, C. W. Numerical Initial Value Problems in Ordinary Dierential Equations. PrenticeHall, 1971.
Gerald, C. F. Applied Numerical Analysis. 2nd Edition. Addison-Wesley, 1978.
Granados M., A. L. Nuevas Correlaciones para Flujo Multif
asico. INTEVEP S.A. Reporte
Tecnico No. INT-EPPR/322-91-0001. Los Teques, Febrero de 1991. Trabajo presentado en la Conferencia sobre: Estado del Arte en Mecanica de Fluidos Computacional. Auditorium de INTEVEP S.A.
Los Teques, del 27 al 28 de Mayo de (1991).
BIBLIOGRAFIA GENERAL

167

A. GRANADOS

METODOS NUMERICOS

Granados M., A. L. Second Order Methods for Solving Non-Linear Equations, INTEVEP, S.
A. (Research Institute for Venezuelan Petroleum Industry), Tech. Rep. No.INT-EPPR/322-91-0002,
Los Teques, Edo. Miranda, Jun, 1991, pgs. 14-36.
Granados M., A. L. Free Order Polynomial Interpolation Algorithm. INTEVEP S.A. Nota
Tecnica. Los Teques, Julio de 1991.
Granados M., A.L. Lobatto Implicit Sixth Order Runge-Kutta Method for Solving Ordinary Dierential Equations with Stepsize Control. INTEVEP S.A. Reporte Tecnico No.
INT-EPPR/3-NT-92-003. Los Teques, Marzo de 1992.
Granados M., A. L. Fractal Techniques to Measure the Numerical Instability of Optimization Methods. Numerical Methods in Engineering Simulation: Proceedings of The Third International
Congress on Numerical Methods in Engineering and Applied Sciences, CIMENICS96. Cultural Centre Tulio Febres Cordero, March 25-29, 1996. Merida, Venezuela. Editors: M. Cerrolaza, C. Gajardo,
C. A. Brebbia. Computational Mechanics Publications of the Wessex Institute of Technology (UK),
pp.239-247, (1996).
Granados M. A. L. Lobatto Implicit Sixth Order Runge-Kutta Method for Solving Ordinary Dierential Equations with Stepsize Control. Mec
anica Computacional Vol.XVI: Anales del V Congreso
Argentino de Mec
anica Computacional, MECOM96. Universidad Nacional de Tucum
an, Residencia
Universitaria Horco Molle, Comuna de Yerba Buena, 10-13 de Septiembre de (1996). San Miguel de
Tucuman, Argentina. Compilado por: Etse, G. y Luccioni, B. Asociaci
on Argentina de Mec
anica
Computacional (AMCA), pp.349-359, (1996).
Granados M., A. L. Implicit Runge-Kutta Algorithm Using Newton-Raphson Method. Simulaci
on con M
etodos Num
ericos: Nuevas Tendencias y Aplicaciones, Editores: O. Prado,
M. Rao y M. Cerrolaza. Memorias del IV CONGRESO INTERNACIONAL DE METODOS NUMERICOS EN INGENIERIA Y CIENCIAS APLICADAS, CIMENICS98. Hotel Intercontinental
Guayana, 17-20 de Marzo de 1998, Puerto Ordaz, Ciudad Guayana. Sociedad Venezolana de Metodos
Numericos en Ingeniera (SVMNI), pp.TM9-TM16. Corregido y ampliado Abril, 2016. https://
www.academia.edu/11949052/Implicit Runge-Kutta Algorithm Using Newton-Raphson Method
Granados M., A. L. Implicit Runge-Kutta Algorithm Using Newton-Raphson Method. Fourth World
Congress on Computational Mechanics, realizado en el Hotel Sheraton, Buenos Aires, Argentina,
29/Jun/98 al 2/Jul/98. International Association for Computational Mechanics, Abstracts, Vol.I,
p.37, (1998).
Granados, A. L. Flujo Turbulento Cargado con Partculas S
olidas en una Tubera Circular,
Tesis Doctoral, Univ. Politecnica de Madrid, E. T. S. Ing. Industriales, 2003.
Granados, A. L. Numerical Taylors Methods for Solving Multi-Variable Equations, Universidad
Simon Bolvar, Mayo, 2015. https://www.academia.edu/12520473/Numerical Taylors Methods for
Solving Multi-Variable Equations
Granados, A. L. Taylor Series for Multi-Variable Functions, Universidad Sim
on Bolvar, Dic. 2015.
https://www.academia.edu/12345807/Taylor Series for Multi-Variables Functions
Gundersen, T. Computer and Chemistry Engineering. Vol.3, p.245., (1982)
Hageman, L. A.; Young, D. M. Applied Iterative Methods. Academic Press, 1981.
Hairer, E.; Nrsett, S. P.; Wanner, G. Solving Ordinary Dierential Equations I: Nonsti
Problems. Springer-Verlag, 1987.
Hairer, E.; Wanner, G. Solving Ordinary Dierential Equations II: Sti and DierentialAlgebraic Problems. Springer-Verlag, 1991.
Hamming, R. W. Numerical Methods for Scientists and Engineers. Second Edition. McGrawHill, 1973. Dover Publications, 1986.
Hildebrand, F. B. Introduction to Numerical Analysis, 2nd Edition. Dover Publications (New
York), 1974.
168

APENDICE: BIBLIOGRAFIA

ANEXOS

Homan, K.; Kunze, R. Linear Algebra, 2nd Edition. Prentice-Hall (Englewood Cli-New Jersey),
1971.
Householder, A. S. The Numerical Treatment of a Single Nonlinear Equation. McGraw-Hill
(New York), 1970.
Householder, A. S. The Theory of Matrices in Numerical Analysis. Blaisdell Publishing Company (New York), 1964. Dover Publications (new York), 1975.
Hughes, T. J. R. The Finite Element Method, Linear Static and Dynamic Finite Element Analysis.
Prentice-Hall (Englewood Cli, N. J.), 1987. Dover Publications (New York), 2000.
Isaacson, E.; Keller, H.B. Analysis of Numerical Methods. John Wiley & Sons (New York), 1966.
Lapidus, L.; Seinfeld, J. H. Numerical Solution of Ordinary Dierential Equations. Academic
Press (New York), 1971.
Linz, P. /bf Theoretical Numerical Analysis, An Introductuion to Advanced Techniques. John Wiley
& Sons, 1979.
Levenberg, K. A Method for the Solution of Certain Non-Linear Problems in Least Squares. Quarterly of Applied Mathematics, Vol.2, pp.164168, (1944).
Lobatto, R. Lessen over Dierentiaal- en Integraal-Rekening. 2 Vol. La Haye, 1851-52.
Luenberger, D. G. Optimization by Vector Space Methods. John Wiley & Sons, 1969.
Mandelbrot, B. B. The Fractal Geometry of Nature, Updated and Augmented Edition. W. H.
Freeman and Company (New York), 1983.
Marquardt, D. An Algorithm for Least Squares Estimation of Non-Linear Parameters. Vol.11, No.2,
pp.431-441, (1963).
Mendez, M. V. Tuberas a Presi
on. En Los Sistemas de Abastecimiento de Agua. Fundacion Polar
& Universidad Cat
olica Andres Bello, 1995.
Miranker, W. L. Numerical Methods for Sti Equations, and Singular Perurbation Problems. D. Reidel Publishing Company, 1981.
M
uller, D. E. An Algorithm for Least Squares Estimation of Non-Linear Parameters. Mathematical Tables and Other Aids to Computation (MTAC). Vol.10, pp.208-215, (1956).
Nakamura, S. M
etodos Num
ericos Aplicados con Software. Prentice-Hall, 1992.
Nocedal, J.; Wright, S. J. Numerical Optimization, 2nd Edition. Springer (New York), 2006.
Ortega, J. M. Numerical Analysis, A Second Course. SIAM, 1990.
Ortega, J. M.; Rheinboldt, W. C. Iterative Solution of Nonlinear Equations in Several Variables. Academic Press, 1970.
sik, M. Necati Finite Dierence Methods in Heat Transfer. CRC Press, 1994.
Ozi
Pachner, J. Handbook of Numerical Analysis Applications, With Programs for Engineers and
Scientists. McGraw-Hill, 1984.
Peitgen, H.-O.; Richter, P. H. The Beauty of Fractals. Images of Complex Dynamical Systems. Springer-Verlag, 1986.
Pennington, R. H. Introductory Computer Methods and Numerical Analysis, 2nd Edition.
Collier Macmillan Ltd., 1970.
Press, W. H.; Flannery, B. P.; Teukolsky, S. A.; Vetterling, W. T. Numerical Recipes, The Art of
Scientic Computing. Cambridge University Press, 1986. 4th Printing, 1988.
Ralston, A.; Rabinowitz, P. A First Course in Numerical Analysis. 2nd Edition. McGraw-Hill,
1978.
Rabinowitz, Ph.; Ed. Numerical Methods for Nonlinear Algebraic Equations. Gordon and
Breach Science Publishers, 1970.
BIBLIOGRAFIA GENERAL

169

A. GRANADOS

METODOS NUMERICOS

Reddy, J. N. An Introduction to the Finite Element Method, Third Edition. McGraw-Hill,


2005.
Reddy, J. N. Energy Principles and Variational Methods in Applied Mechanics, 2nd Edition.
John Wiley & Sons (New Jersey), 2002.
Reddy, J. N.; Gartling, D. K. The Finite Element Method in Heat Transfer and Fluid Dynamics, Second Edition. CRC Press, 2000.
Samarski, A. A. Introducci
on a los M
etodos Num
ericos. Editorial MIR-Moc
u, 1986.
Samarski, A. A.; Andreiev, V. B. M
etodos en Diferencias para las Ecuaciones Elpticas. Editorial MIR-Mosc
u, 1979.
Shampine, L. F.; Watts, H. A.; Davenport, S. M. Solving Non-Sti Ordinary Dierential Equations
- The State of the Art. SANDIA Laboratories, Report No. SAND75-0182, 1975. SIAM Review,
Vol.18, No.3, pp. 376-411, (1976).
Scheid, F.; Di Costanzo, R.E. M
etodos Num
ericos, 2da Edici
on. McGraw-Hill, 1991.
Stewart, G. W. Introduction to Matrix Computations. Academic Press (New York), 1973.
Stoer, J.; Bulirsch, R. Introduction to Numerical Analysis. Springer-Verlag, 1980.
Szidarovszky, F.; Yakowitz, S. Principles and Procedures of Numerical Analysis. Plenum Press,
1978.
Taylor, C.; Hughes, T. G. /bf Finite Element Programming of the Navier-Stokes Equations. Pineridge
Press, 1981.
Versteeg, H. K.; Malalasekera, W. An Introduction to Computational Fluid Dynamics: The
Finite Volume Method. Pearson Education, 1995. Second Edition, 2007.

170

APENDICE: BIBLIOGRAFIA

ACERCA DEL AUTOR


Nacio en Valencia, Edo. Carabobo, Venezuela, el 11 de junio de 1959. Graduado USB Ingeniero
Mecanico 1982, USB Magister en Ingeniera Mecanica 1988, UPM-ETSII Doctor Ingeniero Industrial 2003
(Cum Laude). Profesor Titular de la Universidad Sim
on Bolvar (USB) Sept/1985 - Ene/2011 (jubilado).
Ha dictado los cursos: Mecanica de Fluidos I, II & III, Mec
anica Computacional I & II, Mec
anica de Medios
Continuos, Metodos Numericos, Mecanica de Fluidos Avanzada, etc. Trabajo en prestigiosas empresas como:
Vepica, Inelectra, Intevep (PDVSA). Tiene en su haber m
as de 50 publicaciones entre libros, artculos en
revistas arbitradas y presentaciones en congresos y conferencias.
Enlaces:
http://prof.usb.ve/agrana/cvitae/andres.html
https://www.researchgate.net/prole/Andres Granados4/publications
https://usb.academia.edu/AndresGranados
https://espanol.free-ebooks.net/ebook/Mecanica-y-Termodinamica-de-Sistemas-Materiales-Continuos

171