http://digiteria.com.ve/wp/?

p=342

´
´
METODOS
NUMERICOS
Un Curso Introductorio Para Ingenieros y Cient´ıficos

.043 i.32+0.Andr´ es L. Granados M.ve Ilustraci´on de la portada: Conjunto de Julia del proceso iterativo complejo zk+1 = zk2 +c con valor c = 0. Edo. UNIVERSIDAD SIMON BOLIVAR Departamento de Mec´anica Sartenejas. Miranda Apdo.89000. Baruta. Caracas 1080-A Caracas. Venezuela. E-Mail: agrana@usb.

Edo. flujo bif´ asico s´olido-Gas.´ ´ METODOS NUMERICOS Un Curso Introductorio Para Ingenieros y Cient´ıficos ANDRES L. pp. Sucre. He intentado plasmar toda mi experiencia pedag´ogica en la Universidad Sim´on Bol´ıvar de alrededor de 25 aos. [3] Granados M. A. Nota T´ecnica. allanando en lo posible los cambios de nivel. RESUMEN En esta monograf´ıa se han desarrollado los m´etodos num´ericos fundamentales b´ asicos para un curso introductorio de c´alculo num´erico. mi experiencia durante mi doctorado en Espa˜ na. Los Teques.A. Valle de Sartenejas. Los Teques. constituyen la inspiraci´ on inicial de esta obra.INT-EPPR/322-91-0002. MC2421 Mec´anica Computacional I y MC-2422 Mec´ anica Computacional II. INTEVEP. Caracas. A. Diagn´ ostico y Simulaci´on de Redes de Fluidos) y PETRO-ECUADOR (Almacenamiento de Petr´ oleo y Transferencia)... Particularmente. Los Teques. Estado Miranda. (Research Institute for Venezuelan Petroleum Industry). Tambi´en he incluido de forma diluida varios de mis art´ıculos m´as emblem´ aticos. Nuevas Correlaciones para Flujo Multif´ asico. Tech. de una lectura para un auditorio exclusivo de especializados. que se ha extendido lo posible en su contenido y habr´ a de extenderse todav´ıa m´as. Eventualmente me correspondi´ o dictar tambi´en los cursos de post-grado MC-6461 An´alisis Avanzado en Ingenier´ıa y MC-7465 T´ecnicas Aproximadas en Mec´ anica. GRANADOS M. L. Jul. para hacer. Reporte T´ecnico No. [2] Granados M. Los Teques. No. Tratando de hacer inserciones continuas en el texto. durante los cursos de pre-grado MC-2416 M´etodos Aproximados. Second Order Methods for Solving Non-Linear Equations. S. Trabajo presentado en la Conferencia sobre: Estado del Arte en Mec´anica de Fluidos Computacional. Miranda. Departamento de Mec´ anica. cuya tesis fu´e b´ asicamente num´erica aplicada a la Mec´ anica de Fluidos.. iii . REFERENCIAS [1] Granados M. Venezuela. mi experiencia con soluciones de ecuaciones diferenciales ordinarias. en derivadas parciales para fluidos e interpolaciones polin´ omicas y derivaci´ on num´erica est´an plasmados en el texto. He incluido. en lo relativo al tema. Av. Jun. INTEVEP S. Sede Los Dos Caminos. INT-EPPR/322-91-0001. una lectura para una p´ ublico m´ as general e ingenuo y a´vido de aprender. A. L. He incluido material para cursos cortos como el de “Flujo en Redes de Tuber´ıas” para PDVSA-ESP OIL (An´ alisis. L. INTEVEP S.A. Febrero de 1991. Auditorium de INTEVEP S.A. A.14-36. en r´egimen turbulento. Las siguientes referencias producidas en las u ´ltimas d´ecadas. 1991. Rep. 1991. Free Order Polynomial Interpolation Algorithm. del 27 al 28 de Mayo de (1991). UNIVERSIDAD SIMON BOLIVAR. Fuera de la Universidad Sim o´n Bol´ıvar ocasionalmente dict´e del curso de Doctorado “T´ecnicas Num´ericas” en la Universidad Nacional Experimental Polit´ecnica-UNEXPO.

Rao y M. A. Comuna de Yerba Buena. A. Asociaci´ on Argentina de Mec´ anica Computacional (AMCA). C. https://www. 2015. [6] Granados M. CIMENICS’96. [5] Granados M. pp. Marzo 1992. B. https:// www. Los Teques. Numerical Methods in Engineering Simulation: Proceedings of The Third International Congress on Numerical Methods in Engineering and Applied Sciences. Lobatto Implicit Sixth Order Runge-Kutta Method for Solving Ordinary Differential Equations with Stepsize Control. C. Mayo.. 2015. Fourth World Congress on Computational Mechanics. Brebbia.349-359. A. Cultural Centre Tulio Febres Cordero. March 25-29. L. Cerrolaza. M. Computational Mechanics Publications of the Wessex Institute of Technology (UK). L.. realizado en el Hotel Sheraton.L.I. Argentina. “Taylor Series for Multi-Variable Functions”. 1996. A. Buenos Aires. “Fractal Techniques to Measure the Numerical Instability of Optimization Methods”.239-247. Argentina. A.. Mec´ anica Computacional Vol. A. y Luccioni. pp. [7] Granados M. Simulaci´ on con M´ etodos Num´ ericos: Nuevas Tendencias y Aplicaciones. Vol. Editores: O. L.academia. Editors: M.TM9-TM16. Corregido y ampliado Abril.[4] Granados M. 17-20 de Marzo de 1998. L. A. (1996). Abstracts.XVI: Anales del V Congreso Argentino de Mec´ anica Computacional.37.A. Universidad Sim´ on Bol´ıvar. International Association for Computational Mechanics. 2016.edu/11949052/Implicit Runge-Kutta Algorithm Using Newton-Raphson Method [8] Granados M. A.edu/12520473/Numerical Taylors Methods for Solving Multi-Variable Equations [10] Granados. Venezuela. Universidad Sim´on Bol´ıvar. 29/Jun/98 al 2/Jul/98. Compilado por: Etse. Cerrolaza.edu/12345807/Taylor Series for Multi-Variables Functions iv . Universidad Nacional de Tucum´ an. pp. INTEVEP S. https://www. “Implicit Runge-Kutta Algorithm Using Newton-Raphson Method”. G. “Lobatto Implicit Sixth Order Runge-Kutta Method for Solving Ordinary Differential Equations with Stepsize Control”. L..academia. Prado. (1998). M´erida. “Implicit Runge-Kutta Algorithm Using Newton-Raphson Method”. [9] Granados. 10-13 de Septiembre de (1996). MECOM’96. L. Gajardo.academia. p. CIMENICS’98. Residencia Universitaria Horco Molle. Sociedad Venezolana de M´etodos Num´ericos en Ingenier´ıa (SVMNI). San Miguel de Tucum´an. Hotel Intercontinental Guayana. Memorias del IV CONGRESO INTERNACIONAL DE METODOS NUMERICOS EN INGENIERIA Y CIENCIAS APLICADAS. Ciudad Guayana. (1996). Reporte T´ecnico No. Dic. INT-EPPR/3-NT-92-003. Puerto Ordaz. “Numerical Taylor’s Methods for Solving Multi-Variable Equations”.

Andr´es L.. Deseo tambi´en dedicar este trabajo a todos aquellos hombres sabios que han hecho posible el desarrollo del . Granados M. con todo el amor del mundo. .. ´ ´ ANALISIS NUMERICO como una parte important´ısima de las Matem´aticas Aplicadas.DEDICATORIA Dedico este trabajo a mi querida esposa Magaly y a mi adoradas hijas Andre´ına y Andrea.

.

en donde intervengan una que otra funci´ on trascendental. Todo el temario de este texto se ha estructurado en cinco (5) cap´ıtulos y un (1) ap´endice: • Soluci´ on de Ecuaciones No Lineales. En los m´etodos de aproximaci´ on los datos forman una muestra estad´ıstica. viene acompa˜ nado de su respectivo an´ alisis. El Cap´ıtulo I presenta un breve resumen de todos los m´etodos num´ericos m´as importantes para resolver una s´ ola ecuaci´ on algebraica no lineal. • Ecuaciones en Derivadas Parciales. y por lo tanto es casi imposible que la funci´ on que estima los valores pase por todos y cada uno de los puntos datos. El Cap´ıtulo III contiene m´etodos para estimar valores de funciones dadas de manera discreta. como se plante´ o antes. Esto se ha hecho mediante la estructuraci´ on de un recetario de m´etodos num´ericos con inserciones de aspectos anal´ıticos importantes. Esto cubre todo el espectro de posibilidades. Esto u ´ ltimo. En ambos casos. en donde se haga m´ as ´enfasis a los aspectos anal´ıticos. El Cap´ıtulo II trata de los sistemas de ecuaciones. Un texto de An´ alisis Num´erico ser´ıa demasiado tedioso para un curso enfocado para estudiantes de ingenier´ıa. Sin embargo. se presentan las alternativas de m´etodos expl´ıcitos (predictores) y m´etodos impl´ıcitos (correctores). puede servir para un curso introductorio a nivel de postgrado. Tambi´en se presenta un conjunto de m´etodos para estimar las derivadas e integrales bas´ andose en los m´etodos de interpolaci´ on estudiados en la Secci´ on anterior.PREFACIO Una importante raz´ on motiv´ o la elaboraci´ on de este trabajo. Vol´ umenes Finitos y Variacionales. Tambi´en se presentan algunos vii . En los m´etodos de interpolaci´ on la funci´ on que estima los valores pasa por todos los puntos discretos. En la literatura especializada de habla espa˜ nola no existe un texto que realice una introducci´on al C´ alculo Num´erico de una forma sencilla. pero puede f´acilmente extenderse a un semestre si los dos u ´ ltimos cap´ıtulos se estudian con mayor profundidad. lo cual completa y formaliza las ideas vagamente planteadas en un principio. • Interpolaci´ on. El Cap´ıtulo V concluye el contenido de esta monograf´ıa con el estudio introductorio de m´etodos para la resoluci´ on de ecuaciones diferenciales en derivadas parciales (en desarrollo). Par el primer grupo pueden existir m´etodos directos y m´etodos iterativos. simult´ aneamente con aplicaciones al campo de la ingenier´ıa mec´anica. sin embargo. • Ecuaciones Diferenciales Ordinarias. El Cap´ıtulo IV desarrolla el tema de integraci´ on de ecuaciones diferenciales ordinarias mediante m´etodos de un s´ olo paso o m´etodos de paso m´ ultiples. B´asicamente se distinguen tres categor´ıas de m´etodos: Diferencia Finita. estos aspectos anal´ıticos pueden ser revisados en una segunda o tercera lectura m´ as detallada. • Soluci´ on de Sistemas de Ecuaciones. Para el segundo grupo. Todos los temas tratados en este trabajo se han enfocado siguiendo un proceso de desarrollo de los temas de forma inductiva. En esta oportunidad se ha tratado de crear un h´ıbrido de ambos aspectos aparentemente extremos. B´asicamente se distinguen dos grupos de problemas: Sistemas de Ecuaciones Lineales y Sistemas de Ecuaciones No Lineales. Se comienzan los temas con problemas o algoritmos particulares y luego se generalizan dentro de un espacio de problemas o de algoritmos. El curso se ha dise˜ nado para completarse en un trimestre. Integraci´ on y Aproximaci´ on. Esta monograf´ıa en primera instancia fue desarrollada para estudiantes de pregrado. Un compendio de algoritmos sin la formalidad del an´ alisis ser´ıa demasiado est´eril para aquellos estudiantes que quieren un enfoque m´ as general. todos los m´etodos son iterativos. ◦ Series de Taylor. resumida y completa. que en primera instancia pueden ser obviados. para los estudiantes m´as curiosos.

dentro de cada cap´ıtulo.. Para las ecuaciones tambi´en es v´alida la observaci´ on hecha antes con respecto a la informaci´ on superflua. Al final de la monograf´ıa se dispone de un listado de las bibliograf´ıas m´as importante a las cuales puede o no hacerse referencia. y una Subsub-secci´ on 2. sin embargo. ver la Secci´ on VII. Los cap´ıtulos han sido numerados con n´ umeros romanos...2...347]... En este ap´endice el tratamiento de los temas es formal tratando de ser lo m´as general posible.c) . Taylor [Marquardt. En alguna ocasiones un grupo de ecuaciones se numera con un s´ olo n´ umero.1960].. Cuando estos s´ımbolos aparecen viii . por ejemplo. Existen dos formas para hacer menci´on a una referencia. por ejemplo.... que de otra manera recargar´ıan el texto en su parte pricipal. As´ı que si estoy dentro del mismo cap´ıtulo se dir´ıa . o . etc. Para referenciar las ecuaciones se hace de la siguiente forma: . Ap´endice B. ver a [Wilkinson. como ya se habr´ a visto. La organizaci´on interna de cada Ap´endice es la misma que para los cap´ıtulos. En los Anexos existe un ap´endice que han sido colocado para hacer consultas r´apidas acerca de cuestiones de contenido matem´atico relacionadas con las series de Taylor. se anexa al a˜ no las diferentes letras min´ usculas del alfabeto. el s´ımbolo ‘¶’ se emplea para indicar los p´ arrafos y el s´ımbolo ‘p’ para indicar las p´ aginas.1. o si se est´ a en la misma sub-secci´on simplemente se habla de la ecuaci´on (13). por ejemplo.. En estos casos debe entenderse que las ecuaciones internas est´an ordenadas con letra de arriba hacia abajo y de izquierda a derecha. Una de ellas. . basado en la ecuaci´on VII. Es decir.m´etodos mixtos como lo son el m´etodo de la l´ıneas y el m´etodos de las caracter´ısticas. lemas..2. teoremas y corolarios han sido numerados de forma consecutiva por sub-secciones... ecuaci´on 2. cuyo significado es obvio.. se presentar´ a en negrillas. Cuando el a˜ no de la publicaci´ on est´ a encerrado entre par´entesis significa que la publicaci´ on es peri´ odica. o . Por ejemplo.3. sin embargo se sobreentender´ a que es el teorema. ver la Secci´ on VII. Sin embargo. el Cap´ıtulo VII tiene una Secci´on 2. Por ejemplo. [Marquardt. puesto que no son el objetivo primordial de este texto. .1960a] . [Marquardt.3. ver a [Atkinson. al principio de cada cap´ıtulo se ha colocado una tabla de contenido m´as detallada para facilitar la b´ usqueda de los temas de inter´es para el lector. o .(13) .2. etc. etc. o tambi´en puede aparecer de la forma ..1.. por ejemplo. .81. . Aunque el grupo de ecuaciones est´e numerado con el n´ umero (10) s´olamente. ... empleando al mismo tiempo el apellido del autor y a˜ no entre corchetes o un u ´ mero entre corchetes. .1972]. La otra forma. Los axiomas. [Marquardt. Existe una tabla de contenido general al principio del texto.p.2.1. Las bibliograf´ıas se han ordenado en un listado de forma alfab´etica. Las ecuaciones han sido numeradas de forma consecutiva por sub-secciones. Finalmente. la m´ as abreviada. En caso de que se est´e referenciando una parte del texto perteneciente al mismo cap´ıtulo o a la misma secci´on esta informaci´ on se omite.1. Ap´endice A.. es mediante el n´ umero entre corchetes que se mencion´ o antes..1. . axioma. Se incluyen dentro de los anexos la bibliograf´ıa general compilada de toda esta monograf´ıa en un s´ olo lugar.1.. una Sub-secci´on 2... por ejemplo. Eventualmente la primera sub-secci´on puede incluir la secci´ on principal (anterior) dentro de la numeraci´ on de ecuaciones. definiciones. Los ap´endices han sido ordenados seg´ un las letras del alfabeto... ver la referencia [15].(1965)]. se entender´ a que la ecuaci´on a la que se hizo referencia es la tercera dentro del grupo.. aunque ya est´e redundantemente distribuida por cada cap´ıtulo. con la particularidad de que el n´ umero. Dentro de los corchetes puede aparecer eventualmente informaci´on adicional a la referencia como el cap´ıtulo o las p´ aginas como por ejemplo. es mediante el apellido del primer autor y el a˜ no entre corchetes o entre par´entesis. Cuando para un mismo autor y un mismo a˜ no existen dos publicaciones o m´as.. ver ecuaci´ on (10. este debe aparecer fuera de los corchetes. al igual que las ecuaciones. se han omitido demostraciones y fundamentos que son importantes. este no se numerar´a.1960b].. aunque Taylor no sea el autor de la referencia [10]. axioma. Cuando se hace dentro del texto una referencia a una secci´ on o sub-secci´on en particular se menciona de la siguiente manera: . para indicar el lugar que ocupa dentro de dicho ordenamiento. cuando se desea mencionar un nombre o un autor que a su vez es referenciado en otra parte.. Una consideraci´ on adicional es que cuando en una sub-secci´on exista un s´ olo teorema. las secciones con n´ umeros consecutivos y las sub-secciones y subsub-secciones con n´ umeros de apartados de los n´ umeros de las secciones y sub-secciones respectivamente.. . significa que es una monograf´ıa.§.1960.(13) . Teorema A. n´ umero 1 de esa sub-secci´on.. en lugar de aparecer entre par´entesis. En las definici´ ones cuando aparezcan por primera vez se colocar´a la palabra o palabras definidas en letras inclinadas.3. Para las referencias bibliogr´ aficas no se sigue el mismo principio que las ecuaciones para referirlas..... proposiciones.. y. Al final de este ca´itulo se hace una introducci´ on muy b´ asica a los m´etodos de los elementos finitos. en caso contrario.. Taylor [10]. El s´ımbolo ‘§’ se emplea para indicar los cap´ıtulos o secciones.

empleando it´ alicas para los escalares. UNIVERSIDAD SIMON BOLIVAR Departamento de Mec´ anica Caracas. donde el producto s´ olamente afecta los vectores bases adyacentes al s´ımbolo de multiplicaci´ on. Tambi´en se define el producto cu˜ na como el producto exterior y su relaci´on con el producto cruz y con el producto tensorial. Algo similar se ha definido para el producto cruz de un tensor y un vector. La notaci´ on usada en el texto es la convencional para estos temas. y espero que sea de mucha utilidad. Tambi´en se ha definido el producto punto de un tensor y un vector como la transformaci´on de este por aquel. el producto vectorial se especifica con una cruz y la doble contracci´on del producto de dos tensores de segundo orden (o producto escalar de dos tensores) se especifica con el doble punto. se indica como un producto di´ adico y no con una cruz encerrada en un c´ırculo. para los efectos de simplificar la notaci´on en la gran mayor´ıa de los casos. significando al mismo tiempo que existe una contracci´on en los ´ıdices adyacentes en las componentes. se puede decir que se ha empleado la notaci´on de Gibbs. al final del texto se ha hecho un anexo con la notaci´ on m´ as importante. tanto en los cursos que la emplean. El producto tensorial.dos veces significa que son varios las entidades a la que se hace referencia. Cualquier comentario de forma o de fondo acerca de esta obra ser´ a bien recibido por el autor. como normalmente se hace en los textos de an´alisis matem´atico. en cuyo caso el car´acter de la cantidad se especifica ampliamente. aunque general tiene algunas excepciones. Andr´es L. La notaci´on matricial se ha pr´acticamente confinado al Cap´ıtulo II. De manera general. que de otra forma tardar´ıan mucho tiempo en realizarse. Esta regla. Agosto de 2016 ix . puesto que se est´a bien seguro que ellos redundar´ an en mejoras y a˜ nadiduras. Venezuela. las cuales se pueden indicar como un rango de cantidades separadas por el s´ımbolo ‘-’. Granados M. en donde se hace necesario emplear el producto tensorial de forma expl´ıcita se emplea el s´ımbolo antes mencionado. sin embargo. Deseo dar las gracias a todas aquellas personas que de alguna forma se han interesado en la obra. negrillas min´ usculas para los vectores y negrillas may´ usculas para los tensores de orden dos o m´as. El producto escalar se especifica con un punto. como en su uso en calidad de material de consulta. Sin embargo.

.

CONTENIDO DEDICATORIA. 37 52 CAPITULO III. 1. FLUJO GENERAL INCOMPRESIBLE VISCOSO. INTERPOLACION. INTEGRACION. 1. 21 2. SISTEMAS LINEALES. METODO DE VOLUMENES FINITOS. SISTEMAS NO-LINEALES. vii CONTENIDO. 56 2. 73 78 BIBLIOGRAFIA. 4. 17 CAPITULO II. 130 131 3. INTEGRACION Y APROXIMACION. 2. SOLUCION DE ECUACIONES NO LINEALES. 1. 1. ECUACIONES EN DERIVADAS PARCIALES. xiii CAPITULO I. ECUACIONES DIFERENCIALES ORDINARIAS. INTERPOLACION. PROBLEMA DE VALOR EN LA FRONTERA. 159 BIBLIOGRAFIA GENERAL. INTRODUCCION. 3. SERIES DE TAYLOR. PROBLEMA DE VALOR INICIAL. 90 2. SOLUCION DE SISTEMAS DE ECUACIONES. METODOS VARIACIONALES. 3. 105 107 126 CAPITULO V. BIBLIOGRAFIA. SISTEMAS DE ECUACIONES. 1. 135 142 5. APROXIMACION. 2 7 BIBLIOGRAFIA. v PREFACIO. 147 157 APENDICE. BIBLIOGRAFIA. METODOS CERRADOS. BIBLIOGRAFIA. 167 xi . 86 CAPITULO IV. METODO DE DIFERENCIAS FINITAS. METODOS ABIERTOS. 2.

.

CURSO SOBRE: ´ ´ METODOS NUMERICOS FUNDAMENTOS .

.

v. en la cual se desea hallar el valor de alguna de las variables involucradas que satisfaga dicha expresi´ on. 2.1. M´etodo de Bairstow. 2. 1.1. METODOS CERRADOS.2.4. 2. 9 10 10 2. 1. donde no todas las variables pueden ser despejadas en forma expl´ıcita. BIBLIOGRAFIA.5.2.6.2.5.1. Bisecci´ on del Intervalo.4. T ).1. 1. Simple.CAPITULO I SOLUCION DE ECUACIONES NO-LINEALES CONTENIDO 1. M´etodo de Muller. 2. de aqu´ı el inter´es en desarrollar m´etodos num´ericos para solventar dicha necesidad. M´etodo de Richmond. M´etodos de Segundo Orden.4. 6 7 7 9 2. 2.4.1.5.3. M´etodo de Newton. 2.3. 1. M´etodo de Brent.1. M´etodo de Segundo Orden.3. 14 16 17 Es frecuente encontrarse con expresiones matem´aticas que involucran funciones trascendentales o polinomios de orden superior. Interpolaci´ on Lineal. 2.3.4.2. M´etodo de La Par´ abola Secante. 2 1. la cual viene dada por f (p. 2.1.5. Relajado. 2. 4 5 5 1.2. M´etodo de Interpolaci´ on. 2 2 3 3 1. Aceleraci´ on de Aitken. Modificada. Teorema de Bolzano. Entre los casos mas frecuentes en ingenier´ıa mec´anica se encuentran las expresiones correspondientes a las ecuaciones de estado para una sustancia determinada. Punto Fijo.3. 1.4. METODOS ABIERTOS. 11 13 13 13 2. Tambi´en podemos citar las ecuaciones que rigen los 1 . M´etodo de la Secante. Simple.

GRANADOS METODOS NUMERICOS modos de vibraci´on de medios continuos. Sea f (x) una funci´ on cont´ınua tal que f (a) f (b) ≤ 0 en el intervalo [a. M´etodo de la secante. entre las cuales se pueden mencionar: • Tolerancia max en la variable independiente (error local) en forma absoluta o relativa. 3. como lo son: a. Se escoge un n´ umero m´ aximo de iteraciones kmax ≥ [ log(b − a) − log max ]/ log 2. M´etodos de Segundo Orden cerrados y abiertos. Si dividimos este intervalo en dos subintervalos de igual longitud. por lo tanto r est´a en el intervalo donde la funci´ on f (x) cambia de signo. este valor r se denomina la ra´ız de f (x)”. b] tal que f (a)f (b) ≤ 0. • Ambas simult´aneamente (condic´ on inclusiva). 1. atribuido a Bolzano. Ya descrito el m´etodo podemos organizarlo de la siguiente forma: 1. b]. M´etodo de interpolaci´ on lineal. e. El proceso de subdivisi´on del intervalo se lleva a cabo hasta que se verifique una tolerancia especificada para el problema.1. x1 = a y x2 = b. M´etodo de Newton-Raphson. etc. Se determina el signo de f (ck )f (x1 ): Si el signo es positivo se toma x2 = ck . entonces se puede garantizar que existe un valor r tal que f (r) = 0. b. En caso contrario x1 = ck . Describiremos algunos de los m´etodos m´ as utilizados para resolver el presente problema. TEOREMA DE BOLZANO “Sea f (x) una funcion cont´ınua en el intervalo [a. M´etodo iterativo o de punto fijo. Denotando k = 1. y el error relativo es el valor absoluto del cociente entre el error absoluto y el u ´ ltimo estimado de la ra´ız. Cuando es en una variable la tolerancia de la otra variable se escoge de valor grande para que siempre se cumpla la condici´ on. • Tolerancia dmax en el valor absoluto de la funci´ on (desviaci´ on global). La desviaci´ on viene a representar el valor obtenido al evaluar el valor de la funci´ on f (x) en el estimado de la ra´ız. Repitiendo el proceso en forma iterativa se obtendr´ an intervalos de menor longitud hasta acotar el valor de la ra´ız r. o en la soluci´ on de problemas mediante series de Fourier.2. Por la forma como se implementa el algoritmo se podr´ıa decir que este m´etodo es de orden cero. f. • O se alcance (condici´ on exclusiva) la tolerancia kmax de n´ umero de iteraciones m´aximas permitidas que se puede estimar con max ≥ (b − a)/2kmax . M´etodo de la bisecci´on. Utilizando este teorema. Se eval´ ua el estimado de la ra´ız mediante ck = (x1 + x2 )/2.A. 2 SOLUCION DE ECUACIONES NO-LINEALES CAP. METODOS CERRADOS 1. las cuales involucran funciones exponenciales y trigonom´etricas. c. 1. b] donde se verifique la condici´ on de f (a) f (b) ≤ 0 impuesta por el teorema.I . se debe verificar la condici´ on del teorema en alguno de los dos sub-intervalos. d. Es responsabilidad de quien utiliza el algoritmo conocer cual de estas formas es m´as restrictiva en cuanto a la precisi´ on en el valor de la ra´ız r. 2. El error absoluto representa la distancia (cuando se usa valor absoluto) entre dos estimados consecutivos de la ra´ız. y dada una expresi´on del tipo f = f (x) se selecciona un intervalo [a. BISECCION DEL INTERVALO El m´etodo que a continuaci´ on se describe est´ a basado en el teorema de Bolzano para funciones cont´ınuas.

Se eval´ ua el error y la desviaci´on mediante las expresiones: Error local: k = ck − ck−1 . La idea fundamental de este algoritmo es acelerar la convergencia al valor de r.0103 0.05.2009 −0.5319 0.71 Substituyendo los valores donde x = f es la variable independiente   1 2.0500 0. se Escogiendo f1 = 0. pero con una variante para el c´ alculo del estimado de la ra´ız r.0126 0.0120 −3.0010 23.51 b = 3. utilizando para ello la ecuaci´   a 1 ε/D √ + √ = −2 log b f IRe f a = 2.0120 con una tolerancia de 2 ∗ 10−4 y 8 iteraciones. basados en el conocimiento del factor fricci´ obtiene la siguiente tabla.1198 b f (b) c f (c) 0. Simple Al igual que el m´etodo de bisecci´on del intervalo. a f (a) 0.8218 0.0133 0.2009 −0.6954 ∗ 10−6 + =0 f f on (por experiencia). INTERPOLACION LINEAL 3 .0255 0.00001) por la cual circula un fluido con on de Colebrook: un n´ umero de Reynolds igual a IRe = 106 .8944 0. De forma de hallar el valor de r que satisface la expresi´on f (r) = 0.0452 −0. Desviaci´on global: dk = f (ck ). f (b)).3. 1.0452 0.0363 El valor del factor de fricci´ on es 0.1445 −3.FUNDAMENTOS 4. 1.0255 0. el m´etodo de interpolaci´ on lineal se basa en el teorema de Bolzano.1198 −0. EJEMPLO: Hallar el factor de fricci´ on de una tuber´ıa comercial(ε/D = 0.8944 0. Resultados del Ejemplo.0072 0. INTERPOLACION LINEAL 1.0122 −0.8218 0. f (a)) y (b.0133 −5. se vuelve al punto 2 y realiza una nueva iteraci´ on (k → k + 1).0072 0.1138 −0. Tabla.1138 −0. Una tolerancia −2 en la desviaci´on de 4 ∗ 10 ser´ıa suficiente.3.4593 0. SEC.1. correspondientes a los extremos del intervalo.0103 0. Se verifica si el error local k y la desviaci´ on global dk son en valor absoluto menores que las tolerancias seleccionadas max y dmax .86 ln 2.0118 0. 5.001 y f2 = 0. se supondr´ a que la funci´ on se comporta como una recta que pasa por los puntos (a.0122 0.0118 2. En caso afirmativo se detiene el proceso de c´ alculo y el valor deseado de la ra´ız es igual al valor de ck .3. de forma de disminuir el tiempo de c´ alculo.0126 0.51 ∗ 10−6 √ f (x) = √ + 0. r = ck .4593 2. En caso contrario.

2 ∗ 10−5 .90999 con una desviaci´on de 5. en el caso de obtener una convergencia marcadamente unilateral como en el ejemplo anterior. el extremo inalterado sufre una modificaci´on en la f´ ormula algor´ıtmica 1. EJEMPLO: Hallar la ra´ız cercana a x = 1 de la expresi´on: f (x) = ex − 3x2 = 0 Tabla. 3. 2.A. lo cual genera dos nuevos sub-intervalos [a. se puede agrupar de la siguiente forma: Sea f (x) una funci´ on continua tal que f (a)f (b) ≤ 0 en el intervalo [a. b]. donde n es el n´ umero de 4 SOLUCION DE ECUACIONES NO-LINEALES CAP. la aproximaci´ on de r sera el punto de corte c de la recta con el eje de las abscisas y = 0.(2). en los cuales se deben verificar las condiciones del teorema de Bolzano y escoger el intervalo que las satisfaga.7802 0. x1 = a y x2 = b.9029 0.2.I . b−a b−a = b − f (b) f (b) − f (a) f (b) − f (a) (2) Ya descrito el algoritmo.2817 c 0.3. Se eval´ ua el error y la desviaci´on mediante las expresiones: Error local: k = ck − ck−1 . La expresi´on que permite evaluar el estimado de la ra´ız queda de la siguiente forma: c = a − f (a) 1. 4.0212 0. En caso contrario se vuelve al punto 2 (k → k + 1). c] y [c.9029 0.3558 0.3558 0.9097 0.0000 −0.000052 La ra´ız buscada es r = 0.3.0000 0. Resultados del ejemplo. Se determina el signo de f (ck )f (x1 ): Si el signo es positivo se toma x2 = ck .0212 0.0011 b f (b) 1. r = ck . b]. 1. a 0. Posteriormente se repite el procedimiento hasta verificar alguna de las tolerancias seleccionadas. 5. Denotando k = 1. el valor de la funci´ on se divide por dos consecutivamente hasta que la convergencia deje de ser unilateral (en el ejemplo f (x2 )/2[[k−n]]. Desviaci´on global: dk = f (ck ).0011 0. Se eval´ ua el estimado de la ra´ız ck mediante la equaci´on (2). Modificada El m´etodo de interpolaci´ on lineal modificada es una variedad de la anterior donde. Se verifica si el error local k o la desviaci´ on global dk son menores en valor absoluto que las tolerancia seleccionada max y dmax .7802 0. En caso afirmativo se detiene el proceso de calculo y el valor deseado de la ra´ız r es igual al valor de ck .9097 f (a) 1. En caso contrario x1 = ck . GRANADOS METODOS NUMERICOS La ecuaci´on de la recta que pasa por estos dos puntos viene dada por: x−a y − f (a) = f (b) − f (a) b−a (1) Bajo la suposici´ on de un comportamiento la lineal.90999 f (c) 0.0000 0.

x2 . . El s´ımbolo [[·]] indica que es el valor positivo sobre 0.1973] se basa en hacer pasar por los tres puntos antes mencionados una par´ abola inversa. 1. .4. x0 ] = f [x0 . x1 .2) de segundo grado inverso es (intercambiando el rol de variables independiente y dependiente) x= [y − f (a)] [y − f (c)] b [y − f (a)] [y − f (b)] c [y − f (b)] [y − f (c)] a + + [f (a) − f (b)] [f (a) − f (c)] [f (b) − f (a)] [f (b) − f (c)] [f (c) − f (a)] [f (c) − f (b)] (3) Colando y = 0 obtenemos el nuevo estimado ck de la ra´ız.1969] f [x0 ] = f (x0 ) f [x1 . . [b.c) f [x3 . . . METODOS DE SEGUNDO ORDEN los m´etodos de segundo orden se basan en hacer pasar una par´ abola u ´nica por los puntos tres puntos [a. SEC. x].4. xn−1 . x1 . . xn−1 . x1 ] − f [x2 .. xn−2 .1.b) f [x2 . Los puntos extremos en x = a y x = b satisfacen el teorema de Bolzano y el punto intermedio bien sea el obtenido con el m´etodo de bolzano c¯ o el m´etodo de interpolaci´ on lineal c . x0 ] = f [x2 . . .4. x1 ] − f [xn−1 . . . . f (a)].1. x0 ] = (2. Es decir. x0 ] = f [x3 . Normalmente la convergencia unilateral ocurre siempre por el mismo lado. el cual puede ser escrito ck = b + P Q (4) donde P = S [ T (R − T ) (c − b) − (1 − R) (b − a) ] Q = (T − 1) (R − 1) (S − 1) R = f (b)/f (c) S = f (b)/f (a) (5) T = f (a)/f (c) Este m´etodo escoge usar la par´ abola acostada para garantizar que corta al eje x en un u ´nico punto ck . como por ejemplo la par´ abola que pasa por los tres puntos (a. x1 . f (b)) y (c. b] + (x − a)(x − b)f [a. [[x]] = max[0. . f (a)).d) (2. x0 ] xn − x0 (2. . Lo mismo para el otro extremo x1 en caso de que se repita. . luego de que k se ha reinicializado despu´es de un cambio en la unilateralidad de la convergencia. . x0 ] x2 − x0 (2. f (b)] y [c. una par´ abola acostada cuyo polinomio de interpolaci´ on (de Lagrange secci´ on III. x2 . 1.a) f [x1 ] − f [x0 ] x1 − x0 (2. . . (b. xn−1 . x1 .e) Siendo f [xn . b. x0 ] = f [xn .FUNDAMENTOS repeticiones permitida en el extremo x2 ). f (c)]. x2 . x1 . x1 . . x1 ] − f [x1 . . xn−1 . estos m´etodos de basa en los polinomios de Newton en diferencias divididas. M´ etodo de Brent El m´etodo de Brent [Brent. los extremos y el intermedio. f (c)) tiene la forma P2 (x) = f [a] + (x − a)f [a. . x1 . METODOS DE SEGUNDO ORDEN 5 . xn ] ∀n ∈ IN . 1. c] (1) donde el s´ımbolo f [ · ] se denomina diferencia dividida y se define de forma recurrente empleando las siguientes expresiones [Carnahan et al. x0 ] x3 − x0 f [xn .

f (b) ≤ 0 que fuerza a la par´abola. c] ζ = f (a)/f [a. de otra forma el discriminante siempre tiene un valor positivo. GRANADOS METODOS NUMERICOS 1. c] γ = f [a] − a f [a. sin embargo. b] exista un m´ınimo o un m´ aximo de la funci´ on parab´ olica (6). 6 SOLUCION DE ECUACIONES NO-LINEALES CAP.I . c] = {f [a. b. b] − (a + b)f [a. Esta restricci´on resuelve este inconveniente y finalmente (7) puede ser expresada de la siguiente forma  (8) ck = c¯ − δ + δ 2 + ∆(∆/4 − δ) − ζ sign(δ) donde ∆=b−a f [a. una de las cuales pertenece al intervalo cerrado [a. b]. b]/f [a. f (b)). f (a)) y (b. pero en este caso es una par erguida cuya ecuaci´on es αx2 + βx + γ = 0 (6) donde α = f [a. c] β = f [a. b. b] − [f (b) − f (c)]/(b − c)}/(a − c) δ = 12 f [a. b. b y c. El u ´ nico caso cuando el discriminante mencionado puede ser cero es cuando en alguno de los extremos del intervalo [a. intersectar la l´ınea f (x) = 0 en dos puntos que representan dos soluciones reales distintas de la ecuaci´on (7). La expresi´on (7) contiene dos soluciones para el nuevo iterado ck . b] = [f (b) − f (a)]/∆ c¯ = (a + b)/2 . Esto garantiza que la ra´ız cuadrada de la expresiones (7) y por consiguiente (8) est´a siempre definida en el conjunto de los n´ umeros reales positivos. conteniendo los puntos (a.A.4. b]. b] f [a. pero tambi´en pudo obtenerse mediante la bisecci´on del intervalo (primera opci´ on del algoritmo).2. c = c¯ ´ o c = a − f (a)/f [a. una de las soluciones pertenece al interv alo [a. b. b] + ab f [a. M´ etodo de Interpolaci´ on El m´etodo de interpolaci´ on al igual que el anterior usa una par´ abola que para por los tres puntos a. c] La soluci´on de esta par´abola es el estimado de un nuevo iterado ck y puede ser obtenida mediante la resolvente ck = −β ±  β 2 − 4αγ 2α (7) Un ejemplo de este procedimiento se presenta en la figure 1 donde ck se ha indicado como c para no confundirlo con c. c] Sign(δ) = δ/|δ| El discriminante β 2 − 4αγ en la soluci´ on de la ecuaci´ on (7) siempre tiene un valor positivo debido a la condici´on f (a). b. b. El punto c en la figura se ha obtenido mediante interpolaci´ on lineal (segunda opci´ on del algoritmo).

Figura 1. 2.1. Ahora se presenta un m´etodo que no hace uso de tal teorema y que necesita un solo punto inicial para comenzar el proceso iterativo. el cual nos garantiza la existencia de al menos una ra´ız. PUNTO FIJO Los m´etodos estudiados anteriormente consisten en la verificaci´on del teorema de Bolzano.a. M´etodo de Interpolaci´ on Lineal mostrando el c´ alculo del nuevo iterado. 2. M´etodo cerrado de Segundo Orden mostrando la interpolaci´ on parab´ olica. La ecuaci´on b´ asica a resolver es en todo momento del tipo f (x) = 0 (1) la cual puede ser manipulada algebraicamente y reescribirla de la forma x = g(x) SEC. METODOS ABIERTOS 2. PUNTO FIJO (2) 7 .FUNDAMENTOS Figura 1.1.b.

0000 3 4−x −1. 3..9862 0. 3]. EJEMPLO: Hallar las ra´ıces del polinomio x2 − 4x + 3.004 5701. llegar´a a verificar la expresi´on r = g(r) (3) donde r es la ra´ız buscada de la expresi´on f (r) = 0 y que para este m´etodo se denomina el punto fijo. .9154 3. diverge √ 4x − 3 x= 4. escogemos un “punto arbitrario” x0 y comenzamos a evaluar dicha expresi´on en forma iterativa.I .5825 3.. el cual diverge.3516 3.0111 .9954 . aplicada sobre un subdominio de g alrededor de ζ lo contrae. cuando la aplicaci´on g es una contracci´on.A. El problema de hallar la ra´ız como el punto de corte entre la funci´ on f (x) y el eje de las abscisas. La convergencia a una ra´ız r puede ser unilateral si g  (r) > 0 o bilateral si g  (r) < 0. se ha transformado en hallar el punto de intersecci´on entre la curva g(x) y la recta identidad y = x. .5454 0. Se puede probar que el tercer despeje diverge si el punto de partida est´ a fuera del intervalo [−3. como se observa en el primer despeje.1470 . entonces se tiene que ek+1 = g  (ζ) ek g  (ζ) = g(xk ) − g(r) xk − r ζ ∈ [xk . Designemos al error global como ek = xk − r. es decir x1 = g(xo ) x2 = g(x1 ) x3 = g(x2 ) . xk = g(xk−1 ) xk+1 = g(xk ) Expresi´ on que. . x∞ x= x2 +1 4 x= 9.8684 0. 1.5583 3. si converge.2259 3. r] (4) Entonces el m´etodo de punto fijo converge cuando |g  (ζ)| < 1 ζ ∈ [xk . . .9579 0. o sea.75 24.5 0. Entre las posibles expresiones para g(x) se tienen: x0 = 6 x1 x2 x3 x4 x5 x6 .. 8 SOLUCION DE ECUACIONES NO-LINEALES CAP. GRANADOS METODOS NUMERICOS Ya cumplido este paso.. r] (5) Es decir.51 151.0000 Con lo que se muestra que no todos los esquemas convergen a una ra´ız..

se obtiene un valor r˜ dado por la f´ ormula (2). Se escoge un n´ umero m´ aximo de iteraciones kmax . por lo tanto. Se determina el valor de xk+1 con la expresi´on (1). pero los puntos involucrados no se seleccionan mediante el cambio de signo de la funci´ on f (x) necesariamente. calculando las diferencias adelantadas de primer orden ∆xk = xk+1 − xk y de segundo orden ∆2 xk = ∆xk+1 − ∆xk = xk+2 − 2xk+1 − xk . . seg´ un sea el caso. ACELERACION DE AITKEN La aceleraci´on d Aitken se basa en la suposici´ on de que la pendiente de la curva y = g(x) var´ıa muy poco y. el m´etodo de la secante supondr´a que la funci´ on se comporta en forma lineal. comprobada la convergencia ∆xk+1 < ∆xk . pero no es condici´ on necesaria.3. xk+1 = g(xk ) y despejando r de la expresi´on anterior se obtiene r˜ = xk − (xk+1 − xk )2 (∆xk )2 = xk − xk+2 − 2xk+1 − xk ∆2 xk (2) O sea. METODO DE LA SECANTE 9 . Desviaci´on global: dk = f (xk ). en dos iteraciones consecutivas con el m´etodo de punto fijo a partir de xk .3. con xk−2 y xk−1 se obtiene xk con xk−1 y xk se obtiene xk+1 Por lo que la expresi´on para determinar el estimado k + 1 de la ra´ız es: xk+1 = xk − f (xk ) xk − xk−1 f (xk ) − f (xk−1 ) (1) Vemos que el segundo factor del segundo t´ermino de (1) es el inverso de la derivada media entre xk−1 y xk f  (ζk ) = f (xk ) − f (xk−1 ) xk − xk−1 ζk ∈ [xk .2.. utilzando la misma ecuaci´on empleada en el algoritmo de interpolaci´ on lineal. En caso contrario. sino en forma secuencial: Dados x0 y x1 se obtiene x2 con x1 y x2 se obtiene x3 con x3 y x4 se obtiene x5 . pero no har´a uso del teorema de Bolzano. 2. Se escogen dos puntos cualesquiera x0 y x1 . habr´ 2. se puede considerar que g  (ζ) = g(xk+1 ) − g(xk ) g(xk ) − g(r) xk+2 − xk+1 ≈ = xk − r xk+1 − xk xk+1 − xk (1) Substituyendo r = g(r). 3. METODO DE LA SECANTE Al igual que el m´etodo de interpolaci´ on lineal. SEC.FUNDAMENTOS 2. Se eval´ ua el error local y la desviaci´on global mediante las expresiones: Error local: k = xk − xk−1 . Se recomienda verifiquen el teorema de Bolzano. donde la convergencia hacia r se habr´ a acelerado ( Una vez a una aceleraci´on de la divergencia ). xk−1 ] (2) El algoritmo puede ser resumido de la siguiente forma: 1. 2. El metodo interpolara o extrapolara.

intuitivamente. La idea fundamental consiste en extrapolar la ra´ız de la ecuaci´on f (x) = 0 como el punto de corte de la recta tangente a f (x) en xo con el eje de las abscisas. pero con una aproximaci´on mucho mas refinada.I .7 y x1 = 6.(5) que |g  (ζ)| < 1 para la convergencia. En caso afirmativo se detiene el proceso de c´ alculo y el valor deseado de la ra´ız r es igual al valor de xk . Dado que xo no se conoce en forma exacta se utiliza la aproximaci´ on en forma recurrente hasta obtener convergencia. siendo xo un ”punto arbitrario” a escojer. En caso contrario se vuelve al punto 2.7102 x3 = 4. EJEMPLO: Hallar la primera ra´ız mayor que cero de la expresi´on cosh(x) cos(x) = 1 Tomando x0 = 4. si el valor de x substituye a xo y se vuelve a introducir en la ecuaci´on (2).A. La ecuaci´on de la recta tangente a f (x) en xo se puede expresar como f (x) − f (xo ) = f  (xo )(x − xo ) (1) que particularizada para el punto de corte con el eje de las abscisas queda de la siguiente forma x = xo − f (xo ) = g(xo ) f  (xo ) (2) la cual se puede decir que tiene la forma del m´etodo de punto fijo con xk+1 = g(xk ). 2. Se obtiene as´ı el m´etodo de Newton xk+1 = xk − f (xk ) f  (xk ) (3) donde se dice que este m´etodo es del tipo punto fijo si denotamos g(x) = x − f (x) f  (x) g  (x) = f (x) f  (x) [f (x)]2 (4) y se cumple 2.4.4.1.7170 x4 = 4.2 se obtienen los siguientes resultados: x2 = 4. r = xk . GRANADOS METODOS NUMERICOS 4. Ya descrito el m´etodo. Se verifica si el valor absoluto del error local k y la desviaci´ on global dk son menores que la tolerancias seleccionadas max y dmax .7300.7300 La ra´ız buscada es r= 4. METODO DE NEWTON 2.7303 x5 = 4.7300 x6 = 4.1(3) que r = g(r) y 2. Simple Al igual que el algoritmo de punto fijo el m´etodo de Newton utiliza un solo punto de partida.1. se procede a deducir la f´ ormula de recurrencia. 10 SOLUCION DE ECUACIONES NO-LINEALES CAP.

4.4. cuya velocidad de convergencia es cuadr´ atica.FUNDAMENTOS Los criterios de parada de este m´etodo se basan en el error local k k = xk − xk−1 |k | < max (5. el t´ermino de primer orden de la serie truncada (6) es nulo. Hagamos ahora la expasi´on de la serie de Taylor de la funci´on f (x) alrededor de x y evaluada en r f (r) = f (x) + (r − x)f  (x) + e2 f  (ζ) =0 2 ζ ∈ [r.91415 x2 = 0.0 se obtienen los siguientes resultados: x1 = 0.91000776 La ra´ız buscada es r= 0.b) El error global ser´ıa ek = xk − r y la deviaci´ on local ser´ıa δk = f (xk ) − f (xk−1 ). Para una ra´ız r de multiplicidad mayor que 1. y realizando las substituciones necesarias en el error global ek = xk − r. Hagamos la expansi´ on en series de Taylor de g(x) alrededor de r. se tiene que ek+1 = g  (ζ) 2 ek 2 (7) Lo que significa que el m´etodo de Newton posee una velocidad de convergencia cuadr´atica si f  (r) = 0. Colocando r = xk+1 se vuelve a obtener la donde ek = xk − r y ζk permite agrupar el u f´ ormula algor´ıtmica de m´etodo de Newton (3).9100177 x3 = 0. salvo cuando la ra´ız tiene multiplidad mayor que la unidad.b) g  (r) = 0 ya que f (r) = 0. EJEMPLO: Hallar la ra´ız con el m´etodo de Newton cercana a x = 1 de la expresi´on: f (x) = ex − 3x2 = 0 f  (x) = ex − 6x Tomando x0 = 1. xk ] (6) Puesto que por (4. xk ] (9) ´ltimo t´ermino.a) y la desviaci´ on global dk |dk | < dmax dk = f (xk ) (5. METODO DE NEWTON f (xk ) f  (xk ) (10) 11 . hasta el t´ermino de segundo orden g(xk ) = g(r) + (xk − r) g  (r) + (xk − r)2 g  (ζ) 2 ζ ∈ [r. Evaluada en x = xk esta expresi´on da r = xk − f (xk ) f  (ζk ) − e2k  f (xk ) 2 f  (ζk ) ζk ∈ [r.1. Relajado La f´ ormula algor´ıtmica del m´etodo de Newton se relaja de la siguiente forma xk = xk − ω SEC. 2. x] (8) donde e = x − r. 2. g  (r) ya no se anula en (6) y por consiguiente la velocidad de convergencia del m´etodo de Newton vuelve a ser lineal.91000.

ω = m la funci´ on f (x) g(x) = x − m  (13) f (x) tiene derivada g  (r) siempre nula debido al l´ımite (12). lo que afirma que con esta sobrerelajaci´ on siempre la convergencia ser´a de velocidad cuadr´ atica. consider´andolo un caso particular de un m´etodo de punto fijo. Por consiguiente. f (m) = 0 (11) Se sabe que para una ra´ız de multiplicidad m el l´ımite   f (x) f  (x) m−1 g  (r) = lim g  (x) = lim = x→r x→r [f (x)]2 m (12) donde para obtener este resultado. Para el m´etodo de Newton relajado la funci´ on g(x). 12 SOLUCION DE ECUACIONES NO-LINEALES CAP. Cuando ω = m la funci´ siempre debido al l´ımite (12). vamos a hallar U  (x) U  (x) = [f  (x)]2 − f (x) f  (x) f (x) f  (x) = 1 − [f  (x)]2 [f  (x)]2 (17) ormula recurrente (16). GRANADOS METODOS NUMERICOS donde se dice que el m´etodo est´a ω < 1 Subrelajado. ω = 0 Simple. ω > 1 Sobrerelajado. Para evitar la indeterminaci´ on antes mencionada en el caso de ra´ıces de multiplicidades mayores que uno. si f (r) = f  (r) = f  (r) = f  (r) = · · · = f (m−1) (r) = 0 . x]. Por lo tanto el m´etodo de Newton modificado (16) siempre converge cuadr´ aticamente. cambia a g(x) = x − ω f (x) f  (x) g  (x) = 1 − ω + ω f (x) f  (x) [f  (x)]2 (14) on g  (r) = 0 y el m´etodo converge de forma segura cuando |g  (ζ)| < 1.I . Esto es xk+1 = xk − U (xk ) U  (xk ) (16) Para expresar esta f´ ormula recurrente en funci´on de f (x) y sus derivadas. se obtienen los mismos resultados que para la funci´on f (x). se obtiene Substituyendo U (x) y U  (x) en la f´ xk+1 = xk − f (xk ) f  (xk ) − f (xk ) f  (xk ) [f  (xk )]2 (18) As´ı que g  (r) es siempre nula para este m´etodo sin importar la multiplicidad de la ra´ız r. ζ ∈ [r. con cotinuas derivadas hasta del orden m.A. como ya se indic´o. La multiplicidad m de una ra´ız se establece para una funci´on continua. lo que se demuestra aplicando la regla de L’Hopital sucesivamente. posee las misma ra´ıces que la funci´ on f (x). si se escoge el factor de relajaci´on igual que la multiplicidad. si se aplica el m´etodo de Newton a la funci´on U (x). se ha tenido que aplicar la Regla de L’Hopital para la indeterminaci´ on de tipo 0/0. Para el m´etodo de Newton. Ralston & Rabinowitz [1978] propusiero un m´etodo de Newton modificado que consiste en definir una nueva funci´ on U (x) f (x) U (x) =  (15) f (x) que como parece obvio.

3). Para solventar este u ´ ltimo aspecto reformulamos la f´ormula algor´ıtmica (3) as´ı xk+1 = xk + zk zk. 2. que si es completamente de segundo orden. Se escoge el valor dado por la ecuaci´ proceso iterativo secundario.t f  (xk ) ]−1 f (xk ) (3 ) e implementamos un esquema iterativo secundario en t iteraciones internas de tipo punto fijo en zk. 2. entre los corchetes. siguiendo un esquema iterativo de punto fijo (correcciones sucesivas). xk−1 y xk y sus correspondientes valores de la funci´ on f (x) en dichos puntos. Se podr´ıa  decir que el m´etodo en (3 ) para un tmax lo suficientemente alto es equivalente al m´etodo en la secci´on 2. Este aspecto hace que el m´etodo de Richmond sea un m´etodo casi de segundo orden. donde zk se resuelve anal´ıticamente con la resolvente de un polinomio de segundo grado. METODOS DE SEGUNDO ORDEN 2. se ha substituido por un estimado ofrecido por el m´etodo de Newton una s´ ola vez.t (para cada k) con la ecuaci´ on (3 .2. Se puede decir que el m´etodo as´ı reformulado se vuelve un m´etodo predictor en la ecuaci´on (4) y corrector en la ecuaci´ on (3 . se puede aplicar un procedimiento iterativo en la forma xk+1 = xk − [ f  (xk ) + 12 zk f  (xk ) ]−1 f (xk ) (3) donde zk es el error local k+1 obtenido con el m´etodo de Newton 2. as´ı zk = − f (xk ) f  (xk ) (4) Debe notarse que en la expresi´on (2) la cantidad (r − x). y el u ´ ltimo valor obtenido de zk de este proceso iterativo secundario (normalmente se usa un n´ umero tmax de iteraciones internas o correcciones sucesivas. hasta el t´ermino de segundo orden [Gundersen.(5). M´ etodo de Richmond El m´etodo de Richmond se basa en la expansi´on de las series de Taylor de una funci´ on escalar. se obtiene [ f  (x) + 1 2 (r − x) f  (x) ] (r − x) = −f (x) − O(|e|3 ) (2) Sin tener en cuenta el t´ermino O(|e|3 ) y cambiando luego r por xk+1 y x por xk . METODOS DE SEGUNDO ORDEN 2 Ak √ Bk ∓ Dk  (5) 13 . pero usa una interpolaci´ on cuadr´ atica (parab´ olica) entre tres puntos en lugar de una interpolaci´ on lineal entre dos puntos. Resolviendo para los ceros de la par´abola permite el m´etodo encontrar complejos pares de ra´ıces.(1982)] f (r) = f (x) + (r − x) f  (x) + 1 2 (r − x)2 f  (x) + O(|e|3 ) (1) donde e = x − r es el error global de x.3 adelante (versi´ on 1).4.a).5.5.b).5.4.5.b). Los criterios de parada para este m´etodo son los mismos que para el m´etodo de Newton ofrecidos por 2. Reorganizando esta expresi´on factorizando (r − x). Dados tres iterados previos xk−2 .0 del se introduce en (3 .1.FUNDAMENTOS 2. la siguiente aproximaci´ on xk+1 se produce con la siguiente f´ ormula  xk+1 = xk − (xk − xk−1 ) SEC. en lugar de volverlo a corregir por un valor m´ as preciso (xk+1 − xk ). M´ etodo de Muller El m´etodo de Muller [(1956)] generaliza el m´etodo de la secante (secci´on 2.(3) para la iteraci´ on k. de 3 a 6 son suficientes) es el que on (4) como el valor o iterado inicial zk.t + 1 = −[ f  (xk ) + 12 zk.5.

N´ otese que el m´etodo debe permitir la posibilidad de un complejo en el denominador. tres valores igualmente espaciados en la recta real. Figura 2.g. se on f (x) en el punto usara una par´ abola con pendiente f  (xk ) y segunda derivada f  (xk ) iguales que la funci´ xk .a. pero ha sido usado con ´exito con funciones anal´ıticas en el plano complejo. y la subsecuente aritm´etica compleja. 2. para proyectar el nuevo iterado xk+1 .3. se obtendr´ıa el m´etodo de segundo orden de la par´ abola secante. GRANADOS METODOS NUMERICOS donde q= xk − xk−1 xk−1 − xk−2 Ak = (1 + q) f (xk ) Bk = (2q + 1) f (xk ) − (1 + q)2 f (xk−1 ) + q 2 f (xk−2 ) (6) Ck = q f (xk ) − q (1 + q) f (xk−1 ) + q 2 f (xk−2 ) Dk = Bk2 − 4 Ak Ck y donde el signo del denominador se escoge para hacer su valor absoluto o m´ odulo (caso complejo) tan grande como sea posible..A. por ejemplo in la rutina IMSL llamada ZANLYT [Press et al.I . como muestra la figura 2. M´etodo de Newton-Raphson mostrando el nuevo iterado.1986]. 14 SOLUCION DE ECUACIONES NO-LINEALES CAP. Si en lugar de usar una recta con pendiente igual a f  (xk ) para estimar el nuevo iterado xk+1 como en el m´etodo de Newton. donde dicha par´ abola corta al eje de las x. M´ etodo de La Par´ abola Secante El m´etodo de la par´ abola secante es una generalizaci´ on del m´etodo de Newton. El m´etodo de Muller fu´e creado en principio para hallar las ra´ıces de un polinomio. Se puede comenzar comenzar el proceso iterativo con tres valores cualesquiera.5. e.

hasta el t´ermino de segundo orden f (r) = f (x) + (r − x)f  (x) + 12 (r − x)2 f  (x) + O(|e|3 ) (7) donde e = x − r es el error global del valor x relativo a la ra´ız r. donde este m´etodo es comparado con el m´etodo de Newton. Su ecuaci´on algor´ıtmica se basa en la expansi´ on en series de taylor. Con la finalidad de resolver con el doble signo.FUNDAMENTOS Figura 2. xk−2 ] (11) Dk = [[ (Bk )2 − 2 Ak Ck ]] SEC. Esto se hace modificando la ecuaci´on (9) en la forma √ Bk − Dk Sign(Bk ) xk+1 = xk − (10) Ck donde Ak = f (xk ) Bk = f  (xk ) ≈ f [xk . Finalmente. 2. Eliminando el t´ermino con O(|e|3 ) y haciendo el cambio de r por xk+1 y x por xk (siguiendo el mismo razonamiento que para el m´etodo de Newton).b. Un ejemplo gr´afico puede observarse en la figura 2. se selecciona la soluci´on para xk+1 m´as cercana a xk . xk−1 . METODOS DE SEGUNDO ORDEN 15 . evaluada en r alrededor de x. se obtiene la siguiente expresi´on f (xk ) + (xk+1 − xk ) f  (xk ) + 1 2 (xk+1 − xk )2 f  (xk ) = 0 (8) el cual representa la ecuaci´on de un polinomio de segundo grado en (xk+1 − xk ). xk−1 . M´etodo abierto de Segundo Orden mostrando la extrapolaci´on parab´ olica. xk−2 ] Ck = f  (xk ) ≈ 2 f [xk . xk−1 ] + (xk − xk−1 )f [xk . resolviendo para xk+1 en la ecuaci´on anterior se obtiene xk+1 = xk − f  (xk ) ∓  [f  (xk )]2 − 2 f (xk )f  (xk ) f  (xk ) (9) Se debe observar que existen dos soluciones para la ecuaci´on (8).5. y por definici´ on de una ra´ız f (r) ≡ 0.

n − 5. 0. dependientes de r y s. −2. hasta el t´ermino de primer orden. el resultado da un discriminante ∆ < 0 negativo.2. .b) se realiza varias veces hasta que las funciones objetivo (3. x1. s) g(r. En el segundo caso estamos hablando de un m´etodo equivalente al m´etodo de Muller de la secci´on anterior (aunque la forma (5) reduce mejor la propagaci´ on del error de redondeo). . secci´ on II. en la misma forma que las b’s fueron obtenidas a partir de las a’s. da la ubicaci´ on del v´ertice de la par´ abola.2 = (r ± ∆)/2. Definamos un conjunto de coeficientes c’s por las relaciones siguientes. El discriminante Dk si es negativo se asume cero (eso es lo que significa el s´ımbolo [[ · ]]) y el resultado.c). En el caso complejo. cuando el residuo b−1 (x − r) + b−2 correspondiente es nulo. s)  (3) El proceso iterativo (3. −2 bi = ai+2 + r bi+1 + s bi+2 Definimos dos funciones objetivos f y g a anular. para un polinomio Pn (x) de grado n. para resolver dos ecuaciones f = 0 y g = 0 con dos inc´ ognitas r y s. es el m´etodo de Newton-Raphson que veremos m´ as adelante en el pr´ oximo cap´ıtulo. ∆r y ∆s se obtienen de resolver el sistema de ecuaciones lineales (3. ver ap´endice. tales que f (r. . −3 SOLUCION DE ECUACIONES NO-LINEALES CAP.A. para as´ı anular el residuo. donde la matriz se actualiza en cada iteraci´on. Si se conocen las derivadas f  (xk ) y f  (xk ) (versi´ on 1) o estas se estiman con base a los valores funcionales del punto xk y de los dos puntos anteriores xk−1 y xk−2 mediante diferencias divididas (versi´on 2). −1. . Bairstow observ´o que las derivadas parciales requeridas en (3. (se puede deducir f´acilmente con la expansi´on en series de Taylor de dos funciones f y g. en el caso s ≥ −r2 /4 descrito son reales. 0.I . y anulando las funciones f y g en r∗ y s∗ ). −1. .2. s) = b−2 s∗ = s + ∆s  ∂f /∂r ∂g/∂r ∂f /∂s ∂g/∂s  ∆r ∆s   =− f (r. . En dicho intento se consiguen los coeficientes r y s de una par´ abola x2 − r x − s √ que divide de forma exacta a Pn (x).c) pueden ser obtenidas de las b’s. El resultado de dividir por la par´ abola produce los coeficientes de Pn−2 (x) y el residuo como bn−2 = an bn−3 = an−1 + r bn−2 (2) i = n − 4.6. mediante una segunda divisi´on sint´etica por la misma par´ abola x2 − r x − s. puesto que el discriminante ∆ = r2 + 4s ≥ 0. Este m´etodo resumido aqu´ı. . en lugar de una soluci´ on de corte con la recta y = 0. el m´etodo tambi´en sirve para hallar m´ınimos o m´aximos. alrededor de r y s. En el el primer caso estar´ıamos hablado de una par´ abola con pendiente y segunda derivada igual que la funci´ on f (x) en el punto xk . GRANADOS METODOS NUMERICOS Aqu´ı existen dos versiones del m´etodo. METODO DE BAIRSTOW El m´etodo de Bairstow se fundamenta en hallar dos ra´ıces simult´ aneamente en cada intento. obtenidos de la segunda divisi´ on por la par´ abola cn−4 = bn−2 (4) cn−5 = bn−3 + r cn−4 ci = bi+2 + r ci+1 + s ci+2 16 i = n − 6. n − 5. .a) se anulen. Las dos ra´ıces. por lo que las dos ra´ıces halladas son complejas conjugadas. En cada iteraci´ on. En este u ´ltimo caso. 2. s) = b−1 r∗ = r + ∆r g(r. s < −r2 /4. Sea un polinomio Pn (x) de grado n Pn (x) = an xn + an−1 xn−1 + · · · + a1 x + a0 = ( x2 − r x − s ) ( bn−2 xn−2 + bn−3 xn−3 + · · · + b1 x + b0 ) + b−1 (x − r) + b−2 (1) se puede factorizar con una par´ abola (x2 − r x − s) y un polinomio Pn−2 (x) de forma exacta como se indic´o arriba.

McGraw-Hill (New York). Reporte T´ecnico No. Vetterling. A First Course in Numerical Analysis. Applied Numerical Methods.1978] [Gerald. Computer and Chemistry Engineering. 3rd Edition. [3] Carnahan. B. Introduction to Numerical Analysis. T. A. A. A. BIBLIOGRAFIA 17 . Addison-Wesley. B. J. O. D. (1982).1978].. BIBLIOGRAFIA [1] Brent. [9] Muller.A. T. Vol. J. Luther. P. 2nd Edition. [8] Householder. 1978. John Wiley & Sons.. L. Cambridge University Press. 1985. (1956). [11] Ralston. The Art of Scientific Computing. Junio de 1991. [2] Burden R. Rabinowitz.3. Vol. Applied Numerical Analysis. Prentice-Hall (Englewood Cliffs. 2nd Edition. [10] Press. A. Finalmente se obtiene que ∂f ∂b−1 = = c−2 ∂r ∂r ∂b−2 ∂g = = c−3 ∂r ∂r por lo que el sistema de ecuaciones lineales (3. C. F. W. Algorithms for Minimization without Derivatives.. R. Mathematical Tables and Other Aids to Computation (MTAC). S. 2nd Edition.... SEC. 245. Second Order Method for Solving Non-Linear Equations. F. 1973. H.. 1969.208-215.10. 1974. INT-EPPR/322-91-0002. [4] Gerald. p. P. P.). Dover Publications (New York). W. Los Teques. The Numerical Treatment of a Single Nonlinear Equation. E. J. A. Wilkes. S. 1970. [5] Granados M. queda como  c−2 c−3 c−1 c−2  ∆r ∆s   =− b−1 b−2  (7) y es m´as f´ acil realizar el proceso iterativo y actualizar las b’s y las c’s en cada iteraci´on [Ralston & Rabinowitz.L. PWS. Numerical Analysis. 1986. Flannery. 1978. McGraw-Hill (New York). D. Teukolsky. [6] Gundersen. Faires.c). B.FUNDAMENTOS y comp´arese con las dos siguientes columnas de derivadas parciales de la primera divisi´on por la par´ abola ∂bn−2 =0 ∂r ∂bn−3 ∂bn−2 = bn−2 + r = cn−4 ∂r ∂r ∂bi+2 ∂bi ∂bi+1 = bi+1 + r +s = ci−1 ∂r ∂r ∂r ∂bn−2 =0 ∂s ∂bn−3 =0 ∂s ∂bi ∂bi+1 ∂bi+2 =r +s + bi+2 = ci ∂s ∂s ∂s (5) ∂b−1 ∂f = = c−1 ∂s ∂s ∂b−2 ∂g = = c−2 ∂s ∂s (6) con i recorriendo los mismo valores que (2). pp. H. Boston. “A Method of Solving Algebraic Equations Using an Automatic Computer”. INTEVEP S. N. [7] Hildebrand.. Numerical Recipes.

CAPITULO II
SOLUCION DE
SISTEMAS DE
ECUACIONES
CONTENIDO
1. SISTEMAS LINEALES.
1.1. M´etodos Directos.

21
21

1.1.1. Eliminaci´
on Simple.

21

1.1.2. Pivotes.
• Pivote Parcial.

22
22

• Pivote Total.

23

1.1.3. Eliminaci´
on de Gauss.
1.1.4. Eliminaci´
on de Gauss-Jordan.

23
24

1.1.5. Normalizaci´
on.

24

• Por Filas.
• Global.

24
25

1.1.6. Descomposici´
on L-U.

25

• Doolittle.
• Crout-Cholesky.

26
27

1.1.7. Sistemas Tridiagonales.

27

• Eliminaci´
on.
• Algoritmo de Thomas.

28
28

1.1.8. Determinante.

28

1.1.9. Matriz Inversa.
1.1.10. Autovalores y Autovectores.

28
29

1.1.11. Normas.

30

• Norma de Vectores.
• Norma de Matrices.

30
30

1.1.12. Condicionamiento.

31

1.2. M´etodos Iterativos.

32

1.2.1. M´etodo de Jacobi.
1.2.2. M´etodo de Gauss-Seidel.

32
32

1.2.3. Relajaci´
on Sucesiva.

32

1.2.4. Estabilidad.

33
19

1.3. Otros M´etodos.

33

1.3.1. M´etodo de la Potencia.

33

1.3.2. Ortogonalizaci´
on de Gram-Schmidt.

34

1.3.3. Reflexiones de Householder.

35

1.3.4. Algoritmo de QR.

37

2. SISTEMAS NO-LINEALES.

37

2.1. M´etodos del Punto Fijo.

38

2.2. M´etodos de Newton-Raphson.

39

2.2.1. Simple.

39

2.2.2. Relajado.

40

2.3. M´etodos Cuasi-Newton.

40

2.3.1. M´etodo de Broyden.

40

2.4. M´etodos de M´ınimos Cuadrados.

41

2.5. M´etodos de Segundo Orden.

42

2.5.1. M´etodo de Richmond.

42

2.5.2. M´etodo del Paraboloide Secante.

43

2.5.3. M´etodo de Taylor.

44

2.6. Convergencia.

45

2.6.1. Criterios.

45

2.6.2. Tipos.

45

2.7. Estabilidad.

46

2.8. M´etodos Num´ericos para Redes.

49

2.8.1. Introducci´
on.

49

2.8.2. Expansi´
on en Series de Taylor.

50

• Serie de Taylor.

50

• Matriz Jacobiana.

50

• Tensor Hessiano.

50

2.8.3. Algebraicos.

50

• Punto Fijo

50

• Linealizaci´on de Wood

51

2.8.4. Anal´ıticos.

51

• Newton-Raphson.

51

• Hardy-Cross.

51

2.8.5. An´
alisis.

52

BIBLIOGRAFIA.

52

Al momento de resolver problemas de ingenier´ıa, es frecuente encontrar un sistema de ecuaciones
algebraicas que representa la soluci´on deseada. Estos sistemas de ecuaciones pueden ser lineales o no-lineales,
segun sea la categor´ıa del problema o la rama a la cual pertenece. En todo momento estos sistemas representan
ecuaciones algebraicas.
Como ejemplo de sistemas equaciones algebraicas se pueden citar:
20

1.30 x3 = 1.04 x2 − 1. SISTEMAS LINEALES 1. de la forma [A|b] (2) de manera que es m´as f´acil exponer las operaciones que sobre ella se realizan para resolver el sistema de ecuaciones. originando un sistema de ecuaciones l´ıneal o no-l´ıneal dependiendo de las aproximaciones utilizadas o de la misma ecuaci´on diferencial.68 x1 + 3. · Al resolver ecuaciones diferenciales parciales u ordinarias con valor en el contorno se hace uso del m´etodo de las diferencias finitas (entre otros) . que pueda ser representado mediante [A]x = b (1) donde [A] es la matriz de coeficientes del sistema.03 2. realizar operaciones de adici´ on sustracci´ on entre las filas de forma sistem´atica.48 x2 + 4. El m´etodo consiste en que dado un sistema de ecuaciones lineales. · Al momento de obtener los caudales que circulan por una red de tuber´ıas. · Cuando se desea correlacionar un conjunto de datos experimentales o resultados num´ericos. para que el sistema de ecuaciones lineales original quede “inalterado”.FUNDAMENTOS · Resolver una red el´ectrica formada por resistencias. que el determinante no cambia. x es el vector de inc´ ognitas del problema.1. la cual origina un sistema de ecuaciones lineales (frecuentemente) para las intensidades que circulan por el circuito.el cual origina un sistema de ecuaciones para las constantes de la expresi´on atrabajar. comenzando con los sistemas lineales. que se denomina matriz ampliada. METODOS DIRECTOS 1.48 x3 = −0. es frecuente hacer uso del m´etodo de los m´ınimos cuadrados. en todo un conjunto. 1. hasta obtener una matriz triangular superior [U] en el lugar de [A].51 x1 + 1.48 x1 + 0. El sistema de ecuaciones obtenido puede ser l´ıneal o no-l´ıneal dependiendo de la complejidad de la aproximaci´ on propuesta. de forma de facilitar la descripci´on de los algoritmos de soluci´ on para los sistemas de ecuaciones no-lineales. sobre la matriz [A] y el vector b.93 x2 − 1. 1. principalmente la que establece que al sumar una fila a otra se mantiene la independencia entre las mismas. METODOS DIRECTOS 21 . EJEMPLO: Hallar la soluci´ on del siguente sistema de ecuaciones: 2. es decir.53 x3 = 0.05 1. b es el vector idependiente. se presenta un sistema de ecuaciones no-l´ıneal para los caudales y/o las alturas piezom´etricas en los puntos de uni´ on. se acostumbra a expresar de forma completa la matriz de todo el sistema en un matriz ampliada con una columna adicional.1.1. Las operaciones se realizan sobre “toda” la matriz ampliada. Para facilitar las operaciones.53 SEC. Eliminaci´ on Simple Este m´etodo se basa en las propiedades de una matriz cuadrada. Aqu´ı se tratar´ an ambos tipos de sistemas de ecuaciones.

  2.00 92.51 1.04 −1.7 x3 = −25.00 1.48 Se multiplica la segunda fila por M32 = − 0. 2.30 Presentado el ejemplo es posible entonces organizar el algoritmo de la siguiente forma: ALGORITMO: 1. Aik y se realizan las operaciones de multiplicar la fila k por 3.059 x2 − 3.48 | −0.05  0. hasta inclusive la parte ampliada en la columna j = n + 1.51 y se le suma a la tercera fila.059 −3.48 4.00 0..96 | 1. con matriz cuadrada.53 x3 = 0.68 3.059 y se le suma a la tercera fila   2. para todos los elementos Aij de la fila i que se han modificado. La variable i va desde i = k + 1 hasta i = n.. 2.Se inicia el proceso de eliminaci´on desde la columna k = 1 hasta la columna k = n − 1.5 de donde despejando de forma ascendente y regresiva se obtiene la siguiente soluci´on x3 = −0.48 −6.7 | −25.53 | 0. 4.51 x1 + 1..00 0.Se evalu´ an los multiplicadores Mik = − A kk Mik y sumarla a la fila i.53 | 0. 22 SOLUCION DE SISTEMAS DE ECUACIONES CAP.68 2.48 0.48 4. GRANADOS METODOS NUMERICOS El cual puede ser escrito en forma de matriz ampliada:   2. 0.00  . por lo que no es necesario mostrar sus resultados.30 | 1. 0.275 x2 = −1. se construye su matriz ampliada.k se le denomina el elemento de pivote k.96 | 1.35 x1 = 1.48 x2 + 4.5 En donde se ha obtenido una matriz triangular superior.059 −3.00  .98 | −0.n queda con un valor muy peque˜ significa que la matriz es singular (con este procedimiento). la soluci´ on del sistema.96 x3 = 1. La u ´ ltima columna k = n no es necesario eliminarla. La variable j en la fila i va desde j = k + 1 hasta j = n + 1.48 2.A.05 0. son en teor´ıa nulos.II .53 | 0.05  1. La fila resultante se almacena en la fila i.51 y se le suma a la segunda fila.00 0. Se multiplica la primera fila por M31 = − 2.05  0.03  .583 Ya culminado el proceso de eliminaci´on para la primera columna se procede con la segunda.00 92.51 1. Los elementos eliminados. 1. que en notaci´ on expandida queda 2.Dado un sistema de n ecuaciones lineales con n inc´ ognitas. Al elemento Ak. Si al final el valor de An.51 1.93 −1..48 4.53 Se multiplica la primera fila por M21 = − 1. Aik .Al obtener la matriz triangular superior se inicia un proceso de sustituci´ on regresiva para as´ı obtener no en valor absoluto.

30 | 1. de la sub-subsecci´on 1. el cual tambi´en permite controlar la propagaci´ on del error de redondeo que ocurre en sistemas de ecuaciones cuyo determinante es cercanamente singular. Pivotes Los pivotes pueden ser parciales o totales. De forma de cumplir con esta restricci´ on.48 0. SEC. justo antes de la eliminaci´ on de la columna correspondiente. se procede a hacer la eliminaci´on de la columna k. El intercambio entre filas/columnas debe ocurrir siempre por debajo/derecha del elemento de pivote para no alterar los elementos ya eliminados. pero utilizando como algoritmo de soluci´ on el m´etodo de eliminaci´ on de Gauss. lo cual originar´ıa el problema de una divisi´on por cero.48 | −0.48 2. El algoritmo propuesto es conocido en la literatura de an´ alisis num´erico como el m´etodo de eliminaci´ on gaussiana. • Pivote Total Se intercambian filas/columnas. Partiendo del sistema de ecuaciones. el mayor valor “absoluto” de los elementos. |Akk | ≥ |Aik | con i ≥ k. entre la fila k y las filas i = k + 1 hasta i = n. de manera que al final quede como elemento Akk . Eliminaci´ on de Gauss Durante el proceso de eliminaci´ on es posible que uno de los elementos de la diagonal principal sea nulo. en la diagonal principal. 1.1.04 −1.68 y se le suma a la segunda fila. de manera que al final quede como elemento Akk .68 3. forma:  | −0.93 −1.48 4. que le denominamos elemento de “pivote”.1. |Mik | ≤ 1.53 | 0. seg´ un se intercambien las columnas. • Pivote Parcial Se intercambian filas.1.05 Se multiplica la primera fila por M21 = − 1.53 magnitud en la columna 1 es el elemento A31 .30 2. El intercambio entre fila debe ocurrir siempre por debajo del elemento de pivote para no alterar los elementos ya eliminados.05  1. comunmente llamado pivote parcial.1. EJEMPLO: De forma de observar la propagaci´ on del error de redondeo. el mayor valor “absoluto” de los elementos.48 4. Al intercambiar columnas se altera el orden de las inc´ ognitas. Cuando este elemento Akk .51 1.2. De forma de evitar este problema se incluye en el proceso de eliminaci´on el intercambio de filas. Cuando este elemento Akk . est´e una vez localizado en su lugar. en la diagonal principal. seg´ un se intercambien s´ olo filas o filas y columnas.48  1.53 | 1.51 1. se procede a hacer la eliminaci´ on de la columna k. 2.3. est´e una vez localizado en su lugar.68 3. ya en su forma de matriz ampliada   2.04 −1.1. entre la fila/columna k y las fila/columna i = k + 1 hasta i = n. 1. por lo que es necesario guardar este orden utilizando un puntero en la variable JJ(j) que originalmente tiene el valor j y se puede ir modificando.93 −1. que le denominamos elemento de “pivote”. se repetir´a la soluci´ on del ejemplo. el elemento Akk sobre la columna que se est´a eliminando deber´ a ser el mayor en magnitud de todos los elementos que est´an por debajo de la fila k. | 0.03  .03  .48 0. METODOS DIRECTOS 23 .FUNDAMENTOS 1.53 en el cual se puede observar que el elemento de mayor intercambiando la fila 1 con la fila 3 la matriz queda de la  2. El proceso de intercambio de filas se hace buscando que el valor absoluto de los multiplicadores Mik sea siempre menor o igual a la unidad.

por lo que no es necesario mostrar sus resultados.68 3.45 Como puede observarse el resultado no es el mismo que el obtenido con el m´etodo de eliminaci´ on simple debido a la propagaci´ on del error de redondeo.91 | 0.04 −1. La variable j en la fila i va desde j = k + 1 hasta j = n + 1. Los elementos eliminados.II . |Akk | ≥ |Aik | con i ≥ k. 2. la fila resultante se almacena en la fila i. son en teor´ıa nulos.546  .69 | 1.91 | 0. se construye su matriz ampliada. se realiza el proceso de sustituci´on regresiva para obtener la soluci´ on del sistema propuesto x3 = −0.4. eliminaci´ on simple.276 x2 = −1. Eliminaci´ on de Gauss-Jordan En este m´etodo se realiza la eliminaci´ on de los elementos por columnas (i = 1 hasta i = n.Al obtener la matriz triangular superior se inicia un proceso de sustituci´ on regresiva para as´ı obtener la soluci´ on del sistema.36 5.Dado un sistema de n ecuaciones lineales con n inc´ ognitas.48 | −0.02 Ya obtenida la matriz ampliada triangular superior.68 3. hasta inclusive la parte ampliada en la columna j = n + 1. con matriz cuadrada.Se inicia el proceso de eliminaci´on desde la columna k = 1 hasta la columna k = n − 1.1. la nueva matriz ampliada Si se multiplica la segunda fila por M32 = − 1. GRANADOS METODOS NUMERICOS Se multiplica la primera fila por M31 = − 2. la matriz ampliada es   2. 5.36   2. Se puede observar que ambos multiplicadores tienen magnitud menor o igual a la unidad.59 x1 = 1. es 0.A. Finalmente se ejecuta un despeje simple xk = bk /Akk en la matriz diagonal obtenida mediante.51 2. En caso negativo.32  . La soluci´ on exacta del sistema es x3 = −0. Despu´es de hacer las operaciones indicadas.68 y se le suma a la tercera fila.546 Nuevamente se puede observar que el elemento A32 es de mayor magnitud que el elemento A22 .74 −0...5892 x1 = 1. i = k) con la excepci´on del elemento de pivote k. 24 SOLUCION DE SISTEMAS DE ECUACIONES CAP.Se verifica que el elemento Akk es el de mayor magnitud en valor absoluto de todos los elementos por debajo de la fila k.53  0..00 −1.74 y se le suma a la tercera fila.4531 El algoritmo del m´etodo de eliminaci´ on de Gauss quedar´ıa as´ı ALGORITMO: 1. por lo cual se hace necesario un nuevo cambio de fila entre la fila 2 y la fila 3. para todos los elementos Aij de la fila i que se han modificado. hacer el cambio de fila que garantice tal condici´ on.04 −1. 0. Aik .Se eval´ uan los multiplicadores Mik = − aakk y se realizan las operaciones de multiplicar la fila k por Mik y sumarla a la fila i.484 | 1.00 0. 1.. 3. ik 4..53  0.00 −1. 0.00 −0.48 | −0.2749 x2 = −1.00 −3.368 5. eliminaci´ on de Gauss o con pivote total. La variable i va desde i = k + 1 hasta i = n.

• Por Filas En este procedimiento se busca el elemento de mayor valor absoluto por filas y luego se divide la correspondiente fila entre dicho elemento. Una vez teniendo en cuenta los elementos nulos en cada matriz. todas cuadradas.5 Normalizaci´ on Este procediemiento busca obtener una matriz equivalente (con la misma soluci´on) cuyos elementos sean en valor absoluto menor o igual a la unidad. 1.1. Puede incluir o no la parte ampliada de la matriz. el producto se desarrolla como Aij = i−1 . Puede aplicarse de forma inicial o de forma intermedia despu´es de el proceso de eliminaci´on de cada columna.6 Descomposici´ on L-U La decomposici´on L-U busca obtener la descomposici´on de la matriz de un sistema [A] = [L][U]. • Global En este procedimiento se busca el elemento de mayor valor absoluto por filas/columnas en toda la matiz y luego se divide toda la matriz entre dicho elemento.1. donde [L] es una matriz triangular inferior y [U] es una matriz triangular superior.FUNDAMENTOS 1.

Lik Ukj + Lii Uij (i ≤ j) (3.b) k=1 Aij = j−1 .a) Lik Ukj + Lij Ujj (i ≥ j) (3.

1.a) (i ≥ j) (4. Ujj o ambos. Luego el problema de resolver un sistema de ecuaciones. s´olo hace falta hacer las dos sustituciones progresiva y regresiva para cada b. METODOS DIRECTOS 25 .1.b) Lik Ukj k=1 Ujj Para resolver el problema de la igualdad. SEC. en el caso de resolver varios sistemas con distintos vectores independientes b. k=1 De donde se obtienen las siguientes ecuaciones Aij − Lik Ukj k=1 Uij = Lii Aij − Lij = i−1 j−1 (i ≤ j) (4. Por la forma de las matrices esto se reduce a hacer una sustituci´on progresiva i−1 Lik zk bi − k=1 (6) zi = Lii y una sustituci´ on regresiva zi − xi = n k=i+1 Uii Uik xk (7) que permite obtener la soluci´ on del sistema original. se replantea como dos sistemas [A]x = [L][U]x = b [U]x = z [L]z = b (5) con la ayuda de una variable auxiliar z. Lo interesante de este m´etodo es que s´ olamente hace falta hacer la descomposici´on de la matriz [A] una vez y. se estipula o impone el valor de Lii . una vez obtenidas [L] y [U].

3. [L] y [U] y los vectores b. . es tal que [A|b] → [L\U|z] → [L\U|x] [A]x = [L][U]x = [L]z = b (8) sin haber interferencia de memoria. • M´ etodo de Doolittle En el m´etodo de Doolittle se escoge Lii = 1. . .A. La matrices [A]. por lo que las ecuaciones anteriores se reducen a encontrar una fila p = 1. z y x pueden ocupar el mismo espacio de memoria de una matriz ampliada sin problema como se ver´ a m´as adelante. . n de [U] y una columna p = 1. 2. . 3. . GRANADOS METODOS NUMERICOS El procedimiento propuesto para elmacenar la informaci´on del m´etodo conocido como el m´etodo de descomposici´ on LU. . n − 1 de [L] de forma alternante con las ecuaciones p−1 . 2. .

. p + 1. .. . . Ann . El m´etodo est´a basado en descomponer la matriz de coeficientes [A] en el producto de dos matrices [L] y [U]...  A11   A21  . . 2.. . . . La sustituci´ on regresiva viene dada por n Up.  . .II . . 0 . n Upp (9. Para p = 1 las sumatorias de (9) son nulas. 0 U12 U22 ... An1 Unn A12 A22 . . las cuales son matrices triangulares inferior (Lower) y superior (Upper) respectivamente. n + 1 (9. .. .n+1 − Upk xk k=p+1 xp = p = n.  .. 0 .a) k=1 Aip − Lip = p−1 Lik Ukp k=1 i = p + 1. Upj = Apj − Lpk Ukj j = p. . En forma matricial. . La matriz [L] tiene la particularidad de que todos los elementos de la diagonal principal son iguales a la unidad por lo que no es necesario guardar su valor en memoria.b) El caso de [U] con j = n + 1 coincide con la substituci´ on progresiva cuando se trabaja con la matriz ampliada [A|b]. .. .. al igual que en todos los casos de sumatorias donde el l´ımite inferior supera al l´ımite superior.  . .  . . .  .  ... (11) Para determinar los coeficientes Lij y Uij se utilizan las expresiones (9)... Ln2  . . . An2  A1n .  .1.... ... 1 Upp (10) Cuando p = n la sumatoria es nula.. .. 3 SOLUCION DE SISTEMAS DE ECUACIONES CAP.1. . .. El primer paso es construir la primera fila de [U] y la primera columna de [L]: U1j = A1j Li1 = 26 A1j U11 j = 1. .  . la descomposici´on quedar´ıa de la siguiente forma  1  L21  .... EJEMPLO: Construir las matrices [L] y [U] para el sistema de ecuaciones del ejemplo de la subsecci´on 1..  . 0   U1n U2n  = . n − 1. . . 1  U11  0  . p + 2. Ln1 0 1 ... 3 i = 2.

y en la matriz [U] se tiene la matriz triangular superior final del proceso de eliminaci´on. . que pueden ser resueltos por simples sustituciones progresiva y regresiva.96  0 0 92. n de [L] y una fila p = 1. respectivamente. n − 1 de [U] de forma alternante con la ecuaciones p−1 . . por lo que el procedimiento se reduce a encontrar una columna p = 1.059 −3.0 1   2.06 25.51 1.FUNDAMENTOS El segundo paso es construir la segunda fila de [U] y la segunda columna de [L]. . .b). 3 A32 − L31 U12 U22 El u ´ ltimo paso (en este ejemplo) es hallar la u ´ltima fila de [U] U33 = A33 − L31 U13 − L32 U23 Quedando las matrices [L] y [U] de la siguiente forma:   1 0 0  0.7 En las cuales se observa que en la matriz [L] se almacena la informaci´on correspondiente a los multiplicadores.a) y expresando el producto [U]x como el vector z. . 2. Recordando que el sistema de ecuaciones viene dado por la expresi´on (5.53  0 0. las cuales quedan: U2j = A2j − L21 U1j L32 = j = 2.589 1 0 1. el sistema se desdobla en los sistemas (5. 2. .48 4. . . • M´ etodo de Crout-Cholesky En el m´etodo de Crout se escoge Ujj = 1. 3. Conocidas las matrices [L] y [U] debemos resolver el sistema de ecuaciones planteado.c) y (5. donde podemos incluir adicionalmente la parte ampliada del vector independiente modificado con las operaciones. 3.

n+1 − n . . . . . n + 1 (12. Luego la sustituci´ on regresiva se calcula con xp = Up. Lip = Aip − Lik Ukp i = p.a) j = p + 1.b) es la parte ampliada de la matriz [A]. p + 2.b) k=1 Apj − Upj = p−1 Lpk Ukj k=1 Lpp El indice j = n + 1 en (12. p + 1. . . . . n (12.

1 (13) k=p+1 El m´etodo de Choleski Upp = Lpp . . n − 1. . por lo que los elementos de la diagonal principal. Upk xk p = n. . tanto de [L] como de [U] se calculan como Lpp = Upp    = A pp − p−1 . .

1. . . 2. 2. . . Lpk Ukp p = 1.1. SEC. n − 1 usando las ecuaciones (4). METODOS DIRECTOS 27 . . . . n (14) k=1 y se comienza indistintamente con una fila p de [U] y una columna p de [L] con p = 1. . 3.

. Este algoritmo usa tres ecuaciones βi . . 1.i−1 zi−1 γi = di − γi−1 ai βi (18) Finalmente la sustituci´ on regresiva da la soluci´ on xi = zi − Ui. Los elementos del vector independiente son di . δi y xi . Los elementos ci quedan inalterados. . y se logra convertir con el procedimiento planteado a la matriz [A] en la matriz [I].i = βi . Los elementos ai se eliminan formando los elementos βi tambi´en en la diagonal principal βi = b i − ai ci−1 βi−1 (15) para i = 1.A. por lo que la ecuaci´ on de zi queda zi = di − Li. Luego la sustituci´ on regresiva es δ i − ci xi+1 xi = βi (17) para i = n. . que son equivalentes • Eliminaci´ on como normalmente son sistemas diagonalmente dominante no hace falta pivotear. Determinante El determinante es de f´acil c´alculo.7 Sistemas Tridiagonales Son los sistemas de ecuaciones lineales con tres diagonales principales. γi y xi . Los elementos a1 y cn no existen en este sistema. tal que [A] [B] = [I]. con elementos ai en la diagonal inferior. Este algoritmo utiliza tambi´en tres ecuaciones βi . 1. pero de dice que es mucho m´as eficiente num´ericamente que el algoritmo de eliminaci´on. A este algoritmo tambi´en se le denomina TDMA (Three Diagonal Matrix Algorithm).i−1 Ui−1. . GRANADOS METODOS NUMERICOS 1. pues det([A]) = (−1)p det([U]) (20) donde [U] es la matriz triangular superior que queda despu´es del proceso de eliminaci´on y p es el n´ umero de pivotes que cambia el signo al determinante. • Algoritmo de Thomas Se hace el siguiente cambio de variables γ i = zi /Uii = δi /βi . 1. Matriz Inversa Si con el m´etodo de Gauss-Jordan se trabaja con la matrix [A] ampliada con la matrix identidad [I] en la forma [A|I]. Los elementos del vector independiente di se tranforman en δi δi = di − ai δi−1 βi−1 (16) tambi´en para i = 1. Los espacios de memoria utilizados pueden ser los mismos que los de las variable originales sin interferencia. Ui. 2. n. .1. . Para resolverlo hemos escogido el m´etodo de eliminaci´ on simple o descomposici´on L-U (Doolittle).1. . . siendo Uii = bi − Li. bi en la diagonal central y principal y ci en la diagonal superior.II . . n − 1. 2. 28 SOLUCION DE SISTEMAS DE ECUACIONES CAP.1. . por lo que [B] es realmente [A]−1 .8.9.i+1 xi+1 ci = γi − xi+1 Uii βi (19) donde se ha empleado parcialmente la notaci´on de la descomposici´on L-U (Doolittle).i−1 = ai /βi−1 . . n.i+1 = ci y Li. entonces la matriz [I] en la parte ampliada se convierte en la matriz [B].

1971]) P (λ) = det(A − λI) = 0 A. La multiplicidad dk de los autovalores λk originan varios sub-espacios Wk . Autovalores y Autovectores Las definiciones de los autovalores λ y autovectores e se resume en las siguientes expresiones (ver por ejemplo [Hoffman & Kunze.FUNDAMENTOS 1.10. cuya uni´ on es el espacio completo V = Rn P (λ) = k  k . ρ es el radio espectral.1.e = λ e λ = α + iβ  |λ| = α2 + β 2 ρ(A) = max |λi | 1≤i≤k (21) P (λ) es el polinomio caracter´ıstico cuya ra´ıces son los autovalores.

.. A . IB2 . [An ] = [A] ( [An−1 ] − Pn−1 [I] ) 1 tr[A2 ] 2 1 P3 = tr[A3 ] 3 . . . puede haber m´ as de un autovector para cada autovalor) que generan el subespacio Wi para cada autovalor λi (1 ≤ i ≤ k ≤ n) (A − λi I) . S2 . la matriz S Cada base IBi contiene el n´ diagonaliza A de la siguiente manera S−1. . S = Λ = diag{ λ1 . . P2 = Pn = (22) 1 tr[An ] n que permite finalmente obtener | [An − Pn [I] | = 0 (23) y con las cuales se puede calcular la inversa de la matriz [A] [A]−1 = SEC.. .j en la construcci´on de S. λ2 . .1970] P (λ) = | [A] − λ [I] | = 0 (21) (el s´ımbolo |[A]| significa det([A])).S = S. .Λ (24) El valor λi puede estar repetido en la matriz Λ dependiendo de di . y A y Λ (over F = R) son tambi´en congruentes. Dada la definici´on del polinomio caracter´ıstico [Pennington. (λ − λi )di i=1 dim Wi = dim V = n dim Wi = di (22) i=1 Def´ınase la matriz S con columnas siendo los autovectores ei. se ha implementado las siguientes f´ ormulas recurrentes P1 = tr[A1 ] [A1 ] = [A] [A2 ] = [A] ( [A1 ] − P1 [I] ) [A3 ] = [A] ( [A1 ] − P2 [I] ) . λk } A . IBk ] (23) El sistema lineal (23. . x = 0 S = [ S1 . Entonces. . umero di de autovectores que generan el subespacio Wi .1. S = Λ. . . la transformaci´ on S es tambi´en ortogonal (cuando los autovectores se normalizan).a) sirve para obtener las componentes de cada autovector ei. Las matrices A y Λ (over F = R) son semejantes y las matrices S y Λ permutan. . . METODOS DIRECTOS 1 ( [An−1 ] − Pn−1 [I] ) Pn (24) 29 .j (j ≤ di . Sk ] = [ IB1 . Cuando la matriz A es sim´etrica (o herm´ıtica en el caso complejo) los autovalores son todos reales. 1.

1. GRANADOS METODOS NUMERICOS y el polynomio caractr´ıstico λn − P1 λn−1 − P2 λn−2 − · · · − Pn = 0 (25) que al resolver sus ra´ıces nos permite obtener los autovalores.A.11. que se puede usar para estimar longitudes. pero las m´as importantes son: ◦ Norma 1 n . distancias y o´rdenes de magnitud. ii) x = 0 si y s´olo si x = 0. iii) α x = |α| x para toda α ∈ R y x ∈ Rn . iv) x + y ≤ x + y para todo x y y ∈ Rn Existe muchos tipos de normas para vectores. • Norma de Vectores Las normas de los vectores en Rn tienen las siguientes propiedades: i) x ≥ 0 para todo x ∈ Rn . 1. Normas Las normas permiten obtener una medida positiva de vectores y matrices y se define como la funci´on · .

x 1 = |xi | (26) i=1 ◦ Norma ∞ x ∞ = max |xi | 1≤i≤n ◦ Norma 2 (euclidiana) x 2 = ◦ Norma p x p = √ x.x .

pero las m´ as importantes son: ◦ Norma 1 n . iv) A + B ≤ A + B . ii) A = 0 si y s´olo si A = O. v) AB ≤ A B . iii) α A = |α| A . para todas las matrices A y B de Rn × Rn y todo escalar alpha ∈ R: i) A ≥ 0. • Norma de Matrices Una norma matricial en el conjunto de todas las matrices de Rn × Rn es una funci´ on de valores reales positivos. n (27) (28) 1/p |xi |p (29) i=1 La norma en (29) con p = 2 es equivalente a la norma 2 en (28). Existe muchos tipos de normas para Matrices. definida en este conjunto que satisface las siguientes propiedades.

A 1 = max |Aij | (30) 1≤j≤n ◦ Norma ∞ A ∞ = max 1≤i≤n 30 i=1 n .

|Aij | (31) j=1 SOLUCION DE SISTEMAS DE ECUACIONES CAP.II .

FUNDAMENTOS ◦ Norma 2 (euclidiana) A 2 = ◦ Norma p A p =  ρ(Ah A) .

n .

Cuando p = 2 en la f´ ormula (33) la norma se denomina de Frobenius o de Hilbert-Schmidt A F = . n (32) 1/p |Aij | p (33) j=1 i=1 El radio espectral se define como λ = α + iβ  |λ| = α2 + β 2 ρ(A) = max |λi | 1≤i≤k (34) el mayor de todos los m´odulos de los autovalores y satisface que ρ(A) = lim Ar 1/r ≤ A (35) r→∞ es menor que cualquier norma natural · .

n .

12 Condicionamiento El n´ umero de condici´ on K(A) de la matriz no singular A. METODOS ITERATIVOS 31 . 1.1. n |Aij |2 1/2 =  tr(Ah A) (36) j=1 i=1 Las normas de matrices se dice que son normas subordinadas o inducida por las normas de los vectores. en el sentido que A = max Ax x=1 A = max x=0 Ax x (37) que son equivalentes. se define como K(A) = A A−1 (38) Se sabe que Axk = bk Ax = b Ar = b Aek = dk (39) donde r es la soluci´ on exacta del sistema.c) A r ≥ b Ya que para cualquier matriz no-singular A SEC. o norma natural. De la u ´ ltima ecuaci´on (39.d) y de la definici´ on (38) se obtiene dk A (40) ek dk ≤ K(A) r b (41) 1 = I = AA−1 ≤ A A−1 = K(A) (42) ek ≤ K(A) o introduciendo (39. relativo a la norma · . 1.2.

2. METODOS ITERATIVOS 1. Dicho algoritmo consiste en suponer un vector soluci´on inicial xo y determinar la soluci´ on mediante un procedimiento iterativo o de punto fijo. pero todos tienen el denominador com´ un de generar sistemas de ecuaciones algebraicas de gran tama˜ no. M´ etodo de Jacobi Dentro de los m´etodos de soluci´ on de ecuaciones diferenciales parciales figuran las diferencias finitas. La on relativa dk / b con expresi´on (41) da una interrelaci´ on entre el vector error relativo ek / r y desviaci´ el n´ umero de condici´ on K(A). los elementos finitos. en los cuales se debe almacenar la matriz de coeficientes. representando el mayor porcentaje de elementos dentro de la matriz.1. los elementos de frontera. Debido a la existencia de una gran cantidad de elementos nulos no es conveniente trabajar con m´etodos directos.A. El comprtamiento en esta situaci´ on se refiere a la relativa seguridad k de que un vector residual d peque˜ no implique correspondientemente una soluci´ on aproximada precisa. entre otros.2. normalmente del 80% al 95%. Una de las caracter´ısticas de estos sistemas de ecuaciones es la presencia de elementos nulos dentro de la matriz en una forma bien determinada. sino utilizar m´etodos iterativos entre los cuales figura el m´etodo de Jacobi. GRANADOS METODOS NUMERICOS se espera que la matriz A tenga un buen comportamiento (llamada formalmente una matriz bien condicionada) si K(A) est´a cerca de uno y un comportamiento defectuoso (llamada mal condicionada) cuando K(A) sea significativa mayor que uno. el cual tiene la siguiente forma = xk+1 i   i−1 n . 1.

.

n (1) Para obtener convergencia. 2. es necesario que la matriz [A] sea una matriz diagonalmente dominante. . . . la magnitud del elemento de la diagonal debe ser mayor que la suma en valor absoluto de todos los elementos restantes en la fila |Aii | > n . . es decir. 3. 1 Aij xkj − Aij xkj bi − Aii j=1 j=i+1 i = 1.

+ |Ain | (2) j=1 j=i Teorema.i+1 | + . + |Ai. . 1. entonces los m´etodos de Jacobi y de Gauss-Seidel convergen. donde las variables se van actualizando en la medida que se van calculando en la forma xk+1 i   i−1 n . . .2.Si la matriz [A] es diagonalmente dominante por filas en forma estricta (expresi´ on (2)). . M´ etodo de Gauss-Seidel El m´etodo de Gauss-Seidel es una variante del m´etodo de Jacobi.2.i−1 | + |Ai. |Aij | = |Ai1 | + |Ai2 | + .

.

3. . n (3) Teorema (Stein-Rosemberg). . donde se sobre-relaja el m´etodo. . Si la matriz [A] es diagonalmente dominante por filas en forma estricta (expresi´on (2)).3 Relajaci´ on Sucesiva El m´etodo de relajaci´on sucesivas (SOR-Succesive Over Relaxation-Southwell) es una variante del m´etodo de Gauss-Seidel. . 2. 1 k+1 k = Aij xj − Aij xj bi − Aii j=1 j=i+1 i = 1. el m´etodo de Gauss-Seidel converge m´as r´apido. y adicionalmente los signos de los elementos de la diagonal principal son de signos opuestos a los elementos fuera de esta.2. Si definimos el vector independiente aproximado bk = [A]xk bki = i−1 . 1.

j=1 32 Aij xk+1 + Aii xki + j n .

n (4) j=i+1 SOLUCION DE SISTEMAS DE ECUACIONES CAP.II . . 3. . . . Aij xkj i = 1. 2.

FUNDAMENTOS y la desviaci´ on global o residuo (a veces definido como -residuo) dk = bk − b dki = i−1 .

n .

cualquier modificaci´ on en b producir´ a grandes cambios en la soluci´ on de x. Aij xk+1 + Aii xki + j j=1 Aij xkj − bi i = 1. queda δx = −[A]−1 δ[A]x (9) Si [A] es casi singular. . OTROS METODOS 1. de lo contrario. al no ser valores exactos. .2. Estabilidad Sea una cierta perturbaci´on en b igual a δb [A]x = b [A](x + δx) = b + δb [A]x + [A]δx = b + δb [A]δx = δb δx = [A]−1 δb (8) Si [A] es casi singular.1. [A] y b se deben trabajar con la m´ axima capacidad. no hay manera de obtener una soluci´ on aceptable. 2. 1. Teorema (Ostrowski-Reich). Si A es una matriz positiva definida y 0 < ω < 2. Aek = vk+1 SEC. M´ etodo de la Potencia Sea A la matriz cuyo autovalor se desea hallar. δx puede ser grande. por consiguiente. Esto es. 1. 1. Sea una cierta perturbaci´on en [A] [A]x = b ([A] + δ[A]) (x + δx) = b [A]x + [A]δx + δ[A]x + δ[A]δx = b [A]δx + δ[A]x = 0 despreciando los t´erminos de segundo orden δ[A]δx. Aplicamos dicha matriz aun vector inicial e0 .3. OTROS METODOS ek+1 = vk+1 vk+1 (1) 33 .3.3. el vector resultante se normaliza y se le vuelve a aplicar la matriz A otra vez. . . n (5) j=i+1 entonce el m´etodo de relajaci´on sucesiva se expresa algor´ıtmicamente como xk+1 = xki − ω i dki Aii (6) donde el factor de relajaci´on ω es: ω < 1 Subrelajado ω = 1 Gauss-Seidel ω > 1 Sobrerelajado La desviaci´on local δ k y los errores locales k y globales ek son definidos como δ k = bk − bk−1 k = xk − xk−1 ek = xk − r (7) extendiendo los conceptos antes definidos.4. 3. entonces el m´etodo SOR converge para cualquier elecci´ on del iterado inicial xo o aproximaci´ on inicial del vector de soluci´ on. y as´ı sucesivamente.

. Sea un conjunto de vectores v1 . . . GRANADOS METODOS NUMERICOS El proceso iterativo denominado m´etodo de la potencia es de tipo punto fijo [Gerald. donde (λ − s) sea el m´as grande en valor absoluto. . u1  u3 = v3 − v3 .2. . .. . La otra forma es escoger s un valor ya obtenido. . Dado Ae = λe. basta con extraer s de la diagonal principal de A. se obtiene m m (3) v(m) = Am v(0) = c1 λm 1 e1 + c2 λ2 e2 + · · · + cn λn em Si un autovalor. Sea un vector v(0) cualquiera y e1 . Sea Ae = λe. . u1  u1 u1 .. los valores de λm a despreciable i .. (7) . multiplicando por A−1 se obtiene A−1 A e = A−1 λ e = λ A−1 e A−1 e = 1 e λ (5) Lo que es lo mismo que decir que la matriz inversa A tiene los autovalores inversos que la original. u1  u2 . u2  . . se obtiene (A − sI)e = (λ − s)e (6) La expresi´on anterior puede ser aplicada de dos formas diferentes. Luego volviendo al problema original se puede afinar el resultado buscado. y al invertir la matriz modificada y aplicar el m´etodo de la potencia se obtendr´ıa el valor inverso 1/(λ − s) (el cual es grande). Si deseamos obtener un autovalor cercano a s. sea λ1 . cuando m sea muy grande y 1 Am v(0) −→ c1 λm 1 e1 vm −→ |λ1 | (4) Este es el principio detr´ as de el m´etodo de la potencia. Si aplicamos a v(0) la matriz A un n´ de m veces. λ2 .1978]. Entonces [Hoffman & Kunze. Esto hace que el m´etodo de la potencia descrito anteriormente permite hallar el menor autovalor de la matriz A−1 . ser´ en comparaci´on a λm .. .3. . es el m´as grande que todos en valor absoluto. . u2  u1 − u2 u1 . en los autovectores para los autovalore λ1 . con lo que aplicar el m´etodo de la potencia a la matriz modificada en la diagonal principal brindar´ıa otro valor diferente del autovalor antes hallado. Ortogonalizaci´ on de Gram-Schmidt Este algoritmo recibe su nombre de los matem´aticos Jørgen Pedersen Gram y Erhard Schmidt. 1. vn linealmente independiente en el espacio vectorial V. v2 . Entonces v(0) = c1 e1 + c2 e2 + · · · + cn en (2) umero Cualquier vector es una combinaci´ on lineal de los autovectores. λn . u1  v3 . i = 1. De forma general se puede expresar como uk = vk − k−1 . substrayendo sIe = se en ambos miembros. .A.. e2 .1971] u1 = v1 u2 = v2 − v2 .

. 2.II . Cuando en la sumatoria el l´ımite superior es menor que el l´ımite inferior la sumatoria no se realiza o su resultado es nulo. . uj  uj uj . n. j=1 vk . . . 34 SOLUCION DE SISTEMAS DE ECUACIONES CAP. uj  (8) donde k = 1.

con las columnas de A como los vectores a procesar [A] = [a1 |a2 | · · · |an ]. uk  (9) donde a. Entonces el conjunto de vectores ek forma una base ortonormal. Recurriendo al m´etodo de ortogonalizacin de Gram-Schmidt. b en el cuerpo F.FUNDAMENTOS Siendo uk ortogonales entre s´ı y se pueden normalizar como ek = uk uk uk =  uk . cualquier par de vectores del espacio vectorial V correspondiente de dimensi´ on finita n. es el producto interior de a y b. Entonces uk = ak − k−1 .

queda ak = k−1 . ej  ej (10) j=1 Despejando ak . ak .

y · la norma eucl´ıdea. OTROS METODOS v= u u Q = I − 2 vvt (14) 35 . Entonces. . .. a3  · · ·   0  [A] = [Q][R] = [e1 |e2 | · · · |en ]  ··· 0 u3  0 . a3   [R] = [Q]t [A] =  0 0 e3 . . 1. ak  ej + ek uk (11) j=1 En vista de que [Q] = [e1 |e2 | · · · |en ]. a  · · ·  1 1 2 1 3 u2 e2 . La manera de elegir el plano de reflexi´ on y formar la matriz de Householder asociada es el siguiente: Sea ak un vector columna arbitrario m-dimensional tal que ak = |αk |. esto significa que es posible reflejar el vector elegido respecto de un plano de forma que el reflejo quede sobre uno de los ejes de la base cartesiana [Householder. (13) N´otese que ej . Por lo que  e .3. .. ··· ···  ··· . a2  e2 . entonces [Q]t = [Q]−1 es ortogonal. .3. a  e . .. . donde αk es un escalar (si el algoritmo se implementa utilizando aritm´etica de coma flotante. ej . 1. a3   . Esta propiedad se puede utilizar para realizar la transformaci´on QR de una matriz si tenemos en cuenta que es posible elegir la matriz de Householder de manera que un vector elegido quede con una u ´ nica componente no nula tras ser transformado (es decir.. aj  = 0 para j > k. entonces α debe adoptar el signo contrario que ak para evitar p´erdida de precisi´on). .. se define u = ak − αk ek SEC.. . . 0. a  1 1 1 2 1 3 0 e2 .. .. siendo ek el vector {1. (12) siendo [R] es una matriz triangular superior. a  e . . ej .. a  e . Gr´ aficamente.1975] [Burden & Faires.1985]. Reflexiones de Householder Una reflexi´on de Householder es una transformaci´on que refleja el espacio con respecto a un plano determinado. y [Q][Q]t = [I]. .3. premultiplicando por la matriz de Householder). 0}t. ... entonces  u e . aj  = uj .

   Q1 A =    α1 0 . ··· . 0. tal que Qak = {αk . donde aparece una αk ).A. En primer lugar.. · · · . . Q es una matriz de Householder asociada a dicho plano. GRANADOS METODOS NUMERICOS El vector v unitario perpendicular al plano de reflexi´ on elegido. Esto proporciona una matriz Q1 A con ceros en la primera columna (excepto el elemento de la primera fila en la diagonal principal. 0}t (15) Esta propiedad se puede usar para transformar gradualmente los vectores columna de una matriz A de dimensiones m por n en una matriz triangular superior. Esto es. se multiplica A con la matriz de Householder Q que obtenemos al elegir como vector ak la primera columna de la matriz (k = 1).

. .. .

donde t = min(m−1. Entonces se tiene det(A) = det(Q) · det(R) (19) Puesto que Q es unitaria. n     | det(A)| = | det(R)| =  rii  (20) i=1 donde rii son los valores de la diagonal de R. Existen otros m´etodos de factorizaci´on de tipo QR como el m´etodo de rotaciones de Givens. sobre la diagonal principal.[R]. La factorizaci´on QR tambi´en puede usarse para obtener la soluci´ on de un sistema de ecuaciones lineales en la forma [A].b (21) 36 SOLUCION DE SISTEMAS DE ECUACIONES CAP. n).. y el procedimiento se puede repetir para A (que se obtiene de A eliminando la columna 1).x = [Q]t. Suponiendo que una matriz se descompone seg´ un A = QR.x = [Q]. tomando Q = Q1 Q2 · · · Qt (18. De forma que. muy u ´tiles en el c´alculo de autovalores por acelerar la convergencia del algoritmo QR reduciendo as´ı enormemente su coste computacional. completando con unos en Qk y con ceros en ak y ek . obteniendo as´ı una matriz de Householder Q2 . Para conseguir que esta matriz opere con Q1 A en lugar de A es necesario expandirla hacia arriba a la izquierda.II . | det(Q)| = 1. etc. En cualquiera de los casos antes dscrito el determinante de A es f´acilmente obtenible.b) donde A = Qt R es una descomposici´on QR de la matriz A. Es posible utilizar la descomposici´ on QR para encontrar el valor absoluto del determinante de una matriz. Por tanto.x = b [R].      [A ] . donde Ik−1 es la matriz identidad de dimensi´ R = Qt · · · Q2 Q1 A (18. 0  (16) . Este m´etodo tiene una estabilidad num´erica mayor que la del m´etodo de Gram-Schmidt descrito arriba.a) es una matriz triangular superior. Una pequea variaci´ on de este m´etodo se utiliza para obtener matrices semejantes con la forma de Hessenberg. Hay que tener en cuenta que Q2 es menor que Q1 . Tras repetir el proceso t veces. o en general  Qk = Ik−1 0 0 Qk  (17) on k −1.

.. N´ otese que de (22). provisto existe bajo ciertas condiciones (Ak tiene que ser no singular invertible) y es esencialmente u que A − λk I no es singular. . Algoritmo de QR Sea A = A0 ∈ Cn×n . etc. . Finalmente. OTROS METODOS 37 . x2 . Al pasar [Q] al otro miembro.FUNDAMENTOS donde. por ello uno de los m´etodos m´ as utilizados para resolverlos es el m´etodo de Newton-Raphson extendido para sistemas de ecuaciones. debido a que [R] es una matriz triangular superior. se tiene que Rk = Qhk (Ak − λk I) (la hermitiana Qh = Q y de aqu´ı a partir de (23) se obtiene Ak+1 = Qhk (Ak − λk I)Qk + λk I = Qhk Ak Qk (24) asi que Ak+1 es en verdad unitariamente similar a Ak . xn ) = 0 (1) . la soluci´ on x se obtiene de hacer una substituci´ on regresiva. Dejamos al lector profundice m´as de acuerdo a sus intereses. El objetivo es resolver un sistema de ecuaciones algebraicas de la forma: f1 (x) =f1 (x1 . . como sigue [Stewart. La matriz Ak − λk I se puede factorizar de la siguiente forma Ak − λk I = Qk Rk (22) on donde Qk es unitaria (ortogonal en el caso real) y Rk es triangular superior. un escalar λk llamado deplazamiento original se determina de los elementos de Ak (a medida que las iteraciones convergen.4.3. De aqu´ı en adelante la variantes de los m´etodos son infinitas. en la expresi´on (21. x2 . . SISTEMAS NO-LINEALES A diferencia de los sistemas de ecuaciones lineales.1973]. . . A1 . El algoritmo QR produce una secuencia A0 . 1. de matrices similares. . matrices herm´ıticas. Dada una matriz Ak . 2. sin olvidar que existen otros algoritmos muy eficientes para casos particulares. matrices de Hessenberg. Se sabe que dicha factorizaci´ ´ nica. λk se acerca a uno de los autovalores de A). . ra´ız de la ecuaci´on f (r) ≡ 0. xn ) = 0 o en forma m´ as compacta usando la notaci´on simb´ olica f (x) = 0 (2) A esta ecuaci´on le llamaremos la ecuaci´on homog´enea y a su soluci´ on r. 1. . A2 . x2 . . .3. . . Un sistema de ecuaciones no-lineales no es m´as que una extensi´on del problema de hallar la ra´ız de una ecuaci´on no-l´ıneal a hallar n ra´ıces para las n inc´ ognitas que se tienen. SEC. Ak+1 se calcula como Ak+1 = Rk Qk + λk I (23) ¯ t es el transpuesto conjugado). . fn (x) =fn (x1 .b). xn ) = 0 f2 (x) =f2 (x1 . Hay m´etodos para matrices tridiagonal. los sistemas de ecuaciones no-lineales no pueden ser agrupados en forma matricial por lo tanto ninguno de los algoritmos discutidos en la secci´on anterior podr´ıan ser aplicados sobre ellos. simplemente se traspone debido a que [Q] es ortogonal [Q]−1 = [Q]t . .

A. GRANADOS

METODOS NUMERICOS

2.1. METODO DEL PUNTO FIJO
Cualquier manipulaci´
on algebraica del sistema (1), espejando una componente diferente en cada
ecuaci´on nos da un sistema, que de forma resumida se expresa como
x = g(x)

(3)

Se puede entonces implementar un esquema iterativo de la forma
xk+1 = g(xk )

(4)

Encontraremos la soluci´
on r de dicho sistema (tambi´en soluci´on del sistema (2)), cuando comenzando con un
iterado inicial xo se llega a un punto donde
r ≡ g(r)
(5)
A este punto le denominamos el punto fijo r.
Una expansi´
on en series de Taylor de primer orden de la funci´
on g(x), centrado en r y evaluado en xk
nos da que
g(xk ) = g(r) + (xk − r).∇g(r) + O( ek 2 )
(6)
Eliminando el t´ermino con O( ek 2 ), introduciendo (4) y (5), y evaluando en gradiente de g en un punto
intermedio ζ
xk+1 − r = [Jg (ζ)] . (xk − r)

ζ ∈ B(r, ek )

ek+1 = [Jg (ζ)] . ek

(7)

donde B(r, ek ) es la Rn bola cerrada con centro en r y radio ek . El tensor Jg (x) es el jacobiano de la
funci´
on g definido como
∂gi
[Jg (x)]ij =
(8)
Jg (x) = [∇g(x)]t
∂xj
Del lado derecho se muestra como se calculan las componente matricial del tensor jacobiano.
Obteniendo la norma de la expresi´on (7.b), resulta
ek+1 ≤ Jg (ζ) ek

(9)

Lo que nos dice esta expresi´on es que el proceso iterativo (4) es convergente, o sea los errores ek son cada
vez menores, si se satisface que
(10)
Jg (ζ) < 1
En t´erminos geom´etricos significa que la funci´
on g debe ser una contacci´on alrededor de r. La funci´
on g
deforma el espacio alrededor de r, tal que contrae sus dimensiones o volumen.
EJEMPLO:
Hallar la soluci´
on del siguiente sistema de ecuaciones no-lineales
x2 + y 2 = 4
ex − y = 1
Utilizando un m´etodo iterativo de punto fijo se pueden obtener dos tipos de despejes 

Caso I
38

x=− 

4 − y2

y = 1 − ex 

Caso II

x = ln(1 − y) 

y = − 4 − x2

SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

FUNDAMENTOS

Resultados
−1.83

−1.815

−1.8163

−1.8162

0.84

0.8372

0.8374

0.8374

1.05

0.743

1.669

−1.857

−1.102

−4.307

x
Caso I
y

0.8

x
Caso I

−1.7

y

x
Caso II
y

−1.7

Imaginario

0.993

1.006

1.0038

1.0042

1.0042

−1.736

−1.7286

−1.7299

−1.7296

−1.7296

2.2. METODOS DE NEWTON-RAPHSON
los m´etodos de Newton-Raphson se deducen a partir de la expansi´
on en series de Taylor de la funci´
on
f alrededor de x y evaluado en r. Esta ecuaci´on pueden ser truncadas despu´es del t´ermino de primer orden.
Igual´
andola a cero, como indica 2.(2) para la funci´
on, se obtiene
f (r) = f (x) + (r − x) .∇f (x) + O( e 2 ) ≡ 0

(1)

donde e = x − r es el error global.
Al despejar r de esta ecuaci´on queda
r = x − { [∇f (x)]t }−1. [ f (x) + O( e 2 ) ]

(2)

donde se ha invertido el transpuesto de ∇f . Veremos m´as adelante que cambiando la notaci´
on y estandarizando el procedimiento resulta m´as sencillo.
2.2.1. Simple
Si no se toma en consideraci´on el t´ermino ∨( e 2 ), la expresi´on anterior no se iguala a r exactamente,
pero si a un valor cercano r. De acuerdo a este razonamiento, se puede substituir r por xk+1 y x por xk y
aplicar un procedimiento iterativo de la forma
xk+1 = xk − [Jf (xk )]−1. f (xk )

(3)

on f evaluada en el punto xk . As´ı, es m´as
donde [Jf (xk )] = [∇f (xk )]t es la matriz del jacobiano de la funci´
pr´
actico escribir la expresi´on (3) como
xk+1 = xk + zk
(4)
on del sistema de ecuaciones lineales
donde zk es la soluci´
[Jf (xk )] . zk = −f (xk )

(5)

El proceso iterativo establecido se aplica, comenzando con un estimado del valor inicial de la ra´ız que
se llamar´a xo , en forma sucesiva, hasta que se satisfagan las tolerancias max y dmax (impuestas al principio
al igual que kmax )
y
dk < dmax
(6) 
k < max
SEC. 2.2. METODOS DE NEWTON-RAPHSON

39

A. GRANADOS

METODOS NUMERICOS

donde k y dk son el error local y la desviacion global, respectivamente, y se definen de la siguiente manera
k 

k = xk − xk−1

dk = f (x )

(7)

La norma · usada en este an´alisis es la norma euclidiana que se define como
x =


x.x

A = 

ρ(At. A)

(8)

2.2.2. Relajado
El m´etodo de Newton-Raphson puede ser relajado en la forma
xk+1 = xk + ω zk

(9)

donde ω es el factor de relajaci´
on, y podr´
a tomar los siguientes valores
ω > 1 sobrerelajado
ω < 1 subrelajado
El valor de zk igualmente que antes, se obtiene del sistema de ecuaciones lineales (5).
2.3. METODOS CUASI-NEWTON
Los m´etodos cuasi-Newton se basa en los dos siguientes lemas preparativos para formular sus f´ormulas
algor´ıtmicas [Dennis & Mor´e,(1977)]
˜ , tal que a todo vector perpendicular a x, es
Lema 1. Sea A una transformaci´on lineal A.x = x
decir x.y = 0, lo env´ıa a C.y, con C siendo otra transformaci´
on lineal conocida. Con estas condiciones la
transformaci´on A que definida univocamente como
A=C+


x − C.x)x
x 2

(1)

La prueba de este lema se hace con A.y = C.y =⇒ (A − C).y = 0 =⇒ A − C = ax =⇒ (A − C).x = ax.x
=⇒ a = (A − C).x/ x 2 .
Lema 2. Sea A una transformaci´on lineal cuya matriz es no singular, es decir det A
= 0. Ai a y b
son dos vectores, tales que b.A−1.a
= −1, entonces A + ab es no singular y se tiene que
(A + ab)−1 = A−1 −

A−1. ab . A−1
1 + b . A−1. a

(2)

La prueba de este lema se hace multiplicando (A + ab).(A + ab)−1 = I.
2.3.1. M´
etodo de Broyden
La f´
ormula algor´ıtmica del m´etodo de Broyden es [Broyden,(1965)]
xk+1 = xk − [Ak ]−1. f (xk )

(3)

tal que
[Ak ].k = δ k

[Ak ].y = [Ak−1 ].y 

k .y = 0

(4)

donde k = xk − xk−1 es el error local y δ k = f (xk ) − f (xk−1 ) es la desviaci´on local.
40

SOLUCION DE SISTEMAS DE ECUACIONES

CAP.II

[Bk−1 ] . Bk−1 (6) Entonces la f´ ormula algor´ıtmica queda xk+1 = xk − [Bk ] . se pasa ahora a encontrar el m´ınimo de la funci´ on S definida por f (x) = 0 S(x) = f (x) . δ k ) k B = I+ k . f (x) = n .b).4. f (xk ) (7) donde [Bk ] es una aproximaci´on del jacobiano inverso [Jf (xk )]−1 calculado con (6) de forma recurrente. METODOS DE MINIMOS CUADRADOS Este m´etodo reformula el objetivo del problema a resolver. 2. Esto define por el lema 1 de forma u ´ nica Ak = Ak−1 + ( δ k − [Ak−1 ] . que de encontrar la soluci´on de la ecuaci´ on homog´enea 2. k ) k k 2 (5) Por el lema 2 se tiene una forma alterna de [Ak ]−1 = [Bk ]  ( k − [Bk−1 ] . que deja el espacio ortogonal a k tal como lo deja la transformaci´ on anterior (4. δ k  k .FUNDAMENTOS La transformaci´on [Ak ] es una aproximaci´on de la transformaci´ on jacobiana [Jf (xk )].(2).

entonces ω  = τ ω (τ > 1) para la pr´  k+1 y S(xk+1 ). ω2 y ω3 .2. [fi (x)]2 (1) i=1 El gradiente de esta funci´ on es ∇S(x) = 2 [∇f (x)] . obteniendo S1 (xk+1 ). ∇S(xk+1 ) = 0 ∂ω  (4) que da el o´ptimo anal´ıtico de ω para minimizar S(xk+1 ).2 o el m´etodo de la par´ abola secante secci´ on I. [Jf (xk )] . De esta forma se implementa el esquema iterativo ω ∇S(xk ) 2 = xk − ω f (xk ) . para encontrar el m´ınimo la iteraciones debes dirigirse en sentido contrario −∇S y este gradiente se afecta con un factor de relajaci´ on ω/2 (el 1/2 es simplemente para eliminar el 2 en la ecuaci´ on (2)) que se ajusta de manera tal que el descenso de S sea el m´aximo posible.5. [Jf (xk )] xk+1 = xk − (3) oxima iteraci´on. 2.5. Por consiguiente.3). Normalmente se escoge el ω = ρω (ρ < 1) y se prueba de nuevo calculando otra vez x crecimiento de ω menor que su disminuci´ on ((τ − 1) < (1 − ρ)).2.5. En realidad hay que hacer como m´ınimo tres intentos ω1 . Este valor o´ptimo estar´ a cerca del valor ofrecido por k+1 k+1 ∂S  = −f (xk ) . S2 (xk+1 ) y ). para luego de hacer una interpolaci´ on o extrapolaci´on cuadr´ atica. En caso contrario Si se tiene que S(xk+1 ) < S(xk ). METODOS DE SEGUNDO ORDEN 41 . y obtener un valor de ω ´ optimo S3 (x (usar por ejemplo el m´etodo de Muller secci´on I. f (x) = 2 f (x) . [Jf (x)] (2) Indica la direcci´ on en la cual S aumenta. SEC.

Los dos vectores contiguos (sin ninguna operaci´ on en el medio) es lo que se denomina una di´ adica equivalente a un tensor de segundo orden (ab ≡ a ⊗ b). el estimado ofrecido por el m´etodo de Newton-Raphson 2.A. zk. se puede expresar como Eliminando el t´ermino con O( e 3 ) y cambiando la notaci´ f (r) = f (x) + [Jf (x)] .5. f (xk ) (6) y luego resolver el sistema lineal resultante en la parte externa. n. k = 1.s } . y agrupados de forma matricial en un arreglo de dos ´ındices tiene componentes [Jf (x)]ij ≡ Jij = ∂fi ∂xj (3. y agrupados de forma indicial en un arreglo de tres ´ındices tiene componentes [Hf (x)]ijk ≡ Hijk = ∂ 2 fi ∂xj ∂xk (3. GRANADOS METODOS NUMERICOS 2. se define como [Jf (x)] ≡ [∇f (x)]t . Substituyendo xk+1 por r y x por xk queda la expresi´ on f (xk ) + { [Jf (xk )] + 1 2 [Hf (xk )] . METODOS DE SEGUNDO ORDEN Los m´etodo se segundo orden se originan mediante la expansi´on en series de Taylor de segundo orden de la funci´ on f (x) de la ecuaci´on homog´enea 2.1.(3) zk = −[Jf (xk )]−1. . j.II .5.a) El tensor de tercer orden Hf en la expansi´on en serie anterior se denomina el tensor hessiano. se define como [Hf (x)] ≡ [∇[∇f (x)]t ]t . Aqu´ı se propone.(2). (r − x) + 1 2 [Hf (x)] : (r − x)(r − x) = 0 (2) El tensor de segundo orden Jf en la expansi´on en serie anterior se denomina el tensor jabobiano. Se hace la expansi´on alrededor de x y se eval´ ua en la ra´ız r en la forma 1 (1) f (r) = f (x) + (r − x) . . f (r) ≡ 0. ∇f (x) + (r − x)(r − x) : ∇∇f (x) + O( e 3 ) 2 donde e = x − r es el error global del valor de x respecto a la ra´ız r. Esto hace que los vectores y tensores descritos pertenezcan a espacios de Hilbert. .s+1 = −f (xk ) SOLUCION DE SISTEMAS DE ECUACIONES (7) CAP. zk = 0 (4) donde zk = xk+1 − xk = k+1 es el error local con lo que m´etodo de segundo orden implementado como xk+1 = xk + zk (5) y el incoveniente se traslada a la forma como obtener zk en los m´etodos que siguen. mientras que un solo punto es una contracci´on simple (identificable como el producto escalar de dos vectores). zk. como un m´etodo m´as completo. un esquema iterativo secundario interno para cada k de tipo punto fijo con la ecuaci´ on (4) de la forma { [Jf (xk )] + 42 1 2 [Hf (xk )] . . y por definici´ on de una ra´ız. La operaci´ on doble producto “:” es una doble contracci´on de los ´ındices contiguos de las componentes de los factores (identificable como el producto escalar de dos tensores de segundo orden). 2. zk } . on en (1).b) Los ´ındices i. dentro de las llaves. M´ etodo de Richmond El m´etodo de Richmond pretende resolver la ecuaci´on (4) introduciendo en la parte interna de la ecuaci´on.2.

xkk ..5. . M´ etodo del Paraboloide Secante Un m´etodo m´as completo que el anterior consiste en resolver el problema (4) que es un paraboloide F(z) = f (xk ) + { [Jf (xk )] + 1 2 [Hf (xk )] .FUNDAMENTOS en iteraciones secundarias s. . xkn ) −1 (13) El mismo argumento se puede seguir para calcular las componentes del tensor hessiano de forma aproximada con los tres u ´ltimos iterado xk . . . xkj −1 (j = k) (14. xk2 . xkj xkj − xkj −1 ..s = −F(zk. .. con el m´etodo de Newton-Raphson con el jacobiano [JF (z)] = [Jf (x)] + [Hf (x)] . xk2 . .s + ∆zk. xkn ) − fi (xk1 .s ) zk.s )] . El m´etodo de Richmond es con s´olo una iteraci´ secundaria interna (hasta s = 1). xk3 . xkj . . . . El m´etodo aqu´ı propuesto corrige m´as veces el valor de z. 2.. xkn ) (j = k) (14 . z } .s | < ∆max o por n´ umero de iteraciones smax = 3 ∼ 6. xk2 . xk−1 y xk−2 por   ∂fi k ∂fi k [ ∂x ] − [ ∂x ] ∂ 2 fi (xk ) k k j [Hf (x )] = ≈ k−1 k ∂xj ∂xk xj − xj k ≈2 ∂fi k ∂fi k [ ∂x ] − [ ∂x ] j j j xkj − xkj −2 . .. . xkk −1 .a) 43 .. tantas veces como sea necesaria hasta que ∆zk = zk+1 − zk sea menor en valor absoluto que una tolerancia ∆max . xk2 . .5. El m´etodo del plano secante es una modificaci´on del m´etodo de Newton-Raphson (3).. resumido de la siguiente manera [JF (zk. bien por satisfacer la tolerancia |∆zk.0 = −[Jf (xk )]−1. f (xk ) (8) Luego se resuelve (7) de forma iterativa. ∆zk. . el u ´ ltimo valor de z se substituye en (5) (12) xk+1 = xk + zk y se contin´ ua con las iteraciones en k.. . mucho menor que max por supuesto. cuantas veces se quiera.s (11) Luego de finalizado este proceso iterativo secundario interno en s (para cada k). . . . xkj −1 j SEC.b) donde  ∂fi ∂xk k = fi (xk1 . METODOS DE SEGUNDO ORDEN k−1 xkk − xk .. 2.2.s + 1 = zk. .. xkn ) − fi (xk1 . Vi´endolo como un m´etodo predictor con (8) y corrector con (7). .a) (j = k) (14. Se escoge como iterado inicial (s = 0) de este proceso iterativo secundario interno (para cada k) el valor dado por (6) zk. xk3 . z (10) Todos los valores dependientes de las iteraciones k permanecen constante en este proceso iterativo secundario interno en s. Normalmente entre on unas 5 a 10 iteraciones secundarias smax son suficientes. z = 0 (9) en la inc´ ognita z. ... . donde los elementos de la matriz jacobiana se aproximan con los dos u ´ltimos iterados xk y xk−1 por  [Jf (xk )] = ∂fi ∂xj k ≈ fi (xk1 . .

. Estos m´etodos se pueden relajar utilizando tres factores de relajaci´on ω.s + ωz ∆zk.s )] . el jacobiano generalizado es Jfno = Jfn(xo ) y el t´ermino del residual es ⊗ Rn (z) = O( z(n+1) ). z (15. xkj −1 .c) Luego de finalizado este proceso iterativo secundario interno en s (para cada k). resumido de la siguiente manera relajando con ωz zk. ∆zk. xkn ) (14 . z = 0 2 (15. bien por satisfacer la tolerancia |∆zk. . . . . relajando tambi´en con ω xk+1 = xk + ω zk (15.s [JF (zk.s + 1 = zk. . . xk3 . el u ´ ltimo valor de z se substituye en (5). .s = −F(zk.b) relajando con ωh cunta influencia se quiere del t´ermino de segundo orden. xkn ) − fi (xk1 . As´ı como se pueden anidar los diferentes t´erminos de un polinomio de grado n en la forma P1 (x) = a0 + a1 x P2 (x) = a0 + (a1 + a2 x)x P3 (x) = a0 + (a1 + (a2 + a3 x)x)x (16) P4 (x) = a0 + (a1 + (a2 + (a3 + a4 x)x)x)x n−1 ···    Pn (x) = a0 + (a1 + (a2 + (a3 + (a4 + · · · + (an−1 + ak x) · · · x)x)x)x)x as´ı tambi´en de igual manera se pueden anidar los t´erminos de la expansi´ on en series de Taylor f (x) = Pn (z) + Rn (z) n−1 = fo + [ Jfo/1! + [ Jf2o/2! + [ Jf3o/3! + ···+ [ Jfn−1 /(n o − 1)! + Jfno/n! . GRANADOS  ∂fi ∂xj METODOS NUMERICOS k = fi (xk1 . No confundir k como super-´ındice “iteraci´ “componente”. xk3 . Todos los valores dependientes de las iteraciones k permanecen constante en este proceso iterativo secundario interno en s. 2. z ] . . z } . .A. xkj xkj j −1 − xkj −2 . M´ etodo de Taylor Los m´etodos de Newton-Raphson.II .a) en la inc´ ognita z. donde ∆x es una cantidad peque˜ on” y k como sub-´ındice la tolerancia para el error local max ). . z ] . z ] . el m´etodo recibe adicionalmente el apelativo de secante. z ] · · ·    . Richmond. Paraboloide caen dentro de esta categor´ıa para n = 2. . xk2 . xk2 .b) (j = k) −2 En estos casos. 44 SOLUCION DE SISTEMAS DE ECUACIONES CAP. .d) Una vez escogido los factores de relajaci´on mencionados iniciales. . entonces xkj −1 = xkj − ∆x y xkj −2 = xkj − 2 ∆x − na (fracci´on de (esquema atrasado) o xkj 2 = xkj + ∆x (esquema central).3. .s | < ∆max o por n´ umero de iteraciones smax .5. z +Rn (z) (17) donde el desplazamiento es z = x − xo . ωh y ωz de la siguiente forma F(z) = f (xk ) + { [Jf (xk )] + ωh [Hf (xk )] . el procedimiento puede modular el valor de dichos factores en cada iteraci´on o grupos de iteraciones k (principio-medio-final). . Cuando se usa el procedimiento de la perturbaci´ on. con el m´etodo de Newton-Raphson con el jacobiano [JF (z)] = [Jf (x)] + ωh [Hf (x)] .s ) (15.

z]. ek ) (5) para que el m´etodo de Newton-Raphson converga. 2. ek ) (5) El m´etodo de Newton-Raphson es siempre de convergencia lineal porque [Jg (r)] = [ I ] − [Jf (r)]−1. ESTABILIDAD 45 .2. y la inc´ ognita m´ as exterior resolverla con un esquema de punto fijo e irla corrigiendo y substituyendo de nuevo interiormente.1. El jacobiano (19) se ha calculado manteniendo constante los coeficientes tensoriales Jfn (xk ) = Jfnk . Criterios El m´etodo de Newton-Raphson al ser un m´etodo de tipo punto fijo la funci´ on g(x) que lo define es g(x) = x − ω [Jf (x)]−1 . Para una sola ecuaci´ on el primer y el segundo t´erminos se calcelan (ω = 1) y el tercero da el resultado esperado I. SEC.z].FUNDAMENTOS Teniendo esto en cuenta. y donde el u ´ltimo t´ermino se anula por ser f (r) = 0. se obtiene g(xk ) = g(r) + [Jg (r)] .z]. [Jf (x)]−1. [Hf (x)] .(14). Tipos Haciendo la expansi´on en series de Taylor de la funci´ on g(x) alrededor de r y evaluada en xk .[Jg (x)] = [Jf (x)] − ω [Jf (x)]t + ω [Hf (x)] . z ] . Los dem´as detalles son similares. f (x) (4) Este gradiente para un punto intermedio ζ debe satisfacer Jg (ζ) < 1 ζ ∈ B(r.7. z ] .4. f (x) [Jf (x)].6. (xk − r) + 1 2 [Hg (ζ)] : (xk − r)(xk − r) ζ ∈ B(r. [Jf (x)]−1. usando (3). [ I ] − [Jg (x)] + ω [Hf (x)] . [Jf (r)]t = 0 siempre (r de multiplicidad 1). 2. z ] · · ·    .2. f (x) = ω [Jf (x)]t (2)  t [Jf (x)]. una vez escogido el grado n del polinomio con el que se desee trabajar F(z) = Pn (z) = 0 n−1 = f (xk ) + [ Jfk/1! + [ Jf2k/2! + [ Jf3k/3! + ··· + [ Jfn−1 /(n k − 1)! + Jfnk/n! . z (19) siguiendo un procedimiento similar al m´etodo del paraboloide en las ecuaciones (11) y (12). Tambi´en se puede utilizar un m´etodo de Newton-Raphson para resolver el problema (18) con el jacobiano de F(x) n−2 JF(z) = Jfk + [ Jf2k/1! + [ Jf3k/2! + ···+ [ Jfn−1 /(n k − 2)! + Jfnk/(n    − 1)! . CONVERGENCIA 2.6. [Jf (x)]t + ω [Jf (x)]−1.z = 0 (18) y luego resolver este problema al estilo de Richmond con el iterado inicial estimado o predicho con NewtonRaphson (8) interiormente en la ecuaci´on.b). [Jf (x)]−1.(x − g(x)) = ω f (x) (1) Extrayendo el gradiente de la segunda expresi´on da    t [Jf (x)] . 2.2.4. Las diferencias con una sola ecuaci´on pueden verse comparando con I.(4. f (x) (3) Finalmente se obtiene el gradiente de g  t [Jg (x)] = [ I ] − ω [Jf (x)]−1. los m´etodos de Taylor se implementa de la siguiente manera. z ] · · · .6.

Kmed = 9. quien acu˜ no el t´ermino “Fractal” un subconjunto del espacio A es llamado fractal. Consecuentemente.II . se colorea con un color distinto dependiendo de la ra´ız a la cual converge. M´etodo de Newton-Raphson ( Kmin = 3. sea N (e) el m´ınimo de bolas Fig.6. 46 SOLUCION DE SISTEMAS DE ECUACIONES CAP. Intuitivamente Dh mide la el crecimiento del n´ umero de esferas de di´ ametro e necesarias para cubrir el dominio analizado A. cuando e → 0. y por lo tanto menos estable es el proceso iterativo representado por su mapa fractal [Devaney. ESTABILIDAD Los m´etodos iterativos. M´ as precisamente.7. Usaremos los nombre de regi´ on fractal para las zonas donde los colores est´ an m´ as dispersos con una forma intrincada y alternada. todos generan un mapa fractal del procedimiento.1987]. n-dimensionales de di´ ametro e necesario para cubrir el dominio. Al pasar de un sombreado (impar) a no-sombreado (par) indica una sola iteraci´ on. Kmax = 83. Luego. si el dominio A es un subconjunto de Rn .1. GRANADOS METODOS NUMERICOS 2. si N (e) crece exponencialmente como exp(−Dh ) cuando e → 0.974688 ). si cada punto del espacio visto como iterado inicial. Dh = 1. dependiendo si su dimensi´ on de Hausdorff Dh (A) es un n´ umero fraccionado y no un entero. Mas cercano al entero siguiente (dimension topol´ ogica.A. se dice el dominio A tiene una dimensi´ on de Hausdorff Dh [Peitgen & Richter. De acuerdo a Mandelbrot [1983]. la dimensi´ on de Hausdorff representa una medida de cuan fractal es una figura inmersa n en R .1986]. que en el plano es 2). Las distintas zonas tiene un sombreado en forma de cebra que indican las iteraciones. mientras m´ as fractal sea la figura menos estable o ca´ otico es el sistema din´amico. y cuenca de convergencia donde los colores son m´ as uniformes alrededor de un punto de convergencia final. No es dic´ıcil mostra que la dimension de Hausdorff puede ser obtenida por Dh = lim e→0 log[N (e)] log(k/e) (1) donde k es la constante de proporcionalidad cuando N → k exp(−Dh ) e→0 (2) De acuerdo a esto.

y} ) fx (x. SEC. +i. −i coloreados los puntos azul.3. Dh = 1.a) Fig. 47 .8.811758).7. Consiste en hallar las cuatro ra´ıces del problema que son r = +1. con 3 iteraciones previas de Newton-Raphson (Kmin = 1.2. El problema en el plano R2 se representa como el sistemas de 2 ecuaciones no-lineales con 2 inc´ ognitas ( {f (x)} = {fx (x).3. ESTABILIDAD (3)  (4. Dh = 1.2. M´etodo de Broyden. fy (x)}. con 1 iteration Newton-Raphson al inicio (Kmin = 1. Kmax = 698626. 2. Kmax = 889. Kmed = 8. M´etodo de Broyden. y) = (x2 − y 2 )2 − 4 x2 y 2 − 1 = 0 f (z) = z 4 − 1 = 0 con la matriz jacobiana [Jij ] = [∂fi /∂xj ] [Jf (x)] = fy (x. Kmed = 11. −1.FUNDAMENTOS Fig. y) = 4 xy (x2 − y 2 ) = 0  4x(x2 − 3y 2 ) −4y(3x2 − y 2 ) 4y(3x2 − y 2 ) 4x(x2 − 3y 2 ) Fig.909757). Dh = 1. rojo y verde.a. Kmax = 100000. Kmed = 12. amarillo. M´etodo de La Secante (Kmin = 3.943245) . {x} = {x.b. El problema que vamos a usar como ejemplo es el de f (z) = z 4 − 1 = 0 en el plano complejo z = z + iy.

M´etodo de Segundo Orden con 3 iteracciones internas ( Kmin = 25. 48 SOLUCION DE SISTEMAS DE ECUACIONES CAP. Fig. Es el peor de todos los m´etodos.(6)-(7)) con 1 y 3 iteraciones previas iniciales con el m´etodo de Newton-Raphson. Las cuencas de convergencia aumentan de tama˜ no y se reducen las regiones fractales en la medida que se incrementa el n´ umero de las iteraciones internas.b) en el u ´ ltimo caso las matrices contiguas contienen las derivadas de los jacobianos [∂Jf /∂x] y [∂Jf /∂y]. Muestra las cuencas de convergencia bien definidas y las zonas fractales denotan un proceso iterativo ca´ otico.A. Presenta zonas inestables de color negro donde no se llega a ninguna ra´ız.a)). Fig.2. Las cuencas de convergencia son reducidas. La figura 1 muestra el m´etodo de Newton-Raphson de la secci´on 2. Kmed = 48.984425 ).988387 ).II . paraboloide con jacobiano y hessiano calculados anal´ıticamente (f´ ormulas (4)). Dh = 1. Kmax = 300.6.2.(13). Las regiones fractales se difuminan (polvo fractal) y las cuencas de convergencia presenta iteraciones (zonas sombreadas) en forma de c´ uspides. La figura 4 muestra el m´etodo de segundo orden de la secci´ on 2.3. La figura 2 muestra el m´etodo de la secante. Kmax = 199. Levemente peor que el m´etodo de Newton-Raphson.4. Es el mejor de todos los m´etodos. GRANADOS METODOS NUMERICOS y el tensor Hessiano [Hijk ] = [∂ 2 fi /∂xj ∂xk ]  [Hf (x)] = 12(x2 − y 2 ) −24xy 24xy 12(x2 − y 2 )  −24xy −12(x2 − y 2 ) 2 2 12(x − y ) −24xy  (4.1 (f´ ormulas 2.2. Dh = 1. Kmed = 24.1 con jacobiano calculado anal´ıticamente (f´ ormulas (4.4.1 con jacobiano calculado de forma aproximada con las dos u ´ltimas iteraciones (f´ ormula 2. El m´etodo de Newton-Raphson previo estabiliza un poco el m´etodo.3. La figura 3 muestra el m´etodo de Broyden del segundo tipo de la secci´ on 2.a. m´etodo de la secci´on 2.5.5. M´etodo de Segundo orden con 1 iteraci´ on interna ( Kmin = 12.b.

lo que sale se resta. normalmente de forma no-lineal. La variable distribu´ıda puede ser: Presi´on. y el sistema de ecuaciones planteado para las inc´ognitas.5. designada con la letra r. La sumatoria de todas las variables distribu´ıdas es nula. Dh = 1. METODOS NUMERICOS PARA REDES Llamemos redes a los sistemas conformados por “elementos” que est´an unidos por “nodos”.FUNDAMENTOS Fig. por ejemplo.3. Voltaje. lo que determina un´ıvocamente el sentido de Q. y existe una u ´ nica variable puntual P en el nodo. Q = 0. Intensidad de Corriente. Los elementos se pueden agrupar en circuitos no redundantes o dependientes (teor´ıa de grafos) para eliminar variables P . 1. se pueden resolver con estos m´etodos.946966). Igual que el caso anterior. variables puntuales y distribu´ıdas. las variables se invierten. M´etodo del Paraboloide Secante.8. El diferencial de la variable distribu´ıda es funci´ on de una potencia α de la variable puntual Q en cada elemento. Para que el sistema sea compatible determinado al menos una P en un nodo debe ser conocida.(13)-(14)). 10. La ecuaci´on por supuesto t´ ambien es homog´enea (aunque la variable P no interviene expl´ıcitamente en su ecuaci´on). Fuerza-Momento. etc. Estos elementos pueden ser: Tuber´ıas. ∆P + f (Q) = 0. Vigas. Es un m´etodo intermedio entre el m´etodo de Newton-Raphson y levemente peor que el m´etodo de segundo orden anal´ıtico. etc. La figura 5 muestra el m´etodo del paraboloide secante de la secci´on 2. al menos para una iteraci´on (linealizaci´ on de Wood).7. Existen dos tipos de variables “puntual” y “distribu´ıda” tanto en elementos como nodos.1 Introducci´ on El problema que se desea resolver es un sistema de ecuaciones algebraicas de los siguientes dos tipos f (x) = 0 x = g(x) (1) La primera ecuaci´on de la izquierda se denomina ecuaci´on homog´enea. La segunda en la derecha es cualquier despeje de la primera. 2.5. En cada elemento la variable puntual puede ser: Caudal. satisface las siguientes SEC. Existen tantas ecuaciones homog´eneas como nodos y elementos (una variable por cada uno). El coeficiente C tambi´en puede depender de Q. La convenci´on de suma para estas ecuaciones es simple: lo que entra en el nodo se suma. Puede ser que f (Q) = C |Q|α−1 Q. por ejemplo. 5. 2. La soluci´ on de las ecuaciones anterior.8. Estas variables se relacionan mediante una ecuaci´on homog´enea. este coeficiente se considera constante. las puntuales se convierten en distribu´ıda y viceversa. aunque cuando se linealiza el sistema. 2 y 3 iteraciones internas (Kmed = 11. Deformaci´on. L´ıneas El´ectricas.944819. con jacobiano y hessiano calculados de forma aproximada con las tres u ´ltimas iteraciones (f´ ormulas 2.2. En cada nodo. De otra forma el sistema se convierte en compatible indeterminado. METODOS NUMERICOS PARA REDES 49 . pero las regiones fractales est´ an difuminadas y las cuencas de convergencia presentan la caracter´ısticas de c´ uspides de los m´etodos secantes. 2. etc.8.

donde k = xk − xk−1 es el error local. mientras que un solo punto es una contracci´ on simple (identificable como el producto escalar de dos vectores).3. . GRANADOS METODOS NUMERICOS definiciones f (r) ≡ 0 r ≡ g(r) (2) En el primer caso r se denomina la ra´ız de la funci´ on f . . La funci´ on f : Rn −→ Rn es una funci´ on vectorial de la variable x tambi´en vectorial. . n. existe una dependencia de las componentes de la forma fi (x1 .8. Una generalizaci´ on de las expansiones en Series de Taylor para funciones multi-variables puede verse en el Ap´endice. . . 2. . y en el segundo caso r se denomina el punto fijo de la funci´ on g. . . La operaci´ on producto “ : ” es una doble contracci´on de los ´ındices contiguos de las componentes de los factores (identificable como el producto escalar de dos tensores de segundo orden). • Matriz Jacobiana El tensor de segundo orden Jf en la expansi´on en serie anterior se denomina el tensor jabobiano y tiene componentes ∂fi (4) [Jf (x)]ij ≡ Jij = ∂xj agrupados de forma matricial en un arreglo de dos ´ındices. Esto hace que los vectores y tensores descritos pertenezcan a espacios de Hilbert. xn ) con i = 1. 50 SOLUCION DE SISTEMAS DE ECUACIONES CAP. M´ etodos Algebraicos • Punto Fijo Utilizando el despeje de la ecuaci´ on homog´enea en la forma xk+1 = g(xk ) (6) se puede implementar un esquema interativo convergente tal que k+1 < k . Lo mismo es v´ alido para la funci´ on g.(r − x) + 1 2 [Hf (x)] : (r − x)(r − x) + · · · (3) La serie se desarrolla alrededor del punto x y esta evaluada en r. xj . . • Tensor Hessiano El tensor de tercer orden Hf en la expansi´on en serie anterior se denomina el tensor hessiano y tiene componentes ∂ 2 fi [Hf (x)]ijk ≡ Hijk = (5) ∂xj ∂xk agrupados en un arreglo de tres ´ındices. x2 . . . . 2. Dicho esquema se detendr´ıa si se satisface la condici´ on de parada en el error local k = k ≤ max y simult´ aneamente en la desviaci´on global δ k = f (xk ) ≤ δmax . Es decir. 2.A. donde los valores max y δmax son las tolerancias permitidas.2 Expansi´ on en Series de Taylor • Serie de Taylor La expansi´on en series de Taylor de la funci´ on f involucrada en la ecuaci´ on homog´enea hasta el t´ermino de segundo orden es f (r) = f (x) + [Jf (x)]. Tambi´en se impone una condici´ on de parada en el n´ umero de iteraciones s > smax para evitar procesos iterativos no convergentes en un n´ umero m´ aximo razonable de iteraciones smax .II .8.

se deducen de forma anal´ıtica a partir de la expansi´on en series de Taylor hasta el t´ermino de primer orden. pero u ´ nicamente las envueltas en la ecuaci´ on i. b − xk } (9) utilizando la matriz inversa A−1 . • Linealizaci´ on de Wood Una forma particular del m´etodo de punto fijo es mediante la linealizaci´ on del tipo [A(xk )] . Los criterios de convergencia y las condiciones de parada seguir´an siendo los mismos para todos los esquemas iterativos propuestos. que es igual para todas las componentes de la variable xk . que tambi´en son m´etodos del tipo punto fijo.4 M´ etodos Anal´ıticos Dos m´etodos iterativos. Luego reasignando r = xk+1 y x = xk se obtienen los dos siguientes m´etodos. Se establece entonces el siguiente m´etodo de Hardy-Cross xk+1 = xk + ω zki zik = −fi (xk )/ n . cuya f´ ormula algor´ıtmica se traduce en las siguientes expresiones xk+1 = xk + ω zk [Jf (xk )] . 2. El m´etodo de Newton-Raphson es un caso especial de m´etodo de punto fijo si se define la siguiente aplicaci´on g(x) = x − ω [Jf (x)]−1 . xk+1 = b (8) donde lo que no depende del valor actual xk+1 se aglomera en una matriz A dependiente de la iteraci´ on on s se obtiene el esquema anterior xk . El vector zk = k+1 es el error local en la iteraci´ on s + 1. • Newton-Raphson Directamente con la reasignaci´on antes descrita y despejando r se obtiene el m´etodo de NewtonRaphson.8.FUNDAMENTOS Este m´etodo se puede relajar en la forma xk+1 = xk + ω [g(xk ) − xk ] (7) siendo ω el factor de relajaci´ on. Resolviendo el sistema de ecuaciones lineales anterior para cada iteraci´ iterativo deseado. zk = −f (xk ) (10) donde la expresi´on de la derecha es un sistema de ecuaciones lineales. en el caso de que no haya relajamiento del m´etodo (ω = 1). Este m´etodo se relajar´ıa de forma parecida al m´etodo de punto fijo como xk+1 = xk + ω { [A(xk )]−1.f (x) (11) • Hardy-Cross Asumiendo un valor de zki de avance del m´etodo de Newton-Raphson anterior.

Jij zki = zik 1 (12) j=1 donde la sumatoria aparece de sumar todos los elementos de la fila i de la matriz jacobiana Jij . . es decir. . . dos circuitos no deben tener las mismas inc´ognitas. Los circuitos no deben ser redundantes. a diferencia de los m´etodos anteriores. El recorrido de la red se hace en m circuitos cerrados o pseudo-circuitos abiertos. y as´ı se elimine dicha variable de la ecuaci´ on i correspondiente (o s´olo quede ∆P como inc´ognita). tales que la variable Pj tenga el mismo valor en el nodo de partida y de llegada (o un diferencial ∆P conocido. al menos que se eliga dicho diferencial como inc´ ognita). El vector 1 tiene unos en todas sus componentes. Las variables P intermedias tambi´en quedan eliminadas en todo su recorrido del circuito dentro de este proceso. 2. 2. . METODOS NUMERICOS PARA REDES 51 . SEC. . . donde el sistema de ecuaciones debe ser “compatible determinado” (igual n´ umero de ecuaciones que de inc´ ognitas). . .8. m) puede ser menor que el rango n del ´ındice j (j = 1. El rango m del ´ındice i (i = 1. 2. n).

E. es el m´etodo de linealizaci´ on de Wood. 1983. [4] Devaney. C. la n-bola abierta con centro en r y radio r − xk .8. 1996. Kunze. A. 1987. [13] M´endez. Linear Algebra. 2nd Edition. L. pp. el peor de ellos. C. 1971. Freeman and Company (New York). Applied Numerical Analysis. Por ejemplo. Faires. L.19. (1977).edu/12345807/Taylor Series for Multi-Variables Functions [10] Hoffman. S. The Fractal Geometry of Nature. “A Class of Methods for Solving Non-Linear Simultaneous Equations”.INT-EPPR/322-91-0002. J. 1990. L.239-247. SIAM. Aunque el m´etodo no se muestra aqu´ı. con convergencia casi segura. INTEVEP. La norma · del tensor debe estar subordinada a la norma sobre vectores. An´ alisis De todos los m´etodos anteriores. 2015.19. Rep. 1975. Fundaci´on Polar & Universidad Cat´ olica Andr´es Bello.. pp. o sea. y por la forma de la ecuaci´on de los elementos de la red.. C. K. L. PWS (Boston). Blaisdell Publishing Company (New York). C. Gajardo. “Taylor Series for Multi-Variable Functions”. A. 1985. J.A. Addison-Wesley. Cultural Centre Tulio Febres Cordero. H. es el m´etodo de Segundo Orden mostrado en la secci´on 2. J. A. L. [6] Granados M.6. S. SIAM Review. M´erida. B. An Introduction to Chaotic Dynamical Systems. R. Editors: M.academia. B. (1996). pgs. Mayo. 52 SOLUCION DE SISTEMAS DE ECUACIONES CAP. Mor´e. 3rd Edition. Computational Mechanics Publications of the Wessex Institute of Technology (UK).academia. A. el mejor m´etodo de todos. Jg (ζ) < 1 (13) donde ζ pertenece a un entorno Vrk = B(r. Numerical Analysis. No. A. L. No.46-89.1. G. A. 1978. A Second Course. [14] Ortega. (1965). D. Le sigue de cerca el m´etodo de Crank-Nicholson. 14-36. Tuber´ıas a Presi´ on.edu/12520473/Numerical Taylors Methods for Solving Multi-Variable Equations [9] Granados. 1995.. Los Teques. Venezuela. Universidad Sim´on Bol´ıvar. https://www. [2] Burden R. [5] Gerald. F. Numerical Methods in Engineering Simulation: Proceedings of The Third International Congress on Numerical Methods in Engineering and Applied Sciences.5. Brebbia. Motivation and Theory”. V.II . r − xk ). pp. [3] Dennis. Updated and Augmented Edition. Esto es. R. Universidad Sim´ on Bol´ıvar. Vol. En Los Sistemas de Abastecimiento de Agua. “Cuasi-Newton Methods. [12] Mandelbrot.577-593. Tech.5 (comprobado por experiencia propia).. Second Order Methods for Solving Non-Linear Equations. Prentice-Hall (Englewood Cliff-New Jersey). March 25-29. 1964. J. Edo. Cerrolaza. De u ´ ltimo. Mathematics of Computation. [11] Householder. 2nd Edition. (Research Institute for Venezuelan Petroleum Industry). [7] Granados M. J. BIBLIOGRAFIA [1] Broyden. 1991. Addison-Wesley.(4) para el m´etodo de Newton-Raphson relajado. Numerical Analysis. M. Dic. el mejor de ellos es el m´etodo de Newton-Raphson. https://www. Todo m´etodo de punto fijo converge a la soluci´ on r. Miranda. W. “Numerical Taylor’s Methods for Solving Multi-Variable Equations”.. Dover Publications (new York). si se satisface que la aplicaci´on g en una contracci´on del espacio en su cercan´ıa. M. [8] Granados. The Theory of Matrices in Numerical Analysis. 2015. Por esta raz´on en este u ´ ltimo m´etodo es casi imprescindible sub-relajarlo (ω < 1) para obtener convergencia segura en caso de escoger un iterado inicial x0 lejano a a la soluci´ on. “Fractal Techniques to Measure the Numerical Instability of Optimization Methods”. GRANADOS METODOS NUMERICOS 2. Vol. CIMENICS’96. Jun. Jr. A. ver ecuaci´ on 2.

M. SEC. 2nd Edition. Introductory Computer Methods and Numerical Analysis. Iterative Solution of Nonlinear Equations in Several Variables. 1986. Richter.FUNDAMENTOS [15] Ortega. The Beauty of Fractals. Images of Complex Dynamical Systems. Introduction to Matrix Computations. 1970.. Collier Macmillan Ltd. 1973.-O. [18] Stewart. P. R. H.. Academic Press (New York). [16] Peitgen. 1970. BIBLIOGRAFIA 53 . Springer-Verlag. Rheinboldt. H. [17] Pennington.. C. H. G. W. J. Academic Press. W.

.

F´ ormulas de Newton-Cotes. 1. 1. INTERPOLACION. 1.4. Criterios de interpolaci´ on. 1.1. • Polinomios de Stirling.7.3.1. Simetr´ıa. Interpolaci´ on Espacial 1.1. 1.4.2. 1. Trazadores Rectil´ıneos.3. Trazadores Parab´ olicos.6.1. 1. Datos Regulares.5. Polinomios de Lagrange. Trazadores. 1. 1.1. 1.4.1. INTEGRACION Y APROXIMACION CONTENIDO 1. Datos Regulares.3.6. Algoritmo. Tres Dimensiones.3.1. 1. 2. • Polinomios de Gauss.1.3.4. 1. 2. Polinomios en Diferencias Divididas.2. 1. 1.1. 1. Residual.6. Monoton´ıa.2. 1.5. 1. Dos Dimensiones.CAPITULO III INTERPOLACION.2. Polinomios de Newton-Gregory.2. Diferencias Divididas.3. Diferencias Adelantada.1.2.1. Trazadores C´ ubicos. 2. • Polinomios de Bessel. Datos Irregulares. Derivaci´ on.3. INTEGRACION.6. • Polinomios Regresivos. 1. Diagrama Romboidal. 1.3.5.1. 55 56 57 57 58 59 60 61 61 61 61 62 62 63 63 63 63 63 64 64 64 64 65 65 65 67 69 73 73 73 . 1.

81 3. inclusive puntos repetidos. Las diferencias divididas son proporcionales a las derivadas en su entorno. En la aproximaci´ on las funciones pasan aproximadamente por los puntos datos.1. Pueden haber abscisas repetidas.2.1. 76 2.2. alrededor de donde se desee interpolar. . .3. Esto se puede hacer de dos maneras: mediante el n´ umero de puntos o mediante la distancia de influencia a uno y otro lado del punto donde se vaya a interpolar. Integraci´ on M´ ultiple. Si el valor x est´a fuera del intervalo de los puntos entonces el proceso se denomina “Extrapolaci´on”. INTERPOLACION Sean (x0 . ni habiendo valores repetidos.2. 83 3. Se han usado dos criterios para hacer la interpolaci´ on lo m´ as consistente posible con los puntos discretos dados: Simetr´ıa y monoton´ıa. Series de Funciones Bases.2. En esta secci´on se ha desarrollado un algoritmo de interpolaci´ on usando los polinomios de Newton en diferencias divididas. (x1 . No puede haber puntos con abscisas repetidas.2. que conforman una nube de puntos. 86 En la interpolaci´ on las funciones usadas. 82 3. f (x2 )) hasta (xn . 75 2. 80 3. x3 . A este proceso se le denomina “Interpolaci´ on”.3. minimizando los errores en promedio cuadr´ atica.2. 79 3. APROXIMACION. Estos polinomios son adecuados para realizar estimaciones de la funci´ on y = f (x) para un valor x cualquiera perteneciente al intervalo [x0 . pasan por los puntos dados como datos. normalmente polinomios. 84 3.2.2. x1 . Datos Irregulares. Como se sabe. 76 2. M´etodo de Gauss-Newton.3. (x2 . Cuadratura de Gauss-Legendre. M´etodo de Levenberg-Marquardt. Evaluaci´ on.1. No Lineal. M´etodo del M´ aximo Descenso.1. En el caso de intervalos regulares una de las formas implica a la otra.3. Algoritmo de Romberg. El criterio de la monoton´ıa se basa en la definici´ on de monoton´ıa de una funci´ on: Una funci´ on se dice que es mon´otona hasta el orden m. 78 3.2. El criterio de la simetr´ıa consiste en escoger la distribuci´on de puntos lo m´ as sim´etricamente posible. 81 3. f (x0 )).2. . 78 3. 1. Polin´ omica. Extrapolaci´ on de Richardson. 75 2. existe un u ´ nico polinomio y = Pn (x) de grado n que pasa por los n + 1 puntos mencionados. estando los valores xi no necesariamente ordenados. xn ] que contiene a todos los puntos. Series de Polinomios. Lineal. .1. 75 2. 85 BIBLIOGRAFIA. por ello el criterio de monoton´ıa implica escoger hasta el mayor orden en las diferencias divididas que tengan igual signo.1.1. f (x1 )). en un determinado intervalo.1. x2 . si todas sus derivadas de hasta dicho orden conservan siempre su signo en dicho intervalo.2. f (xn )) los n + 1 puntos discretos que representan a una funci´ on y = f (x). La u ´ ltima diferencia dividida deber´ a tener signo opuesto a una o ambas de las 56 . pero no cuando los datos son irregulares o no est´ an ordenados.2.

El algoritmo tampoco necesita escoger un grado del polinomio anticipadamente.. que la funci´ on conserva la monoton´ıa deseada. . x1 . . . . como veremos en adelante. la diferencia dividida es invariante a cualquier permutaci´ on de sus argumentos. . en las diferencias divididas. El algoritmo antes explicado puede usarse para hacer interpolaciones en una o en varias dimensiones. . sin importar el orden en que est´an los valores xi dentro de una diferencia dividida. El algoritmo se resume de la siguiente manera: se escogen los puntos m´ as cercanos al punto donde se desee interpolar. durante el proceso de la interpolaci´on el algoritmo decide el grado del polinomio ´optimo que garantice satisfacer los criterios de simetr´ıa y monoton´ıa. f [xn . 1. En cualquier caso. x2 . Tambi´en permite la interpolaci´ on sin necesidad de pre-ordenar los puntos usados.d) . Los algoritmos explicados adelante se han utilizado. . Adem´as. x0 ] = f [x3 . el n´ umero de puntos se justifica al usar el criterio de la simetr´ıa. x0 ] = f [x0 . . y en el caso de que as´ı lo sean.c) f [x3 .1. x2 . x0 ] x2 − x0 (1.b) f [x2 . xn ] ∀n ∈ N (2) Esta propiedad. x1 ] − f [x2 . x1 . x0 ] = f [x2 . DATOS IRREGULARES Los datos discretos no necesariamente est´ an ordenados. Esta propiedad la hace adecuada para los c´ alculos. x1 . . x1 . el resultado es siempre el mismo. SEC. A esto es lo que denominamos datos irregulares. . Diferencias Divididas Las diferencias divididas [Carnahan et al. . xn−1 . por ejemplo. . x1 . . Luego la monoton´ıa elimina el orden innecesario. hasta que dicho n´ umero de puntos reflejen. xn−1 .a) f [x0 ] = f (x0 ) f [x1 . siguiendo el criterio de que el error de las interpolaciones debe ser menor que el de los valores discretos usados (segundo orden). x1 . . Dicho de otra forma concisa. 1. Los criterios de simetr´ıa y monoton´ıa se complementan para indicar que puntos y cuantos de ellos se deben usar en la interpolaci´ on. las distancias entre dos puntos consecutivos es constante. expresada para cualquier n. DATOS IRREGULARES 57 . x0 ] = f [xn . xn−2 . xn−1 . x1 ] − f [x1 .. x0 ] xn − x0 (1. . . La falta de monoton´ıa implica que pueden producirse oscilaciones indeseables de la funci´ on alrededor o entre los puntos dados. .1. xn−1 . . para encontrar el campo de velocidades y sus derivadas en todo el dominio del flujo. En varias dimensiones.e) Las diferencias divididas cumplen con la propiedad f [xn .1.1969] simbolizadas por f [ · ] se definen de manera recurrente de la siguiente forma (1. x0 ] x3 − x0 (1. lo que significa es que. en un n´ umero (o distancia) sim´etrica. basado en los valores de dicho campo en puntos discretos en el espacio. . . Durante el proceso de convergencia. el grado del polinomio ser´ a siempre una unidad menor que el n´ umero de puntos. lo u ´ nico que se exige es que los valores de las funciones sean siempre para los mismos y todos los valores discretos en cada dimensi´ on. 1. x1 . . x0 ] = f [x1 ] − f [x0 ] x1 − x0 (1. apenas se ha usado interpolaciones parab´ olicas (tres puntos en cada direcci´ on) para agilizar los tiempos de ejecuci´on. x1 ] − f [xn−1 .FUNDAMENTOS diferencias divididas vecinas.1. Se ha escogido interpolaciones polin´omicas de hasta cuarto grado (cinco puntos en cada direcci´on espacial) para hacer las interpolaciones. x2 .

x1 . Esta forma sim´etrica puede ser escrita de manera compacta como f [x0 . f (x0 )). x3 . . . (x2 . es lo que se denomina el Diagrama Romboidal de diferencias divididas. GRANADOS METODOS NUMERICOS Una forma de expresar todas las diferencias divididas posibles de generar mediante. por ejemplo. . x2 . x1 ] f [x1 . x1 . x2 . x4 ] (3) Se puede observar que para obtener cualquier diferencia dividida en un v´ertice de un tri´angulo imaginario. f (x2 )). x3 . x2 ] f [x2 . basta con restar las diferencias divididas contiguas y dividirla entre la resta de los valores extremos de x de la base de dicho tri´ angulo. x3 ] f [x3 . f (x3 )) y (x4 . f (x4 )). x3 ] f [x2 . (x3 . x2 ] f [x1 . x4 ] f [x0 . Para el ejemplo propuesto se tiene que el diagrama romboidal se representa como x0 f [x0 ] x1 f [x1 ] x2 f [x2 ] x3 f [x3 ] x4 f [x4 ] f [x0 . x4 ] f [x0 . (x1 . x3 . xk−1 . x1 . en t´ermino de los argumentos xi y de los valores funcionales f (xi ). x2 . Manipulaci´ on algebra´ıca de la diferencias de o´rdenes crecientes conlleva. . xk ] = k . mediante inducci´ on. un conjunto de cuatro puntos (x0 . f (x1 ). x3 ] f [x1 . a una forma sim´etrica similar para la k-´esima diferencia dividida. no necesariamente ordenados. x1 . x2 . x2 .A. x4 ] f [x0 .

. 1.2. permiten hacer estimaciones de la funci´on y = f (x) de puntos intermedios (o estrapolaciones en puntos extramedios) en la forma f (x) = Pn (x) + Rn (x) (5) donde Pn (x) es el polinomio de grado n Pn (x) =f [x0 ] + (x − x0 ) f [x0 . x2 ] + · · · + (x − x0 )(x − x1 )(x − x2 ) · · · (x − xn−1 ) f [x0 . i=0 f (xi ) k  (4) (xi − xj ) j=0 j=i Substituir esta expresi´on (4) en los polinomios de Newton en diferencias divididas (6..(1)-(2).2. x2 . .b) luego. . no conlleva directamente a los polinomios de Lagrange 1. x1 ] + (x − x0 )(x − x1 ) f [x0 . xn−1 . como se dijo antes. como veremos m´ as adelante. . x1 . Los polinomios de Newton Pn (x) de grado n en diferencias divididas [Carnahan et al.1.1969]. x1 . Polinomios en Diferencias Divididas Estos polinomios se les conoce como polinomios de Newton en diferencias divididas. xn ] = n k−1 .

. xn ] INTERPOLACION.a) j=0 = n  (x − xj ) j=0 58 f (n+1) (ξ) (n + 1)! ξ ∈ [x0 . . xk ] (6) k=0 j=0 y la funci´ on Rn (x) es el error cometido en la interpolaci´ on Rn (x) = n  (x − xj ) f [x0 . x1 . xn . x] (7. . . .  (x − xj ) f [x0 . xk−1 . .III . xn−1 . x1 . x2 . xn−1 . . .b) CAP. . . x1 . . . INTEGRACION Y APROXIMACION (7. x2 .

b. como en el caso del polinomio de Lagrange. o sea que tiene n + 2 ra´ıces en el intevalo m´ as peque˜ no que contenga x y los n + 1 puntos base x0 . Q(t) = 0.3. se observa que Q (t) debe tener n ra´ıces.. xn }. . . 1. si f (a) = f (b). Naturalmente Rn (xi ) = 0 para i = 1. . . . 1. . Es decir. xn−1 . que si es positiva es abierta hacia arriba y si es negativa es abierta hacia abajo. n.2. f (a)). . xn . f (c)) P2 (x) = f [a] + (x − a)f [a. . etc. Q (t). x] = f [x0 . xn−1 . x2 . b] + (x − a)(x − b)f [a. . de que se pueden aplicar f´ acilmente los criterios de interpolaci´ on sin tener que pre-ordenar los datos. .1. x1 . xn ] + (x − xn ) f [x0 . xn . Derivando la expresi´on (11) n + 1 veces. f (b)) y (c. Consideremos las f´ ormulas (5). Cuando el l´ımite superior de una productoria es menor que el l´ımite inferior. . . xn−1 . entonces existe por lo menos un punto ξ. x] y luego mediante inducci´ on f [x0 . Un ejemplo sencillo es la par´abola que pasa por los tres puntos (a. f (xi )). siendo a < ξ < b.a) fundamentales de Newton f (x) = Pn (x) + Rn (x) = Pn (x) +  n  (x − xi ) G(x) (9) i=0 con G(x) = f [x0 . . Sea f (x) una funci´ on continua en el intervalo a ≤ x ≤ b y diferenciable en a < x < b. x]. . El teorema exige que la funci´on Q (t) se anule por lo menos n + 1 veces en intervalo de los puntos base. Sea dicho punto t = ξ. Residual A continuaci´ on se har´ a la deducci´ on de la expresi´on (7.. y al agregar datos nuevos cercanos a la interpolaci´ on que no estaban antes. si f (t) es continua y convenientemente diferenciable. . . . y cuando t = x tambi´en Q(t) = 0. xn−1 . x1 . se obtiene Q(n+1) (t) = f (n+1) (t) − Pn(n+1) (t) − (n + 1)! G(x) SEC. . x] (10) on de orden n dado por (6) y Rn (x) es el t´ermino residual o en la cual Pn (x) es el polinomio de interpolaci´ residuo (7.2. i = 0.. 3. c] (8) donde f [a. . xn . tal que Q(t) = f (t) − Pn (t) −  n  (t − xi ) G(x) (11) i=0 Cuando t = xi .FUNDAMENTOS siendo ξ el valor comprendido entre el menor y mayor de los valores {x0 . el resultado de dicha productoria es la unidad. (6) y (7. . se le puede aplicar el siguiente teorema: Teorema 1. . ya que el polinomio pasa por cada uno de los puntos (xi . en general Rn (x) = 0. (Teorema de Rolle). DATOS IRREGULARES (12) 59 . .1. 1. x1 . . .4. n − 1 ra´ıces. b] es la pendiente de recta entre los puntos a y b y f [a. . y que Q(n+1) (t) debe anularse por lo menos una vez en el intervalo que contenga los puntos bases. . xn−1 . . x1 . n. Aplicando el teorema repetidamente a las derivadas de orden superior. xn−1 .3. (b. En general.2 y abiertos secciones I. justificada adelante.b) para Rn (x) [Carnahan et al. para el cual f  (ξ) = 0. Rn (xi ) = 0.2 y I. . 2. xn−1 . . Para los puntos que forman la base de datos x0 .1969]. ni ser´an regulares.5. sin tener que armar todo el polinomio de interpolaci´ on otra vez. c] es la curvatura de la par´ abola. . x1 .a) y G(x) es el cociente incremental que incluye x de orden n + 1 y que es deconocido. xn . Al final se usan los polinomios en diferencias divididas por la raz´ on adicional. Esto. La expresi´on (6)-(7. . . b. pero para cualquier otro punto. que la funci´on Q(t) se anula n + 2 veces. los datos utilizados en interpolaci´ on no estar´ an ordenados. Esta par´ abola ya se ha usado antes en los m´etodos de segundo orden cerrados secci´on I. .5. ya que el t´ermino de la derecha de (11) desaparece (v´ease (6)). x1 . . .1. como ocurre con el primer t´ermino de (6). . Consideremos por otro lado una nueva funci´ on Q(t).a) se obtiene de tomar inicialmente f [x] = f [x0 ]+ (x− x0 ) f [x0 . 2. x1 .

la expresi´ on (14) es de poca x0 .1969] Pn (x) = n . x] (13) o sea que se justifica (7. ya que f (ξ) no se puede determinar. para t = ξ se satisface ξ ∈ [x0 . entonces (14) es u ´til para establecer una cota superior al error. . Por el contrario.. x1 . y por tanto. .b). . . x1 . agregando uno o m´ as puntos adicionales al c´alculo. . POLINOMIOS DE LAGRANGE Los polinomios de Lagrange [Hildebrand. si f (x) se conoce de forma anal´ıtica. xn−1 .2. GRANADOS METODOS NUMERICOS (n+1) Pero Pn (t) es un polinomio de grado n. xn−1 . x1 . 1. Si la funci´ (n+1) utilidad. xn .1956] son otra forma de expresar los mismos polinomios Pn (x) de la ecuaci´on (7). cuando x est´a en el intervalo base (interpolaci´ on) y Rn (x) = n  j=0 (x − xj ) f (n+1) (ξ) (n + 1)! ξ ∈ [x0 . x] (14) El valor de ξ es desconocido. xn−1 . se puede usar la diferencia dividida del mismo orden que la derivada para tener un valor estimativo del error. .A. salvo que se conoce que est´a contenido en el intervalo formado por x y los valores on f (x) se describe s´olamente de forma tabular. . . . pero a trav´es de (4). xn . No obstante. . . . de modo que Pn G(x) = f (n+1) (ξ) (n + 1)! (t) = 0. xn . De manera que se tiene [Carnahan et al.

y hay que calcular todo de nuevo. para aumentar el grado del polinomio en una unidad. Cada valor funcional f (xi ) incluido en la expresi´on (1) es multiplicado por Li (x). el cual comparado con el valor exacto de ln(0.60. 3.60) = 23 .916291 −0.5108256 muestra un desviaci´ on global igual a 0. donde para aumentar un grado al polinomio.693147 −0. Este inconveniente no lo presenta los polinomios de Newton. Por ello reciben el nombre de multiplicadores de Lagrange.60) = L0 (0.60) = − 61 .1. 2. 60 INTERPOLACION.III .60) f (x1 ) + L2 (0. Dada la tabla de valores xi 0.80 f (xi ) −0.000918.223144 Datos estimar el valor de ln 0. Por lo que L0 (0.60) = −0. 4: L1 (0.60) f (x2 ) + L3 (0.60) = −0.60) f (x3 ) Sustituyendo. INTEGRACION Y APROXIMACION CAP. EJEMPLO: Sea la funcion f (x) = ln x. s´ olo hay que agregar un punto y calcular un t´ermino adicional (sumas). L2 (0.60 es P3 (0.70 0. Li (x) f (xi ) (1) i=0 donde Li (x) = n  (x − xj ) (xi − xj ) j=0 (2) j=i El error Rn (x) contin´ ua siendo el mismo que la expresi´on 1.60) f (x0 ) + L1 (0.5099075. y todos los c´alculos anteriores siguen sirviendo.40 0. se obtiene que la interpolaci´ on del ln 0. P3 (0.60) = − 61 . que son todos polinomios de grado n. L3 (0.356675 −0. implica el proceso engorroso de agregar un factor adicional a cada multiplicador (productos).(7).50 0. Un incoveniente que tienen los polinomios de Lagrange es que. Evaluando los coeficientes de Lagrange para i = 1.60) = 23 .

FUNDAMENTOS

1.3. DATOS REGULARES
Cuando se tienen datos regulares, estos deber´
an est´
ar ordenados en la variable independiente x. Por
lo que dos puntos consecutivos se distancian en x en un valor constante que designaremos con la letra h.
Es decir, h = xi − xi−1 = xi+1 − xi constante para todo i, sin importar si es positivo (datos crecientes) o
negativo (datos decrecientes).
1.3.1. Diferencias Adelantadas
Las diferencias adelantadas se obtienen con el mismo procedimiento que las diferencias divididas, s´
olo
que no se dividen.
Para intervalos regulales en x, donde los xi est´an ordenados, se define la diferencia adelantada ∆k fi ,
tal que
(1)
∆k fi = k! hk f [xi , xi+1 , xi+2 , . . . , xi+k−1 , xi+k ]
donde h es el tama˜
no del intervalo en x consecutivos (h = xi+1 − xi ). Se ordenan de forma romboidal al
igual que antes, s´
olo que como no son divididas, por ello el factor k! hk .
1.3.2. Polinomios de Newton-Gregory
Para intervalos regulares, el polinomio de Newton en diferencias divididas 1.1.(6) se convierte en
Pn (x) =

n  

s
k=0

k

∆k f0

(2)

denominado polinomio de Newton-Gregory progresivo y donde el n´
umero combinatorio significa 

Γ(s + 1)
s
=
k
Γ(s − k + 1) Γ(k + 1)

s=

x − x0
h

(3)

Particularmente, Γ(k + 1) = k! por ser k un entero positivo y, aunque la funci´
on Γ(s) no es un factorial
siempre, se satisface Γ(s + 1)/Γ(s − k + 1) = s(s − 1)(s − 2) . . . (s − k + 1) [Gerald,1970]. La expresi´on (2) se
ha obtenido de substituir 

k−1 

Γ(s + 1)
s
= k! hk
(x − xj ) = hk
(4)
k
Γ(s − k + 1)
j=0

y (1), despejada en f [ · ] para i = 0, en 1.1.(6).
Para intervalos regulares, el error 1.1.(7) se convierte en 

Rn (x) =

s
n+1 

hn+1 f (n+1) (ξ)

ξ ∈ [x0 , x1 , . . . , xn−1 , xn , x]

(5)

teniendo ξ el mismo significado que antes. Los polinomios para intervalos regulares se muestran aqu´ı s´olo
como caso particular. Aunque es muy dif´ıcil o poco pr´
actico conseguir los datos ordenados regularmente
siempre.
1.3.3. Diagrama Romboidal
Al igual que en 1.1.(3), las diferencias adelantadas se pueden ordenar de forma tabular, siguiendo un
ordenamiento romboidal, insertando en las caras de los rombos los n´
umeros combinatorios correspondientes,
de la forma indicada en el diagrama de abajo.
Si se hace un recorrido del diagrama de izquierda a derecha: Al bajar la diferencia se multiplica por
el n´
umero combinatorio de arriba. Al subir la diferencia se multiplica por el n´
umero combinatorio de abajo.
Al hacer un recorrido horizontal la diferencia se multiplica por la semisuma de los n´
umeros combinatorios o
el n´
umero combinatorio se multiplica por la semisuma de las diferencias.
SEC. 1.3. DATOS REGULARES

61

A. GRANADOS

METODOS NUMERICOS

Figura. Diagrama Romboidal para la interpolaci´
on en datos regulares. 
Progresivo  Regresivo Zig − Zag Gauss → Stirling y0 → Bessel y0 y1 .
Los n´
umeros combinatorios en las caras de los rombos cumplen con la regla SE+PC=NE (SE=sureste,
PC=central, NE=noreste). Las diferencias en los v´ertices de los rombos cumplen con la regla SW+VC=NW
(SW=suroeste, VC=central, NW=noroeste) .
Sea la primera columna a la izquierda de los valores funcionales del diagrama romboidal la base de
un tri´
angulo isosceles, cuyos lados iguales son la diagonal descendente y diagonal ascendente de diferencias,
que se intersectan en el v´ertice a la derecha de mayor orden. Siempre que se comience en la base y se haga
cualquier recorrido del diagrama romboidal, sin salir del mencionado tri´
angulo is´
osceles, llegando al v´ertice
de mayor orden, el polinomio de interpolaci´
on ser´
a siempre el mismo.
• Polinomios Regresivos
Se hace una recorrido del diagrama romboidal siguiendo una diagonal ascendente se obtiene el polinomio
de Newton-Gregory regresivo. Son progresivos si se sigue un recorrido descendente como en la secci´
on 1.3.2.
• Polinomios de Gauss
Si se sigue un recorrido del diagrama romboidal en zig-zag se denomina polinomios de Gauss. Progresivo
si comienza subiendo o regresivo si comienza bajando.
62

INTERPOLACION, INTEGRACION Y APROXIMACION

CAP.III

xn−1 . en un determinado intervalo.4. Para hacer eficientemente la interpolaci´ on se han usado dos criterios que hacen de ´esta la m´as consistente posible con los puntos discretos dados. permiten determinar el grado del polinomio o´ptimo a utilizar durante una interpolaci´ on. una funci´ on continua f (x) es mon´otona de orden m en un intervalo [a. el criterio de monoton´ıa implica escoger hasta el mayor orden en las diferencias divididas que tengan igual signo por columna en el diagrama romboidal. Esto se puede hacer de dos maneras: mediante el n´ umero de puntos o mediante la distancia de influencia.1. 1. la par´ abola tiene monoton´ıa de orden 2 en los intervalos (−∞. ∞). xn . junto con el u ´ltimo punto que la origin´ o.4. deber´ a tener signo opuesto a todas las dem´as diferencias divididas SEC. . La u ´ltima diferencia dividida a evita a partir de aqu´ı. si f  (x) = 0 f  (x) = 0 f  (x) = 0 ··· f (m) (x) = 0 f (m+1) (x) = 0 para todo x ∈ [a. xn−1 . En cualquier caso. b] (16) En el ejemplo mostrado en (9). . El criterio de simetr´ıa tiene otra ventaja. y entonces se hace necesario en su lugar seguir el criterio de proximidad. el n´ umero de puntos pr´ oximos lo determina el criterio de monoton´ıa descrito abajo.4. Luego se formula como se acoplan en el algorithm. Monoton´ıa El criterio de la monoton´ıa se basa en la definici´ on de monoton´ıa de una funci´ on: Una funci´ on se dice que es mon´otona hasta el orden m. 1. usando inclusive el mismo n´ umero de puntos.1. si se desea alcanzar un mayor orden de monoton´ıa como se explica abajo. 1. v) y (v. • Polinomios de Bessel Si se hace un recorrido horizontal del diagrama romboidal comenzando entre y0 y y1 se denomina polinomios de Bessel. b]/f [a.b) f [x0 . 1. . . x1 . . En el caso de intervalos irregulares. x] = f (n+1) (ξ) (n + 1)! ξ ∈ [x0 . . en los esquemas de diferencias finitas centradas las formulaciones presentan un menor error. x1 . CRITERIOS DE INTERPOLACION 63 . . aplicados en conjunto. tal como lo indica la siguiente relaci´on reflejada en 1.FUNDAMENTOS • Polinomios de Stirling Si se hace un recorrido horizontal del diagrama romboidal comenzando en y0 se denomina polinomio de Stirling. x2 . b]. CRITERIOS DE INTERPOLACION Se ha desarrollado un algoritmo de interpolaci´ on usando los polinomios de Newton en diferencias divididas. En los extremos del intervalo que contiene a los puntos. si todas sus derivadas de hasta dicho orden conservan siempre su signo en dicho intervalo. la segunda opci´ on se convierte en un criterio de Proximidad. Estos criterios son el de Simetr´ıa y el de Monoton´ıa. a uno y otro lado del punto donde se vaya a interpolar. donde v = 2 { a + b − f [a. que cuando no lo son. . xn .2.4. En otras palabras. 1 separadamente. En el caso de intervalos regulares una de las formas implica a la otra. a veces es imposible seguir el criterio de simetr´ıa de forma estricta. x] (17) Por ello. alrededor de donde se desee interpolar. b. Las diferencias divididas son proporcionales a las derivadas en su entorno. c] } es la localizaci´on del v´ertice de dicha par´abola. b] para alg´ un x ∈ [a. Estos criterios. A continuaci´ on se describen los dos criterios utilizados en el algoritmo: simetr´ıa y monoton´ıa. Por ejemplo. Simetr´ıa El criterio de la simetr´ıa consiste en escoger la distribuci´on de puntos lo m´ as sim´etricamente posible.(7.

En varias dimensiones lo u ´ nico que se exige es que los valores de las funciones sean siempre para los mismos y todos los puntos discretos en cada dimensi´on. con i = 0. El algoritmo decide el grado del polinomio o´ptimo que garantice satisfacer los criterios de simetr´ıa y monoton´ıa. nz − 1. .2. Tres Dimensiones El algoritmo para la interpolaci´ on en tres dimensiones para la funci´ on discreta tijk = t(xi . INTEGRACION Y APROXIMACION CAP. por el criterio de la simetr´ıa. GRANADOS METODOS NUMERICOS vecinas del mismo orden (misma columna).3. . Entre m´ as parecidas sean las monoton´ıas de la funci´ on discreta y el polinomio de interpolaci´ on. nx − 1 • Para j = 0. y∗ ) de la funci´ on z(x. . . . 1. zk ). .5. lo que da como resultado el valor deseado z∗ = z(x∗ . La falta de monoton´ıa en las interpolaciones implica que pueden producirse oscilaciones indeseables de la funci´on alrededor o entre los puntos dados. . en un n´ umero (distancia) sim´etrico (pr´ oxima). . Algor´ıtmo Los criterios de simetr´ıa y monoton´ıa se complementan para indicar cuales puntos y el n´ umero de ellos se deben usar en la interpolaci´ on. nz − 1 en z. .5. . . . 64 INTERPOLACION. • Siguiente i. . las interpolaciones en las superficies paralelas se realizan como en funciones de dos variables. y) en la curva que pasa por y∗ y est´a parametrizada con los valores xi . • Para j = 0. . . Tambi´en permite la interpolaci´ on sin necesidad de pre-ordenar los puntos usados o pre escoger su n´ umero. el grado del polinomio ser´ a siempre una unidad menor que el n´ umero de puntos usados.1.5. yj ). . yj . lo que dan los valores interpolados ζi = ζ(xi ) = z(xi . conserve el m´ aximo orden posible de monoton´ıa del polinomio de interpolaci´ on igual que el de la funci´ on discreta. no existe inconveniente en dejarlo (no recomendado). Dos Dimensiones El algoritmo para la interpolaci´ on en dos dimensiones para la funci´ on discreta zij = z(xi . Como el u ´ltimo punto agregado es el m´as lejano. uno a uno (calculando cada vez las diferencias divididas de la diagonal incluido el v´ertice). . j = 0. . . con i = 0. 1. reflejado en las diferencias divididas. . se describe de forma estructurada a continuaci´on: • Para k = 0. INTERPOLACION ESPACIAL Las interpolaciones con funciones dependientes de m´ as de una variable se hacen mediante el mismo algoritmo de interpolaci´ on en una variable.4. El algoritmo antes explicado puede usarse para hacer interpolaciones en una o en varias dimensiones. y∗ ). ny − 1 en y. Esto significa que el criterio de la monoton´ıa acepta polinomios de interpolaci´ on hasta el grado m. • Finalmente se interpola en el punto x∗ con los valores ζi = ζ(xi ). . y a su vez. ya que los c´alculos est´an hechos y son del u ´ ltimo orden en el error. El algoritmo se resume de la siguiente manera: se escogen los puntos m´as cercanos al punto donde se desee interpolar. .III . repetido varias veces en curvas (dos dimensiones) o superficies paralelas (tres dimensiones). nx − 1 en x. . . nx − 1. . . 1. yj ) • Siguiente j • Para cada curva i se interpola en el punto y∗ con los valores de ηi (yj ). . durante el proceso de la interpolaci´ on. ny − 1 • Se asigna ηi (yj ) = zij = z(xi . . ny − 1. . • Para i = 0. 1.A. ny − 1 en y y k = 0. . En cualquier caso. . El algoritmo tampoco necesita escoger un grado del polinomio anticipadamente. . . . se describe de forma estructurada a continuaci´ on: • Para i = 0. en esa misma medida la interpolaci´ on ser´ a m´as consistente. . . . nx − 1 en x y j = 0. . hasta que dicho n´ umero de puntos. . .

. 2. Siguiente i. . zk ). z∗ ). lo que dan los valores interpolados ζk = ζ(zk ) = t(x∗ . • Finalmente se interpola en el punto z∗ con los valores ζk = ζ(zk ). lo que da como resultado el valor deseado t∗ = t(x∗ . . al conjunto de n − 1 polinomios de orden m y = yi + m . y∗ ) y est´a parametrizada con los valores zk . i = 1. y∗ . y∗ ) con los valores de ηk (xi . TRAZADORES Dado un comjunto de n puntos (xi . yj ) = tijk = t(xi . yj ).FUNDAMENTOS • Se asigna ηk (xi . 1. zk ) de la funci´ on t(x. z) en la curva que pasa por (x∗ . y. yi ).6. . • Para cada superficie k se interpola en dos dimensiones en el punto (x∗ . n. se denominan trazadores (splines). 3. Para mayores dimensiones se sigue la misma pr´ actica de apoyar el algoritmo en algoritmos para dimensiones menores. y∗ . yj . • Siguiente j. • Siguiente k.

6. y ( m − 1) en todo el dominio [x1 .1. Trazadores Parab´ olicos (m = 2) Sea y = yi + bi (x − xi ) + ci (x − xi )2 (5) un polinomio de segundo grado. TRAZADORES pi = yi (7) 65 .2.6. Si tenemos en cuenta que el tama˜ no del intervalo [xi . xi+1 ) (1) j=1 con coeficientes aij . . Trazadores Rectil´ıneos (m = 1) Sea y = yi + bi (x − xi ) (2) un polinomio de primer orden que pasa por los puntos (xi . 1. Si tenemos en cuenta que el tama˜ no del intervalo [xi . Sean y  = 2 ci y  = bi + 2 ci (x − xi ) (6) la primera y segunda derivadas del polinomio respectivo. yi+1 ). xn ]. xi+1 ) es hi = xi+1 − xi y llamamos a pi a la primera derivada y  evaluada en xi .6. . yi ) y (xi+1 . que pasa por los puntos (xi . y  . aij (x − xi )j x ∈ [xi . tales que garanticen la continuidad de la funci´ on y y de sus derivadas y  . yi ) y (xi+1 . 1. La funci´ on y  de primera derivada representa yna funci´ on escalonada que por supuesto no es continua. lo cual est´a de acuerdo con la definici´on de los trazadores polin´ omicos de orden m = 1. xi+1 ) es hi = xi+1 − xi . entonces yi+1 = yi + bi hi De esta expresi´on se obtiene que bi = (3) yi+1 − yi hi (4) Es obvio que el comjunto de trazadores rectil´ıneos hallados de esta forma garantizan la continuidad de la funci´ on y en todo el dominio [x1 . xn ]. esto es hi = xi+1 − xi SEC. y  .. 1. yi+1 ). .

INTEGRACION Y APROXIMACION CAP. .. finalmente se obtiene  pi + pi+1 = 2 yi+1 − yi hi  (11) Esta ecuaci´on se puede aplicar s´olo para los puntos x2 .   n n−1  1 1   pn−1  hn−1 Un Vn Wn pn Tn donde V1 = −1 Vn = −1 a:) U1 = 1 Un = 0 b:) U1 = −h2 Un = −hn−1 W1 = 0 Wn = 1 V1 = h1 + h2 Vn = hn−2 + hn−1 T1 = 0 Tn = 0 W1 = −h1 Wn = −hn−2 T1 = 0 Tn = 0 Aplicando un proceso de eliminaci´on. se puede lograr eliminar algunos t´erminos y as´ı convertir el sistema de ecuaciones en bidiagonal.. .    y −y. Esto significa que s´olamente puede aplicarse una de las condiciones nombradas anteriormente para un extremo y el otro extremo debe quedar libre.   . ...III .   . . . los coeficientes bi y ci de ben cumplir con las siguientes condiciones yi+1 = yi + bi hi + ci h2i pi = b i De estas relaciones se obtiene que b i = pi ci = pi+1 = bi + 2 ci hi pi+1 − pi 2 hi (8) (9) on de los Pi en la expresi´on de yi+1 . . .     . . n      T1 p1 U1 V1 W1 y3 −y2      p2  1 1 2   y h−y    4 3      p3  1 1   h3       .  .     . para que el polinomio parab´ olico pase por los puntos (xi . x3 .     . GRANADOS METODOS NUMERICOS entonces. 2. queda Si ahora substituimos bi y ci en funci´  yi+1 = yi + pi hi + pi+1 − pi 2 hi  h2i (10) Rorganizando esta ecuaci´on. . Como se dabe.  (14)   . . sin condici´on.. yi+1 ). . yi ) y (xi+1 . .  . Para los puntos extremos x1 y xn se puede asumir cualquiera de las siguientes condiciones: a:) Los polinomios en los intervalos 1 y n son rectas p1 − p2 = 0 pn−1 − pn = 0 (12) b:) Los polinomios en los intervalos 1 y n son par´ abolas p2 − p1 p3 − p2 = h1 h2 −h2 p1 + (h1 + h2 ) p2 − h1 p3 = 0 pn − pn−1 pn−1 − pn−2 = hn−1 hn−2 − hn−1 pn−2 + (hn−2 + hn−1 ) pn−1 − hn−2 pn = 0 (13) Con todas estas ecuaciones se obtiene el siguiente sitemas de n ecuaciones lineales con n incognitas pi i = 1. xn−1 . un sistema de ecuaciones as´ı puede ser resuelto por substituci´on progresiva o regresiva. Una vez halladas las inc´ ognitas 66 INTERPOLACION..A. 3. . .  = 2  . .

lo cual est´a de acuerdo con la definici´on de los trazadores polin´ omicos de orden m = 2. 1. xn ) por lo cual se hace necesario obtener puntos adicionales para una mejor representaci´on de la funci´ f (x). fi ) se desea construir la curva de la funci´on f (x) en el intervalo on (x1 . yi ) y (xi+1 . di son validas unicamente en el sub-intervalo [xi . TRAZADORES yi+1 − yi hi (2 si + si+1 ) − hi 6 ci = si 2 di = si+1 − si 6 hi (19) 67 .3. La funci´ on y  de segunda derivada representa una funci´on escalonada que por supuesto no es continua. ci . para que el polinomio c´ ubico pase por los puntos (xi . Dado un conjunto de puntos (xi . segunda y tercera derivadas del polinomio respectivo. se pueden calcular los coeficientes de los trazadores usando la expresi´ on (9). estas expresiones son denominadas curva especiales. xn ]. ya que es muy u ´til al momento de desarrollar algoritmos para el dibujo asistido por computador. Dado un sub-intervalo [xi .6. esto es hi = xi+1 − xi pi = yi si = yi (17) entonces. 1. El polinomio de tercer grado pasa por los puntos (xi . yi ) y (xi+1 . xi+1 ) es hi = xi+1 − xi y llamamos pi y si a la primera derivada y  y a la segunda derivada y  . yi+1 ). ci y di deben cumplir con las siguientes condiciones yi+1 = yi + bi hi + ci h2i + di h3i pi = b i pi+1 = bi + 2 ci hi + 3 di h2i si = 2 ci si+1 = 2 ci + 6 di hi (18) De estas relaciones se obtienen que bi = SEC. Si tenemos en cuenta que el tama no del intervalo [xi .6. Una de las metodolog´ıas existentes es la de utilizar polinomios a trozos en cada sub-intervalo garantizando continuidad de la funci´ on y sus derivadas en los extremos de los sub-intervalos. en su primera y segunda derivadas. respectivamente evaluadas en xi . xi+1 ) se propone un polinomio c´ ubico de la forma f (x) = yi + bi (x − xi ) + ci (x − xi )2 + di (x − xi )3 (15) donde las contantes bi . los coeficientes bi . xi+1 ).FUNDAMENTOS pi . yi+1 ). De acuerdo a esto los primeros yu ´ ltimos coeficientes de la matriz cambian a a:) U1 = 1 V1 = 0 W1 = 0 T1 = y2 −y1 2 h1 Un = 0 Vn = 0 Wn = 1 Tn = yn −yn−1 2 hn−1 U1 = 1 V1 = 0 W1 = 0 T1 = (2h1 +h2 ) 2h 1 −h1 1 2 (h1 +h2 ) y −y b:) (2hn−1 +hn−2 ) y3 −y2 h2 yn −yn−1 h −hn−1 yn−1 −yn−2 h n−1 n−2 Un = 0 Vn = 0 Wn = 1 Tn = Es obvio que el 2 (hn−1 +hn−2 ) conjunto de trazadores parab´ olicos hallados de esta forma garantizan la continuidad de la funci´ on y y su primera derivada y  en todo el dominio [x1 . Sean y  = bi + 2 ci (x − xi ) + 3 di (x − xi )2 y  = 2 ci + 6 di (x − xi ) y  (16) = 6 di la primera. Trazadores C´ ubicos (m = 3) La interpolaci´ on num´erica no debe ser solo vista como una herramienta para c´alculo sino tambi´en como una herramienta para el dibujante moderno. dado que el polinomio c´ ubico admite continuidad en el valor de la funci´ on.

. deben ser las mismas pi = bi = bi−1 + 2 ci−1 hi−1 + 3 di−1 h2i−1 (20) Si ahora substituimos bi . .7). 2.       . al imponer la condici´on de continuidad de la primera derivada se.. INTEGRACION Y APROXIMACION CAP.. xi+1 ) y usando un polinomio v´ alido para el intervalo [xi−1 . xn−1 .    yn −yn−1 − yn−1 −yn−2 hn−2 2(hn−2 + hn−1 ) hn−1   sn−1  hn−1 hn−2 sn Un Vn Wn Tn =             (23) donde a:) U1 = 1 V1 = 0 W1 = 0 T1 = 0 Vn = 0 Wn = 1 Tn = 0 Un = 0 b:) U1 = 1 V1 = −1 W1 = 0 T1 = 0 Vn = −1 Wn = 1 Tn = 0 Un = 0 V1 = h1 + h2 W1 = −h1 T1 = 0 c:) U1 = −h2 Un = −hn−1 Vn = hn−2 + hn−1 Wn = −hn−2 Tn = 0 Aplicando un proceso de eliminaci´on. .    . . n.  . .  . . x3 . see puede lograr eliminar algunos t´erminos y as´ı convertir el sistema de ecuaciones en tridiagonal. es decir. y el mismo puede ser resuelto utilizando el algoritmo de Thomas. .III . . . El sistema de ecuaciones lineales planteado se muestra a continuaci´ on     T1 U1 V1 W1 s1 y3 −y2 1  − y2h−y   s2   h1 2(h1 + h2 ) h2 h2 1     y4 −y3 y3 −y2  − h2   s3   h2 2(h2 + h3 ) h3  h3  .. bi−1 . finalmente se obtiene  hi−1 si−1 + 2 (hi−1 + hi ) si + hi si+1 = 6 yi+1 + yi yi − yi−1 − hi hi−1  (22) Esta ecuaci´on se puede aplicar s´olo para los puntos x2 .. Como se sabe un sistema de ecuaciones as´ı puede ser resuelto utilizando el algoritmo de Thomas (secci´on II.  = 6   . Una vez halladas las inc´ ognitas si . . GRANADOS METODOS NUMERICOS La derivadas en el punto xi usando un polinomio v´ alido en el intervalo [xi . 68 INTERPOLACION. ci−1 y di−1 en funci´ on de los yi y si en la expresi´on de pi anterior. . los extremos son puntos de inflexi´ on sn = 0 s1 = 0 b:) Los polinomios en los intervalos 1 y n son par´ abolas (d1 = dn−1 = 0) s1 − s2 = 0 sn−1 − sn = 0 c:) Los polinomios en los intervalos 1 y n son c´ ubicas “condici´ on natural” (d1 = d2 .   . .. Para los puntos x1 y xn se pueden asumir cualquiera de las siguientes condiciones: a:) Los polinomios en los intervalos 1 y n se empalman con rectas. dn−2 = dn−1 ) s2 − s 1 s3 − s2 = h1 h2 −h2 s1 + (h1 + h2 ) s2 − h1 s3 = 0 sn − sn−1 sn−1 − sn−2 = hn−1 hn−2 − hn−1 sn−2 + (hn−2 + hn−1 ) sn−1 − hn−2 sn = 0 Estas expresiones representan un sistema de ecuaciones lineales tridiagonal para las incognitas si . . i 1.. se pueden calcular los coeficientes de los trazadores c´ ubicos con las expresiones (19).1... obtiene la siguiente expresi´ on     si−1 si − si−1 yi − yi−1 yi+1 − yi hi (2si + si+1 ) hi−1 (2si−1 + si ) = +2 − − h2i−1 (21) hi−1 + 3 hi 6 hi−1 6 2 6 hi−1 Reorganizando esta ecuaci´on. xi ).    .    ..A.1.   .

25 0.604 0. 0.0261 1.53].3. entonces U1 = 0 y ya no se puede aplicar el algoritmo de Thomas.6708 0.8226 s4 = −1.FUNDAMENTOS De acuerdo a esto entonces los coeficientes cambian a c:) U 1 = h1 − h2 Un = 0 V1 = 2h1 + h2  W1 = 0 T1 = h1 h1 +h2 y3 −y2 h2 − y2 −y1 h1  Vn = hn−2 + 2hn−1 Wn = hn−1 − hn−2   hn−1 yn −yn−1 yn−1 −yn−2 Tn = hn−2 +hn−1 − hn−1 hn−2 Es obvio que el conjunto de trazadores c´ ubicos hallados de esta forma garantizan la continuidad de la funci´ on y.09 h3 = 0.5000 0.06s3 + 0. siguiendo las reglas dictadas al final de la secci´ on 1.06 h4 = 0. Bas´andonos en esto se obtiene V1 = h1 W1 = 0 c:) U1 = −h1  y4 −y3 y3 −y2  y3 −y2 y −y − h − 2h 1 h21 h3 h2 2 1 T1 = h1 +h2 +h3 − h2 +h3 h1 +h2 Vn = hn−1 Wn = −hn−1  yn −yn−1 yn−1 −yn−2 Un = 0 Tn = h2n−1 hn−3 +hn−2 +hn−1 hn−1 − hn−2 hn−2 +hn−1 − yn−1 −yn−2 hn−2 − yn−2 −yn−3 hn−3  hn−3 +hn−2 EJEMPLO: Determine el “spline cubico natural” que interpola a la funci´ on f (x) en el intervalo [0. SEC.45 0. La funci´ on y  tercera derivada representa una funci´ on escalonada que por supuesto no es continua.30 0.05 h2 = 0. DERIVACION 69 .7. la ecuaci´on a aplicar es la obtenida haciendo eliminaciones de t´erminos con las primera tres ecuaciones y evaluando las dos primeras segundas derivadas. Escogiento los valores funcionales diferentes y diferentes o´rdenes en los polinomio de interpolaci´ on.09s3 = −0. sus primeras derivadas y  y sus segundas derivadas y  en todo el dominio [x1 . xn ]. Si ocurre que h1 = h2 .08 Construyendo el sistema de ecuaciones para los si con i=2.3. se han generado la siguientes f´ ormulas para las derivadas.6245 0.5477 0.490 0.7280 Datos De los datos de la tabla se pueden determinar los valores de los hi h1 = 0.28s4 = −0.30s3 + 0.39 0.4.09s2 + 0.28s2 + 0. En este caso. lo cual est´a de acuerdo con la definici´ on de los trazadores polin´ omicos de grado m = 3. recordando la condici´ on natural en los extremos.7. Tambi´en se puede aplicar lo mismo para los u ´ ltimos puntos.340 cuya soluci´ on es: s2 = −1. se obtiene 0. a partir de la siguiente tabla de datos xi 0.8806 s3 = −0.25.53 f (xi ) 0.3. DERIVACION Las derivadas de cualquier orden se calculan num´ericamente utilizando los polinomios de interpolaci´ on y luego deriv´ andolo seg´ un requerimiento. 1.06s4 = −0.

A.1. lo cual da n k−1 . derivada y evaluada en x = x0 . GRANADOS METODOS NUMERICOS F´ ormulas para la Primera Derivada 1 (f1 − f0 ) + O(h) h 1 (f1 − f−1 ) + O(h2 ) f  (x0 ) = 2h 1 (−f2 + 4 f1 − 3 f0 ) + O(h2 ) f  (x0 ) = 2h 1 (−f2 + 8 f1 − 8 f−1 + f−2 ) + O(h4 ) f  (x0 ) = 12h f  (x0 ) = (Diferencia Central) (1) (Diferencia Central) F´ ormulas para la Segunda Derivada 1 (f2 − 2 f1 + f0 ) + O(h) h2 1 f  (x0 ) = 2 (f1 − 2 f0 + f−1 ) + O(h2 ) h 1 f  (x0 ) = 2 (−f3 + 4 f2 − 5 f1 + 2 f0 ) + O(h2 ) h 1 (−f2 + 16 f1 − 30 f0 + 16 f−1 − f−2 ) + O(h4 ) f  (x0 ) = 12h2 f  (x0 ) = (Diferencia Central) (2) (Diferencia Central) F´ ormulas para la Tercera Derivada 1 (f3 − 3 f3 + 3 f1 − f0 ) + O(h) h3 1 f  (x0 ) = 3 (f2 − 2 f1 + 2 f−1 − f−2 ) + O(h2 ) 2h f  (x0 ) = (3) (Diferencia Promedio) F´ ormulas para la Cuarta Derivada 1 (f4 − 4 f3 + 6 f2 − 4 f1 + f0 ) + O(h) h4 1 f iv (x0 ) = 4 (f2 − 4 f1 + 6 f0 − 4 f−1 + f−2 ) + O(h2 ) h f iv (x0 ) = (4) (Diferencia Central) Para intervalos irregulares con puntos no ordenados se utiliza la expresi´ on 1.(6).

Cuando el l´ımite superior de una productoria es menor que el l´ımite inferior. xk ] (5) k=1 j=1 Todos los t´erminos que contienen x − x0 al derivar. . Haciendo el uso de esta ecuaci´on (5). y as´ı sucesivamente. cuando se eval´ ua en x = x0 . x1 . El resultado es la misma expresi´on 1.(6).III . tabla con la cual se puede interpolar donde se desee. el resultado de dicha productoria es la unidad. xk−1 . se anulan. INTEGRACION Y APROXIMACION CAP. como ocurre con el primer t´ermino de (5). .1. cambiando cada vez el punto designado como x0 . Si se aplica este mismo procedimiento a los valores de primeras derivadas. sin el primer t´ermino y sin el primer factor en la productoria. x2 . se obtienen los valores de las segundas derivadas.  P  (x0 ) = (x − xj ) f [x0 . . . 70 INTERPOLACION. se tiene una tabla de valores de las primeras derivadas en distintos puntos.

1.3. cualesquiera de los resultados en su aplicaci´on (reglas al final de la secci´ SEC. La figura 1 anterior se obtuvo de derivar respecto a s las caras del diagrama romboidal (n´ umeros combianatorios) de la secci´ on 1. Multiplicar por 1/h. Diagrama Romboidal de la primera derivada.FUNDAMENTOS Figura 1.7. DERIVACION 71 .3. Por eso hay que multiplicar por 1/h para on). obtener f  (x0 ) (dx = h ds). y luego evaluarla en s = 0.

Por eso hay que multiplicar por 1/h2 para obtener f  (x0 ) (dx = h ds).A. 72 INTERPOLACION. Multiplicar por 1/h2 .III .3. INTEGRACION Y APROXIMACION CAP. y luego evaluarla en s = 0. GRANADOS METODOS NUMERICOS Figura 2.3. La figura 2 anterior se obtuvo de derivar doblemente respecto a s las caras del diagrama romboidal (n´ umeros combianatorios) de la secci´ on 1. cualesquiera de los resultados en su aplicaci´on (reglas al final de la secci´on). Diagrama Romboidal de la segunda derivada.

por ejemplo un conjunto de datos experimentales. Cuando aplicamos algunas de estas “F´ormulas” a un conjunto grandes de N + 1 puntos le denominamos “La Regla”. Al conjunto de N + 1 puntos se le subdivide en grupos de n + 1 puntos (n < N ) cada uno. Para cada grupo de n + 1 puntos se utiliza un polinomio de interpolaci´ n Pn (x) de grado n. . dados en forma tabular. por lo cual el uso de t´ecnicas num´ericas para su evaluaci´ on son necesarias. Adicionalmente.1. Entre las t´ecnicas num´ericas m´as conocidas est´an las f´ ormulas de Newton-Cotes. y al estudiante de c´alculo le toma tiempo en aprender a dominar las distintas tecnicas anal´ıticas para resolverlas. Los m´etodos num´ericos nos permiten llevar a cabo esta operaci´on. N 2. Con esto se generan las f´ ormulas de Newton-Cotes. la f´ormulas de la Cuadratura de Gauss. 2. con el cual se calcula un estimado de la integral. y distintas variantes de estas. siendo el extremo final de cada grupo el extremo comienzo del siguiente.1. estos est´ an ordenados y la distancia entre dos puntos en x es denotada h = xi+1 − xi . 2. .FUNDAMENTOS 2. Con mucha frecuencia es necesario integrar a funci´on que es conocida en forma tabular. la integraci´ on anal´ıtica de funciones no es un proceso de f´ acil manejo para el computador. se hace necesario desarrollar m´etodos particulares. entre las cuales se agrupan a las conocidas f´ormulas del trapezoide y de Simpson. INTEGRACION La integraci´on de funciones es una operaci´ on matem´atica de mucha importancia. DATOS REGULARES Cuando los datos son regulares.2). El polinomio que en este caso es el m´ as apropiado. . Usando los polinomios de Lagrange f (x) = Pn (x) + R(x) Pn (x) = n . F´ ormulas de Newton-Cotes Al momento de evaluar una integral sobre un conjunto de datos discretos. es el polinomio de Lagrange (secci´on 1. i = 1. Pueden usarse combinaciones de f´ ormulas cuando el n´ umero de puntos as´ı lo amerite.1. Entre los m´etodos para evaluar este tipo de integrales estan las F´ormulas de Newton-Cotes. .

Li (x) f (xi ) (1) i=0 las f´ ormulas de Newton-Cotes tienen la forma xn xn f (x) dx = xn Pn (x) dx + x0 x0 R(x) dx = I n + E n (2) x0 donde In = xn Pn (x) dx = x0 En = xn n xn !.

x0 n .

xn ] (4) x0 Se ha usado el residual para intervalos regulares 1.3. DATOS REGULARES 73 . xn ] (5) porque es el m´as adecuado para este caso.(5) (dx = h ds)  Rn (x) = s n+1  hn+1 f (n+1) (ξ) ξ ∈ [x0 . SEC.1. 2. " Li (x) f (xi ) dx = h Cin f (xi ) i=0 Cin = i=0 n R(x) dx = hn+2 f (n+1) (ξ) 0 x0 s n+1  ds = −n Kn hn+2 f (n+1) (ξ) 1 h xn Li (x) dx (3) ξ ∈ [x0 .

a veces m = n + 1 (n impar)). Aplicando la f´ ormula para cada grupo de datos x ∈ [xi . GRANADOS METODOS NUMERICOS Ocurre para los casos n par. por lo que el resultado de su integraci´on da un grado mayor en el exponente de h y el orden de la derivaci´ on (identificado con m adelante.A. 4-Villarceau-Boole. xi+n ] (fi = f (xi )) xi+n f (x) dx = h xi n . La tabla siguiente resume estos resultados para varios valores de n. 2-Simpson1/3. por lo que se le agrega un grado m´ as al polinomio de interpolaci´ on (cuya integraci´ on da nula) y el residual se incrementa en un grado. 6-Hardy. 3-Simpson3/8-Newton. 5-Villarceau. 1-Trapecio. d´ andole nombre en cada caso para las f´ ormulas de Newton-Cotes Tabla. a veces m = n + 2 (n par). n m Factor C0n C1n C2n C3n C4n C5n 1 2 1 2× 1 1 2 4 1 3× 1 4 1 3 4 3 8× 1 3 3 1 4 6 2 45 × 7 32 12 32 7 5 6 5 288 × 19 75 50 50 75 19 6 8 1 140 × 41 216 27 272 27 216 C6n 41 n × Kn Kn 1 12 1 12 1 90 1 180 3 80 1 80 8 945 2 945 275 12096 55 12096 9 1400 3 2800 Nota: N debe ser m´ ultiplo de n de la f´ ormula. que la integral (4) es nula. Coeficientes de Las F´ ormulas de Newton-Cotes.

Cjn fi+j − n Kn hm+1 f (m) (ζi ) .

xN ] xN f (x) dx = h x0 n N −n . ζi ∈ [xi . xi+n ] f (m) (ζi ) = j=0 2 n + 3 + (−1)n m= 2 = I n + En N (m) f (ζ) n (6) E n = −n Kn hm+1 f (m) (ζi ) Aplicando la regla para todo el conjunto de puntos de los datos x ∈ [x0 .

.

2 0. 0. Usar la formula de Newton-Cotes basada en un polinomio de tercer grado (n = 3). dada en foma tabular. Cjn fi+j − Kn (b − a) hm f (m) (ζ) ζ ∈ [x0 .6 f (xi ) 0.4 0.0.4794 0. tambi´en conocida como la formula de Simpson 3/8. INTEGRACION Y APROXIMACION CAP.1987 0.0 0.0998 0.6]. en el intervalo [0.1 0.3 0.0000 0.5646 Datos 74 INTERPOLACION.2955 0.III . xi 0. xN ] a = x0 b = xN i=0 j=0 n (7) n n = IN + EN N= (b − a) h n EN = −Kn (b − a)hm f (m) (ζ) EJEMPLO: Hallar la integral de la funci´ on F (x).3894 0.5 0.

1747. 2.1. y aumimos que I ∗ = IN . j + 1. Cada grupo termina en xi+n donde el siguiente comienza.2. . SEC. m = n + 1 = 2 j ⇒ n = 2 j − 1.FUNDAMENTOS La expresi´on para la Regla de Simpson 3/8 correspondiente ser´ıa I= 3 h (f0 + 3 f1 + 3 f2 + 2 f3 + 3 f4 + 3 f5 + f6 ) 8 donde h = 0. . 3..2. . DATOS IRREGULARES Estos m´etodos se obtienen al hacer pasar un polinomio Pn (x) en diferencias divididas de grado n en los n + 1 puntos de cada grupo. cada fila i es la bipartici´ on de la anterior y las columnas j indican el orden del error..2. . . 2. y siguiendo j = 1.1. h = (b − a)/N N = 2i . Algoritmo de Romberg n+2 Si tomamos N2 = 2 N1 . i = j. .j+1 = 4j Ii+1.j − Ii. i = 0 hasta N de n en n. Las diferentes integraciones se ordenan de forma triangular. pero con distintos n´ umeros totales de puntos N1 y N2 en dos oportunidades n n n n I ∗ = IN + EN = IN + EN (8) 1 1 2 2 Asumiendo que f (m) (ζ1 ) ≈ f (m) (ζ2 ). se obtiene la f´ ormula de Romberg 2 n+2 IN = 2 n n 2m IN − IN 2 1 2m − 1 (12) Tambien se acostumbra a colocarla como (biparticiones sucesivas) Ii+1. queda que n EN 1 n ≈ EN 2  N2 N1  m = h1 h2 m (9) Substituyendo esta expresi´on queda ∗ I =  n IN 1 + n EN 1 = n IN 2 + n EN 1 N1 N2 m n EN = 1 n n IN − IN 2 1 1 − (N1 /N2 )m (10) y resulta la f´ ormula de extrapolaci´ on de Richardson n I ∗ = IN − 1 n n n n − IN − IN IN (N2 /N1 )m IN 1 2 2 1 = 1 − (N1 /N2 )m (N2 /N1 )m − 1 (11) 2. Extrapolaci´ on de Richardson Si denotamos con I ∗ el valor exacto de la integral de la funci´ on en un intervalo [a. 2.3. DATOS IRREGULARES 75 . Sustituyendo los valores de la tabla se obtiene que el valor de la integral I es 0.j 4j − 1 (13) comenzando con la regla del trapecio (j = 1).1. b] con datos regulares y luego hacemos la integraci´ on num´erica del mismo orden n. 2.

A.2. Polin´ omica La regla del trapecio xN y(x) dx = x0 N 1 .1. GRANADOS METODOS NUMERICOS 2.

(yi + yi−1 ) (xi − xi−1 ) 2 i=1 (1) obtenida al hacer pasar un polinomio P1 (x) por los puntos xi y xi−1 La regla de Simpson (N par) xN y(x) dx = x0 N  .

i=2 2 +  (xi − xi−2 ) (yi−1 − yi−2 ) (xi − xi−2 ) yi−2 + (xi−1 − xi−2 ) 2   (yi − yi−1 ) (yi−1 − yi−2 ) 1 (2 x2i − xi xi−2 − x2i−2 + 3 xi−1 xi−2 − 3 xi xi−1 ) 6 (xi − xi−1 ) (xi−1 − xi−2 )  (2) obtenida al hacer pasar un polinomio P2 (x) por los puntos xi . xi−1 y xi−2 .1] como puntos de colocaci´ on. Los polinomios de Legendre son ( Pk (1) = 1. Pk (1) = k(k + 1)/2 ) P0 (x) = 1 P1 (x) = x P5 (x) = P2 (x) = 1 (3x2 − 1) 2 1 (63x5 − 70x3 + 15x) 8 P3 (x) = 1 (5x3 − 3x) 2 P6 (x) = 1 (231x6 − 315x4 + 105x2 − 5) 16 P4 (x) = 1 (35x4 − 30x2 + 3) 8 (3) los dem´as se pueden hallar con las siguientes expresiones n  2 1 dn 1 .2. 2. Cuadratura de Gauss-Legendre La cuadratura de Gauss-Legendre utiliza los polinomios de Legendre como auxiliares para realizar el c´omputo de las integrales.2. Pk (−x) = (−1)k Pk (x). adicionalmente utiliza las ra´ıces de dichos polinomios en el intervalo [-1.

Pm  =  1 −1 Pn (x) Pm (x) dx = si n = m 2 c(n) = 0 si n = m = 2n + 1 0 (5) En general los m´etodos de cuadratura se formulizan como b f (x) dx ≈ a n .1] Pn . Estos polinomios satisfacen la ortogonalidad dentro del operador integral en el intervalo [-1. n 2 n Pn (x) = n [(x − 1) ] = n (x− 1)k (x+ 1)n−k k 2 n! dxn 2 2n − 1 n−1 x Pn−1 (x)− Pn−2 (x) Pn (x) = n n k=0 (4) La primera se conoce como la relaci´on de recurrencia. la segunda es la f´ ormula de Rodriges.

y los n + 1 par´ ametros wi pueden ser definidos suponiendo que f (x) es un polinomio de grado n (cuadratura de Newton). . INTEGRACION Y APROXIMACION CAP. i = 0. . n. no est´an prefijados y estos 2n + 2 par´ definidos suponiendo que f (x) es un polinomio de grado 2n + 1 (cuadratura de Gauss). . n. . 76 INTERPOLACION. 2. i = 0. wi f (xi ) (6) i=0 Esta expresi´on es exacta si: a:) Los xi son prefijados y regulares. . . 1. . .III . ametros pueden ser b:) Los xi como los wi . 1. 2.

FUNDAMENTOS Haciendo el siguiente cambio de variables z= 2x − (a + b) (b − a) x= (b − a) z + (a + b) 2 dx = (b − a) dz 2 (7) el problema de integrar en el intervalo [a. se lleva a el problema de integrar en el intervalo [−1. 1] en z. Si utilizamos los polinomios de Lagrange en este u ´ ltimo intervalo entonces f (z) = Pn (z)+Rn (z) Pn (z) = n . b] en x.

Li (z) f (zi )

R(z) =

i=0

n 

(z−zj )

j=0

f (n+1) (ζ)
= Sn+1 (z) Qn (z) (8)
(n + 1)!

donde ζ ∈ [−1, 1], Sn+1 (z) es un polinomio de grado n + 1, y Qn (z) es un polinomio de grado n.
Para hallar los zi , llamados puntos de colocaci´on, tales que anulen la integral de Rn (z), vamos a
expandir los polinomios Sn+1 y Qn en t´erminos de los polinomios de legendre

Sn+1 (z) =

n 

(z − zj ) =

j=0

n+1

f (n+1) (ζ)

=
bj Pj (z)
(n + 1)!
j=0
n

aj Pj (z)

Qn (z) =

j=0

(9)

Bas´andonos en la propiedad de ortogonalidad
1
−1

Rn (z) dz =

n

Entonces la integral de la funci´ on de calcula como b a (b − a) f (x) dx = 2 1 f (z) dz = −1 n . 1. . . 2. n. i = 0. 1. . con lo cual se obtienen los puntos de colocaci´on zi . 2. n de Sn+1 (z) = 0 son las mismas que las del polinomio de Legendre Pn+1 (z) = 0. . . o sea que Sn+1 (z) = n  (z − zj ) = an+1 Pn+1 (z) (11) j=0 Esta u ´ ltima ecuacion nos indica que an+1 es inverso del coeficiente que acompa˜ na a z n+1 en el polinomio de Legendre Pn+1 (z) y que las ra´ıces zi . . . . 1 ai b i i=0 −1 [Pi (z)]2 dz (10) Una forma de anular esta expresi´ on es especificando que bi = 0 con i = 0.

2. .2. 1. 1] (13) i = 0. 1 wi f (zi ) + En wi = i=0 −1 Li (z) dz (12) donde el error se estima con En = 22n+3 [(n + 1)!]4 f (2n+2) (η) [(2n + 2)!]3 (2n + 3) η ∈ [−1. 2. DATOS IRREGULARES −2 (n +  2)Pn+1 (zi ) Pn+2 (zi ) 77 . . . . n (14) y otra forma de calcular wi es wi = SEC.

Hallar la integral y4 x5 II = f (x. INTEGRACION Y APROXIMACION CAP. . . yj ). y) dx dy y0 (1) x0 usando las reglas del trapecio en x y la regla de Simpson en y. por ejemplo. 4 (3) As´ı se obtiene que y4 II = y0 I(y) dy ≈ hy (I0 + 4 I1 + 2 I2 + 4 I3 + I4 ) 3 (4) 3. x2 . donde Ij = hx (f0j + 2 f1j + 2 f2j + 2 f3j + 2 f4j + f5j ) 2 j = 0. . . x3 . x3 . .39434 π)] = 0. donde cada xi representa una (m + 1)-upla de la forma xi = (x1 . . . .10566 π) + sen (0. INTEGRACION MULTIPLE Sea la siguiente funci´ on z = f (x.3. Sea y = f (x) una funci´ on escalar que expresa una de las componentes de la (m + 1)-upla en funci´ on de las restantes. 2. x2 . xm+1 )i (1) con todas sus componentes independientes entre s´ı. 3. xm ) (2) Esto se puede hacer sin p´erdida de generalidad. xp . y) definida en el plano x − y de forma discreta donde fi j = f (xi .57735 z0 = 0.. xm . GRANADOS METODOS NUMERICOS EJEMPLO: # π/2 Evaluar I = 0 sen x dx usando el m´etodo de cuadratura de Gauss-Legendre con dos puntos de colocaci´on (n = 1). El cambio de variables es a=0 b= π 2 π (z + 1) 4 z1 = −0. Llamemos x5 I(y) = f (x. Es decir. 1. APROXIMACION Sea un conjunto de p valores x1 .57735 I≈ x= dx = π dz 4 w0 = w1 = 1 π [sen(0. puesto que siempre se puede hacer una transformaci´on del tipo ˜ = H(x) x (3) 78 INTERPOLACION. Un error equivalente a haber usado simpson 3/8 (polinomio de grado 2n + 1 = 3). y) dx (2) xo y su aproximaci´ on Ij = I(yj ).A. x2 .III . . . hx = xi+1 − xi y hy = yj+1 − yj (intervalos regulares). . 2. x3 . que xm+1 = f (x1 .99847 4 con un error de En = 1.53 × 10−3 (el valor exacto es 1).

al igual que los xi en (1). c) se aproxime lo mejor posible a la funci´ yi = f (xi ). c3 . no s´ olo de los x. tal que los x Dados los valores xi y definida la funci´ on y = f (x). El m´etodo de los m´ınimos cuadrados en particular lo que trata es de encontrar los valores de los par´ ametros c de la funci´ on Y = F (x. . . cn ) (4) on Estos par´ ametros c se escogen tales que la funci´on Yi = F (xi . . 2. se puede ahora tratar de encontrar una funci´ on de aproximaci´on Y = F (x. tales que el valor S= p . . sino tambi´en de n par´ ametros cj . c). con i = 1.FUNDAMENTOS ˜ i tengan todos sus componentes independientes entre s´ı. p. para todos los valores xi . . . c) dependiente. 3. . . c2 . los cuales son expresados en la forma de una n-upla como c = (c1 .

entonces la definici´on (5) se puede expresar como S(c) = p . Se puede interpretar como un funcional de la funci´ on F . S = S(c). El valor S se puede interpretar de dos formas posibles. El valor S tambi´en se puede interpretar como una funci´ on de los par´ ametros. (Yi − yi )2 (5) i=1 sea el m´ınimo posible. S = S(F (x. es decir. En este caso el m´etodo de m´ınimos cuadrados se convierte en un problema variacional. c). Con la aclaratoria precedente. al cuadrado. asumiendo una funci´ on de aproximaci´ on ya encontrada. es decir. Esta u ´ltima forma es la que vamos a interpretar aqu´ı. donde a su vez la funci´ on F depende de unos par´ ametros c que forman parte de la misma. entre la funci´on definida para los puntos y la funci´ on de aproximaci´ on encontrada. El valor S representa la sumatoria de todas las desviaciones.

Esto es S(c) = p . c) − f (xi ) ]2 (6) i=1 En algunos casos se alteran la desviaciones con una funci´ on de peso W (x) para hacer que el ajuste de los par´ ametros tienda a hacer la aproximaci´on mejor para unos valores de xi que para otros. [ F (xi .

tales que hagan las derivadas de S(c) todas nulas. 3. c) − f (xi ) ]2 (7) i=1 Sin embargo. todas las deducciones se har´ an para el m´etodo de los m´ınimos cuadrados expresado como est´a en (6). LINEAL El m´etodo de m´ınimos cuadrados es en s´ı un procedimiento para encontrar el valor m´ınimo de la funci´ on (6) de S = S(c). W (x) [ F (xi . Para ello deben encontrarse los valores de cj . En otras palabras. Extender estos resultados a como est´a expresado el m´etodo en (7) es muy sencillo.1. p $ ∂F % .

∂S =2 [ F (xi . LINEAL 79 . 2. SEC. n. Su nombre se debe a que la derivadas son calculadas para una hipersuperficie donde las direcciones cj son ortogonales entre s´ı y est´an evaluadas en un punto c donde todas son nulas. . Las direcciones son ortogonales debido a que los par´ ametros cj son todos independientes entre s´ı. . .1. 3. 3. c) − f (xi ) ] =0 ∂cj ∂cj xi i=1 (8) Las expresiones (8) se denominan “Ecuaciones Normales” y deben cumplirse simult´aneamente para j = 1. .

A. c) = n .3 3. determine las constantes de la aproximaci´ on suponiendo que la funcion se comporta linealmente en las dos variables independientes.4 7.2 5. y.1 3.1 3.5 1. puesto que la funci´ on Yi = F (xi .8 6.6 5.1. Su nombre se debe a que la funci´ on de aproximaci´ on posee una expresi´on lineal de la forma F (x. yi ) 1. encuentre el sistema de ecuaciones lineales a resolver para determinar las constantes de la aproximaci´on.4 −4. EJEMPLO: En el an´ alisis de la aproximaci´on de m´ ultiples variables. c) puede estar tan alejada de los valores xi como se quiera. GRANADOS METODOS NUMERICOS Es bueno hacer notar que lo que se halla mediante este procedimiento es un m´ınimo de la funci´ on escalar S(c) y no un m´ aximo.0 0.5 6.3 3.4 10.5 5.1.2 1. variando los valores de los par´ ametros cj .2 3.9 2.6 9.2 2. Con la siguiente tabla de datos. Series de Funciones Bases El ajuste lineal es el m´as empleado y el m´ as reportado en la literatura.0 4. a) = a1 + a2 x + a3 y. el m´etodo de los m´ınimos cuadrados es utilizada con bastante frecuencia.2 f (xi .3 7.4 4. para una funci´ on de aproximaci´ on del tipo F (x.2 14.9 yi 0 0. Datos xi 0 1.

Para el caso particular de la funci´ on de aproximaci´ on definida por (8) se tiene que ∂F = gj (x) ∂cj (10) Substituyendo este resultado en la expresi´on (8) de la sub-secci´ on 3. se obtiene  p . ck gk (x) (9) k=1 lo que no es m´as que una serie de funciones gj (x) todas diferentes entre s´ı. por lo que son consideradas que forman parte de una base de un espacio de funciones. junto con la definici´ on (1) e intercambiando las sumatorias de k con la sumatoria de i.1.

n .

a) k=1 p . ∂S =2 ck gk (xi ) − f (xi ) gj (xi ) = 0 ∂cj i=1 (11.

n .

ck gk (xi ) gj (xi ) = i=1 k=1 p n .

.

p .

b) i=1  p . f (xi ) gj (xi ) (11.

c) i=1 Al final queda un sistema de ecuaciones lineales de la forma n . gj (xi ) gk (xi ) ck = gj (xi ) f (xi ) k=1 i=1 (11.

III . Ajk ck = bj [A] c = b (12) k=1 80 INTERPOLACION. INTEGRACION Y APROXIMACION CAP.

FUNDAMENTOS donde los elementos de la matriz del sistema y el vector independiente se expresan como p .

Ajk = gj (xi ) gk (xi ) (13.a) gj (xi ) f (xi ) (13.b) i=1 bj = p .

378 0.31 0.05 0. Series de Polinomios Como ejemplos de funciones de aproximaci´ on m´ as utilizadas se tienen las series de funciones polin´ omicas F (x.3357 el cual tiene como soluci´ on a1 = 0.98 1.74 0.82 0.92 a3 = 1.12 a2 + 3.52 0.717 0.01 a1 + 4.15 0.1839 4.2.104 Datos Las funciones base son g1 (x) = 1.018 y a3 = 0.306 0. c) = n .1.70 0.370 0.65 a1 + 4. El sistema de ecuaciones toma la forma 11 a1 + 6.956 0.11 0. g2 (x) = x y g3 (x) = x2 .17 f (xi ) 0.905 6.998.242 0.01 a2 + 4.571 0.65 a3 = 5.225.539 0.65 a2 + 4.46 0. 3.832 0.12 a3 = 2.890 0. a2 = −1. i=1 EJEMPLO: Hallar la aproximaci´ on cuadr´ atica para la siguiente tabla de datos xi 0.

ck xk−1 (14) ck cos[(k − 1)x] (15) k=1 y la serie de funciones trigonom´etricas F (x. c) = n .

dentro los cuales est´an: . polinomios de Legendre. c) tiene una expresi´on distinta a la expresi´ on (1) de la sub-secci´ on 3. por consiguiente. ya que hay que calcular la matriz jacobiana del sistema de funciones no lineales. k=1 Tambi´en existen series de funciones racionales. hiperb´ olicas. 3.2. Tambi´en se pueden tener combinaciones de estas funciones. como. NO LINEAL En el ajuste no lineal de los par´ ametros cj la funci´ on de aproximaci´ on F (x. 3. SEC.2. por ejemplo. Para evitar el incoveniente mencionado se han desarrollado varios m´etodos. Sin embargo esto trae como consecuencia que el procedimiento de m´ınimos cuadrados se vuelva m´ as complicado. lo que se obtiene es un sistema de ecuaciones no lineales en las variable cj que puede ser resuelto con cualquier m´etodo para tales tipo de sistemas. etc. polinomios de Chebyshev.2. el m´etodo de Newton-Raphson.M´etodo del m´ aximo descenso. NO LINEAL 81 .

A.M´etodo de Gauss-Newton. GRANADOS METODOS NUMERICOS . F (xi . Sea la expansi´ on en series de Taylor hasta el t´ermino de primer orden de la funci´ on de aproximaci´ on F (xi . c) = F (xi . c∗ ) + n $ .M´etodo de Levenberg-Marquardt. Esto es. . c) alrededor de un valor estimado c∗ de los par´ ametros. Todos estos m´etodos se derivan del siguiente an´ alisis.

se obtiene un sistema de ecuaciones de la forma p $ p n &.a) (1. ∂F %∗ k=1 donde ∂ck xi ∆c∗k + O( ∆c∗ 2 ) ∆c∗k = ck − c∗k (1. e intercambiando las sumatorias de k con la sumatoria de i.1.b) Substituyendo este resultado en la expresi´on (8) de la sub-secci´ on 3.

$ ∂F % .

.

c∗ ) − f (xi ) ] ∂cj xi ∂ck xi ∂cj xi i=1 i=1 (2) k=1 on del punto valor c∗k al valor ck . ∂F % $ ∂F %∗ ' ∗ ∆ck = − [ F (xi . entonces la Si se supone que las derivadas ∂F/∂cj no sufren gran variaci´ expresi´on (2) se podr´ıa reescribir aproximadamente como n .

a) k=1 donde A∗jk = b∗j = − p . A∗jk ∆c∗k = b∗j (3.

p $ .

∂F %∗ $ ∂F %∗ ∂cj xi ∂ck xi i=1 [ F (xi . La expresi´on (5) se puede reescribir como n . M´ etodo del M´ aximo Descenso El m´etodo del m´ aximo descenso est´a basado en el hecho de que ∂S s  = −bsj ∂cj (4) Es decir. entonces se pueden aplicar los diferentes m´etodos que se explican a continuaci´ on. que S(cs ) se incrementa en la direcci´on indicada por el gradiente (4).2. c∗ ) − f (xi ) ] i=1 (3.1.c) Con base en este an´alisis. Si se escoge una direcci´on ∆cs opuesta a este gradiente tal que (5) ∆csj = ω bsj se obtendr´ a el m´aximo descenso de la funci´ on S(c).b) $ ∂F %∗ ∂cj xi (3. 3.

INTEGRACION Y APROXIMACION CAP.III . s Djk ∆csk = bsj (6) k=1 82 INTERPOLACION.

b). por consiguiente. pero por el contrario el m´etodo del m´ aximo descenso converge muy lentamente y por lo tanto no es recomendable su uso.2. y. se puede hacer s Djk = As δjk (9) El valor de ω se modifica de igual forma que el m´etodo de Gauss-Newton para asegurar la convergencia. 3. De esta forma resulta el siguiente algoritmo iterativo con s como indicador del n´ umero de la iteraci´ on n . M´ etodo de Gauss-Newton El m´etodo de Gauss-Newton consiste en un procedimiento iterativo que se origina a partir de las expresiones (1) junto con la definici´on (3.FUNDAMENTOS donde s Djk = δjk (7) cs+1 = cs + ω ∆cs+1 (8) y se tiene que s tenga dimensiones Sin embargo.2. el m´etodo puede ser modificado de manera tal que la matriz Djk acorde con la funci´ on S(c).

Asjk ∆csk = bsj (10) k=1 donde Asjk = bsj =− p .

p $ .

conociendo los par´ametros cs . Frecuentemente es recomendable alterar el algoritmo relaj´andolo en la forma cs+1 = cs + ω ∆cs (12 ) para asegurar la convergencia del proceso iterativo. ∂F %s $ ∂F %s ∂cj xi ∂ck xi i=1 [ F (xi . aplicando un criterio de parada de la forma (13) ∆cs < εmax en el error local de las variables cs y donde εmax es la tolerancia permitida para dicho error local.a) $ ∂F %s ∂cj xi (11. Aqu´ı ω es el factor de relajaci´ on y en cada iteraci´on se altera ρ<1 (14) ω = ρ ω de manera de garantizar que dentro de esa iteraci´on se cumpla que S(cs+1 ) < S(cs ) (15) Recu´erdese que lo que se est´a buscando es el valor de c para que la funci´ on S(c) se haga m´ınima. El procedimiento se contin´ ua hasta obtener convervalores cs+1 de los par´ gencia hacia la soluci´on c de las ecuaciones normales (8) de la sub-secci´on. SEC. 3. cs ) − f (xi ) ] i=1 (11.b) y luego se obtiene cs+1 = cs + ∆cs (12) La expresi´on (10) representa un sistema de ecuaciones lineales que se resuelve en cada iteraci´on s.2. NO LINEAL 83 . Despu´es se substituye este resultado en la expresi´on (12) para obtener los ametros en la siguiente iteraci´on.

. cs−1 (j) ) csj − cs−1 j (16. c2 .(1944)] n . csk + ∆csk ].2. c1 . estas pueden ser obtenidas num´ericamente de la siguiente forma $ ∂F %s ∂cj xi ∼ = F (xi . cs−1 . entonces en la siguiente iteraci´on se permite un incremento de ω en la forma τ >1 (14 ) ω = τ ω Normalmente se emplean los valores de ρ = 0. GRANADOS METODOS NUMERICOS Si la relaci´on (15) se cumple en una iteraci´on. M´ etodo de Levenberg-Marquardt La formula algor´ıtmica del m´etodo de Levenberg-Marquardt es la siguiente [Levenberg. . . comenzando con un ω = 1.A.5 y τ = 2. csn ) (j) ) = F (xi . . cs ) − F (xi . Cuando las derivadas de las expresiones (11) se hacen complicadas de calcular.a) donde s−1 s s s F (xi . c3 . . cj (16.3. para producir el efecto de una b´ usqueda del ω´ optimo mediante la bisecci´on consecutiva de los intervalos [csk . .b) 3. . .

Si la convergencia no mejora. Para efectos de garantizar la convergencia en cada iteraci´ n se altera el factor λ de la forma λ = λ/ρ ρ<1 (19) hasta que se cumpla dentro de la misma iteraci´ on que S(cs+1 ) < S(cs ) (15) Una vez satisfecha la relaci´on anterior en una iteraci´ on se puede disminuir λ en la siguiente iteraci´ on de manera que τ >1 (19 ) λ = λ/τ N´otese que incrementar λ en el m´etodo de Marquardt es equivalente a disminuir ω en el m´etodo de GaussNewton. La selecci´on de un λ entre 0 e ∞ produce una direcci´on intermedia. s (Asjk + λDjk ) ∆csk = bsj (17) k=1 cs+1 = cs + ∆cs (18) donde el factor λ funciona similar a un factor de relajaci´on y le da al m´etodo de Marquardt un car´ acter hibrido donde existe un compromiso entre el m´etodo del m´ aximo descenso y el m´etodo de Gauss-Newton. es decir se cumple la relaci´on (15). Cuando en varias iteraciones consecutivas el m´etodo mejora su convergencia. entonces λ → 0. la direcci´on del m´etodo se dirije hacia el m´etodo del m´ aximo descenso. 84 INTERPOLACION. Cuando λ → 0.III . INTEGRACION Y APROXIMACION CAP. ρ = 0. se toman los valores de λinicial = 10−3 .1 y τ = 10. Los estudios de Marquardt [(1963)] indican que el m´etodo posee un ´angulo promedio entre los m´etodos de Gauss-Newton y M´ aximo Descenso de 90◦ . y esencialmente se estar´a empleando el m´etodo de Gauss-Newton. Normalmente. por el contrario. λ se incrementa y se estar´a usando pr´ acticamente el m´etodo del M´ aximo Descenso. Cuando λ → ∞. la direcci´ on del m´etodo se dirije hacia el m´etodo de Gauss-Newton.

por un lado comparar cuan bueno es un ajuste en relaci´ on a otro. y por otro lado comparar cuando un ajuste reproduce bien el conjunto de puntos de datos.3.FUNDAMENTOS 3. Estas cantidades y coeficientes son los siguientes: Suma de los cuadrados de las desviaciones con respecto a la funci´on de aproximaci´ on o suma de las desviaciones con respecto a la funci´on de aproximaci´ on S(c) = p . EVALUACION La evaluaci´on del ajuste viene dada mediante el an´ alisis de de ciertos factores que permiten.

δi2 ¯ = S(c) p .

i=1 δi = F (xi . c) − f (xi ) δi (1) i=1 Media de la variable dependiente o media de las desviaciones fm p 1 .

= f (xi ) p i=1 ¯ S(c) p δm = (2) Suma de los cuadrados de las desviaciones con respecto a la media de la variable dependiente o desviaciones respecto a la desviaci´on media Sm = p .

[ f (xi ) − fm ]2 S¯m = i=1 p .

3. 3. r2 indica el porcentaje de la incertidumbre inicial que ha sido disminuido usando la funci´ on de aproximaci´ on r2 = Sm − S Sm r¯2 = S¯m − S S¯m (6) En algunas literaturas definen el coeficiente de determinaci´ on (R2 ) o´ coeficiente de correlaci´on (R) de la siguiente forma alternativa σm − σ ¯m − σ ¯2 = σ R R2 = (7) σm σ ¯m Coeficiente de variaci´on Cv = SEC. EVALUACION σm fm σ ¯m C¯v = δm (8) 85 . (δi − δm )2 (3) i=1 on de aproximaci´ on Desviaci´on est´ andar (σ) o´ varianza (σ 2 ) con respecto a la funci´ ( σ= S p−n (4) 2 Desviaci´on est´ andar (σm ) o´ varianza (σm ) con respecto a la media fm o la media δm ( ( σm = Sm p−1 σ ¯m = S¯m p−1 (5) Coeficiente de determinaci´on (r2 ) o´ coeficiente de correlaci´on (r).

cn ). La desviaci´on RMS y la desviaci´on m´ axima dependen del ajuste particular que se est´a realizando. la cual se deriv´ o de los datos originales (x1 . La desviaci´on RMS se puede interpretar como una desviaci´on promedio del ajuste. c) en s´ı y los sin barras son con respecto a la media fm . fueron usados para computar S(c). mejor ser´a el ajuste por s´ı mismo. La funci´ on de aproximaci´ on que mejor se ajusta a los datos originales (x1 . Este procediUna forma de optimizar el ajuste es descartar aquellos puntos para los cuales |δi | > σ miento aumenta los coeficientes de correlaci´on r y R. . . C. fu´e usada para computar Sm . O. Los an´ alisis con las cantidades con barra son con respecto al curva F (x. . x2 . C. B. De aqu´ı que se hallan perdido n grados de libertad en la probabilidad. 1985. pero siempre es menor que el valor absoluto que la desviaci´on media. S. derivados de los datos originales (x1 . En la desviaci´on est´ andar σm .A. INTEGRACION Y APROXIMACION CAP. al igual que Sm y S¯m respecto a S. [4] Gerald. Las desviacione σm y σ ¯m son ambas mayores que σ. debido a que la media de la variable dependiente. 3rd Edition. ( δrms = S p (9) Desviaci´on m´ axima. McGraw-Hill Book Company. La desviaci´ on m´ axima δmax acota cu´ anto va a hacer el mayor error cometido con el ajuste. Numerical Methods for Engineers. . 2nd Edition. . Canale. y la media fm da una mejor aproximaci´ propuesta. con respecto a la ¯ 2 . c3 . con y sin barra. De aqu´ı que se halla perdido un grado de libertad. Esto implica que el coeficiente de determinaci´on R2 o R la evaluaci´on del ajuste. . la cantidad S est´a dividida por (p − n). . 1985. . .. GRANADOS METODOS NUMERICOS Desviaci´on RMS (Root of the Mean Square). Luther. J. En este caso es conveniente pre-procesar los datos para eliminar el ruido (noise) y realizar el ajuste a posteriori con un modelo o curva m´as aceptable. la mejor correlaci´on la ofrecer´ıa la media fm . Cuando la dispersi´ on de los datos es muy grande significa que los puntos est´ an muy dispersos y si se grafican formar´ an una nube ancha alrededor de cualquier correlaci´on que se trate de hallar.III . xp )... F. BIBLIOGRAFIA [1] Burden R. normalmente expresado de forma porcentual multiplicando su valor por 100. PWS (Boston). debido a que n par´ ametros (c1 . [3] Chapra. J. A. [2] Carnahan. x2 . x2 . xp ). de otra forma no se justifica el uso de la funci´ on a los datos que la funci´ on de aproximaci´ on de aproximaci´on. Normalmente σ ¯m es mucho menor que σm . x3 . mejor cuando sea m´as cercano a la unidad por debajo. c2 . sino aquella que brinda una menor desviaci´on est´ andar σ. H.. P. on La desviaci´on est´ andar σm debe ser mayor que σ. Entre mayor sea la diferencia entre estas dos desviaciones δrms y δmax . 1969. lo que hace que los coeficiente r2 y R2 . Numerical Analysis. Applied Numerical Methods. Faires. R. D. la cantidad Sm est´a dividida por (p − 1). L. El coeficiente de variaci´on Cv nos brinda una medida normalizada de cual es la dispersi´ on de los datos originales y normalmente se da en forma porcentual. xp ). . . no es aquella que ofrece un menor valor de S. Wilkes. pero cuando son comparables significa que los datos est´an muy dispersos y no siguen una tendencia marcada por alguna curva propuesta como modelo. ¯m . . En este caso. with Personal Computer Applications. Addison-Wesley (New York). . . es el m´as adecuado para funci´ on de aproximaci´ on. x3 . Applied Numerical Analysis. x3 . c) − f (xi )| = max |δi | 1≤i≤p (10) 1≤i≤p En la desviaci´on est´ andar σ. sean levemente inferiores a la unidad. 1978. con y sin barras. δmax = max |F (xi . John Wiley & Sons (New York). fm . . 86 INTERPOLACION. .

Julio de 1991.2. L. Wright. (1963). Quarterly of Applied Mathematics.A. del 27 al 28 de Mayo de (1991). pp.. Appl. INTEVEP S. J. [7] Hildebrand. Springer (New York). D. Math. pp. [8] Levenberg. (1944). Febrero de 1991. A. “A Method for the Solution of Certain Non-Linear Problems in Least Squares”. 2nd Edition.FUNDAMENTOS [5] Granados M. INT-EPPR/322-91-0001. Reporte T´ecnico No.1956. Nota T´ecnica. 2006. K. L. B. SIAM J. McGraw-Hill (New York). Los Teques. J. Nuevas Correlaciones para Flujo Multif´ asico.2. Introduction to Numerical Analysis. INTEVEP S. [9] Marquardt.. 3. “An Algorithm for Least Squares Estimation of Non-Linear Parameters”.431-441.3. [6] Granados M. SEC. [10] Nocedal. Auditorium de INTEVEP S. S.. Vol.. A. Los Teques.11. Trabajo presentado en la Conferencia sobre: Estado del Arte en Mec´anica de Fluidos Computacional.164168.A. No.A. Numerical Optimization. EVALUACION 87 . Free Order Polynomial Interpolation Algorithm. Vol. Los Teques. F.

.

90 90 1. Cuadratura de Gauss. Control del Paso. 111 3. 105 2.1.2. M´etodo de Taylor. 107 107 3. 114 3.2.2. 90 91 1. 108 3.1.2. 2. • Quinto orden. Adams-Moulton.3.4. Cuadratura de Kutta. M´etodos de Pasos M´ ultiples.CAPITULO IV ECUACIONES DIFERENCIALES ORDINARIAS CONTENIDO 1.1. 93 • Cuarto orden.1. 93 93 • Tercer Orden. M´etodos Expl´ıcitos. 100 100 1. 114 89 . 111 113 3.4. M´etodo de un Solo Paso.2. M´etodo de Euler. 94 95 1. 3.2.1.3. Adams-Bashforth. 96 1. M´etodos Impl´ıcitos. PROBLEMA DE VALOR INICIAL. Extrapolaci´ on de Lagrange.3. 2.2. • Segundo Orden.3. 1. 103 1. Notaci´ on de Butcher.3. Transformaci´on. Disparo. 104 104 1.1. Fundamentos. 92 1. 90 • Simple. An´ alisis del Error.1. SISTEMAS DE ECUACIONES. 105 106 106 2.3.1.2.1. 1. PROBLEMA DE VALOR EN LA FRONTERA. 3. • Modificado. M´etodo Runge-Kutta. 1.1.3. Algoritmo de Control.2.4.1. Discretizaci´ on.

Estos sistemas se tratar´an m´as extensamente en la secci´on 3.1. . 1.2.. . • Simple El m´etodo de Euler simple se basa en que el valor siguiente yn+1 se obtiene de yn a partir de yn+1 = yn + h f (xn . Resultados. Cuadratura de Lobatto. Su f´ ormula algor´ıtmica se basa en hallar una pendiente de recta apropiada para saltar cada paso. BIBLIOGRAFIA. y3 . GRANADOS METODOS NUMERICOS 3.3.3. siendo h el tama˜ no del paso. se encuentran valores consecutivos y1 . pudi´endose utilizar un tama˜ no del paso h igual o diferente en cada avance. y) x = x0 y(x0 ) = y0 (2) dx donde y(x) : R −→ RM es la soluci´ on que se desea encontrar. a partir de un valor inicial y0 . PROBLEMA DE VALOR INICIAL Un problema de ecuaci´on diferencial ordinaria (ODE . M´ etodo de Euler El m´etodo de Euler es el m´ as sencillo de todos los m´etodos de un solo paso. 3. • Impl´ıcito Parcial. Estabilidad. 1. yn ) + O(h2 ) 0 0 (3) 1 90 ECUACIONES DIFERENCIALES ORDINARIAS CAP. y2 . Al igual que antes se puede encontrar hacia adelante o hacia atr´ as del punto inicial.A. Un sistema de ecuaciones diferenciales ordinarias con valor inicial de primer orden de igual manera se define como dy = f (x. • Proceso Iterativo. y) dx x = x0 y(x0 ) = y0 (1) donde y(x) : R −→ R es la soluci´ on que se desea encontrar. 3. En teor´ıa la soluci´ on se puede encontrar hacia adelante o hacia atr´ as del punto inicial. 3. • Impl´ıcito Total.Ordinary Diferential Equation) con valor inicial de primer orden de define como dy = f (x. donde xn+1 = xn + h.1.1. Resuelto con Newton-Raphson.4. M´etodos m´ as complejos como el m´etodo de Taylor o Runge-Kutta ser´ an considerado tambi´en m´etodo de un solo paso. conocido su valor en un punto y(x0 ) = y0 denominado valor inicial. 114 116 118 120 120 121 123 126 1. tales que cada valor yn+1 se obtiene del inmediatamente anterior yn . Si se desea un avance hacia atr´ as basta con escoger un valor negativo para h.5. conocido su valor en un punto y(x0 ) = y0 denominado igualmente valor inicial (aunque en realidad sean M valores definidos en un u ´nico punto x = x0 ). . METODOS DE UN SOLO PASO Los m´etodos de un s´ olo paso se basan en que. Se hace un avance o integraci´ on en el paso a la vez.3.IV .

000 1.2 1.072 2. el m´etodo se considera impl´ıcito y en la matriz de Butcher habr´ıa que cambiar el 1 de la posici´ on a21 a a22 .210 1.8 2.000 1. La primera forma (m´etodo de Heun) se formula en la siguientes dos expresiones yn+1 = yn + h f (xn . yn+1/2 ) + O(h3 ) yn+1/2 = yn + yn+1 SEC.184 2.4 1. Del lado derecho se coloca en la notaci´on de Butcher.226 1. La segunda forma (m´etodo del pol´ıgono) se formula con las siguientes dos expresiones h f (xn .593 2.100 1. Cuando se corrige una s´ ola vez.1 −−− 1. el m´etodo se considera expl´ıcito.487 2.1. yn ) + O(h2 ) yn+1 = yn + 0 1 h [f (xn . yn+1 )] + O(h3 ) 2 0 1 0 0 (4) 1/2 1/2 La primera f´ ormula es la de Euler simple (3) y se usa como predictora.216 1.000 1. METODOS DE UN SOLO PASO 0 1/2 0 1/2 0 0 0 1 (5) 91 . yn ) es la pendiente de recta de la soluci´on en el punto xn .143 2. Cuando se corrige m´as de una vez.1. como indica (1). EJEMPLO: De forma de ilustrar el uso del m´etodo.654 2.4. 1.05 ex 0. on El valor f (xn .478 1.2 h = 0. yn ) + f (xn+1 .000 0. se evalua la expresi´on obtenida para un valor de k = 1 y los valores obtenidos se presentan en la siguiente tabla con distintos pasos de integraci´ on h Resultados yn xn h = 0.492 0. La soluci´ num´erica viene a ser pol´ıgono de tramos rectos cada uno con una pendiente diferente en el punto precedente yn . se presenta la soluci´ on para la siguiente ecuaci´ on diferencial dy = ky dx con y(0) = 1 cuya soluci´ on anal´ıtica es y = exp(kt). • Modificado El m´etodo de Euler se modifica de dos maneras distintas a saber.0 1.1 h = 0.464 1.0 2. la segunda f´ ormula utiliza una pendiente de recta promedio entre los puntos de xn y xn+1 y se usa como correctora.200 1.105 0.221 0. yn ) + O(h2 ) 2 = yn + h f (xn+1/2 .103 1.FUNDAMENTOS En el extremo derecho se ha colocado este m´etodo en la notaci´ on de Butcher que se ver´a en la secci´on 1.440 1.718 En la tabla es posible apreciar que cuanto menor es el paso de integraci´on. Utilizando el m´etodo de Euler verificar la exactitud de la soluci´ on propuesta. menores son los errores.

0 1. derivando la ecuaci´on diferencial.667 2. Los ´ordenes de los errores locales son de h3 para los m´etodos modificados. Utilizando el m´etodo de Taylor se deben evaluar las derivadas primera.718 2.350 1. puesto que y  (x) = f (x. los errores con 92 ECUACIONES DIFERENCIALES ORDINARIAS CAP.389 En la tabla es posible apreciar dos caracter´ısticas sumamente importantes del m´etodo de Taylor.717 2.200 1. segunda y sucesivas.000 1.000 1. se evalua la expresi´on obtenida para un valor de k = 1 y los valores obtenidos se presentan en la siguiente tabla Resultados yn xn P =1 P =3 P =5 ex 0.2 1.IV .221 1.350 1.267 7.000 1. y) y  (x) = fx + fy y  y  (x) = fxx + fyx y  + fy y  + fyy (y  )2 (7) etc. una de ellas es que a medida que nos alejamos del centro de la serie para un valor de P fijo.5 1.000 2.105 0. 1.649 1.2.649 1. En la primera forma es la media de las pendientes (inicial y final). y deben evaluarse en x = xn . se obtiene dn y = kn y dxn Para verificar la exactitud de la soluci´ on propuesta. por lo cual.105 1. a diferencia del m´etodo de Euler simple que era de h2 . yn+1/2 ) para con Euler simple de nuevo calcular yn+1 .221 1. se presenta la soluci´ on para la siguiente ecuaci´ on diferencial dy = ky dx con y(0) = 1 cuya soluci´ on anal´ıtica es y = exp(kt).500 1.3 1.1.0 3.646 1. La diferencia entre estos dos m´etodos en la forma como se calcula la pendiente usada.1 1. GRANADOS METODOS NUMERICOS La primera f´ ormula es la Euler simple (3) usada para estimar el punto medio yn+1/2 con h/2.221 0. EJEMPLO: De forma de ilustrar el uso del m´etodo.A.000 0.100 1. donde luego se utiliza la pendiente del punto medio f (xn+1/2 .350 0. en la segunda forma es la pendiente del punto medio. Del lado derecho est´a la notaci´ on de Butcher para este m´etodo.300 1.0 2.333 7.105 1. M´ etodo de Taylor El m´etodo de Taylor se basa en la expansi´ on de series de Taylor yn+1 = yn + h y  (xn ) + 1 2  1 1 P (P ) h y (xn ) + h3 y  (xn ) + · · · + h y (xn ) + O(hP +1 ) 2! 3! P! (6) donde las diferentes derivadas se calculan aplicando la regla de la cadena.000 6.

Un m´etodo de N etapas y orden P tiene la siguiente f´ormula algor´ıtmica yn+1 = yn + h ϕN (xn . 1. yn ) es la ponderaci´ on de varias pendientes de recta ks en el intervalo [xn . xn+1 ] N . M´ etodo Runge-Kutta Un m´etodo Runge-Kutta al igual que los me´etodos anteriores son m´etodos de un solo paso.3.FUNDAMENTOS respecto a la soluci´on exacta tienden a incrementarse. y la segunda es que a medida que el valor de P se incrementa para un mismo valor de x. la solucion obtenida se acerca rapidamente a la soluci´ on exacta. yn ) + O(hP +1 ) (8) donde ϕ(xn .1.

yn + h aN 1 k1 + h aN 2 k2 + · · · + h aN. yn − h k1 + 2 h k2 ) yn+1 = yn + h (k1 + 4 k2 + k3 ) + O(h4 ) 6 SEC. yn + h k1 /2) k3 = f (xn + h..N −1 kN −1 ) No siempre el n´ umero de etapas coincide con el orden. . yn ) k2 = f (xn + b2 h. METODOS DE UN SOLO PASO 0 1/2 1 0 1/2 −1 0 0 2 0 0 0 (13) 1/6 2/3 1/6 93 . 1. • Segundo Orden Este m´etodo coincide con el m´etodo de Euler modificado tipo Heun con una sola correci´ on (secci´ on 1. xN = f (xn + bN h. yn + h k1 ) yn+1 0 1 h = yn + (k1 + k2 ) + O(h3 ) 2 0 1 0 0 (11) 1/2 1/2 El m´etodo de Ralston es k1 = f (xn . yn + h 3k1 /4) yn+1 0 3/4 h = yn + (k1 + 2 k2 ) + O(h3 ) 3 0 3/4 0 0 (12) 1/3 2/3 • Tercer Orden El m´etodo de Ralston & Rabinowitz es el siguiente k1 = f (xn . . yn + h a31 k1 + h a32 k2 ) (10) k4 = f (xn + b4 h. yn + h a21 k1 ) k3 = f (xn + b3 h. yn ) k2 = f (xn + 3h/4.1. ϕN (xn . yn + h a41 k1 + h a42 k2 + h a43 k3 ) .1.1 • Modificado) k1 = f (xn .. . yn ) k2 = f (xn + h/2. yn ) k2 = f (xn + h. yn ) = c1 k1 + c2 k2 + c3 k3 + · · · + cN kN cs = 1 (9) s=1 y las variables auxiliares ks se definen como k1 = f (xn .

por lo cual son los mas populares para hallar la soluci´ on num´erica de ecuaciones diferenciales ordinarias. yn ) k2 = f (xn + h/3. yn ) k2 = f (xn + h/2.5 ex 0. se eval´ ua la expresi´on obtenida para un valor de k = 1 y los valores obtenidos se presentan en la siguiente tabla Resultados yn xn h = 0.71828 En la tabla anterior se evidencia la precisi´on del m´etodo de Runge-Kutta de cuarto orden cl´ asico de tipo explicito.1057 0.0 1.A.22140 0. yn + h k1 − h k2 + h k3 ) yn+1 = yn + 94 h (k1 + 3 k2 + 3 k3 + k4 ) + O(h5 ) 8 0 1/3 0 1/3 0 0 0 0 0 0 2/3 1 −1/3 1 1 −1 0 1 0 0 1/8 (15) 3/8 3/8 1/8 ECUACIONES DIFERENCIALES ORDINARIAS CAP. El m´etodo de Kutta del segundo tipo es k1 = f (xn . yn − h k1 /3 + h k2 ) k4 = f (xn + h.64872 1. que a´ un incrementando el paso cinco veces puede estimar valores con bastante precisi´on. yn + h k1 /3) k3 = f (xn + 2h/3. se presenta la soluci´ on para la siguiente ecuaci´ on diferencial dy = ky dx con y(0) = 1 cuya soluci´ on anal´ıtica es y = exp(kt). Esta caracter´ıstica es propia de la mayoria de los m´etodos de esta familia.IV .22140 −−− 1. yn + h k2 /2) k4 = f (xn + h.1 1.0 1. GRANADOS METODOS NUMERICOS • Cuarto Orden El m´etodo de Kutta del primer tipo es k1 = f (xn .10517 −−− 1.1 h = 0. yn + h k3 ) yn+1 = yn + 0 1/2 0 1/2 0 0 0 0 0 0 1/2 1 0 0 1/2 0 0 1 0 0 h (k1 + 2 k2 + 2 k3 + k4 ) + O(h5 ) 6 (14) 1/6 1/3 1/3 1/6 EJEMPLO: De forma de ilustrar el uso del m´etodo.0 0.5 −−− 1. Utilizando el m´etodo de Kutta del primer tipo.0 −−− 2. yn + h k1 /2) k3 = f (xn + h/2.0 1.64844 1. Para verificar la exactitud de la soluci´ on propuesta.71781 2.2 1.

1. k1 = f (xn . yn + h k1 /2 − h 3k3 /2 + h 2k4 ) yn+1 = yn + h (k1 + 4 k4 + k5 ) + O(h5 ) 6 0 1/3 0 1/3 0 0 0 0 0 0 0 0 1/3 1/6 1/6 0 0 0 1/2 1/8 0 3/8 0 0 1 1/2 0 −3/2 2 0 1/6 0 0 (17) 2/3 1/6 cuyo error de truncamiento local se conoce en funci´on de las ks n+1 = 1 (2 k1 − 9 k3 + 8 k4 − k5 ) = O(h5 ) 30 (18) • Quinto Orden El m´etodo de Butcher es. yn − h k2 /2 + h k3 ) k5 = f (xn + 3h/4. yn + h k1 /4) k3 = f (xn + h/4. yn − h 3k1 /7 + h 2k2 /7 + h 12k3 /7 − h 12k4 /7 + h 8k5 /7) yn+1 = yn + h (7 k1 + 32 k3 + 12 k4 + 32 k5 + 7 k6 ) + O(h6 ) 90 SEC. METODOS DE UN SOLO PASO 95 . Aqui se cumple que el n´ umero de etapas N = 6 y el orden P = 5 no coinciden. yn + h k1 /8 + h 3k3 /8) k5 = f (xn + h. yn + h k1 /8 + h k2 /8) k4 = f (xn + h/2. yn ) k2 = f (xn + h/3. 1. Un m´etodo de 5 etapas pero tambi´en de cuarto orden es el m´etodo de Merson k1 = f (xn . yn ) k2 = f (xn + h/4.FUNDAMENTOS Existen m´etodos con coeficientes ex´ oticos como el m´etodo de Gill 0 1/2 0 1/2 0 0 1/2 √ −1+ 2 2 √ 2− 2 2 √ − 22 √ 2− 2 6 1 0 1/6 0 0 0 0 0 0 (16) √ 2+ 2 2 √ 2+ 2 6 0 1/6 Los valores de los coeficientes est´an alrededor de los coeficientes del m´etodo de Kutta del primer tipo (13). yn + h 3k1 /16 + h 9k4 /16) k6 = f (xn + h. yn + h k1 /6 + h k2 /6) k4 = f (xn + h/2. yn + h k1 /3) k3 = f (xn + h/3.

y) dx i = 1. y) dx (2) y = y(x) = (y 1 (x). Sea el siguiente sistema de M ecuaciones diferenciales de primer orden dy i = f i (x.1985]. 2. se puede plantear al m´etodo Runge-Kutta de orden P y equipado con N etapas con la siguiente expresi´on [Gear. yn + ars h ks ) 96 ECUACIONES DIFERENCIALES ORDINARIAS (6. M + 1 (5) pero con el adicional cambio de variable yo1 = xo en (4). por ejemplo x = xo y i (xo ) = yoi (4) las expresiones (1) y (4) se dicen que conforman un “problema de valor inicial”. puede ser transformado en un sistema de ecuaciones diferenciales de primer orden [Gerald. todo sistema de ecuaciones diferenciales de cualquier orden.IV . . . Si el sistema est´ a desacoplado. se dice que el sistema est´a desacoplado. entonces cada una de las ecuaciones diferenciales se puede resolver separadamente. Esto es donde dy = f (x. Cuando las condiciones de las soluci´ on de y(x) son conocidas en un u ´nico punto. .1985][Gear. . . de lo contrario se dice que es un “problema de valor en la frontera”. y 3 (x). .a) donde las variables M -dimensionales auxiliares bf kr son calculadas de la forma kri = f i (xn + br h.b) CAP. y) depende s´ de lo contrario se dice que est´ a acoplado. 3. . NOTACION DE BUTCHER Como es bien conocido. con un conveniente cambio de variables. . Cuando cada funci´ on f i (x. GRANADOS METODOS NUMERICOS 0 1/4 0 1/4 0 0 0 0 0 0 0 0 0 0 1/4 1/8 1/8 0 0 0 0 1/2 0 −1/2 1 0 0 0 3/4 3/16 0 0 9/16 0 0 1 −3/7 2/7 12/7 −12/7 8/7 0 7/90 0 16/45 2/15 (19) 16/45 7/90 1.A. . En realidad. . Por esta raz´ on. estos u ´ ltimos sistemas son los que se estudiar´an en esta parte. el sistema (1) es una caso particular del caso m´as general expresado de la siguiente forma [Burden & Faires. M (1) siendo y una funci´ on M -dimensional con cada una de sus componentes dependiendo de x. . .2. 3.1979][Burden & Faires.1971] i yn+1 = yni + cr h kri (6. y 2 (x). y M (x)) (3) olo de la variable y i . Tratando de hacer una formulaci´ on general.1971] dy = f (y) ≡ dx  dy i /dx = 1 dy i /dx = f i (y) if i = 1 if i = 2.

si la expansi´ on en series de Taylor para la soluci´ on exacta y(xn + h) del problema y la soluci´ on P aproximada yn+1 coinciden hasta (e incluyendo) el t´ermino del orden de h [Lapidus & Seinfeld.1987] y [Hairer & Wanner.. N (6. yn ). representa una etapa del m´etodo. Despu´es del art´ıculo de Butcher [1964] se ha vuelto costumbre simbolizar un m´etodo Runge-Kutta (6) con valores ordenados de forma tabular.1971]. Dado un punto (xn . yn ). xn + h]. no es importante el n´ umero de factores con el mismo ´ındice en cada t´ermino). .FUNDAMENTOS para i = 1. siendo las dos u ´ ltimas un par de cat´ alogos de todos los m´etodos Runge-Kutta imaginables. (xn . (7) es decir. por ello el m´etodo Runge-Kutta se considera dentro del grupo de m´etodos denominados de un s´olo paso. s = 1. el m´etodo avanza hacia adelante (´ o hacia atr´ as si h es negativo) un paso de integraci´on h en x. el punto siguiente (xn+1 . 3.1971]. Estos c´alculos no son m´as que evaluaciones de f i (x. y2 ). . Cada vez que se hace este procedimiento. br y cr de forma ordenada como en la siguiente tabla matricial b1 b2 b3 b4 a11 a21 a31 a41 a12 a22 a32 a42 a13 a23 a33 a43 a14 a24 a34 a44 c1 c2 c3 c4 0 ≤ br ≤ 1 N . entonces luego se pueden calcular (x1 . y) para puntos intermedios x + br h en el intervalo [xn . originalmente desarrollada por Butcher [1964]. . Cada integraci´ on o salto el m´etodo se reinicializa con la informaci´on del punto precedente inmediatamente anterior. 2. ofreciendo la soluci´on en puntos consecutivos. De esta forma. Acomodando los coeficientes ars . hasta la frontera deseada en x. yn+1 ) se obtiene usando la expresion (6). Con la finalidad de ilustrar la notaci´on de Butcher. xn+1 ] (0 ≤ br ≤ 1). y continuar de esta forma. . El m´etodo Runge-Kutta antes definido se puede aplicar para resolver un problema de valor inicial y se usa recurrentemente. como se le denomina actualmente. y3 ). uno para cada salto. se tiene que y(xn + h) − yn+1 ≤ Φ(ζ) hP +1 = O(hP +1 ) ζ ∈ [xn .c) N´ otese que se ha usado la notaci´ on indicial.1991]. . . . (x3 . y0 ) definido por (4). de manera que si un ´ındice aparece dos veces (´o m´as) en un t´ermino. M r. Esta representaci´on matricial del m´etodo Runge-Kutta se presenta de forma sistem´atica en las referencias [Lapidus & Seinfeld. Ahora se introduce una representaci´on condensada del m´etodo Runge-Kutta generalizado. . La evaluaci´ on de cada variable M -dimensional auxiliar kr . si el m´etodo comienza con el punto (x0 . si para un problema lo suficientemente suave del tipo (2) y (4). pero pre-multiplicadas por h (esta multiplicaci´on por h puede hacerse al final. 2. Un m´etodo Runge-Kutta (6) tiene orden P . . . lo que hace al m´etodo m´as eficiente). . [Hairer et al. (x2 . No obstante. y1 ). consid´erese (6) aplicado a un m´etodo de cuatro etapas (N = 4). 3. . se debe realizar una sumatoria en todo su rango (en este contexto. se debe notar que las variables auxiliares kri son calculadas para todo r hasta N en cada paso. siendo xn+1 = xn + h (8) y h el paso del m´etodo.

ars = br s=1 N .

SEC. 1.2. y el m´etodo se clasifica como semi-impl´ıcito ´ o simple-diagonalmente impl´ıcito. de acuerdo a las caracter´ısticas de la matriz ars : Si ars = 0 para s ≥ r. y el m´etodo se clasifica como completamente expl´ıcito. pero incluyendo la diagonal principal. La representaci´ on anterior permite hacer una distinci´ on b´ asica para los distintos m´etodos Runge-Kutta. Si. entonces la matriz ars es triangular inferior. entonces la matriz ars es triangular inferior. excluyendo la diagonal principal. Si la matriz ars es diagonal por bloques. (9) cr = 1 r=1 con valores particulares. se obtiene la notaci´on de Butcher del m´etodo en particular. ars = 0 para s > r. NOTACION DE BUTCHER 97 .

3. N . .A.a ) yn+1 = yn + cr kr donde las variables auxiliares kr se definen como (6. permite verificar muy f´ acilmente las propiedades que los coeficientes ars . 3. b. siendo yn = y(xn ). el valor de yn+1 es obtenido del valor de yni .c) significa que en la expresi´on (6. por lo que la suma obviamente debe ser la unidad. y el m´etodo es diagonalmente impl´ıcito. se deben satisfacer las siguientes propiedades 0 ≤ br ≤ 1 ars δs = br cr δ r = 1 (10.IV . Si la primera fila de la matriz ars est´a llena de ceros. Adicionalmente. 2.b ) kr = h f (yn + ars ks ) Si ahora se hace una expansi´on en serie de Taylor a la componente kri de (6.b) CAP.b) deben ser evaluadas para x ∈ [xn .b) resulta de aplicar el m´etodo Runge-Kutta (6) a un sistema de ecuaciones diferenciales del tipo (5). contrariamente.a). br . resulta que kri =h f i [δr ] + h fji [ars ksj ] + h i f [ars ksj ] [art ktk ] 2 jk h i f [ars ksj ] [art ktk ] [aru kul ] 6 jkl h i + f [ars ksj ] [art ktk ] [aru kul ] [arv kvm ] + O(h6 ) 24 jklm + (11. donde ks1 = 1 ∀s = 1. La i propiedad (10. 2. GRANADOS METODOS NUMERICOS se dice que el m´etodo es diagonalmente impl´ıcito (por bloques). . on de las propiedades (10) y usando Los coeficientes ars . se debe hacer notar que una variable auxiliar kr puede depender de ella misma y de otras variables auxiliares no calculadas hasta el momento en la misma etapa. la representaci´ on arriba descrita. entoces se denomina m´etodo de Lagrange [van der Houwen & Sommeijer.a) donde la regla del ´ındice repetido y la siguiente notaci´ on ha sido usada f i = f i (xn ) 98 fji = ∂f i   ∂y j yn i fjk = ∂ 2 f i   ∂y j ∂y k yn ··· ECUACIONES DIFERENCIALES ORDINARIAS (11.s = cs . ninguna de las condiciones previas son satisfechas. br y cr son determinados mediante la aplicaci´ algunas relaciones que son deducidas de la siguiente manera: Sea el siguiente sistema de ecuaciones diferenciales ordinarias de primer orden expresado de acuerdo a (5) como un problema de valor inicial del tipo dy = f (y) dx x = x0 (5 ) (4 ) y(x0 ) = y0 El m´etodo Runge-Kutta aplicado a este problema se formula como (6. En particular. . y cr deben tener.a. Es por ello. . La propiedad (10.a) expresa que el m´etodo Runge-Kutta es un m´etodo de un s´ olo paso.b ). proyectando con h un promedio de las derivadas dy i /dx = f i (x. Este promedio se hace con los coeficientes de peso cr . Si. que estos m´etodos se llaman impl´ıcitos en estos casos. y as´ı la suma de ars en cada l´ınea r ofrece el valor de br . Las anteriores propiedades pueden interpretarse de la siguiente manera: La propiedad (10. yn ). se dice que el m´etodo es completamente impl´ıcito. y que las funciones f i (x. entonces el m´etodo se dice que es r´ıgidamente preciso. .1991] (los coeficientes br pueden ser arbitrarios). a1. alrededor del punto (xn . . c) donde el vector δ es unitario en todas sus componentes (δr = 1 ∀r = 1. N ). . y) en los puntos intermedio del paso. Cuando ning´ un elemento de la matriz ars es nulo. . el m´etodo se clasifica de impl´ıcito.s = 0. En los casos de los m´etodos Runge-Kutta impl´ıcitos. xn+1 ]. y(x)) en (6. Si un m´etodo de Lagrange tiene bN = 1 y la u ´ltima fila es el arreglo aN.

1. NOTACION DE BUTCHER 99 .a ). y por consiguiente los ´ındices en (11. y comparando luego con la siguiente expansi´on en series de Taylor de yn+1 (Esta expansi´ on se desarrolla alrededor del punto yn ) i yn+1 = yni + h f i + h2 i j h3 i (fj f ) + (fji fkj f k + fjk f jf k) 2 6 h4 i j k l j k l i i (f f f f + fji fkl f f + 3fjk flj f l f k + fjkl f j f kf l) 24 j k l h5 i j k l m j k l m j k i l m + (f f f f f + fji fkj flm f l f m + 3fji fkl fm f f + fji fklm f k f l f m + 4fjk flj f k fm f 120 j k l m + (11.e) kϕm = h f m [δϕ ] + O(h2 ) (11. se obtiene que 1 i j k 2 kri =h f i [δr ] + h2 [fji f j br ] + h3 [fji fkj f k ars bs + fjk f f br ] 2 1 j k l f f ars b2s + h4 [fji fkj flk f l ars ast bt + fji fkl 2 1 i j k l 3 i + fjk flj f k f l br ars bs + fjkl f f f br ] 6 1 l m k f ars ast atu bu + fji fkj flm f l f m ars ast b2t + h5 [fji fkj flk fm 2 1 j k l m j + fji fkl fm f f ars bs ast bt + fji fklm f k f l f m ars b3s 6 1 i j k l m i l m + fjk flj f k fm f br ars ast bt + fjk flm f f f br ars b2s 2 1 i j k l m 1 i j k l m 2 + fjk fl fm f f ars bs art bt + fjkl fm f f f br ars bs 2 2 1 i + fjklm f j f k f l f m b4r ] + O(h6 ) 24 (11.2.h) j i i k l m i j k l m i + 4fjk flm f k f l f m + 3fjk flj fm f f + 6fjkl fm f f f + fjklm f j f k f l f m ) + O(h6 ) SEC.b) son permutables.FUNDAMENTOS Aqu´ı las functiones se suponen del tipo C ∞ (funciones anal´ıticas).a) puede de nuevo ser expandida en serie de Taylor como h j [asα kαk ] [asβ kβl ] ksj =h f j [δs ] + h fkj [asα kαk ] + fkl 2 (11.c) h j k l m 5 + fklm [asα kα ] [asβ kβ ] [asγ kγ ] + O(h ) 6 De la misma manera kαk puede ser expandida como kαk = h f k [δα ] + h flk [aαδ kδl ] + h k f [aαδ kδl ] [aα km ] + O(h4 ) 2 lm (11.g) Insertando esta u ´ ltima expresi´on de los componentes de kr en la ecuaci´on (6.f ) Si finalmente se hace una recurrente substituci´ on regresiva.d) y as´ı sucesivamente hasta l [aδϕ kϕm ] + O(h3 ) kδl = h f l [δδ ] + h fm (11. La variable ksj en el segundo t´ermino del miembro de la derecha de (11.

1964]. M´etodos basados en las cuadraturas de Gauss-Legendre y de Lobatto). M´etodos de Kutta). s. br se ha definido de acuerdo a la propiedad (10. M´etodo de Euler).g. que es el n´ umero de etapas. los de tercer y cuarto ordenes (e. El siguiente teorema [Hairer & Wanner.A. GRANADOS METODOS NUMERICOS resultan las siguientes relaciones que deben satisfacerse por los coeficientes ars . tanto expl´ıcitos como impl´ıcitos.1991] resume los resultados de (12) de una forma m´ as concisa: Teorema [Butcher. En Hairer et al. pero s´ olo para m´etodos expl´ıcitos hasta de cuarto orden. M´etodo de Euler modificado en sus variantes del paso medio o´ del trapecio).b). t y u var´ıan desde 1 hasta N . m´etodo Fehlberg y m´etodo de Cash ´ & Karp) y de sexto orden (e. [1987]. Gear [1971] presenta una deducci´ on similar a (11). En esta u ´ ltima referencia aparece un teorema que resalta la equivalencia entre el m´etodo Runge-Kutta y los m´etodos de colocaci´on ortogonal.g. Por consiguiente. br y cr para un m´etodo Runge-Kutta de hasta quinto orden cr ars ast atu bu = 1/120 h cr ars ast b2t = 1/60 cr δ r = 1 cr ars bs ast bt = 1/40 cr ars ast bt = 1/24 h2 cr ars b3s = 1/20 cr ars b2s = 1/12 cr br = 1/2 cr br ars ast bt = 1/30 cr br ars bs = 1/8 h4 cr b3r = 1/4 cr ars bs = 1/6 h 3 cr b2r cr br ars b2s = 1/15 (12) cr ars bs art bt = 1/20 cr b2r ars bs = 1/10 = 1/3 h5 cr b4r = 1/5 En estas relaciones. N´ otese tambi´en que se han usado expansiones de las series de Taylor hasta el t´ermino de quinto orden (con h5 ) en el desarrollo de las anteriores relaciones.g. Sea la siguiente condici´on definida como B(P ) N . aparecen relaciones similares a (12). pasando por los de segundo orden (e.g. En todos los casos los ´ındices r. desde el primer orden (e. pero s´ olo para m´etodos expl´ıcitos. hasta el m´etodo de quinto orden (e. las relaciones (12) son v´ alidas para los m´etodos Runge-Kutta.g.

ci bq−1 = i i=1 C(η) N .

1 q aij bq−1 = j j=1 D(ξ) N .

. P i = 1. 1. N q = 1. . . . . η j = 1. . 2.1. .3. 2.IV . . ξ Si los coeficientes bi . . C(η) y D(ξ). . entonces el m´etodo es de orden P . .a) 0 1/12 ECUACIONES DIFERENCIALES ORDINARIAS CAP. An´ alisis del Error Sean los coeficientes de la cuadratura de Lobatto 0 0 0 0 √ √ √ (5 − 5)/10 (5 + 5)/60 1/6 (15 − 7 5)/60 √ √ √ (5 + 5)/10 (5 − 5)/60 (15 + 7 5)/60 1/6 √ √ 1 1/6 (5 − 5)/12 (5 + 5)/12 1/12 100 5/12 5/12 0 0 0 (1. . CONTROL DEL PASO 1. . ci bq−1 aij i i=1 bqi q q = 1. con P ≤ η + ξ + 1 and P ≤ 2η + 2. . 2. . ci y aij de un m´etodo Runge-Kutta satisfacen las condiciones B(P ). 2.3. . . 2. . . . N cqj (1 − bqj ) = q (12 ) q = 1.

a) .3.FUNDAMENTOS Este m´etodo ser´a denominado como el “principal” de sexto orden (P = 6). Debe observarse que los coeficientes expuestos antes en (35. pero es expl´ıcito).b) est´an incluidos en (1. El m´etodo Runge-Kutta impl´ıcito de sexto orden y cuatro etapas definido por los coeficientes (1. Fehlberg [1971] report´ o este aspecto al dise˜ nar un algoritmo del control del paso para su m´etodo Runge-Kutta-Fehlberg expl´ıcito de cuarto y quinto ´ordenes empotrado ´o encapsulado completamente uno en el otro.b) donde existen dos juegos de coeficiente cr . Este otro m´etodo es de tercer orden ˜ = 3) y en la notaci´on de Butcher son (P˜ = 3). 1. CONTROL DEL PASO 101 . uno para el m´etodo de cuarto orden (l´ınea de arriba) y otro para el m´etodo de quinto orden (l´ınea de abajo).a) (2. en realidad representa dos m´etodos: uno de tercer orden y tres etapas. constituyen lo que se denomina la forma de la cuadratura de Lobatto empotrada de tercer y sexto ´ordenes con cuatro etapas (el m´etodo de Fehlberg [1971] posee una forma similar. tiene tres etapas (N 0 √ (5 − 5)/10 √ (5 + 5)/10 0 0 0 √ √ (5 + 5)/60 1/6 (15 − 7 5)/60 √ √ (5 − 5)/60 (15 + 7 5)/60 1/6 √ √ 1/6 (5 − 5)/12 (5 + 5)/12 (1. Es decir.b) Ambos m´etodos. se obtienen con un s´olo esfuerzo dos soluciones de diferentes ´ordenes en el error de truncamiento local. el principal y el secundario. pueden ser detectados una parte de ellos que forman otro m´etodo Runge-Kutta “secundario” empotrado en el primero. 0 0 0 0 0 0 0 1 4 1 4 0 0 0 0 0 3 8 3 32 9 32 0 0 0 0 12 13 1932 2197 7200 − 2197 7296 2197 0 0 0 1 439 216 −8 3680 513 845 − 4104 0 0 1 2 8 − 27 2 3544 − 20520 1859 4104 11 − 40 0 4to 25 216 0 1408 2565 2197 4104 − 15 0 5to 16 135 0 6656 12825 28561 56430 9 − 50 2 55 0 0 0 0 0 0 0 1 5 1 5 0 0 0 0 0 3 10 3 40 9 40 0 0 0 0 3 5 3 10 9 − 10 6 5 0 0 0 1 − 11 54 5 2 − 70 27 35 27 0 0 7 8 1631 55296 175 512 575 13824 44275 110592 253 4096 0 4to 37 378 0 250 621 125 594 0 512 1771 5to 2825 27648 0 18575 48384 13525 55296 277 14336 1 4 (2. Resolviendo un sistema de ecuaciones diferenciales ordinarias para los mismos coeficientes. Por ejemplo. Dentro de los coeficientes del m´etodo principal. Este aspecto es relevante para controlar el tama˜ no del paso. reduciendo a un m´ınimo el n´ umero de c´ alculos.a). empotrado en el otro de sexto orden y cuatro etapas.a) son SEC. los coeficientes (1.

a) es i i i En+1 = yn+1 − y˜n+1 = 1 ( 2090 k1i − 22528 k3i − 21970 k4i + 15048 k5i + 27360 k6 ) + O(h5n ) 752400 (3) Los coeficientes particulares expuestos antes en (2. k3 y k4 son las mismas para ambas expresiones y son obtenidas usando el sistema de ecuaciones diferenciales ordinarias con los coeficientes (1.b)..a). No obstante. ofrecidas por los Sean yn y y m´etodos Runge-Kutta impl´ıcitos tipo Lobatto de sexto y tercer o´rdenes. si el m´etodo Runge-Kutta es de orden P . k2 .a) y (1.1999]. la ecuaci´on (4) menos la ecuaci´ on (5).n+1 = & yi − y i (xn+1 ) ' y i (xn+1 ) n+1 (11) (12) es el error de truncamiento local relativo. GRANADOS METODOS NUMERICOS i los originales de Fehlberg [1971].A. ˜ n+1 las soluciones del sistema de ecuaciones diferenciales ordinarias.b) fueron desarrollados por Cash & Karp [1990]. respectivamente. no son los originales de Fehlberg. 102 ECUACIONES DIFERENCIALES ORDINARIAS CAP. Si la expresi´on (41) se organiza de la siguiente forma i En+1 = & yi − y i (xn+1 ) ' i i y (xn+1 ) − [˜ yn+1 − y i (xn+1 )] y i (xn+1 ) n+1 (10) se obtiene que i En+1 = ei(r). i i i En+1 = yn+1 − y˜n+1 = √ 1 [−k1i + 5(k2i − k3i ) + k4i ] + O(h4n ) 12 (6) on diferencial en el valor x = xn . con una mejora en las propiedades de los errores [Press et al. empotrados en una s´ ola formulaci´on como se describi´ o antes en (1.1992].IV . y aunque est´an basados en la misma filosof´ıa y orden. 1 i (k + 5k2i + 5k3i + k4i ) 12 1 (4) √ √ 1 [2k1i + (5 − 5)k2i + (5 + 5)k3i ] 12 (5) i yn+1 = yni + i y˜n+1 = yni + Las variables auxiliares k1 . pero algunos piensan que tiene un mejor comportamiento [Chapra & Canale. entonces los errores de truncamiento Si y(xn ) es la soluci´on exacta de la ecuaci´ local de las soluciones num´ericas (4) y (5) son definidos respectivamente por ein = yni − y i (xn ) = O(h7n−1 ) (7) e˜in = y˜ni − y i (xn ) = O(h4n−1 ) (8) i i i En+1 = yn+1 − y˜n+1 = ein+1 − e˜in+1 = O(h4n ) (9) y luego Recu´erdese que. El error en este caso entre el m´etodo de quinto orden yn+1 y el de cuarto i orden y˜n+1 en la tabla (2. Esto es. es decir. i Se denotar´a como En+1 la diferencia entre la soluci´ on del m´etodo de sexto orden y el m´etodo de tercer orden. el error de truncamiento local es de orden P + 1 . Esto es.n+1 y i (xn+1 ) − e˜in+1 donde ei(r). los valores particulares encontrados por Cash & Karp hacen el m´etodo m´as eficiente que el m´etodo original de Fehlberg.

Smin ) (20) hn+1 = hn Sn (21) hn+1 = max(hn+1 . se obtiene hn+1 = hn con Sn = $ 1 %α Qn $ 1 %α = h n Sn Qn α= (17) 1 = 1/4 ´o 1/5 ˜ P +1 (18) Para el m´etodo de Fehlberg descrito antes en (2). y que hn+1 siempre sea m´as grande que el valor l´ımite hmin . Aqu´ı es conveniente mencionar que Shampine et al.9 ∼ 0. pero un poco menor. puesto que los errores m´as grandes provendr´ıan del m´etodo con el menor orden. Smax ]. CONTROL DEL PASO $ 1 %α Qn Cq = 0. Teniendo en cuenta el i orden de la diferencia En+1 definida por (9). para que la soluci´ on de la ecuaci´ on diferencial en un s´ olo paso sea aceptada.3.[1976] usan expresiones similares a (17) y (18) para controlar el tama˜ no del paso en el m´etodo Runge-Kutta de cuarto y quinto o´rdenes desarrollado originalmente por Fehlberg [1971].99 α = 1/4 (19) Sn = max(min(Sn . el exponente ser´ıa α = 1/5. • 1. Adicionalmente.max |yn+1 | + e˜max siendo las tolerancias para los errores de truncamiento local relativo y absoluto propuestos por el usuario del algoritmo de control que se explicar´ a a continuaci´on. con la finalidad de garantizar que Sn siempre est´e acotado en el intervalo [Smin .max |yn+1 | + e˜max |En+1 (13) donde e(r). el parametro Qn puede ser redefinido como Qn = $ h %P˜ +1 n hn+1 donde P˜ = 3 o´ 4   Qn = max Qin (15) (16) 1≤i≤M y as´ı. se puede aplicar la desigualdad de Cauchy-Schwartz y la desigualdad triangular a la expresi´on (11). que en ese caso ser´ıa el de cuarto orden con P˜ = 4. Smax ). Algoritmo de Control Sea hn+1 el tama˜ no del paso en el siguiente paso que tiende a hacer Qin ∼ = 1.FUNDAMENTOS i Si ahora se asume que y i (xn+1 ) es aproximado por yn+1 en el denominador de (12).n+1 | |y i (xn+1 )| + |˜ ein+1 | ≤ e(r).3. y as´ı hacer Qn ∼ = 1. hmin ) (22) 103 . y de esto resulta i i | ≤ |ei(r). resolviendo para hn+1 . La expresi´on (13) tambi´en significa que. Todas las modificaciones descritas est´an resumidas a continuaci´ on Sn = Cq SEC.max y e˜max son respectivamente las tolerancias para el error de truncamiento local relativo y absoluto de los m´etodos Runge-Kutta impl´ıcitos de sexto y tercer ´ordenes. se debe verificar que i | |En+1 Qin = ≤1 (14) i e(r). los mencionados autores multiplican Sn por un coeficiente Cq menor que la unidad para que hn+1 tienda a ser casi igual que hn . 1.2. pero con algunas modificaciones.

Smin = 0. que permita satisfacer las tolerancias e(r). se describe a continuaci´on: • Estimado un tama˜ no de paso inicial hn . i i • Las expresiones (4) y (5) permiten encontrar las soluciones yn+1 y y˜n+1 de los m´etodos de sexto y tercer ´ordenes. y usando los valores iniciales del problema. la soluci´ on del m´etodo Runge-Kutta ser´ a yn+1 . la integraci´ on con el paso hn se rechaza y se repite todo el algoritmo de nuevo pero con hn = hn+1 obtenido de (22). En cualquier caso.4. es decir. se determina con la precisi´on del computador usado. Este procedimiento algunas veces incrementa el tama˜ no del paso. y que el error e˜in+1 del me´etodo Runge-Kutta de tercer orden sea menor que la tolerancia i e˜max . GRANADOS METODOS NUMERICOS Mientras que en [Shampine et al. la integraci´ on (´ o la siguiente xn+1 ) se acepta y el paso hn+1 se considera el paso ´optimo para la siguiente integraci´ aplicaci´on del m´etodo Runge-Kutta desde xn+1 hasta xn+2 ).. k2i . debe utilizarse en parejas que tenga el mismo error de turncamiento local. • Si Qn > 1. y otras veces lo disminuye.max y e˜max . hmin . METODOS DE PASOS MULTIPLES Las f´ ormulas de Adams-Bashforth (predictoras) y las f´ormulas de Adams-Moulton (correctoras).1. 1.n+1 del m´etodo Runge-Kutta de sexto orden sea menor que la tolerancia e(r).a) y con el proceso iterativo involucrado para resolver las ks .IV .c) h 251 5 iv (55 fn − 59 fn−1 + 37 fn−2 − 9 fn−3 ) + h f (ζ) 24 720 (1.9. No obstante en el m´etodo de Euler modificado tipo Heun se han usado de o´rdenes h2 y h3 (secci´on 1. on con el paso hn (´ o la aplicaci´ on del m´etodo Runge-Kutta desde xn hasta • Si Qn ≤ 1. con la finalidad de garantizar que el error relativo ei(r). El valor del m´ınimo paso de integraci´ on.1 • Modificado).1 and Smax = 5. En la mencionada referencia tambi´en se recomienda para los coeficientes y l´ımites los valores Cq = 0.max .A. para que el m´etodo predictor-corrector sea consistente.4. i • La definici´ on (6) permite calcular la diferencia En+1 entre los dos m´etodos. • Las relaciones (19) a (22) determinan el valor del tama˜ no del paso siguiente hn+1 . En este trabajo se usaron los mismos valores antes citados para las expresiones de (19) a (22). respectivamente.1976] el exponente α es 1/5 en la expresi´on (19) para el m´etodo de Fehlberg. El procedimiento para calcular el valor o´ptimo del paso de integraci´on. la soluci´ on con el m´etodo de sexto orden. y con la ecuaci´on (16) se puede obtener el m´aximo de ellos. k3i y k4i con la expresi´on del sistema de cuaciones diferenciales ordinarias.b) h 3 (23 fn − 16 fn−1 + 5 fn−2 ) + h4 f  (ζ) 12 8 (1.e) CAP. • Con la ecuaci´on (14) se puede calcular los par´ ametros Qin . el m´etodo Runge-Kutta impl´ıcito tipo Lobatto es utilizado para calcular las variables auxiliares k1i .d) yn+1 = yn + yn+1 = yn + 104 (1.a) h 5 3  (3 fn − fn−1 ) + h f (ζ) 2 12 yn+1 = yn + yn+1 = yn + 1 2  h f (ζ) 2 h 475 6 v (1901 fn − 2774 fn−1 + 2616 fn−2 − 1274 fn−3 + 251 fn−4) + h f (ζ) 720 1440 ECUACIONES DIFERENCIALES ORDINARIAS (1.1. Adams-Bashforth Estas son las f´ormulas predictoras yn+1 = yn + h fn + (1. 1. usando los coeficientes (1. aqu´ı dicho exponente es 1/4 para el m´etodo de Cuadratura de Lobatto.

b].1. 2. Entonces. Por ejemplo. Pero eventualmente pueden darse las condiciones de forma mixta en la frontera.d) h 27 6 v (251 fn+1 + 646 fn − 264 fn−1 + 106 fn−2 − 19 fn−3 ) − h f (ζ) 720 1440 (2.4.f ) 1440 60480 Las correciones se pueden hacer las veces necesarias. se salta en n al siguiente paso de integraci´ on n + 1. entonces x = a ´ o x = b se denomina la frontera. si se tiene dos ecuaciones diferenciales ordinarias (una sola variable independiente) de tercer y cuarto o´rdenes. hasta que el proceso iterativo converga. Estas condiciones pueden darse en un solo punto para todas las variables. PROBLEMA DE VALOR EN LA FRONTERA Un problema de valor en la frontera debe tener tantas condiciones como la suma de los ´ordenes de las ecuaciones diferenciales involucradas. y  ) a≤x≤b (1) con condiciones en la frontera y(a) = α y(b) = β (2) Teorema de Unicidad. ∂f /∂y y ∂f /∂y  existen y son continuas en D y adem´as: 1:) ∂f ∂y > 0 en D. Adams-Moulton Estas son las f´ormulas correctoras yn+1 = yn + h (fn+1 ) − (2.FUNDAMENTOS yn+1 = yn + h 19087 7 vi (4277 fn − 7923 fn−1 + 9982 fn−2 − 7298 fn−3 + 2877 fn−4 − 475 fn−5)+ h f (ζ) (1. Si x ∈ [a. 2. Una vez logrado un resultado. No confundir “iteraci´on” con “integraci´ on”. con cierta tolerancia. Sea la siguiente ecuaci´on diferencial ordinaria de segundo orden y  = f (x. en cuyo caso estamos en la presencia de un problema de valor inicial. TRANSFORMACION 105 .c) h 19 5 iv (9 fn+1 + 19 fn − 5 fn−1 + fn−2 ) − h f (ζ) 24 720 (2. hacen falta siete condiciones para que el problema est´e bien planteado. al inicio del proceso iterativo (con n constante).f ) 720 60480 La predicci´ on se hace una sola vez. 1. y.2.e) yn+1 = yn + yn+1 = yn + yn+1 = yn + (2. normalmente en derivadas menores a las superiores. Sea al siguiente dominio     D=    a ≤x ≤ b −∞ <y < ∞ (3)  −∞ <y < ∞ Si f .b) h 1 4  (5 fn+1 + 8 fn − fn−1 ) − h f (ζ) 12 24 (2.a) h 1 3  (fn+1 + fn ) − h f (ζ) 2 12 yn+1 = yn + yn+1 = yn + 1 2  h f (ζ) 2 h 863 7 vi (475 fn+1 + 1427 fn − 798 fn−1 + 482 fn−2 − 173 fn−3 + 27 fn−4 ) − h f (ζ) (2. SEC.

y.2. valores m´as derivadas. 2. o de formas combinadas. y  ) y(a) = α 106 a≤x≤b y  (a) = t ECUACIONES DIFERENCIALES ORDINARIAS (3) (4) CAP. DISPARO Sea la siguiente ecuaci´on diferencial ordinaria de segundo orden y  = f (x. queda K y2 = P (x) K y2 + Q(x) K y2 (7) y2 = P (x) y2 + Q(x) y2 (8) K y2 (a) = y  (a) y2 (a) = 0 (9) Se fija K = y  (a) =⇒ y2 (a) = 1 β = y1 (b) + K y2 (b) =⇒ K = β − y1 (b) = y  (a) y2 (b) (10)   β − y1 (b) y(x) = y1 (x) + y2 (x) y2 (b) (11) Se ha transformado un problema de valor en la frontera en dos problemas de valor inicial. TRANSFORMACION Un problema de valor en la frontera tiene condiciones de valor o derivadas (de orden inferior a la mayor) en la frontera x = a ´ o x = b. y. Sea el siguiente problema de segundo orden de valor en la frontera y  = P (x) y  + Q(x) y + R(x) y(a) = α on. y  ) a≤x≤b (1) con condiciones en la frontera y(a) = α y(b) = β (2) Se formula el problema de valor inicial y  = f (x. 2. Entonces el problema posee soluci´on u ´ nica.1. tal que Sea y1 una soluci´ y(b) = β y1 = P (x) y1 + Q(x) y1 + R(x) y1 (a) = 0 y1 (a) = α (4) (5) (6) (5) entonces se postula y(x) = y1 (x) + K y2 (x) (6) Substituyendo esto en la ecuaci´on diferencial original. de forma mixta. que combinados apropiadamente da la soluci´on del problema original. GRANADOS METODOS NUMERICOS ∂f 2:) Existe un valor M .IV . tal que | ∂y  | ≤ M en D. algunas en x = b. algunas en x = a.A.

Se define la funci´ on g(t) = y(t. b) − β (5) Se desea hallar t. SISTEMAS DE ECUACIONES Una ecuaci´on homog´enea del siguiente tipo   dy d2 y d3 y dM y F x. La matriz de los coeficientes de este sistema de ecuaciones es una matriz tridiagonal (resolver con el algoritmo de Thomas secci´on II. M = 0 dx dx dx dx SEC. Eta ecuaci´ on se puede resolver aplicando el m´etodo de la secante tk+1 = tk − g(tk ) (tk − tk−1 ) [ y(tk . 2. DISCRETIZACION (1) 107 . b) (6) Para los primeros estimados.FUNDAMENTOS cuya soluci´ on y = y(t.1. b) − β ] (tk − tk−1 ) = tk − g(tk ) − g(tk−1 ) y(tk . b) − β = 0 (blanco). x) depende adicionalmente de t variable. . El problema (1)-(2) de valor en en la frontera se ha convertido en un problema de valor inicial con t como valor inicial estimado e iterado (disparo con t) para hacer coincidir en la otra frontera (x = b) el otro valor y(t. i = 1. En los puntos extremos considerar las condiciones de contorno y0 = y(a) = α y yn+1 = y(b) = β.7).. 2. .7 y(xi )yi yi+1 − yi−1 + O(h2 ) 2h yi+1 − 2 yi + yi−1 y  (xi ) = + O(h2 ) h2 y  (xi ) = (3) Substituyendo en la ecuaci´ on diferencial yi+1 − 2 yi + yi−1 = P (xi ) h2  yi+1 − yi−1 2h  + Q(xi ) yi + R(xi ) Reorganizando esta expresi´ on queda     h h 2 P (xi ) + 1 yi−1 + [ 2 + h Q(xi ) ] yi + P (xi ) − 1 yi+1 = −h2 R(xi ) 2 2 (4) (5) Se obtienen n ecuaciones de este tipo con n inc´ ognitas que son los valores yi . . tal que g(t) = 0.3. se puede tomar t0 = β−α b−a t1 = β−α−δ b−a (7) donde δ es la tolerancia con que se obtiene y(b). b) − y(tk−1 . n en intervalos regulares... h = (b − a)/(n + 1)..1. 3. 3. DISCRETIZACION Sea la siguiente ecuaci´on diferencial ordinaria y  (x) = P (x) y  (x) + Q(x) y(x) + R(x) y(a) = α a≤x≤b y(b) = β (1) (2) Se pueden substiruir la aproximaciones obtenidas de la secci´ on III. .1. 2. . y. 2.3.

1987] (5 − √ 15)/10 1/2 √ (5 + 15)/10 √ √ 5/36 (10 − 3 15)/45 (25 − 6 15)/180 √ √ (10 + 3 15)/72 2/9 (10 − 3 15)/72 √ √ (25 + 6 15)/180 (10 + 3 15)/45 5/36 5/18 4/9 (6) 5/18 totalmente impl´ıcito. La orbita de este u ´ ltimo es el de la o´rbita que se describe.(1965)]. y 1 . . y . . . y. y 2 . y) dx y(x) : R −→ RM (4) ´nico punto x = x0 . donde se conoce y(x0 ) = y0 . que f (x. que ilustra un buen problema de la mec´anica celestial. . que es un caso particular del problema de tres cuerpos. FUNDAMENTOS En esta parte. El m´etodo es impl´ıcito s´olamente en la segunda y tercera etapa. . . . r´ıgido por una parte y ca´ otico por otro. uno parcial impl´ıcito y el otro total impl´ıcito. y f (x. 2 . y) = y 3. basado en la cuadratura de Gauss (Kuntzmann-Butcher) [Hairer et al.A. y M ) definido por el despeje (2). .1851-52] 0 √ 5)/10 √ (5 + 5)/10 (5 − 1 0 0 0 √ √ 5)/60 1/6 (15 − 7 5)/60 √ √ (5 − 5)/60 (15 + 7 5)/60 1/6 √ √ 1/6 (5 − 5)/12 (5 + 5)/12 (5 + 1/12 5/12 5/12 0 0 0 (5) 0 1/12 que realmente engloba dos m´etodos empotrado uno en el otro.IV . Resultados num´ericos impresionantes de la mec´anica celecte con este m´etodo fueron reportados en la tesis de D. Consid´erese dos cuerpos m´ asicos de masas η y µ en traslaci´on cuasi-circular 108 ECUACIONES DIFERENCIALES ORDINARIAS CAP. y . En cuanto a la funci´ on f (x.1. y) = f (x. . para hacer una presentaci´on que se considera did´actica. El u ´ nico problema a resolver ser´a el de las orbitas Arenstorf (1963). se mostrar´ n las distintas t´ecnicas num´ericas aplicadas a resolver un u ´nico problema. M − 1. El otro m´etodo que se analizar´a ser´a el m´etodo Runge-Kutta de sexto orden (P = 6) y tres etapas (N = 3). Despejando la derivada de mayor orden se obtiene   dM y dy d2 y dM−1 y = f x. . . 2. con uno de ellos de masa despreciable. . El m´ as peque˜ no adentro (separado con barras) es de tercer orden (P = 3). . basado en la cuadratura de Lobatto [lobatto. GRANADOS METODOS NUMERICOS se dice que es una ecuaci´on diferencial ordinaria de orden M . .. las “Orbitas de Arenstorf”. Uno de los m´etodos que se analizar´a es el m´etodo Runge-Kutta de sexto orden (P = 6) y cuatro etapas (N = 4). M−1 (2) dxM dx dx dx Haciendo el siguiente cambio de variables y = y1 ··· dk y = y k+1 dxk dM−1 y = f (x. k = 1. Sommer [Sommer. entonces se tiene un problema de Si se especifican los valores de las distintas y k para un u valor inicial. y) : R × RM −→ RM se puede decir k k+1 M 1 2 . con dos m´etodos Runge-Kutta ambos impl´ıcitos de sexto orden. . completamente bien planteado. y M ) dxM−1 ··· (3) a la final (1) se convierte en un sistema de ecuaciones diferenciales ordinarias de primer orden dy = f (x. . .

v = {v}y ) dx =u dt     x+µ x−η du = x + 2v − η −µ dt A B dy =v dt     y dv y = y − 2u − η −µ dt A B donde  [(x + µ)2 + y 2 ]3  B = [(x − η)2 + y 2 ]3 A= µ = 0.1987. La ´orbita de Arenstorf computada con Euler equidistante.1.127-129]. 3. SEC.012277471 η =1−µ (7) (8) La figura 1 muestra el resultado de esta o´rbita con varios m´etodos [Hairer et al.pp. Runge-Kutta equidistante y paso variable con el m´etodo de Dormand y Prince (DOPRI5).. Las ecuaciones diferenciales en variables relativas del caso Tierra y Luna son (u = {v}x . Figure 1.FUNDAMENTOS en un plano y un tercer cuerpo de masa desprecible movi´endose alrededor en el mismo plano. FUNDAMENTOS 109 .

994 u(0) = 0 y(0) = 0 (9) v(0) = −2. Pero son num´ericamente y realmente u ´ tiles aqu´ı? Se ha escogido ns = 24000 pasos de longitud h = T /ns para resolver el problema razonablemente regular. quien adem´as hizo muchas simulaciones num´ericas en computadoras electr´onicas de alta velocidad.00158510637908252240537862224 para que la soluci´ on sea c´ıclica con per´ıodo T = 17. para y = 0. y) = (12) Si asignamos el siguiente orden a las variables dy = f (y) dt y = {x. y. por lo tanto la soluci´ on poligonal de Euler se sabe que converge a la soluci´ on exacta. y) = 3 1/B = [(x − η)2 + y 2 ]−1/2 ∂b3 = −3 (x − η) b5 ∂x ∂b3 = −3 y b5 ∂y a(x. v} (13) la matriz jacobiana del problema es   [Jf (y)] =   0 ∂f 2 ∂x 0 ∂f 4 ∂x 1 0 0 −2 0 ∂f 2 ∂y 0 ∂f 4 ∂y  0 2  1 0 (14.0652165601579625588917206249 (10) Tales soluciones peri´odicas orbitales han facinado astr´ onomos y matem´aticos por muchas d´ecadas (Poincar´e) y ahora frecuentemente llamadas “Arenstorf orbits” en honor a Arenstorf (1963). Con un m´etodo Runge-Kutta convencional de cuarto orden se han necesita 6000 pasos para resover el problema razonablemente bien.a) donde algunos desarrollo ha sido colocado afuera por simplicidad ∂f 2 = 3 [ η (x + µ)2 a5 + µ (x − η)2 b5 ] + 1 − ηa3 − µb3 ∂x 110 ECUACIONES DIFERENCIALES ORDINARIAS (14.A. Con la finalidad de simplificar el problema y los c´ alculos se han cambiado algunas variable y han convertido el problema en este otro dx dt du dt dy dt dv dt =u = x (1 − ηa3 − µb3 ) + 2v − ηµ (a3 − b3 ) (11) =v = y (1 − ηa3 − µb3 ) − 2u donde  3 1/A = [(x + µ)2 + y 2 ]−1/2 ∂a3 = −3 (x + µ) a5 ∂x ∂a3 = −3 y a5 ∂y  b(x.b) CAP. El problema es C ∞ con la excepci´on de dos puntos singulares x = −µ y x = η. GRANADOS METODOS NUMERICOS Las condiciones iniciales han sido cuidadosamente determinadas x(0) = 0.IV . u.

i) 1 1 − 2(b2 + b3 ) + 2 12 b2 b3 c2 = 2 b3 − 1 12 b2 (b3 − b2 )(1 − b2 ) (1. 3.h. b) 3/8 1/8 (2. para obtener las relaciones de los coeficientes de un m´etodo Runge-Kutta expl´ıcito de cuarto orden y cuatro etapas.l.2. METODOS EXPLICITOS 0 0 0 0 0 0 √ 2+ 2 2 √ 2+ 2 6 (2. METODOS EXPLICITOS Los m´etodo impl´ıcitos utilizados 3. y que se muestran a continuaci´ on 0 1/2 0 1/2 0 0 0 0 0 0 0 1/3 0 1/3 0 0 0 0 0 0 1/2 1 0 0 1/2 0 0 1 0 0 2/3 1 0 1 −1/3 −1 1 1 0 0 1/8 3/8 1/6 1/3 1/3 1/6 0 1/2 0 1/2 0 0 1/2 √ −1+ 2 2 √ 2− 2 2 √ − 22 √ 2− 2 6 1 0 1/6 SEC. permiten obtener los cl´ asicos.a. o´ los valores b2 = 1/3 y b3 = 2/3. requieren para su soluci´on unos iterados iniciales en las variable ks para cada paso de integraci´ on (n constante).2. Cuadratura de Kutta En 1965 Ralston hizo un an´ alisis similar a 1.1.1.3. m) c1 = c3 = ars = 0 (s ≥ r) b4 = 1 N´ otese que la substituci´on de los valores b2 = 1/2 y b3 = 1/2.d − g) (1.(6). bien conocidos y muy utilizados m´etodos de Kutta de cuarto orden y cuatro etapas del primer o´ segundo tipo.(8).d) ∂f 4 = 3 y 2 (ηa5 + µb5 ) + 1 − ηa3 − µb3 ∂y (14.1978]) b1 = 0 a31 = b3 − a32 a21 = b2 a42 = a32 = b3 (b3 − b2 ) 2 b2 (1 − 2 b2 ) (1 − b2 )[b2 + b3 − 1 − (2 b3 − 1)2 ] 2 b2 (b3 − b2 )[6 b2 b3 − 4 (b2 + b3 ) + 3] a43 = (1. 3.2.e) El problema u ´nico planteado ya est´ a en condiciones de ser resulto.c) 0 1/6 111 .j.FUNDAMENTOS ∂f 4 = 3 y [ η (x + µ) a5 + µ (x − η) b5 ] ∂x (14. y encontr´ o la siguiente familia de m´etodos en funci´ on de los coeficientes b2 y b3 (ver por ejemplo [Ralston & Rabinowitz.a − c) a41 = 1 − a42 − a43 (1 − 2 b2 )(1 − b2 )(1 − b3 ) b3 (b3 − b2 )[6 b2 b3 − 4 (b2 + b3 ) + 3] (1. Las t´ecnicas que siguen permiten lograr este cometido. k) 1 − 2 b2 12 b3 (b3 − b2 )(1 − b3 ) c4 = 2 (b2 + b3 ) − 3 1 + 2 12 (1 − b2 )(1 − b3 ) (1.2.c) ∂f 2 = 3 y [ η (x + µ) a5 + µ (x − η) b5 ] ∂y (14. 3.(5) y 3.

por supuesto satisfacen las relaciones 1.1.b) Una vez substituida estas estimaciones.a) k3. Todos los m´etodos de cuatro etapas (1) antes descritos son de cuarto orden en el error global y quinto orden en el error local. y no pertenece a la familia descrita por (1).(12) y 1.1969].b) 20 √ (3 + 5)  a32 = (5.a) a21 = 10 √ (5 + 3 5)  a31 = − (5. si b2 = (5 − 5)/10 y b3 = (5 + 5)/10 del m´etodo 3.(5) en cada paso (n constante).a) a21 = 10 √ (5 + 3 5)  (3. se espera una r´ apida convergencia del m´etodo impl´ıcito 3. que en la notaci´ on de Butcher puede ser expresado como 0 √ (5 − 5)/10 √ (5 + 5)/10 1 0 0 √ (5 − 5)/10 0 √ √ −(5 + 3 5)/20 (3 + 5)/4 √ √ (−1 + 5 5)/4 −(5 + 3 5)/4 1/12 0 0 0 0 0 √ (5 − 5)/2 0 0 5/12 1/12 5/12 (4) El m´etodo Runge-Kutta expl´ıcito asi encontrado no est´a reportado en la literaturatura especializada y no corresponde a ninguna cuadratura en particular (aqu´ı le hemos denominado cuadratura de Kutta).. El tercer de los m´etodos es el m´etodo de Gill [1951].(0) = f (xn + b3 h . y pertenece a la familia de m´etodos Runge-Kutta expl´ıcito de cuarto orden de la soluci´ on (1).c) 4 son las estimaciones iniciales para el proceso iterativo k2.1.IV . Sea que se implemente une esquema iterativo de punto fijo (secci´on 3.(0) = f (xn + b2 h . se obtiene que √ (5 − 5)  (3. yn + a31 h k1 + a32 h k2 ) (6. GRANADOS METODOS NUMERICOS El primer de los m´etodos arriba mostrados se basa en la cuadratura propuesta por Kutta originalmente.5) son substituidos en la relaciones (1).2) o de Newton-Raphson (secci´ on 3.b) a31 = − 20 √ (3 + 5)  a32 = (3.3) como se ver´ a adelante.c) 4 Estos son los coeficientes de un nuevo m’etodo Runge-Kutta expl´ıcito. Las k2 y k3 que se obtienen con este m´etodo de coeficientes cambiados ars √ (5 − 5)  (5.(12 ). √ √ Asi que. 112 ECUACIONES DIFERENCIALES ORDINARIAS CAP. El segundo m´etodo en una variante del anterior.3. No obstante.2.3.A. al cual se le parece mucho por la similitud de los coeficientes y por ser del mismo orden y tener el mismo n´ umero de etapas. yn + a21 h k1 ) (6. es una variante que mejora en cierta medida al m´etodo de Kutta del primer tipo [Carnahan et al. s´ olo que las evaluaciones intermedias son equidistantes (a veces se le denomina cuadratura de Kutta del segundo tipo). pero tiene los mismo puntos de colocaci´on que el m´etodo de cuadratura de Lobatto.2. Los coeficientes del m´etodo de Gill.

(7.. en cada paso..a..2... usaremos el m´etodo Runge-Kutta de quinto orden (P = 5)..(5 − 15)/10 √ −(3 + 15)/4 √ 3(4 + 15)/5 . 2.√ .(6) comienza con un iterado inicial para las variable kr...1978]. o el m´etodo Runge-Kutta de tercer orden (P = 3) [Ralston & Rabinowitz..1.5/3 −20/15 25/15 0 5/18 4/9 5/18 0 0 0 0 0 1/2 1 0 1/2 −1 0 0 2 0 0 0 1/6 2/3 1/6 0 0 (7....(0) ..√ ..2..0 0 0 √ (5 + 15)/4 0 0 √ √ −(35 + 9 15)/10 2(4 + 15)/5 0 . r = 1. ec... Para el caso en que estamos interesados.a)..(5 − 15)/10 1/2 √ (5 + 15)/10 .... 3.....−1 0 0 0 .1 0 .FUNDAMENTOS 3..... fu´e generado por la extrpolaci´ on de los polinomios de Lagrange Pn (x) = n . generado por la extrapolaci´ on de Lagrange. b) El primero de estos Runge-Kutta... Extrapolaci´ on de Lagrange El proceso iterativo para resolver el m´etodo Runge-Kutta impl´ıcito 3.. ambos expl´ıcitos 0 .

. . r − 1. . . N ). 2. . los coeficientes ars son calculados como (a1s = 0. . . con puntos de colocaci´ on bs como variables independientes y ks como variables dependientes conocidas (s = 1. . Entonces. a21 = b2 ) ars = br αs /α αs = Ls (br ) = r−1  j=1 j=s (br − bj ) (bs − bj ) α= r−1 . 2. Li (x) f (xi ) Li (x) = i=0 n  (x − xj ) (x i − xj ) j=0 (8) j=i que pasa por las etapas previas s = 1. r − 1. r = 2. . . mediante extrapolaci´on de el polinomio Pr−2 (x) (r ≥ 2). . . para la siguiente etapa br (b1 = 0).

3. N = P = 5). pero la primera etapa es necesaria s´olo para completar el esquema. SEC. Los coeficientes cr (r = 1. el valor (5 + 15)/10 ≈ 0. Para este caso en (7.b) equivalente a la cuadratura de Simpson 1/3. seleccionado para los iterados iniciales de kr es opcional. (7. 2.8873 es crecano a 1 (r = 3 en Gauss). no s´olo (7.3. s´ olo (10) La segunda.a). . 3) para los iterados iniciales son considerados suficientes para garantizar la convergencia en cada pasofor initial iterates are considered enough to guarantee convergence in each step.1127 es cercano a 0 (r = 1 en Gauss). Cuando el l´ımite superior es menor que el l´ımite inferior. Cualquiera de los dos Runge-Kutta expl´ıcitos (7). m´ as simple. . . las dos u ´ltimas filas son innecesarias). El m´etodo expl´ıcito (4) no pertenece al porceso de generaci´ on de coeficientes (9). N ) son calculados usando de nuevo (8).a) α = 1 siempre.a) El valor de α es para normalizar αs y satisface ars δs = r−1 s=1 ars = br (entre l´ est´an los valores en los que estamos interesados.(7.b). .(7. 2. y el valor 1/2 es exacto (r = 2 Gauss). por integraci´on de 1 cr = 0 Lr (x) dx Lr (x) = N  (x − bj ) (br − bj ) j=1 (10) j=r N y debe satisfacer r=1 cr = 1 (para el caso de la ec. El valor (5− 15)/10 ≈ √ 0. satisfacen (29) − (30). el s´ımbolo Π es 1. METODOS IMPLICITOS 113 . el polinomio de Lagrange PN −1 (x). is un Runge-Kutta √ expl´ıcito de tercer orden que tiene los puntos de colocaci´on cercanos a los requeridos. ec.a). De hecho. sino tambi´en (7. Estas estimaciones de las variables kr (r = 1. αs (9) s=1 ıneas puntiadas en la ec.

es decir.a. METODOS IMPLICITOS Ambos m´etodos utilizados para resolver el problema planteado son impl´ıcitos.IV . En la notaci´on de Butcher. los coeficientes satisfacen las siguientes relaciones bγ 1 ars bγ−1 cs bγ−1 γ = 1. 114 ECUACIONES DIFERENCIALES ORDINARIAS CAP. desarrollado sobre las bases de la cuadratura de Lobatto [1851] (para m´ as detalles ver [Butcher. como est´a sugerido por las ecuaciones 1. PN (2 br − 1) = 0 (2) donde el orden del m´etodo Runge-Kutta que se origina es el doble del n´ umero de etapa (P = 2N ). El m´etodo Runge-Kutta impl´ıcito que va a ser usado aqu´ı. respectivamente. 3.2. . .c) 5/18 de segundo (P = 2) orden.3. es un m´etodo de sexto orden (P = 6) con cuatro etapas (N = 4).3. 3. Cuadratura de Lobatto Los m´etodos Runge-Kutta expl´ıcitos son de aplicaci´ on directa.3. 3. y) sea lineal.1971]). Los coeficientes de este m´etodo organizados en la notaci´on de Butcher son 0 √ (5 − 5)/10 √ (5 + 5)/10 1 0 0 0 √ √ (5 + 5)/60 1/6 (15 − 7 5)/60 √ √ (5 − 5)/60 (15 + 7 5)/60 1/6 √ √ 1/6 (5 − 5)/12 (5 + 5)/12 1/12 5/12 5/12 0 0 0 (4. cuarto (P = 4) orden (Hammer-Hollingsworth) y sexto (P = 6) orden (Kuntzmann-Butcher). el n´ umero de etapas. En estos casos. N (1) = r = s s γ γ donde los coeficientes br son las ra´ıces del polinomio de Legendre de orden N .(6. Este sistema de ecuaciones es generalmente no lineal. mientras que los m´etodos Runge-Kutta impl´ıcitos requieren la resoluci´on de un sistema de ecuaciones con las variables auxiliares kr en cada paso de integraci´ on de las ecuaciones diferenciales. Cuadratura de Gauss Los m´etodos de Runge-Kutta basados en la cuadratura de Gauss-Legendre son completamente impl´ıcitos (las matrices est´an totalmente llenas).1. 2.2. los tres primeros de estos m´etodos son 1/2 1/2 √ 3)/6 √ (3 + 3)/6 (3 − √ 1/4 (3 − 2 3)/12 √ (3 + 2 3)/12 1/4 1 (5 − √ 15)/10 1/2 √ (5 + 15)/10 1/2 (3. .a) 0 1/12 Este m´etodo ser´a denominado como el “principal”. y puede ser resuelto aplicando un esquema iterativo del tipo punto fijo. b) 1/2 √ √ 5/36 (10 − 3 15)/45 (25 − 6 15)/180 √ √ (10 + 3 15)/72 2/9 (10 − 3 15)/72 √ √ (25 + 6 15)/180 (10 + 3 15)/45 5/36 5/18 4/9 (3. . al menos que la funci´ on f (x.1987] y [Lapidus & Seinfeld. GRANADOS METODOS NUMERICOS 3.b).A.

(0) = f (xn + b3 h . pero es expl´ıcito). se obtienen los siguientes coeficientes √ (5 − 5)  (5. que en la notaci´ on de Butcher pueden globalmente ser expresados como 0 √ (5 − 5)/10 √ (5 + 5)/10 0 √ (5 − 5)/10 √ −(5 + 3 5)/20 1 1/6 1/12 0 0 0 0 √ (3 + 5)/4 0 √ √ (5 − 5)/12 (5 + 5)/12 5/12 5/12 0 0 0 (6) 0 1/12 Este m´etodo. casualmente hace que el m´etodo impl´ıcito (4.c) 4 Estos son los coeficientes de un nuevo m´etodo Runge-Kutta expl´ıcito. N´ otese que esta forma Lobatto s´ olo es impl´ıcita en en las variables k2 and k3 .a).(0) = f (xn + b2 h . b2 = (5 − 5)/10. b3 = (5 + 5)/10 y b4 = 1.a) k3. perteneciente a la familia de soluciones (13). lo que trae como consecuencia un incremento de la eficiencia de resoluci´on. est´a claro que el mencionado m´etodo expl´ıcito se puede obtener r´ apidamente √ √ de las relaciones (13) sugeridas por Gear. si los valores seleccionados para b2 y b3 son substituidos en las relaciones 3. comparado con otros m´etodos impl´ıcitos. Con la finalidad de aplicar un proceso iterativo para resolver el sistema de ecuaciones no lineales se requieren estimaciones iniciales de las variables auxiliares impl´ıcitas. ser´ a usado para obtener los estimados iniciales de k2 y k3 para el proceso iterativo de la siguiente forma SEC. 3. o lo que es lo mismo que tenga los mismos puntos de colocaci´on. tiene tres etapas (N = 3) y en la notaci´on de Butcher son 0 √ (5 − 5)/10 √ (5 + 5)/10 0 0 0 √ √ (5 + 5)/60 1/6 (15 − 7 5)/60 √ √ (5 − 5)/60 (15 + 7 5)/60 1/6 √ √ 1/6 (5 − 5)/12 (5 + 5)/12 (4. pueden ser detectados una parte de ellos que forman otro m´etodo Runge-Kutta “secundario” empotrado en el primero.b) Ambos m´etodos.b) 115 .2. el principal y el secundario. METODOS IMPLICITOS k2. Este otro m´etodo es de tercer orden (P = 3). N´ otese que la selecci´on de valores es consistente con las caracter´ıstica de un m´etodo expl´ıcito. Las otras variables son de resoluci´ on directa (en la u ´ltima etapa. donde las variables auxiliares kr est´en evaluadas en los mismos puntos intermedios en cada paso. o sea. constituyen lo que se denomina la forma de la cuadratura de Lobatto empotrada de tercer y sexto ´ordenes con cuatro etapas (el m´etodo de Fehlberg [1971] posee una forma similar. y por lo tanto debe ser resuelto el sistema s´olo en esas dos variables. La mejor forma de hacer esto es obtenerlas de un m´etodo Runge-Kutta expl´ıcito.a) a21 = 10 √ (5 + 3 5)  (5. As´ı que. yn + a21 h k1 ) (7.(1). una vez encontradas las anteriores.b) a31 = − 20 √ (3 + 5)  a32 = (5.3. yn + a31 h k1 + a32 h k2 ) (7. que el m´etodo expl´ıcito tenga los mismos valores en los coeficientes br que el m´etodo impl´ıcito. Observando el m´etodo (15. Este u ´ ltimo aspecto.FUNDAMENTOS Dentro de los coeficientes del m´etodo principal.a) sea ideal para los prop´ ositos deseados. asumiendo los valores b1 = 0.

(m) (9. GRANADOS METODOS NUMERICOS con los coeficientes de (6).(m) = kr. resulta j i |kr. y donde la norma del error local r.(m+1) (9.b).(m) se supone euclidiana.(m) | (12) donde lji es el m´aximo del valor absoluto de cada elemento de la matriz jacobiana de f . que es originado por cualquier m´etodo Runge-Kutta impl´ıcito. se espera que exista una convergencia segura y r´ apida hacia la soluci´ on del sistema no lineal 1. yn + ars h ks. Esto es |fji | ≤ lji De manera que.(m+1) | ≤ h lji |ars | |εjs.(m) | 1≤j≤M 1≤s≤N (14) entonces |εir. con los coeficientes br de (4.(m) ir.(m) = kr. .2. si se aplica la condici´on de Lipschitz (con h > 0 por conveniencia). puede ser resuelto en las variables auxiliares kr . Si ahora la expresi´ on 1. aplicando un procedimiento iterativo de punto fijo (ver [Gear. 2. . queda i kr. 3.(m+1) | ≤ h lji |ars | |εjs. Una vez que estas estimaciones iniciales son usadas.(m+1) (8) el cual es el m´as sencillo de usar debido a la forma de variable despejada que tiene el mencionado sistema de ecuaciones.b ).2.(m) − ksj | (11) |εir.A.b) El procedimiento iterativo se detiene cuando se satisfaga cr r. El error global durante el proceso iterativo se define como i − kri εir.(6. 1. yn + ars h ks )] (10) Luego.b) se sustrae de la expresi´on (8).a).(6.IV .1971]) i = f i (xn + br h .c) i donde max es la tolerancia impuesta al error local para encontrar la soluci´ on yn+1 de las ecuaciones diferenciales en un paso de integraci´on. es el n´ umero de la iteraci´on en el proceso iterativo para cada paso de integraci´ on.(m+1) − kri = f i (xn + br h . el sistema de ecuaciones no lineales (6.(m) < max (9. . • Proceso Iterativo Como se mencion´o antes.(m+1) − kri | ≤ h lji |ars | |ks. si se satisface que ε(m) = max  (13)  max |εjs.a) on exacta del sistema de ecuaciones no lineal.(m) ) kr.(m+1) | ≤ max max h lji δj |ars | δs ε(m) 1≤i≤M 1≤r≤N 1≤i≤M 1≤r≤N ε(m+1) ≤ h L A ε(m) 116 (15) (16) (17) ECUACIONES DIFERENCIALES ORDINARIAS CAP.(m) | ≤ h lji δj |ars | δs ε(m) max  !  "  max |εir. donde kri es la soluci´ El error local en cada iteraci´on se define como i i − kr.(m) ) − f i (xn + br h . yn + ars h ks. Aqu´ı el ´ındice m = 0.

. 3. pero se requiere estimaciones iniciales de kr tambi´en para el m´etodo Runge-Kutta expl´ıcito. en lugar del sencillo y de lenta convergencia m´etodo de punto fijo (7).a) (23. se hace una extrapolaci´ on con un polinomio de grado 2 definido por k1 . Para el m´etodo Runge-Kutta Lobatto las expresiones (22) se particularizan como k2 = k1 k3 √ √ 1+ 5 3+ 5 k1 + k2 =− 2 2 √ k4 = k1 − 5(k2 − k3 ) (23. Para estimar k4 . frente a los expl´ıcitos.FUNDAMENTOS donde   L = max lji δj   A = max |ars | δs 1≤i≤M 1≤r≤N (18) La expresi´on (17) significa que. como se ver´a m´as adelante.a) N´ otese que los coeficientes br han sido usado como los puntos de colocaci´ on de los correspondientes polinomios. o de otra forma el n´ umero de iteraciones puede volverse muy grande.7 se encontrar´ a una formulaci´ on general del proceso iterativo.3. para estimar k3 . se hace una extrapolaci´ on on con un polinomio con un polinomio de grado 0 comenzando en k1 . . cuando se usa el m´etodo de Newton-Raphson. para estimar k2 . Esta es la u ´ nica restricci´ on adicional de los m´etodos impl´ıcitos. Algunas veces el sistema de ecuaciones diferenciales no aparece en la forma de (1). 3. SEC. METODOS IMPLICITOS 117 . se hace una extrapolaci´ de grado 1 definido por k1 and k2 .b) (23. y. La expresi´on (19) es el l´ımite del tama˜ no del paso para que el procedimiento iterativo de ´ punto fijo descrito antes sea convergente. k2 y k3 . M (21) dx dx En estos casos. m → ∞. los m´etodos impl´ıcitos son m´ as estables que los expl´ıcitos. m´as costoso en cuanto al c´omputo y con una convergencia m´ as r´apida.c) En cualquier caso. para un alto n´ umero de iteraciones. .(m+1) < cr r. el procedimiento iterativo se aplica en la forma descrita antes. el error global ε(m) → 0 cuando h≤ 1 LA (19) y el proceso iterativo es convergente localmente (tambi´en globalmente) en la forma cr r.c) k3 = k4 = (22. esto es. la estimaci´ on de k1 se hace con la variable k4 del paso inmediatamente anterior. i = 1.b) (b4 − b2 )(b4 − b3 ) b4 (b4 − b3 ) b4 (b4 − b2 ) k2 + k3 k1 + b2 b3 b2 (b2 − b3 ) b3 (b3 − b2 ) (22. En la secci´ on 3. Estas estimaciones debe ser aceptables. 2. No obstante.(m) (20) (se suma en r). El procedimiento descrito arroja los siguientes resultados k2 = k1 b2 − b3 b3 k1 + k2 b2 b2 (22. sino de una forma impl´ıcita del tipo $ dy i dy % = f i x. . Una forma de obtener tales estimaciones es mediante extrapolaciones con polinomios de Lagrange.

y tiene que ser definida como ∂gri ∂ktj =h =  ∂f i  ars δ kj δst − δ ij δrt ∂y k yn +hars ks h Jfij (yn Jg (k) = h Jf (yn + h ars ks ) ⊗ A − If ⊗ IA (27) + h ars ks ) art − δ δrt ij donde ha sido usada la regla de la cadena y.b) y (25)) i = f i (yn + h ars ks. el m´etodo de Newton-Raphson puede ser aplicado de la siguiente manera algor´ıtmica i i i = kr. es conveniente definir la funci´ on gr (k) = f (yn + h ars ks ) − kr = 0 (25) gri (k) = f i (yn + h ars ks ) − kri = 0 que debe ser cero en cada componente cuando la soluci´on para cada kri ha sido encontrada en cada paso.c) (segunda l´ınea) debe ser interpretada como un sistema de ecuaciones no lineales con las variables auxiliares kri como inc´ognitas en cada paso (n constante).A. As´ı. j con respecto a las variables kt tiene que ser calculada.(m) ) (26) el cual es m´ as f´ acil de usar. respectivamente (rangos de los ´ındices de las delta de uscula negrilla sin ´ındice Kronecker δij y δrt ). GRANADOS METODOS NUMERICOS 3.(m+1) kr. De ahora en adelante. r = 1.c) kr = f (yn + h ars ks ) kri = f i (yn + h ars ks ) puede ser utilizado con ´exito acompa˜ nado del m´etodo de Newton-Raphson (del lado izquierdo se han colocado las expresiones en notaci´on indicial. 2. La expresi´on (24. es m´ as eficiente usar el m´etodo de Newton-Raphson que el m´etodo de punto fijo (como es sugerido por (10. para usar el m´etodo de Newton-Raphson method.(m+1) = f (yn + h ars ks.(m) kr. Con la finalidad de resolver el sistema de ecuaciones no lineales (25). para los elementos de la matriz jacobiana Jf (yn + h ars ks ). La matrices identidad If y IA tienen las dimensiones de f y A. del lado derecho de (25) y (27). . Sin embargo.a) CAP.3. . mientras que en el lado derecho se han escrito usando notaci´ on simb´ olica).(m) ) kr. reservaremos el uso de la letra k min´ (excepto el ´ındice m para las iteraciones internas) para aquellas variables donde se han agrupado en un solo arreglo todas las etapas. Sea un sistema de ecuaciones diferenciales ordinarias expresado como dy i = f i (y) dx dy = f (y) dx (24. la matriz jacobiana de la funci´ on gri (k).(m+1) 118 k(m+1) = k(m) + ω ∆k(m) ECUACIONES DIFERENCIALES ORDINARIAS (28. . pero tiene peor convergencia. N .a) con las condiciones iniciales y i (xo ) = yoi x = xo y(xo ) = yo (24.(m) + ω ∆kr.b) Para resolver el problema de valor inicial (24. k contiene todas las kr . b) en un sistema aut´onomo.a.3. Los super´ındices significan las componentes del sistema de ecuaciones diferenciales y los sub´ıdices significan las correspondientes etapas. . Resuelto con Newton-Raphson Esta secci´on explica como el m´etodo Newton-Raphson puede ser aplicado para resolver el sistema de acuaciones no lineales con las variables auxiliares kri en los m´etodos Runge-Kutta impl´ıcitos en general. La notaci´ on Jfij se usa en lugar de ∂f i /∂y j . el m´etodo de Runge-Kutta impl´ıcito i yn+1 = yni + h cr kri + O(hP +1 ) yn+1 = yn + h cr kr + O(hP +1 ) (24. y r no suma aunque aparezca repetida dos veces.IV . Por esta raz´on.

(F(km ) − km ) [Jg (k)] = [JF (k)] − [ II ] (33) con II = If ⊗ IA o lo que es en resumen lo mismo km+1 = km + ω ∆km [Jg (km )].b) donde ω es el factor de relajaci´ on y (m) indica el n´ umero de la iteraci´ on interna (se mantiene yn y h  olica. mientras que h cr r.  g(k) = f (yn + h ars ks ) − kr   . .FUNDAMENTOS i donde las variables del error ∆kt.∆k(m) = −g(k(m) ) (28.     f (yn + h aN s ks )  f (yn + h a1s ks ) − k1     .b) puede ser donde [JF (k)] es el jacobiano de la funci´on F(k). g(km ) = km − ω [JF (km ) − II]−1. 3. .(m) = −gri (k(m) ) [Jg (k(m) )].   F(k) = f (yn + h ars ks )     . METODOS IMPLICITOS 119 .∆km = −(F(km ) − km ) (33 ) on g(k) en (33.∆km = −g(km ) [JF (km ) − II].(m+1) − kr.   f (yn + h aN s ks ) − kN                (32) La funci´ on F y la variable k tienen dimensiones M × N (caso aut´onomo). El algoritmo del m´etodo NewtonRaphson (28) se puede exprear como km+1 = km − ω [Jg (km )]−1. como est´a indicado en la siguiente expresi´ on & ∂g i ' r ∂ktj ≈h & f i (y + ∆y ) − f i (y(j) ) ' n n n ∆ynj art − δji δrt (30) donde la perturbaci´ on para derivar es ∆ynj = h ars ksj and f i (yn(j) ) = f i (yn1 + ∆yn1 . yn2 + ∆yn2 .3. .(m) (29) El valor ir.. .       .(m) = ω h cr ∆kr.(m) es el error local para yn+1 .(0) expl´ıcito. ynj . . es conveniente expresar las derivadas parciales en la matriz (tensor) jacobiana (27) usando diferencias finitas atrasada..(m) es el error local en la variable auxiliar kri .    . . Los ´ıdices j y t son los que se contraen en la operaci´on “ · de la ecuaci´on simb´ iterativo descrito por (28) se aplica de forma sucesiva hasta satisfacer h cr r. .. El problema planteado en (25) puede ser re-escrito de la siguiente forma g(k) = F(k) − k = 0   f (yn + h a1s ks )         . El proceso constantes). i on num´erica de yn+1 . . y el jacobiano [Jg (k)] de la funci´ calculada de (27).(m) se encuentran de la resoluci´ on del siguiente sistema de ecuaciones lineales & ∂g i ' r ∂ktj (m) j ∆kt. ynM + ∆ynM ) (31) (j) on perturbada y la evaluaci´ on de la derivada se hace mediante diferencias atrasadas siendo f i (yn ) la funci´ (hacia atr´ as) u ´ nicamente en la componenten j.     .(m) = kr.(m) < max donde i i ir..   . j para el proceso iterativo se pueden estimar con un m´etodo Runge-Kutta Los valores iniciales kr. cuyos puntos de colocaci´ on br sean los mismos que los del m´etodo impl´ıcito.a) Para funciones muy complicadas. El ´ındice r suma y max es la tolerancia para el error de truncamiento local en la soluci´ en (29. SEC.

a) es apropiadamente aplicada al m´etodo Runge-Kutta. Para un an´ alisis de estos u ´ ltimos aspectos en el caso propuesto como ejemplo. t indicado (no suma en r y si suma en s). . [IHg ] . la soluci´ on de (32.1996].. r. .c ) con el bloque de la fila y la columna r. GRANADOS METODOS NUMERICOS El m´etodo de punto fijo (26) tiene convergencia lineal en la proximidad de la soluci´ on cuando km+1 = F(km ) [JF (ζ)]ζ∈IBρ (k∗ ) < 1 [JF (k)]rt = h art Jf (yn + h ars ks ) (34. y se puede intentar realizar la integraci´ opn en otro paso (siguiente n) con el mismo u otro tama˜ no.   . t.A. y IBρ (K∗ ) es la bola cerrada de radio ρ = k − k∗ < ρ∗ con centro en k∗ . los hessianos son iguales. . . As´ı. 2. . c)  h a11 [ Jf (yn + h a1s ks ) ] · · · h a1t [ Jf (yn + h a1s ks ) ] · · · h a1N [ Jf (yn + h a1s ks ) ]   . . Despu´es de sto se calcula k4 y yn+1 . s = 1. [Jg ]t + ω [Jg ]−1. .. . s´olo en k2 y k3 del ejemplo (4. .a). ni con el control del tama˜ no del paso. es bien conocido que. g with (35) donde los jacobianos son [Jg (k)] = [JF (k)] − [ II ]. s = 1. .   . . para un sistema aut´onomo de ecuaciones diferenciales ordinarias kr = f (yn + h ars ks ) 120 r. g(k)  t [Jh (k)] = [ I ] − ω [Jg ]−1. La norma usada es la norma infinita · ∞ [Burden & Faires. . en el caso the una ecuaci´on diferencial ordinaria aut´ la funci´ on de la ecuaci´ on homog´enea es  {g(k)} = g2 (k) g3 (k)   = f (yn + h a2s ks ) − k2 f (yn + h a3s ks ) − k3  =0 (36) y tiene un jacobiano igual a  h a22 f  (yn + h a2s ks ) − 1 h a23 f  (yn + h a2s ks ) [Jg (k)] =  h a32 f (yn + h a3s ks ) h a33 f  (yn + h a3s ks ) − 1  (37) Entonces el proceso iterativo se implementa como  [Jg (k)]m ∆k2 ∆k3   =− m g2 (k) g3 (k)  m  k2 k3   = m+1 k2 k3   +ω m ∆k2 ∆k3  (38) m las iteraciones en m se realizan para cada paso de tama˜ no h (n constante) hasta que la condici´on (29) se satisfaga. • Impl´ıcito Parcial El proceso iterativo ser´ a ilustrado para el m´etodo Runge-Kutta de la cuadratura de lobato..1985]. esta impone una restricci´on al valor del tamao del paso h. De forma similar. .IV . [IHg (k)] = [IHF (k)].c)..    [JF (k)] =  h ar1 [ Jf (yn + h ars ks ) ] · · · h art [ Jf (yn + h ars ks ) ] · · · h arN [ Jf (yn + h ars ks ) ]     .a). . en la proximidad de la soluci´ on. Esta restricci´on nunca debe ser confundida con la restricci´ on impuesta por los criterios de estabilidad. N ECUACIONES DIFERENCIALES ORDINARIAS (39) CAP. N . ... . Cuando la condici´ on (35. el m´etodo de Newton-Raphson (33) tiene una convergencia cuadr´ atica cuando Jh (ζ) ζ∈IBρ (k∗ ) < 1 h(k) = k − ω [Jg (k)]−1 . • Impl´ıcito Total Un m´etodo Runge-Kutta con tres etapas N = 3. b.a. referirse a [Granados. [Jg ]−1. h aN 1 [ Jf (yn + h aN s ks ) ] · · · h aN t [ Jf (yn + h aN s ks ) ] · · · h aN N [ Jf (yn + h aN s ks ) ]  (34. impl´ıcito onoma y˙ = f (y). como el ejemplo (3.

como yn+1 = yn + h cr kr + O(hP +1 ) (40) El error global es del orden de hP . se obtiene (δrs − hλ ars )ks = λyn δr [ I − hλA ] . se establece el sistema de ecuaciones no lineales. {1} λyn = 1 + c . Las iteraciones se calculan (´ındice m) hasta que se asegure la convergencia en (29). con un error local del orden de hP +1 . El vector k representa las ks para todas las etapas en un arreglo. 3. as´ı se puede aplica el m´etodo de Newton-Raphson a la funci´on g(k)    f (yn + h a1s ks )  F(k) = f (yn + h a2s ks )   f (yn + h a3s ks )    f (yn + h a1s ks ) − k1  g(k) = f (yn + h a2s ks ) − k2   f (yn + h a3s ks ) − k3 (41)  h a12 [ Jf (yn + h a1s ks ) ] h a13 [ Jf (yn + h a1s ks ) ] h a11 [ Jf (yn + h a1s ks ) ] − [ I ] [Jg (k)] =  h a21 [ Jf (yn + h a2s ks ) ] h a22 [ Jf (yn + h a2s ks ) ] − [ I ] h a23 [ Jf (yn + h a2s ks ) ]  h a32 [ Jf (yn + h a3s ks ) ] h a33 [ Jf (yn + h a3s ks ) ] − [ I ] h a31 [ Jf (yn + h a3s ks ) ] (42) g(k) = F(k) − k = 0 El jacobiano de dicha funci´ on es  Un procedimiento iterativo se aplica despu´es para obtener siguientes iterados    ∆k1  [Jg (km )] ∆k2 = −g(km )   ∆k3 m        k1   k1   ∆k1  k2 = k2 + ω ∆k2       k3 m+1 k3 m ∆k3 m (43) dentro de un u ´ nico paso h (n constante).FUNDAMENTOS encuentra la soluci´ on del paso siguiente yn+1 . Resolviendo el sistema de ecuaciones para el vector k se obtiene (4) k = [ I − hλ A ]−1. ESTABILIDAD 121 .4. La dimensi´ on del sistema (3) es el n´ umero de etapas N . El vector {1} es un vector lleno de 1 en todas sus componentes. [ I − hλ A ]−1. {1} hλ yn (5) = µ(hλ) yn SEC.k   = yn + h c . 3. [ I − hλ A ]−1. {1} λyn y computando la nueva integraci´ on yn+1 yn+1 = yn + h cr kr yn+1 = yn + h c. Para resolver las inc´ ognitas ks en cada paso. y [ I ] es la matriz identidad.{k} = {1} λyn (3) La matriz [A] contiene los coeficientes ars del m´etodo.4. ESTABILIDAD La estabilidad de los m´etodos Runge-Kutta se establecen mediante el an´ alisis del problema dy = f (y) dx f (y) = λ y (1) La aplicaci´ on del m´etodo Runge-Kutta el problema (1) da kr = f (yn + h ars ks ) = λ (yn + h ars ks ) = λyn + h λ ars ks (2) Agrupando las ks y extrayendo el factor com´ un.

278646.c). la funci´ on de la ra´ız caracter´ıstica es [Lapidus & Seinfeld. 0. Ra´ız Caracter´ıstica para cuadraturas de Gauss y de Lobatto impl´ıcitos (izquierda).5 hλ Figura 1. Si |µ(hλ)| es menor que la unidad.(4.5 -1 -0. siendo irracionales la mayor parte de los coeficientes de los m´etodos. 1].3. la funci´ on de la ra´ız caracter´ıstica es [Granados.4 0.5].6 µ(hλ) 1 µ(hλ) 1 0.2 0 0 Gauss Lobatto -0. y el m´etodo de cuadratura de Gauss 3. Ra´ız Caracter. entonces se satisface que |yn+1 | es menor que |yn | y la estabilidad es garantizada.3.3. (7) en el intervalo hλ ∈ [−10. 0).(1996)] 1 3 1 4 1 + 23 z + 15 z 2 + 30 z + 360 z µ(z) = (8) 1 1 2 1 − 3 z + 30 z y tambi´en es una aproximaci´ on de Pad´e de ez . (8).2. La figura 1 (izquierda) muestra las funciones de las ra´ıces caracter´ısticas para los m´etodos de cuadratura de Lobatto 3.135] 1 2 1 3 z + 120 z 1 + 12 z + 10 µ(z) = (7) 1 1 2 1 3 1 − 2 z + 10 z − 120 z una aproximaci´on de Pad´e para ez en la posici´on diagonal de la tabla [Burden & Faires.276350 y z = 12. para los coeficientes del m´etodo de Lobatto expl´ıcito. 0. y mediante la generaci´on 122 ECUACIONES DIFERENCIALES ORDINARIAS CAP.8 0.0 ) = (−a. donde cercanamente tiene un m´ınimo (z = −3. 3.2 0. m´etodo de Cuadratura de Lobatto.IV .827958538).(4.3. calc.2 -3 -2.2 -10 -9 -8 -7 -6 -5 -4 hλ -3 -2 -1 0 Ralston Lagrange 1 -0. z = hλ. Characteristic Root Characteristic Root 0. respectivamente (no se ven en la gr´afica de la figura 1). por lo tanto el m´etodo se dice que es A-stable o absolutamente estable.1985] [Lapidus & Seinfeld.(1).5 -2 -1. La expresi´on (8) es siempre positiva y menor que la unidad en  √ 3 el intervalo z ∈ ( −9. de la familia de m´etodos de Ralston ec. Se puede notar que la funci´ on µ(z) se appoxima relativamente bien a la funci´ on y = ez para el rango z> ∼ − 4. Aunque existe un m´ aximo local y un m´ınimo local alrededor de z = 6. Para el m´etodo 3. GRANADOS METODOS NUMERICOS donde la funci´ on involucrada µ(z). La figura 1 (derecha) compara las funciones de la ra´ıces caracter´ısticas en el intervalo hλ ∈ [−3. donde a = 4 + b − 4/b y b = 124 + 4 965 = 6.6 0.(3. con Ralston y Lagrange (derecha).1971. {1} z (6) El m´etodo se dice que es “estable” en los rangos de z = hλ donde µ(z) es menor en valor absoluto que la unidad. Un aspecto especial es el hecho de que. [ I − z A ]−1.5 0 0.c) con la ec. R-K expl´ıcito (P = 4) eq.(6).1971].p. las funciones de las ra´ıces caracter´ısticas obtenidas con (6) son completamentes racionales. m´etodo de Cuadratura de Gauss.4 0.a). In este caso |µ(hλ)| < 1 para la parte real (λ) < 0.8 0.(3. es la denominada ra´ız caracter´ıstica del m´etodo y puede ser expresada por µ(z) = 1 + c .284937532.3.a) con la ec. 3. Para el m´etodo 3.648495248 .A.

2704 ) y ( hλ = −1. b2 = (5 − 5)/10.7853 .8232 |λ| (M´etodo Impl´ıcito de 3er orden) (10) h≤ 9. µ = 0. a42 = − 5.(9). b3 = (5 + 5)/10. con rangos de estabilidad mucho m´as amplios.15 |λ| (M´etodo Expl´ıcito 5to orden) (13) Una consideraci´on importante es que los m´etodo impl´ıcitos son mucho m´as estables que los m´etodos expl´ıcitos. Las curvas est´an muy cercanas entre s´ı con m´ınimos en ( hλ = −1. RESULTADOS La figura 1 muestra los resultados de comparar los m´etodos de cuadratura de Lobatto impl´ıcitos de tercer y sexto ´ordenes (RKI36) y Fehlberg de cuart y quinto o´rdenes (RKF45). Para el caso del m´etodo Runge-Kutta impl´ıcito tipo Lobatto de tercer orden (P = 3). aunque los algoritmos num´ericos seam m´ as complejos como se acaba de ver. b4 = 1) del m´etodo de cuadratura de Lobatto. Ambos con control de paso y con ns = 2000 pasos. Esto permite escoger tama˜ nos de pasos mucho m´as grandes para los m´etodos impl´ıcitos. ambos con los mismos puntos de √ √ colocaci´on (b1 = 0. lo que reduce el tiempo de c´omputo substancialmente. µ = 1 ) y ( hλ = −2. ars = 0 s ≥ r). R-K explicito (P = 4) (a21 = (5 − 5)/10. 3.5961 .2.0786 ) y l´ımites de estabilidad en ( hλ = −2.625253 . Los l´ımites de estabilidad de los m´etodos de cuadratura de Lobatto son los siguientes h≤ 6. a43 = 5. mientras que RKI36 continua siendo estable.3. Esto significa que las caracter´ısticas de estabilidad para ambos m´etodos son similares. resumido en los coeficientes 3. respectivamente. los cuales poseen las siguientes condiciones de estabilidad ´ h≤ 2.5. a41 = 1.6974 . 3. µ = 0.FUNDAMENTOS √ √ con extrapolaci´ on de Lagrange ec. 3. µ = 1 ). a31 = −(5 + 3 5)/10.b). para los tipos de Ralston y Lagrange.6485 |λ| (M´etodo Impl´ıcito de 6to orden) (11) Las condiciones (10) y (11) revelan que los m´etodos Runge-Kutta impl´ıcitos tipo Lobatto de tercer y sexto ´ordenes son m´as estables que el m´etodo Runge-Kutta expl´ıcito tipo Fehlberg de cuarto y quinto ordenes. RESULTADOS 123 . √ √ √ a32 = (5 + 2 5)/5. Se observa que RKF45 luego de realizar 4 o´rbitas se vuelve inestable.(4. SEC.785 |λ| (M´etodo Expl´ıcito 4to orden) (12) h≤ 3.5. se obtiene 1 0 1 3 1 + 23 z + 15 z 2 + 30 z (9) µ ˜(z) = 1 2 1 − 13 z + 30 z Expresi´ on que ya no es una aproximaci´ on de Pad´e.

124 ECUACIONES DIFERENCIALES ORDINARIAS CAP.IV . GRANADOS METODOS NUMERICOS Figura 1. Orbitas de Arenstorf computadas con m´etodos Runge-Kutta impl´ıcitos (RKI36) y expl´ıcitos (RKF45) con ns = 2000 pasos por o´rbita (para impresi´ on) con control de paso autom´ atico (4 y 5 o´rbitas).A.

Para obtener una soluci´ on razonable con el m´etodos expl´ıcito 3.5 y Position y Position Arenstorf Orbit 0 x Position -1 -0. Para este caso (ns = 3000). RESULTADOS 125 . con tres tipos de procedimientos para resolver las variables auxiliares kr .5 0 x Position 0. Arenstorf Orbit 1. tres.5 -1. Con los valores iniciales estimados con la precisi´ on mostrada en las ecuaciones. De una a cuatro iteraciones fueron ejecutadas en cada procedimiento. dos iteraciones son suficientes para el M´etodo Newton-Raphson Anal´ıtico SEC.5 1 1.1. 3 o´ 4.5 Figura 2. un proceso iterativo (en el ´ındice m para cada paso) se implement´ o con tres variantes: M´etodo de Punto Fijo. Una o´rbita de Arenstorf computada con Runge-Kutta impl´ıcito equidistante (ns = 3000 pasos). 3.5 -1 -0. 2.5 0 x Position 0.5 0 -0.3 × 105 pasos. El problema 3.5 0.5 y Position y Position Arenstorf Orbit 1.5 -1.a).(3.2. pero con una espiral m´ as grande.FUNDAMENTOS La figura 2 muestra los resultados para el c´ omputo de las o´rbitas de Arenstorf con el m´etodo de cuadratura de Gauss 3. Lo mismo para el M´etodo de Newton-Raphson Num´erico.5 1 Fixed Point 2 Newton-Raphson 2 N-R Numeric 2 -1. identificada con ‘Iteraci´on Inicial’. linea punteada en la primera pantalla (arriba-izquierda) en la figura 2. dos. Con ns = 3000 este m´etodo produce un espiral incremental que se sale de pantalla en el sentido del reloj con centro en (1.5 -1 -0.5 0 x Position 0.5 -1. y cuatro iterationes.5 -1 -1 Initial Iteration Fixed Point 1 Newton-Raphson 1 N-R Numeric 1 -1. y M´etodo de Newton-Raphson con el jacobiano [Jg ] c´alculado num´ericamente.5 1 Arenstorf Orbit 1.5 0.5 1 1 0.1.(7.5 1. identificados en la leyenda de las gr´ aficas en la esquina inferior derecha con los d´ıgitos 1. El problema fu´e reformulado en 3.5 -1 -0.5 1. una iteraci´ on.(11) − (14) con la finalidad de calcular el jacobiano [Jf ] o m´as f´ acilmente.5 0. y Newton-Raphson Num´erico. M´etodo de Newton-Raphson.(7) − (10) fu´e resuelto para ns = 3000 pasos en un per´ıodo T (h = T /ns ).5 1 Fixed Point 4 Newton-Raphson 4 N-R Numeric 4 1.5 0 -0.5 -1 -1 Fixed Point 3 Newton-Raphson 3 N-R Numeric 3 -1.5 0 -0.5 1.0).5 1 1 0. Punto Fijo. fu´e necesario m´as de ns = 7.5 0 -0.c).5 -1. que es una ´rbita completa.5 -1.5.3. Newton-Raphson Anal´ıtico. Una.

126 ECUACIONES DIFERENCIALES ORDINARIAS CAP. 1985.. Canale. Part 2. Austral. Numerical Methods for Ordinary Differential Equations. C.5 -1. [7] Chapra S. 1999. pp. [5] Butcher. “Low-Order Classical Runge-Kutta Formulas with Stepsize Control”. PWS (Boston). Newton-Raphson Anal´ıtico. Tercera Edici´ on.18.5 0 x Position 0. “On the Runge-Kutta Processes of High Order”. C. D. (1964). cerca de los l´ımites de estabilidad. [6] Cash. Faires. Con tres iteraciones.5 0 -0. L. 2008/2016. J.50-64. C. y Newton-Raphson Num´erico. J. tanto los M´etodos Newton-Raphson Anal´ıtico como el Num´erico son equivalentes en precisi´ on. pp. [4] Butcher.5 -1 -1 Fixed Point 2 Newton-Raphson 2 N-R Numeric 2 -1. GRANADOS METODOS NUMERICOS y cuatro iteraciones para el M´etodo de Punto Fijo para obtener una buena precisi´on.5 0. [3] Butcher. BIBLIOGRAFIA [1] Burden R. para alto n´ umero de iteraciones (m ≥ 4). 1971.5 1 1. 1990. Newton-Raphson Num´erico y Punto fijo son competitivos por razones num´ericas al calcular estimaciones de las derivadas en la matriz jacobiana.5 -1.5 -1 -0.. NASA Report No. Vol. Karp. La figura 3 muestra los resultados para ns = 2000. cuando los m´etodos Newton-Raphson Num´erico y Anal´ıtico se vuelven equivalentes. Soc. J. Math..IV . J.5 -1.5 y Position y Position Arenstorf Orbit 1.179-194. [8] Fehlberg. Numerical Analysis. “Implicit Runge-Kutta Processes”. pp. John Wiley & Sons (New York). M´ etodos Num´ ericos para Ingenieros. TR R-315. En cambio. Para bajo n´ umero de iteraciones (m = 2). [2] Butcher. Dos y cuatro iteraciones. El M´etodo Newton-Raphson Anal´ıtico necesita dos iteraciones para tener una buena ejecuci´ on. 2nd /3rd Editions. E.5 0 x Position 0. 1987. pero esto declina con el incremento del n´ umero de iteraciones o la disminuci´ on del tama˜ no del paso. La conclusi´ on es que los m´etodos se han ordenados del mejor al peor: Newton-Raphson Anal´ıtico. Vol. C. Newton-Raphson Num´erico y Punto Fijo.. R.5 -1 -0. J. P.. Math. The Numerical Analysis of Ordinary Differential Equations.A. el M´etodo Newton-Raphson Num´erico y M´etodo de Punto Fijo necesitan cuatro iteraciones para estabilizarse. A. John Wiley (New York). J.5 0 -0. J.IV.5 Figura 3.201-222.5 1 1 0. McGraw-Hill Interamericana Editores (M´exico). Arenstorf Orbit 1. Runge-Kutta and General Linear Methods. pero el segundo se comport´o mejor. Comput. 3rd Edition. Punto Fijo. R. Vol. (1964). C. H. ACM Transactions on Mathematical Software.16. Una o´rbita de Arenstorf computada con Runge-Kutta impl´ıcito equidistante (ns = 2000 pasos).5 1 Fixed Point 4 Newton-Raphson 4 N-R Numeric 4 1.

[12] Granados M. No. Solving Ordinary Differential Equations II: Stiff and Differential Algebraic Problems. P. “Implicit Runge-Kutta Algorithm Using Newton-Raphson Method”. (1991). SANDIA Laboratories. 1971.. Solving Ordinary Differential Equations I. Asociaci´ on Argentina de Mec´ anica Computacional). C. 1991. A First Course in Numerical Analysis. L. Ciudad Guayana. Vol. Rao y M. (1998).349-359. C.45 (Sonderheft). P. Vol. Numerical Initial Value Problems in Ordinary Differential Equations. 1978. Hotel Intercontinental Guayana. Watts. No.18. A. pp. A. Wanner. [17] Lobatto. 17-20 de Marzo de 1998.FUNDAMENTOS [9] Gear. Springer-Verlag (Berlin). L.. “Lobatto Implicit Sixth Order Runge-Kutta Method for Solving Ordinary Differential Equations With Stepsize Control”. realizado en el Hotel Sheraton. Rabinowitz. Cerrolaza. [20] Sommer. “Iterated Runge-Kutta Methods on Parallel Computers”. Stat. 1851-52.. Lessen over Differentiaal. (La Haye). International Association for Computational Mechanics. “Numerische Anwendung Impliziter Runge Kutta-Formeln”. Corregido y ampliado Abril. E. W. [14] Hairer. Puerto Ordaz. Prado. Mec´ anica Computacional. [15] Hairer. Vol.37.. 1975. SEC. P. Simulaci´ on con M´ etodos Num´ ericos: Nuevas Tendencias y Aplicaciones. F. 2 Vols. G. SAND75-0182. [16] Lapidus. PrenticeHall (Englewood Cliffs-New Jersey).376-411. Seinfeld. P. Sci. ZAMM. CIMENICS’98. 29/Jun/98 al 2/Jul/98.I. [21] van der Houwen. L. 2nd Edition. Academic Press (New York). A. Addison-Wesley (New York). F. J.1000-1028. E. [19] Shampine. 1978. Argentina. pp. [11] Granados M.3.5. pp. p. Nonstiff Problems. S. L. Vol.. Abstracts.. Fourth World Congress on Computational Mechanics. Numerical Solution of Ordinary Differential Equations. 2016. [10] Gerald. 1971. [18] Ralston.The State of the Art”. Buenos Aires. Etse y B. BIBLIOGRAFIA 127 .. (1965). J. Report No.. pp. Editores: O. 1987. M.. Sociedad Venezolana de M´etodos Num´ericos en Ingenier´ıa (SVMNI). Wanner.TM9-TM16. SIAM J. pp. Nørsett. Applied Numerical Analysis.en Integraal-Rekening. https:// www. (1996). L. Davenport.XVI. compilado por G. A. SIAM Review. 2nd Edition. Sommeijer. (1976).T77-T79.edu/11949052/Implicit Runge-Kutta Algorithm Using Newton-Raphson Method [13] Granados M. R. A. Vol. Comput. S. “Solving Non-Stiff Ordinary Differential Equations . Memorias del IV CONGRESO INTERNACIONAL DE METODOS NUMERICOS EN INGENIERIA Y CIENCIAS APLICADAS.... G. “Implicit Runge-Kutta Algorithm Using Newton-Raphson Method”. McGraw-Hill (New York). B. H. Luccioni (AMCA.academia. D.12. M. H. Springer-Verlag (Berlin).

.

Ecuaci´ on Estacionaria.1.2.1.3. Ecuaciones El´ıpticas. 136 136 3.2. Aproximaciones Discretas Proyectadas.1.2.2. Difusidad en la Interfaz. 130 1.3.1. Estabilidad y Convergencia. 2. Discretizaci´ on del Laplaciano. 130 130 1. FLUJO GENERAL INCOMPRESIBLE VISCOSO. Cuatro Reglas B´ asicas. 132 132 2. M´etodo de Euler. 135 135 3.3.1. Ecuaci´ on Transitoria. M´etodo ADI. T´ermino de Fuente.2. 131 132 2. 3. 141 142 4. 145 129 . Consistencia.3.2. 3.2. 2.1. 1. 132 133 2.4. INTRODUCCION. M´etodo de Las L´ıneas. METODO DE DIFERENCIAS FINITAS. 2.2.1. 143 144 4. M´etodo de Paso Fraccionado. 2.1.3. Fundamentos. 140 3.2. 2. Aproximaciones Discretas Directas.2.CAPITULO V ECUACIONES EN DERIVADAS PARCIALES CONTENIDO 1.1. Clasificaci´ on de Las Ecuaciones.1. 3. 142 142 4.1.2.2.1. 134 134 3. 131 131 131 2.3.1. Discretizaci´ on General. METODO DE VOLUMENES FINITOS. 4. Fundamentos. 4. T´ermino Advectivo. 3. Ecuaciones Parab´ olicas. Discretizaci´ on de Dos Puntos. M´etodo de Crack-Nicholson.1. Ecuaciones Hiperb´ olicas.3. Ecuaciones Fundamentales.2.2. 137 140 3. 2.

c) recibe el nombre de la ecuaci´on de onda (x = t). Si definimos el discriminante ∆ = b2 − 4 a c (2) entonces la ecuaci´on diferencial (1) se clasifica como: ∆ < 0 Ecuaci´ on el´ıptica e. ∂ 2U ∂U =Γ ∂x ∂y 2 ∆=0 (3. Colocaci´ on Ortogonal. FUNDAMENTOS Las ecuaciones diferenciales en derivadas parciales son todas aquellas que poseen t´erminos en funci´ on de derivadas parciales. se dice que es no-lineal.4.4. entonces la ecuaci´on diferential en derivadas parciales de segundo orden con coeficientes constantes o dependientes de x y y a ∂2f ∂f ∂2f ∂f ∂2f + c +e +hf +g = 0 + b +d ∂x2 ∂x∂y ∂y 2 ∂x ∂y (1) v´ alida en un dominio D y con condiciones de contorno en la frontera ∂D de tipo valor (Dirichlet). 5. 5.2.1. Bidimensional. BIBLIOGRAFIA. y d y e dependen de f . La ecuaci´on (3. Colocaci´ on Determin´ıstica. y) una funci´ on de x y y. CLASIFICACION DE LAS ECUACIONES Sea f (x. 5. 147 147 149 149 150 151 152 152 153 154 156 157 1.g.1. Colocaci´ on Sobre Especificada. 130 ECUACIONES EN DERIVADAS PARCIALES CAP. 5. Transitorio. 2 ∂ 2U 2 ∂ U = C =0 ∂x2 ∂y 2 ∆ = 4 C2 (3.1. se dice que es cuasi-lineal. 5. b y c dependenden de f . M´etodo de los Residuos Ponderados.3.2.b) ∆ > 0 Ecuaci´ on hiperb´ olica e. Unidimensional. 5. se dice que es lineal.a) recibe el nombre de la ecuaci´on de Laplace si S = 0 o de Poisson si S = 0. INTRODUCCION 1. 1. GRANADOS METODOS NUMERICOS 5. En caso contrario. 5. Si adicionalmente a.g.3.2. Pueden ser lineales con coeficientes constantes.A.b) recibe el nombre de difusi´ on transitoria (x = t). M´etodo de Colocaci´on. La ecuaci´on (3.4.g. derivada (Neumann) o mixtas. 5.2. variables (funci´ on de x y y y sus derivadas parciales en 2D) y no lineales (potencias o funciones trascendentes de derivadas parciales).a) ∆ = 0 Ecuaci´ on parab´ olica e.V . 5.4. 5.2. ∂2U ∂2U + =S 2 ∂x ∂y 2 ∆ = −4 (3. ∂f /∂x y ∂f /∂y.2.c) La ecuaci´on (3.2. M´etodo de Galerkin. M´etodo de Elementos Finitos. METODOS VARIACIONALES.1.3.

el resultado es similar para IL(Ui.1. Error Total.j Ui.1.(2.j − 2 Ui.j. Se ha usado la notaci´ on de los polinomios de Newton en diferencias divididas. Vamos a definir los siguientes t´erminos: Error de Truncamiento.j−1 − 2 Ui.j + Ui. xi . Ui Soluci´ ui Soluci´ on num´erica hallada por la computadora. 2.1.7. xi+1 ] (2) hallada con la par´ abola que pasa por los puntos xi−1 .1.FUNDAMENTOS 1. ESTABILIDAD y CONVERGENCIA Si designamos por: on anal´ıtica de la ecuaci´on diferencial. ECUACIONES ELIPTICAS 131 .b)) para intervalos regulares como (∇2 u)i = IL(Ui ) + O(h2 ) = Ui−1 − 2 Ui + Ui+1 + O(h2 ) h2 (1) Para intervalos irregulares como IL(Ui ) = 2 U [xi−1 . METODO DE DIFERENCIAS FINITAS 2. CONSISTENCIA.k se acumulan teniendo al final un coeficiente −2D (D = dimensi´ on).k ). 2.j. Estabilidad. la substituci´ on de la ecuaci´ on (1) para cada punto i = 1. . . con una matriz tridiagonal. U (xi ) Soluci´ on exacta del esquema num´erico. Ei = |U (xi ) − ui | ≤ Eit + Eir Es el error global causado por los dos aspectos anteriormente mencionados. (Teorema de Lax) Si un esquema num´erico es consistente y estable.1. En los tres casos los t´erminos con Ui .j = IL(Ui.3. . Para dos dimensiones cartesianas la expresi´ on (1) se convierte en (∇2 u)i. pero que no son simplemente aditivos. umero limitado de d´ıgitos en los Error de Redondeo. 2. En el caso unidimensional en intervalos regulares. SEC. Un esquema num´erico es estable si el error de redondeo tiende a anularse cuando ∆x tiende a cero (∆x → 0 =⇒ Eir → 0).j + Ui+1. xi y xi+1 . donde en los extremos se aplica las condiciones de valor en la frontera U0 = u(a) = α y UN +1 = u(b) = β. Discretizaci´ on del Laplaciano El laplaciano se discretiza con diferencias centrales (III. Convergencia.j ) + O(h2 ) = Ui−1. Consistencia. . Eit = |U (xi ) − Ui | Es el error causado por el m´etodo num´erico y se debe al hecho de que el m´etodo en cuesti´on se origina de una serie truncada.j+1 + + O(h2 ) h2x h2y (3) siendo h2 = h2x +h2y . Ui.j y Ui. Eir = |Ui − ui | Es el error causado por el uso de un n´ c´alculos que realiza el computador. N discretizados para la ecuaci´on de Laplace ∇2 u = 0 u(a) = α u(b) = β (4) resulta en un sistema de ecuaciones lineales en las inc´ognitas Ui . entonces converge (∆x → 0 =⇒ Ei → 0). Un esquema num´erico es consistente si el error e truncamiento tiende a anularse cuando ∆x tiende a cero (∆x → 0 =⇒ Eit → 0). ECUACIONES ELIPTICAS 2. Para dimensi´ on tres.

(∇u)i = IH(Ui ) + O(h2 ) = Ui u.c)) para intervalos regulares como Ui−2 − 4 Ui−1 + 3 Ui + O(h2 ) 2h (5.∇u.j.7.2.b) para aguas-arriba. 2. seg´ 2. aunque este tipo de ecuaciones no cae dentro de la clasificaci´on dada en la secci´on 1.V . xi−1 y xi o los puntos xi .1). para la ecuaci´ on de Poisson. T´ ermino de Fuente En las discretizaciones antes realizadas. x) = uo (x)    ∂u ∂2u =Γ 2 u(a.b) u. el t´ermino de fuente debe evaluarse un el caso. xi ] } (6. El m´etodo es estable si CF L = 132 Γ∆t 1 ≤ 2 h 2 (4) ECUACIONES EN DERIVADAS PARCIALES CAP. xi ] + (xi − xi−1 ) U [xi−2 . para el t´ermino central Si .1.2.2.a) para aguas-abajo y la expresi´ on (5.1. Si.k . xi−1 . xi+2 ] } (6.1. ECUACIONES PARABOLICAS Estos m´etodos los vamos a explicar con el ejemplo de la ecuaci´on de difusi´ on transitoria unidimensional  u(0.1.a) −3 Ui + 4 Ui+1 − Ui+2 + O(h2 ) 2h (5. Para intervalos irregulares como IH(Ui ) = U (xi ) { U [xi−1 . GRANADOS METODOS NUMERICOS 2.(1. Aunque el t´ermino adventivo tiene car´ acter hiperb´ olico. contiene un t´ermino adventivo IH(u) = u. xi+1 . xi+1 y xi+2 . t) = β(t) donde del lado derecho se han colocado las condiciones iniciales y las condiciones de contorno de valor en la frontera.2. 2.2.1. xi+1 ] + (xi − xi+1 ) U [xi . luego es convergente si la matriz es diagonalmente dominante. t) = α(t) (1)  ∂t ∂x   u(b.j y Si.3.a) IH(Ui ) = U (xi ) { U [xi . Despejando Uit+1 se obtiene   Γ∆t t 2 Γ∆t Γ∆t t t+1 Uit + 2 Ui+1 (3) Ui = 2 Ui−1 + 1 − 2 h h h Este esquema iterativo es similar al de Jacobi (secci´on II.A. como la ecuaci´on de Burgers o de Navier-Stokes. El adventivo se discretiza con diferencias no-centrales (III.(∇u)i = IH(Ui ) + O(h2 ) = Ui la expresi´on (5. T´ ermino Adventivo En algunas ecuaciones semi-el´ıpticas. que se discretiza seg´ un tenga una influencia aguas-arriba o aguas-abajo. La discretizaci´on expl´ıcita es ∂u ∂t t = i t U t − 2 Uit + Ui+1 Uit+1 − Uit + O(∆t) = Γ IL(Uit ) + O(h2 ) = Γ i−1 + O(h2 ) ∆t h2 (2) Se acostumbra a agrupar los o´rdenes del error de truncamiento bajo un mismo s´ımbolo O(∆t+h2 ). M´ etodo de Euler El t´ermino transitorio ∂u/∂t se discretiza de dos formas: expl´ıcita e impl´ıcita.b) halladas con la par´ abola que pasa por los puntos xi−2 .

donde η1 = 1 − 1 4λ η2 =   1 1 1− 2 2λ λ= Γ ∆t + k2 h2 (10) Los m´etodos (7) y (9) son aplicaciones particulares del m´etodo Runge-Kutta (Euler modificado tipo Heun) de segundo orden en ∆t. . .a) t+1 U t+1 − 2 Uit+1 + Ui+1 Uit+1 − Uit = Γ IL(Uit+1 ) + O(∆t + h2 ) = Γ i−1 + O(∆t + h2 ) ∆t h2 (5. queda     Γ∆t Γ∆t t+1 Γ∆t t Γ∆t Γ∆t t Γ∆t t+1 t+1 U − 1 + + U = − U − 1 − U Uit − 2 Ui+1 i 2 h2 i−1 h2 2 h2 i+1 2 h2 i−1 h2 h (8) Se obtiene un sistema de ecuaciones en Uit+1 . entonces la estabilidad del m´etodo t+1 t ! " Ui. 2. . para el sistema de ecuaciones diferenciales ordinarias planteado en dichas ecuaciones. . 2.1. SEC. Kurt Friedrichs y Hans Lewy que la describieron en un art´ıculo en 1928.2. Reorganizando la ecuaci´on queda   Γ∆t t+1 2 Γ∆t Γ∆t t+1 U − 1 + = −Uit Uit+1 + 2 Ui+1 h2 i−1 h2 h (6) que aplicada a todos los puntos i = 1.2.a) se ha discretizado seg´ un III.FUNDAMENTOS El par´ ametro del lado izquierdo de la desigualdad anterior es lo que se denomina el factor CFL (CourantFriedrichs-Lewy). Esta condici´on se llama as´ı en honor a Richard Courant.a).2. M´ etodo de Crank-Nicholson Si hacemos un promedio de los m´etodos anteriores expl´ıcitos e impl´ıcito se obtiene  t+1 t+1 t t − 2 Uit+1 + Ui+1 Ui−1 − 2 Uit + Ui+1 Ui−1 + h2 h2 " Γ! = IL(Uit ) + IL(Uit+1 ) + O(∆t2 + h2 ) 2 Uit+1 − Uit Γ = ∆t 2  + O(∆t2 + h2 ) (7) Reorganizando los t´erminos U t+1 de una lado y los t´erminos U t del otro.7.j t+1 t = Γ (1 − η) IL(Ui. Esta se puede resolver con el algoritmo de Thomas. η1 > η > η2 estable oscilante y η < η2 inestable. 2. Cuando el m´etodo se aplica en dos dimensiones x y y con dos mallados de tama˜ nos h = ∆x y k = ∆y. con matriz tridiagonal. El m´etodo planteado es incondicionalmente estable. ECUACIONES PARABOLICAS 133 .b) La primera derivada ∂u/∂t en (2) y (5.j − Ui.j ) ∆t (9) viene determinada por η > η1 estable.(1. La discretizaci´on impl´ıcita es ∂u ∂t t+1 = i Uit+1 − Uit + O(∆t) ∆t (5.j ) + η IL(Ui. como se ver´a en la secci´on siguiente. N forma un sistema de ecuaciones lineales en las inc´ognitas Uit+1 con matriz tridiagonal.

as´ı que la ecuaci´on planteada es muy general. Si son funciones de u. en una direcci´ on diferente.442]. se dice que es lineal. 2 o´ 3 dimensiones. finalmente nos queda     2    dt dt dq dt dp dt +c +e −b uxt a +c − a dx dx dx dx dx dx (6) Suponga que.j. ux .A. por ejemplo.2. ECUACIONES HIPERBOLICAS Consid´erese la ecuaci´on parcial-diferencial de segundo orden en las dos variables x y t a uxx + b uxt + c utt + e = 0 (1) Aqu´ı hemos usado la notaci´ on de sub´ındices para representa las derivadas parciales. Esto es. multiplicando por dt/dx. obtenemos a uxt dq dp dt − b uxt + c uxt − a −c +e=0 dx dx dt (5) Ahora. GRANADOS METODOS NUMERICOS 2. se dice que es cuasi-lineal [Gerald. c y e pueden ser funciones de x. El sistema de ecuaciones diferenciales ordinarias resultante se puede resolver con un m´etodo Runge-Kutta. Sobre tales curvas.V . se hace la integraci´on del sistemas de ecuaciones diferenciales ordinarias de primer orden que se origina. Al hacer esta discretizaci´on se obtiene.j dUi. la ecuaci´ on diferencial original es equivalente a anular la segunda expresi´ on entre corchetes.j. definimos las curvas tales que la expresi´on entre los primeros corchetes se anulan.1970. Cuando los coeficiente son independientes de u o sus derivadas. en el dominio de 1. tenemos dp dt dp − uxt dt = − uxt dx dx dx dq dx dq − utx dt = − utx utt = dt dt dt uxx = (4) Substituyendo en (1) y re-arreglando la ecuaci´ on. Para facilitar la manipulaci´on.3.p.j. (7) a m2 − b m + c = 0 134 ECUACIONES EN DERIVADAS PARCIALES CAP. t.3.k ) (11) dy dz dt donde IL(U ) es la discretizaci´on del laplaciano de U en Ui ´o Ui.j ) = IL(Ui. ut y u. respectivamente. M´ etodo de Las L´ıneas El m´etodo de las l´ıneas consiste en discratizar s´ olamente en aquella direcciones donde la ecuaci´on diferencial es el´ıptica y. sean p= ∂u = ux ∂x q= ∂u = ut ∂t (2) Escribimos los diferenciales de p y q ∂p dx + ∂x ∂q dq = dx + ∂x dp = ∂p dt = uxx dx + uxt dt ∂t ∂q dt = utx dx + utt dt ∂t (3) Despejando estas ecuaciones para uxx y utt .j ´o Ui. 2. en el plane x − t. b. Asumimos uxt = utx por ser continuas (teorema de Clairaut).k . dUi. ux o ut (pero no uxx o utt ). Los coeficientes a. por otro m´etodo.k dUi = IL(Ui ) = IL(Ui.

encontramos las soluciones de u mediante la integraci´ on de du = p dx + q dt uP = uA + ∆u|P A ∆u|P A = pAP ∆x + qAP ∆t uP = uB + ∆u|P B ∆u|P B = pBP ∆x + qBP ∆t (11) Para que el problema est´e bien formulado las condiciones iniciales y de borde de p = ux y q = ut deben ser conocidas.a) (10. etc. energ´ıa. i = 1. y los puntos x0 = a y xN +1 (xN = b. Todo el proceso iterativo comienza con las condiciones iniciales u(0. dadas por las dos soluciones de la cuadr´ + caracter´ıstica C hallamos la soluci´on de (8) entre los puntos A inicial y P final. temperatura. N .FUNDAMENTOS donde m = dt/dx = 1/C. Sobre la l´ınea Sean dos l´ıneas caracte´ısticas C + y C − .2 (clasificaci´on de las ecuaciones). x) = uo (x). Resolviendo el sistema da  pP = a m− aAP m+ − BP cAP cBP −1   a m− pB aAP m+ pA − BP cAP cBP qP = qA −   + (qA − qB ) − e eAP − BP cAP cBP   ∆t aAP m+ e (pP − pA ) − AP ∆t cAP cAP (10. el discriminante ∆ = b2 − 4ac de la ecuaci´on (7). x ∈ [a. 3. Por ello sus fundamentos se basan en la discretizaci´ on de la ecuaci´ on de transporte de cantidades como: densidad. Su concepto fundamental es que el mallado divide el dominio en diminutos vol´ umenes. debe ser positivo para que (1) sea hiperb´ olica y este enfoque sea exitoso. donde es cada uno y sus alrederores se satisfacen los mismos principios de conservaci´on que en la totalidad del dominio. FUNDAMENTOS 135 . . 3. . entalp´ıa. Sobre la l´ınea caracter´ıstica C − hallamos la soluci´on de (8) entre los puntos B inicial y P final. seg´ un el recorrido seguido. disipaci´ on. La soluci´on de la ecuaci´on diferencial (1) se obtiene de integrar a m dp + c dq + e dt = 0 (8) un Obviamente. Se deben recorrer todos los puntos xi = x0 + i ∆x.1. 2.b) Una vez resuelto para todos los puntos A y B regulares distanciados entre s´ı 2∆x se tienen las soluciones de p y q para los diferentes puntos P . concentraci´ on. 3. FUNDAMENTOS El m´etodo de vol´ umenes finitos de basan en unas pocas reglas que iremos mencionando en las siguientes secciones. define la pendiente inversa de la curva caracter´ıstica antes mencionada. coincidente con el discriminante de (1) seg´ secci´on 1. desplazados en el tiempo ∆t y ubicados en la mitad entre cada A y B. b]. obtenidas a partir de los puntos iniciales A y B donde es conocida la soluci´ on. . ∆x = (b − a)/N ) se utilizan para formular las condiciones de contorno en la frontera u(a) = α(t) y x(b) = β(t). METODO DE VOLUMENES FINITOS Los m´etodos de vol´ umenes Finitos fueron dise˜ nados b´ asicamente para resolver problemas de transporte y su evoluci´ on. Estas dos soluciones. cantidad de movimiento angular. . c y e deben tomarse en promedio entre los puntos A y P o entre los puntos B y P . entrop´ıa. vorticidad. cantidad de movimiento lineal.1. atica (7). especie. SEC. Luego que tenemos las soluciones de p y q. Los coeficientes a. permite obtener las condiciones para el punto u ´ nico final P a m+ (pP − pA ) + c (qP − qA ) + e ∆t = 0 (9) a m− (pP − pB ) + c (qP − qB ) + e ∆t = 0 Esto conforma un sistema lineal de dos ecuaciones con dos inc´ognitas pP y q P .

ϕP y ϕE que la contiene. s. t y b. Por consiguiente. t´ıpica de las diferencias finitas. • Regla 1. los tres de los valores ϕW . E. u otro grupo de tres valores que tambi´en la contenga (en la misma direcci´on). w. no es consistente. son tales que Los coeficiente aJ que acompa˜ aP ϕP = . En cada interfaz existe un flujo u ´ nico. umero de Peclet Tambi´en interviene una velocidad ui perpendicular a la interfaz i. la cual determina un n´ IP i = ρi ui δxi /Γi u ´ nico (Peclet de malla). sea este calculado con.A. Cuatro Reglas B´ asicas Las cuatro reglas b´asicas de este m´etodo son. e. W . T y B (T -top. Los v´ may´ usculas como en una br´ ujula N .1. • Regla 2. Coeficientes Positivos na a cada variable en la discretizaci´ on. El flujo en cada interfaz viene gobernado por la difusividad Γi en la interfaz. B-bottom). Entre cada par de vol´ umenes existe una superficie inteface que se identifica con las letras min´ usculas n. GRANADOS METODOS NUMERICOS 3. la interpolaci´ on de la cuadr´ atica que pasa por tres nodos. por ejemplo. Consistencia del Volumen de Control Cada volumen de control en el que se divide el dominio est´a identificado por un punto central o nodo umenes vecinos igualmente se identifican con letras cuyo valor de la propiedad transportada es ϕP . La interfaz tiene una identidad propia independiente del volumen precedente o el volumen posterior y determinada por las condiciones de flujo dependientes del n´ umero de Peclet y el gradiente de ϕ en dicha interfaz.1. dependiente de la difusividades de los nodos vecinos ΓL y ΓR . por ejemplo aJ ϕJ . S.

tambi´en lo har´ an los valores en los dem´as nodos. aJ ϕJ + b (1) J∈N El coeficiente del nodo central tiene signo igual que los signos de los coeficientes de los nodos vecinos (N Vecindad). • Regla 3. Esto garantiza en parte que la soluci´ on sea estable. Todos positivos. debida a este t´ermino. si el valor en un nodo vecino se incrementa. Suma de Los Coeficientes Vecinos La suma de los coeficientes de los nodos vecinos J ∈ ∂P suman igual que el coeficiente del nodo central P aP = . Pendiente Negativa en el T´ ermino de Fuente La linealizaci´ on del t´ermino de fuente del tipo S = So + SP (ϕP − ϕo ) = Sc + SP ϕP Sc = So − SP ϕo (2) donde la pendiente SP debe ser negativa o nula. • Regla 4. Esto garantiza que.

3. aJ (3) J∈∂P Excluyendo el t´ermino de fuente y el t´ermino transitorio. De esta forma. 136 ECUACIONES EN DERIVADAS PARCIALES CAP.2. Surge la duda de cuales de ambas aplica para la interfaz e intermedia mostrada en la figura 1 ( J = −Γ ∇ϕ ). satisfacen tambi´en la ecuaci´on diferencial.V . Difusividad en la Interfaz Consideremos dos nodos vecinos P y E tales que alrededor de cada uno domina una difusividad distintas. problemas con soluciones igualmente v´ alidas m´as una constante.1. Sean dichas difusividades ΓP y ΓE .

la relaci´on (5) se convierte en la “media arm´onica”. y tiene un fundamento f´ısico mayormente justificable [Patankar. La soluci´ on de (6) con las condiciones (7) es ϕ(x) − ϕL exp(IP x/δx) − 1 = ϕR − ϕL exp(IP ) − 1 IP = ρ u δx Γ (8) con IP siendo el n´ umero de Peclet.5.b) ( Intensidad del flujo J = diferencial del potencial difusivo −∆ϕ entre la suma de las resistencias difusivas δx/Γ en serie ). por difusi´ on lineal de la variable ϕ en la interfaz e. Cuando fe = 0. Un an´ alisis sencillo del flujo Je .FUNDAMENTOS Figura 1. Discretizaci´ on de Dos Puntos La discretizaci´on de dos puntos de basa en la soluci´ on de la ecuaci´ on   d d dϕ (ρ u ϕ) = Γ dx dx dx dJ =0 dx x=0 ϕ = ϕL x = δx ϕ = ϕR J = ρuϕ−Γ dϕ dx (6) (7) donde J es el flujo neto convecci´ on + difusi´ on = constante.1980]. 3. nos da que Je = −Γe ϕE − ϕP ϕ − ϕP =− − E δxe δxe /ΓP + δx+ e /ΓE ΓP ϕe − ϕP ϕ − ϕe = ΓE E + = −Je − δxe δxe (4) donde el u ´ltimo miembro de (4. es decir con la interfaz justamente en la mitad entre los nodos. FUNDAMENTOS 137 . La velocidad u y el gradiente dϕ/dx son perpendiculares a la interfaz. como lo hubiese sugerido el sentido com´ un (ver por ejemplo Ap´endice B en [Versteeg & Malalasekera.a) se ha obtenido de eliminar ϕe del balance del flujo a uno y otro lado de la interfaz en (4. m´ as que en la media aritm´etica obtenida mediante una interpolaci´ on lineal.3.1. 3. Esto se reduce a tener una difusividad intermedia equivalente igual a  Γe = 1 − fe fe + ΓP ΓE −1 fe = δx+ e δxe (5) siendo fe la fracci´on de la distancia que separa la interfaz e del nodo E.1. Se observa claramente que esto difiere de una simple interpolaci´ on lineal de la difusividad Γ. Distancias asociadas con la difusi´ on en la interfaz e.1995]). SEC. La expresi´on (5) ser´ a usada en aquellas interfases ubicadas entre dos secciones del dominio con difusividades diferente ( Γ → ∞ =⇒ −∆ϕ → 0 ).

As´ı. deja pasar un flujo J constante. donde el n´ umero de Peclet IP .A.V . El flujo J constante adimesionalizado es J ∗ J∗ = dϕ J δx = IP ϕ − Γ d(x/δx) (9) El valor de ϕ en la interfaz i entre los nodos L y R es una promedio ponderado de ϕL y ϕR . Derecha. GRANADOS METODOS NUMERICOS Figura 2. puesto que J ∗ es constante. adimensional. para una interfaz intermedia en un x cualquiera. La figura 2 muestra el dominio de integraci´ on identificando el nodo L con el nodo i y el nodo R con el nodo i+1. 138 ECUACIONES EN DERIVADAS PARCIALES CAP. es finalmente independiente de x. De manera que. Soluci´on exacta para el problema de convecci´on-difusi´ on uni-dimensional x ∈ [0. δx]. donde quiera que est´e. La interfaz. Esto da que α y β en (10) se asocien de la forma A(IP ) = β − IP (1 − α) = IP exp(IP ) − 1 B(IP ) = β + IP α = IP exp(IP ) exp(IP ) − 1 (12) mostrados en la figura 3. es un modulador de la soluci´ on (a veces denominado “Peclet de malla”). se propone la expresi´ J ∗ = IP [ α ϕL + (1 − α) ϕR ] − β (ϕR − ϕL ) (10) donde α y β son multiplicadores adimensionales que dependen de IP . Del lado derecho de la figura se observa como es el perfil de ϕ en la soluci´ on exacta para el problema de difusi´on-convecci´ on uni-dimensional. mientras que el on gradiente es un m´ ultiplo de (ϕR − ϕL ). J ∗ tambi´en puede ser expresado como " Γ! J ∗ = B(IP ) ϕL − A(IP ) ϕR B(IP ) ϕL − A(IP ) ϕR (11) J= δx La subtituci´ on de (8). Flujo total entre dos puntos del mallado i (L-Left) e i + 1 (R-Right).

0]] (16) la tabla siguiente muestra una comparaci´ on con este esquema y otros esquemas provenientes de diversos tipos de discretizaciones. que en este caso es comparando con 0.5 |IP |). donde la diferencia entre las curvas es justamente IP .1 |IP |)5 . SEC. Estas propiedades producen que finalmente A y B pueden expresarse u ´nicamente en funci´ on de A(|IP |) de la forma A(IP ) = A(|IP |) + [[−IP . entonces IP deber´ıa aparecer como −IP . y A y B intercambian sus roles. Los coeficientes A y B tienen ciertas propiedades que es menester mostrar. 0]] (15) donde el s´ımbolo [[ · ]] significa el mayor valor. que se denomina “la ley de potencia” y se expresa como A(|IP |) = [[(1 − 0. Tabla. Primero. La funci´ on A(|IP |) para diferentes esquemas. FUNDAMENTOS Esquema F´ ormula A(|IP |) Diferencia Central ( 1 − 0.1 |IP |)5 . Variaci´ on de A y B con el n´ umero de Peclet IP . 0]] B(IP ) = A(|IP |) + [[IP .FUNDAMENTOS Figura 3. 3. con la simetris de las curvas respecto al eje central vertical. Bajo estas condiciones y comparando con (11.1.5 |IP | ) Aguas Arriba 1 H´ıbrido [[ (1 − 0. 0 ]] Exponencial (exacta) |IP | / [ exp(|IP |) − 1 ] 139 . en el caso donde on es cero y J ∗ es simplemente el flujo por convecci´ on J ∗ = IP ϕL = IP ϕR ϕL y ϕL son iguales. Debido a que la forma (12) con el exponencial de A(|IP |) es computacionalmente costosa desde el punto de vista de su c´alculo. La segunda propiedad de A y B tiene que ver con su simetr´ıa. se ha ideado una forma aproximada m´ as conveniente desde ese punto de vista. 0 ]] Ley de Potencia [[ (1 − 0. el flujo por difusi´ (u se asume constante).a) da que B(IP ) = A(IP ) + IP (13) Propiedad tambi´en mostrada en la figura 3. Si cambiamos el sistema de coordenadas y lo revertimos. El mismo resultado se obtiene colocando A y B en funci´ on de α y β. As´ı A(IP ) y B(IP ) se relacionan mediante A(−IP ) = B(IP ) B(−IP ) = A(IP ) (14) Propiedad iguamente mostrada en la figura 3.

E.(11. Jw . δAw . Jt . 3.punto central que aparecen en cada configuraci´ on. 3. Ecuaci´ on Estacionaria Sea la ecuaci´on diferencial ∇. Js . Volumen finito en el caso de coordenadas cil´ındricas. Jb (positivos saliendo del volumen finito. δAt y δAb .A. δAs .b) en la ecuaci´on anterior.V . los nodos y las interfaces. cuyo nodo central es el nodo P . ( ρ u ϕ ) = ∇. Substituyendo la discretizaci´ on para dos puntos 3. de manera de hacerla depender de dos par´ametros adicionales b y c.(11. La figura 4 muestra un ejemplo de coordenadas cil´ındricas indicando la localizaci´ on de on + difusi´ on ) son perpendiculares a las interfaces i.a−f ) ECUACIONES EN DERIVADAS PARCIALES CAP. T y B. El resultado final fu´e que o independiente de b y c y J ∗ (0) = a ´o J ∗ (0) = exp(a) (siempre constante).b) a todas las parejas de punto vecino . S.1. δAe . Los nodos vecinos son designados con las letras may´ usculas N . negativos entrando). J = S J = ρ u ϕ − Γ ∇ϕ (1) N´ otese la similitud de esta ecuaci´on global y la ecuaci´ on unidimensional para dos puntos 3. que permitiese a aplicaci´ on de trazadores rectil´ıneos o parab´ olicos en x = 0 y tener continuidad en la primera derivada de dos curvas definidas antes y despu´es de dicho nodo central (x = 0). Je . ( Γ ∇ϕ ) + S ∇. W . DISCRETIZACION GENERAL La discretizaci´on general de cualquier ecuaci´ on de transporte se hace mediante la aplicaci´ on de la discretizaci´on de dos puntos 3. son perpendiculares a las respectivas caras (interfaces) del volumen finito.b) sobre el volumen de control finito ∆VP da Jn δAn − Js δAs + Je δAe − Jw δAw + Jt δAt − Jb δAb = S ∆VP (2) Los flujos Jn . La integraci´on de la equaci´on diferencial (1) para un volumen finito ∆VP = ∆x ∆y ∆z.2. lo que impidi´o aplicar ϕ (0) di´ este procedimiento.1.1. se obtiene aP ϕP = aN ϕN + aS ϕS + aE ϕE + aW ϕW + aT ϕT + aB ϕB + b (3) con coeficientes Γn δAn A(IP n ) δyn Γs δAs B(IP s ) aS = δys aN = 140 Γe δAe A(IP e ) δxe Γw δAw B(IP w ) aW = δxw aE = Γt δAt A(IP t ) δzt Γb δAb B(IP b ) aB = δzb aT = (4. Las on del teorema de interfaces que rodean al volumen infinito son δAn . La aplicaci´ Gauss a la integral de (1.1.2.(6). GRANADOS METODOS NUMERICOS Es de hacer notar que la ecuaci´on diferencial (9) se resolvi´ o haciendo IP ϕ(x) − ϕ (x) = a + bx + cx2 ´ o  2 IP ϕ(x) − ϕ (x) = exp(a + bx + cx ). Los flujos Ji ( convecci´ Figura 4.

h) donde la linealizaci´ on 3. Figura 5. El tama˜ no del volumen de control es ∆xP y los nodos vecinos W y E est´an ubicados a distancias δxw y δxe del nodo central P (central no necesariamente significa que est´a en el centro). el cual se puede resolver con cualquier m´etodo Runge-Kutta. Esta u nodos centrales P conforma un sistema de ecuaciones diferenciales ordinarias de primer orden. respectivamente. 3.2. ( Γ ∇ϕ ) + S ∂t ∂ρϕ + ∇.(5. J = S ∂t J = ρ u ϕ − Γ ∇ϕ (5) El t´ermino transitorio se discretiza aplicando el m´etodo Euler impl´ıcito (secci´on 2. ( ρ u ϕ ) = ∇.g) se ha aplicado la regla 4 (ec.1. Vol´ umenes finitos mostrando un volumen de borde y otro t´ıpico en el medio del dominio. el nodo central coincide con la frontera del dominio. DISCRETIZACION GENERAL 141 . En (4. La ecuaci´ on (7) es un caso particular de la ecuaci´on m´ as general dϕ ρP ∆Vp P + Jn δAn − Js δAs + Je δAe − Jw δAw + Jt δAt − Jb δAb = S ∆VP (8) dt ´ltima aplicada a todos los aplicando el m´etodo de Euler impl´ıcito (ρP = constante. Ecuaci´ on Transitoria Sea la ecuaci´on diferencial ∂ρϕ + ∇. del t´ermino de fuente se ha aplicado.g. 3. se obtiene (ρP ϕP − ρPo ϕPo ) ∆VP + Jn δAn − Js δAs + Je δAe − Jw δAw + Jt δAt − Jb δAb = (Sc + SP ϕP ) ∆VP ∆t (7) donde ρo ϕPo son las condiciones en el paso anterior. En el volumen de control en el borde.1.2. S = Sc + SP ϕP ). SEC.FUNDAMENTOS aP = aN + aS + aE + aW + aT + aB − SP ∆VP b = Sc ∆Vp (4.a)) ρ ϕ − ρPo ϕPo ∂ρϕ = P P + O(∆t) ∂t ∆t (6) Con el procedimiento de la secci´ on anterior y agregando la parte transitoria. 3. ec.(3)).2. S = Sc + SP ϕP . La figura 5 muestra un volumen de control en el borde y un volumen de control t´ıpico en el medio del dominio. 2.(2).2.2. Se puede escoger entre ubicar los nodos en la mitad de las interfaces o ubicar las interfaces en la mitad entre los nodos.1.

aplica tambi´en cuando φ = v. 4.3. i) Los coeficientes en (10. h. GRANADOS METODOS NUMERICOS Substituyendo la discretizaci´ on para dos puntos 3. en el cual se resuelve el problema con Euler impl´ıcito en una s´ ola direcci´ on y con Euler expl´ıcito en las direcciones restantes (ver secci´ on 2. Con esta formulaci´ on se hace adecuado el planteamiento para usar cualquiera de estos m´etodos Runge-Kutta. h.a. se acostumbra a usar el esquema ADI (Alternate Direction Implicit).2.2. Modernamente se est´an usando m´etodos que se denominan de pasos fraccionados (e. b) substituyen a las ecuaciones (10. Estas direcciones se van alternando de manera secuencial en cada oportunidad (cada integraci´on en t). Lo que garatiza que el sistema siempre tiene una matriz tridiagonal.g. [Kim & Moin. la ecuaci´on de transporte de la cantidad de movimiento lineal.a−f ) b = aPo ϕPo + Sc ∆Vp (10. sino a trav´es de las ecuaciones de los puntos vecinos. i).1.g.v = 0 (1) 142 ECUACIONES EN DERIVADAS PARCIALES CAP. b) donde la ecuaciones (12. En esta parte se ha hecho el replanteamiento de los problemas de flujo incompresible viscoso llevando la ecuaci´on de Navier-Stokes a formularse como un sistema de ecuaciones diferenciales ordinarias de primer orden de dimensi´on infinita en el caso anal´ıtico y de dimensi´on finita en el caso discretizado. que es donde se necesita la informaci´on de la velocidad (mallas desplazadas).a−f ). 3.V . i) para aP y b. M´ etodo ADI Cuando el problema es transitorio. es que el mallado para la velocidad tiene los nodos justo en el medio de las caras de los vol´ umenes finitos para φ.(1985)] y [Orlandi.1). Una forma m´ as general de plantear (9) es ρP ∆VP dϕP = −aP ϕP + aN ϕN + aS ϕS + aE ϕE + aW ϕW + aT ϕT + aB ϕB + b dt aP = aN + aS + aE + aW + aT + aB − SP ∆VP b = Sc ∆Vp (11) (12.g.a−f ) son exactamente los mismos que en (4. La diferencia con los m´etodos para el transporte de φ antes planteados.2000]) que no son m´as que m´etodos Runge-Kutta de varias etapas. Las condiciones en la frontera no forma parte del sistema de ecuaciones diferenciales ordinarias. h. 4. se obtiene aP ϕP = aN ϕN + aS ϕS + aE ϕE + aW ϕW + aT ϕT + aB ϕB + b (9) con coeficientes Γn δAn A(IP n ) δyn Γs δAs B(IP s ) aS = δys aN = Γe δAe A(IP e ) δxe Γw δAw B(IP w ) aW = δxw Γt δAt A(IP t ) δzt Γb δAb B(IP b ) aB = δzb aE = aP = aPo + aN + aS + aE + aW + aT + aB − SP ∆VP aPo = aT = ρPo ∆VP ∆t (10. Las condiciones de frontera se ven reflejadas en la vecindad de la misma y las soluciones dentro del conjunto abierto del dominio est´an subordinadas a ellas. formando como ya se dijo un sistema de ecuaciones diferenciales ordinarias de primer orden. FLUJO GENERAL INCOMPRESIBLE VISCOSO La metodolog´ıa planteada para la ecuaci´ on de transporte ϕ.b) en la ecuaci´on anterior.A.(11.a. A esta ecuaci´ on en el caso de los fluidos newtoniano incompresibles se le denomina la ecuaci´ on de Navier-Stokes.1. ECUACIONES FUNDAMENTALES Las ecuaciones fundamentales para el estudio del flujo incompresible son la ecuaci´ on de conservaci´ on de masa ´o continuidad ∇. Los cambios han sido en las ecuaciones (10.g.

g.∇v = ∇. Los valores Po y ϕo son dos valores de referencia arbitrarios que no alteran la ecuaci´on original (3). elementos finitos. se convierte en un problema exclusivamente de valores iniciales. SEC.a). APROXIMACIONES DISCRETAS DIRECTAS 143 .1.a+T : (∇a)t y la conmutatividad de la divergencia y el gradiente.(3) en derivadas parciales de funciones continuas se convierte en un sistema de ecuaciones diferenciales ordinarias de la forma dv / (P˜ ) − IH(v) + ν IL(v) ≈ −G dt ID(v) = 0 (2) El problema original que era un problema de valor en la frontera con condiciones iniciales. la ecuaci´ on 4. Las fuerzas m´ asicas son conservativas. Finalmente. etc. APROXIMACIONES DISCRETAS DIRECTAS Haciendo un abuso de la notaci´on. 4. debido a que es lineal y no act´ ua sobre la base del espacio vectorial. resultando ∂v = −∇P˜ − v.∇v = ρ g − ∇P + µ ∇2 v ∂t (2) Para eliminar la densidad de esta u ´ ltima expresi´on.2. el t´ermino se anula. Donde al conmutar.) y sus variantes.T).1. 4.v IH(v) ≈ v. Para conmutar. La cantidad P˜ = (P − Po )/ρ + (ϕ − ϕo ) es la presi´on equivalente o reducida. el sistema de ecuaciones diferenciales (2) se puede reformular en el siguiente sistema  F(v) = −IH(v) + ν IL(v)       / (v) : G / (v) IL(P˜ ) = −ID[IH(v)] = −G (3)       dv = f (v) = F(v) − G / (P˜ ) dt / ( · ) se utiliza de manera donde se ha tenido en cuenta que ID[IL(v)] = 0. tomando la divergencia de la ecuaci´on (3. (vv) IL(v) ≈ ∇2 v (1) El operador discreto aplicado a un punto se calcula tomando en consideraci´ on los valores de los puntos vecinos. se obtiene la ecuaci´on de Poisson para la presi´on ∇2 P˜ = −∇v : ∇v = −G : G G = [∇v]t (4) Se ha usado la identidad ∇. vol´ umenes finitos. difusividad ν (viscosidad cinem´atica) y fuente menos gradiente de presi´on. la fuerza de gravedad g = −g ez se genera a partir del potencial ϕ = g z). En esta u ´ltima parte se ha supuesto que los operadores de la divergencia y el laplaciano conmutan. Involucrando la ecuaci´ on 4. se divide por ρ. por lo que g = −∇ϕ se genera de una funci´ on potencial ϕ (e.a) = (∇. las derivadas se han supuesto continuas en su dominio. Con la definici´ on de los operadores.FUNDAMENTOS y la ecuaci´on de conservaci´ on de cantidad de movimiento lineal o´ Navier-Stokes   ∂v ρ + v. y de igual manera la divergencia conmuta con la derivaci´on parcial con respecto al tiempo. aparece la divergencia de v.2.(4). se han designado los siguientes operadores como aproximaciones discretas de las operaciones diferenciales de los miembros de la derecha / P˜ ) ≈ ∇P˜ G( ID(v) ≈ ∇. (T. El operador diferencial discreto G indistinta para campos escalares y campos vectoriales. J = −∇P˜ ∂t J = vv − ν∇v (3) La ecuaci´on de transporte transitoria para ϕ = v con densidad uno. utlizando cualquiera de los m´etodos de discretizaci´ on de ecuaciones diferenciales en derivadas parciales (diferencias finitas.∇v + ν ∇2 v ∂t ∂v + ∇.

la condici´ gradiente de la velocidad en la direcci´ on normal a la pared es conocida.V . ˆ = h(t. donde se tiene que el fluido sobre una pared adquiere su velocidad vw . GRANADOS METODOS NUMERICOS En cuanto a las condiciones de frontera para la velocidad. aplicando la divergencia a (3) y (4). donde el la velocidad de transpiraci´ on vo .n) n y n la normal exterior al fluido en la frontera. dicho campo de velocidades ya no ser´a solenoidal. la condici´ on de Dirichlet v = vw +vo . ˆ o = v(to . APROXIMACIONES DISCRETAS PROYECTADAS A priori. Sin embargo. se requiere a priori conocer el campo de presiones. se obtiene que ∇2 φ ≈ d [ID(ˆ v)] dt P˜ ≈ φ − ν IL(Φ) ≈ φ − ν ∇. la condici´on de la frontera introducida en la ecuaci´on de movimiento 4. se elimina de la misma el gradiente de la presi´on. cerca del instante inicial. resulta la siguiente ecuaci´on diferencial d / (P˜ ) − IH(v) + IH(ˆ ˆ ) ≈ −G ˆ) (v − v v) + ν IL(v − v dt (3) Con el siguiente cambio de variables d ˆ ) = −∇φ (v − v dt dΦ =φ dt ˆ = −∇Φ v−v (4) formulado bajo el supuesto que las diferencias de velocidades se originan de una funci´ on potencial Φ. Consideremos que tanto el campo de velocidades solenoidal y el no solenoidal parten de las mismas condiciones iniciales y con condiciones de borde siempre siendo las mismas. para conocer el campo de velocidades.(4). sin conocer a priori el campo de presiones.(2) le restamos la ecuaci´ on (1). de manera que ahora la ecuaci´ on dˆ v ≈ −IH(ˆ v) + ν IL(ˆ v) dt ID(ˆ v) = 0 (1) permite obtener un campo de velocidades. como se indica en la segunda parte de (1). x) v=v ∇. da como resultado la condici´ on 2 ˜ de la frontera de tipo Neumann ∇n P = −dvn /dt + ν ∇ vn para la presi´on. 4.(2).1. x) vo = v c. si la hubiese. se puede obtener el campo de presiones resolviendo la ecuaci´on de Poisson 4. En cualquiera de estas circunstancias. si en lugar de usar la ecuaci´on 4. m´as on de Neumann ∇n v = Tw /µ. en caso que no se conozca la condici´ on de tipo Dirichlet P˜ = P˜w .vo = 0 para t = to y ¯ x∈Ω para x ∈ ∂Ω (2) Si ahora a la ecuaci´ on 4. Este c´ırculo vicioso se puede romper.2.2.i.b. se tienen dos circunstancias. No obstante. La primera. los t´erminos no lineales son muy parecidos IH(v) − IH(ˆ v) ≈ 0 (5) entonces. conociendo el campo de velocidades. tal como se indica a continuaci´on c. y asumiendo que.3.(3). siendo vn = (v.ˆ v (6) Este planteamiento permite formular el siguiente sistema de ecuaciones diferenciales  dˆ v   = −IH(ˆ v) + ν IL(ˆ v)    dt    d ∇2 φ = [ID(ˆ v)]  dt      v   dv = dˆ / (φ) −G dt dt 144 ECUACIONES EN DERIVADAS PARCIALES (7) CAP. La segunda.A.1.

se expresa mediante la siguente f´ ormulas algor´ıtmicas [Kim & Moin. el sistema (7) se puede expresar como  v) = −IH(ˆ v) + ν IL(ˆ v)  F(ˆ        IL(φ) = ID[F(ˆ v)]    (8) dˆ v   = F(ˆ v)   dt      dv   / (φ) = f (v) = F(ˆ v) − G dt usando la funci´ on auxiliar F. El m´etodo de paso fraccionado.(8) tambi´en se puede usar el m´etodo Runge-Kutta de la siguiente forma ˆ n+1 = v ˆ n + cr ∆t Kr v v n+1 Kr = F(ˆ vn + ars ∆t Ks ) IL(φr ) = ID(Kr ) / (φr ) kr = f (v + ars ∆t ks ) = Kr − G n n = v + cr ∆t kr ˆ n = vn v (1) donde para cada paso de integraci´ on en el tiempo se parte de un campo de velocidades solenoidal. METODO DE PASO FRACCIONADO 0 γ1 γ1 + ζ2 γ1 + ζ2 0 0 γ2 γ2 + ζ3 0 0 0 γ3 0 0 0 0 0 0 0 1 (4. se ha preferido dejarlo as´ı. para el operador IH como 0 γ1 γ1 + γ2 + ζ2 γ1 + γ2 + γ3 + ζ2 + ζ3 SEC.3. 4.5 se debe a que se est´a usando un esquema del tipo Crank-Nicholson para la parte impl´ıcita en las derivaciones de segundo orden en el operador L. Aunque en la segunda ecuaci´on se tiene que ID[F(ˆ v)] = −ID[IH(ˆ v)]. proyect´ obtener a partir del campo de velocidades v andolo de tal forma que. que con cierta frecuencia se usan.4. el complemento ortogonal sea justamente el gradiente del campo escalar Φ.1985]  n+1 ˆ v = vn + ∆t [ −γn IH(vn ) − ζn IH(vn−1 ) + 0. los coeficientes del m´etodo de paso fraccionado se pueden expresar. se pueden ˆ . son: 8 15 5 γ2 = 12 3 γ3 = 4 ζ1 = 0 γ1 = 8 15 2 α2 = 15 1 α3 = 3 α1 = 17 60 5 ζ3 = − 12 ζ2 = − (3) Tratando de hacer una analog´ıa con el m´etodo Runge-Kutta de tercer orden. en la notaci´ on de Butcher. que es el campo de velocidades actual vn para dicho instante tn = to + n ∆t.5 αn ν IL(ˆ vn+1 + vn ) ]     γn IL(φn+1 ) + ζn IL(φn ) = ID(ˆ vn+1 )/∆t αn = γn + ζn     n+1 / n+1 ) + ζn G / (φn ) ] ˆ s+1 − ∆t [ γn G(φ v =v (2) El factor de 0.FUNDAMENTOS Geom´etricamente. Los valores de los coeficientes. para poder aplicar adecuadamente el m´etodo Runge-Kutta. De una forma m´as estructurada.4. 4. METODO DE PASO FRACCIONADO Para el sistema 4. a diferencia del m´etodo Runge-Kutta.a) 145 . el sistema anterior se puede interpretar como que el campo de velocidades v.

a) (6.V . contando que la parte impl´ıcita del m´etodo mejore en cierta medida a su parte expl´ıcita. En la tesis [Granados.5 α1 0 0. Primero. a11 = 0 y c1 = 1 y Γ(z) = 1 + z requiere de un CFL=1). el campo de velocidades obtenido en cada paso v haga que el campo escalar φ = γs φs+1 + ζs φs tambi´en est´e m´as cerca del campo de presiones P˜ (valor de IL(Φ) ≈ ∇. No obstante. entonces los valores en los numeradores de (7) son los valores CFL m´aximos necesarios para que las diferentes partes del m´etodo de pasos escalonados sea estable (El m´etodo de Euler expl´ıcito. si consideramos que el autovalor |λ| = Um /∆x.596 ∆t ≤ (7) ∆t |λ| |λ| respectivamente para los dos operadores.5 (α1 + α2 ) 0. se puede observar que los puntos de colocaci´ on de ambas matrices de Butcher son los mismos. el esquema es expl´ıcito para el operador no lineal IH y semi-impl´ıcito para el operador lineal IL.5 α3 1 Teniendo en cuenta la relaci´on αs = γs + ζs . Las ra´ıces caracter´ısticas de los m´etodos Runge-Kutta (5) se encuentran de igual forma que antes.4. las dos matrices (4.b) 0. y as´ı reducir los errores ∆t G forma antes mencionada. para obtener valores de φs+1 m´as peque˜ velocidad (en realidad.(3).ˆ v peque˜ no).5 α1 0. resolviendo el sistema de ecuaciones lineales IV. Como se tiene que el l´ımite CFL≥ Um ∆t/∆x.5 α1 0. lo que se reduce es el error parcial por cada componente de φ en cada paso).2003] se ha recomendado y utilizado el valor CFL=1.5 (α2 + α3 ) 0 0 0 0. y por lo tanto. 146 ECUACIONES EN DERIVADAS PARCIALES CAP.5 (α1 + α2 ) α1 + α2 + α3 0. Esto hace que en el m´etodo de paso fraccionado. que en el m´etodo de paso fraccionado se usa en donde sea posible el campo de velocidades solenoidal v. con b1 = 1. en el m´etodo de paso fraccionado el campo escalar φ se descompone en la / (φ) de la nos. Luego la estabilidad de los diferentes m´etodos se establece imponiendo que las ra´ıces caracter´ısticas sean menores que la unidad.7. levemente superior al menor de los valores de CFL en (7). en lugar de ˆ para la evaluaci´ v on de la funci´ on F(ˆ v ) = −IH(ˆ v) + ν IL(ˆ v).5 α2 0 0 0 0 0 (4.A. Esto permite relajar un poco el procedimiento (2) de integraci´ on en el tiempo con valores de ∆t m´as grandes. Esto da los siguientes l´ımites para el avance del tiempo ∆t 7. GRANADOS METODOS NUMERICOS y para el operador IL como 0 α1 α1 + α2 0 0. Sacadas las cuentas con los valores particulares antes mencionados en (2). b) quedan como 0 8/15 0 8/15 0 0 0 0 0 0 0 8/15 0 0 4/15 4/15 2/3 1/4 5/12 0 0 2/3 4/15 1 1/4 0 1 0 0 3/4 0 0 1 0 0 0 0 1/3 1/15 0 4/15 1/3 7/30 1/6 0 0 0 (5) 1 Dos aspectos diferencian al m´etodo de paso fraccionado con el m´etodo Runge-Kutta.b) respectivamente para el operador IH y el operador IL. de manera de obtener un avance m´as r´ apido en el algoritmo num´erico.5 α1 0. con ζ1 = 0.a. con lo cual se obtienen ! 1 1 " ˜ Γ(z) = 1 + z + z2 + z3 + z4 2 6  191 2 586 3 56 4 128 5  1 − 23 z + z − 30 150 3375 z − 2025 z + 50625 z Γ(z) = 93 2 76 3 8 4 1 − 23 30 z + 450 z − 3375 z + 10125 z (6. ˆ s+1 est´e m´as cerca del campo solenoidal.243 ˜ ≤ 1. Segundo.3.

Para este m´etodo los valores de los coeficientes son: γ1 = 3 2 ζ1 = − 1 2 (8) α1 = 1 respectivamente para los operadores IH y IL. Particularmente en este m´etodo. no obstante.5 αs ∆t ν IL ] (ˆ vs+1 − vs ) = ∆t [ −γs IH(vs ) − ζs IH(vs−1 ) + αs ν IL(vs ) ] (12) (II es el operador identidad) debido a que el operador diferencial se puede ahora factorizar de la siguiente forma aproximada [ I − 0. la estabilidad del m´etodo para la parte expl´ıcita es peor que el m´etodo de Euler. no se hace la descomposici´on de φ. se puede usar un m´etodo de paso m´ ultiple del tipo Adams-Bashforth de segundo orden (semi-impl´ıcito). la estabilidad se mejora notablemente con la parte impl´ıcita. Con los coeficientes (8) se obtienen las siguientes matrices de Butcher 0 3/2 0 0 3/2 0 0 0 1 0 0 1/2 1/2 1 0 (9) 1 y las siguientes ra´ıces caracter´ısticas ! 3 " ˜ Γ(z) = 1 + z + z2 2  Γ(z) = 1 + 12 z + 12 z 2 1 − 12 z  (10) La estabilidad de estos m´etodos queda establecida con los dos l´ımites siguientes ˜ ≤ 0.5 αs ∆t L ] ≈ [ (I − L1 ) (I − L2 ) (I − L3 ) ] Li ≈ 0.5 αs ∆t (ν ∇2i ) . Es conveniente expresar la primera ecuaci´ on del m´etodo de paso fraccionado como [ II − 0.FUNDAMENTOS Cuando el m´etodo Runge-Kutta se hace muy pesado y se desea un avance m´as r´ apido en el tiempo. por ser tan s´ olo de dos pasos.666 ∆t |λ| ∆t ≤ 2 |λ| (11) Como se podr´a observar.

METODO DE LOS RESIDUOS PONDERADOS a≤x≤b (1) 147 . METODOS VARIACIONALES 5.∇v) que se aplica en direcciones alternadas (ADI . 5.1. 5. Li = 0.5 αs ∆t L (13) i (siendo i = 1. Esto resulta en una significante reducci´ on del costo de c´omputo y de memoria. METODO DE LOS RESIDUOS PONDERADOS Sea la ecuaci´on diferencial en 1D para ϕ(x)   d dϕ Γ + S(x) = 0 dx dx SEC. en lugar de grandes matrices de banda dispersa.1. Finalmente la ecuaci´on (12) del m´etodo de paso fraccionado queda en la forma vs+1 − vs ) = ∆t [ −γs H(vs ) − ζs H(vs−1 ) + αs L(vs ) ] [ (I − L1 ) (I − L2 ) (I − L3 ) ] (ˆ (12 ) (H(v) = v.Alternating Direction Implicit) para hacer m´as eficiente el algoritmo. 2. 3 tres direcciones ortogonales) lo que permite que las matrices a resolver sean tridiagonales.

tales w(a) = w(b) = 0. Lema (Lema fundamental del c´alculo d variaciones). 1 Corolario.V . GRANADOS METODOS NUMERICOS con valor en la frontera ϕ(a) = α ϕ(b) = β (2) El coeficiente Γ puede depender de x. b]. toda w(x) ∈ C 1 [a. El promedio del residuo es ¯= R b 1 b−a R(x) dx (4) a y el promedio ponderado ser´ıa ¯w = R b 1 b−a w(x) R(x) dx (5) a donde w(x) es la funci´ on de ponderaci´ on. entonces xo +δ b w(x) R(x) dx = a w(x) R(x) dx > 0 (8) xo −δ  y esto contradice el lema. b] y se cumple que b ∀w ∈ C 1 [a. Suponer que R(xo ) > 0 para un xo ∈ [a. xo + δ] y w(x) = 0 fuera de este entorno. Si existe un w(xo ) > 0 en [xo − δ. b] un conjunto de funciones w(x) continuas y con derivadas continuas en el intervalo cerrado [a. Denominamos el residuo a la funci´ on  ˆ −α   ϕ(a)    d $ dϕˆ % R(x) = Γ + S(x)  dx dx     ϕ(b) ˆ −β si x = a (3) a<x<b si x = b donde ϕˆ = ϕ(x) ˆ es la soluci´on aproximada. Sea el residuo ponderado Rw dado por (6). b] en su entorno xo − δ y xo + δ. Si R(x) es continua en [a. ˆ que hace Rw = 0. b]. Sea C 1 [a. Demostraci´on. se convierte en un problema equivalente a encontrar ϕ(x) ˆ en (3). con coeficiente de difusi´ on Γ(x) dependiente. Finalmente el residuo ponderado se define como b Rw = w(x) R(x) dx (6) a El m´etodo de los residuos ponderados consiste en determinar “a priori” la estructura matem´atica de ϕ(x). b] w(x) R(x) dx = 0 (7) a entonces R(x) ≡ 0 en [a. b] (formulaci´ 148 ECUACIONES EN DERIVADAS PARCIALES CAP.A. Este problema es el mismo problema de difusi´on pura (sin convecci´ on) con fuente propuesto antes. Si Rw = 0 para toda w(x) ∈ C [a. entonces ϕ(x) ˆ = ϕ(x). Encontrar ϕ(x) que satisfaga (1). que substituida en (6) satisfaga Rw = 0 para on variacional). con las condiciones de contorno (2) (formulaci´ on diferencial). b].

2.1.2. a + ε] (4) a−ε Tomando el l´ımite. 5.FUNDAMENTOS 5. cuando ε −→ 0 entonces ζ −→ a. METODO DE COLOCACION La funci´ on impulso o delta de Dirac se define como 2 δ(x) = ∞ 0 si x = 0 ∞ si x = 0 δ(x) dx = 1 (1) −∞ Esta funci´ on es la derivada de la funci´ on escal´on o de Heaviside definida como  dh 0 si x < 0 h(x) = δ(x) = 1 si x ≥ 0 dx (2) Esta funci´ on se puede desplazar de la forma δ(x − a) = 2 ∞ 0 si x = a ∞ si x = a −∞ δ(x − a) f (x) dx = f (a) (3) La integral del lado derecho se deduce del teorema del valor medio a+ε a+ε f (x) δ(x − a) dx = f (ζ) δ(x − a) dx = f (ζ) a−ε ζ ∈ [a − ε. Colocaci´ on Determin´ıstica Proponemos una soluci´ on aproximada ϕ(x) ˆ = n .

obtenemos n . . p. se denominan puntos de colocaci´on. . Cuando la funci´ on de ponderaci´ on de escoge como la funci´ on delta de Dirac. tenemos Ri = R(xi ) = 0 R(xi ) =   d dϕ + S(xi ) = 0 Γ dx dx xi i = 1. . . Imponiendo la condici´ on de que el residuo sea nulo en cada uno de los puntos de colocaci´on xi . . cuyo c´alculo ser´ a el objetivo del m´etodo. . p (7) Substituyendo la soluci´ on aproximada (5). entonces b δ(x − xk ) R(x) dx = R(xk ) Rk = w(x) = δ(x − xk ) (6) a Los valores xk donde se conoce el residuo. cj φj (x) (5) j=1 donde φj (x) son las funciones bases (especificadas “a priori”) y cj son los coeficientes indeterminados. . . i = 1. 2. 2.

SEC. j=1 cj   d dφj = −S(xi ) Γ dx dx xi [A]. . METODO DE COLOCACION 149 . En caso contrario. . se agregan dos ecuaciones m´ as al sistema de ecuaciones. los bordes se convierten en puntos de colocaci´ on. 2. n.2. si Se deben definir las φj (x) de tal forma que ϕ(x) se substituye ϕ(x) ˆ en las condiciones de borde. . En este caso.c = b Aij =   d dφj Γ dx dx xi bi = −S(xi ) (8) ˆ satisfaga las condiciones de borde. . j = 1. 5. que debe coincidir (p = n) con el n´ umero de inc´ ognitas cj .

GRANADOS METODOS NUMERICOS 5. Colocaci´ on Sobre Especificada En este caso el n´ umero de ls puntos de colocaci´ on p supera al n´ umero de coeficientes indeterminados n.2.A.2. Se define un error cuadr´ atico global E= p .

[R(xi )]2 R(xi ) = i=1 n .

se cumplen las ecuaciones normales . cj j=1   d dφj + S(xi ) Γ dx dx xi (9) y en el valor de coeficientes ck . donde este error se minimiza E = Emin .

∂E ∂R(xi ) = 2 R(xi ) =0 ∂ck ∂ck i=1 p ∂E =0 ∂ck p .

n .

i=1  cj j=1 (10)      d d dφj dφk + S(xi ) =0 Γ Γ dx dx dx dx xi xi (11) donde se ha eliminado el factor com´ un 2. Intercambiando las sumatorias sobre p y sobre n se obtiene         p  p  n .

.

.

d d d dφk dφj dφk S(xi ) cj = − Γ Γ Γ dx dx dx dx dx xi dx xi xi j=1 i=1 i=1 (12) o lo que es equivalente n .

Akj cj = bk Akj = j=1 p .

Qki Qtij bk = − i=1 p .

829 t [A] = [Q][Q] = 4 b = −[Q]S = Γa 0 3117.739 l [Q] = 150 Γ l2  ECUACIONES EN DERIVADAS PARCIALES CAP.V .478     Γ2 194.979 −39.  Qki S(xi ) Qki = i=1   d dφk Γ dx dx xi (13) Todo se reduce a resolver un sistema de n ecuaciones lineales con las inc´ognitas aj .0 −19.979 −9.83 0 6. EJEMPLO: Resolver la ecuaci´on diferencial   d dϕ Γ + S(x) = 0 dx dx S(x) = a x2 ϕ(0) = ϕ(l) = 0 con tres puntos de colocaci´ on x1 = l 4 x2 = l 2 x3 = 3l 4 (p = 3) y dos funciones bases φ1 = sen πx l Los resultados son φ2 = sen 2πx l (n = 2)  −6.478 0 39.870 −6.

2.2. 1]. x = [(b − a)z + (a + b)]/2) 1 Rw = −1 w(z) R(z) dz ≈ n .3. Haciendo esto el residuo ponderado se transforma en (z = [2x − (a + b)]/(b − a).FUNDAMENTOS 5. Colocaci´ on Ortogonal Mediante el cambio de variable propuesto en III. b] a Z ∈ [−1.2.(7). se puede cambiar el dominio del problema (1) y llevarlo de x ∈ [a.

1] de z. para que Rw = 0. 1. 2. ˆı = i + 1 = 1. . . 2. siendo zˆı . . Esto es    p . . . se debe satisfacer que R(zi ) = 0 i = 0. ωi w(zi ) R(zi ) ≈ 0 (14) i=0 Como ωi w(zi ) = 0. . las ra´ıces del polinomio de Legendre Pp (z) de grado p = n + 1. . n (15) por lo que se escogen estos puntos como los puntos de colocaci´ on determin´ıstica. . transformadas las variables x al intervalo [-1. p.

no tiene que ver con el n´ umero de coeficientes inc´ognitas cj .2. j = 1. el n + 1 del grado del polinomio de donde obtener la ra´ıces. b]. p. j = 1. . si satisfacen las condiciones de borde.(4. p. 2.2.b) ϕ(x) ˆ = ψ(x) + p . . . si se toma en cuenta III. . . Para los puntos extremos se utilizan las condiciones de borde. En este caso. 2. . . . d dφj cj + S(zˆı ) = 0 (16) Γ dz dz zˆı j=1 donde las funciones bases se pueden escoger como los p polinomios de Legendre φj (z) = Pj−1 (z). La selecci´on de ϕ(x) ˆ se puede hacer de la siguiente manera. Los p puntos de colocaci´on xˆı se escogen interiores al intervalo [a.

cj (x − a) (x − b)j (17.b) j=1 o alternativamente ϕ(x) ˆ = ψ(x) + p .a) cj (x − a)j (x − b) (17.

se pueden escoger otras funciones bases φj (x) que no sean necesariamente polin´ omicas. se puede expresar como combinaci´on lineal de los polinomios de Legendre Pk (z) ϕ[x(z)] ˆ = +1 p . j=1 donde ψ(x) = β−α (x − a) + α b−a (18) para que se satisfagan las condiciones de borde ϕ(a) ˆ = ψ(a) = α y ϕ(b) ˆ = ψ(b) = β. Si se conoce el comportamiento de la ecuaci´on diferencial. Como ϕ[x(z)] ˆ son polinomios de grado p + 1.

2. Pk  f.2). αk Pk (z) k=0 αk =  ϕ. g = 1 f (z) g(z) dz (19) −1 donde se ha usado la ortogonalidad de los polinomios de Legendre III. 5.2. ˆ Pk  Pk .(5) (secci´ on 2. SEC. METODO DE COLOCACION 151 .2.2.

1. . las mismas funciones bases φj (x). se obtiene   n b b . . .1. substituyendo la soluci´ on aproximada 5.2. . b] φk (x) R(x) dx = 0 (1) a se establece para todas las funciones bases φk .A. k = 1. n. 2. GRANADOS METODOS NUMERICOS 5. Esto es.(5). el residuo ponderado b Rφ = ∀φk ∈ C 0 [a.(1) − (2).3. Para el mismo problema planteado en 5. METODO DE GALERKIN En el m´etodo de Galerkin se escoge como funci´on de ponderaci´ on w(x) para los residuos 5.(6).

d dφj cj φk (x) φk (x) S(x) dx (2) Γ dx = − dx dx a a j=1 Lo que resulta en un sistema de ecuaciones lineales n .

.) o cuadratura de Gauss-Legendre (colocaci´on ortogonal. cada una con las mismas caracter´ıstica (1).2. METODO DE ELEMENTOS FINITOS Es un procedimiento sistem´atico aplicando la formulaci´ on de Galerkin.(7. tiene varios nodos i = 1. como puede observarse ahora en (1.2. La integral (3. del total de M elementos en el dominio Ω.2. pero en donde se ha usado unas funciones bases muy particulares. secci´ on III. .1. . M (1) Cada elemento Ωm . De manera que ϕ(x) ˆ = N .b) (En 5. Cuando el t´ermino de fuente depende de la variable dependiente. igualmente se substituye en (3. secci´ on III. con cuadratura de Newton-Cotes (colocaci´on regular. Para cada uno de estos nodos existen varias funciones de forma en los elementos vecinos que comparten dichos nodos..2.4. Estas funciones bases reciben el nombre de funciones de forma tales que φi (xj ) = δij x ∈ Ωm m = 1.b) la restricci´ on era ∀w ∈ C 1 [a. Si la integraci´ on en (3) se realiza de forma num´erica. .b) puede hacerse por partes.2. 5. ˆ Observaci´ on que tambi´en es v´alida para los m´etodos de colocaci´on. . 2. el m´etodo es igualmente v´alido. es lineal.). Dentro de cada elemento tiene una dependencia. porque las restricciones sobre la continuidad de las funciones y sus derivadas son menores. aplicando el teorema de Green. Fuera de cada elemento donde la funci´ on de forma act´ ua. b]). 2. . .1. La formulaci´on (4) se denomina “formulaci´ on d´ebil”. con lo cual b Akj = a   d dφj dφj φk (x) Γ dx = Γ φk (x) dx dx dx b   −  a b Γ a dφk dφj dx dx dx (4) lo que facilita m´ as a´ un la resoluci´ on.c) S[ϕ(x)]. b Akj cj = bk Akj = a j=1   d dφj φk (x) Γ dx dx dx b bk = − φk (x) S(x) dx (3) a que permite el c´alculo de los coeficientes cj . que en el caso m´ as simple. en contraposici´on de la “formulaci´on fuerte” (1). tiene valor nulo.

V . ϕj φj (x) (2) j=1 umero de nodos N donde ϕj es el valor de la variable resuelta ϕ en el nodo j. de un total de N nodos. porque un nodo es compartido por varios elementos. 152 ECUACIONES EN DERIVADAS PARCIALES CAP. El n´ y el n´ umero de elementos M no son lo mismo.

m3 y hasta m4 en los v´ertices. M . xm2 ] φk (x) = xm2 − x (3) φi (x) = xi+1 − x si xi ≤ x ≤ xi+1   si k = m1   ∆xi   ∆x   m     0 si x ≤ xi−1 ´ o x ≥ xi+1 0 si k = m1 y k = m2 no del elemento m = i + 1 y ∆xm = xm2 − xm1 es el tama˜ no del mismo donde ∆xi = xi+1 − xi es el tama˜ elemento m.4. Vemos que dentro de un mismo elemento existen parcialmente dos funciones de forma distintas para los nodos extremos de dicho elemento. . 2. . La figura 1 muestra la angulos en dicha gr´ afica de estas funciones de forma φi para todo el dominio [a. b] se divide en M elementos que son segmentos que van del nodo m1 = i − 1. Las alturas de todos los tri´ figura son la unidad.1. La soluci´on aproximada ϕˆ es ϕ(x) ˆ = N . m2. Unidimensional En el caso unidimensional el dominio Ω = [a.FUNDAMENTOS En el caso unidimensional estos elementos m tienen forma de segmentos con nodos m1 y m2 en los extremos y en el caso bidimensional pueden tener forma de tri´ angulos o rect´ angulos con nodos m1. b]. Las funciones de forma tienen la siguiente expresi´on lineal   x−x x − xm1  i−1  si k = m2   si xi−1 ≤ x ≤ xi   ∆xm   ∆x   i−1   x ∈ [xm1 . i al nodo m2 = i. . en el sentido anti-horario. Funciones de forma φi (x) para elementos finitos unidimensionales. i + 1 para cada elemento m = i + 1 = 1. De hecho se cruzan en cada elemento. . 5. Figura 1.

obtenemos N . b] (5) Substituyendo la soluci´ on aproximada (4).1.(1) − (2) el residuo ponderado de Galerkin es b Rφ = b φk (x) R(x) dx = a a  d $ dϕˆ % Γ + S(x) dx = 0 φk (x) dx dx  ∀φk ∈ C 0 [a.  ϕj φj (x) φj (xk ) = j=1 1 0 si j = k si j = k (4) de donde ϕj = ϕ(x ˆ j ). Para el problema planteado 5.

b ϕj j=1 φk (x) a d $ dφj % Γ dx + dx dx b φk (x) S(x) dx = 0 a N .

. METODO DE ELEMENTOS FINITOS b Γ a dφk dφj dx dx dx b bk = − φk (x) S(x) dx (7) a 153 . . 5. 2. Akj ϕj = bk k = 1. N (6) j=1 Aunque esta expresi´on es elegante a la hora de explicar el m´etodo de Galerkin.4. . como se coloca a continuaci´on b Akj = a b d $ dφj % dφj  Γ dx = Γ φk (x) φk (x) − dx dx dx a SEC. .

GRANADOS METODOS NUMERICOS donde la integraci´ on sobre todo el dominio [a.A. b] se ha hecho sumando los resultados por elementos m Akj = Γ φk (x) b M .

∇ϕ + S(x) = 0 x ∈ Ω ⊂ R2 (12) con valor en la frontera ϕ(x) = α x = a ∈ ∂1 Ω n. Ak.∇ϕ(x) = β x = b ∈ ∂2 Ω (13) donde la frontera ∂Ω de Ω se ha dividido en dos partes. k.b) a los nodos ¯ k ) es el valor medio del t´ermino de fuente alrededor vecinos para φj (x).∇ϕˆ + S(x)      n.k−1 ϕk−1 + Ak. j = m1 y k. j = m2 es m´as conveniente para realizar los c´ alculos.[Γ].k+1 ϕk+1 = bk (9) y se calculan los coeficientes individualmente de forma ∆xk−1 + ∆xk ¯ S(xk ) 2 (10) Los coeficiente de difusividad Γk es el coeficiente promedio en cada elemento k. El coeficiente de difusividad tensorial [Γ(x)] tiene componentes   Γxx Γxy [Γ] = (14) Γyx Γyy y puede depender de la posici´on x.2.k ϕk + Ak.0 ϕ0 + Γ φ1 (x) ϕ0 dx a bN  dφN +1  = bN − AN. con j = k − 1. Bidimensional Se la siguiente ecuaci´on diferencial en 2D para ϕ(x)   ∇.[Γ]. [Γ]. ponderado con las distancias relativas ∆xk−1 /(∆xk−1 + ∆xk ) y ∆xk /(∆xk−1 + ∆xk ).a) y se alteran los coeficientes b1 y bN b1  dφ0  = b1 − A1. Los resultados anteriores se han obtenido fijando φk (x) y extendiendo el resultado no negativo de las integrales (7. El vector n es la normal unitaria exterior a Ω. El residuo de la equaci´on diferencial (12) con la soluci´ on aproximada ϕ(x) ˆ es  ˆ −α   ϕ(x)      R(x) = ∇.k+1 = Γk ∆xk bk = − Para los nodos inicial y final se aplican las condiciones de borde como se muestra en (8. siendo la primera ∂1 Ω con valor especificado (Dirichlet).a) y (8. [Γ]. j = m1 o k.k = − Γk−1 Γk − ∆xk−1 ∆xk Ak.4. j = m2 (8) = 0 si k.N +1 ϕN +1 − Γ φN (x) ϕN +1 dx b (11) aunque los u ´ltimos t´erminos de las expresiones anteriores son nulos debido a que φ1 (a) = φN (b) = 0. mostrar el sistema de ecuaciones lineales con una matriz tridiagonal.∇ϕ(x) ˆ −β 154 si x = a ∈ ∂1 Ω ◦ si x ∈ Ω (15) si x = b ∈ ∂2 Ω ECUACIONES EN DERIVADAS PARCIALES CAP. 5.V . dφj  + Am dx a m=1 kj xm2 Am kj = − Γ xm1 dφk dφj dx = dx dx  = 0 si k. El valor S(x del nodo k. donde los coeficientes no nulos acompa˜ nan s´ olo a la variable ϕ de los nodos vecinos al nodo central k para cada fila k Ak. y la segunda ∂2 Ω con gradiente perpendicular especificado (Neumann). k + 1. Las condiciones de borde se establecen como ϕ(a) = ϕ0 = α y ϕ(b) = ϕN +1 = β.k−1 = Γk−1 ∆xk−1 Ak.

FUNDAMENTOS ◦ donde Ω = Ω − ∂Ω es el interior de Ω (tambi´en se le denomina abierto de Ω). El residuo ponderado se define como Rw = w(x) R(x) dA (16) Ω Para la formulaci´ on de Galerkin. la soluci´ on aproximada y su residuo ponderado con las funciones bases φj (x) son N .

se obtiene el siguiente sistema de ecuaciones lineales N . ϕ(x) ˆ = ϕj φj (x) Rφ = φk (x) R(x) dA = 0 ∀φk ∈ C 0 (Ω) (17) Ω j=1 Substitu´ıda estas expresiones.

. N (18) j=1 donde los coeficientes del sistema lineal son 3   Akj = φk (x) ∇. . [Γ]. 2. ϕj Ω j=1 Akj ϕj = bk k = 1. .∇φj dA = Ω bk = − N . .

c) se ha cancelado durante la integraci´ de (21. j en (20. Uno de los A2m en el denominador de (20.a.∇φj + S(x) dA = 0 φk (x) n. m2.b) con gradientes constantes. La funci´ on de forma φi .b) abajo. para la interpolaci´ on en un elemento triangular m son [Reddy. b) son cualquier permutaci´ on derecha de m1.b) no se cancela. El super-´ındice m en el tensor [Γ]m se refiere a que dicho tensor se establece promedio para el elemento m.  " !  φk (x) ∇. La integraci´on en (19) sobre todo el dominio Ω se ha hecho sumando los resultados por elementos Ωm 3 Akj = φk (x) n.[Γ]. m3.∇φj dC − ∂Ω Ω Ω ∇φk (x).c) se refieren a ∇φk y ∇φj en (21.2005] [Reddy & Gartling.a) es realmente la integral cerrada de l´ınea ∂Ω dC.2000] αm i = xj yk − xk yj 1 φi = (αm +βim x+γim y) 2Am i βim = yj − yk Am kj = γim = −(xj − xk ) −1 { βkm 4Am  γkm } Γxx Γyx Γxy Γyy m  βjm γjm  (20) Los ´ındices i.∇φj dC + ∂Ω Am kj =− Ωm M . pero dichos valores est´ an contenidos en los coeficientes on β y γ de cada lado k y j. [Γ]. k en (20. i = m1.[Γ]. El primer t´ermino del tercer miembro 4 de (19. m2. m3. donde C = ∂1 Ω ∪ ∂2 Ω es la curva de la frontera. como en el caso unidimensional. aunque estos dos gradientes tengan valores opuestos.[Γ]. j. El signo menos de (21.∇φj (x) dA (19) φk (x) S(x) dA F´ıjese que se ha aplicado el teorema de Green a los coeficientes Akj . Los ´ındices k.

∇φj (x) dA =  1 .[Γ]. bk = − Am kj m=1 ∇φk (x).

j = m1 o k.4. j = m3 El elemento bk se calcula como la media de los t´erminos de fuente en los elementos alrededor del nodo k. j = m2 o k. j = m1 y k.k de las distintas funciones de forma φk en los elementos m vecinos al nodo k.k S¯m (xk ) 3 m. METODO DE ELEMENTOS FINITOS 155 . Am.k (21) = 0 si k. ponderado con los vol´ umenes 13 Am. j = m3 = 0 si k. La matriz Akj se rellena de la siguiente manera: SEC. 5. j = m2 y k.

. Para este borde.∇ϕ + S ∂t (22) con condiciones iniciales ϕo = ϕ(0. el valor −Akj ϕj . el valor −n. v´ertice en el tri´angulo del borde.[Γ]. x) ∀x ∈ Ω conocidas en t = 0. . x) pueden depender tambi´en del tiempo t.A. k = 1. Para este borde.b) en los elementos vecinos a los que pertenece. el t´ermino con φk (a) siempre se anula en (21. Finalmente se establecen las condiciones de contorno. Se rellena los elementos de los nodos vecinos integrando los resultados (21.∇ϕ(x) b ∆lk = −β ∆lk . x) y el t´ermino de fuente S(t. 2.a) en la porci´ on ∂2 Ω de C. El coeficiente de difusividad tensorial Γ(t. . Los valores the ϕj para los nodos de la porci´ on de la frontera ∂2 Ω de C tambi´en son inc´ ognitas. donde el segmento ∆lk forma parte de la frontera aproximada poligonal en ∂2 Ω. donde ϕj = ϕj (x) = α. La cantidad ∆lk es el tama˜ no del lado opuesto al nodo k. con x = a ∈ ∂1 Ω.4. cuyos resultados para cada uno son (20. excluyendo los nodos en la frontera en la porci´ on ∂1 Ω. 5. [Γ]. se fija tambi´en la fila en la matriz y se fija un nodo k correspondiente en el dominio. GRANADOS METODOS NUMERICOS Para cada k fijo. oximo Todos los nodos j de la porci´ on ∂2 Ω. x)   ∂ϕ = ∇. indeterminados en los nodos. . que conforma una matriz diagonal en bloques. ˆ x) = N .c). Transitorio Sea la ecuaci´on diferencial en ϕ(t. Todos los nodos j de la porci´ on ∂1 Ω. el t´ermino con φk (b) siempre se anula en (21. N . Al final se contar´ a con un sistema de N ecuaciones lineales con N inc´ ognitas. una vez eliminados los segmentos ( frontera ∂2 Ω = frontera poligonal (segmentos) + frontera estrellada (nodos) ). y condiciones de borde (13) conocidas para todo instante t.3. Luego el elemento del nodo central j = k es menos la suma de los coeficientes de los elementos de la matriz para los nodos vecinos. los valores de ϕk . donde x = b ∈ ∂2 Ω. Una vez substitu´ıda la soluci´ on aproximada ϕ(t. se le suma al elemento independiente k (´ındice del nodo pr´ oximo a la frontera) de dicho nodo. Estos nodos son los v´ertices de los elementos triangulares con una sola punta (o varias) en la frontera estrellada.a) en la porci´ on ∂1 Ω de C. se le suma al elemento independiente k (´ındice del nodo pr´  a la frontera) de dicho nodo.

dϕ = [A].ϕ − b dt (24) donde Bkj se calcula como Bkj = Ω φk (x) φj (x) dA = M . se obtiene el siguiente sistema de ecuaciones diferenciales ordinaria de primer orden en ϕ(t) = {ϕj (t)} Bkj dϕj (t) = Akj ϕj (t) − bk dt [B]. ϕj (t) φj (x) (23) j=1 y aplicado el m´etodo de Galerkin (17)-(18) y discretizado el problema en los elementos finitos (19)-(21).

o el esquema de Crank-Nicholson de la secci´on 2. Los valores Bkj 156 ECUACIONES EN DERIVADAS PARCIALES CAP. El sistema se resuelve con cualquiera de los m´etodos expuestos en el cap´ıtulo IV. una vez despejado el vector dϕ/dt al multiplicar la ecuaci´ on (24) por [B]−1 .V .2. Tambi´en se pueden emplear los esquemas de Euler impl´ıcito de la secci´on 2. como lo es la ecuaci´on (22).. con las mismas observaciones que all´ı se han hecho. m=1 m Bkj m Bkj = Ωm φk (x) φj (x) dA (25) Los valores de Akj y bk son los mismos que en (19).2. dise˜ nados para ecuaciones m son distintos de cero s´ olamente para diferenciales parab´ olicas.2.1.

Hemisphere Publishing Corporation (New York). pp.59. BIBLIOGRAFIA 157 . [8] Kim. The Finite Element Method. Gartling. Fluid Flow Phenomena: A Numerical Toolkit. B. Como los coeficientes de (24. S. McGraw-Hill. El ´ındice j indica la variable ϕj (t) sobre la que act´ ua Bkj y Am kj . Hemisphere Publishing Corporation. D. M. la soluci´on (27. E. The Netherlands). Flujo Turbulento Cargado con Part´ıculas S´ olidas en una Tuber´ıa Circular.[B] . Numerical Analysis. J. 2000. Second Edition. 2000.b) son matriciales. 2nd Edition. 3rd Edition. 1996.. J.Simon & Schuster (New Jersey). se puede aplicar el factor integrante   t −1 [µ(t)] = exp − [B] . 2007. 2003. H. Applied Numerical Analysis. R. (1985). [4] Finlayson. Academic Press (New York). Boston. Pearson Education. [6] Granados. C. A. 2nd Edition. Addison-Wesley (New York). [14] Reddy. 2002. Univ. ¨ sik. Third Edition. Tannehill. Dover Publications (New York). F. T. J. T. Ing. [12] Reddy. Faires. Vol. Moin. N. L. para cada elemento m vecino del nodo k.-J. 1995. 1985.ϕ = −[µ] .. K. R. B y b son constantes en el tiempo. D. PWS. N. Second Edition. J. Numerical Heat Transfer and Fluid Flow. CRC Press.). An Introduction to the Finite Element Method. P. J. CRC Press. W..V. The Finite Element Method in Heat Transfer and Fluid Dynamics. 2005. Polit´ecnica de Madrid. [B]−1. pero no necesariamente constantes en t. 1987.b) es f´acilmente obtenible sin necesidad de utilizar ning´ un m´etodo num´erico adicional para el sistema de ecuaciones diferenciales ordinarias. [3] Burden R. Prentice-Hall (Englewood Cliff. [9] Orlandi. [13] Reddy. x) = [µ] . Computational Fluid Mechanics and Heat Transfer. L. P. S. 1972. [A] dt (26) 0 obteni´endose  d  [µ]. 2000. Physics. b dt −1  t ϕ(t. ϕ − o −1  [µ]. N. D.b dt (27) 0 Cuando los coeficientes A. Comp. Necati Finite Difference Methods in Heat Transfer. “Application of a Fractional-Step Method to Incompresible Navier-Stokes Equations”. K. A. J. Linear Static and Dynamic Finite Element Analysis. [7] Hughes. Heat and Mass Transfer. A. Tesis Doctoral. Pletcher.308-323. J. H. [2] Bathe. [15] Versteeg. with Application in Fluid Mechanics. K. 1994. [10] Ozi¸ [11] Patankar. SEC. [5] Gerald. 1984. instant´ aneamente.. Malalasekera. Energy Principles and Variational Methods in Applied Mechanics. Kluwer Academic Publishers (Dordrecht. Prentice-Hall . Industriales. J. J.. Finite Element Procedures. John Wiley & Sons (New Jersey).. C. N. An Introduction to Computational Fluid Dynamics: The Finite Volume Method. The Method of Weighted Residuals and Variational Principles. BIBLIOGRAFIA [1] Anderson. 1978. 1980.FUNDAMENTOS m los elementos m vecinos al nodo k.

.

The operator makes a escalar product with the vectorial function. with ∂i = ∂/∂xi and e the operator and the operated. This multiplicaction is identified as the contraction of indexes. For this we use the differential operator ∇ with multiple tensor products.ve ABSTRACT This paper intends to introduce the Taylor series for multi-variable real functions. That is why we transpose. between them or with functions or variables. but then we transpose. This product is commutative. Venezuela. In a matrix. Also is established a special multiplication of the derivatives with the displacement of independent variables. but this is not necessary because the result is a escalar. with continuous partial derivative of their components. denominated “nabla”. Estado Miranda Apdo. Generalization of the jacobian of any order of a function with multiple dependence is defined. PRELIMINARS We shall go here step by step. Vectors Let be f (x): RM −→ RN a continuous vectorial function.f = ∂i f i (2) In the case of gradient we operate with ∇. with continuous partial derivative of their components. e-mail: agrana@usb. The operator ∇. The funtions may be on escalar or vectorial variable. Thus the jacobian Jf has component J·ji = ∂j f i . different types of multiplications. There is not confusion about the ordering of is defined in (1. The gradient is the following operation ˆi ∂i grad f = ∇f ∇=e (1) Although the both notation are common. Tensors Let be F(x): RM −→ RN × RN a continuous second order tensorial function. Also it is included the multi-index notation version of the series. The gradient and the divergence are the following operations grad f = (∇f )t = Jf div f = ∇. That is the correct ordering. SERIES DE TAYLOR.b). the second is more used. it shows how to expose the series in a compact notation.89000. with continuous partial derivative. TAYLOR SERIES FOR MULTI-VARIABLE FUNCTIONS Andr´ es L. Escalars Let be f (x): RM −→ R a continuous escalar function. Granados M. ˆi is the constant base. The gradient and the divergence are the following operations grad F = (∇F)t = JF ˆi ∂j F ij div F = ∇. First we define the different operators performed on escalar. Caracas 1080A. Second we define the operations.APENDICE. We follow the summation convention for repeated indexes (dummy index). At the end there is a new proof of the Taylor’s Theorem for vectorial and tensorial functions. With the divergence there is not confusion.Ft = e 159 (3) . Department of Mechanics SIMON BOLIVAR UNIVERSITY Valle de Sartenejas. More than a demostration of the teorema. vectorial and tensorial function. this componente will be in the row i and the column j.

The last two properties between parenthesis are obvious. in that ordering (from inside to outside). Multiplications There are two forms of multiplicactions.b) may be in any manner due to the interchageable of the ordering of derivation ⊗ ⊗ by the continuity of derivatives. The difference of operators.. as for “rot” and ∇× in the rotational operator.∇ ( ∇x = I ∇. The gradient needs a transposition with the operator nabla because the variable which is derivated has the first indice in the array (free index). . thus this number coincides (at last) with the number of repeated indexes.ˆ ej = δji ). is the ordering of derivation. Particularly.. The third operator is the well known laplacian. as in (2. Granados M. 160 SERIES DE TAYLOR APENDICE .. this has been naively used for vectors in scalar multiplication such as v2 = v. it means the number of contraction of the adjacent index in each part. we shall use the following operators that have some especial properties ∇=∇⊗ ∇. Obviously.∇ = ∇2 in (4. Also. the notation in (5) may be extended to another kind of multiplication. between grad the last index of F components and the index of ∂j ( e or div and ∇ or ∇. For the divergence the double transposition is necessary because the dummy index (repeated index by summation convention) contracted by the operation “ · ” corresponds to ˆi .Andr´ es L. That is why we eventually need the transpositions. in the extreme right..c).v = ui v i k nml.a).A. Operators Instead “grad” and “div”. resulting in identity tensor I and the dimension of x.v in (6. to form dummy indexes. when is applied to tensors. · · · .. The permutation of factors in (5. this ocurres to mixed index. When applied on a vectorial function forms a diadic. v0 = 1 and ∇0 = non-derivatives. The second form of multiplication is the escalar product or interior multiplication u. In general. = Aij. The first of them is called the tensorial multiplication. Normally. exponentiations with respect to k and k ⊗ exponents are substantially different. at one side and the other side of the point.rs ij. ∆ = ∇2 = ∇2 = ∇. and their exponentiation is with conventional matrix multiplication where [A. Repeated twice between two second order tensor is the escalar multiplication of tensors (some mathematicians use only one point for this multiplication).lmn B U : V = Uij V ji (6) Between vectors is the escalar multiplication.A ≡ Ak (5 ) as in matrix exponentiation (matrixes are arrays of the components of second order tensors in a particular basis. k times products contract indexes nml.a) and (3. In the example (6. The second operator is the divergence and one has to take care over which part acts the contraction to produce a dummy index.B] = [A] [B]). CALCULUS Two aspects are involves in the following notation: the multiplicactions and the derivatives. To be consistent with.x = N ) (4) The first operator is the gradient. Frequently. the symbol ⊗ is avoided for simplicity.rs (A  B). This is the case of the potency or the exponentiation of a second order tensor A where should be interpreted k times k A    = A. At the left is shown how is the exponentiation of a vector by an exponent k with this multiplication.a) or ∇. k times k times v k⊗    = v ⊗ v ⊗ ···⊗ v ∇ k⊗    = ∇ ⊗ ∇ ⊗ ··· ⊗ ∇ (5) At the right it is shown how is the same exponentiation but with the differential operator nabla.c).

TAYLOR SERIES FOR MULTI-VARIABLE FUNCTIONS Derivatives ˆi ). All the rest remains equal. a slight modification of equation (9) (see (2. is the k order jacobian defined as follows k times Jfk(x)    ⊗ = [∇[∇ · · · [∇f (x)]t · · ·]t ]t = [∇k f (x)]t (9) See the particular cases k = 1.2] is the following f (x) = n . changing f by F. The expression is briefly defined with symbols of (5. for the jacobian and the hessian. Obviously. The tensorial form is the same to the vectorial form. j=column and k=layer) ∂f i ∂2f i i H·jk = (8) J·ji = j ∂x ∂xj ∂xk A generalization of this concept of derivation.a) and (3. Jf0 (x) = f (x). whose definitions are shown below ⊗ Jf (x) = [∇f (x)]t Hf (x) = Jf2(x) = [∇[∇f (x)]t ]t = [∇2 f (x)]t (7) The necessary transposition are patent in the ordering of the indexes of the components (i=row. The number of transpositions and tensorial multiplications are the same.a)). Escalar Series The escalar form of the Taylor series [1. we have the jacobian matrix As two examples of gradient derivatives of vectorial functions ( x = xi e and the hessian tensor. k times.b) at the end of the expression (9).a). The transposition is for the global factor. Here the symbol ⊗ has been partially omitted for simplicity as in (4. the escalar and the vectorial or tensorial. TAYLOR SERIES There are shown two forms of Taylor series. 2 in (7).

f (k) (xo ) k! k=0 (x − xo )k + Rn (x) (10.a) The remainder term Rn (x) is x Rn (x) = xo f (n+1) (t) f (n+1) (ξ) (x − t)n dt = (x − xo )(n+1) n! (n + 1)! ξ ∈ [xo . but also by the Theorem of Rolle [5.6]. Vectorial Series The vectorial form of the Taylor series is the following f (x) = n . to obtain the serie (10.a). The third member is the form of Lagrange for the residual or remainder Rn (x).4]. which may be demonstrated by the Theorem of Mean-Value [3. x] (10.b) The second member is the integral form used recurrently. with integrations by parts. Remember that 0! = 1 and f (0) = f .

b) 161 . SERIES DE TAYLOR 0 k! k ⊗  (x − xo )k + Rn (x) (11. Jk(xo ) f k=0 The remainder term Rn (x) is 1 Rn (x) = SECT.a) with ξ ∈ B(xo . x−xo ) ⊗ ⊗ Jn+1(ξ) n+1 Jfn+1(r(t)) n+1  (x − xo )(n+1) (1 − t)n dt = f  (x − xo )(n+1) n! (n + 1)! (11.

However. TAYLOR’S THEOREM Taylor’s theorem establish the existence of the corresponding series and the remainder term. with k = n. The remainder term is consistent. Results are the same as [6. with transposition included. although the operation (without exponent). there is no the confusion as in f k and f (k) ). One may be tempted to enclose the superindex of J with parenthesis. Granados M. b = x and u(t) = f (k) (t) du = f (k+1) (t) dt v=− (x − t)k k! dv = (x − t)k−1 dt (k − 1)! (13) it is obtained x xo f (k) (t) f (k) (xo ) (x − t)k−1 dt = (x − xo )k + (k − 1)! k! x xo f (k+1) (t) (x − t)k dt k! (14) The recurrent expression (14) permits to obtain (10. The topological structures of (11) and (10) are the same. rather than a simple power k of ∇f (see equation (9)).7]. ⊗ In [6] it is suggested to put under a unique exponent k the factors “ Jfk(xo ) ” and “ (x − xo )k ”. Escalar Proof Integration by parts states that b u dv = uv − v du a b u(t) v  (t) dt = u(t) v(t) a − b v(t) u (t) dt (12) a If we select a = xo . Then we apply the one-variable version of Taylor’s theorem to the function g(t) = f (r(t)). r (t). where g (t) = [∇f (r)]t . except as mentioned. k and the multiple-operation “  ” in between.b). x − xo ) is the RN close ball of center in xo and radius x − xo . similar in context. and no explicit operation is mentioned between the factors Dαf and (x − a)α . one for escalar functions [4]. 1]). The nabla ∇ operator is used for generalized jacobian Jfα(a) = ∇αf (a). Both are based on a recurrent relationship that starts with an initial expression. The demostration of vectorial (11) or tensorial form of series is similar to the escalar (10) form of series [3. Jfk(x) should be seen as k-times compositions of a differential operator ∇ over f (transposition included). Next section we shall show why the second member of (11. taking into account the particularity of the operations (5) and (6).b) has such expression. The first will guide the second. b] (16) a SERIES DE TAYLOR APENDICE . and the definition (9). but different in scope. Tensorial Series This form is exactly the same as the vectorial form without any particularity. which becomes in the second form (last member) via the mean-value theorem b b g(t) h(t) dt = g(c) a 162 h(t) dt c ∈ [a. under already mentioned conditions. where B(xo . the other for vectorial function. We present now two proof of Taylor’s theorem based on integration by parts.a) series. comprehended as a ‘escalar product’. but this will over-recharge the notation innecessarily (besides. implicitly understood.4]. but the notations are different. Parametrize the line segment between xo and x by r(t) = xo + t (x − xo ) (t ∈ [0. is not exposed explicitly with symbol. in its first form (second member). In [7] is used Dαf (a) instead ∇αf (a).Andr´ es L. Some solutions use what is explained in continuation. begining with k = 1 and x f  (t) dt = f (x) − f (xo ) (15) xo Including its remainder term (10.

applied to a vectorial function g(t) 1 1 g(t) h(t) dt = g(τ ) 0 h(t) dt 0 τ ∈ [0. in the third member of (19). αm ) (23) of non-negative integers Z+ (natural numbers N) αi ∈ N.a) series. therefore g(k) (t) = k k k−1 ⊗ ⊗ ⊗ dg(k−1)  = [∇Jk−1 (r)]t  [r (t)](k−1) . with a = 0 and b = 1 in (12). begining with k = 1 and 1 0 g (t) dt = g(1) − g(0) = f (x) − f (xo ) = 1 0 Jf (r(t)) . As x is in the close ball spherical cap of center xo . α3 . produces 1 0 ⊗ ⊗ Jfk(r(t)) k Jk(xo ) k  (x − xo )k (1 − t)k−1 dt = f  (x − xo )k + (k − 1)! k! 1 0 ⊗ Jfk+1(r(t)) k+1  (x − xo )(k+1) (1 − t)k dt k! (20) The equivalent of (14). . They have the properties: • Sum of components |α| = α1 + α2 + α3 + · · · + αm = m . All said here in this proof for vectorial functions is valid also for tensorial functions changing f by F and g by G. . r (t) and (18) where r (t) = x − xo is a constant in t. ” combine in one operation “  ”. r (t) = Jkf (r)  [r (t)]k = Jkf (r)  (x − xo )k f dt k−1 (19) k Note that. The recurrent expression (20) permits to obtain (11. with k = n. . then ξ is inside the ball. Vectorial Proof We now parametrize the line segment between xo and x by a function r(t): R −→ RN defined as r(t) = xo + t (x − xo ) t ∈ [0. the operations “  ” and “ . 1] (22) what means that ξ = xo + τ (x − xo ) in (11. 1] (17) Then we apply the one-variable version of Taylor’s theorem to the function g(t): R −→ RM with g(t) = f (r(t)) g (t) = [∇f (r)]t . in its first form (second member). which becomes in the second form (last member) via the mean-value theorem (16). (x − xo ) dt (21) Including its remainder term (11. instead a = xo and b = x. r (t) = Jf (r) . instead f (t).TAYLOR SERIES FOR MULTI-VARIABLE FUNCTIONS for continuous functions g(t) and h(t) in the interval. Application of (14) to g(t) function.b). . α2 . MULTI-INDEX FORM An m-dimensional multi-index is an ordered m-tuple [8] α = (α1 .b).

αi (24) i=1 SECT. SERIES DE TAYLOR 163 .

Andr´ es L. • Factorial α! = α1 ! α2 ! α3 ! · · · αm ! = m  αi ! (25) i=1 With this notation. Granados M. the Taylor series will be expressed as |α|=n f (x) = .

a) |α|≥0 The remainder term Rn (x) is Rn (x) = . J|α|(xo ) |α| ⊗ f  (x − xo )|α| + Rn (x) α! (26.

1 |β|=n+1 0 |β| ⊗ (n + 1) Jf (r(t)) |β|  (x − xo )|β| (1 − t)n dt = β! .

the third order Taylor polynomial of a scalar function f : R2 −→ R. that depend on various variables. the exponent of powers and the number of contractions concide. takes into account the number of permutations of the same variable in a power. and the posterior consolidation of terms. This form means that the variability of a vectorial function. Term by term. disappear 3 and appear 2! for those terms. as a multi-index.a).a) for n = 3. The central term of second order appear twice in (11. mutiplied the directions for each term (powers) on corresponding variable. The factorial in the denominator of (26). v2 v1 v2 and v22 v1 . with (27) up to |α| = n = 3. Example For example. Some factors for the derivatives. The same global power of variables may be repeated in different terms. |β|=n+1 |β| ⊗ Jf (ξ) |β|  (x − xo )|β| β! (26.a). Finally. that is why when they are divided by 2. and simplify it [7]. the polynomial (28) has the form (26. As v1 v2 and v2 v1 . which makes the transposition unnecessary. is P3 (x) = f (xo ) + ∂f (xo ) ∂f (xo ) v1 + v2 ∂x1 ∂x2 + ∂ 2 f (xo ) ∂ 2 f (xo ) v12 ∂ 2 f (xo ) v22 + v1 v2 + 2 ∂x1 2! ∂x1 ∂x2 ∂x22 2! + ∂ 3 f (xo ) v12 v2 ∂ 3 f (xo ) v1 v22 ∂ 3 f (xo ) v23 ∂ 3 f (xo ) v13 + + + ∂x31 3! ∂x21 ∂x2 2! ∂x1 ∂x22 2! ∂x32 3! (28) where it can be observed the mentioned characteristic [7]. 164 SERIES DE TAYLOR APENDICE . in each term. others factors for the powers. Contrary to (11). Where it must be interpreted |α| Jf (xo )   ∂ |α| f  = α1 αm  ∂x1 · · · ∂xm x=xo ⊗ (x − xo )|α| = (x1 − xo1 )α1 · · · (xm − xom )αm (27) The order of derivatives and powers are the same. This occurs only in the mixed terms. x − xo ) and n (|α| = n = 0) a multi-index limit.b) with ξ ∈ B(xo . respectively. However. The two central terms of third order appear three times each one in (11. which guarantees the contraction factor by factor. that is why when they are divided by 3!. are additive in multiple directions for several terms. The order of derivations. and thus may have repeated terms. but can also be obtained with (11. both are equivalent. disappear the factorial for this term. The derivative notation has a natural way to include the transposition of the operator implicitly (last derivates are respect to the first variables). v1 v2 v1 and v2 v12 and as v1 v22 . but in different ways. denoting v = x − xo . which contains all the possible permutations of the powers. As v12 v2 . with the same directions and order of derivations.a).

G. 2nd Edition. Volume 2: Multivariable Calculus and Linear Algebra. B.wikipedia.org/wiki/Taylor%27s theorem [8] Saint Raymond.1. B. Published by his nephew Sir William Young. Calculus and Analytic Geometry. 1968. Addison-Wesley (Massachusetts). Phylosophycal Transactions of the Royal Society (London). Contemplatio Philosophica. Thomas’ Calculus. T. 4th Edition. [5] Thomas. Chap 1. [3] Apostol.org/wiki/Teorema de Taylor [7] https://en. Calculus. “Methodus Incrementorum Directa et Inversa”. [6] https://es. B. [4] Thomas. [2] Taylor. Addison-Wesley (Massachusetts). G. B. Elementary Introduction to The Theory of Pseudodifferential Operators. M. CRC Press. X.wikipedia. SECT. with Applications to differential Equations and probability. (1715). 2010. John Wiley & Sons (New York). 1969. 1991. 12th Edition. 1793. SERIES DE TAYLOR 165 .TAYLOR SERIES FOR MULTI-VARIABLE FUNCTIONS REFERENCES [1] Taylor.

.

179-194. B. • Butcher. John Wiley & Sons (New York). 1996. INTEVEP S. 1989. • Chapra S. A. Motivation and Theory”.. 1972. H. C. McGraw-Hill Book Company. 1985. Tannehill. Hemisphere Publishing Corporation. F. L. A.E. Numerical Methods for Ordinary Differential Equations. 1990. • Collatz.. Febrero de 1991. John Wiley & Sons (New York). An Introduction to Chaotic Dynamical Systems. Numerical Methods for Engineers. Prentice-Hall. C. Vol. Numerical Analysis.50-64. Algorithms for Minimization without Derivatives. B. 2nd Edition. INT-EPPR/322-91-0001. P. • Gerald. S. pp.46-89.-J. (1965). Prentice-Hall . Numerical Initial Value Problems in Ordinary Differential Equations. Second Printing. J. Trabajo presentado en la Conferencia sobre: Estado del Arte en Mec´anica de Fluidos Computacional. Graphs.. J.201-222. BIBLIOGRAFIA GENERAL 167 . with Personal Computer Applications. A. Numerical Methods. Applied Numerical Methods.. John Wiley & Sons. C. K. NASA Report No. SpringerVerlag. Vol. • Chapra. C.19. bf Numerical Methods. 1970. S. • Atkinson. Addison-Wesley. • Gear. Academic Press (New York). 1973. with Application in Fluid Mechanics. Bj¨orck. R. 2da Edici´ on. Third Edition. • Carnahan. ACM Transactions on Mathematical Software. 1966. Addison-Wesley.. Wilkes. “Cuasi-Newton Methods.577-593. “On the Runge-Kutta Processes of High Order”. Heat and Mass Transfer. ˚. Finite Element Procedures. SIAM Review. and Mathematical Tables. C. Mathematics of Computation. H.1. J. McGraw-Hill Interamericana Editores (M´exico). J. D. L. 1987.. C. Runge-Kutta and General Linear Methods. • Butcher. A. Canale. • Bakhvalov. pp. Tercera Edici´ on. J.ANEXOS BIBLIOGRAFIA GENERAL • Abramowitz. “Low-Order Classical Runge-Kutta Formulas with Stepsize Control”. (1964). • Brent..D. “Implicit Runge-Kutta Processes”. Part 2. P. Los Teques.. 1999. “A Class of Methods for Solving Non-Linear Simultaneous Equations”. • Devaney. R. • Butcher. D. Soc. S. Computational Fluid Mechanics and Heat Transfer. McGraw-Hill.. 1978. J. • Cash. • Anderson. Math. TR R-315. 2008/2016. del 27 al 28 de Mayo de (1991). 1977. The Numerical Analysis of Ordinary Differential Equations. 3rd Edition. PWS. Vol. 2nd Edition. 1984. Mor´e. R. O. Karp. The Method of Weighted Residuals and Variational Principles. H. A. J.A. A • Dennis. Dover Publications. J. R. M´ etodos Num´ ericos para Ingenieros. Stegun. W.16. Boston.19. MIR Publishers-Moscow. John Wiley & Sons (New York). R. J. Vol. Prentice-Hall. 1969. Reporte T´ecnico No. P. • Burden R..A. PrenticeHall.. An´ alisis Num´ erico. Austral. Faires. E. The Numerical Treatment of Differential Equations. 1971. J. pp. N. Pletcher. 1974. K. • Conte.. Luther. E. M. • Bathe. Nuevas Correlaciones para Flujo Multif´ asico. 1987. Los Teques. 1965.18. Math.IV. G. Auditorium de INTEVEP S. C. A. R. An Introduction to Numerical Analysis. pp.. • Dahlquist. (1964). 1985. C. • Butcher. C.Simon & Schuster (New Jersey). (1977). J. 1971. Handbook of Mathematical Functions with Formulas. • Fehlberg. • Broyden. L. No. • Finlayson. pp. Ninth Printing. 1960. 1974. J. Canale. G. L. Vol. Jr.. I. • Granados M. Applied Numerical Analysis. Carl de Boor. 2nd /3rd Editions.. Comput. C.

I. Rep. 14-36. (Research Institute for Venezuelan Petroleum Industry). https:// www. CIMENICS’98. • Granados M. A.A. “Fractal Techniques to Measure the Numerical Instability of Optimization Methods”. Flujo Turbulento Cargado con Part´ıculas S´ olidas en una Tuber´ıa Circular. McGrawHill. Academic Press. • Granados M. L. L. L. 1987. Simulaci´ on con M´ etodos Num´ ericos: Nuevas Tendencias y Aplicaciones. A. Dic. 17-20 de Marzo de 1998. Residencia Universitaria Horco Molle. Free Order Polynomial Interpolation Algorithm. Hotel Intercontinental Guayana. Cerrolaza. Abstracts. No. 1973. T. • Granados M. L. Tesis Doctoral. P. Solving Ordinary Differential Equations II: Stiff and DifferentialAlgebraic Problems. S. Vol. Asociaci´ on Argentina de Mec´ anica Computacional (AMCA). INTEVEP. Computational Mechanics Publications of the Wessex Institute of Technology (UK). (1982) • Hageman. Edo. GRANADOS METODOS NUMERICOS • Granados M. Editores: O. Los Teques. Marzo de 1992. E. Numerical Methods for Scientists and Engineers. Dover Publications. Los Teques. A.edu/11949052/Implicit Runge-Kutta Algorithm Using Newton-Raphson Method • Granados M. INTEVEP S.. Mayo. • Granados M. p. (1996). Computer and Chemistry Engineering... Comuna de Yerba Buena. Editors: M.3. E. M. Cerrolaza.edu/12520473/Numerical Taylors Methods for Solving Multi-Variable Equations • Granados.edu/12345807/Taylor Series for Multi-Variables Functions • Gundersen.. 1991. • Granados. A. 2015. Reporte T´ecnico No. International Association for Computational Mechanics. Nota T´ecnica. Wanner.37. Polit´ecnica de Madrid. Sociedad Venezolana de M´etodos Num´ericos en Ingenier´ıa (SVMNI). 1986.. F. https://www. 1981. 29/Jun/98 al 2/Jul/98. L. • Hairer. “Implicit Runge-Kutta Algorithm Using Newton-Raphson Method”.245. W.. Fourth World Congress on Computational Mechanics.TM9-TM16. Second Order Methods for Solving Non-Linear Equations. Industriales. Wanner. Cultural Centre Tulio Febres Cordero. Numerical Methods in Engineering Simulation: Proceedings of The Third International Congress on Numerical Methods in Engineering and Applied Sciences. Gajardo.academia. Nørsett. Buenos Aires. Brebbia. G. A. M. • Hairer. A.XVI: Anales del V Congreso Argentino de Mec´ anica Computacional. S.. M´erida. A. L. Applied Iterative Methods. Universidad Sim´ on Bol´ıvar. R. B. CIMENICS’96. D. Jun. “Taylor Series for Multi-Variable Functions”. 2nd Edition. • Hamming. • Hildebrand.academia. Second Edition. G. Los Teques. realizado en el Hotel Sheraton. Springer-Verlag. INT-EPPR/3-NT-92-003. San Miguel de Tucum´an. L. • Granados M. “Lobatto Implicit Sixth Order Runge-Kutta Method for Solving Ordinary Differential Equations with Stepsize Control”. https://www. C. pp. Ing. Univ. pp. pgs.349-359. 10-13 de Septiembre de (1996). Springer-Verlag. C. 2016. “Implicit Runge-Kutta Algorithm Using Newton-Raphson Method”..L. Miranda. G. (1998). S.INT-EPPR/322-91-0002.. (1996). Universidad Sim´on Bol´ıvar. Young... Argentina. Ciudad Guayana. 1974. y Luccioni. A. 2015. pp. Argentina. Julio de 1991. Corregido y ampliado Abril. Tech. 1991.academia. L.239-247. p. March 25-29. A. Rao y M. Memorias del IV CONGRESO INTERNACIONAL DE METODOS NUMERICOS EN INGENIERIA Y CIENCIAS APLICADAS. “Numerical Taylor’s Methods for Solving Multi-Variable Equations”. Prado. A. MECOM’96. Vol. B. Lobatto Implicit Sixth Order Runge-Kutta Method for Solving Ordinary Differential Equations with Stepsize Control. Introduction to Numerical Analysis. T. Solving Ordinary Differential Equations I: Nonstiff Problems.A. Puerto Ordaz. Universidad Nacional de Tucum´ an.A. A. A. Mec´ anica Computacional Vol. INTEVEP S. Compilado por: Etse. 168 APENDICE: BIBLIOGRAFIA . Dover Publications (New York). 2003. 1996. Venezuela. • Granados. L. E. A. L.

1975. E. The Art of Scientific Computing. 2nd Edition. 1988.431-441. Necati Finite Difference Methods in Heat Transfer. Numerical Solution of Ordinary Differential Equations.. 1964. Prentice-Hall (Englewood Cliff. P. J.. 2nd Edition. 4th Printing. • Lobatto. Numerical Recipes. • Nakamura. J. Rheinboldt. 1970. and Singular Perurbation Problems. (1956). P. J. Vol. J. An Introductuion to Advanced Techniques. Academic Press (New York). • Marquardt. Mathematical Tables and Other Aids to Computation (MTAC). H. Teukolsky. 1986. • Ortega.2. • Hughes. Iterative Solution of Nonlinear Equations in Several Variables. B. Linear Algebra. (1944). McGraw-Hill. 1990.. 1970. • Peitgen. R.B. L. S. W. H. The Beauty of Fractals. Vol. • Linz. Collier Macmillan Ltd. A. “An Algorithm for Least Squares Estimation of Non-Linear Parameters”. “An Algorithm for Least Squares Estimation of Non-Linear Parameters”. M. Cambridge University Press. Numerical Analysis. 1995. • Mandelbrot. 1851-52.. V. K. J.. • Miranker. McGraw-Hill (New York).. • Luenberger. H. B. M. Numerical Methods for Stiff Equations. Reidel Publishing Company. S. A First Course in Numerical Analysis.11. D. J. (1963). BIBLIOGRAFIA GENERAL 169 . N. En Los Sistemas de Abastecimiento de Agua. Updated and Augmented Edition. Wright. 2000. A. Freeman and Company (New York). Images of Complex Dynamical Systems. Rabinowitz. Prentice-Hall (Englewood Cliff-New Jersey). W. A. R. S. P. Dover Publications (new York). Blaisdell Publishing Company (New York). • Ralston. Academic Press. pp. • Rabinowitz. D. 1984. P. B. Linear Static and Dynamic Finite Element Analysis. Lessen over Differentiaal. Optimization by Vector Space Methods. /bf Theoretical Numerical Analysis. Fundaci´on Polar & Universidad Cat´ olica Andr´es Bello.). • M´endez.. Flannery. S. 1969. Introductory Computer Methods and Numerical Analysis. Seinfeld. • Pennington.ANEXOS • Hoffman. M. 1983. 1978. 1981. D. Springer (New York). The Theory of Matrices in Numerical Analysis.10. A. Ph. H.. 2006. 1987.. R. Handbook of Numerical Analysis Applications. 1966. T. E. • Press. McGraw-Hill. W. Vetterling. pp.en Integraal-Rekening. 2nd Edition. CRC Press. • Ortega.164168. SIAM. Dover Publications (New York). John Wiley & Sons. T. Keller. Ed. Prentice-Hall. S. • Isaacson. • Nocedal.. With Programs for Engineers and Scientists. H.. Vol. John Wiley & Sons. 1970. R. J. The Fractal Geometry of Nature. 1970. H. 1992. pp. 1986. No. ¨ sik. “A Method for the Solution of Certain Non-Linear Problems in Least Squares”. • M¨ uller. • Householder. L. M´ etodos Num´ ericos Aplicados con Software. Numerical Methods for Nonlinear Algebraic Equations. K. 2 Vol. The Finite Element Method. Analysis of Numerical Methods. Kunze.208-215. D. • Lapidus. John Wiley & Sons (New York). J. 1971. • Ozi¸ • Pachner. Quarterly of Applied Mathematics. A Second Course. • Levenberg.. 1979. Numerical Optimization. • Householder. Richter. C. Springer-Verlag. G. 1994. 1971. The Numerical Treatment of a Single Nonlinear Equation. La Haye. H. 2nd Edition. W. M.-O. Gordon and Breach Science Publishers. W.2. Tuber´ıas a Presi´ on.

• Szidarovszky. Andr´eiev.E.. • Samarski. C. Di Costanzo. • Stoer. • Reddy. Gartling. No. J. H. N. 1973. R. 2005.. Plenum Press. D. G. W. An Introduction to Computational Fluid Dynamics: The Finite Volume Method.. H. 1978. J. J. “Solving Non-Stiff Ordinary Differential Equations . McGraw-Hill. Introduction to Numerical Analysis. Second Edition. Malalasekera... • Scheid. Report No. Second Edition. 376-411. Pineridge Press. • Shampine. SANDIA Laboratories. /bf Finite Element Programming of the Navier-Stokes Equations. 2007. McGraw-Hill. K. A. • Versteeg. Pearson Education. • Samarski. Bulirsch.. Introduction to Matrix Computations. Springer-Verlag. M´ etodos en Diferencias para las Ecuaciones El´ıpticas. B. Editorial MIR-Mosc´ u. SIAM Review. S. A. 170 APENDICE: BIBLIOGRAFIA . 1991. Academic Press (New York). SAND75-0182. Davenport. V.A. 1980. Principles and Procedures of Numerical Analysis.3. G. John Wiley & Sons (New Jersey). N. CRC Press. 1986. Energy Principles and Variational Methods in Applied Mechanics. K. pp. 1981. M´ etodos Num´ ericos. J. 2nd Edition. F. F. Introducci´ on a los M´ etodos Num´ ericos. T. R. 1979. An Introduction to the Finite Element Method.. N.18. • Taylor. GRANADOS METODOS NUMERICOS • Reddy. F. Third Edition. L. • Reddy. W. • Stewart. Watts.. Vol. M. 2002. Hughes. 1995. A. 1975. The Finite Element Method in Heat Transfer and Fluid Dynamics. A. (1976)..The State of the Art”. 2da Edici´ on. A. Editorial MIR-Moc´ u. Yakowitz. 2000. S.

etc.researchgate. Profesor Titular de la Universidad Sim´ on Bol´ıvar (USB) Sept/1985 .Ene/2011 (jubilado). el 11 de junio de 1959. Mec´ anica Computacional I & II. Graduado USB Ingeniero Mec´anico 1982. Mec´ anica de Medios Continuos.ACERCA DEL AUTOR Naci´o en Valencia.academia.html https://www. Intevep (PDVSA).usb. Enlaces: http://prof. Ha dictado los cursos: Mec´anica de Fluidos I. Inelectra.edu/Andr´esGranados https://espanol. UPM-ETSII Doctor Ingeniero Industrial 2003 (Cum Laude).free-ebooks.net/ebook/Mecanica-y-Termodinamica-de-Sistemas-Materiales-Continuos 171 . Mec´anica de Fluidos Avanzada. Trabaj´o en prestigiosas empresas como: Vepica.net/profile/Andres Granados4/publications https://usb. Edo. USB Magister en Ingenier´ıa Mec´anica 1988.ve/agrana/cvitae/andres. Tiene en su haber m´ as de 50 publicaciones entre libros. Venezuela. art´ıculos en revistas arbitradas y presentaciones en congresos y conferencias. II & III. Carabobo. M´etodos Num´ericos.