Matem´atica Num´erica

Patricia Saavedra
August 31, 2007

2

0.1

Introducci´
on

La matem´atica num´erica es la rama de las matem´aticas que se ocupa de desarrollar m´etodos
y herramientas para resolver problemas matem´aticos en forma num´erica con el fin de que los
resultados cuantitativos proporcionen informaci´on sobre el comportamiento de un fen´omeno
natural o de un proceso industrial, econ´omico o social.
El objetivo es desarrollar algoritmos eficientes y precisos, que puedan ser implementados en un instrumento de c´alculo, cuyo desempe˜
no pueda ser analizado en detalle y cuya
aplicabilidad sea lo m´as amplia posible.
Los problemas que se abordan provienen de casi todas las ramas de la matem´atica tanto
pura como aplicada. Hay aspectos num´ericos en la teor´ıa de n´
umeros, la combinatoria, el
´algebra abstracta y lineal; en el an´alisis, en las ecuaciones diferenciales ordinarias y parciales,
en la probabilidad y en la estad´ıstica, por citar algunos ejemplos.
El desarrollo vertiginoso de las computadoras trajo consigo una demanda creciente por
procedimientos m´as potentes para resolver problemas cada vez m´as complejos como la
predicci´on del clima, el estudio de las prote´ınas, el desarrollo de tumores cancerosos o
el control de vuelo de una nave espacial. Todos estos problemas requieren de resultados
cuantitativos que permitan tomar acciones, algunas a muy corto plazo, lo que implica tener
m´etodos eficientes que den resultados con la precisi´on deseada en el menor tiempo posible,
incluso en lo que se ha dado por llamar en tiempo real.
Este campo tiene inter´es tanto para los que requieren de c´alculos como para aquellos
que procesan grandes cantidades de informaci´on en forma de im´agenes, sonido o texto, ya
que detr´as de cada imagen enviada y cada acceso a un buscador en la red, hay uno o varios
algoritmos que requieren de miles de operaciones aritm´eticas.
Desde Bacon y Galileo en el siglo XVII, el desarrollo de las ciencias naturales se ha
enriquecido al combinar las metodolog´ıas experimentales con las te´oricas, estas u
´ltimas
muy relacionadas con la matem´atica. A partir del desarrollo de las computadoras, una
tercera v´ıa que se conoce como simulaci´
on num´erica ha venido a enriquecer el m´etodo
´
cient´ıfico para la generaci´on de nuevos conocimientos. Esta
funciona como un laboratorio
cuya herramienta principal es la computadora y en donde se puede dise˜
nar con toda precisi´on
un experimento que proporciona un mayor entendimiento del fen´omeno o proceso que se
estudia. Esta metodolog´ıa puede considerarse parte de la matem´atica num´erica y est´a
estrechamente relacionada a varias ´areas de la computaci´on y de otras disciplinas; por ello,
se habla de f´ısica, qu´ımica, biolog´ıa y hasta finanzas computacionales que se ocupan del
estudio de modelos matem´aticos y algoritmos computacionales precisos y eficientes para
la resoluci´on de problemas que surgen en estas ramas de la ciencia. La influencia que ha
tenido la computadora en el desarrollo de la ciencia y de nuevas tecnolog´ıas corrobora la
afirmaci´on visionaria que hizo John Von Neumann en 1950: ”La ciencia fue revolucionada
por la invenci´on del c´alculo. El impacto de las computadoras en la ciencia ser´a al menos
tan grande como el c´alculo.”

´
´
0.2. BREVE HISTORIA DE LA MATEMATICA
NUMERICA

0.2

3

Breve historia de la matem´
atica num´
erica

La matem´atica num´erica implica c´alculo con n´
umeros y registros num´ericos existen desde las
primeras civilizaciones. Se han encontrado textos relacionados con problemas matem´aticos
en tablillas de arcilla que provienen de excavaciones en las regiones en donde se asentaron
los sumerios, caldeos, asirios y babil´onicos. Los m´as antiguos datan del u
´ltimo periodo
sumerio, alrededor de 2100 A.C., mientras que la mayor´ıa son posteriores a 600 A.C. Las
tablillas muestran que representaban los n´
umeros en un sistema posicional mixto en base 10
y 60. Con este sistema sumaban y multiplicaban con la misma facilidad con la que se hace
en el sistema decimal. Manejaban las cuatro operaciones b´asicas. Para dividir se ayudaban
con tablas del inverso de un n´
umero que les permit´ıa obtener el cociente aproximado de dos

umeros por medio de una multiplicaci´on. Hay tambi´en registro de lo que, posiblemente,
es el primer algoritmo para aproximar la ra´ız cuadrada de un n´
umero. Los problemas de
geometr´ıa en los que se interesaron se relacionaban con la medici´on de per´ımetros, ´areas y
vol´
umenes de algunos s´olidos. Para el c´alculo del per´ımetro de un c´ırculo multiplicaban su
di´ametro por 3, lo que equivale aproximar al n´
umero π por 3, ver [3].
Sobre los conocimientos matem´aticos de la cultura egipcia los primeros registros que
se tienen son el Papiro de Mosc´
u y de Rhind, escritos aproximadamente en 1850 A. de C.
y 1650 A. de C., respectivamente. Ambos documentos incluyen ejemplos de c´alculos que
implican el manejo de ecuaciones lineales con una y dos inc´ognitas. En cuanto a geometr´ıa,
determinaron con ´exito el ´area y el volumen de diversas figuras geom´etricas: entre ellas, el
volumen de una pir´amide truncada. Contaban con una f´ormula aproximada para calcular
el ´area de un c´ırculo en el que el n´
umero π se aproxima por 3 16 .
Es con los griegos que aparece por primera vez, en el siglo V A.C., la matem´atica como
una ciencia formal que utiliza el m´etodo deductivo como herramienta fundamental para
probar que un resultado es verdadero. Los teoremas que se atribuyen a Tales de Mileto y
a Pit´agoras son algunos de los primeros ejemplos en el que se aplica esta metodolog´ıa y el
libro de los Elementos de Euclides es la muestra m´as acabada de ello. La matem´atica griega
se ocup´o de estudiar problemas de geometr´ıa, aritm´etica, teor´ıa de n´
umeros y ´algebra.
Arqu´ımedes (287-212) es posiblemente el m´as brillante matem´atico aplicado de la antig¨
uedad; a ´el se deben diversos ejemplos de m´etodos muy ingeniosos para aproximar la soluci´on
de problemas de la hidrodin´amica y est´atica. Escribi´o m´as de diez obras; entre ellas el estudio de las c´onicas, de la esfera y el cilindro, sobre la espiral y sobre el c´alculo de vol´
umenes
de revoluci´on de elipses, par´abolas e hip´erbolas que giran alrededor de un eje de simetr´ıa
y el c´alculo del ´area de una par´abola. En su estudio del c´ırculo mejora sustancialmente la
aproximaci´on al n´
umero π con el siguiente resultado: 3 17 < π < 3 10
71 .
Desde la aparici´on de los primeros asentamientos humanos se usaron piedras, cordeles,
varillas como instrumentos de medici´on y c´alculo; posteriormente, la aparici´on del ´abaco
facilit´o enormemente el c´alculo aritm´etico. La introducci´on de la notaci´on decimal y del cero
en el siglo XII por los ´arabes uniform´o la notaci´on y el c´alculo num´erico entre los diversos
pueblos. Pero no fue sino hasta inicios del siglo XVII, con el invento de las tablas de
logaritmos, que el c´alculo num´erico experiment´
o un avance fundamental para el desarrollo

retoma y simplifica su trabajo con el fin de generalizarlo a cualquier base. hizo su aparici´on en 1624 la regla de c´alculo que permaneci´o como instrumento personal de c´alculo por excelencia hasta la aparici´on de las primeras calculadoras de bolsillo en 1970. Con la tablas de logaritmos. Fermat. el c´alculo de m´aximos y m´ınimos y el c´alculo de cuadraturas. de bal´ıstica y de ´ındole pr´actico que parec´ıan incalculables. relacionaran y unificaran en una metodolog´ıa poderos´ısima: el c´alculo diferencial e integral. La tabla de logaritmos fue creada por John Napier (1550-1617). quien fue de los primeros en estudiar la notaci´on y el manejo de distintas bases num´ericas como la binaria o la exponencial. que publica en 1617 con una precisi´on de catorce cifras. Leibnitz y Newton los sitematizaran. Pascal. en particular la decimal. Poco despu´es. las multiplicaciones de varias cifras se convierten en simples sumas y el elevar un n´ umero a un exponente se reduce a una simple multiplicaci´ on. desarrollaron la geometr´ıa anal´ıtica. entre otros. a fines del siglo XVII. Figura 1: John Napier Al morir Napier. Barrow y Gregory. Estos resultados prepararon el terreno para que. entre otros temas. .4 de la ciencia en el siglo XVII y XVIII. Con estos antecedentes los precursores del c´alculo: Descartes. el primer profesor saviliano de geometr´ıa de Oxford. Sus estudios sobre la relaci´on entre las progresiones geom´etricas y aritm´eticas lo llevaron a definir el logaritmo base 1e que public´o en 1615. Esto permiti´o abordar problemas de astronom´ıa. Wallis. diversos m´etodos para determinar la ecuaci´on de la tangente a una curva dada. su amigo Henry Briggs (1561-1630).

4 3 5 7 Siguiendo el ejemplo de Newton.´ ´ 0. el valor de π π 1 1 1 = 1 − + − + . la difusi´on de calor o el comportamiento de los fluidos.2. la fuerza gravitacional y la descomposici´on de la luz. Figura 2: Isacc Newton En esa misma ´epoca se introdujo el uso de series de potencias que permiti´o aproximar localmente con la precisi´on deseada a un gran conjunto de funciones y abri´o la posibilidad de atacar problemas de mayor complejidad que aparecen en el estudio de fen´omenos f´ısicos como las vibraciones de una cuerda. Newton invent´ o varios algoritmos que se siguen utilizando hasta nuestros d´ıas.. varios matem´aticos de primer orden contribuyeron a la soluci´on de problemas num´ericos: Leonard Euler (1707-1783) utiliz´o la serie de Taylor para . BREVE HISTORIA DE LA MATEMATICA NUMERICA 5 Isacc Newton (1642-1727) naci´o en Woolsthorpe. tanto como se deseara.. entre otras muchas cosas. como el m´etodo para encontrar los ceros de una funci´on o la aproximaci´on de derivadas por medio de diferencias divididas o la construcci´on de polinomios de interpolaci´on. Por ejemplo. James Gregory (1638-1675) en 1671 determin´o la serie de potencias para la funci´on Arctang(x) lo que permiti´o aproximar.. la fuerza de atracci´on entre los cuerpos. Desde el punto de vista num´erico. Sus aportaciones son fundamentales para definir con precisi´on el concepto de velocidad inst´antanea. Inglaterra.

Mauchly y Burks. llamada EDVAC. La primera computadora. una unidad central que organice las tareas que lleva a cabo la computadora y una memoria en la que se almace- . usaba dispositivos electromec´anicos y representaba a los n´ umeros en binario en notaci´on de punto flotante. Weierstrass y Cauchy entre otros. pero sus ideas no fueron comprendidas por sus contempor´aneos y tuvieron que esperar hasta inicios de la segunda guerra mundial para dar frutos. Aunque esta computadora era electr´onica. El problema de proporcionar a la computadora las instrucciones a seguir sin necesidad de desconectar los circuitos despert´o su inter´es. La primera computadora de uso general fue la ENIAC. en 1928 apareci´o el famoso art´ıculo de Courant. Esto explica que la obtenci´on de c´alculos num´ericos pasara a segundo t´ermino aunque el desarrollo del an´alisis funcional est´a estrechamente ligado a la aproximaci´ on de funciones en espacios normados. Friedrichs y Lewy sobre el an´alisis de estabilidad de estos m´etodos. ver [9]. los brit´anicos construyeron una gran computadora para descifrar los c´odigos de encriptamiento de la m´aquina alemana Enigma. los instrumentos de c´alculo permanecieron sin modificaci´on alguna hasta mediados del siglo XX. Durante la segunda mitad del siglo XIX. en ´el plasma las ideas que hab´ıan surgido en sus discusiones con Eckhert. t´ermino que ser´a definido m´as adelante. Charles Babbage en el siglo XIX fue el primero en tener la idea de dise˜ nar un m´aquina que realizara c´alculos autom´aticos. sus aportaciones al estudio de la soluci´on de sistemas de ecuaciones lineales siguen siendo fundamentales en la ense˜ nanza del ´algebra lineal. algoritmo que pas´o desapercibido hasta su redescubrimiento por Cooley y Tukey en 1963. visit´o la construcci´on de la ENIAC como asesor de la marina. son los responsables del concepto riguroso de l´ımite que es fundamental en el an´alisis. la matem´atica entr´ o en una etapa de rigorismo necesario para cimentar con firmeza su amplio cuerpo de conocimientos. Richardson aplic´o por primer vez el m´etodo de diferencias finitas para el an´alisis de esfuerzos en distintos materiales y que. Para saber m´as sobre la historia del an´alisis num´erico. En el verano de 1944 Von Neumann. Karl Friedrich Gauss (1777-1855) contribuy´o de manera notable con el m´etodo de m´ınimos cuadrados y sus f´ormulas de cuadratura que abren la puerta a la utilizaci´on de familias de polinomios ortogonales para la aproximaci´on de integrales. En 1945 Von Neumann escribi´o un reporte sobre el dise˜ no l´ogico de una computadora nueva. llamada Z3. Tambi´en se le atribuye la invenci´on de la transformada r´apida de Fourier. apareci´o en Alemania en 1939 y fue constru´ıda por el ingeniero Konrad Zuse. Por u ´ltimo. Joseph Louis Lagrange (1736-1813) di´o una forma de construir polinomios de interpolaci´on. cada vez que se usaba en un problema nuevo hab´ıa que reprogramarla lo que implicaba reconectar distintos circuitos el´ectricos. hay que mencionar que. construida por Prosper Eckert y John Mauchly en la Universidad de Pennsylvania de 1943 a 1945. Desarrollo de las computadoras En contraste con el desarrollo acelerado de la ciencia en el siglo XIX y la primera mitad del siglo XX. consultar [8]. y dibuja un diagrama de lo que debe ser la estructura de una computadora: una unidad de c´alculo. a principios del siglo XX.6 crear el m´etodo que lleva su nombre y que aproxima la soluci´on de problemas con condiciones iniciales en ecuaciones diferenciales ordinarias. entre otros. Tambi´en durante esos a˜ nos.

y desbord´o su marco inicial para ocuparse de todo tipo de problemas cuyo estudio y soluci´on pod´ıan beneficiarse del uso intensivo de esta herramienta. Teor´ıa Matem´atica de la Computaci´on de la Sociedad Matem´atica Americana inici´o su publicaci´on en 1943. sin contar las que se publican en otras disciplinas. el desarrollo de la matem´atica num´erica se aceler´o. La velocidad . entre las primeras est´an el SIAM Journal en 1953 y el Numerishe Mathematik en 1959.2. Este documento tendr´a una influencia determinante en el desarrollo posterior de las computadoras. ingenieros y cient´ıficos que se interesaron en crear algoritmos que aprovecharan la capacidad de las computadoras se increment´ o tanto que. la matem´atica num´erica se hab´ıa convertido en una rama independiente de la matem´atica. a la matem´atica num´erica se le consideraba parte del an´alisis ya que se ocupaba principalmente del estudio de la aproximaci´ on num´erica de la soluci´on de problemas continuos. BREVE HISTORIA DE LA MATEMATICA NUMERICA 7 nen los programas. Estudi´o la propagaci´on de errores en los c´alculos num´ericos y el dise˜ no de algoritmos menos sensibles a estos que son aspectos fundamentales de la matem´atica num´erica. A partir de 1945. Figura 3: John Von Neumann Antes de la aparici´on de las computadoras. cuesti´on nada evidente en esos a˜ nos. Al mismo tiempo Von Neumann se interes´ o en la confiabilidad de los resultados que se obtienen en una computadora. su concepci´on permaneci´o vigente hasta la aparici´on de las computadoras en paralelo. Actualmente. En cuanto a las publicaciones. a principios de los sesenta. hay m´as de una docena de revistas especializadas en este tema. pero no fue sino hasta la d´ecada de los cincuenta que aparecieron las primeras revistas especializadas totalmente dedicadas a este nuevo campo. De esta forma el n´ umero de matem´aticos. a la par que lo hizo la computadora.´ ´ 0.

8 de las computadoras se ha incrementado en un factor de 109 desde su creaci´on. Sus visitas a M´exico. antes de 1970. investigador de la Universidad de Princeton. reuni´o a un grupo de j´ovenes interesados en la matem´atica para profundizar ciertos temas e intercambiar ideas. gracias al esfuerzo de muchos investigadores.I. consultar el libro de E. dirigida por Alberto Barajas y Roberto V´azquez. Hoy en d´ıa. s´olo la primera rama lograr´ıa consolidarse con el apoyo decidido de Solomon Lefschetz. dirigida por Francisco Zubieta. L´ogica y Fundamentos. Organiz´o el Instituto en tres ramas generales: Matem´atica Pura. buena parte de los problemas cl´asicos de la f´ısica pueden ser resueltos computacionalmente en forma confiable y eficiente. En 1935 surgieron las carreras de matem´atico y f´ısica.3 La matem´ atica num´ erica en M´ exico La matem´atica num´erica en M´exico tiene las mismos antecedentes que cualquier otro campo de la matem´atica en M´exico. Uno de estos j´ovenes era Alfonso N´apoles G´andara. Puebla. ecuaciones diferenciales y topolog´ıa algebraica. Trabulse. el colonial. profesor de la Escuela Nacional Preparatoria y de la Escuela Nacional de Ingenieros. Estas instituciones junto con la Sociedad Matem´atica Mexicana creada en 1943. por lo que se puede hablar de tres periodos ajenos: el precolombino. Una de las caracter´ısticas del desarrollo de esta disciplina en nuestro pa´ıs es su falta de continuidad. el Instituto de F´ısica y el Instituto de Matem´aticas. Veracruz y Yucat´ an. La importancia de este grupo es que varios de sus miembros jugaron un papel determinante en el impulso de la actividad matem´atica en M´exico. la carreras de matem´aticas en varias universidades de provincia como Nuevo Le´on. lo que se ha convertido en un reto constante para generar nuevos algoritmos que puedan aprovechar y explotar dicho potencial. y el posrevolucionario a partir de 1930 a nuestros d´ıas. en el que destaca la matem´atica maya. influyeron considerablemente en la formaci´on de recursos humanos en Estados Unidos en tres ´areas relevantes de la matem´atica: geometr´ıa algebraica. en noviembre de 1938. Despu´es de la Revoluci´on. a partir de 1945 hasta 1966. En los siguientes veinte a˜ nos.T. como el dise˜ no de prote´ınas sint´eticas o de nuevos materiales siguen siendo un reto para el ingenio de las nuevas generaciones de analistas num´ericos. en el que se profesionaliza la actividad matem´atica en M´exico. . A continuaci´ on se hace una breve presentaci´on de esta u ´ltima etapa. que junto con otros nuevos. lograron contagiar a profesores y alumnos de distintos lugares de nuestro pa´ıs del gusto por las distintas ramas de las matem´aticas y ayudaron a crear. pero a´ un restan otros problemas. como el estudio de la turbulencia o del clima. dentro del Departamento de Ciencias F´ısicas y Matem´aticas de la UNAM y. se aprob´o la creaci´on de la Facultad de Ciencias. N´apoles G´andara fue el director de Instituto de Matem´aticas desde su inicio hasta 1965. Don Sotero Prieto (1884-1935). se puede afirmar que. y Matem´atica Aplicada cuyo responsable era Carlos Graef. quien en 1930 recibi´o una beca para realizar estudios de matem´aticas en el M. ver [19]. 0. El desarrollo de la matem´atica aplicada en M´exico ha sido m´as lento ya que en un pa´ıs con escaso desarrollo tecnol´ogico la demanda de m´etodos matem´aticos avanzados es poca.

Lefschetz. Tambi´en ha sido m´as disperso ya que esta actividad no es exclusiva de los matem´aticos sino que tambi´en se retroalimenta con el trabajo realizado por los f´ısicos. el Instituto de Ingenier´ıa y el Instituto de Geof´ısica (IG) de la UNAM. En este u ´ltimo jug´o un papel fundamental el Dr. En consecuencia. LA MATEMATICA NUMERICA EN MEXICO 9 Figura 4: Estela 2 en Chiapa de Corzo. Julian Adem y el Dr. Arturo Rosenblueth de la UNAM y el trabajo pionero realizado por Manuel Cerrilla quien public´o desde 1945 varios trabajos . Tambi´en hay que mencionar el trabajo destacado que desarrollaron el Dr. quien realiz´o estudios de doctorado en la Universidad de Brown bajo el auspicio del Dr. dirigi´o el IG durante varios a˜ nos y jug´o un papel de primer orden en el desarrollo de la matem´atica aplicada en nuestro pa´ıs. el Instituto de Investigaciones en Matem´aticas Aplicadas y Sistemas (IIMAS). otras instituciones influyeron en el avance de la matem´atica aplicada: la Facultad de Ciencias. matem´atico egresado de la Facultad de Ciencias. en especial en los m´etodos variacionales para la soluci´on de ecuaciones en derivadas parciales y su aplicaci´on a la ingenier´ıa. tanto por la industria como por el sector de servicios. geof´ısicos e ingenieros.´ ´ ´ 0. Ismael Herrera.3. El cero se representaba con un caracol.

f´ısico matem´aticas. Tambi´en hay que se˜ nalar en esta direcci´on el trabajo de divulgaci´on y promoci´on realizado por D. con el fin de utilizarla para el avance de la ciencia en M´exico. cerca de treinta son en matem´atica num´erica. de electromagnetismo y procesamiento de se˜ nales. A partir de la creaci´on del CCE. en el ITAM. adquiere una computadora con tecnolog´ıa muy avanzada para su tiempo y su uso se difunde r´apidamente. B. en la Facultad de Ciencias (FC). Geof´ısica e Ingenier´ıa de la UNAM. instituci´on que ha sido un foco de desarrollo y de atracci´on de los matem´aticos en provincia. En 1991 se llev´o a cabo. Jos´e Adem. ha formado a un buen n´ umero de matem´aticos aplicados en el pa´ıs en las ´areas de control. el ´algebra lineal num´erica y los m´etodos num´ericos aplicados a la probabilidad y a la estad´ıstica. En 1980 se funda el Cimat en Guanajuato. en 1961. Las ´areas que se cultivan son la optimizaci´on no lineal. En 1974 se crea la Universidad Aut´onoma Metropolitana. a partir de una iniciativa entusiasta de varios investigadores de la Facultad de Ciencias y de la Universidad de Coahuila. reconociendo entre sus actividades la investigaci´ on en c´omputo y en estad´ıstica. Hasta ahora. pasando de 60 a 2000 usuarios activos. hasta entonces investigador del Instituto de Matem´aticas de la UNAM. Debe mencionarse que un poco antes. El CCE cambia de nombre (CIMASS) y funciones en 1970. En 1973 se divide el CIMASS para separar la actividad de investigaci´ on de la de servicios y se crea el CIMAS que. se estableci´o la Escuela Superior de F´ısica y Matem´aticas en el IPN. Hern´andez. Actualmente. hay alrededor de cien investigadores activos en el ´area de matem´aticas aplicadas y. los avances en estas ´areas. sin contar aquellos que provienen de otras disciplinas. cuyos primeros profesores eran egresados de la Facultad de Ciencias de la UNAM. En 1997 el Centro se moderniza. Se encuentran grupos consolidados en el CIMAT. el n´ umero de cient´ıficos y profesionales que usaron esta nueva herramienta como parte de sus investigaciones no dej´o de crecer y mostr´o la necesidad de formar recursos humanos en computaci´on y ´areas afines en el extranjero. el Instituto de Ciencias de la Atm´ osfera. cuyo Departamento de Matem´aticas en la Unidad Iztapalapa. Este instituto ha desempe˜ nado un papel muy importante en el desarrollo de la matem´atica aplicada y la estad´ıstica en M´exico. se han llevado a cabo dieciseis escuelas lo que ha contribuido a la consolidaci´on de la matem´atica aplicada en nuestro pa´ıs. El Centro de C´alculo Electr´onico (CCE). fue fundado en 1958.10 sobre algunos m´etodos matem´aticos aplicados a problemas el´ectricos. posteriormente en 1976. Vale la pena recordar el desarrollo del IIMAS ya que su historia est´a entrelazada con al desarrollo de la computaci´on en M´exico. se encarg´o de dirigir este nuevo centro que ha tenido gran impacto en el desarrollo matem´atico de nuestro pa´ıs. el IIMAS. sistemas din´amicos y an´alisis num´erico. en el Departamento de Matem´aticas de la Unidad Iztapalapa de la UAM y en las Facultades . se convertir´ a en el IIMAS. ver [11]. entre ellos. la soluci´on num´erica de ecuaciones diferenciales ordinarias y parciales. la primera Escuela de Optimizaci´on y An´alisis Num´erico con el fin de difundir y actualizar entre los profesores e investigadores de las universidades de provincia. En 1962 el Centro de Estudios Avanzados del Instituto Polit´ecnico Nacional (IPN) inici´o sus actividades. a˜ no en que se instala la primera computadora en la UNAM y en el pa´ıs.

la diferencia estriba en el n´ umero de d´ıgitos k de la mantisa que almacenan. Usar las potencias de diez es natural porque los humanos tienen diez dedos en la mano.. ya que almacenan los caracteres en bytes que a su vez se componen de 8 bits.. La sucesi´on de puntos dk se le conoce como la mantisa y al entero n como la caracter´ıstica. donde n es un n´ umero entero. ¿De qu´e tama˜ no es el error que se comete al representar cualquier n´ umero real en una computadora? Para estimarlo den´otese por f l(x) la representaci´ on en punto flotante de un n´ umero real x en una computadora con una mantisa de k d´ıgitos.A.. × 10 . la m´aquina genera un error de underflow o desbordamiento inferior. Para representar un n´ umero en punto flotante se puede usar una palabra simple o doble. M. A continuaci´on.4. pero hay otros sistemas que utilizan las potencias de otros n´ umeros. de S. si ´este es menor o igual a 4 se almacenan u ´nicamente los primeros k d´ıgitos. base 8.. Si el real tiene como caracter´ıstica un entero menor a −n... La manera m´as f´acil de representar un n´ umero real en una computadora es en notaci´on de punto flotante.L. Cuando la mantisa tiene un n´ umero de d´ıgitos mayor a k entonces la computadora redondea el n´ umero y almacena s´ olo k d´ıgitos.. Para las computadoras lo m´as natural es usar potencias de dos.. Si se usan palabras simples para representar a los reales se dice que se calcula en simple precisi´on o en doble precisi´on en caso de utilizar palabras dobles. es imposible que un instrumento de c´alculo pueda representarlo en forma exacta. Si se almacena un real con exponente mayor a n. 0. Se usar´a el error relativo . El procedimiento de redondear consiste en lo siguiente: primero se observa el valor del d´ıgito dk+1 . Algunas computadoras modernas trabajan en base octal.4 Matem´ atica num´ erica y las computadoras.. o hexadecimal que es en base 16...d1 d2 d3 . Los babil´onicos ten´ıan un sistema sexagesimal y quedan vestigios de ello en nuestra forma de medir el tiempo. Hidalgo y de U. MATEMATICA NUMERICA Y LAS COMPUTADORAS... y d1 es distinto de cero.N.´ ´ 0. Cada bit puede tomar dos valores. La notaci´on es la siguiente: n x=+ − .. Una palabra de computadora se compone de 4 bytes y una palabra doble de 8 bytes consecutivos. cada instrumento de c´alculo tiene una cota superior e inferior para n y s´olo puede almacenar un n´ umero finito de d´ıgitos k de la mantisa. Un byte permite representar 256 caracteres distintos. dk en n´ umero entero entre 0 y 9. N. Al usar potencias de dos se dice que se trabaja en base binaria en lugar de la base decimal. de la U. Como la representaci´on de un n´ umero real puede tener mantisa infinita y n puede tomar cualquier valor en los enteros. Hay muchas formas de representar los n´ umeros. se presenta esta notaci´on en base decimal aunque las computadoras usan otras bases. desde la antig¨ uedad se conocen las ventajas de utilizar potencias de 10 lo que da un sistema posicional decimal en el que es importante la posici´on que ocupa un d´ıgito. por simplicidad. la computadora marca un error que se conoce como overflow o desbordamiento superior. 11 de Ciencias F´ısico-Matem´aticas de la BUAP. uno si est´a prendido y cero si est´a apagado. si dk+1 es mayor o igual a 5 se suma un uno al k ´esimo d´ıgito y se almacenan los k d´ıgitos del n´ umero resultante.dk dk+1 .

Los estudios muestran que este comportamiento no s´olo es resultado del n´ umero de d´ıgitos de precisi´on de la computadora. |x| A este error se le llama error de redondeo. ser´ıa imposible usar una computadora o cualquier otro instrumento de c´alculo para aproximar la soluci´on de un problema que involucre un gran n´ umero de operaciones. Numerosos estudios realizados por Von Neumann. la mayor parte de las veces. Aunque pueda llevarla a cabo. Aritm´ etica en punto flotante ¿Qu´e sucede cuando realizamos las cuatro operaciones de la aritm´etica con f l(x) en lugar de x? Uno de los problemas que se presentan es que las cuatro operaciones no son cerradas en el conjunto de f l(x) con x real. como cuando se multiplican dos n´ umeros muy grandes. los resultados obtenidos tendr´an. x/y ≈ f l(f l(x)/f l(y)). documentaron ampliamente este fen´onemo al que llamaron inestabilidad num´erica. no podr´a llevarse a cabo la operaci´on y la computadora marcar´a el error de desbordamiento. Uno de los aspectos que debe tomar en cuenta. tanto para la notaci´on. A primera vista. se distribuyen normalmente por lo que. la precisi´on de la computadora. x × y ≈ f l(f l(x) × f l(y)). en ocasiones. el resultado conserva la misma precisi´on que la de la computadora. pero cada fabricante desarrollaba su propio sistema y. el error de redondeo crece sin parar. El resultado de las cuatro operaciones en notaci´on punto flotante es de la forma: x+ −y ≈ f l(f l(x)+ − f l(y)).12 para estimar el error ya que ´este es invariante respecto al tama˜ no del n´ umero que se desea representar y se define por |x − f l(x)| ≤ 5 × 10−k . Si as´ı lo hicieran. Sin embargo. Por ejemplo. en la mayor´ıa de los c´alculos. ver [6]. En consecuencia. cuando se resuelve un problema con una computadora. se resuelve un problema aproximado y no el original. Por fortuna los errores de redondeo se comportan en forma estad´ıstica y no determinista. es qu´e tan sensible es ´este y el algoritmo que va a utilizar al error de redondeo. distintos programas en una misma computadora lo hac´ıan en forma diferente. En 1985 se aprob´o un acuerdo que se conoce por Estandar IEEE. en ocasiones. el resultado de la operaci´on puede tener mantisa de m´as de k d´ıgitos por lo que hay que redondearla. parecer´ıa que los errores de redondeo se ir´an acumulando a medida que se realicen las operaciones. en el mejor de los casos. en caso de que haya desbordamiento. La notaci´on en punto flotante era ya est´andar a mediados de la d´ecada de 1950. Forsythe y Henrici entre otros. sino tambi´en de las caracter´ısticas del problema mismo y del algoritmo que se utilice. Wilkinson. deteriorando la precisi´on de los resultados. como para la aritm´etica en punto flotante en binario en todas las computadoras que se produc´ıan en . cualquier persona interesada en aproximar num´ericamente la soluci´on de un problema. con resultados desastrosos.

ver [16] . un mal manejo del error de redondeo a nivel de hardware. con un desplome inmediato en la cotizaci´on de sus acciones. Figura 5: El cohete Arianne V Problemas bien planteados No todos los problemas matem´aticos pueden ser resueltos con la ayuda de una computadora. precis´o las caracter´ısticas que debe tener un problema para estar bien planteado: la soluci´on debe existir y ser u ´nica. oblig´o a Intel a sacar del mercado sus microprocesadores Pentium Pro y Pentium II. A pesar de la aprobaci´on del est´andar IEEE la falta de consistencia entre los distintos softwares y el uso de programas anteriores a la aprobaci´on del acuerdo. . y en 1989 se adopt´o a nivel internacional. han ilustrado recientemente los problemas que provoca un manejo descuidado de la aritm´etica en punto flotante. MATEMATICA NUMERICA Y LAS COMPUTADORAS.4.´ ´ 0. En 1987 se adopt´o ese mismo est´andar para cualquier base. ya que las calculadoras utilizan base decimal. 13 Estados Unidos. fallas en el sistema de antimisiles Patriot durante la Guerra del Golfo y en 1997. Entre los m´as graves est´an. El matem´atico Jacques Hadamar. a principios del siglo XX. en 1996 la autodestrucci´on del cohete Arianne V.

Para sistemas lineales de ecuaciones se tendr´a una definici´on distinta que para el caso de una ecuaci´on diferencial. aunque no se cumpla la tercera condici´on se puede resolver el problema computacionalmente siempre y cuando se usen los algoritmos adecuados. puede suceder que para algunos valores de xi la soluci´on num´erica se aproxime a una de las curvas integrales.14 aunque sea localmente. Sin embargo. pero otras veces se requiere plantear de manera distinta el problema. en el caso de que nos interese aproximar la soluci´on de una ecuaci´on diferencial de la forma y 0 (x) = f (x. Si no se puede garantizar unicidad en (0. mientras que para otros valores aproxime a otra curva integral. la soluci´on. 1). Generar buenos algoritmos num´ericos es una arte. As´ı como hay problemas que no son resolubles en una computadora tambi´en hay algoritmos cuya implementaci´on computacional no se recomienda debido a su poca eficiencia. en el caso que se desee calcular una integral divergente. De hecho. y la soluci´on debe depender en forma continua de los datos. Al graficar los valores obtenidos. Si un problema con n inc´ognitas requiere n operaciones se dice que es un algoritmo de complejidad lineal. Los algoritmos se clasifican seg´ un el n´ umero de operaciones que requieren realizar para obtener el resultado deseado. Si la soluci´on no es u ´nica. Si se sabe de antemano que un problema est´a bien planteado. es muy probable que la aproximaci´ on computacional arroje resultados confiables. se corre el riesgo de obtener una soluci´on num´erica que no aproxime a soluci´on alguna. Probar que un problema est´a bien planteado no es tarea f´acil y en algunos casos es todav´ıa un problema abierto a la investigaci´ on. y(x)) x ∈ (0. Por ejemplo. Si un problema no tiene soluci´on. ya que debe encontrar una forma de aproximar. mucha de la investigaci´ on que se realiza hoy d´ıa est´a relacionada con el estudio de problemas mal planteados como los que aparecen con frecuencia en la soluci´on de problemas inversos. La eficiencia de un algoritmo se mide por el n´ umero de operaciones num´ericas b´asicas que involucra. la dependencia continua de la soluci´on respecto a los datos significa que si se modifican ´estos un poco. 1). si es de ns . la soluci´on del problema perturbado es muy cercana a la del problema original. se dice que . para un natural s. Por u ´ltimo. no corresponder´an a soluci´on alguna. por ejemplo. no tiene sentido aproximarla num´ericamente. Por ejemplo. A veces estos son resultado directo de la teor´ıa. en lugar de buscar los ceros de una funci´on se buscan los puntos fijos de un problema equivalente. ¿De qu´e manera se decide matem´aticamente que dos soluciones se parecen? Este es un problema delicado que hay que precisarlo en cada caso. tanto como quiera. Algoritmos A diferencia de otras ramas de la matem´atica. y(0) = y0 . probar que un problema est´a bien planteado no es suficiente para el matem´atico num´erico.

generan una sucesi´on de valores {xn }∞ n=1 que convergen a la soluci´on cuando n tiende a infinito. ver [20]. Otra opci´on era escoger s´olo algunos temas y tratar en la exposici´on de transmitir lo que es la esencia del trabajo del matem´atico num´erico y su relaci´on con la matem´atica aplicada. que a partir de una aproximaci´on inicial x0 . La selecci´on de temas se hizo tomando en cuenta que estos son los que m´as se han trabajado en M´exico: ´algebra lineal num´erica. Estos m´etodos son en muchos casos la u ´nica alternativa para resolver problemas no lineales.5. lo que los hace incosteables. consultar el art´ıculo de divulgaci´on de Trefethen. La desventaja principal de este tipo de m´etodos es que la sucesi´on debe interrumpirse antes de la convergencia. ya que cualquier algoritmo que se implemente en una computadora debe constar de un n´ umero finito de pasos. Hay algoritmos que en un s´olo paso obtienen en principio. llamado error de truncamiento. Esto introduce un error en los c´alculos. la aproximaci´on por m´ınimos cuadrados lineales y la obtenci´on de vectores y valores propios. como el c´alculo de determinantes. Para aquellos interesados en conocer una lista completa de los temas que se trabajan en la matem´atica num´erica. Campos de la matem´ atica num´ erica El n´ umero de temas y l´ıneas de investigaci´ on que se trabajan actualmente en la matem´atica num´erica es muy grande y es imposible presentarlas todas en un texto introductorio y de car´acter general como ´este. Pero algunos algoritmos son de tipo exponencial o factorial. Una gran cantidad de aplicaciones de la matem´atica involucran la soluci´on de sistemas lineales. que se busca sea menor o igual a la precisi´on de la computadora. entre dos algoritmos con la misma precisi´on se prefiere aquel que requiera del menor n´ umero de operaciones.5 Algebra lineal num´ erica El ´algebra lineal num´erica es uno de los pilares que sostienen a la matem´atica num´erica y aplicada. Una posibilidad era mencionar a una buena parte de ellos de manera muy somera y con una gran lista de referencias. En consecuencia. s´olo se genera un n´ umero finito de elementos de la sucesi´on. 0. por lo que se ha dedicado mucho trabajo y esfuerzo a la obtenci´on de m´etodos eficientes y confiables para su resoluci´on. la soluci´on exacta.´ 0. Los tres campos principales de investigaci´ on son la soluci´on de sistemas lineales. Se opt´o por esta u ´ltima. Un sistema de ecuaciones lineales de n ecuaciones . optimizaci´on y soluci´on de ecuaciones diferenciales ordinarias y parciales. ALGEBRA LINEAL NUMERICA 15 es un algoritmo polinomial. Se deja al lector juzgar si se cumpli´o con el objetivo. si no hubiera error de redondeo. Mientras que hay otros m´etodos llamados iterativos.

Figura 6: Gauss Hay m´etodos directos e iterativos. en la soluci´on de problemas de optimizaci´on lineal con restricciones lineales. El sistema de ecuaciones anterior se puede escribir matricialmente de la forma → − → A− x = b. a21 x1 + a22 x2 + · · · + a2n xn = b2 .. .. el m´as general es el m´etodo de eliminaci´on de Gauss creado por el gran matem´atico Gauss.16 con n inc´ognitas es de la forma a11 x1 + a12 x2 + · · · + a1n xn = b1 . an1 x1 + an2 x2 + · · · + ann xn = bn . Los sistemas lineales aparecen en el c´alculo de m´aximos y m´ınimos de una funci´on cuadr´atica de varias variables. (1) . entre otros. En este u ´ltimo caso implican la soluci´on de miles de sistemas de ecuaciones lineales con miles de variables. en la aproximaci´on de funciones por medio de polinomios de interpolaci´on o por m´ınimos cuadrados y en la soluci´on num´erica de problemas integrales o en derivadas parciales. Entre los primeros.

ver glosario. j + 1 o cuando muchos de los coeficientes Aij son iguales a cero. . cuando el sistema se puede transformar a la forma triangular. ver glosario. el m´etodo permite comprobar que la soluci´on es u ´nica ya que. Por ejemplo. para i = 1. Por ejemplo. ALGEBRA LINEAL NUMERICA 17 − → → con A una matriz cuadrada de n renglones con n columnas y − x .´ 0. para enterarse m´as sobre este tema. con L una matriz triangular inferior. Esto ha motivado la creaci´on de m´etodos especiales que no sean tan sensibles a los errores de redondeo como m´etodos de precondicionamiento. La norma usual es la euclideana que se define por Pn − → 2 2 || x ||2 = [ i=1 xi ] . Adem´as. El resto de los m´etodos directos se basan en la factorizaci´on de la matriz A en matrices con estructura m´as sencilla. tambi´en C lo es. lo que se conoce por sistemas ralos. . A puede escribirse como producto de dos matrices. para ello. mientras que la factorizaci´on de Cholesky necesita la mitad. los resultados que se obtengan con el m´etodo de eliminaci´on de Gauss. j. el m´etodo de Cholesky que se usa cuando la matriz asociada es sim´etrica y positiva definida. ¿Qu´e tan precisa es la soluci´on obtenida por computadora al usar m´etodos exactos? Para responder esta pregunta se requiere definir con cuidado lo que significa que dos elementos de Rn est´en cerca. La idea del m´etodo de Gauss es la siguiente: transformar el sistema (1) en un sistema triangular superior. Otros casos interesantes que aparecen en la discretizaci´on de ecuaciones en derivadas parciales son cuando A es tridiagonal. es decir A = LU. ya que se resuelven n ecuaciones con una sola inc´ognita. se pierde un orden de precisi´on en los resultados. con unos en la diagonal y U es una matriz triangular superior. Una de las ventajas de los m´etodos de factorizaci´on es la reducci´on del n´ umero de operaciones necesarias para obtener la soluci´on. por medio de operaciones elementales que son aquellas que no alteran la soluci´on del sistema como el intercambio de renglones.5. y se dice que la matriz A est´a mal condicionada. ver glosario. consultar [7] y [10]. − → → Si − x es la soluci´on del problema original y x∗ es la soluci´on que se obtiene en la computadora. basta que las A0ii 6= 0. n. por cada orden de magnitud que tenga C. no van a tener la precisi´on esperada ya que. Si cond(A) es grande. . sin intercambio de renglones. La forma de hacerlo es a trav´es de una funci´on que se le llama norma. → Una norma es una funci´on ||. Aij = 0 cuando i 6= j − 1. La soluci´on − → − del sistema resultante A0 → x = b0 es m´as f´acil de obtener que la del sistema original. se puede probar que el error relativo es igual a − → → ||− x − x∗ ||2 ≤ C × 10−k . ver [7]. b vectores en Rn . El m´etodo de eliminaci´on de Gauss requiere de 3 aproximadamente n3 operaciones para resolver un sistema de n ecuaciones con n inc´ognitas. En este caso. − ||→ x ||2 (2) con k la precisi´on de la computadora y C > 0 una constante que depende del producto de la norma de A y de su inversa. . Este producto juega un papel muy importante y se conoce con el nombre de n´ umero de condici´on de la matriz A y se denota por cond(A). . Esta factorizaci´on da lugar a otros m´etodos que resuelven de manera m´as eficiente los sistemas lineales que tienen una estructura especial.|| que a cada vector − x le asocia un real mayor o igual a cero que satisface ciertas propiedades.

ver [10] para m´as informaci´on. Una clase de m´etodos iterativos se basa en − → → → la idea de transformar el problema F (− x ) = A− x − b = 0 en un problema de la forma − → − → G(→ x) = − c − B→ x =− x . El sistema (4) est´a mal condicionado por lo que se prefiere la factorizaci´on QR a la factorizaci´on de Cholesky. Aunque hay muchos otros problemas de aplicaci´on que utilizan otros aspectos del ´algebra lineal num´erica. En el primer caso se busca el cero de una funci´on y en el segundo el punto fijo. en el caso que se tenga un sistema rectangular. ver [5] y [7] para m´as informaci´on. este m´etodo se utiliza. lo que no sucede con Cholesky. siempre que A tenga n columnas linealmente independientes. Otra forma de factorizar la matriz At A es de la forma QR con Q una matriz ortogonal. Hay muchas formas de generar la sucesi´on. − El problema se plantea de la siguiente forma: determinar el vector → x ∈ Rn que minimiza → − → ||A− x − b ||22 . El m´ ejemplos. el m´etodo de residuo m´ınimo (MRES) y de residuo → − m´ınimo generalizado (GMRES) que buscan la soluci´on que minimiza el residuo − r = A→ x− − → b respecto a una norma adecuada. por ejemplo. Gauss-Seidel y relajaci´on son algunos 0 xk+1 = G(xk ). En el caso de sistemas de ecuaciones lineales. Estos m´etodos se han generalizado para el caso de matrices que no son positivas definidas y han dado lugar a los m´etodos de aproximaci´ on de subespacios de Krilov que han dominado la literatura especializada en las u ´ltimas d´ecadas. Para matrices sim´etricas y positiva definidas se tienen otros algoritmos iterativos como el m´etodo de gradiente conjugado. el punto que bajo G va a dar a s´ı mismo. que no tenga soluci´on para el → − → vector b dado. con m > n. los valores y vectores propios es una tema que no puede dejar de mencionarse. La sucesi´on se genera de la siguiente →. Hay una gran cantidad de m´etodos para obtener una soluci´on en caso de que exista. La otra ventaja del m´etodo QR es que puede utilizarse aun en el caso que A no tenga todas sus columnas linealmente independientes. Es fundamental en la soluci´on de sistemas de ecuaciones diferenciales ordinarias y . Cuando el n´ umero m de ecuaciones no coincide con el n´ umero n de inc´ognitas se dice que se tiene un sistema rectangular. Entonces se podr´ıa buscar el vector − x que minimice la norma euclideana del residuo. as´ı que el n´ umero de condici´on del sistema resultante es igual al n´ umero de condici´on del sistema original. En este caso. Otro problema importante en ´algebra lineal num´erica es la aproximaci´ on por m´ınimos cuadrados. y R una matriz triangular superior. el problema (3) es equivalente a resolver el siguiente sistema de ecuaciones: − → → At A− x = At b . ver glosario. (4) con At A positiva definida por lo que puede resolverse por medio de la factorizaci´on de Cholesky.18 Tambi´en se usan m´etodos iterativos para resolver los sistemas lineales de ecuaciones. La factorizaci´on QR utiliza transformacions ortogonales para transformar la matriz At A a una matriz triangular superior. − −→ − → forma: dado − x etodo de Jacobi. (3) La soluci´on de este problema se le conoce como la soluci´on por m´ınimos cuadrados y tiene soluci´on u ´nica.

Se presentar´a para el caso real aunque todo el material expuesto en esta secci´on puede generalizarse para n´ umeros complejos. Como se sabe. L´opez E. de la FC y S. Barrera y J.´ 0. J. Este problema tiene el inconveniente que peque˜ nos cambios en los coeficientes. implican grandes diferencias en las ra´ıces del polinomio. ALGEBRA LINEAL NUMERICA 19 parciales y recientemente se ha utilizado en la generaci´on de mejores motores de b´ usqueda en Internet. con D una matriz diagonal cuyo elemento Dii es igual al valor propio correspondiente al i-´esimo vector propio de A. Esto es muy u ´til en el estudio de la estabilidad de sistemas de ecuaciones diferenciales ordinarias y muchos otros problemas. Una vez obtenida la matriz tridiagonal. A partir de los sesenta se adapt´o la factorizaci´on QR para generar un m´etodo que consiste en lo siguiente: Dada la matriz A0 = A se construye una sucesi´on de matrices Ak = Qk Rk con Qk matrices ortogonales y Rk matrices triangulares superiores. Por u ´ltimo. G´omez del IIMAS en la UNAM. entonces S −1 AS = D. Se multiplica la matriz A por la izquierda y por la derecha por una sucesi´on de matrices ortogonales. En M´exico han hecho contribuciones a este campo H. Morales del ITAM. no existen f´ormulas para encontrar las ra´ıces de polinomios de grado mayor o igual a cinco. ver [5]. L. A las matrices A y D se les llama matrices similares. Tambi´en hay que mencionar el m´etodo de potencia que fue inventado por Von Mises (1883-1953) y que permite encontrar el valor propio m´as grande y el m´as peque˜ no. entre ellas la simetr´ıa. Una forma de hacerlo par evitar inestabilidades num´ericas es a trav´es de las matrices de Householder que se usan en la construcci´on de la matriz Q del m´etodo QR. Buena parte de los m´etodos se centran en la construcci´on de la matriz S que se hace en forma iterativa. la sucesi´on Ak converge a una matriz diagonal cuyos elementos son los valores propios de A. . la determinaci´on de los valores propios puede hacerse por varios m´etodos. los algoritmos que se prefieren actualmente son aquellos que se basan en la idea de similaridad. Por ello. Si dada la matriz A de n renglones con n columnas. Madrid de la Universidad de Coahuila. ver [12]. entre otros. P.5. Bajo ciertas condiciones. Observ´ese que todas las matrices Ak son similares entre s´ı. existe una matriz S cuadrada cuyas columnas son n vectores propios de A linealmente independientes. se dice que el vector → x 6= 0 es vector propio de A si existe un real λ tal que → → A− x = λ− x. as´ı que hay que hacer uso de algoritmos num´ericos para aproximarlas. con coeficientes en los reales. − Dada una matriz A de n × n. ver [7]. los algoritmos para determinar valores y vectores propios de una matriz se han generalizado para obtener los valores singulares de una matriz que se han utilizado con mucho ´exito para la compresi´on de im´agenes. La matriz resultante es matriz tridiagonal cuando A es sim´etrica y una matriz de Hessenberg cuando no lo es. Determinar los valores propios de A es equivalente a determinar las ra´ıces de un polinomio de grado n.

entonces cada yi se obtiene por el esquema de Euler de la siguiente forma y0 = y0∗ . a este error se le conoce con el nombre de error global. y(a) = y ∗ . Si se denota por yi la aproximaci´on num´erica de la soluci´on y(t) en el punto ti . se tiene que el error global en el punto tn satisface en = |y(tn ) − yn | ≤ Ch. (6) Otra manera de obtener el m´etodo de Euler es por medio de la serie de Taylor alrededor del punto ti−1 h2 y(ti ) = y(ti−1 ) + hy 0 (ti−1 ) + y 00 (η). yi−1 ). 2 Al substituir y 0 (ti−1 ) por f (ti−1 . por lo que el error se va acumulando a medida que se generen m´as puntos. Es f´acil probar la convergencia del m´etodo de Euler cuando la funci´on f es continuamente diferenciable respecto a t en el intervalo [a. la ordenada del punto de intersecci´ on de esta recta con la recta t = t1 nos da una aproximaci´on al valor de y(t1 ) y as´ı sucesivamente. . i − 1 sean exactos. la m´as sencilla es usar puntos cuya distancia entre dos consecutivos sea la misma: dada una n en los naturales. se obtiene al truncar la serie en el segundo t´ermino que y(ti ) ≈ y(ti−1 ) + hf (ti−1 . El error es de orden h siempre que los valores anteriores y(tj ) con j = 1. b]. Ejemplo de los primeros son los problemas de mec´anica. yi−1 ). ti = a + ih. se usa el valor aproximado yi−1 para calcular el valor yi . Obs´ervese que al aplicar el m´etodo. . b] la di´o Euler. y ∗ ) con pendiente y 0 (a) = f (a.6 Ecuaciones diferenciales ordinarias y parciales La formulaci´on matem´atica de muchos problemas de aplicaci´on se hace a trav´es de sistemas sistemas de ecuaciones diferenciales ordinarias (EDO) o parciales (EDP). tn = b. . . η ∈ (ti−1 . (5) cuya soluci´on existe y es u ´nica si f es continua y Lipschitz en el intervalo [a. trazar la recta que pasa por (a. Hay muchas formas de seleccionar los puntos ti . .20 0. Este error se conoce con el nombre de error local del m´etodo. Bajo estas condiciones. y(t)) a < t < b. yi−1 ). y ∗ ). se calcula h = b−a n y se definen los puntos t0 = a. Se dice que una soluci´on aproximada {yi }ni=1 converge a la soluci´on y(t) si el error global en el punto tn converge a cero cuando h tiende a cero. yi = yi−1 + hf (ti−1 . La forma general de un problema de EDO con condiciones iniciales es y 0 (t) = f (t. Este enfoque permite estimar el error que se comete al aproximar y(ti ) por Euler. ti ). b]. Una forma de aproximar la soluci´on en un n´ umero finito de puntos del intervalo [a. de circuitos el´ectricos y biol´ogicos en los que la soluci´on s´olo depende de una variable que puede ser espacial o temporal. la interpretaci´on geom´etrica es la siguiente: dado que se conoce el valor de la soluci´on y de su derivada en t = a.

Vargas del Cinvestav. y(t) = y(t0 ) + a Al aproximar num´ericamente la integral por medio de las f´ormula de integraci´ on de NewtonCotes se obtienen distintos m´etodos conocidos con el nombre de m´etodos de multipaso. Consistente significa que el error local R(t) del m´etodo va a cero cuando h tiende a cero y es estable si el error global permanece acotado y es del mismo orden que el error local. Solis del CIMAT. Probar la convergencia tanto de los m´etodos RK. Dahlquist demostr´o que un m´etodo es convergente si es consistente y estable. aunque existan. . ECUACIONES DIFERENCIALES ORDINARIAS Y PARCIALES 21 M´etodos m´as precisos se pueden obtener tomando m´as t´erminos de la serie de Taylor. su c´alculo puede llegar a ser muy engorroso. J. entre otros. es decir. es aproximar las derivadas de orden superior de f por aproximaciones de la serie de Taylor en dos variables.6.6 0. y(t))dt. y en problemas de sistemas din´amicos. y(0.2 1 yi 0. England. pero tienen el inconveniente de que deben existir las derivadas de orden superior de f y. 1. En M´exico problemas num´ericos en EDO los han trabajado C. t2 2−t y los valores se Otra alternativa ha sido trabajar con el problema integral que se obtiene al integrar respecto a t ambos lados de la igualdad de la ecuaci´on (5). Actualmente la investigaci´on sigue abierta en el caso de las ecuaciones diferenciales algebraicas que aparecen en las aplicaciones de la teor´ıa de control y del c´alculo de variaciones. Chen cuando trabajaba en el IIMAS de la UNAM. lo que ha dado lugar a los conocidos m´etodos Runge-Kutta (RK) de distinto orden.4 0. como los de multipaso no es sencillo.2 0.2 0 0 0. En 1956. La soluci´on exacta es y(t) = han unido por rectas. R.8 0. En la Figura 7 se comparan la soluci´on exacta y las aproximadas que se obtienen con Euler y RK4 con h = 0.8 1 y-Euler y-RK ti y exacta Figura 7: Aproximaci´on por Euler y RK4.4 0.0. y B.C.1) = 0. L´opez E. lo que da lugar a Z b f (t.05 para el siguiente problema y(t) = y 2 + 2ty t2 0 < t < 1. el m´as popular es el de orden cuatro (RK4). F. ver [2].6 0. Una forma de darle vuelta a esta dificultad. y L. Velasco de la F. si existe C > 0 tal que en = |y(tn ) − yn | ≤ CR(tn ).

t) = cn sen(nπx) e . La soluci´on es de la forma Z 1 ∞ X −(nπk)2 t u(x. como se mencion´o en la parte hist´orica. Para encontrar una soluci´on u ´nica a esta ecuaci´on se deben dar condiciones iniciales y de frontera. Cuando la regi´on es m´as complicada o la ecuaci´on es no lineal. El m´etodo de Crank-Nicholson es el m´as popular para problemas par´abolicos y el de upwind y Lax-Wendroff para sistemas hiperb´olicos lineales. c´ırculos. Estos m´etodos son una generalizaci´on de los m´etodos para EDO y. se usan desde 1910. hay que mencionar el trabajo de Lax y Richtmyer en 1956 en esta direcci´on. ingenier´ıa. t). t > 0. En particular. mientras que la segunda indica que la temperatura en los extremos de la misma permanece igual a cero a lo largo del tiempo. Una clase de m´etodos se obtiene al discretizar tanto la regi´on como las ecuaciones en derivadas parciales para obtener un sistema de ecuaciones en diferencias finitas. (7) (8) La primera ecuaci´on indica que la tasa de cambio de la temperatura a lo largo del tiempo depende de la tasa de cambio del flujo de calor a lo largo de la barra. 1]. cuando est´an definidas en regiones sencillas del plano y del espacio como rect´angulos. con cn = 2 ϕ(x) sen(nπx)dx. t) tiende a cero cuando . u(0. la mec´anica del medio continuo en dos y tres dimensiones se formula matem´aticamente por medio de ecuaciones en derivadas parciales (EDP). esferas o cilindros. 0) = ϕ(x). Obs´ervese que u(x. se puede obtener una soluci´on anal´ıtica en t´erminos de las series de Fourier por medio del m´etodo de separaci´on de variables. El estudio de las ecuaciones lineales data del siglo XIX y se puede encontrar una soluci´on anal´ıtica para casi todas ellas. De hecho. ∂t ∂x2 u(x. t) ∂ 2 u(x. 0 < x < 1. s´olo queda aproximar la soluci´on num´ericamente. La primera condici´on de la segunda l´ınea especifica la temperatura inicial de la barra. biolog´ıa y recientemente en la econom´ıa y las finanzas. Este problema admite soluci´on u ´nica siempre que ϕ sea continuamente diferenciable en [0. t) = k2 . En particular. cubos. Ilustremos el uso de los m´etodos de diferencias finitas aplicando uno de los m´etodos m´as sencillos a la soluci´on num´erica del problema (7). No es sino hasta despu´es de la segunda guerra mundial que estos m´etodos fueron utilizados sistem´aticamente y que las condiciones de Courant-Friedrichs y Lewy se recuperaron para aplicarlos en el estudio de la estabilidad num´erica. El problema completo es de la forma ∂u(x. t) = 0 = u(1. A principio de los a˜ nos sesenta se contaba con una teor´ıa completa para este tipo de m´etodos para las ecuaciones m´as importantes de la f´ısica matem´atica. n=1 0 La soluci´on num´erica de las EDP puede obtenerse de muchas formas. multiplicado por la constante de conductividad del material. Un ejemplo de una ecuaci´on en derivadas parciales aparece en el estudio de la difusi´on de calor en una varilla hecha de un material homog´eneo. cuyo espesor es despreciable respecto a su longitud.22 Ecuaciones en derivadas parciales Los problemas de ecuaciones en derivadas parciales son el fundamento matem´atico de muchos modelos que se usan en la f´ısica.

0. se discretiza la regi´on: dadas n.3. Al encontrar los valores correspondientes al tiempo t1 .3) uck(x. h = 0.1 y ∆t = 0. . U0j = Unj = 0 j = 1. xi = ih.018 ue(x. pero cuyo error local es de orden dos.0. tj = j∆t. apareci´o en . i = 1. sea t0 = 0. El m´etodo EI tiene error local de primer orden y es estable para cualquier elecci´on de h y ∆t.3) 0. m. Al igual que con las EDO la convergencia de este m´etodo se prueba mostrando que el m´etodo es consistente y estable.006 0.6 0. xn = 1.014 u 0. Se tom´o como soluci´on exacta los tres primeros t´erminos de la soluci´on. Para ello. N´otese que para cada tiempo ti hay que resolver un sistema tridiagonal de n − 1 ecuaciones con n − 1 inc´ognitas que se resuelve por la factorizaci´on Cholesky. n − 1. Al igual que para las EDO la soluci´on se aproxima en un n´ umero finito de puntos. .2 0. .6. . Den´ otese j por Ui la aproximaci´on de la soluci´on en el punto (xi . . El esquema anterior se aplica de la siguiente forma: dados los valores al tiempo t0 = 0. se generan primero los correspondientes a t1 . . ECUACIONES DIFERENCIALES ORDINARIAS Y PARCIALES 23 t tiende a infinito por lo que la soluci´on estacionaria es u(x. .012 0.01 0. k 2 ∆t j j Uij+1 = Uij + 2 [Ui+1 − 2Uij + Ui−1 ] j = 1. Sin embargo.01.002 0 0 0. .4 0.2) 0. cuando ϕ = x(x − 1). . se usan estos para obtener los del tiempo t2 y as´ı sucesivamente. tj ) entonces esta sucesi´on se obtiene de la siguiente forma Sea Ui0 = ϕ(xi ) i = 1. h Este m´etodo se conoce con el nombre de Euler impl´ıcito (EI) y puede obtenerse al aproximar las derivadas parciales por medio de la serie de Taylor en dos variables. . Aunque en la ecuaci´on la t ∈ [0. . .004 0. u(x.008 0.0. El problema de resolver una ecuaci´on en derivadas parciales se reduce a resolver m sistemas de ecuaciones lineales. se prefiere otro m´etodo llamado Crank-Nicolson (CN) que tambi´en es estable.0. ∞). En la figura se compara la soluci´on exacta de la ecuaci´on (7) con las obtenidas con EI y CN para t = 0. por lo que se define una T lo suficientemente grande c´omo para haber alcanzado la soluci´on estacionaria.8 1 xi Figura 8: Aproximaci´on por Euler impl´ıcito y por Crank-Nicolson. tm = T y x0 = 0. t) = 0.016 0. . . . n. . m. En los a˜ nos cincuenta. El principal inconveniente de los m´etodos de diferencias finitas es que no se adaptan bien a problemas definidos en regiones con fronteras curvas. m en los naturales se define h = 1/n y ∆t = T /m. num´ericamente hay que especificar una regi´on acotada tanto para t como para x.

. n. Sup´ongase que Ω es un pol´ıgono que se descompone en la uni´on de tri´angulos y num´erense todos los v´ertices de los tri´angulos que no est´an sobre la frontera. ∂x2 ∂y 2 u = 0 en ∂Ω. Multipl´ıquese esta ecuaci´on por una funci´on v(x. Ω Ω Esta es la ecuaci´on de Euler-Lagrange o las condiciones de primer orden del siguiente problema variacional Z 1 min [ (∇v)2 − f v] dx dy. Sea Ω un pol´ıgono en R2 . (9) Sea V el espacio de funciones definidas en Ω. Al aplicar el Teorema de Green se obtiene un problema integral de la forma Z Z ∇u∇v dx dy = f v dx dy. Los espacios Vn se construyen de muy distintas formas. para resolver muy eficientemente problemas de mec´anica de fluidos o de convecci´ on difusi´on. . n tales que un (x. Este m´etodo ha sido muy exitoso en la aproximaci´ on num´erica de la soluci´on de ecuaciones el´ıpticas y parab´olicas en dos y tres dimensiones y se combina con otras t´ecnicas. den´otese por ∂Ω su frontera y sea f una funci´on continua en Ω. Este m´etodo tienen sus antecedentes en los trabajos de Alexander Hrennikoff y de Richard Courant a inicios de 1940. Sea vni la funci´on en dos variables. Sea Vn el espacio generado por las funciones vni de i = 1. . . como descomposici´on de dominios o descomposici´on de operadores. de preferencia de dimensi´on finita Vn cuyas soluciones un converjan a la soluci´on u cuando n tienda a infinito. que vale 1 en el v´ertice i y cero en el resto. Ritz y Galerkin. En la Figura 10 . Su fundamento matem´atico es complemente distinto al de los m´etodos en diferencias finitas y se basa en varios resultados del an´alisis funcional y de las EDP desarrolladas previamente por Rayleigh. y) ∂ 2 u(x. La idea del m´etodo de elemento finito es resolver este problema de minimizaci´on en espacios m´as peque˜ nos. suficientemente regulares y que se anulen en la frontera de Ω. y) + = f en Ω. y) es soluci´on del siguiente problema de minimizaci´on Z 1 min [ (∇v)2 − f v] dx dy v∈Vn Ω 2 que se reduce a la soluci´on de un sistema lineal de ecuaciones. . . La m´as sencilla es descomponer a Ω en la uni´on de tri´angulos o rect´angulos que no se translapan y que pueden tener lados curvos. A continuaci´on se presenta con un ejemplo las principales ideas detr´as de este m´etodo aplicado al problema de Poisson. . y) = ni=1 ci vni (x.24 la literatura de ingenier´ıa civil y mec´anica la utilizaci´on del m´etodo de elemento finito. lineal en cada tri´angulo. Se busca la funci´on u que satisface 4u = ∂ 2 u(x. . Estas funciones son linealmente independientes. Vn es un espacio vectorial de dimensi´on n entonces elP problema se reduce a determinar las constantes ci para i = 1. v∈V Ω 2 El problema en EDP se ha transformado en en un problema de minimizaci´on. y) ∈ V e int´egrese en Ω. En la Figura 9 se muestra la triangulaci´on de una regi´on con una malla no uniforme.

Hennart. Sabina en mec´anica de s´olidos. F. Adem y el grupo de modelaci´on atmosf´erica de Y. Chen mientras trabaj´o en M´exico. Dependiendo del problema. C. En el Departamento de Matem´atica de la UAM-Iztapalapa H. . Barrera de la F. en el Instituto de Ingenier´ıa F. se usan m´etodos en diferencias finitas especialmente dise˜ nados para adaptarse a soluciones con saltos como los problemas de capa l´ımite o con ondas de choque como en los problemas de flujo supers´onico. las flechas indican la velocidad del fluido y los colores la presi´on del mismo. Ju´arez. A. ver [14] y [4]. En el IIMAS trabaja en m´etodos nodales J.6. a veces se prefiere usar m´etodos espectrales o de volumen finito.P. Gonz´ales Casanova estudia los m´etodos radiales. hay que distinguir entre los usuarios y los investigadores que trabajan en este campo. Skiba. Ayala entre muchos otros. en Ciencias de la Atm´ osfera el grupo de modelos clim´aticos de J. J. Minzoni en ondas y tambi´en hay que mencionar las contribuciones de B. Los primeros ven los algoritmos num´ericos como un medio y no como un fin. mientras que P. A continuaci´on se mencionan algunos grupos y personas que han trabajado en este campo. Para conocer m´as sobre este tema. Sin embargo. en DGESCA P. Posiblemente ´este sea uno de los temas que m´as se ha trabajado en M´exico. Herrera en el Instituto de Geof´ısica.0. ECUACIONES DIFERENCIALES ORDINARIAS Y PARCIALES 25 Figura 9: Discretizaci´on de una regi´on curva por medio de tri´angulos se muestra los resultados num´ericos del estudio de la sedimentaci´ on de part´ıculas r´ıgidas en un fluido incompresible realizado con el m´etodo de elemento finito. se ha dedicado al estudio de la generaci´on autom´atica de mallas en dos y tres dimensiones. Entre los investigadores de la UNAM se cuentan a G. En el caso de los sistemas hiperb´olicos como la ecuaci´on de onda. como lo hacen quienes buscan nuevas aplicaciones o que estudian el desempe˜ no de ciertos m´etodos para una clase de problemas. Alduncin y al grupo de I. S´anchez Sesma y G.

como consecuencia de esto. Vargas ha hecho contribuciones en aplicaciones a biomatem´aticas. En el caso que F sea cuadr´atica. determinar los puntos cr´ıticos es equivalente a resolver un sistema lineal de n ecuaciones con n inc´ognitas. La u ´nica alternativa es aproximar la soluci´on en forma num´erica a trav´es de m´etodos iterativos. En la pr´actica se prefiere trabajar directamente con el problema de optimizaci´on en lugar de resolver el sistema no lineal de ecuaciones ya que permite usar la informaci´on del gradiente de la funci´on para acercarse m´as r´apido a la soluci´on. minimizar costos y maximizar beneficios son cuestiones que siempre est´an presentes en el desarrollo de nuevas tecnolog´ıas y en las ciencias econ´omicoadministrativas. en el Cimat el grupo de J. Si la soluci´on se buscan en todo Rn se dice que el problema es sin restricciones. en este caso el procedimiento a seguir es directo. Este punto − x d0 se 0 escoge como el siguiente punto de la iteraci´on y se repite el proceso hasta que la norma del → gradiente en el punto − xi sea menor que una tolerancia dada. por lo que dif´ıcilmente se pueden resolver sin el uso de una computadora.L. llamados puntos cr´ıticos.7 Optimizaci´ on Optimizar recursos. P. en principio. contaminaci´ on atmosf´erica y de tr´afico vehicular. se traza la recta que pasa por − x d0 y se determina el punto. y posteriormente se eval´ ua la matriz Hessiana. La clasificaci´on de los problemas de optimizaci´on puede ser muy amplia aunque nos limitaremos al caso en que la funci´on F a optimizar. F. Aldama trabaja en m´etodos num´ericos aplicados a la hidrolog´ıa. lo que implica. en cada uno ellos: si es positiva definida es un m´ınimo. Nicol´as. Todos los m´etodos son de tipo iterativo. S´anchez han aplicado diversos m´etodos en diferencias finitas y elemento finito a problemas de flujo en medios porosos. el m´as sencillo es el de m´aximo descenso. Moreles han trabajado en varios problemas de la industria el´ectrica como en dispersi´on de ondas. como − →) es la direcci´on en la que disminuye m´as el valor de la inicial a − x d0 = −∇F (− x 0 0 → → con direcci´on − funci´on F . mec´anica de fluidos. sea una funci´on de Rn a R y dos veces continuamente diferenciable. El mejor m´etodo es el de Newton cuya rapidez de convergencia es cuadr´atica siempre que x0 se seleccione suficientemente cerca de la soluci´on. que . En el Cinvestav C. llamada funci´on objetivo. Los problemas reales involucran miles de variables. 0. se usa el c´alculo diferencial como metodolog´ıa. lo cual en la mayor´ıa de los casos es un problema dif´ıcil ya que es poco probable que se pueda obtener una soluci´on expl´ıcita.26 A. Castillo del ITESM-Estado de M´exico se dedica a problemas de aplicaci´on a ingenier´ıa y en el IMTA el grupo de A. Se buscan primero los puntos en los que las derivadas parciales se hacen cero. la matriz de segundas derivadas de F. a 0 → → + t∗ − lo largo de esta recta. En la BUAP el grupo de A. Saavedra y F. si es negativa definida es un m´aximo. Fraguela se dedica a la soluci´on te´orica y num´erica de problemas inversos. la idea detr´as de este procedimiento es muy geom´etrica: sup´ongase que se busca el m´ınimo de una funci´on y se toma como punto → →. Se llaman problemas de optimizaci´on aquellos en los que se busca determinar una soluci´on ´optima. en el que F toma el valor m´as peque˜ no. En caso que F sea no lineal ha de resolverse un sistema no lineal.

Newton converge en una iteraci´on. . se conoce un m´etodo iterativo para resolverlo que es el m´etodo simplex creado por Dantzig. . donde HF denota la matriz hessiana de F. Para conocer m´as sobre optimizaci´on sin restricciones se sugiere la lectura de [15]. en 1984. Goldfarb y Shanon que aproxima el hessiano en forma recursiva. con convergencia cuadr´atica. por lo que se han hecho variantes de este m´etodo que aproximan las segundas derivadas de F por medio de cocientes. . si el error absoluto en la i-´esima iteraci´on satisface que ei ≤ Kepi−1 . Se dice que un m´etodo iterativo converge con orden p. A estos m´etodos se les conoce como m´etodos cuasi-Newton. El m´etodo de descenso pronunciado es de orden uno. uno de los autores es mexicano y se ha distinguido por sus contribuciones a este campo. A veces las segundas derivadas no existen para todos los puntos o su c´alculo es muy engorroso. es el m´etodo de Newton que es una generalizaci´on del m´etodo de Newton-Raphson para resolver ecuaciones no lineales. . n´ umero de operaciones. otros m´etodos generan estrategias que eviten calcular la matriz hessiana en cada iteraci´on. Fletcher. A estos problemas se les conoce como problemas de optimizaci´on con restricciones. Una alternativa m´as r´apida. con K > 0. Hay que mencionar que en los u ´ltimos a˜ nos han aparecido otras t´ecnicas de tipo heur´ıstico como los algoritmos gen´eticos que compiten en algunos casos con los m´etodos aqu´ı mencionados. Para seleccionar un m´etodo iterativo se compara costo. Otro tipo de problemas de optimizaci´on son aquellos en los que se da un conjunto Ω y se desea determinar los puntos de Ω en los que F alcanza su valor m´aximo o m´ınimo. Entre ellos est´a el popular m´etodo (BFGS) creado por Broyden. sin embargo hasta ahora no se ha podido demostrar la superioridad de uno sobre el otro. Tambi´en es importante seleccionar los puntos de la sucesi´on de manera adecuada para garantizar la convergencia de Newton. Cuando tanto la funci´on objetivo F como las restricciones gi son no lineales se tienen condiciones necesarias y suficientes para la existencia de m´aximos y m´ınimos de F en Ω. El procedimiento es similar al de descenso pronunciado con la diferencia que el vector direcci´on se obtiene al resolver en cada iteraci´on el siguiente sistema de ecuaciones lineales → − → → HF (− x i ) d i = −∇F (− x i ). pero cuyo desempe˜ no ha dado prueba de su efectividad. pues hay que evaluar tanto el gradiente como la matriz hessiana en cada iteraci´on. Un m´etodo es heur´ıstico cuando no se cuenta con un fundamento te´orico que nos permita demostrar su convergencia. lo que ha dado lugar a las t´ecnicas aceleradas de b´ usquedas lineales y de regiones de confianza. Para problemas cuadr´aticos. Newton converge siempre que HF sea positiva definida y sus derivadas parciales de segundo orden sean Lipschitz en una vecindad del m´ınimo. m. Como puede observarse el costo de cada iteraci´on de Newton es alto. OPTIMIZACION 27 → − xi es una buena aproximaci´on a la soluci´on. y rapidez de convergencia. Por lo general Ω est´a definido por un conjunto de restricciones expresadas en forma de ecuaciones: gi (x) = 0 o de desigualdades gi (x) ≤ 0 para i = 1.´ 0. . La convergencia del m´etodo est´a garantizada si F es cuadr´atica y la matriz Hessiana es positiva definida. creara un m´etodo muy distinto. Si F y g son lineales se tiene un problema de programaci´on lineal.7. por lo que el m´etodo es lento pero barato porque s´olo requiere de la evaluaci´on del gradiente en cada iteraci´on. Desde 1947. Este m´etodo fue el campe´on por muchos a˜ nos hasta que Karmarkar.

En la UNAM los grupos de P. Asimismo.P. Para saber m´as. tambi´en se introduce un multiplicador de Lagrange por cada restricci´on. Otros problemas aparecen en teor´ıa de control. Un ejemplo se present´ o en la secci´on anterior con el m´etodo de elemento finito. conocidas como Condiciones de Kuhn y Tucker. Entre los m´etodos de car´acter general m´as populares est´an el de gradiente proyectado. entre otros muchos temas. y las de la funci´on objetivo: si es cuadr´atica. en la vida cotidiana de hoy en d´ıa. consultar [13]. se espera que la modelaci´on matem´atica y la matem´atica num´erica se vuelvan herramientas indispensables en la biolog´ıa. nuevos problemas aparecer´an conforme se creen nuevas tecnolog´ıas. Velasco Levy y S. la farmacolog´ıa y la medicina y que ayuden. al desarrollo de nuevas medicinas y hacer una realidad el diagn´ostico m´edico computarizado. consultar [17]. Estos problemas son dif´ıciles. entre otros.N. Barrn en la UAM-Cuajimalpa y Roger R´ıos de la UANL. Z. que contin´ ua siendo una fuente inagotable de problemas abiertos y el desarrollo de nuevos materiales. pero en este caso cambian las condiciones necesarias para la existencia de puntos extremos. se tiene. en los que hay que minimizar un funcional que depende tanto de una funci´on como de sus derivadas. por ejemplo. Uno de los aspectos que est´a cambiando en la matem´atica num´erica es que cada vez es m´as frecuente que para resolver un mismo problema se usen t´ecnicas h´ıbridas que combi- . entre otras cosas. Romero de la ESFM del I. se prefiere trabajar directamente con el problema de minimizaci´on que con los sistemas no lineales. Hay otros problemas de optimizaci´on igualmente importantes.8 Perspectivas a futuro Es dif´ıcil prever de antemano el futuro de un campo cuyo avance depende tanto del desarrollo tecnol´ogico. pero que. en cambio. Romero del IM y A. D.28 Cuando las restricciones son ecuaciones se puede aplicar el m´etodo de multiplicadores de Lagrange para obtener un sistema de ecuaciones no lineales de n + m variables. de la FC. Calvillo del INEGI. Problemas de c´alculo de variaciones en los que la funci´on objetivo es un funcional. G´omez del IIMAS. En caso que las gi sean desigualdades. Barrera y J. la astronom´ıa. m´etodos ad-hoc que aprovechan las caracter´ısticas propias del conjunto Ω. Parada del ITAM y C. por falta de espacio. una integral y el m´ınimo es una funci´on definida en un espacio de dimensi´on infinita. no se cuenta con un m´etodo que sea la panacea. las computadoras y los instrumentos electr´onicos. los m´etodos de penalizaci´on y el m´etodo cuadr´atico secuencial. demanden de m´etodos num´ericos m´as r´apidos y m´as precisos que aprovechen el creciente incremento de capacidad computacional. C. convexa o geom´etrica. como puede ser la convexidad. Para saber m´as. En M´exico han trabajado problemas de optimizaci´on I. gradiente reducido generalizado. G. Al igual que con los problemas sin restricciones. En 1950. Gitler del Cinvestav. nadie pod´ıa imaginar el papel que desempe˜ nan. Sin embargo. es de esperarse que el cambio clim´atico. lo que implica resolver una sucesi´on de sistemas no lineales. 0. no se incluyen. Gigola e I. L´opez E.

la posibilidad de realizar distintas tareas al mismo tiempo con distintos procesadores. Inversa de una matriz: Dada una matriz cuadrada A. hasta hace poco. . pero ahora en varios campos como las finanzas. al cien por ciento. el estudio de la turbulencia o la din´amica de poblaciones se usan ambas metodolog´ıas.9 Glosario 1. lo que exigir´a una formaci´on m´as amplia y flexible por parte del matem´atico num´erico. es de esperarse. Una funci´on f es Lipschitz en el conjunto A si existe un natural L > 0 tal que para cualquier x. los paquetes computacionales que tienen ´exito son aquellos que tienen mayor aplicabilidad y capacidad de adaptarse autom´aticamente a los requerimientos de cada problema con el fin de aproximar la soluci´on de la manera m´as precisa en el menor tiempo posible. Matriz cuadrada: una matriz que tienen el mismo n´ nas. Por u ´ltimo. . n. Esta tendencia se generalizar´a en otros temas. Matriz de Hessenberg: es una matriz cuadrada cuyos elementos abajo de la diagonal son cero salvo por los elementos An(n−1) y A(n−1)(n−2) . Matriz identidad: es una matriz cuadrada con unos en la diagonal y cero en el resto e los elementos. Otros aspectos importantes en los que se har´a m´as ´enfasis en el futuro en el dise˜ no de algoritmos son la paralelizaci´on y la adaptabilidad. 2. 8. . la matriz inversa de A se denota por A−1 y es la matriz que satisface: AA−1 = A−1 A = I con I la matriz identidad. 6. GLOSARIO 29 nan algoritmos deterministas con estoc´asticos. con i = 1. es decir AAt = At A = I. . umero de renglones que de colum5. N´ umero de condici´on de una matriz cuadrada invertible se define por: cond(A) = ||A||2 ||A−1 ||2 . que a medida que sigan evolucionando los instrumentos de c´alculo y el grado de complejidad de los problemas a resolver. seguir´an ampli´andose los campos de acci´on de la matem´atica num´erica. la adaptabilidad implica que un algoritmo sea capaz de ajustar el valor de sus par´ametros dependiendo de lo que mejor convenga al tipo de problema que se est´a resolviendo. . los investigadores se especializaban en s´olo uno de estos enfoques. 7.0. y ∈ A |f (x) − f (y)| ≤ L|x − y|. Funci´on Lipschitz. Matriz ortogonal: es una matriz cuadrada cuya matriz transpuesta es su matriz inversa.9. de una matriz cuadrada. 0. Lo primero implica que a nivel de programaci´on se explote. 4. Cada vez m´as. Diagonal de una matriz: los elementos Aii . 3.

||A||2 = λλmax con λmax y λmin = valor propio m´as grande y m´as peque˜ no en valor min t absoluto de A A. 11. Matriz positiva definida es aquella que satisface xt Ax > 0 para todo vector x 6= 0. Matriz sim´etrica es una matriz que es igual a su transpuesta. Matriz triangular superior: una matriz cuadrada cuyos elementos abajo de la diagonal son cero. La matriz transpuesta de una matriz A se denota por At y Atij = Aji . 14. j = 1. Rn : es el conjunto de vectores con n componentes en los reales. . para i. . 13. 12. Matriz triangular inferior: una matriz cuadrada cuyos elementos arriba de la diagonal son cero. respectivamente. . 10. . n. 15. .30 9.

Cortes´ıa de H.9. Ju´arez .0. GLOSARIO 31 t=0 t=1 t=2 t=3 Figura 10: Sedimentaci´on de 100 part´ıculas r´ıgidas en un fluido viscoso incompresible.

32 .

2006. Vol 50.Bibliograf´ıa [1] P. SIAM. Tercera edici´on. A History of Numerical Analysis: From 16th through 19th Century. The American Monthly. [9] H. Demmel. [5] J. 1977. 1996. [6] G. 9. Brenan. Barrera. El ABC de los aplines. Classics in Applied Mathematics. Dur´an. Goldstein y J. Petzold. III Coloquio del Departamento de Matem´aticas del Cinvestav. [12] H. Pitfalls in computation. Greenbaum. Martinez y S. The Finite Element Method for Elliptic Problems. Hern´andez. G. Hern´andez y C. Comunicaciones 36. Notas del curso impartido en el 20 Coloquio Brasileiro de Matem´aticas. V. AMS. Springer Verlag. or why a math book isn’t enough. Neumann. 1978. [13] J. Golub y C. pp33-52.L. [2] K. [10] A. 1997. [4] P. Aportaciones Matem´aticas. No. Madrid. An´alisis Num´erico.P. SIAM. 1970. Collette. Tercera edici´on. Publicaciones SMM. Van Loan. Noth-Holland. Goldstein. Applied Numerical Linear Algebra. Numerical Solution of Initial Value Problems in Differential Algebraic Equations. [11] D. Vol.E. S. 9. 33 .R. Metodos Computacionais de Optimizacao. 1990. 1996. [8] H. Textos No. Iterative Methods for Solving Linear Systems. A. [7] G. 1998. Ciarlet. 1997. 14.B. Memorias de la Sociedad Matem´atica de M´exico 2006. Proceedings of the Summer Research Institute on the Legacy of John Von Neumann. Siglo XXI Editores. Historia de las matem´aticas I y II. V. Matrix Computations. pp 931-956. [3] J. SIAM. IMPA. Aportaciones Matem´aticas. 1996. Santos. El ´algebra lineal num´erica del PageRank de Goggle. 77. 1995. On the principles of large scale computing machines. John Hopkins University Press. Campbell y L.E.M. 1983. Forsythe.

[20] L. C´omputo num´erico con aritm´etica en punto flotante IEEE. Numerical Analysis. IV Coloquio del Departamento de Matem´aticas del Cinvestav. . [16] M. Pierre. J. 2006 ( por aparecer en el Princeton Companion to Mathematics. 1999. 1985. Num.34 BIBLIOGRAF´IA [14] K. Wright.N. Second edition. Fondo de Cultura Econ´omica. 19. 1986. 2002. y S. Historia de la ciencia en M´exico.A. Vargas. Aportaciones Matem´aticas. Mayers.F. Optimization Theory with Applications. Dover. Morton y D. Cambridge University Press. Second Edition. [19] E. Gowers y J. W. SIAM y SMM. Textos Nivel Medio. 2005. [18] C. Springer. Trefethen. Soluci´on num´erica de ecuaciones diferenciales. Editado por T. Barrow-Green y publicado por Princeton University Press). 1997. [15] Nocedal.W. [17] D. Numerical Solution of Partial Differential Equations. Overton. Trabulse. Numerical Optimization.