You are on page 1of 24

UNIVERSIDAD NACIONAL “PEDRO RUIZ GALLO”

FACULTAD DE CIENCIAS FISICAS Y MATEMATICAS


CENTRO DE INVESTIGACION

Informe Final
(Tercer trimestre, Septiembre del 2017)

Palabra clave: Mínimos cuadrados, aproximación, error.

I. DATOS PRELIINARES
1.0. TITULO DEL PROYECTO: Enfoques del método de Mínimos cuadrados en la
aproximación funcional.
2.0. AUTOR Mg. Amado Malca Villalobos
3.0. RESOLUCION DE APROBACION: RES. N° -2016- D/FACFyM
4.0. TIPO DE INVESTIGACION Basica
5.0. AREA DE INVESTIGACION Matemática
Sub area Geometría
6.0. LINEA DE INVESTIGACION Matemática aplicada
Programa Investigacion Basica
7.0. LUGAR DE EJECUCION FACFyM – UNPRG
8.0. DURACION DEL PROYECTO 12 meses
9.0. FECHA DE INICIO Septiembre del 2016
10.0. FECHA DE TÉRMINO Septiembre del 2017
11.0. OBJETIVO
Mostrar los aspectos del método de Mínimos cuadrados en la aproximación funcional.

Página 1
II. CUERPO DEL INFORME
Summary
The present work was carried out with the objective of showing the different aspects of
the method of least squares in the functional approach. Which are points of view from the
different tools that science provides us to face a scientific problem.
To do this, we take advantage of the basic idea of Cartesian geometry, which tells us that
the shortest distance from a point to a straight line is the length of the straight
perpendicular line that joins the point with the line. This concept of orthogonality
generalizes the idea of perpendicularity in a vector space. And the idea of a straight line is
seen from the point of view of a vector that is finally conceived as a difference from the
endpoint minus the initial point.
In the development begins with the geometric approach that is more immediate since the
idea is explored in the Cartesian geometry, as seen in the secondary. Then it is focused
via the tools of linear algebra in a vector space with internal product, in which the concept
of distance (metric) is used, and we look for the shortest distance of a function f partially
known by a function of a vector space Of finite dimension, with the idea of making the
problem more affordable. Then the mathematical analysis is used, to minimize the error
committed when approaching the unknown function by one of this space. Finally the
statistical approach is given. Completing with it some points of view that show the
problem of the approximation of a more affordable function.
The natural conclusion is that the problem of functional approximation, it is possible to
observe it under different looks that are equivalent, and the most important thing is that in
this case the result is unique. According to whoever wants to explain the solution to such
problem of projecting the partially known function.
Key words: Least squares, approximation, error.
I. Resumen
Se realizo el presente trabajo de investigación, con el objetivo de mostrar los diferentes
aspectos del método de Mínimos cuadrados en la aproximación funcional. Los cuales
son puntos de vista desde las diferencias herramientas que la ciencia nos provee para
enfrentar un problema científico.
Para ello se aprovecha la idea básica de la geometría cartesiana a que nos dice que la
distancia más corta de un punto a una recta es la longitud de la línea recta perpendicular
que une el punto con la recta. Este concepto de orotgonalidad generaliza la idea de
perpendicularidad en un espacio vectorial. Y la idea de línea recta se ve bajo el punto de
vista de un vector que finalmente se concibe como una diferencia del punto final menos
el inicial.
En el desarrollo se empieza con el enfoque geometrico que es mas inmediato puesto se
explora la idea en la geometría cartesiana, con lo visto en la secundaria. Luego se enfoca
via las herramientas del algebra lineal en un espacio vectorial con producto interno, ene
el cual se utiliza el concepto de distancia (métrica), y se busca la distanci mas corta de
una función f parcialmente conocida por una función de un espacio vectorial de
dimensión finita, con la idea de hacer mas aequible el problema. Luego se usa el análisis
matematico, para minimizar el error cometido al aproximar la función desconocida por
una de este espacio. Finalmente se da el enfoque estadístico. Completando con ello
algunos puntos de vista que muestran el problema de la aproximación de una función
más asequible.
La conclusión natural es que el problema de aproximación funcional, es posible
observarlo bajo diferentes miradas que son equivalentes, y lo más importante es que en
este caso el resultado es único. De acuerdo a la explicación que se quiera dar.
Palabra clave: Mínimos cuadrados, aproximación, error.
Programa Área Línea de investigación
Investigacion Basica Matemática Matemática aplicada

Página 2
2.0. INTRODUCCION
En esta investigación se recurrió fundamentalmente a la experiencia personal, en el
dictado de las clases, y en las inquietudes que quedan pendientes al momento de hacer
una investigación en que se necesita conocer el modelo que rige tal o cual fenómeno
físico, biológico, económico o de alguna otra índole.
En todos estos asectos hay un común denominador, no se conoce la función, y más aun
de ella si bien se conoce el dominio y el rango de tal función. Pero se desconoce tal regla
de correspondencia, solo podemos obtener alguna parte de ella por medición directa o
indirecta. Para ello se usan diversos instrumentos metrologicos, de acuerdo al fenómeno
a medir.
El problema enfocado aqui es el de dada una información finita de n puntos
correspondientes a una función, aproximarla a alguna expresión funcional dada de
antemano, en la cual el objetivo es conocer las constantes que determinan la mejor
aproximación, y que el error cometido sea el menor posible.
En el primer capítulo del informe se explora los antecedentes históricos del método, y se
va descubriendo que la preocupación por el problema que nos atañe es de mucho mas
antes, y se ha ido dando los diferentes acercamientos a tal situación, en una primera
visión del problema solo vemos una admiración por tal fenómeno y las ganas de
describirlo mediante algún modelo matemático; En ello vemos el motor de desarrollo de
las ciencias, con el ánimo de entender, modelar y explicar tal situación.
En el segundo capítulo del informe se explora uno de los enfoques de este problema, el
más básico. El geométrico que tiene que ver con lo que se nos enseña en la secundaria,
sobre la geometría euclidiana primero y luego sobre la geometría cartesiana, que
simplemente es la algebrizacion de la geometría. Aquí se explora la idea de la distacia
mas corta de un punto a una recta en el plano euclidiano.
Con las ideas del capitulo dos podemos hacer un ensayo de generalización, a los
espacios vectoriales provistos de una distancia que define a partir de un producto interno,
en ello se han usado las herramientas del algebra lineal.
En la tercera parte se utilizan las herramientas del análisis matemático de varias
variables, lo cual nos da una metodología interesante y que desemboca en la solución de
un sistema de ecuaciones lineales, donde para resolver necesitamos ir al algebra lineañl
numérica.
Finalmente usamos las herramientas estadísticas para la determinación de ltal
aproximación, pero lo común de todo ello es que debemos tener la idea de que tipo de
función usaremos para la aproximación. Que puede ser lineal, polinomial, potencial,

Página 3
exponencial, trigonométrica, logarítmica o una combinación de ellas. Según sea el caso
se usara alguna metodología diferente.

3.0. MATERIAL Y METODOS

Para el desarrollo del presente trabajo se utilizaron lo aprendido en los diferentes años
de dictar clases. Las funciones son un elemento repetitivo y fundamental en el estudio
de la matemática aparece cuando menos lo imaginas, el problema está que situaciones
reales se conoce parcialmente la función por sus resultados.
En cuanto al uso de las TIC, se uso el Geogebra, que es un software libre para usarlo en
cualquier momento y en cualquier plataforma. Además es una herramienta muy versátil,
con la cual se puede hacer muchas graficas de la forma que uno quiera. También se uso
el editor de ecuación Mathtype, herramienta muy versátil para formulas matemáticas, y
por su puesto el editor de Windows.

Página 4
4.0. RESULTADOS

Capitulo 01
ASPECTO HISTÓRICO DEL MÉTODO DE MÍNIMOS CUADRADOS EN LA
APROXIMACIÓN FUNCIONAL.

Ya usado por los chinos tres siglos antes de Cristo en casos particulares, el inventor del método
general fue Isaac Newton, que no lo quiso publicar, Euler no lo recomendaba, Legendre lo
consideraba un método “ordinario” y Gauss lo calificaba como “común.” Hoy en día lo llamamos
Método de Eliminación de Gauss. ¿Por qué se asoció el nombre de Gauss a este método? Cosas de
los primeros informáticos que la usaron en los primeros ordenadores digitales. Nos cuenta muy
detalladamente en 41 páginas la historia de este método Joseph F. Grcar, “How Ordinary
Elimination Became Gaussian Elimination,” ArXiv, Submitted on 14 Jul 2009.
Siglos antes de Cristo ya se resolvían ciertos problemas que hoy formularíamos como un sistema
lineal de 2 por 2, o 3 por 3, aunque se utilizaban procedimientos propios para cada problema.
Según Grcar, el primer uso demostrado del método de eliminación de Gauss aparece el s. III a.C.
en China, desde donde se transfirió a Babilonia y Grecia. Por ejemplo, se usa en la solución del
problema 19 en el libro I de laAritmética de Diofanto. Desde entonces ha aparecido en varios
fuentes, como en el libro Aryabhata que escribió el hindú Aryabhatiya en el s. V d.C.

Isaac Newton fue quien presentó por primera vez el método en su formulación moderna, aunque
no lo quiso publicar. Entre 1650 y 1750 hay 35 fuentes sólo en Inglaterra en las que aparece
descrito el método. La mayoría de los libros de álgebra del s. XVIII apuntaban que el método fue
inventado por Newton (el método de Newton para la resolución de sistemas de ecuaciones lineales
simultáneas). Por ejemplo, Hammond en su “The elements of algebra,” en 1752, nos presenta “El
método para resolver problemas que contienen cuatro ecuaciones y cuatro incógnitas” de Newton
(The Method of resolving Questions, which contain four Equations, and four unknown Quantities).

¿Por qué el método de eliminación de incógnitas se popularizó con Gauss? Para Grcar, todo nuevo
método necesita un problema que resolver. Gauss lo utilizó en el marco del método de mínimos
cuadrados, de gran utilidad en la resolución de múltiples problemas prácticos, como por ejemplo la
determinación de la órbitas astronómicas, Gauss lo aplicó al asteroide Ceres, o en geodesia y
cartografía. La “zorra” de Gauss (que como la zorra borra sus huellas con el rabo) utilizó el
método de eliminación para la resolución de muchísimos problemas, sin indicar los detalles. ¿Por
qué? Para qué indicar los detalles si era un método “común” (ampliamente conocido, según Gauss,
claro).

Página 5
Desde Gauss hasta la llegada de los ordenadores, el método se publicó una docena de veces, según
Grcar. Destaca Myrick Hascall Doolittle, calculista manual que llegó a resolver sistemas de 41
ecuaciones con 41 incógnitas, a mano, con el método de eliminación entre 1873 y 1911. Los
cálculos a mano son largos, por ejemplo, Alan Turing en 1946 necesitó dos semanas para resolver
un sistema de 18 ecuaciones y 18 incógnitas. Doolittle ya indica en 1878 que es necesario
mecanizar el procedimiento de eliminación y a partir de 1890 empezó a usar una máquina para
calcular sumas. El primer algoritmo pensado para una máquina lo desarrolló André-Louis
Cholesky, geodésico militar, durante la I Guerra Mundial, para resolver problemas de mínimos
cuadrados (cuyas matrices de coeficientes son simétricas y definidas positivas).Prescott Crout,
profesor de matemáticas en el MIT (Massachusetts Institute of Technology) aplicó el método de
eliminación a problemas de ingeniería eléctrica en 1941. Su algoritmo fue el último publicado
pensado sólo para hacer cálculos a mano.

El uso de matrices en la resolución de sistemas lineales es muy moderno. Las matrices se


inventaron en matemáticas (álgebra abstracta, entonces) por Eisenstein (1852), Cayley (1858),
Laguerre (1867), Frobenius (1878) y Sylvester (1881), con objeto de entender la teoría de
determinantes, formas cuadráticas, y sus aplicaciones en la resolución de ecuaciones diferenciales
ordinarias. Fuera de la matemática abstracta, las matrices no fueron usadas hasta que Heisenberg
las utilizó para su mecánica cuántica matricial en 1925. Prácticamente todas las presentaciones de
métodos de resolución de sistemas lineales obviaban el uso de matrices. Salvo contadísimas
excepciones, como Otto Toeplitz, que usó matrices triangulares de dimensión infinita, o Tadeusz
Banachiewicz, que calculó la órbita de Plutón antes de su descubrimiento.

Quizás la primera presentación de la eliminación de Gauss utilizando matrices es del genial John
Von Neumann y su colaborador Herman Goldstine en 1947. Más aún, su presentación incluía la
estimación de los errores en el cálculo de la inversa de matrices, el concepto de número de
condición (ratio entre los valores singulares de mayor y menos módulo). Este trabajo marca el
nacimiento del álgebra lineal numérica como actualmente.

El método de eliminación recibió el apelativo de “método de eliminación de Gauss” a partir de la


II Guerra Mundial, quizás en referencia a unas citas de Chauvenet (1868) “elimination of unknown
quantities from the normal equations . . . according to Gauss,” y Liagre (1879) “élimination des
inconnues entre les équations du minimum (équations normales)” mediante “les coefficients
auxiliaires de Gauss.” Von Neumann (1947) aparentemente es el último gran matemático que
habló del método de eliminación (como harían Lacroix o el propio Gauss) sin hacer una referencia
al método como “eliminación de Gauss.”
Página 6
El día de Año Nuevo de 1801, el astrónomo italiano Giuseppe Piazzi descubrió el planeta
enano Ceres. Fue capaz de seguir su órbita durante 40 días. Durante el curso de ese año, muchos
científicos intentaron estimar su trayectoria con base en las observaciones de Piazzi (resolver
las ecuaciones no lineales de Kepler de movimiento es muy difícil). La mayoría de las
evaluaciones fueron inútiles; el único cálculo suficientemente preciso para permitir a Franz Xaver
von Zach, astrónomo alemán, reencontrar a Ceres al final del año fue el de Carl Friedrich Gauss,
por entonces un joven de 24 años (los fundamentos de su enfoque ya los había planteado en 1795,
cuando aún tenía 18 años). Sin embargo, su método de mínimos cuadrados no se publicó sino hasta
1809, y apareció en el segundo volumen de su trabajo sobre mecánica celeste, Theoria Motus
Corporum Coelestium in sectionibus conicis solem ambientium. El francés Adrien-Marie
Legendre desarrolló el mismo método de forma independiente en 1805.
En 1829, Gauss fue capaz de establecer la razón del éxito maravilloso de este procedimiento:
simplemente, el método de mínimos cuadrados es óptimo en muchos aspectos. El argumento
concreto se conoce como teorema de Gauss-Márkov.

Mínimos cuadrados es una técnica de análisis numérico enmarcada dentro de laoptimización


matemática, en la que, dados un conjunto de pares ordenados —variable independiente, variable
dependiente— y una familia de funciones, se intenta encontrar lafunción continua, dentro de dicha
familia, que mejor se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio
de mínimo error cuadrático.
En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias en las
ordenadas (llamadas residuos) entre los puntos generados por la función elegida y los
correspondientes valores en los datos. Específicamente, se llama mínimos cuadrados
promedio (LMS) cuando el número de datos medidos es 1 y se usa el método de descenso por
gradiente para minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza el residuo
cuadrado esperado, con el mínimo de operaciones (por iteración), pero requiere un gran número de
iteraciones para converger.
Desde un punto de vista estadístico, un requisito implícito para que funcione el método de
mínimos cuadrados es que los errores de cada medida estén distribuidos de forma aleatoria.
El teorema de Gauss-Márkov prueba que los estimadores mínimos cuadráticos carecen de sesgo y
que el muestreo de datos no tiene que ajustarse, por ejemplo, a una distribución normal. También
es importante que los datos a procesar estén bien escogidos, para que permitan visibilidad en las

Página 7
variables que han de ser resueltas (para dar más peso a un dato en particular, véase mínimos
cuadrados ponderados).
La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas. Muchos otros
problemas de optimización pueden expresarse también en forma de mínimos cuadrados,
minimizando la energía o maximizando la entropía.

Página 8
Capitulo 02
ASPECTO GEOMETRICO DEL MÉTODO DE MÍNIMOS CUADRADOS EN LA
APROXIMACIÓN FUNCIONAL

En este capítulo analizaremos la geometrizacion del método de mínimos cuadrados. Empecemos


considerando un plano en el cual se tiene una línea recta y un punto fuera de ella.

Problema: Hallar un punto en la recta que esté más cerca del punto dado

De todos los puntos de la recta en mención, hay que buscar aquellos que están a la menor distancia
posible del punto P, fuera de la recta.

Para ello hay que tener en cuenta algunos teoremas importantes de la geometría de un triangulo.
1. La suma de los tres ángulos interiores de un triangulo es de 180º.

R A + R B + R C = 180º
Demostración
Para la demostración solo se traza una paralela al segmento BC, que pase por A.

De donde vemos que los ángulos A, B y C, suman 180º.

Página 9
También tenemos lo siguiente:
En todo triangulo, a mayor ángulo se opone mayor lado. Y viceversa.

Sea: BC > AC , entonces RG > RH

De los cuales se deduce el principal teorema, respecto de los lados de un triangulo.


En todo triangulo, un lado es menor que la suma de los otros dos pero mayor que su diferencia.

Si BC > AC > AB , entonces: BC < AC + AB y BC > AC - AB


Este resultado es fundamental en el manejo de triángulos, pues prácticamente es el que nos da la
existencia de un triangulo cualquiera.
Como resultado de ello, tenemos un resultado importante:
La distancia más corta entre dos puntos es el segmento de recta que los une.

Ahora veamos algunas líneas notables de un triangulo

un principio fundamental de la existencia de un triangulo.


“En todo triangulo, un lado cualquiera es siempre menor que la suma de las longitudes de
los otros dos. ”
Altura: Es la recta perpendicular trazada desde un vértice al lado opuesto.

Página 10
Bisectriz: Es la recta que parte de un vértice y que divide al ángulo en dos ángulos iguales.

Mediana: Es la recta que une el vértice con el punto medio del lado opuesto.

Mediatriz: Es la recta perpendicular a un lado, trazada desde su punto medio M.

Ahora veremos el problema que nos atañe: Buscar un punto de la recta dada, que estee mas cerca
del punto P.

Este punto se encuentra trazando una línea perpendicular a la recta, el punto de intersección a ella
será el punto indicado. Que estee mas cerca del punto dado P.

Página 11
Para ello veremos algunos teoremas respecto de las líneas que pasan por P, que pueden ser
perpendiculares, oblicuas y/o paralelas.

Teorema: Si desde un punto exterior a una recta se trazan a esta la perpendicular y una oblicua, se
verifica que la oblicua es mayor que la perpendicular.

PB > PA
Esto por que el triangulo APB es rectángulo recto en A, luego B y P son angulos agudos; y como
en todo triangulo a mayor angulo se opone mayor lado, por lo tanto: PB > PA

Teorema: Si desde un punto exterior a una recta se trazan a esta la perpendicular y varias oblicuas,
se verifica que:
i) Las oblicuas cuyos pies equidistan del pie de la perpendicular son iguales.
ii) De dos oblicuas cuyos pies no equidistan del pie de la perpendicular, será mayor aquella cuyo
pie se aparte mas del pie de la perpendicular.

Si CA = AB , entonces PC = PB

Si CA < AB , entonces PC < PB

Página 12
Estos teoremas nos dicen que la distancia mas corta desde un punto exterior a una recta, esta dado
por la perpendicuar a esta recta trazado desde este punto P, exterior a ella.
Bajo este supuesto geométrico tenemos la proyección ortogonal de P sobre la recta. Ahora
podemos ver este problema en el contexto del algebra lineal. Pues tenemos el espacio de funciones
de R en R, de dimensión infinita. Y la recta simboliza un subespacio vectorial de dimensión finita.
Asi que para encontrar una función que mejor se aproxime a una función dada f, debemos
proyectar en forma ortogonal sobre el subespacio.

Donde tenemos que Z es ortogonal a U, entonces tenemos que:

Z = V - rU y áZ , U ñ= 0
De donde tenemos que áU ,U ñr = áU ,V ñ
Asi AE = rU
áU ,V ñ
E = A+ U
áU ,U ñ
Lo que nos da el efecto deseado.

Página 13
Capitulo 03
ASPECTO ALGEBRAICO DEL MÉTODO DE MÍNIMOS CUADRADOS EN LA
APROXIMACIÓN FUNCIONAL

En este capítulo se explotara la idea de “mejor aproximación” que se establecerá mas adelante con
el objeto de obtener el útil método de mínimos cuadrados, usado para ajustar curvas a una serie de
datos experimentales.
Sea V un espacio vectorial de dimensión finita con el producto interno ( g| g) y sea W un
subespacio de el. Tómese un vector (arbitrario) fijo v Î V . Se dice que el vector vw Î W es la
mejor aproximación del vector v por vectores de W si
v - vw £ v - w , " w Î W
Al recordar que la norma de la diferencia entre dos vectores es la distancia entre ellos, la definición
anterior establece que el vector vw Î W es la mejor aproximación del vector v Î W por vectores
de W si el es el vector de W mas próximo a v. Es decir, de entre todos los vectores del subespacio
W, el vector vw Î W es el vector cuya distancia a v es la menor posible.
Veanse un par de casos concretos, en los que la geometría del problema ayuda a descubrir al vector
vw .

Sea V = R 2 con el producto interno canonico, y sea W el subespacio de V representado


geométricamente por el eje x. Para un vector arbitario v Î R 2 es fácil ver (de la figura siguiente)
que el vector vw - la mejor aproximación de v por vectores de W – es la proyección ortogonal del

vector v sobre el eje x, pues es claro que la distancia más corta de v a W es v - vw .

Esto está claro en virtud al capítulo anterior desarrollado en este trabajo.


Una situación similar se presenta en el caso del espacio vectorial R 3 con el producto interno
canonico, siendo W un plano que pasa por el origen: la proyección ortogonal del vector v Î R 3
sobre W da la mejor aproximación del vector v por vectores de W.

Página 14
Ahora regresaremos al caso general. Para ello usaremos algunas herramientas del algebra lineal,
específicamente el complemento ortogonal de un subespacio.
Sea V un espacio con producto interno y sea W un subespacio de el. Al conjunto
W ^ = {v Î W / (v | w)= 0, " w Î W }
Se le llama el complemento ortogonal de W. El cual también es un subespacio de V.
Donde se tiene el siguiente resultado

Teorema: Sea (V , (. | .)) un espacio vectorial de dimensión finita con producto


interno y sea W un subespacio de V. Entonces V = W Å W ^ .

Es decir cualquier vector de V se puede escribir como combinación lineal de un vector de W más
un vector de W ^ .

Aquí se exhibira el vector que mejor aproxima a un vector v Î V por vectores de W. En ese
teorema se vio que siendo V un espacio vectorial de dimensión finita con producto interno y W un
subespacio de V, entonces V se podría presentar como la suma directa de W y su complemento
ortogonal. Es decir, se podría escribir V = W Å W ^ . De modo que todo vector v e V podría ser
escrito como

v = w1 + w2 (1)
en donde w1 Î W y w2 Î W . Al vector w1 Î W se le llama proyección ortogonal del vector v
^

sobre el espacio W.
Se afirma que el vector w1 Î W es precisamente el vector del análisis anterior. Es decir, que es la
mejor aproximación de v por vectores de W.
En efecto, se probará a continuación que
v - w1 £ v - w , " w Î W

Según la expresión (1) se tiene que para cualquier vector w Î W


2 2 2 2
v - w = w1 + w2 - w | w1 + w2 - w = w1 + w2 + w - (w1 | w)
Pero
w1 | w £ w1 | w £ w1 w
y entonces

Página 15
2 2 2 2 2 2
v - w ³ w2 + w1 + w - 2 w1 w = w2 + ( w1 - w )
2 2
³ w2 = v - w1

Es decir,
v - w1 £ v - w " w Î W
lo que prueba la afirmación.

Se tiene entonces demostrado el siguiente teorema:

Teorema 1
Sea V un espacio vectorial de dimensión finita con producto interno (• | •) y sea W un subespacio
de V. Dado un vector v Î V , el vector vw Î W dado por
k
vw = åi= 1
v | ui ui
en donde b = {u1 , u2 , u3 ,L , uk } es una base ortonormal de W, da la mejor aproximación de v por
vectores de W en el sentido de que
v - vw £ v - w " w Î W

Este es el enfoque ene el algebra lineal.

Página 16
Capitulo 04
MOSTRAR EL ASPECTO ANALÍTICO DEL MÉTODO DE MÍNIMOS CUADRADOS EN LA
APROXIMACIÓN FUNCIONAL.

En este capítulo se explotara la idea de “mejor aproximación” que se establecerá mas adelante con
el objeto de obtener el útil método de mínimos cuadrados, usado para ajustar curvas a una serie de
datos experimentales.
Las herramientas a utilizar serán las del análisis matemático, de donde usaremos las derivadas
parciales de una función real de varias variables. El problema a analizar es dada una función
desconocida, de la cual solo se conocen algunos valores de ella, encontrar una funcion que mejor
la aproxima.
Esta función que es la mejor aproximación de f, según su distribución en el plano, puede ser:
Polinomio de grado 𝑛 ∈ 𝑁: 𝑝(𝑥) = 𝑎0 +𝑎1 𝑥+𝑎2 𝑥 2 + ⋯ + 𝑎𝑛 𝑥 𝑛 .
Exponencial: 𝑔(𝑥) = 𝑎(𝑏 𝑥 )
Logarítmica: 𝑔(𝑥) = 𝑎 + 𝑏(𝑙𝑜𝑔𝑏 𝑥)
𝑎𝑥+𝑏
Racional: 𝑔(𝑥) = 𝑐𝑥+𝑑

Trigonométrica: 𝑔(𝑥) = 𝑎 + 𝑏𝑠𝑖𝑛(𝑘𝑥) + 𝑐𝑐𝑜𝑠(𝑙𝑥)


También se puede utilizar una combinación de ellas, según se crea conveniente. El trabajo estará
en hallar los coeficientes de la función, para ello se analizara la función que acumula los errores
entre los valores reales de la función y la función que los aproxima. Además para no darnos con la
sorpresa de que se anulen estos, por los signos cambiados., se trabajara con los cuadrados de tales
errores.
Así el problema queda como sigue:
Dado un conjunto de n puntos
(𝑥𝑖 , 𝑦𝑖 )
{ ⁄𝑦 = 𝑓(𝑥 ), 𝑖 = 1: 𝑛, 𝑛 ∈ 𝑍 + } donde 𝑥1 < 𝑥2 < 𝑥3 < ⋯ < 𝑥𝑛
𝑖 𝑖

Que representan los valores conocidos de la función 𝑦 = 𝑓(𝑥)


Hallar una función 𝑦 = 𝑔(𝑥), que mejor aproxime a estos datos.

Es decir que el error sea el mínimo posible. Entonces la función a analizar será, la función error dada por:

Página 17
𝑛

𝐸(𝑐1 , 𝑐2 , 𝑐3 , … , 𝑐𝑚 ) = ∑(𝑔(𝑥𝑖 ) − 𝑦𝑖 )2
𝑖=1
Donde 𝑐1 , 𝑐2 , 𝑐3 , … , 𝑐𝑚 son las constantes a hallar en g, que en este caso serán las incógnitas. Por lo que
tendremos que recurrir a las derivadas parciales, por ser E una función de m variables.
Ahora resolveremos el sistema:
𝑛
𝜕𝐸 𝜕𝑔(𝑥𝑖 )
= 2 ∑ [(𝑔(𝑥𝑖 ) − 𝑦𝑖 ) ]=0
𝜕𝑐1 𝜕𝑐1
𝑖=1
𝑛
𝜕𝐸 𝜕𝑔(𝑥𝑖 )
= 2 ∑ [(𝑔(𝑥𝑖 ) − 𝑦𝑖 ) ]=0
𝜕𝑐2 𝜕𝑐2
𝑖=1
… … ….
𝑛
𝜕𝐸 𝜕𝑔(𝑥𝑖 )
= 2 ∑ [(𝑔(𝑥𝑖 ) − 𝑦𝑖 ) ]=0
𝜕𝑐m 𝜕𝑐m
𝑖=1
Lo cual resulta un sistema de m ecuaciones, con m incognitas. Lo ideal es que este sistema sea un
Sistema de Ecuaciones Lineales (SEL), que será desarrollado con metodologias del algebra lineal
numérica.
Veamos algunos casos particulares:
Caso 01: 𝑔(𝑥) = ax + b, a0
La función error con las variables a y b será: 𝐸(a, b) = ∑𝑛𝑖=1(a𝑥𝑖 + b − 𝑦𝑖 )2
Hallando las derivadas parciales respectivas tenemos:
𝑛
𝜕𝐸
= 2 ∑[(a𝑥𝑖 + b − 𝑦𝑖 )𝑥𝑖 ] = 0
𝜕𝑎
𝑖=1
𝑛
𝜕𝐸
= 2 ∑[(a𝑥𝑖 + b − 𝑦𝑖 )] = 0
𝜕𝑏
𝑖=1
De donde obtenemos el SEL:
𝑛

∑[axi2 + bxi − 𝑦𝑖 xi ] = 0
𝑖=1
𝑛

∑[a𝑥𝑖 + b − 𝑦𝑖 ] = 0
𝑖=1
Arreglandola adecuadamente, para que parezca un SEL
𝑛 𝑛 𝑛

a ∑ xi2 + 𝑏 ∑ xi = ∑ 𝑦𝑖 xi
𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛

a ∑ 𝑥𝑖 + b ∑ 1 = ∑ 𝑦𝑖
𝑖=1 𝑖=1 𝑖=1
De donde tenemos que
n ∑ni=1(𝑦𝑖 xi ) − (∑ni=1 𝑥𝑖 )(∑ni=1 𝑦𝑖 )
a=
𝑛(∑ni=1 xi2 ) − (∑ni=1 𝑥𝑖 )2
(∑ni=1 xi2 )(∑ni=1 𝑦𝑖 ) − (∑ni=1 𝑦𝑖 xi )(∑ni=1 𝑥𝑖 )
b=
𝑛(∑ni=1 xi2 ) − (∑ni=1 𝑥𝑖 )2
De donde tenemos la mejor aproximación lineal, y además es única, por nuestra teoría de las derivadas.
𝑔(𝑥) = ax + b, a0
Caso 2: 𝑔(𝑥) = 𝑎𝑚 x m + 𝑎𝑚−1 x m−1 + ⋯ + 𝑎2 x 2 +𝑎1 x + 𝑎0
Página 18
La función error con las variables a y b será:
𝑛

𝐸(a, b) = ∑(𝑎𝑚 xim + 𝑎𝑚−1 xim−1 + ⋯ + 𝑎2 xi2 +𝑎1 𝑥𝑖 + 𝑎0 − 𝑦𝑖 )2


𝑖=1

Hallando las derivadas parciales respectivas tenemos:


𝑛
𝜕𝐸
= 2 ∑[(𝑎𝑚 xim + 𝑎𝑚−1 xim−1 + ⋯ + 𝑎2 xi2 +𝑎1 𝑥𝑖 + 𝑎0 − 𝑦𝑖 )1] = 0
𝜕𝑎0
𝑖=1
𝑛
𝜕𝐸
= 2 ∑[(𝑎𝑚 xim + 𝑎𝑚−1 xim−1 + ⋯ + 𝑎2 xi2 +𝑎1 𝑥𝑖 + 𝑎0 − 𝑦𝑖 )𝑥𝑖 ] = 0
𝜕𝑎1
𝑖=1
𝑛
𝜕𝐸
= 2 ∑[(𝑎𝑚 xim + 𝑎𝑚−1 xim−1 + ⋯ + 𝑎2 xi2 +𝑎1 𝑥𝑖 + 𝑎0 − 𝑦𝑖 )xi2 ] = 0
𝜕𝑎2
𝑖=1
… … … … … ….
𝑛
𝜕𝐸
= 2 ∑[(𝑎𝑚 xim + 𝑎𝑚−1 xim−1 + ⋯ + 𝑎2 xi2 +𝑎1 𝑥𝑖 + 𝑎0 − 𝑦𝑖 )xin ] = 0
𝜕𝑎𝑛
𝑖=1
De donde obtenemos el SEL:
𝑛 𝑛 𝑛 𝑛 𝑛 𝑛
m m−1 2
𝑎𝑚 ∑ xi + 𝑎𝑚−1 ∑ xi + ⋯ + 𝑎2 ∑ xi + 𝑎1 ∑ 𝑥𝑖 + 𝑎0 ∑ 1 = ∑ 𝑦𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛 𝑛
m+1 m 3 2
𝑎𝑚 ∑ xi + 𝑎𝑚−1 ∑ xi + ⋯ + 𝑎2 ∑ xi + 𝑎1 ∑ xi + 𝑎0 ∑ 𝑥𝑖 = ∑ 𝑥𝑖 𝑦𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛 𝑛
m+2 m+1
𝑎𝑚 ∑ xi + 𝑎𝑚−1 ∑ xi + ⋯ + 𝑎2 ∑ xi + 𝑎1 ∑ xi + 𝑎0 ∑ xi = ∑ xi2 𝑦𝑖
4 3 2

𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1


… … … . … … … ..
𝑛 𝑛 𝑛 𝑛 𝑛 𝑛

𝑎𝑚 ∑ xi2m + 𝑎𝑚−1 ∑ xi2m−1 +⋯+ 𝑎2 ∑ xim+2 + 𝑎1 ∑ xim+1 + 𝑎0 ∑ xim = ∑ xim 𝑦𝑖


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
De donde se obtiene el siguiente SEL, el cual es un sistema de m+1 incógnitas con m+1
ecuaciones.
AX = B
Donde
X = [𝑎𝑚 𝑎𝑚−1 …. 𝑎2 𝑎1 𝑎0 ]

∑𝑛𝑖=1 xim ∑𝑛𝑖=1 xim−1 … ∑𝑛𝑖=1 xi2 ∑𝑛𝑖=1 x1i ∑𝑛𝑖=1 1


∑𝑛𝑖=1 𝑦𝑖
∑𝑛𝑖=1 xim+1 ∑𝑛𝑖=1 xim … ∑𝑛𝑖=1 xi3 ∑𝑛𝑖=1 xi2 ∑𝑛𝑖=1 x1i
∑𝑛𝑖=1 𝑥𝑖 𝑦𝑖
A= ∑𝑛𝑖=1 xim+2 ∑𝑛𝑖=1 xim+1 … ∑𝑛𝑖=1 xi4 ∑𝑛𝑖=1 xi3 ∑𝑛𝑖=1 xi2 𝐵 = ∑𝑛𝑖=1 xi2 𝑦𝑖
……………………………..
…….
∑𝑛𝑖=1 xi2m−1 ∑𝑛𝑖=1 xi2m−2 … ∑𝑛𝑖=1 xim+1 ∑𝑛𝑖=1 xim ∑𝑛𝑖=1 xim−1
[ 𝑖=1 xim 𝑦𝑖 ]
∑𝑛
[ ∑𝑛𝑖=1 xi2m ∑𝑛𝑖=1 xi2m−1 … ∑𝑛𝑖=1 xim+2 ∑𝑛𝑖=1 xim+1 ∑𝑛𝑖=1 xim ]
Ahora vemos que A es una matriz simétrica, la cual tiene sus propias formas de resolver en forma
numérica. Lo cual será materia de otros trabajos.

Caso 3: 𝑔(𝑥) = 𝑎(𝑏 𝑥 )

Página 19
En este caso tenemos para hallar las constantes consideradas haremos un pequeño cambio en la
estructura de esta función, por una equivalente. Tomando logaritmos, que puede ser el neperiano o
el decimal.
En nuestro caso será el logaritmo neperiano o natural:
𝑦 = 𝑐(𝑑 𝑥 )
ln(𝑦) = ln(𝑐) + 𝑥𝑙𝑛(𝑑)
En esta nueva ecuación no necesitaremos
{(𝑥1 , 𝑦1 ), (𝑥2 , 𝑦2 ), (𝑥3 , 𝑦3 ), … , (𝑥𝑛−1 , 𝑦𝑛−1 ), (𝑥𝑛 , 𝑦𝑛 )}
Sino los pares ordenados en la forma de: , (𝑥𝑛 , ln(𝑦𝑛 ))
Luego de lo cual hallaremos 𝑎 = ln(𝑑) 𝑦 𝑏 = ln(𝑐), con los métodos del caso 1:
n ∑ni=1(ln(𝑦𝑖 )xi ) − (∑ni=1 𝑥𝑖 )(∑ni=1 ln(𝑦𝑖 ))
a = ln(d) =
𝑛(∑ni=1 xi2 ) − (∑ni=1 𝑥𝑖 )2
(∑ni=1 xi2 )(∑ni=1 ln(𝑦𝑖 )) − (∑ni=1 ln(𝑦𝑖 )xi )(∑ni=1 𝑥𝑖 )
b = ln(c) =
𝑛(∑ni=1 xi2 ) − (∑ni=1 𝑥𝑖 )2

Luego de ello, se calculan los valores de d y del siguiente modo:


d = ea y 𝑐 = eb
Obteniendo de esta forma lo requerido:
𝑦 = 𝑔(𝑥) = 𝑐(𝑑 𝑥 )

Caso 4: 𝑧 = 𝑔(𝑥, 𝑦) = 𝑎𝑥 + 𝑏𝑦 + 𝑐
En este caso obviamente necesitaremos ternas de números como datos, de la forma siguiente:
{(𝑥1 , 𝑦1 , 𝑧1 ), (𝑥2 , 𝑦2 , 𝑧2 ), (𝑥3 , 𝑦3 , 𝑧3 ), … , (𝑥𝑛−1 , 𝑦𝑛−1 , 𝑧𝑛−1 ), (𝑥𝑛 , 𝑦𝑛 , 𝑧𝑛 )}
De donde la función error, con el mismo formato inicial, nos quedara como una suma de cuadrados
de expresiones lineales:
𝑛 𝑛

𝐸(a, b, c) = ∑(𝑔(𝑥𝑖 , 𝑦𝑖 ) − 𝑧𝑖 ) = ∑(𝑎𝑥𝑖 + b𝑦𝑖 + 𝑐 − 𝑧𝑖 )2


2

𝑖=1 𝑖=1
Hallando las derivadas parciales con respecto a las variables a, b y c, y luego igualando a cero
cada una de ellas, tenemos:
𝑛
𝜕𝐸
= 2 ∑[(a𝑥𝑖 + b𝑦𝑖 + 𝑐 − 𝑧𝑖 )𝑥𝑖 ] = 0
𝜕𝑎
𝑖=1
𝑛
𝜕𝐸
= 2 ∑[(a𝑥𝑖 + b𝑦𝑖 + 𝑐 − 𝑧𝑖 )𝑦𝑖 ] = 0
𝜕𝑏
𝑖=1
𝑛
𝜕𝐸
= 2 ∑[(a𝑥𝑖 + b𝑦𝑖 + 𝑐 − 𝑧𝑖 )1] = 0
𝜕c
𝑖=1

De donde tenemos que aplicando las sumatorias:

Página 20
𝑛 𝑛 𝑛 𝑛

a ∑ xi2 + 𝑏 ∑(𝑥𝑖 𝑦𝑖 ) + 𝑐 ∑ 𝑥𝑖 = ∑(𝑥𝑖 𝑧𝑖 )


𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛

a ∑(𝑥𝑖 𝑦𝑖 ) + 𝑏 ∑ yi2 + 𝑐 ∑ 𝑦𝑖 = ∑(𝑦𝑖 𝑧𝑖 )


𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛

a ∑ 𝑥𝑖 + 𝑏 ∑ 𝑦𝑖 + 𝑐 ∑ 1 = ∑ 𝑧𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1

De donde podemos ver que tenemos un sistema de tres ecuaciones con tres incógnitas, claramente
desarrollable.
∑𝑛𝑖=1 xi2 ∑𝑛𝑖=1(𝑥𝑖 𝑦𝑖 ) ∑𝑛𝑖=1 𝑥𝑖 ∑𝑛𝑖=1(𝑥𝑖 𝑧𝑖 ) ∑𝑛𝑖=1(𝑥𝑖 𝑦𝑖 ) ∑𝑛𝑖=1 𝑥𝑖
∆= | ∑𝑛𝑖=1(𝑥𝑖 𝑦𝑖 ) ∑𝑛𝑖=1 yi2 ∑𝑛𝑖=1 𝑦𝑖 | ∆1 = | ∑𝑛𝑖=1(𝑦𝑖 𝑧𝑖 ) ∑𝑛𝑖=1 yi2 ∑𝑛𝑖=1 𝑦𝑖 |
∑𝑛𝑖=1 𝑥𝑖 ∑𝑛𝑖=1 𝑦𝑖 ∑𝑛𝑖=1 1 ∑𝑛𝑖=1 𝑧𝑖 ∑𝑛𝑖=1 𝑦𝑖 ∑𝑛𝑖=1 1
∑𝑛𝑖=1 xi2 ∑𝑛𝑖=1(𝑥𝑖 𝑧𝑖 ) ∑𝑛𝑖=1 𝑥𝑖 ∑𝑛𝑖=1 xi2 ∑𝑛𝑖=1(𝑥𝑖 𝑦𝑖 ) ∑𝑛𝑖=1(𝑥𝑖 𝑧𝑖 )
∆2 = |∑𝑛𝑖=1(𝑥𝑖 𝑦𝑖 ) ∑𝑛𝑖=1(𝑦𝑖 𝑧𝑖 ) ∑𝑛𝑖=1 𝑦𝑖 | ∆3 = | ∑𝑛𝑖=1(𝑥𝑖 𝑦𝑖 ) ∑𝑛𝑖=1 yi2 ∑𝑛𝑖=1(𝑦𝑖 𝑧𝑖 ) |
∑𝑛𝑖=1 𝑥𝑖 ∑𝑛𝑖=1 𝑧𝑖 ∑𝑛𝑖=1 1 ∑𝑛𝑖=1 𝑥𝑖 ∑𝑛𝑖=1 𝑦𝑖 ∑𝑛𝑖=1 𝑧𝑖
Donde tenemos que:
∆1 ∆2 ∆3
a= 𝑏= 𝑐=
∆ ∆ ∆
∆1 ∆2 ∆3
Así tenemos finalmente que: 𝑧 = 𝑔(𝑥, 𝑦) = 𝑥+ 𝑦+
∆ ∆ ∆

Caso 5: 𝑧 = 𝑔(𝑥, 𝑦) = 𝑎𝑥 2 + 𝑏𝑦 2 + 𝑐𝑥𝑦 + 𝑑


En este caso trataremos ternas de números como datos, de la forma siguiente:
{(𝑥1 , 𝑦1 , 𝑧1 ), (𝑥2 , 𝑦2 , 𝑧2 ), (𝑥3 , 𝑦3 , 𝑧3 ), … , (𝑥𝑛−1 , 𝑦𝑛−1 , 𝑧𝑛−1 ), (𝑥𝑛 , 𝑦𝑛 , 𝑧𝑛 )}
De donde la función error, con el mismo formato inicial, nos quedara como una suma de cuadrados
de expresiones cuadráticas:
𝑛 𝑛

𝐸(a, b, c, d) = ∑(𝑔(𝑥𝑖 , 𝑦𝑖 ) − 𝑧𝑖 ) = ∑(axi2 + byi2 + 𝑐𝑥𝑖 𝑦𝑖 + d − 𝑧𝑖 )2


2

𝑖=1 𝑖=1
Hallando las derivadas parciales con respecto a las variables a, b y c, y luego igualando a cero
cada una de ellas, tenemos:
𝑛
𝜕𝐸
= 2 ∑[(axi2 + byi2 + 𝑐𝑥𝑖 𝑦𝑖 + d − 𝑧𝑖 )xi2 ] = 0
𝜕𝑎
𝑖=1
𝑛
𝜕𝐸
= 2 ∑[(axi2 + byi2 + 𝑐𝑥𝑖 𝑦𝑖 + d − 𝑧𝑖 )yi2 ] = 0
𝜕𝑏
𝑖=1
𝑛
𝜕𝐸
= 2 ∑[(axi2 + byi2 + 𝑐𝑥𝑖 𝑦𝑖 + d − 𝑧𝑖 )𝑥𝑖 𝑦𝑖 ] = 0
𝜕c
𝑖=1
𝑛
𝜕𝐸
= 2 ∑[(axi2 + byi2 + 𝑐𝑥𝑖 𝑦𝑖 + d − 𝑧𝑖 )1] = 0
𝜕𝑑
𝑖=1

De donde tenemos que aplicando las sumatorias:


Página 21
𝑛 𝑛 𝑛 𝑛 𝑛

a ∑ xi4 + 𝑏 ∑ xi2 yi2 + 𝑐 ∑ xi3 𝑦𝑖 + 𝑑 ∑ xi2 = ∑ xi2 𝑧𝑖


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

a ∑ xi2 yi2 + 𝑏 ∑ yi4 + 𝑐 ∑ 𝑥𝑖 yi3 + 𝑑 ∑ yi2 = ∑ yi2 𝑧𝑖 )


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

a ∑ xi3 𝑦𝑖 + 𝑏 ∑ 𝑥𝑖 yi3 + 𝑐 ∑ xi2 yi2 + 𝑑 ∑ 𝑥𝑖 𝑦𝑖 = ∑ 𝑥𝑖 𝑦𝑖 𝑧𝑖 )


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

a ∑ xi2 + 𝑏 ∑ yi2 + 𝑐 ∑ 𝑥𝑖 𝑦𝑖 + 𝑑 ∑ 1 = ∑ 𝑧𝑖 )
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
De donde resulta un sistema de cuatro ecuaciones con cuatro incógnitas, resoluble como un SEL.
Usando el método más adecuado de acuerdo con la matriz de coeficientes.

Página 22
5.0. CONCLUSIONES
Lo mejor que se puede hacer sobre un tema en particular es recurrir a los antecedentes históricos,
lo que nos da en la mayoría de veces un enfoque mejorado de lo que se requiere investigar. A
partir de lo cual podemos seguir en base a la experiencia y no seguir andando en el camino ya
trillado.

El enfoque geométrico nos da una visión del problema bastante simple el cual puede utilizarse para
todo publico, dado que esta es una investigación de temas de la realidada en que vivimos. Por ello
será necesario dar explicaciones para que se vea la relevamncia de tal investigación.

El enfoque algebraico y el analítico son caminos especializados del mismo problema, por ello
estan hechos al detalle, con la suficiente claridad para aquel versado en tales temas.

Por ultimo en enfoque estadístico es usado pr los especialistas en tal problema de investigación,
dado que la información que se tiene sobre un fenómeno en particular es demasiada, entonces es
importante el concurso de tales especialistas.

Todo alumno que quiera modelar la realidad en cual nivel educativo, se va a enfrentar con la
realidad de construir una función que modele tel o cual fenómeno real. Por ello es necesario que se
empape de tales métodos.

6.0. REFERENCIAS BIBLIOGRAFICAS

Carrillo, A., & Llamas, I. (2005). Cabri Géomètre II plus. Madrid: RA-MA.

Ruiz, J. (2013). Las TIC en la enseñanza y aprendizaje de las matemáticas. Bogotá: Ediciones de
la U.

Wooton, W., Beckenbach, E., & Fleming, F. (1985). Geometria Analitica Moderna. Mexico:
Publicaciones Cultual S. A. .

V. A. Uspenski.Triangulo de Pascal, Editorial MIR, Moscu 1978

E. T. Bell. Historia de las Matemáticas, Segunda Edicion en Español, Editorial Fondo de


Cultura Economica. Mexico 1995.

Lages Lima, E. (2009). Curso de analise vol. 2. Rio de Janeiro: Impa.

Mendenhall, W. (2010). Estadistica Matematica con aplicaciones. Mexico: Cengage.

Newton, I. (2011). Principios matematicos de la Filosofia Natural. Madrid: Tecnos.

Página 23
Peña, D. (2012). Regresion y diseño de experimentos. Madrid: Alianza editorial.

Seeley, R. (2010). Calculo de una y varias variables. Mexico: Trillas.

Sestier, A. (1990). Diccionario enciclopedico de las Matematicas. Mexico: Valle.

Strang, G. (2014). Linear Algebra and its aplications. Ohio: Limusa.

Yves Lequain, A. (2013). Elementos de álgebra. Rio de Janeiro: Impa.

Lambayeque, Septiembre del 2017.

Mg. Amado Malca Villalobos


Docente ASODE de la UNPRG

Página 24

You might also like