You are on page 1of 15

1.

- AJUSTE DE CURVAS

El ajuste de curvas consiste en encontrar una curva que contenga una serie de
puntos y que posiblemente cumpla una serie de restricciones adicionales. Esta
sección es una introducción tanto a la interpolación (cuando se espera un ajuste
exacto a determinadas restricciones) y al ajuste de curvas/análisis de regresión
(cuando se permite una aproximación).

1.1.- MÉTODO MÍNIMOS CUADRADOS

Mínimos cuadrados es una técnica de análisis numérico encuadrada dentro de


la optimización matemática, en la que, dados un conjunto de pares (o ternas, etc),
se intenta encontrar la función que mejor se aproxime a los datos (un "mejor
ajuste"), de acuerdo con el criterio de mínimo error cuadrático.

En su forma más simple, intenta minimizar la suma de cuadrados de las


diferencias ordenadas (llamadas residuos) entre los puntos generados por la
función y los correspondientes en los datos. Específicamente, se llama mínimos
cuadrados promedio (LMS) cuando el número de datos medidos es 1 y se usa el
método de descenso por gradiente para minimizar el residuo cuadrado. Se puede
demostrar que LMS minimiza el residuo cuadrado esperado, con el mínimo de
operaciones (por iteración), pero requiere un gran número de iteraciones para
converger.

Desde un punto de vista estadístico, un requisito implícito para que funcione el


método de mínimos cuadrados es que los errores de cada medida estén
distribuidos de forma aleatoria. El teorema de Gauss-Márkov prueba que los
estimadores mínimos cuadráticos carecen de sesgo y que el muestreo de datos
no tiene que ajustarse, por ejemplo, a una distribución normal. También es
importante que los datos recogidos estén bien escogidos, para que permitan
visibilidad en las variables que han de ser resueltas (para dar más peso a un dato
en particular, véase mínimos cuadrados ponderados).

La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas.


Muchos otros problemas de optimización pueden expresarse también en forma
de mínimos cuadrados, minimizando la energía o maximizando la entropía.
El ejemplo mas simple de una aproximación por mínimos cuadrados es el ajuste
de una línea recta a un conjunto de parejas de datos observadas:

(x1, y1),(x2 , y2 ),(x3 , y3 ),...,(xn , yn ).

La recta resultante y = a + bx + E , en donde a y b son coeficientes que representan


la intersección con el eje de las abcisas y la pendiente, E es el error o residuo entre
las observaciones y el modelo, E = y − a + bx , y presenta dos características
importantes:

1. Es nula la suma de las desviaciones verticales de los puntos a partir de la

recta de ajuste Σ(Y − y ) = 0

2. Es mínima la suma de los cuadrados de dichas desviaciones. Ninguna otra

recta daría una suma menor de las desviaciones elevadas al cuadrado Σ( Y−y
)2 → 0(mínima).

Una estrategia que obtiene la “mejor” línea a través de los puntos debe minimizar la
suma de los errores residuales, como en:

Otro criterio seria minimizar la suma de los valores absolutos de las diferencias, esto
es:

Una tercera estrategia en el ajuste de una línea óptima es el criterio de mínimas. En


este método, la línea se escoge de tal manera que minimice la distancia máxima a la
que se encuentra un punto de la línea recta. Esta estrategia esta mal condicionada
para regresión ya que influye de manera indebida sobre un punto externo, aislado,
cuyo error es muy grande. Se debe notar que el criterio de mínimas, algunas veces
esta bien condicionado para ajustar una función simple a una función complicada.
Una estrategia que ignora las restricciones anteriores es la de minimizar la suma de
los cuadrados de los residuos, r S , de la siguiente manera:

Primera forma de obtener los valores a y b.

La obtención de los valores de a y b que minimizan esta función es un problema que


se puede resolver recurriendo a la derivación parcial de la función en términos de a y
b: llamemos G a la función que se va a minimizar:

EJEMPLO 1
Ajústese una línea recta a los valores x y y de las primeras dos columnas de la
siguiente tabla:
2.- MÉTODO DE RESOLUCIÓN DE ECUACIONES DIFERENCIALES

Dada cierta dificultad para encontrar soluciones exactas a la resolución de


ecuaciones diferenciales, podemos deducir aproximaciones usando métodos
numéricos como herramienta. Dentro de los mismos encontramos los siguientes:

2.1.- MÉTODO DE EULER

Método de Euler

Una de las técnicas más simples para aproximar soluciones de una ecuación
diferencial es el método de Euler, o de las rectas tangentes. Suponga que se
desea aproximar la solución del problema de valor inicial
Observe en la figura 9 que la pendiente de la recta tangente a la curva está dada

por y es aproximadamente igual a la pendiente de la recta secante

siempre y cuando sea pequeño. De aquí obtenemos que

Con lo cual podemos usar el punto para construir el siguiente punto

y así sucesivamente. De esta forma generamos la sucesión de puntos:

los cuales es de esperar que se encuentren cercanos a los puntos

Figura 9
Al sustituir el valor aproximado de la derivada 1.13 en la ecuación diferencial del
problema de valor inicial 1.12 obtenemos el método de Euler

En el siguiente ejemplo podemos observar los pasos dados para la resolución de


ecuaciones diferenciales usando el método de Euler mediante un diagrama de
flujos.

2.2.- MÉTODO DE EULER MEJORADO (PREDICTOR)

Este método se basa en la misma idea del método anterior, pero hace un
refinamiento en la aproximación, tomando un promedio entre ciertas pendientes.

La fórmula es la siguiente:
donde

Para entender esta fórmula, analicemos el primer paso de la aproximación, con


base en la siguiente gráfica:

En la gráfica, vemos que la pendiente promedio corresponde a la pendiente


de la recta bisectriz de la recta tangente a la curva en el punto de la condición

inicial y la “recta tangente” a la curva en el punto , donde es la


aproximación obtenida con la primera fórmula de Euler. Finalmente, esta recta
bisectriz se traslada paralelamente hasta el punto de la condición inicial, y se

considera el valor de esta recta en el punto como la aproximación de


Euler mejorada.

Ejemplo

Aplicar el método de Euler mejorado, para aproximar si:

Solución
Vemos que este es el mismo ejemplo 1 del método anterior. Así que definimos
y encontraremos la aproximación después de cinco iteraciones. A
diferencia del método de Euler 1, en cada iteración requerimos de dos cálculos

en vez de uno solo: el de primero y posteriormente el de .

Para aclarar el método veamos con detalle las primeras dos iteraciones. Primero
que nada, aclaramos que tenemos los siguientes datos iniciales:

En nuestra primera iteración tenemos:

Nótese que el valor de coincide con el (Euler 1), y es el único valor que va

a coincidir, pues para calcular se usará y no .

Esto lo veremos claramente en la siguiente iteración:

Nótese que ya no coinciden los valores de (Euler 1) y el de . El proceso


debe seguirse hasta la quinta iteración. Resumimos los resultados en la siguiente
tabla:

n
0 0 1
1 0.1 1.01
2 0.2 1.040704
3 0.3 1.093988
4 0.4 1.173192
5 0.5 1.28336

Concluímos entonces que la aproximación obtenida con el método de Euler


mejorado es:

Con fines de comparación, calculamos el error relativo verdadero:

Vemos que efectivamente se ha obtenido una mejor aproximación con este


método, reduciendo el error relativo verdadero de un 5.4% hasta un 0.05%. En
nuestro tercer método veremos cómo se reduce aún más este error
prácticamente a un 0%!

Veamos un segundo ejemplo.

Ejemplo
Aplicar el método de Euler mejorado para aproximar y(1.3) si tenemos :

Solución
Tenemos los siguientes datos:

En una primera iteración, tenemos lo siguiente:


Resumimos los resultados en la siguiente tabla:

n
0 1 2
1 1.1 2.385
2 1.2 2.742925
3 1.3 3.07635

Concluímos entonces que la aproximación buscada es:

2.3.- MÉTODO DE RUNGE – KUTTA

Métodos de Runge-Kutta Los Runge-Kutta no es sólo un método sino una


importante familia de métodos iterativos tanto implícitos como explícitos para
aproximar las soluciones de ecuaciones diferenciales ordinarias (E.D.O´s), estas
técnicas fueron desarrolladas alrededor de 1900 por los matematicos alemanes
Carl David Tolmé Runge y Martin Wilhelm Kutta.

El clásico método Runge-Kutta de cuarto orden

Un miembro de la familia de los métodos Runge-Kutta es usado tan comúnmente


que a menudo es referenciado como “RK4” o como “el método Runge-Kutta”.

Definamos un problema de valor inicial como:

Entonces el método RK4 para este problema esta dado por la siguiente ecuación:
Donde

Así, el siguiente valor (yn+1) es determinado por el presente valor (yn) mas el
producto del tamaño del intervalo (h) por una pendiente estimada. La pendiente
es un promedio ponderado de pendientes:

k1 es la pendiente al principio del intervalo;

k2 es la pendiente en el punto medio del intervalo, usando k1 para determinar el


valor de y en el punto tn + h/2 usando el método de Euler

k3 es otra vez la pendiente del punto medio, pero ahora usando k2 para
determinar el valor de y

k4 es la pendiente al final del intervalo, con el valor de y determinado por k3

Promediando las cuatro pendientes, se le asigna mayor peso a las pendientes en


el punto medio:

El método RK4 es un método de cuarto orden lo cual significa que el error por
paso es del orden de h5, mientras que el error total acumulado tiene el orden h4.

Sin entrar en mucho detalle, mencionamos solamente que el método de Runge-


Kutta cambia la dirección en el sentido de que no sigue la misma línea de los
métodos de Euler. De hecho está basado en una aplicación de los polinomios de
Taylor.

Comentamos sin embargo, que el método de Runge-Kutta si contiene como


casos especiales los de Euler.

Se conocen como las reglas o fórmulas de Runge-Kutta de orden cuatro para la


ecuación diferencial:

Ejemplo
Usar el método de Runge-Kutta para aproximar dada la siguiente ecuación
diferencial:

Solución
Primero, identificamos el mismo ejemplo 1 de los dos métodos anteriores.
Segundo, procedemos con los mismos datos:

Para poder calcular el valor de , debemos calcular primeros los valores de

, , y . Tenemos entonces que:


Con el fin de un mayor entendimiento de las fórmulas, veamos la siguiente
iteración:

El proceso debe repetirse hasta obtener . Resumimos los resultados en la


siguiente tabla:

n
0 0 1
1 0.1 1.01005
2 0.2 1.04081
3 0.3 1.09417
4 0.4 1.17351
5 0.5 1.28403

Concluímos que el valor obtenido con el método de Runge-Kutta es:

Finalmente, calculamos el error relativo verdadero:


Con lo cual vemos que efectivamente se ha reducido muchísimo el error relativo.
De hecho observamos que tenemos 6 cifras significativas en la aproximación!

Ejemplo
Usar el método de Runge-Kutta para aproximar dada la ecuación
diferencial:

Solución
Igual que siempre, tomamos y llegaremos a la aproximación en dos
pasos. Con esta aclaración, tenemos los siguientes datos:

Primera Iteración:

Segunda Iteración:
Concluimos entonces que el valor buscado es: