You are on page 1of 5

1.

METODO GAUSS-SEIDEL
El método de Gauss-Seidel también se conoce como el método de desplazamientos
sucesivos. Para ilustrar la técnica,

 Considere la solución de la ecuación no lineal dada por:

f ( x)

La función anterior se reorganiza y se escribe como:

x  g ( x)
Si x(K) es una estimación inicial de la variable x, se forma la siguiente secuencia
iterativa.

x( k 1)  g ( x( k ) )
Se obtiene una solución cuando la diferencia entre el valor absoluto de la
iteración sucesiva es menor que una precisión especificada, es decir,

x ( k 1)  x ( k )  
Donde Ɛ es la precisión deseada.
En algunos casos, se puede utilizar un factor de aceleración para mejorar la tasa
de convergencia. Si a> 1 es el factor de aceleración, el algoritmo de Gauss-
Seidel se convierte en

 Ahora consideramos el sistema de n ecuaciones en n variables.

Resolviendo una variable de cada ecuación, las funciones anteriores se


reorganizan y escriben como:
El proceso de iteración se inicia asumiendo una solución aproximada para cada
una de las variables independientes (x1(0), x2(0),…, xn(0)). La ecuación anterior da
como resultado una nueva solución aproximada (x1(1), x2(1),…, xn(1)).). En el
método de Gauss-Seidel, los valores actualizados de las variables calculadas en
las ecuaciones anteriores se utilizan inmediatamente en la solución de las
ecuaciones posteriores. Al final de cada iteración, los valores calculados de todas
las variables se comparan con los valores anteriores. Si todos los cambios en las
variables están dentro de la precisión especificada, una solución ha convergido,
de lo contrario se debe realizar otra iteración. La tasa de convergencia se puede
aumentar utilizando un factor de aceleración adecuado a, y la secuencia iterativa
se convierte en:

2. METODO DE NEWTON-RAPHSON
El método más utilizado para resolver ecuaciones algebraicas no lineales simultáneas
es el método de Newton-Raphson. El método de Newton es un procedimiento de
aproximación sucesiva basado en una estimación inicial de lo desconocido y el uso de
la expansión de la serie de Taylor.

 Considere la solución de la ecuación unidimensional dada por:

Si x(0) es una estimación inicial de la solución, y Δx(0) es una pequeña desviación


de la solución correcta, debemos tener

Expandiendo el lado izquierdo de la ecuación anterior en la serie de Taylor sobre


los rendimientos de x(0)
Suponiendo que el error Δx(0) es muy pequeño, los términos de orden superior
pueden ser descuidados, lo que resulta en:

Donde

Agregar Δx(0) a la estimación inicial resultará en la segunda aproximación

El uso sucesivo de este procedimiento produce el algoritmo de Newton-Raphson

La ecuación de Δx(k) puede ser reorganizado como


Donde

La relación de Δc(k) demuestra que la ecuación no lineal f(x) - c = 0 se aproxima


por la línea tangente en la curva en x(k). Por lo tanto, se obtiene una ecuación
lineal en términos de los pequeños cambios en la variable. La intersección de la
línea tangente con el eje x da como resultado x(k+1).

 Consideremos ahora las ecuaciones n-dimensionales. Expandiendo en la serie


de Taylor sobre las estimaciones iniciales y descuidando todos los términos de
orden superior, lleva a la expresión:

O en forma matricial

En forma corta, se puede escribir como

O
Y el algoritmo de Newton-Raphson para el caso n-dimensional se convierte en

Donde

J(k) se llama la matriz jacobiana. Los elementos de esta matriz son las derivadas
parciales evaluadas en x(k). Se supone que J(k) tiene un inverso durante cada
iteración. El método de Newton, aplicado a un conjunto de ecuaciones no
lineales, reduce el problema para resolver un conjunto de ecuaciones lineales
con el fin de determinar los valores que mejoran la precisión de las estimaciones.

La solución de Δx(k) por inversión es muy ineficiente. No es necesario obtener el


inverso de J(k). En su lugar, se obtiene una solución directa mediante una
factorización triangular ordenada de manera óptima. En MATLAB, la solución de
ecuaciones lineales simultáneas ΔC = J ΔX se obtiene utilizando el operador de
división de matriz \ (Le., ΔX = J \ ΔC) que se basa en la factorización triangular y
la eliminación de Gauss.

El método de Newton tiene la ventaja de converger cuadráticamente cuando


estamos cerca de una raíz. Sin embargo, se requieren más evaluaciones
funcionales durante cada iteración. Una limitación muy importante es que
generalmente no converge a una solución desde un punto de partida arbitrario.

You might also like