REPÚBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN UNIVERSIDAD FERMÍN TORO ESCUELA DE INGENIERIA EN MANTENIMIENTO

MECÁNICO

SOLUCION DE SISTEMAS DE ECUACIONES LINEALES
FIDEL LÓPEZ C.I. 18778217 ANÁLISIS NUMÉRICO SAIA B

SISTEMAS DE ECUACIONES LINEALES
 En matemáticas y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales (es decir, un sistema de ecuaciones en donde cada ecuación es de primer grado), definidas sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sería el siguiente: 𝟑𝐗 𝟏 + 𝟐𝐗 𝟐 + 𝐗 𝟑 = 1 𝟐𝐗 𝟏 + 𝟐𝐗 𝟐+ 4𝐗 𝟑 =-2 − 𝐗 𝟏 + 𝟐𝐗 𝟐 − 𝟑𝐗 𝟑 =0  El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y x3 que satisfacen las tres ecuaciones.  El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de señales, análisis estructural, estimación, predicción y más generalmente enprogramación lineal así como en la aproximación de problemas no lineales de análisis numérico.

SISTEMAS DE ECUACIONES LINEALES
 El método de Gauss y sus variantes son conocidos como métodos directos para resolver el problema inicial Ax = b. Se ejecutan a través de un número finito de pasos y generan una solución x que sería exacta sino fuera por los errores de redondeo. En contraste, un método iterativo da lugar a una sucesión de vectores que idealmente converge a la solución. El cálculo se detiene cuando se cuenta con una solución aproximada con cierto grado de precisión especificado de antemano o después de cierto número de iteraciones. Los métodos indirectos son casi siempre iterativos.

 Un método iterado de resolución del sistema Ax = b es aquel que genera, a partir de un vector inicial x0, una sucesión de vectores x1, x2, . . . xn.. "Un método iterado se dirá que es consistente con el sistema Ax = b, si el límite x de la sucesión (xn), en caso de existir, es solución del sistema. Se dirá que el método es convergente si la sucesión generada por cualquier vector inicial x0 es convergente a la solución del sistema".Es evidente que si un método es convergente es consistente, sin embargo, el recíproco no es cierto.

Métodos De Eliminación Gaussiana
 El método de eliminación Gaussiana para la solución de sistemas de ecuaciones lineales consiste en convertir a través de operaciones básicas llamadas operaciones de renglón un sistema en otro equivalente más sencillo cuya respuesta pueda leerse de manera directa. El método de eliminación Gaussiana es el mismo para sistemas de ecuaciones 2×2, 3×3, 4×4 y así sucesivamente siempre y cuando se respete la relación de al menos una ecuación por cada variable.  Es necesario primeramente conocer las operaciones básicas de renglón las cuales son presentas a continuación:

 1. Ambos miembros de una ecuación pueden multiplicarse por una constante diferente de cero.  2. Los múltiplos diferentes de cero de una ecuación pueden sumarse a otra ecuación  3. El orden de las ecuaciones es intercambiable.

Métodos De Eliminación Gaussiana
 El proceso de eliminación de Gaussisana o de Gauss, consiste en realizar transformaciones elementales en el sistema inicial (intercambio de filas, intercambio de columnas, multiplicación de filas o columnas por constantes, operaciones con filas o columnas, . . . ), destinadas a transformarlo en un sistema triangular superior, que resolveremos por remonte. Además, la matriz de partida tiene el mismo determinante que la matriz de llegada, cuyo determinante es el producto de los coeficientes diagonales de la matriz.  Uno de los problemas de la eliminación Gaussiana es que debemos dividir entre el pivote; si este es un número muy pequeño, entonces un error de redondeo puede arrojar serias dudas sobre la respuesta final. En forma general este método propone la eliminación progresiva de variables en el sistema de ecuaciones, hasta tener sólo una ecuación con una incógnita. Una vez resuelta esta, se procede por sustitución regresiva hasta obtener los valores de todas las variables.

Método de Gauss-Jordan
 Este método, que constituye una variación del método de eliminación de Gauss, permite resolver hasta 15 o 20 ecuaciones simultáneas, con 8 o 10 dígitos significativos en las operaciones aritméticas de la computadora. Este procedimiento se distingue del método Gaussiano en que cuando se elimina una incógnita, se elimina de todas las ecuaciones restantes, es decir, las que preceden a la ecuación pivote así como de las que la siguen.

Método de Gauss-Jordan
 El proceso de eliminación de Gauss - Jordán consiste en realizar transformaciones elementales en el sistema inicial, destinadas a transformarlo en un sistema diagonal. El número de operaciones elementales de este método, es superior al del método de Gauss (alrededor de un 50% más).  Sin embargo, a la hora de resolver el sistema de llegada por remonte, el número de operaciones es menor, motivo por el cual, el método de Gauss Jordán es un método computacionalmente bueno cuando tenemos que resolver varios sistemas con la misma matriz A y resolverlos simultáneamente, utilizando el algoritmo de Gauss-Jordán.  En base a lo anteriormente expuesto, solo haríamos un proceso de eliminación en la matriz y la resolución de un sistema con esta matriz es muy fácil. Un ejemplo en el que se suele usar Gauss - Jordán es en el cálculo de la matriz inversa, ya que calcular la inversa de A, es calcular N sistemas con la misma matriz.

Descomposición LU
 En el álgebra lineal, la factorización o descomposición LU (del inglés Lower-Upper) es una forma de factorización de una matriz como el producto de una matriz triangular inferior y una superior. Debido a la inestabilidad de este método, por ejemplo si un elemento de la diagonal es cero, es necesario premultiplicar la matriz por una matriz de permutación. Método llamado factorización o con pivote.
 Esta descomposición se usa en el análisis numérico para resolver sistemas de ecuaciones (más eficientemente) o encontrar las matrices inversas.

Descomposición LU
 El método de Descomposición LU se basa en demostrar que una matriz A se puede factorizar como el producto de una matriz triangular inferior L con una matriz triangular superior U, donde en el paso de eliminación sólo se involucran operaciones sobre los coeficientes de la matriz, permitiendo así evaluar los términos independientes de manera eficiente.  La implementación del algoritmo de la Descomposición LU tiene sus variantes en cuanto a los valores iniciales de la diagonal que tomen las matrices L y U, es decir si los valores de la diagonal de la matriz L tiene números 1, formalmente esto se refiere a la Descomposición de Doolitle. Pero si los valores de la diagonal de la matriz U tiene números 1, formalmente esto se refiere a la Descomposición de Crout

Factorización De Cholesky
 En matemáticas, la factorización o descomposición de Cholesky toma su nombre del matemático André-Louis Cholesky, quien encontró que una matriz simétrica definida positiva puede ser descompuesta como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior. La matriz triangular inferior es el triángulo de Cholesky de la matriz original positiva definida. El resultado de Cholesky ha sido extendido a matrices con entradas complejas. Es una manera de resolver sistemas de ecuaciones matriciales y se deriva de la factorización LU con una pequeña variación.  Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el producto de una matriz triangular inferior L y una matriz triangular superior U; esto recibe el nombre de factorización LU. Sin embargo, si A es simétrica y definida positiva, se pueden escoger los factores tales que U es la transpuesta de L, y esto se llama la descomposición o factorización de Cholesky. Tanto la descomposición LU como la descomposición de Cholesky son usadas para resolver sistemas de ecuaciones lineales. Cuando es aplicable, la descomposición de Cholesky es dos veces más eficiente que la descomposición LU.

Factorización De Cholesky
 Una matriz simétrica es aquella donde Aij = Aji para toda i y j, En otras palabras, [A] =[A] T. Tales sistemas ocurren comúnmente en problemas de ambos contextos: el matemático y el de ingeniería. Ellos ofrecen ventajas computacionales ya que sólo se necesita la mitad de almacenamiento y, en la mayoría de los casos, sólo se requiere la mitad del tiempo de cálculo para su solución. Al contrario de la Descomposición LU, no requiere de pivoteo.  El método de Factorización de Cholesky se basa en demostrar que si una matriz A es simétrica y definida positiva en lugar de factorizarse como LU, puede ser factorizada como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior, es decir los factores triangulaes resultantes son la traspuesta de cada uno.  A = L . LT

Factorización de QR

 En álgebra lineal, la descomposición o factorización QR de una matriz es una descomposición de la misma como producto de una matriz ortogonal por una triangular superior. La descomposición QR es la base del algoritmo QR utilizado para el cálculo de los vectores y valores propios de una matriz.  La descomposición QR de una matriz cuadrada real A es  Donde Q es una matriz ortogonal (QTQ = I ) y R es una matriz triangular superior.

Factorización de QR
 En muchas aplicaciones el número de filas (M) de una matriz de coeficientes A mxn puede ser 3 al número de columnas (N). La Factorización QR consiste en descomponer la matriz Amxn en el producto de dos matrices:  Una matriz Ortogonal: Qmxn ® QT. Q = INxN  Una matriz Triangular Superior: U = RNxN  Para encontrar las matrices Q y R se utiliza un método basado en Transformaciones Sucesivas de Householder.

Método De Gauss Seidel
 En análisis numérico el método de Gauss-Seidel es un método iterativo utilizado para resolver sistemas de ecuaciones lineales. El método se llama así en honor a los matemáticos alemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel y es similar al método de Jacobi.

 Aunque este método puede aplicarse a cualquier sistema de ecuaciones lineales que produzca una matriz (cuadrada, naturalmente pues para que exista solución única, el sistema debe tener tantas ecuaciones como incógnitas) de coeficientes con los elementos de su diagonal nonulos, la convergencia del método solo se garantiza si la matriz es diagonalmente dominante o si es simétrica y, a la vez, definida positiva.

Método De Gauss Seidel
 El Método de Gauss Seidel emplea valores iniciales y después itera para obtener estimaciones refinadas de la solución; es particularmente adecuado para un gran número de ecuaciones, lo cual en cierto modo lo hace un método más comúnmente usado. La fórmula utilizada para hallar los xi viene dada por el despeje de cada una de las xi en cada una de las ecuaciones y se les da un valor inicial a cada xi de cero.  Observase que en el método de Gauss-Seidel los valores actualizados de xi sustituyen de inmediato a los valores anteriores, mientras que en el método de Jacobi todas las componentes nuevas del vector se calculan antes de llevar a cabo la sustitución. Por contra, en el método de GaussSeidel los cálculos deben llevarse a cabo por orden, ya que el nuevo valor xi depende de los valores actualizados de x1, x2, ..., x i-1.  La desventaja del método de Gauss-Seidel es que no siempre converge a la solución exacta o algunas veces los hace de manera muy lenta. Únicamente es confiable para aquellos sistemas dominantes diagonalmente.

Método de Jacobi

 En análisis numérico el método de Jacobi es un método iterativo, usado para resolver sistemas de ecuaciones lineales del tipo . El algoritmo toma su nombre del matemático alemán Carl Gustav Jakob Jacobi. El método de Jacobi consiste en usar fórmulas como iteración de punto fijo.

 El Método de Jacobi transforma una matriz simétrica en una matriz diagonal al eliminar de forma simétrica los elementos que están fuera de la diagonal. Desafortunadamente, el método requiere un número infinito de operaciones, ya que la eliminación de cada elemento no cero a menudo crea un nuevo valor no cero en el elemento cero anterior. Si A es diagonalmente dominante, entonces la sucesión que resulta de la iteración de Jacobi converge a la solución de Ax = b para cualquier vector inicial Xo.

Sign up to vote on this title
UsefulNot useful