You are on page 1of 25

SOLUÇÃO DE SISTEMA DE EQUAÇÕES

Ó A solução de um sistema de equações é necessária na grande maioria


dos problemas de engenharia

Problemas de interpolação e ajuste de curvas

Solução de equações diferenciais - simulação de problemas de engenharia

Ó Maior parte do tempo de uma simulação por elementos finitos,


diferenças finitas ou outro método numérico é gasto na
resolução do sistema de equações obtido com a discretização

Ó Necessidade de métodos robustos e rápidos

SISTEMA DE n EQUAÇÕES E n INCÓNITAS

­ a11 x1  a12 x2    a1n xn b1


°a21 x1  a22 x2    a2 n xn b2
® 
°a x  a x    a x bn
¯ n1 1 n2 2 nn n

Ó Se os coeficientes aij são constantes, o sistema é dito linear

Ó O sistema acima pode ser representado na forma de matriz:

ª a11 a12  a1n 1 a1n º ª x1 º ª b1 º


«a21 a22  a2 n 1 a 2 n » « x2 » «b2 »
«a a32  a3n 1 a3n » « x3 » «b »
« 31 »« » Ax b
« 3»
«     »«  » «»
«¬ an1 an 2  ann a ann »¼ ¬ xn ¼ ¬bn ¼
MÉTODOS DE SOLUÇÃO

Ó MÉTODOS DIRETOS

A solução exata (a menos de erros de truncamento do computador)


é determinada após um número finito de operações

Requer mais memória de armazenamento


Mais robusto
Mais rápido

Ó MÉTODOS ITERATIVOS

Fornece uma sequência de soluções aproximadas que convergem


quando o número de passos tende a infinito

Menor necessidade de memória de armazenamento


Problemas de convergência

MÉTODOS DIRETOS
SISTEMAS TRIANGULARES

ªu11 u12  u1n 1 u1n º ª x1 º ª b1 º


«0 u 22  u 2 n 1 u 2 n » « x2 » «b2 »
«0 0  u3n 1 u3n » « x3 » «b »
« »« » « 3»
«     »«  » «»
«¬ 0 0  0 u nn »¼ ¬ xn ¼ ¬bn ¼

Se uii z 0, i 1,2,, n as incógnitas podem ser facilmente calculadas


bn
linha n : xn ;
u nn
bn 1  u n 1,n xn
linha n - 1 : u n 1,n 1 xn 1  u n 1,n xn bn 1 o xn 1 ;
u n 1,n 1

n
bi  ¦u
k i 1
i , k xk RETROSUBSTITUIÇÃO
linha i : xi
uii
Se a matriz for triangular inferior:

ª l11 0  0 0 º ª x1 º ª b1 º
«l21 l22  0 0 » « x2 » «b2 »
«l l32  0 0 » « x3 » «b »
« 31 »
«    » ««  »» « 3»
«»
«¬ln1 ln 2  lnn a lnn »¼ ¬ xn ¼ ¬bn ¼

A solução é calculada da seguinte forma:


b1
linha 1 : x1 ;
l11
b2  l2,1 x1
linha 2 : l2,1 x1  l2, 2 x2 b2 o x2 ;
l22

i 1
bi  ¦ li ,k xk SUBSTITUIÇÃO A FRENTE
k i
linha i : xi
lii n
1 1
NÚMERO DE OPERAÇÕES: n  ¦ (i  1)
i 1
n  n(n  1) | n 2
2 2

ELIMINAÇÃO GAUSSIANA

Ó Eliminar as variáveis de uma maneira sistemática até obter um


sistema triangular, de fácil solução
­ a11 x1  a12 x2    a1n xn b1
°a21 x1  a22 x2    a2 n xn b2
® 
Eliminar x1 das (n-1) úlimas equações
°a x  a x    a x
¯ n1 1 n2 2 nn n bn Se a11 z 0

­a11 x1  a12 x2    a1n xn b1


°§ a · § a · § a21 · § a ·
°¨ a21  21 a11 ¸ x1  ¨ a22  21 a12 ¸ x2    ¨ a2 n  a1n ¸¸ xn ¨¨ b2  21 b1 ¸¸
°¨© a11 ¸
¹
¨
© a11 ¸
¹
¨
© a11 ¹ © a11 ¹
°

® 0
°
°
°0 x1  §¨ an 2  an1 a12 ·¸ x2    §¨ ann  an1 a1n ·¸ xn § a ·
¨¨ bn  n1 b1 ¸¸
°¯ ¨ a11 ¸ ¨ a11 ¸ a11 ¹
© ¹ © ¹ ©
Após o primeiro passo, o sistema fica sendo:

­a11 x1  a12 x2    a1n xn b1 Onde mi1


ai1
; i 2,3,, n
°° ( 2)
a22 x2    a2( 2n) xn b2( 2)
a11
® aij( 2) aij  mi1a1 j ; i 2,3,, n
° bi( 2) bi  mi1b1 ; i 2,3,, n
°¯ an( 22) x2    ann
( 2)
xn bn( 2)

Eliminar x2 das (n-2) últimas equações

Se a22 z 0
( 2)

­a11 x1  a12 x2  a13 x3    a1n xn b1 ai(22)


° ( 2)
a22 x2  a23
( 2)
x3    a2( 2n) xn b2( 2) mi 2 ( 2)
; i 3,4,, n
°° a22
®
( 3)
a33 x3    a3(3n) xn b3(3) aij(3) aij( 2)  mi 2 a2( 2j) ; i 3,4,, n
° bi(3) bi( 2)  mi 2b2( 2) ; i 3,4,, n
°
°¯ an(33) x3    ann
( 3)
xn bn(3)

E assim por diante, até obter um sistema da forma

­a11(1)
x1  a12
(1)
x2  a13
(1)
x3    a1(1n) xn b1(1)
°
°°
( 2)
a22 x2  a23
( 2)
x3    a2( 2n) xn b2( 2)
® a33( 3)
x3    a3(3n) xn b3(3)
°
° (n)
°¯ ann xn bn( n )

O SISTEMA TRIANGULAR PODE SER FACILMENTE RESOLVIDO


ATRAVÉS DE UMA RETROSUBSTITUIÇÃO

Ó Os elementos a11
(1) ( 2)
, a22 ,, an( n1,1n)1 são denominados de Pivots

Ó O lado direito do sistema de equações é modificado da mesma forma


que os coeficientes das equações

Ó Melhor tratar o sistema na forma matricial, com o lado direito do sistema


sendo a coluna n+1 da matriz, conforme mostrado a seguir
ª a11 a12  a1n 1 a1n b1 º
ai(,kn)1 bi( k ) , i 1,2,, n «a21 a22  a2 n 1 a2 n b2 »
«a a32  a3n 1 a3n b3 »
« 31 »
«     »
«¬ an1 an 2  ann a ann bn »¼

ALGORÍTMO

ELIMINAÇÃO RETROSUBSTITUIÇÃO
For k 1, n  1 For i n,1,1
For i k  1, n sum 0
aik( k ) For k i  1, n
mik (k )
akk sum sum  aik(i ) * xk
For j k  1, n  1 end
aij( k 1) aij( k )  mik akj( k ) ai(,in)1  sum
xi
end aii(i )
end end
end

NÚMERO DE OPERAÇÕES:

ELIMINAÇÃO RETROSUBSTITUIÇÃO
n 1 n

¦
k 1
(n  k )(n  k  1) | 13 n 3 ¦ (i  1)
i 1
1
2
n(n  1) | 12 n 2

Ó O maior custo computacional ocorre no processo de eliminação

Ó Supor que o tempo de cada operação seja de 1 microsegundo t 10 6 s

O tempo em segundos de cada parte do algoritmo é mostrado abaixo

n Eliminação Retrosubstituição
10 0.0050 s 0.0008 s
100 5s 0.075 s
1000 5000 s 7.5 s
PIVOTAMENTO

RESOLVER O SISTEMA POR ELMINAÇÃO GAUSSIANA

­ x1  x2  x3 1 ª1 1 1 1º
°
® 1 2
x  x  2 x3 2 Ÿ «1 1 2 2»
°̄ x1  2 x2  2 x3 1 «¬1 2 2 1»¼

Sistema não singular, e a solução é: x1  x2 x3 1


Após o primeiro passo na eliminação, a matriz fica sendo:

ª1 1 1 1º
«0 0 1 1» o a22
( 2)
0
«¬0 1 1 0»¼

A eliminação não pode continuar pelo procedimento normal.

Uma solução seria trocar a posição das linhas 2 e 3, o que já fornece a matriz triangular

OUTRO EXEMPLO: RESOLVER O SISTEMA POR ELMINAÇÃO GAUSSIANA

­ x1  x2  x3 1 ª1 1 1 1º
°
® x1  1.0001x2  2 x3 2 Ÿ «1 1.0001 2 2»
°̄ x1  2 x2  2 x3 1 «¬1 2 2 1»¼

Sistema não singular, e a solução é: x1 1 e  x2 x3 1.0001


O sistema triangular obtido após a eliminação sem troca de linhas é:

ª1 1 1 1 º
«0 0.0001 1 1 »
¬« 0 0 9999 10000 ¼»
O processo de retrosubstituição usando uma precisão de 3 casas decimais fornece:

x1 0, x2 0, x3 1.000 Resultado incorreto

Se as linhas 2 e 3 fossem trocadas durante o processo de eliminação, a solução


também usando uma precisão de 3 casas decimais seria
x1 1.000, x2 1.000, x3 1.000 Resultado correto usando uma
precisão de 3 casas decimais
Ó Para evitar falha catastrófica (divisão por zero) ou resultados errados
é necessário fazer uma escolha criteriosa dos PIVOTS usados na eliminação

PIVOTAMENTO PARCIAL
PIVOTAMENTO COMPLETO
PIVOTAMENTO PARCIAL k
No passo k do processo de eliminação
x Escolher r como o menor inteiro tal que k
(k )
ark max aik( k ) , k d i d n r
x Trocar linhas k e r
PIVOTAMENTO COMPLETO k s
No passo k do processo de eliminação

x Escolher r e s como os menores inteiros tal que k


ars( k ) max aij( k ) , k d i, j d n r
x Trocar linhas k e r , e colunas k e s

Ó A Eliminação Gaussiana deve ser feita sempre com PIVOTAMENTO


para garantir estabilidade do método

Ó Na grande maioria dos casos, PIVOTAMENTO PARCIAL é suficiente


e deve ser usada no lugar de PIVOTAMENTO COMPLETO

Ó PIVOTAMENTO COMPLETO não é muito usado devido ao grande


tempo computacional gasto no processo de busca do pivot.

Ó PIVOTAMENTO não é necessário em dois casos particulares

MATRIZ DIAGONAL DOMINANTE


n
aii t ¦a
j 1
ij , i 1,2,, n.
j zi

MATRIZ SIMÉTRICA E POSITIVA-DEFINIDA

AT A (aij a ji ) e xT Ax ! 0,  x z 0
DECOMPOSIÇÃO LU
Ó Muitas vezes o mesmo sistema é resolvido com
diferentes termos independente (lado direito do sistema)
Ax1 b1 ; Ax 2 b2 ; 
Ó Pode-se evitar o processo repetido de eliminação gaussiana através
de uma decomposição da matriz A

Ó Todo matriz não singular pode ser decomposta como o produto de uma matriz
triangular inferior L e uma matriz triangular superior U

§1 0 0  0· § u11 u12 u13  u1n ·


¨ l21 1 0  0¸ ¨ 0 u 22 u 23  u 2 n ¸¸
¨ ¸ ¨
A LU; L ¨ l31 l32 1  0 ¸ ; U ¨ 0 0 u33  u3n ¸
¨  ¸ ¨  ¸
¨l ln 2  ln,n 1 1 ¸¹ ¨ 0 0  0 u nn ¸¹
© n1 ©

Ó A decomposição não é única.

Ó Uma vez feita a decomposição, a solução do sistema fica reduzida a solução


de dois sistemas triangulares:

Sistema triangular inferior


, b Ÿ
L Ux Sistema triangular superior
y
Resolver Ly b e depois Ux y

Ó A matriz L corresponde aos coeficientes mik da eliminação gaussiana e a matriz


U corresponde a matriz triangular superior obtida na eliminação gaussiana
MÉTODO DE CHOLESKI

Ó Matriz simétrica, positiva-definida

Ó Escolher L e U de forma que U LT

ukk mkk e u pk mkp

1/ 2
§ k 1 ·
mkk ¨ akk  ¦ mkp2
¸
¨ ¸
© p 1 ¹
k 1
aik  ¦ mip mkp
k  1,, n
p 1
mik ,i
mkk

MATRIZES DE BANDA

Ó Matrizes onde os elementos diferentes de zero estão localizados em


uma banda centrada na diagonal principal da matriz

Ó As matrizes obtidas em resolução de um problema de valor de contorno


são geralmente de banda, daí a importância do estudo deste tipo de matriz
p
q aij 0 se j ! i  p ou i ! j  q
0
Banda da Matriz : w p  q 1

Ó A estrutura de banda não é perdida, se não forem realizadas nenhuma


troca de linhas ou coluna (pivotamento parcial ou completo)

Ó As matrizes L e U serão matrizes de banda. mij 0 se j ! i ou i ! j  q


uij 0 se j ! i  p ou i ! j
EXEMPLO
§a a · §u u ·
¨a aa ¸ ¨m a' a' ¸
Ó Sem pivotamento ¨ ¸ ¨ ¸
A estrutura de banda não é perdida ¨a aaa ¸ Ÿ 1 passo Ÿ ¨ m a' a' a' ¸
¨ aaaa ¸ ¨ a a a a ¸
¨ aaa a¸ ¨ a a a a¸
¨ ¸ ¨ a a a ¸¹
© aa a¹ ©

Ó Com pivotamento (troca linha 1 e 3) §a aaa · §u u u u ·


¨a aa ¸ ¨m a' a' a' ¸
A estrutura de banda é perdida ¨ ¸ ¨ ¸
¨a a ¸ Ÿ 1 passo Ÿ ¨ m a' a' a' ¸
¨ aaaa ¸ ¨ a a a a ¸
¨ aaaa ¸ ¨ a a a a¸
¨ ¸ ¨ a a a ¸¹
© a a a¹ ©

Ó Os algoritmos devem ser escritos levando em conta a estrutura da matriz

Ó Grande economia de tempo computacional

MATRIZ TRIDIAGONAL § a1 c1 0  0 ·
¨b a c  0 ¸¸
¨ 2 2 2
Ó Matriz de banda com p = q = 1 ¨ ¸
¨0 bn 1 an 1 cn 1 ¸
¨0 0  bn an ¸¹
©

Ó Decomposição LU da matriz triagonal:


§ a1 c1 0  0 · § 1 0 0  0 ·§D1 c1 0  0 ·
¨b a c  0 ¸¸ ¨ E 2 1 0  0 ¸¨¨ 0 D 2 c2  0 ¸¸
¨ 2 2 2 ¨ ¸
¨ ¸ ¨  ¸¨  ¸
¨0 bn 1 an 1 cn 1 ¸ ¨ 0 E n 1 1 0 ¸¨ 0 0 D n 1 cn 1 ¸
¨0 0 
© bn an ¸¹ ¨© 0 0  E n 1 ¸¹¨© 0 0  0 D n ¸¹



L U
bk
D1 a1 , E k , Dk ak  E k ck 1 ; k 2,3,, n
D k 1
Ó A solução do sistema é feita através de uma resolução de sistemas triangulares

g1 f1 , g i f i  E i g i 1 ; i 2,3,, n
gn g i  ci xi 1
xn , xi ; i n  1, n  1,,2,1
Dn Di
ANÁLISE DE ERRO DA DECOMPOSIÇÃO LU

Ó Considere o sistema Ax b
Ó Asolução do sistema sempre apresenta algum erro devido a
erros de truncamento que ocorrem durante o processo

Ó Denominar solução obtida como x

Ó Definir vetor resíduo como R b  Ax

R 0 Ÿ x x Solução calculada é a solução exata

Ó Espera-se que quando o vetor resíduo seja próximo a zero,


a solução calculada seja próxima da solução exata

Ó Isto nem sempre é verdade !

Considere o exemplo A §¨10..2969 0.8648 · e b § 0.8642 ·


¸ ¨ 0.1440 ¸
© 2161 0.1441¹ © ¹

Solução exata: x §¨ 2.0000 ·¸


©  2.0000 ¹
Solução obtida:

x §¨ 00.9911 ·¸ Ÿ
© .4870 ¹
R b  Ax §¨ 0 .8642 ·  §1.2969 0.8648 ·§ 0.9911 · §  10 8 ·
¸ ¨ ¸¨ ¸ ¨ 8 ¸
© 0.1440 ¹ © 0.2161 0.1441¹©  0.4870 ¹ © 10 ¹

Apesar do vetor resíduo ser muito pequeno, a solução obtida


não é muito distante da solução exata

Este problema pode ser explicado analisando-se o processo


de eliminação gaussiana
Processo de eliminação gaussiana

a21 0.2161
( 2)
a22 a22  a12 0.1441  u 0.8648 0.1441  0.1440999923 | 10 8
a11 1.2969
a 0.2161
b2( 2) b2  21 b1 0.1440  u 0.8642 0.1440  0.1440000154 | 10 8
a11 1.2969
( 2)
b2
Ÿ x2 ( 2)
0.4870
a22

Ó Uma pequena variação no elemento 0.1441 causa uma


( 2)
grande variação no elemento a22 e consequentemente em x2

Ó Para uma análise da precisão da eliminação gaussianda,


é necessário usar o conceito de norma de vetores e matrizes

NORMA DE VETOR E MATRIZ

Ó Escalar não negativo que em algum sentido mede a


magnitude de um vetor ou matriz
Ó Norma p de um vetor

x p
x1
p
 x2
p
   xn
p 1/ p
,1d p  f

Norma Euclideana: p=2 x 2


x 1
2 2
 x2    xn
2 1/ 2

Norma do máximo: p=infinito x f


max xi
1di d n

Ó Propriedades de uma Norma

x ! 0, se x z 0 e x 0, se x 0
Dx D x , D escalar
xy d x  y
Ax
Ó Norma de uma Matriz A max
xz 0 x
n
Para Norma do máximo, pode-se mostrar que A f
max
1di d n
¦a
j 1
ij

Relação entre a norma de um vetor e de uma matriz: Ax d A x

ANÁLISE DE PERTURBAÇÃO

Ó Analisar o efeito de pequenas perturbações


na matriz A e vetor b na solução x

Ax b Ÿ x A 1b
A(x  Gx) (b  Gb) Ÿ Gx A 1Gb Ÿ Gx d A 1 Gb
A  GA (x  Gx) b Ÿ AGx  GA(x  Gx) 0 Ÿ Gx  A 1GA(x  Gx)
Gx GA
Gx d A 1 GA x  Gx Ÿ d A 1 A
x  Gx
A
K (A)

Gx Gb
Como b Ax Ÿ b d A x Ÿ d K ( A)
x b

Condicionamento da matriz

Se o condicionamento da matriz for alto, pequenas perturbações


na matriz A e no vetor b provacam grandes perturbações na solução

A Matriz é dita mal-condicionada e a solução do problema torna-se imprecisa

Ó Para determinar o condionamento de uma matriz é necessário calcular


a norma da matriz inversa, que normalmente não é conhecida

Ó No exemplo anterior: A 1 108 u §¨ 00.1441  0.8648 ·


© .2161 1.2969 ¸¹
Ÿ A 1 (1.2969  0.2161) u 108 1.513 u 108
A (1.2969  0.8648) 2.1671
Ÿ K ( A) | 3.3 u 108 o Matriz mal - condiciona da
Exercício 1

Escreva uma rotina SciLab para solução de um sistema linear sem pivotamento e uma outra com
pivotamento parcial. Escreva um programa principal que realize as seguintes operações:

1. Defina a matrix A e o vetor b do sistema linear Ax = b, onde

ª 3.03  12.1 14 º ª 119º


A « 3.03 12.1  7 » ; b « 120 »
« » « »
«¬ 6.11  14.2 21 »¼ «¬ 139»¼

2. Chame a função para solução do sistema sem pivotamento

3. Chame a função para solução do sistema com pivotamento

Explique o que ocorreu.


Exercício 2

Modifique a rotina desenvolvida de forma a resolver o sistema linear Ax = b, onde



‫ܣ‬௜௝ ൌ ܾ௜ ൌ ෍ ‫ܣ‬௜௝
௜ା௝ାଵ
௝ୀଵ

Observe que a solução exata do sistema é ‫ݔ‬௜ ൌ ͳ


MÉTODOS ITERATIVOS

Fornece uma sequência de soluções aproximadas que convergem


quando o número de passos tende a infinito

x ( 0) Ÿ x (1) Ÿ x ( 2) Ÿ  Ÿ x ( k )

Chute inicial
lim x ( k ) x
k of

Usado para matrizes esparsas e grandes


Menor necessidade de memória de armazenamento
Eliminação Gaussiana “enche” a matriz
Problemas de convergência
MÉTODO DE JACOBI

O sistema de equações pode ser escrito como


n

¦a x
j 1
ij j bi , para i 1,2,, n

n
 ¦a x
j 1
ij j  bi
n
aii xi  ¦a xj 1
ij j bi Ÿ xi
j zi

aii
, para i 1,2,, n
j zi

No Método de Jacobi, a sequência de aproximações é obtida por:

n
 ¦a x
j 1
ij
(k )
j  bi
j zi
xi( k 1) , para i 1,2,, n
aii

MÉTODO DE GAUSS-SEIDEL

No método de Jacobi, os novos valores de x só são usados no próximo passo

No método de Gauss-Seidel, os novos valores de x são usados


a medida que eles são obtidos
n Para j<1, os novos valores de
¦a x
j 1
ij j bi , para i 1,2,, n xj já foram calculados

i 1 n

i 1 n
 ¦a x  ¦a xij j ij j  bi
¦a x
j 1
ij j  aii xi  ¦a x
j i 1
ij j bi Ÿ xi
j 1

aii
j i 1
, para i 1,2,, n

No Método de Gauss-Seidel, a sequência de aproximações é obtida por:

i 1 n
 ¦ aij x (jk 1)  ¦a x
j i 1
ij
(k )
j  bi
xi( k 1)
j 1
, para i 1,2,, n
aii
§ 4 1 1 0 · §1·
¨  1 4 0  1¸ ¨ ¸
EXEMPLO: Resolver Ax = b A ¨  1 0 4  1¸ ; b ¨ 02 ¸
¨ 0 1 1 4 ¸ ¨1¸
§ 0· © ¹ © ¹
( 0) ¨ 0¸
Chute inicial : x ¨ 0¸
¨ 0¸
© ¹
MÉTODO DE JACOBI

1 2 0 1
x1(1) 0.25 ; x2(1) 0.5 ; x3(1) 0.0 ; x4(1) 0.25
4 4 4 4
 (1) u 0.5  (1) u 0.0  (0.0) u 0.25  1
x1( 2) 0.375 ; x2( 2) 
4

k X1(k) X2(k) X3(k) X4(k)


0 0.0 0.0 0.0 0.0
1 0.25 0.5 0.0 0.25
2 0.375 0.625 0.125 0.375
3 0.4375 0.6875 0.1875 0.4375

8 0.49805 0.74793 0.24793 0.49805

MÉTODO DE GAUSS-SEIDEL

1  (1) u 0.25  2
x1(1) 0.25 ; x2(1) 0.5625 ;
4 4
 (1) u 0.25  0  (1) u 0.5625  (1) u 0.0625  1
x3(1) 0.0625 ; x4(1) 0.40625
4 4

k X1(k) X2(k) X3(k) X4(k)


0 0.0 0.0 0.0 0.0
1 0.25 0.5625 0.0625 0.40625
2 0.40625 0.70312 0.20312 0.47656
3 0.47656 0.73828 0.23828 0.49854

5 0.49854 0.74927 0.24927 0.49963

De um modo geral, os dois métodos podem ser escritos como x ( k 1) Bx(k )  c

Os diferentes métodos possuem diferentes formas para matriz B e o vetor c.


Uma matriz A pode ser decomposta na soma de três matrizes:

Diagonal + Triangular Superior + Triangular Inferior

A D(L  I  U)
Ó O Método de Jacobi pode ser escrito como:
n
 ¦a x
j 1
ij
(k )
j  bi

 L  U x ( k )  D 1b
j zi
xi( k 1) , para i 1,2,, n Ÿ x ( k 1)
aii

BJ  L  U
Ó O Método de Gauss-Seidel pode ser escrito como:
i 1 n
 ¦ aij x (jk 1)  ¦a x
j i 1
ij
(k )
j  bi
xi( k 1)
j 1
, para i 1,2,, n Ÿ
aii
x ( k 1) Lx ( k 1)  Ux( k )  D 1b

 I  L U
1
B GS

ANÁLISE DE CONVERGÊNCIA

x ( k 1) Bx(k )  c
Se x é solução do sistema Ax = b : x Bx  c

O erro de cada aproximação x(k) é obtido pela subtração das equações

x ( k 1)  x B(x ( k )  x) B 2 (x ( k 1)  x)  B k 1(x ( 0)  x)

Vamos supor que B tenha n autovetores linearmente independentes. Esses


n vetores formam uma base do espaço vetorial. Qualquer vetor pode
ser escrito como uma combinação linear dos autovetores.

Autovalores : O1 , O2 ,, On
Autovetores : u1 , u 2 ,, u n
x ( 0)  x D 1u1  D 2u 2    D n u n
x (1)  x B(x ( 0)  x) D 1Bu1  D 2 Bu 2    D n Bu n Ÿ
Ÿ x (1)  x D 1O1u1  D 2 O2u 2    D n On u n

x ( k )  x D 1O1k u1  D 2 Ok2u 2    D n Okn u n

Ó Raio Espectral de B: U (B) max Oi (B)  1


1di d n

O processo iterativo converge somente se somente se U (B)  1

A taxa de convergência é dada por R  log10 U (B)


Os autovalores de B não são conhecidos e esta condição não é facilmente
aplicada. Uma condição suficiente que pode ser aplicada é que
para o processo iterativo convergir: B 1

MÉTODO DE JACOBI
aij n aij
BJ  L  U Ÿ bij
aii
, i z j bii 0 BJ max
1di d n
¦a
j 1 ii
j zi

Se B for diagonal-dominante B J  1 o Processo Converge

MÉTODO DE GAUSS-SEIDEL
n y
B GS  I  L U
1
B GS max
x 0
¦ x
f
, y B GS x
j 1 f
j zi

n i 1 n
y f
yk Ÿ yk ¦b
j 1
kj x j ¦b
j 1
kj y j  ¦b
j i 1
kj x j

n aij i 1 aij
y f
y k d sk y f
 rk x f , onde ri ¦
j i 1 aii
, si ¦a j 1 ii

ri
B GS f
d max o Processo converge se A for diagonal dominante
1di d n 1  s
i
MÉTODO SOR (SUCCESSIVE OVERRELAXATION)

Ó Modificação do Método de Gauss-Seidel para melhorar a taxa de convergência


i 1 n i 1 n
 ¦ aij x (jk 1)  ¦
j i 1
aij x (jk )  bi  ¦ aij x (jk 1)  ¦a x
j i 1
ij
(k )
j  aii xi( k )  bi
aii xi( k )
xi( k 1)
j 1 j 1

aii aii aii
i 1 n
 ¦ aij x (jk 1)  ¦a x ij
(k )
j  bi
xi( k 1)
j 1 j i
xi( k )  ri( k ) , onde ri( k )
aii

SOR Ÿ xi( k 1) xi( k )  Z ri( k ) ZParâmetro de Relaxação

BZ (I  ZL) 1 >(1  Z )I  ZU @
0 Z  2

Exercício 3

Resolva o sistema linear Ax = b utilizando os métodos de Jacobi e Gauss-Seidel



‫ܣ‬௜௝ ൌ ܾ௜ ൌ ෍ ‫ܣ‬௜௝
௜ା௝ାଵ
௝ୀଵ

Observe que a solução exata do sistema é ‫ݔ‬௜ ൌ ͳ


Solução de Sistema de Equações Não-Linear Ax b
A A(x)

Método de Picard:
1. Chute inicial; c
( 0)
>u
( 0)
1 , u2( 0) , u3(0) ,, u N( 0) @
2. Calcular coeficientes da matriz usando o valor atual das incógnitas;

A Ac
(k )

3. Resolver o sistema de equações e determinar o novo valor das


incógnitas;

c
( k 1)
A c (k ) 1
f

• Comparar solução atual com anterior;

• Se não covergiu, voltar para 2. Convergência Ruim

Método de Newton:
Generalização do Método de Newton para 1 equação não-linear

f x  'x f x  'x f c x  'x 2 f cc x  


f x  'x 0 | f x  'x f c x

f x
'x 
f c x

PROCEDIMENTO ITERATIVO
Chute inicial : x( 0)
i 0
While f ( x(i ) ) ! H , do
f ( x(i ) )
'x 
f c( x(i ) )
x(i 1) x(i )  'x
i i 1
Raiz : x(i 1)
­ f ( x , x , x ,, x ) 0
N
Sistema a ser resolvido: ° 1 1 2 3
f ( x , x , x ,, xN ) 0
° 2 1 2 3 °
® f 3 ( x1 , x2 , x3 , , x N ) 0
°
°
°¯ f N ( x1 , x2 , x3 , , x N ) 0

Expansão por série de Taylor até termos de primeira ordem de cada equação:

f1 ( x1  'x1 , x2  'x2 ,  , x N  'x N ) 0 |


wf wf wf
f1 ( x1 , x2 ,  , x N )  1 'x1  1 'x2    1 'x N
wx1 wx2 wx N
f 2 ( x1  'x1 , x2  'x2 ,  , x N  'x N ) 0 |
wf wf wf
f 2 ( x1 , x2 ,  , x N )  2 'x1  2 'x2    2 'x N
wx1 wx2 wx N

f N ( x1  'x1 , x2  'x2 ,  , x N  'x N ) 0 |
wf wf wf
f N ( x1 , x2 ,  , x N )  N 'x1  N 'x2    N 'x N
wx1 wx2 wx N

wf1 wf wf
 f1 ( x1 , x2 , , x N ) 'x1  1 'x2    1 'xN
wx1 wx2 wx N
wf 2 wf wf
 f 2 ( x1 , x2 ,, x N ) 'x1  2 'x2    2 'x N
wx1 wx2 wx N

wf N wf wf
 f N ( x1 , x2 , , x N ) 'x1  N 'x2    N 'xN
wx1 wx2 wx N

ª wf1 wf1 wf1 º


« wx 
Sistema em wx2 wx N » ª 'x1 º ª f1 º
Forma matricial « 1 »
« wf w f w f » « 'x2 » «f »
2 2
 2
« wx1 wx2 wx N » « » « 2 »
«  »«  » «  »
« » «'x » « »
w
« N f wf wf N »¬
N¼ ¬,fN ¼
N

«¬ wx1 wx2 wx N »¼ 'x f


wf i
J

Matrix Jacobiana J ij
1 wx j
'x J f
PROCEDIMENTO ITERATIVO

(0)
Chute inicial : c
i 0
While f c ! H , do
(i )

'x  J 1 f Solução de um sistema linear


( i 1)
c  'x
(i )
c
i i 1
( i 1)
Raiz : c

Convergência Quadrática

Exemplo: Resolver o sistema abaixo pelo


(a) método de Picard e
(b) método de Newton

­°2 xy  y 2 3
®
°̄ x  4 x 2 y 5

You might also like