Metoda elementului finit (MEF

)
Rezolvarea sistemelor de ecuatii liniare ordinare Rezolvarea sistemelor de ecuatii liniare cu legaturi

Rezolvarea sistemelor de ecuaţii liniare ordinare
Atât în analiza statică cât şi în alte tipuri de analize apare problema rezolvării unui sistem de ecuaţii liniare cu un număr foarte mare de ecuaţii (zeci sau sute de mii pentru probleme reale). Acesta rezultă în urma operaţiei de asamblare şi a impunerii condiţiilor la limită. Cert este faptul că procedurile de rezolvare a sistemelor de ecuaţii liniare reprezintă o etapă esenţială pentru rezolvarea unei clase foarte largi de probleme şi stăpânirea principiilor de lucru ale acestora poate influenţa atât rezultatele obţinute, cât şi efortul de calcul (timpul de lucru şi spaţiul necesar pe hard discul calculatorului).

Rezolvarea sistemelor de ecuaţii liniare ordinare
Din punct de vedere matematic şi informatic metodele de rezolvare a sistemelor de ecuaţii liniare sunt multiple. Metoda elementelor finite, prezintă anumite faze intermediare până la obţinerea sistemului liniar de ecuaţii (cum ar fi asamblarea ecuaţiilor de echilibru la nivel de element, în ecuaţia globală de echilibru a structurii şi impunerea condiţiilor de echilibru) şi uneori aceste faze intermediare influenţează algoritmii de rezolvare, cu scopul de a obţine o eficienţă mai mare a metodei. În continuare, se evidenţiază anumite aspecte generale ale principalelor metode de rezolvare, făcându-se referire la analiza structurală statică.

Rezolvarea sistemelor de ecuaţii liniare ordinare
Analiza statică, caracteristică sistemelor fizice în care se neglijează efectul amortizării şi al inerţiei (este vorba de vibraţii), nu şi al efectului greutăţii proprii, constă în rezolvarea sistemului de ecuaţii liniare rezultat în urma asamblării

[ K ]{U } = {F }

care strict din punct de vedere matematic este echivalent cu minimizarea potenţialului

Π =

1 T T U } [ K ]{U } − {U } { F } { 2

în care [K] este matricea de rigiditate a structurii, de regulă singulară, {u} este vectorul deplasărilor nodale ale structurii, iar {F} este vectorul forţelor nodale aplicate structurii.

Rezolvarea sistemelor de ecuaţii liniare ordinare
Vectorul {u} are în general două componente, a deplasărilor impuse {u}r (de cele mai multe ori nule) şi a deplasărilor necunoscute {u}a. Deplasările cunoscute introduc o componentă a forţelor de reacţiune {F r}, iar pentru deplasările necunoscute se cunosc forţele aplicate structurii {F a} , deci, folosind această partiţionare, se poate scrie

⎧F a ⎫ ⎪ ⎪ a r {F } = {F } + {F } = ⎨ r ⎬ ⎪F ⎪ ⎩ ⎭
Forţele aplicate structurii provin din forţele aplicate direct în noduri, forţele produse de o mişcare cu acceleraţie constantă a structurii şi/sau a câmpului gravitaţional, forţe produse de variaţiile de temperatură (efectul termoelastic) şi forţe echivalente, produse de presiunea care lucrează pe elemente.

Rezolvarea sistemelor de ecuaţii liniare ordinare
Partiţionarea ecuaţiei în concordanţă cu gradele de libertate “a” şi “r” conduce la relaţia matriceală (curs1)

⎡[ K ]aa ⎢ ⎣[ K ]ra

[ K ]ar ⎤ ⎧{U }a ⎫ ⎧{F }a ⎫ ⎪ ⎪ ⎪ ⎪ =⎨ ⎬ ⎬ [ K ]rr ⎥ ⎨{U }r ⎭ ⎩{F }r ⎭ ⎪ ⎪ ⎪ ⎩ ⎦⎪
−1

Din a doua ecuaţie matriceală rezultă deplasările necunoscute

{U }a = [ K ]aa ({F }a + [ K ]ar {U }r )
iar apoi din prima ecuaţie rezultă forţele necunoscute (reacţiuni)

{F }r = [ K ]ra {U }a + [ K ]rr {U }r

Rezolvarea sistemelor de ecuaţii liniare ordinare
Se observă că deplasările necunoscute pot fi obţinute dacă submatricea de rigiditate [K]aa este nesingulară, adică structura nu are mişcare de solid rigid sau mecanism. Dacă totuşi echilibrul este asigurat de forţele aplicate, se poate face un artificiu de înlăturare a singularităţii matricei fie prin fixarea unor deplasări care suprimă mişcarea de corp rigid sau mecanism, fie prin introducerea adiţională de elemente în matricea respectivă care nu modifică considerabil matricea de rigiditate, dar care o transformă în matrice pozitiv definită. Trebuie menţionat că deşi în ecuaţie apare inversa unei submatrice din matricea de rigiditate globală a structurii, aceasta nu se calculează practic niciodată. Metodele de rezolvare a sistemelor de ecuaţii sunt implementate astfel încât numărul de operaţii pentru rezolvarea lor să fie minim.

Metodele de rezolvare a ecuaţiilor liniare
Metodele de rezolvare a ecuaţiilor liniare în forma matriceală se pot clasifica în:

metode exacte, cum ar fi
metoda de eliminare Gauss, metoda de factorizare Choleski sau metoda de rezolvare frontală şi

metode aproximative, cum ar fi
metoda gradienţilor conjugaţi sau metoda relaxării.

Metode exacte
Metodele exacte de rezolvare se referă la faptul că există algoritmi bine definiţi, care după un număr de paşi dinainte fixat - dependent de dimensiunea problemei, conduc la obţinerea soluţiei exacte, în ipoteza că erorile de reprezentare a numerelor în calculator (de trunchiere) sunt nesemnificative. Pentru reprezentarea în dublă precizie şi probleme de dimensiuni acceptabile, bine condiţionate numeric (adică cu valori ale raportului dintre cea mai mare şi cea mai mică valoare de pe diagonala principală a matricei de rigiditate, cât mai aproape de unitate), metodele de rezolvare exactă s-au dovedit destul de eficiente, ani dea rândul.

Metodele exacte
Aceste metode ţin seama de simetria şi caracterul bandă al matricei de rigiditate, pentru a fi mai eficiente. Pentru a obţine o matrice cu o lăţime cât mai mică a benzii, numerotarea iniţială a nodurilor se schimbă (se face renumerotarea nodurilor folosind algoritmi consacraţi): dacă se foloseşte algoritmul de eliminare Gauss, sau se renumerotează elementele dacă se foloseşte algoritmul de rezolvare frontală. Acesta din urmă s-a impus în perioada în care memoria RAM a calculatoarelor era relativ limitată şi se bazează pe combinarea fazei de asamblare cu cea de eliminare a ecuaţiilor (în memoria ROM). Algoritmul este foarte sofisticat, dar este stabil şi se foloseşte pe scară largă şi în momentul de faţă.

Metode exacte
Metodele de rezolvare exactă prezintă două faze: prima este denumită eliminare sau triunghiularizare, iar cea de-a doua retrosubstituţie. Deoarece aceste metode sunt descrise pe larg în diverse cărţi şi tratate, cei interesaţi sunt invitaţi să consulte lucrări consacrate acestora.

Metode aproximative
Metoda gradienţilor conjugaţi cunoaşte diverse variante de implementare cum ar fi: 1. “Jacobi Conjugate Gradient” (JCG), recomandat pentru probleme bine condiţionate numeric, algoritm implementat pentru matrice reale şi complexe, simetrice şi nesimetrice; 2. “Preconditioned Conjugate Gradient” (PCG) implementat pentru matrice reale, simetrice şi pozitiv definite; 3. “Incomplete Choleski Conjugate Gradient” (ICCG) mai robust decât primele două, implementat pentru matrice reale şi complexe, simetrice şi nesimetrice. PCG este de circa 4-10 ori mai rapid decât JCG, iar ICCG este în general mai rapid decât JCG.

Metode aproximative
În metodele aproximative soluţia sistemului cu condiţiile la limită impuse, se determină ca sumă a seriei vectorilor {pj } în care m este mai mic decât dimensiunea matricei [K] iar {pj } sunt corecţii succesive ale soluţiei. Valoarea de start a acestor vectori poate influenţa foarte mult numărul de iteraţii m. Rata de convergenţă este proporţională cu rădăcina pătrată a numărului de condiţionare a matricei [K] , iar criteriul de convergenţă este de regulă

{u} = a1 { p1} + a2 { p2 } + ... + am { pm }

{R } {R } ≤ ε
T T j j

2

{F } {F }

Metode aproximative

{R } {R } ≤ ε
T T j j

2

{F } {F }
j

în care

{R } = {F } − [ K ]{U }
j

poate fi privit ca un reziduu pentru {uj} - vectorul deplasare determinat la pasul j. De obicei ε = 10-5 se consideră acceptabil pentru aplicaţii, dar poate fi redus dacă este necesar.

Metode aproximative
Pentru dimensiuni mari ale matricilor de rigiditate, care în general conţin multe zerouri (motiv pentru care se numesc şi "matrice rare" = “sparse”), tehnicile de operare cu acestea sau dovedit foarte eficiente pentru creşterea vitezei de calcul, prin înlăturarea operaţiilor aritmetice cu zero şi spaţiul necesar, deoarece pentru valorile nule nu se alocă spaţiu în memorie. Metodele de rezolvare aproximativă, prin iterarea soluţiei, s-au dovedit a fi mult mai eficiente, în primul rând, ca viteză de calcul şi s-au impus odată cu creşterea memoriei centrale (RAM) a calculatoarelor.

Rezolvarea sistemelor de ecuaţii liniare cu legături
Condiţiile la limită în deplasări (şi rotiri) pot fi interpretate, din punct de vedere matematic, ca nişte restricţii asociate unui sistem de ecuaţii. Aceste restricţii pot fi relaţii simple de impunere a unor deplasări, sau relaţii cinematice între anumite grade de libertate. Uneori acestea poartă denumirea de relaţii de legătură între mărimile nodale.

Rezolvarea sistemelor de ecuaţii liniare cu legături
Câteva exemple de relaţii cinematice între o serie de grade de libertate pentru stucturi simple de cadre plane Cadru plan cu un reazem simplu înclinat faţă de sistemul de referinţă global Blocaje

U X ,1 = 0; U Y ,1 = 0; RZ ,1 = 0;
Relatie cinematica

U Y ,3 = 3 U X ,3

Rezolvarea sistemelor de ecuaţii liniare cu legături
Câteva exemple de relaţii cinematice între o serie de grade de libertate pentru stucturi simple de cadre plane Grindă cu articulaţie intermediară Blocaje

U X ,1 = 0; U Y ,1 = 0; RZ ,1 = 0; U Y ,5 = 0
Relatie cinematica

U X ,2 = U X ,3 ; U Y ,2 = U Y ,3 ;

Rezolvarea sistemelor de ecuaţii liniare cu legături
Câteva exemple de relaţii cinematice între o serie de grade de libertate pentru stucturi simple de cadre plane Grinzi cuplate rigid Blocaje

U X ,1 = 0; U Y ,1 = 0; RZ ,1 = 0;
Relatie cinematica

U X ,3 = U X ,2 − a ⋅ RZ ,2 ; U Y ,2 = U Y ,3 ; RZ ,2 = RZ ,3

Rezolvarea sistemelor de ecuaţii liniare cu legături
Procedeele matematice de rezolvare a unui sistem de ecuaţii cu restricţii sunt multiple. Cele mai utilizate metode sunt eliminarea unui număr de ecuaţii egal cu numărul condiţiilor de restricţie, metoda multiplicatorilor Lagrange şi metoda funcţiei de penalizare. Din punct de vedere fizic, o resticţie poate să includă un singur grad de libertate, cum ar fi, spre exemplu, impunerea unei deplasări nodale pe o anumită direcţie (blocaj sau deplasare cunoscută), sau mai multe grade de libertate, ca, de exemplu, condiţia ca pe două grade de libertate o mărime nodală să aibă aceeaşi valoare nenulă, iniţial necunoscută. Restricţiile impuse mai multor grade de libertate (restricţii multipunct) sunt, în general, produse de prezenţa elementelor rigide sau a unor modelări de preluare a mişcărilor de mecanism.

Rezolvarea sistemelor de ecuaţii liniare cu legături
Dacă ecuaţia de echilibru static a unei structuri asamblate, pentru care s-au impus sau nu anumite condiţii la limită în deplasări este

[ K ]{U } = {F }
iar restricţiile - ecuaţii liniar independente, sunt scrise în forma

[C ]{U } = {Q}

se pune problema de a rezolva ecuaţia care să satisfacă condiţiile. Matricea [C] este o matrice dreptunghiulară cu termeni constanţi, care are un număr de linii egal cu numărul de restricţii. Vectorul {Q} este, de asemenea, un vector de constante. De cele mai multe ori, în practică, este un vector cu toate elementele nule.

Metoda eliminării
Ecuaţia

[ K ]{U } = {F }
{U } = {{U r } {U e }
T T T

care conţine n grade de libertate, se poate aranja astfel încât vectorul deplasărilor nodale să fie de forma:

}

In care

{U r } {U e }

reprezintă deplasările "reţinute" (în număr de r) deplasările care urmează a fi "eliminate" (în număr de e, deci n = r + e).

Metoda eliminării
În aceste condiţii ecuaţia poate fi rescrisă în forma

[C ]{U } = {Q}

⎡[Cr ] ⎣

⎧{U r }⎫ ⎪ ⎪ Ce ]⎤ ⎨ [ ⎦ ⎬ = {0} ⎪{U e }⎪ ⎩ ⎭

Deoarece numărul de ecuaţii liniar independente r, este mai mic decât numărul ecuaţiilor de echilibru n, rezultă că matricea [Ce] este pătratică şi nesingulară.

⎤ ⎧{U r }⎫ ⎡[ I r ] ⎪ ⎪ ⎢ ⎥ {U r } {U e } = − ⎡Ce ⎤ [Cr ]{U r } ⇒ ⎨ ⎬ = −1 ⎣ ⎦ ⎪{U e }⎪ ⎢ − ⎡Ce ⎤ [Cr ]⎥ ⎩ ⎭ ⎣ ⎣ ⎦ ⎦
−1

Metoda eliminării
care poate fi rescrisă sub forma

{U } = [T ]{U r } ;
n x1 nxr r x1

⎡[ I r ] ⎤ ⎥ unde [T ] = ⎢ −1 ⎢ − ⎡Ce ⎤ [Cr ]⎥ ⎣ ⎣ ⎦ ⎦

Dacă ecuaţia se înlocuieşte în [ K ]{U } = { F } care se înmulţeşte la stânga cu transpusa matricei de transformare [T ], rezultă un sistem de r ecuaţii, adică

[ K r ]{U r } = {Fr }
în care

[ K r ] = [T ] [ K ][T ] ;
T

{Fr } = [T ]{F }

Metoda eliminării
Matricea [T ] se poate obţine şi în mod direct, prin formularea directă a relaţiei Dacă deplasările impuse sunt nule, adică {Ue} = {0}, atunci [Cr]=[Ir], [Ce]=[0], şi matricea de rigiditate redusă se obţine prin eliminarea liniilor şi coloanelor corespunzătoate deplasărilor nule, adică corespunzatoare setului r

[ K r ] = [ K ]rr
şi se ajunge la rezolvarea unui sistem de ecuaţii ordinare, prezentată în paragraful precedent.

Metoda multiplicatorilor Lagrange
Această metodă se bazează pe minimizarea unei funcţii în care variabilele nu sunt liniar independente. În cazul analizei structurale, se pleacă de la expresia potenţialului, rescris în forma matriceală

şi se obţine

1 T T Π = {U } [ K ]{U } − {U } { F } 2

1 T T T Π = {U } [ K ]{U } − {U } { F } + {λ} ([C ]{U } − {Q} ) 2
adică la expresia potenţialului se adună ecuaţia restrictilor înmulţită cu vectorul {λ}T care reprezintă multiplicatorii Lagrange şi au semnificaţia unor forţe care "păstrează" echilibrul structurii.

Metoda multiplicatorilor Lagrange
Condiţiile de staţionaritate a ecuaţiei, adică

⎧ δΠ ⎫ ⎪ ⎪ ⎨ ⎬ = {0} ⎪ δ {U } ⎪ ⎩ ⎭

⎧ δΠ ⎫ ⎪ ⎪ ⎨ ⎬ = {0} ⎪ δ {λ} ⎪ ⎩ ⎭
T

care conduc la sistemul de ecuaţii

⎡[ K ] ⎢ ⎢ ⎣ [C ]

[C ] [0 ]

⎤ ⎧{U }⎫ ⎧{ F }⎫ ⎪ ⎪ ⎪ ⎪ =⎨ ⎥⎨ ⎬ ⎬ ⎥⎪ ⎪ ⎪ ⎪ ⎦ ⎩{λ} ⎭ ⎩{Q} ⎭

Acest sistem are dimensiunea n+r, mai mare decât a sistemului iniţial, iar pentru rezolvarea lui poate fi adaptată procedura de eliminare Gauss, deşi matricea care se triunghiularizează are termeni nuli pe diagonala principală.

Metoda funcţiei de penalizare
Această metodă conduce la determinarea aproximativă a necunoscutelor şi deci la satisfacerea aproximativă a restricţiilor, adică relaţia [C ]{U } = {Q} , se rescrie în forma

1 1 T T T Π = {U } [ K ]{U } − {U } { F } + {r} [α ]{r} 2 2
Mărimea suplimentară

1 T {r} [α ]{r} 2
din expresia potenţialului poartă denumirea de funcţie de penalizare.

Metoda funcţiei de penalizare
Matricea [α] se alege de formă diagonală. Dacă expresia deci la satisfacerea aproximativă a restricţiilor se introduce în expresia potenţialului şi se pune condiţia de minim pentru potenţial

Se obtine

⎧ δΠ ⎫ ⎪ ⎪ ⎨ ⎬ = {0} ⎪ δ {U } ⎪ ⎩ ⎭
T T

adaugă la matricea de rigiditate a structurii, iar vectorul T . ] [α ][Q ] se aduna la vectorul incarcarilor nodale initiale C [

Matricea [C ] [α ][C ] numita matrice de penalizare, se
T

([ K ] + [C ] [α ][C ]){U } = {F} + [C ] [α ][Q]

Metoda funcţiei de penalizare
Dacă [α] = [0] atunci restricţiile aplicate sunt neglijate. Dacă norma matricei [α] creşte vectorul deplasărilor nodale {U} se modifică în aşa fel încât restricţiile sunt din ce în ce mai bine ("aproape") satisfăcute. Este de dorit ca matricea [α] să conţină termeni adimensionali, adică independenţi de gradele de libertate, care pot fi deplasări şi rotiri. Această metodă păstrează nealterată dimensiunea iniţială a problemei, dar din cauza matricei [α] , care trebuie să aibă termeni mult mai mari decât valorile rigidităţilor corespunzătoare diagonalei principale a matricei [K], poate conduce la apariţia unor probleme numerice, deoarece valoarea parametrului de T [ K ] + [C ] [α ][C ] condiţionare (numărul de condiţionare) a matricei creşte foarte mult şi aceasta poate deveni singulară.