You are on page 1of 97
Massimo Ferrarotti Marco Abrate ezioni -gebra Lineare sercizi svolti fg ad i Ls si if i a is s 5 N 5 ae (4 8 a Massimo Ferrarotti Marco Abrate LEZIONI DI ALGEBRA LINEARE con esercizi svolti zatione e di adatt film e copie fotost N 978-88-6789-059.0 pa: DigitalPrint, Segrate (Mi) Prefazione per lo studio successivo della geometri La presentazione dell’argomento tende a evitare un eccessivo lismo e privilegia esempi e metodi effettivi di caleolo: aleuni ris indispensabili per lo studio della materia, ma che richiedono un approfondite nel ciclo di lezioni. Allla fine di ogni sezione si trova una serie dieser per riuscire ad epbrendee uso delle teeniche basi Tale metodo € soprattutto capitolo. Tl secondo capitolo presenta nella prima parte Ie nozioni di base sugli spazi vettoriali in generale (definizione di spazi vettoriali e di sottospazi, ge- neratori, basi e dimensione), accomp: nella seconda parte viene approfondit IK" (con K indifferentemente R o C), fondamentali per le applicazioni al- Ja geometria. Nel caso degli spazi K", possono essere utilizzati i metodi calcolativi sviluppati nel primo capitolo per matrici e sistemi. Anche nel terzo capitolo la prima parte @ teorica, in quanto dedicata, alle applicazioni lineari tra spazi vettoriali in generale, mentre nella seconda parte si sviluppa la diagonalizzazione di matrici sia in R sia in C. Il colle- gamento con le applicazioni lineari viene dato dal considerare una matrice quadrata A come un endomorfismo di K", cio? una applicazione lineare di uno spazio K" in sé, e dal cercare una base opportuna di K" in modo tale che, nelle coordinate rispetto a tale base, l'applicazione associata ad A si smorfismi semplici, che jando si considerino simmetriche reali. Dopo si fa cenno alla teoria degli le delle matrici diagonali i da uno spazio vettoriale inale trata il caso delle mat rodotto scale canonico in R” in modo puramente algebrico come prodotto matrice riga per matrice colonna, si introducono le basi ¢ le matrici ortogonali per arrivare al teorema di diagonalizzazione delle matriei questo capitolo una breve parte finale & dedicata al caso generale, in cui il posto delle matrici simmetriche @ tenuto dagli endomorfismi di uno spazio vettoriale reale che siano autoaggiunti rispetto un fissato prodotto scalare. Indice i e sistemi ici e operazioni tra matrici . . 1.14 Determinante 1.15 Esercizi : 1.2 Operazioni elementari ¢ riduzione . . 1.2.1 Operazioni elementari 1.2.2 Matrici ridotte e matrici a scala. 123 Riduzionee rango ...... Rango e determinante 1.24 13 t8 e determinanti con riduzione ‘Matrici elementari e invertibilita . Determinante ¢ riduzione Esercizi Equazioni e sistemi lineari Matrici e sistemi . - Ridusione e sistem lineari- 4 RisolubilitA e rango 14.5 Sistemi quadrati .......... AGT Reece ee 2 Spazi vettoriali 2.1 Spazi vettoriali astratti. ... . . 21.1 Definizione e esempi . \pplicazioni lineari e diagonalizzazione 3.11 Definizioni e esempi S5 3.2.1 Matrici diagonalizzabi 3 Diagonalizzazione in generale 3.3.1 Endomorfismi semplic Aatrici simmetriche e forme quadratiche «1 Matrici ortogonali e Alagonalizzasione delle 412 Basi cortogonali ¢ ortonormali 41a nee a6 4.2.2 Rorme quadratiche e forme lineari 3. Prodotti scalari ¢ Teorema Spettrale 4.3.1 Prodotti scalari in generale 4.3.2. Endomorfismi antoaggiunti Capitolo 1 Matrici e sistemi Nel seguito si indicheranno (on) (© li insiemideimumeri reali complessi rispettivamente, che saranno chiamati cammpi numericé 0 carpi degli scalar: Nei casi in cui sara possible riferrsiindifferentemente all'ino ‘oall'altroinsieme si indicher8 il campo con la lettera K. Quindi gli enunciati contenenti K sono veri se e solo se lo sono sia per K= R che K = C. Per esempio: “Per ogni a € K esiste b € K tale che a = 2b” vero, mentre “Per ogni a € K esiste b € K tale che a = }?” @ falso, perché 6 non esiste per K = R, a= —1. Dati m,n interi postivi, sna’ matrice mx Aisw Ke definite/asseemando ‘adogni coppiat (ij) di numeri interi positivi con 1 1, Unaltra proprieta del prodotto che per n > 1 non vale pi Vesistenza dellinverso: se a € K,a #0, sappiamo che esiste il numero a~? nverso 0 reciproco di a) tale che aa"! = 1. Vediamo un controesempio nel caso delle matrici di ordine 2. 10 1 Matrici e sistemi Esempio 1.1.20. Sia A= ( 2) SeB= (¢ ). ponendo tz ytt)_ fo aa~ (545) i5)-6 ‘) she @ assurdo, otteniamo 2+ z= 1 e%x+2) =0, Osservazione. Osserviamo che anche la proprietA di annullamento del pro- dotto non @ valida. Infatti se consideriamo A come nell’esempio 1.1.20 ¢ “ (44) abbiamo AB = 2, nonostante A e B siano entrambe non null. Definizione 1.1.21. Una matrice quadrata A € Mz si dice invertibile se esiste BE My tale che AB = BA= Ip, (12) Altrimenti A si dice non invertibile o singolare. 1 sottoinsieme di My formato dalla matrici invertibili di ordine n viene indicato con GL; se ® necessario specificare il campo di niumeri si scrive GL,(R) oppure GL, (C). Beene ize se4= (1 3) se 2= (© 2), et z-2 y-t)_fid a0= (525%) aro) =(6 :) vi 4. Si verifica subito che se otteniamo x = 1/2, 2 = 1/2, y=t= 1 -{2 i 1 3 Se A 2 invertibile e B & una matrice tale da soddisfare le equacioni (1.2), la condizione che B commuti con A assicura che tale B & unica. Date infatti By ¢ By tali che AB, = B,A =I, per i=1, 2, si ha By = Bly = By(ABz) = (ByA)Ba = InBy = Ba. Quindi esiste una sola matrice B tale AB = BA = matrice la matrice inversa di Ae la denotiamo con A~!, ) BA=AB= Ih e dunque A é invertibile. alee chiamiamo tale 1.1 Matrici e operazioni tra matrici i Proposizione 1.1.23. Se A € GLa, valgono le seguenti proprieti verifi- cabili direttamente: 1 A*EGIn e (AN = A. 2, Se BE Gln, allora AB € Gln ¢ (AB)! = B1A~) 3. Sea€K, a £0, allora aA € Gly € (@A)-! = aA 4 APE GIy (ANT = (AYE Osservazione. Osser alcune matrici particolari che qialcosa di pitt preciso pud essere detto per a) In 2 invertibile con J! = Iq, mentre Op & singolare. Infatti InJn = In € OnB = On # In per ogni B. b) La somma di matrici invertibili non in generale invertibile: per esempio, —Iy & invertibile per la proprieta 3), ma In + (—In) = On. ¢) Se una matrice A € My, ha una ri rodotto AB ha V'lemento della diagonale principale 0: quindi non pud essere uguale a Jy che ha tutti 1 sulla medesima diagonale. Analogamente, se A avesse una colonna nulla avremmo BA # I_ per ogni B. ATTENZIONE: Non vale ilviceversa! Per esompio la matrice ( 2?) non ha righe né colonne nulle ma, come abbiamo visto, &singolare Associamo a ogni matrice quadrata A un numero detto il suo determinante indicato con det(A) oppure con |A|. Daremo una definizione di tipo ricorsivo, cio’ definiremo il determinante di matrici di ordine n a partire dal determinante di matrici di ordine n — 1. Sen=1, AGM; =Ke definiamo det(A) = A. Sen=2e aC). 2 1 Matrici e sistemi (GRP det (1 —3) --1 46-5. det (9 14+6=5. ‘Se n > 2, definiamo il determinante nel modo seguente: sia A = {a,;} sia Aig la sottomatrice di A di ordine n — 1 ottenuta eliminando la ‘-esima riga ¢ la j-esima colonna. Allora, fssato i, definiamo lo scalare deti(A) = S°(-1)a,;det( Ais). (1.3) at Si pud provare che det;(A) = dete(A) per ogni k: poiché il numero definito in questo modo non dipende dalla scelta della riga, lo possiamo denotare con det(A) o det(A) e chiamare determinante di A. L’espressione al secondo membro nell’equazione (1.3) si dice suiluppo di Laplace di det(A) rispetto alla i-esima riga, PID sia Lo sviluppo di det(A) rispetto alla prima riga é 21-3 au(3 1 2) = ame(t 2)-an( 2)- -2 3-1 - ee o7 -sae (S, 3)=-%4 ‘Sviluppando il determinante di A rispetto alla seconda riga si ottiene 2 1 -3 ae(8 12) " A. ESEMPISILAD Fseguiamo tre opernzioni elementari del I, I ¢ ILI tipo su una matrice 3 x 4: ©) paar, 1100 1) ®4%4r=fo -1 2 1] "3% 0 5 0-50 1 0 en 00 Fa za $0) Bar (a3) oO -121 1 A= lo 3 0 2 5 0 ors Au = —— ‘Se agiamo sulla matrice A" com le operazioni inverse (in ordine inverso) a quelle usate sopra, otteniamo AP Ae Sy ROB Osservazione. Altre operazioni, analoghe alle precedenti, possono essere 24 1 Matrici e sistemi i elementari del I tipo con a = 00 10 con @ = 1 lasciano invariata A); 2, r. 2 Se1 n esiste una sola matrice srn in Mya che abbia n pivot. Per esempio, per m = 5, n =3, si ha 10 0 010 A=|0 01]. 000 000 In particolare, se m =n, abbiamo A= In. 1.2.3 Riduzione e rango Nel seguito vedremo che, a partire da una qualunque matrice A € Minn; @ possibile determinare, con un algoritmo consistente nell'applicare in suc- cessione un numero finito di operazioni elementari, un’unica matrice sra ‘equivalente a A. Tale risultato é il teorema principale di questa parte del 1.2 Operazioni elementari e riduzione 27 ‘Teorema 1.2.11. (Teorema di Riduzione) Ogni matrice non nulla AE Mmn @ equivalente per righe a un'unica matrice a scala ridotta nor- ‘malizzata, indicata con Asm ¢ detta forma smn di A. L'unicitd di Asn permette di dare la seguente definizione: Definizione 1.2.12. Sia A € Mmn. Se A é non nulla, il rango r(A) di A 2 il numero di pivot della matrice Agen. Per convenzione poniamo (Orn) = 0. Osservazione. Se A € Min, uguale del minimo tra ) < me r(A) r ha determinante rullo, 9. Bsiste una sottomatrice quadrata B di A di ordine tale che det(B) £ 0 ¢ ogni sottomatrice quadrata di A di ordine r +1 ottenuta aggiun- gendo a B una riga e una colonna ha determinante nullo Nel caso r = min{m,n}, Pesistenza di una sottomatrice B di ordine r invertibile & sufficiente per garantire che il rango sia r. Osserviamo che, in generale, il calcolo del rango con questo metodo risul- ta pitt pesante che con a riduzione: solitamente esso viene utilizzato con matrici dipendenti da parametri. 32 1 Matrici e sistemi Esempio 1.2.17. Si calcoli al variare di a, b € R il rango di rice ha determinante ~2, mentre tii 11 det{20 -1]=-2, det]2 0 0} =-201-a). 316 31 Quindi r(A) = 2 per a= 1 €b=0, mentre r(A) = 3 per gli altri valori di aes. 1.2.5 Esercizi Esercizio 1.2.1. Determinare il rango della matrice 12 3-1 _[2 1 -1 0 A=15 -2 13 3 4-1-9 2 Soluzione 1.2.1. Consideriamo le seguenti trasformazioni elementari sulla matrice A: Ro-2Ri, -Rs—5Ri, Ra — 4. Otteniamo cosi la matrice eee seo 0-3 -7 2 0 -12 -28 8 |" 0 -9 -21 6 In questo modo il primo elemento della. prima riga 2 un pivot. Passiamo a considerare la seconda riga e il suo primo elemnto non nullo. Per avere un pivot anche in quella posizione operiamo con le seguenti trasformazioni: Ry-4R2, Ra ~3Ra, 1.2 Operazioni elementari ¢ riduzione 33 ieeceseed 0-3 -7 2 oo 0 of 0 0-0 0 che # ridotta ed ha rango 2. Poiché le trasformazioni elementari non alterano il rango delle matric, risulta r(A) = 2. ottenendo la matrice Esercizio 1.2.2. Determinare il rango delle seguenti matrici: 2 1 91 .i-a a=(22 0 0], Bali 2 I. 1102-1 tae 1-11 Soluzione 1.2.2. Per caleolare il rango di A riduciamola per righe usando le operazioni elementari: 11-1 1) mem Ar 1 A= [22 0 0] *5"Jo0 2 -2 1102-1 00 3 -2, i, ft d-1 1 ta-1 a loo 1 -)"3"foo 1 -1], 00 3 -2 00 0 -5, per cui il rango di Aé r(A) = 3. Passiamo alla matrice B: aie eee) 102-2) mqm}2 1-1 3-1 2 Spel) 1-11 1-1 1 12 = 1 2 2) 0-3 3|-aysfo 1-1 0-7 8 0-7 8 0-3 3 0-3 3 quindi anche la matrice B ha rango r(B) = 3. 34 1 Matrici e sistemni Esercizio 1.2.3. Data a matrice fa-1 0 a A=| 0 a@ al], 1 @-a 1 determinare i valori dia € R per cui A abbia rango minore di 3, Soluzione 1.2.3. Riduciamo la matrice A per righe, osservando che nella prima colonna Punico elemento sicuramente non nullo é [A]: = 1: fa-1 0 aT 1 da 1 0 @ a |™3">o a a 1 @-a 1 @-1 0 a1 1 at-a 1 BENE Tg a al. (15) 0 a(e-1) 0, ‘A questo punto notiamo che nella seconda e nella terza riga della matrice ottenuta, gli elementi sono nulli o dipendenti da a, per cui per procedere nella riduzione dobbiamo discutere le possibili operazioni al variare di a. Per esempio, la seconda riga risulta non nulla se a # 0. In questo caso potremo procedere come segue: 1 aoa 1 1 oa 1 A ~ o a allo 1 4 0 a(a-1)? 0, 0 a(a—1)? 0 ag, (La 1 0 0 ~a(a~1), La matrice ottenuta é ridotta ¢ ha rango 3 solo se (a— 1)? # 0, ovvero solo se a #1, altrimenti r(A) = 2. Dobbiamo dunque considerare singolarmente il caso in cui a = 0. Sostitu- ‘endo nella matrice (1.5) otteniamo 1 aa 1 ae0g A~|0 a al=[oo oj, 0 afa-1)? of \o 0 0, che ha rango 1. In definitiva il rango della matrice A 1 sea=0, r(A)=42 sea=l, 3. altrimenti. 1.2 Operazioni elementari e riduzione 35 Esercizio 1.2.4. Discutere il rango della matrice a 1 1 2) M=/[1 -1 01 a -2 -2 6, al variare dei parametri a,b € R. Soluzione 1.2.4. Riduciamo la matrice scambiando inizialmente le prime due righe, per avere un elemento non nullo (per ogni valore di a € R): —a 1-1 2 1-107 M = 1-1 0 1)"5"{-2 1 1 2 a 2-24 a -2-26 Bete (1-1 01 BH fo ia’ 1 ata]. 0 -2-a -2 ba, Ora possiamo continuare a ridurre la matrice indipendentemente dal valore dei parametri a,b osservando che il terzo elemento della seconda riga & non nullo: 1-1 0 1 ft ly Oe mM ~ {0 1-2 1 24a]"8"/0 1-01 24a 0 -2-a -2 b-a 0 -3a 0 b+a+4 A questo punto abbiamo una matrice che @ ridotta (anche se potrebbe non essere a scala) e che ha rango almeno 2. Tuttavia se ~3a #00 b+a+4 #0 il rango é 3, per cui abbiamo le seguenti conclusioni: 2 sea=0Nb=~4, 3. altrimenti, r(A) = { 36 1 Matrici e sistemi 1.3 Invertibilité e determinanti con riduzione Applichiamo ora il metodo di riduzione allo studio dell’invertibilita e al caloolo dei determinanti. 1.3.1 Matrici elementari e invertibilita Data una matrice A € Mp, si pud determinare se A 2 inver affermativo, calcolare A~ applicando il metodo di ridwz Definizione 1.3.1. Una matrice elementare E in My é una matrice otte- nuta da In con una operazione elementare. In tal caso diremo che E é la ‘matrice elementare associata a tale operazione elementare. Dalla definizione precedente segue che vi sono tre tipi di matrici elementari, a seconda dell'operazione clementare effettuata. Esempio 1.3.2. Consideriamo, ad esempio, le sequenti operazioni elemen- lari esequite su matrici 2x n: Ry +2Rz, Ry + Ry e~3Ry. Le matric associate a tali trasformazioni si ottengono nel modo seguente: Gyre) I Tipo: a-G re) _ eG iyre-(0 f) La proprieta che caratteriaza le matrici elementari é la seguente: Proposizione 1.3.3. Sia E la matrice elementare associata a una opera- zione elementare OE. 4. Ee invertibile e E* 2 la matrice elementare associata all’operazione elementare inversa di OB. 2 Se AE Minn € se A! = EA, allom A’ é la matrice ottenuta da A tramite OE. 1.3 Invertibilita e determinanti con riduzione 37 Ovviamente per effettuare una operazione elementare conviene eseguirla dizettamente piuttosto che moltiplicare per la matrice elementare associa ta. Liinteresse della proposizione 1.3.3 risiede nel fatto che essa permette di provare importanti criteri di invertibilita e di calcolare esplicitamente inversa di una matrice se esiste. Esempio 1.3.4. Siano Ey, E2, Bs sono come nell’esempio precedente. 1) ean (3 )(6 o)= (9 a)-# ‘Teorema di Riduzione 1.2.11 abbiamo Ey tali che Se A € Mmm & non null che esistono matrici elementari Aun = EyEq-i.E:A, cio A= Bi"B3*... By" Agn Poiché il prodotto di matrici invertibili @ invertibile, valgono i seguenti A) Se A € Mp, le seguenti Proposizione 1.3.5. (Criteri di inver sono condizioni equivalenti: 1) Ae invertible; 2) r(A) =n; 3) Ae = Ine In tal caso, se EqEq-1... EA = Agm = In, si ha A“! = EyEq-y... Ey. 38 1 Matrici e sistemi Infatti una matrice smn n x no ha righe nulle (¢ quindi 2 singolare) 0 & la matrice Jy. Inoltre r(A) =n se e solo se Agmn non ha righe nulle, quindi s8e solo 8¢ Agen = In Quanto sopra ci permette di verificare per riduzione se una matrice A € My @ invertibile e, in caso affermativo, calcolarne nel contempo Vinversa: se effettuando le stesse operazioni elementari su A e Ip otteniamo Asrn = In, allora A € Gln e la trasformata di J, ¢ A~; se invece Asn ha una riga nulla allora A é singolare, Esempio 1.3.6. Proviamo che 1 0 =2) oa A=[2 1 1] €GL, echke At=/1 -2 3 ii lees operando contemporaneamente sulle matrici A e Is. Per far questo consi- deriamo la matrice 3 x 6 le cui prime 3 colonne sono quelle di A e la alire 3 sono quelle di I e operiamo su di essa. 10 -1 | 1 0 0) %-2m /1 0 -1 | 1 00) 211 |o10)™5"/o1 3 | 2 1 0) ®5 Lit joo. O12 |, -101 1.3.2 Determinante e riduzione Ci si pud chiedere quale sia l'effetto di una operazione elementare su altre operazioni sulle matrici che abbiamo visto in precedi il determinante o la trasposizione. Una prima risposta si pud derivare dalla Proposizione 1.3.3, che ha come conseguenza le seguenti proprieta: Proposizione 1.8.7. Sia A € Mn ¢ sia EB € My una matrice elementare. Allora, per la Formula di Binet 1. Se E é del I tipo, det(E) = 1 ¢ det(EA) = det(A); 3 Invertibilita ¢ determinanti con riduzione 39 2, Se E é del II tipo, det() = -1 e det(EA) = —det(A); 9. Se B é del III ti det(E) = @ e de ottenuta moltiplicando una riga per a #0, si ha ) = ardet(A) Esempio 1.3.8. Siano By, By, Ey come nell’esempio 1.9.2; i loro determi- anti valgono sal). ae(? Jan a(G fos La proposizione 1.3.7 consente di dedurre immediatamente alcune pro- prieta del determinante che sono molto importanti e che sarebbe molto difficile dimostrare direttamente dalla definizione. Di fatto abbiamo che se A® una matrice quadrata, allora 1. aggiungendo a una riga di A un multiplo (non nullo) di un’altra riga, A si ottiene una matrice A’ con det A’ = det A; 2. scambiando due righe di A si ottiene una matrice A’ con det A! = ~det 4; icando una riga di A per un-numero a € K si ottiene una matrice A’ con det A’ = adet A. In particolare, si ha che per una matrice quadrata nx n det(aA) = a" det A. Osserviamo che la proprieta 1.1.28 implica che proprietd analoghe a quelle descritte nella proposizione 1.3.7 valgono anche per operazioni ele- mentari per colonne. Inoltre dalla prima proprieta si ha che & possibile caleolare il determinante di una matrice quadrata utilizzando le operazioni clementari del I tipo, riducendosi a una matrice con molti elementi null. Esempio 1.3.9. Consideriamo le matrici 2) O11 3-10 e [0 -1 ~3 101 ne I loro determinanti sono Peers. Ole tae det{3 -1 0] =detfo -1 -3] =-2, eco) 0) 40 1 Matrici e sistemi 11 2) Bea fo 1 1 3-1 0] ™3" Jo -1 0 104 101 Ancora per le proposizione 1.3.7, possiamo in alcuni casi riconoscere facilmente se una matrice ha determinante nullo. 2 9}. 0 112 1 ~41 9] ™F" 14 336 0 112 det |-4 1 9] =0 336, In generale possiamo asserire che se una matrice A ha una riga (o una colonna) multipla di un’altra (quindi in particolare uguale a un/altra), allora det(A) = 0. Infatti Esempio 1.3.10. Se A€ My @ una matrice a scala, si pud calcolare il suo determinante sviluppando rispetto alla colonna che contiene il maggior numero dizer. Si pud notare allora che se r 002 -3| ~ o2 13 003 3 10-2 3 10-2 3 —aet{2} 2 3) m,4, (0 1 -2 3 | acon =4et}g go 3 <3) ~ S4t)o 9 1 l= 0} ole aya) 00 2 -3, 10-2 3 01-23 = sa ]) oP S]=-3: 000 -1 i detD = det} 1 2 4 1203 2 3 =-detfor 2 |S" defor 2 |= 0 6 h+3 0 0 h-9, Esercizio 1.3.2. Calcolare, tramite riduzione, Vinversa della matrice 2 le A=|1 3 0 -1 4 -2 Soluzione 1.3.2. Per calcolare la matrice A~! possiamo ridurre completa- 1.3 Invertibilita e determinanti con riduzione 48 mente per righe la matrice (AlJ) 2a Te ore gos 0 men (pias 1 3 0 J01 0/"S"/ 2 = 14 -2)001 14 13 0/01 0 0-7 3 [1 -2 of**/o -7 07 2]011 0 44 1 Matrici e sistemi 1.4 Sistemi lineari In questo capitolo vedremo come gli strumenti introdotti nei eapitoli prece- denti si possono utilizzare per lo studio e la risoluzione 1.4.1 Equazioni e sistemi lineari Lo spazio K” & il prodotto cartesiano di n copie di K, cio? = {(e1,-++ 49), 1 EK}. Per n = 2, si parla di coppie ordinate, per n = 3 di terne ordinate, per n= 4 di quaterne ordinate, e cosi via. Lo spazio K” si identifica con Mi, a meno di notazione e quindi con My, a ‘meno di trasposizione. Per esempio l’elemento (3, ~1) di K? si identifica con 3 4) € Maa (3. -1) €Mh2 (semplicemente togliendo le virgole) e con é trasponendo. Per convenzione, un generico X € K", che chiamiamo vettore, sara scrit- to come matrice colonna; il vettore riga associato a X si ottiene tramite trasposizione, per cui verra indicato con X*. Indicheremo con O il vettore nullo (riga colonna) nello spazio K" considerato. Una equazione lineare an incognite con coefficienti in K@ un’espressione formale E del tipo Es ayzy + ageg +++ + Onty = 6 in cui al primo membro compare un polinomio di grado uno nelle incognite = € coefficienti a; € K, mentre al secondo membro compare solo il numero 6 € K, detto termine noto. Nei casi n = 1,2, 3,4 si usano spesso le incognite 2, ys2yt invece diver, 22,03, 24. Nel caso in cui un aj sia nullo, Paddendo a:z; di solito non viene scritto, quindi il numero di incognite deve essere specificato 0 dedotto dal contesto. Per esempio, 2 = —1 pud essere considerata come equazione a 1 incognita, ‘2 incognite ponendo 22 +0y = —1, a 3 incognite ponendo 2z + Oy+0z = =1, ¢ cosi via. Le seguenti equazioni: Qe=-l, Qe-y= 0, Setdy—S2=1, a +22—a9 +24 =3 1.4 Sistemi lineari 45 sono esempi di equazioni linear. Una soluzione X = (71,-+- ,%,) di un'equazione lineare Erayty te tanta =b ® un elemento di K” tale che Ey + 072 +++ + OnFn = 6. Indicheremo con sol(B) il sottoinsieme di K” formato dalle soluzioni di E. Per esempio una soluzione dell'equazione in 2 variabili 2r—y = 02 la coppia ordinata (1,2) € K?. Considerando la stessa equazione in 3 variabili, ogni terna ordinata (1,2, 2) sara soluzione. Un sistema lineare $ su K di m equazioni in n incognite é un insieme for- mato da m equazioni lineari su K in n incognite. Dunque $ = {Ei,-*- , Em} dove Ey aiaty + o49t2 ++ Ointn = bi Liinsieme delle soluzioni di $ & dato dalle soluzioni comuni alle equazioni del sistema, cio? da sol($) = sol(E1) 9 sol(E2)---M sol( Br). Di norma si rappresenta un sistema S = {E1,--- , Em} nel seguente modo: Mati + @2t2 bos + AinTe = by g, {ame + aname + ot) Oana = be Amity + Om202 + + OmnTn = bm cosservi che per m = 1, $ si riduce a un’equazione lineare, quindi lo studio lle equazioni lineari un caso particolare di quello dei sistem, Studiare un sistema significa determinare la natura del suo insieme di soluzioni, risolverlo significa scrivere esplicitamente le soluzioni, se ci sono. Vedremo che sono possibili solo tre casi: 1) sol(S) =: $ & impossibile o non risolubile 2) sol(S) & formato da un solo elemento: $ @ determinate 3) sol(S) & formato infiniti elementi: $ & indeterminato. 46 1 Matrici e sistemi Nei casi 2) 0 3) diremo che $ & risolubie. Osserviamo che se un sistema S’ @ ottenuto dal sistema S aggiungendo equazioni, allora sol(’) C sol(S). Esempio 1.4.1. Consideriamo il sistema ; fetutest $s: hea 5 ¢ indeterminato, in quanto sol(S) = {(t,t,1 — 2t)} al variare dit in R. Aggiungendo equazioni a Sy possiamo ottenere sistemi di tipo diverso: atytz=1 atytz=1 ztyte=1 Spie—y=0 Ss:4z-y=0 Seisa-y=0 a+y=-2 Qetz=1 Wete=n1 ‘Si pud verificare che Sp & determinato con sol(S2) = {(-1,-1,3) ‘indeterminato con le stesse soluzioni di S mentre S4 é impossibile. Definizione 1.4.2. Se 5 ¢ 5" sono sistemi lineari a n incognite, diciamo che $ eS" sono equivalenti se sol(S) = sol(S') Osservazione. Nella definizione 1.4.2 $ e S’ possono avere un numero di- verso di equazioni, ma sol($) e sol(S") sono comunque in K". Esempio 1.4.3. I sistemi ptytz=1 <1 S=fytz=0 ga) poy-2=1 sono equivalenti poiché sol($) = sol(S') = {(1,t,-t) | t € R}. Dvaltra parte ¢ evidente che S' é pit semplice da risolvere rispetto a S. Lresempio 1.4.3 suggerisce la seguente strategia: cercare un metodo per passare da un sistema dato a uno a esso equivalente ma di soluzione pitt immediata. Questo metodo sara ottenuto associando a ogni sistema una matrice e applicando in modo opportuno a tale matrice Palgoritmo di riduzione. 14 Sistemi lineari a7 1.4.2 Matrici e sistemi Consideriamo il sistema lineare Mat + aigey +o aunt = by gg, Jat + aaate + + ante = be mitt + Oma, bos Omntn = bm La matrice A= {aij} si dice matrice dei coefficienti, i vettori by (ay Pn n, si dicono rispettivamente vettore dei termini noti e vettore delle incognite. La matrice Mir M2 + ain | by 421 922" dan | be Mg=|°” i m1 Oma Oma | bm, si dice matrice associata a S. Esempio 1.4.4. Se ttyte=1 8: ryt abbiamo Cee SS "gg Dall’esempio precedente, vediamo che possiamo scrivere il sistema S in forma compatta come equazione matriciale utilizzando il prodotto tra matrici, cio® S:AX=B 48 I Matrici e sistemi i che $ & completamente determinato da Ms. Viceversa ogni matrice M € Myn+i determina un sistema lineare di m equazioni a n incognite. Se il vettore dei termini noti di un sistema S & O, S si dice omogeneo € ‘Ms 2 identificabile con A a meno di una colonna di zeri. Se S:AX=0O & un sistema omogeneo allora $ @ rigolubile poiché O € sol(S) (dunque se S & determinato O & necessariamente I'unica soluzione) Se 5: AX = B, il sistema Sq : AX = O si dice sistema omogeneo associato a S. Studiamo la relazione tra sol(S$) e sol(So). Esempio 1.4.5. z+ytz=0 z-y=0 ztyte=1 Se S z-y=0 allora So: { Osserviamo che le soluzioné di S, essendo della forma (t,t,1— 24) al varia- re dit € R, possono essere scritte come (t,t, —2) + (0,0,1) dove Xo = (t.t,-21) sono le soluzioni di So al variare di t mentre (0,0,1) @ una soluzione di S. La generalizzazione di questo esempio é il seguente ‘Teorema 1.4.6. Sia S : AX = B un sistema lineare risolubile ¢ sia X tuna solusione di $. Allora le soluzioni di S sono tutti e soli é vettoré det tipo ¥ +X, dove ¥ varia tra le solusioni di Sp. Dimostrazione. Se X € sol(S), abbiamo A(X ~X) = AX - AX = B-B =O; quindi Y= X-~¥X € sol(S) eX =Y¥ +X. Viceversa, se X = ¥ + X con ¥ € sol(So), allora AX = A(Y +X) = AY + AX = AX = B, quindi ¥ + ¥ € sol(S). . 1.4.3 Riduzione e sistemi lineari Lialgoritmo di riduzione si applica allo studio e soluzione dei sistemi lineari grazie al seguente: 14 Sistemi lineari 49 ‘Teorema 1.4.7. Siano $ : AX = B eS! : A'X = Bi sistemi equazioni en incognite. Se Mg ¢ Ms sono equivalenti per righe allora $ ¢ S' sono equivalenti (cio? sol(S) = sol(S")) i éstende a coppie di sistemi che non hanno infatti se per esempio S" ha meno equazioni di S, possiamo aggiungere equazioni del tipo 0 = 0 in modo da avere un sistema equivalente a S’ ma con lo stesso numero di equazioni di S. ‘Vediamo con degli esempi come si applica il Teorema di Equivalenza, Esempio 1.4.8. gtytett=1 S:)2n-yt2z+t=0 3a432+2=1 I metodo consiste nel trasformare la matrice M con operazioni elemen- tari che trasformino A nella sua forma ridotta Ayn. Possiamo vedere che M~M' con lois] Quindi $ & equivalente per il teorema 1.4.7.4 M= 010 000 Ses) meal no Sei we +244et yp JPtt = 3 ya den? Ute 3 Osserviamo la terza equazione ¢ divenuta superflua in quanto risulta sempre vera (0 = 0). Ora possiamo esprimere le variabili che hanno come coefficienti i pivot (variabili dipendenti) in funzione delle rimanenti (variabili indipendenti): 50 1 Matrici e sistemi Tali equazioni si dicono equazioni risolventi di $: se assegnamo un valore az eat, determi Dalle risolventi possiamo esprimere le soluzions di S in forma vettoriale. € sol(S) se ¢ solo se @, Saee ces 8 i i 4 we I Se ey win + el 1 ic Dy wot. + eaieeeT cel meal ay 3 Couiware Evidentemente il sistema ¢ indeterminato, e le soluzioni dipendono di due variabili indipendenti ‘St pud vedere che le variabili possono essere separate in dipendenti ¢ indi- pendenti in modo non unico: ad esempio anche t= —3y +2 sono equazioné risoluenti di S. Cid che rimane invariato @ i numero delle variabili dipendenti (che ¢ i rango r = r(A) di A) © quindi quello delle variabili indipendenti, che & Osservazione. Una variabile del sistema che non compaia nelle risolventi @ indipendente, mentre una variabile che nelle risolventi & costante (per esempio z = 1) & dipendente. Esempio 1.4.9. Sia ztyt2z2=1 S:)2e—y42=0 Se+ytaz=1 Seriviamo la matrici del sistema, ¢ riduciamola come nelUesempio prece- dente: 1.4 Sistemi lineari 51 1a aye 100] -3 M=|2-11 | 0o]~mM=|010| 0 31 3]4 2 Or Ce rls Quindi _. fe 1 at € 8 & determinato con unica soluzione (+3 0.2) - Questo caso pud essere visto come un caso puiticolare del precedente com tutte variabili dipendenti Esempio 1.4.10. Sia etytettal Si) 2e-y+224+t=0 30+324+2t=—1 Questo sistema differisce dal primo solo per il termine noto nella terza equazione. Abbiamo, con le stesse operazioni elementari, che 2 ro1sl ~M= i Ms ~ M' oro ly 0000] € quindi che $ é equivalente al sistema I sistema ottenuto @ impossibile, perché I'ultima equazione ® ovviamente sempre falsa, per cui sol(S) = 0. 52 1 Matrici e sistemi 1.4.4 Risolubilita e rango Come osservato in precedenza, Ia risolubilita di un sistema e il numero i variabili indipendenti che servono per descrivere le soluzioni dipendono da proprieti della matrice associata allo stesso sistema. Chiariamo meglio ‘questo concetto tramite il seguente esempio. Esempio 1.4.11. Sia, al variare dia, bER my +4223 +24—25=0 2142+ 203 —24—25=—1 20, + 23-225 =a 2aq ~ 3g + 24 =b Alora laa = -1 2-1 -1 | 0 ~ (ala) = | | :] 0 2 -3 2 0 | 6 Se riduciamo A in forma srn operando contemporaneamente su Ms otte- niamo 10 o-11 -5 " 1 M=|o1-51 0] 5 00 0 0 0 | ati 00 0 0 0 | 6-1 (le righe 9 € 4 di Ms sono rispettivamente la somma e la differenca delle righe 1 ¢ 2). Bvidentemente M! = Mg, con 1 — n+ yt 25=-5 ys dap ors + oe S':} a2 pe +425 =—5 O=at1 O=b-1 Quindi $ & risolubile se e solo sea =~1 eb=1. Questo equivale a dire che S risolubile se ¢ solo r(Ms) = r(A) = 2. In tal caso possiamo scrivere Te equazioni risolventi 1.4 Sistemi lineari 53 Liem! =-303+5—5 Ae 2 1 (1.6) a= matt 5 che definiscono la relazione tra le variabili dipendenti 21, x2 che hanno come coefficienti i pivot ¢ le variabili indipendenti zs, 24, 75. Quindi ‘auremo r(A) = 2 variabili dipendenti en ~r(A) = 5~2 = 3 variabilé indipendenti Notazione 1.4.12. Se k € N é il numero di variabili indipendenti che servono per descrivere le soluzioni di un sistema lineare, diciamo che il sistema ammette oo¥ soluzioni. Nell'esempio 1.4.11 il sistema (1.6) ammette oo? soluzioni, perché le soluzioni si possono scrivere in funzione delle tre variabili z3, 24 € +5. Ancora dall’esempio 1.4.11 p. osservare che, dato un sistema S = AX = B, r(Mg) pud solo essere uguale a r(A) oppure a r(A) + 1, e che questo fatto determina la risolubilita del sistema in questione. Infatti una forma a scala di Mg avr o lo stesso numero di pivot di Asrn (se Pultima riga @ nulla) o un pivot in pitt (se Pultimo elemento di tale riga non @ 0). Nel primo caso esplicitiamo le dipendenti, nel secondo ultima equazione del sistema ridotto & del tipo 0= a con a #0. Queste considerazioni si generalizzano con un importante teorema. ‘Teorema 1.4.13. (Teorema di Rouché -Capelli) Sia $ : AX = B un sistema lineare con n incognite. Allora $ é risolubile se e solo se r(Ms) = 1(A). In tal caso, se r(A) T ranghi di A e di (A|B) sono r(A) = r(A|B) = 2, per cui, per il teorema di Rouché-Capelli, il sistema ® risolubile, ¢ ammette oo?-? = co! soluzioni. Possiamo rappresentare le soluzioni scrivendo il sistema ‘equivalente ety =13 2=-2/3 e scegliendo come variabile indipendente la y, scrivendo 0-CE)-G)-(8) La matrice del sistema 2: 201 1 | (aiay=[1 -2 1 | 11-24 da cui, riducendo, otteniamo —2 1 1 | 1), (1 -2 1 | -2) gam 1-2 1 | -2] #S% 12 eee l4 11 -2 1 2) 4 1 1 1-21 | -) (1 211-2 ajo -3 3 | -3] ™¥* Jo -3 3 | -3 03 3 | 6 9 0 01 3 In questo caso il sistema non ammette soluzione poiché 2 = r(A) # r(A[B) = 3. 1.4 Sistemi lineari 59 matrice: ©) I sistema @ associato al 2-1-1 -4 | 9 (4[B)=|4 -3 0 -1 | 0 8-2-5 -9 | 18, Riducendo: 2-1-1 -4 | 3) Ream (4B) = [4-3 0 -6 | o| Bo 8 -2 -5 -14 | 6, 2-1-1 -41 3), > fo -1 2 2 | -6| ™A o2 124 - 2-1-1 4) 3 + [o--1 2 2 | -18) oo 3 6 | -18 2-1-1 4 | 3 \ Raw + fo -1 2 2 | -18] “4 oo 1 2] -3 2-10 -2| 0 + {o -1 0 ~4 | -12)*5* oo12] 3 20 0 2 | 12\ Re > [o -1 0 -4 | -12|] + On0e aps) 1001) 6 > f{o104| 2}. 0012] -3 Il sistema ammette cot = co! soluzioni, che possono essere scritte in funzione della variabile t: 2) -t+6 1 6 v|_]-t+22]_,Ja],] 2 z|~|-2-3]“*]-2] *]-3 t t 1 0 4) Scriviamo la matrice del sistema: 2-1] (alay=[ 4-5 | -1 2] 60 1 Matrici e sistemi € riduciamo per determinare le soluzioni 2-1, 1 1 2 | -1) Retam (4B) = [4 -5 | 3] ™S™) a -5 | 3 | HR -1 2 | -1 2-141 rr +E o one acd <= Ln Ke 0 Dalla matrice ottenuta ad che r(A) = r(AIB) = 2, per cui il sistema ammette oo? = 1 soluzione. Tale soluzione & eeplicitata nella colonna dei termini noi della matrice xn ottenuta, ed é quindi ()- (i) izio 1.4.2. Risolvere e discutere, al variare dei parametri reali pre- i seguenti sistem lineari: a+ hy—ke=0 a) {y-22-t=0 ztz+kt=0 ttytaz=-a b) far+z=-2 (a+1r+y-2=0 Soluzione 1.4.2. a) Il sistema dipende da un parametro reale k e la ma- trice associata al sistema é la seguente: Lk -k 0 | 0 * (AiB)=|0 1 -2 -1 | of. 101 k | 9, Riducendo la matrice abbiamo 1k -k 0 | 0 lk -k o | 0 01-2 -1 | oJ "™5"/o 1 -2 140 10 1 k 190 O -k l+k k | O 1.4 Sistemi lineari 61 Distinguiamo ora i due casi: Caso 1) Possiamo osservare che per & # 1 si ha r(A) = r(. il sistema ammette co? = oo! soluzi Quindi le soluzioni dipendono da una sola variabile e le soluzioni possono essere calcolate esplicitamente riducendo ulteriormente la matrice: Tk -k 0 1", pil k 10 Ofte tt Octane a) 110 001-k 0 | 0 001 0 ja, k 1] 3) futkre/1 k 0. 0 | 0 100 "Bo 10-1 | o|"4™(0 1 0 o1o0! ool 0 kt t soke=4} 9 [ER ItER?. t Caso 2) Se consideriamo unico valore di k escluso nell’analisi precedente (k= 1) otteniamo 11-1 0 | 0 10 1 0 | 0 o1 2 -1 | 0) ™"fo1 2 ajo 000 0 |4, 00 0 lo Essendo r(A) = r(AjB) = 2, il sistema ammette oof? = oo? soluzioni. Le soluzioni saranno «(f° crea t b) La matrice associata al sistema, dipendente dal parametro reale a, 8 la seguente: 1 1 a@ | -@ (iay=| @ 01 | etl 1-1] 0 Ul determinante di A @ det A = a? + 2a. Quindi per a # 0, —2 il sistema é determinato per il teorema di Cramer 1.4.15. Se i cercano le soluzioni in funzione di a possiamo usare la Regola di Cramer oppure la riduzione. Procedendo per riduzione abbiamo B) =3,¢ 62 1 Matrici e sistemi roa nn (h 2 a @ 0 2) lao 1 | -2 ati | 0 @ 0 -1-a | a ‘A questo punto possiamo continuare la riduzione scegliendo come pivot Pelemento di posizione 2, 3: ao Tf -3)me™( got] a0 -l-ala a? +20 0 0 | -a-2, Abbiamo dunque che il rango di A ® massimo se a? + 2a #0. Lae 1 2 Caso 1) Se a? + 2a 4 0, si ha r(A) = r(A]B) = 3, e il sistema ammette una sola soluzione. Riducendo completamente la matrice Vila | =a) Anke > fao1|] -2)*38 100 | -I/a, la o1 0 (1-@?)/a O10] If 100) 100 | -I/a, 1 casi non ancora analizzati, ovvero i casi in cui a? + 2a # 0, sono due: a =0e a= 2. Caso 2) Se consideriamo a = ~2 otteniamo 11-2] 2), (-3 101 - 20 1 | -2)™#"/-2 01 | -2], ooo}o 000] 0 da cui si vede che il sistema ammette oo? = oo! soluzioni, essendo r(A) = r(AJB) = 2. Le soluzioni sono sol= {| -2+32] €R'zeR 24 2x, 14 Sistemi lineari Caso 3) Con a = 0 otteniamo Da questa matrice essendo r(A) 4 r(A ) 63 a 0 0 G2i13) vede che il sistema non ammette soluzioni, Capitolo 2 Spazi vettoriali 2.1 Spazi vettoriali astratti Prendendo a modello le matrici Mmm n con le operazioni di somma e prodotto per uno sealare, introduciamo il concetto di “spazio vettoriale su K” come insieme su cui siano definite due operazioni che hanno le stesse proprieta delle dette operazioni tra matrici. 2.1.1 Definizione e esempi Definizione 2.1.1. Uno spazio vettoriale sul campo degli scalari K 2 un insieme V i cui elementi sono detti vettori e su cui sono definite due ope- razioni, dette genericamente somma di vettori e prodotto per uno scalare che soddisfano le seguenti proprieta: Somma: Se v, v € V, la somma di v ev! é un elemento di V indicato conv +v' tale che: SI) vitva=v2+vi per ogni vi, v2 € V (commutativita ); 2) vi + (v2 + v3) = (vi + v2) + v5 per ogni vi, v2, v3 € V. (associativita); 53) esiste Ov € V (vettore nullo) tale che v-+ Oy = v per ogniv € V (esistenza dell’elemento neutro); S4) per ogni v © V esiste —v € V (opposto div) tale che v+(—v) = Oy (esistenza dell'opposto). 65 ww 2 Spai vettoriali Prodotto: Se v € V ea K,, il prodotto div per a @ un elemento iV indicato con av tale che: Pl) 1 Q2 €K ¢ per ogni v eV; P2) a(vi + v2) = avs + ave per ogni a € K ¢ per ogni vi, v2 € Vj 3) ax(cv) = (ayag)v per ogni ar, a2 € K ¢ per ogni v € V; PA) =v per ogni v € V. +as)v = ayy + apy per ogni Se non ci sono rischi di confusione possiamo scrivere 0 al posto di Oy. Le seguenti proprieta (1)-(6) si deducono dagli otto assiomi $1-$4, P1- P4. Osserviamo che nel caso delle matrici tali proprieta si provano anche er verifica diretta, 1. Ul vettore nullo 0 @ unico: infatti se 0’ @ un elemento neutro, 0! = +0=0. Se v € V, il suo opposto —v é unico: infatti se v’ & un opposto di v, V=V+0=5V+(v—-v)=(v4+y)-v=0-ve-~v, Ov = 0: infatti Ov = (0 + 0)v = Ov +0v + Ov = 0v—Ov=0. 20 = 0: infatti a0 = a(0 + 0) = a0 +00 = a0 = a0 ~ 00 =0. Se av = 0 allora a=0 0 v = 0: infatti se a #0 abbiamo v=lv=aav=a70=0. 6. ~1v = —v; infatti v+ (Iv) = (1-1) = Ov = 0, quindi -1v = —~v per Punicita dellopposto. Esempio 2.1.2 (Matrici e spazi K"). La matric’ Mn, con la somma e il prodotto per scalare definiti in precedenza sono, in base alle definizioni date, spazi vettoriali su K per ogni coppia (m,n). In particolare gli spazi KK" (identificati con Min 0 Mn,1) sono gli spazi vettoriali che ci forniscono Vesempio base per lo studio generale degli spazi vettoriali su K detti di dimensione finita. Esempio 2.1.3 (Funzioni). Sia I un insieme qualsiasi. L'insieme F(I) = {f 11+ R} delle funzioni reali su I é uno spazio vettoriale su R con le operazioni: 2.1 Spaai vettoriali astratti or 4. (fF +9)(2) = fe) + 9(2); 2 (af)(z) = af(z). Prendendo come elemento neutro la funzione costante 0 (funzione nulla) € come opposto di f la funzione (~f)(z) = —f(2) le (S1)-(S4) e (P1)-(P4) sono di verifica immediata ; Per esempia, e funsioni f(z) = = € ola) = - 15 ) con A=R\{1, -1}. Per queste funcioni abbiamo 2 DG +2) = as aL e=17 appartengono a 2) -3f(2) = — 3(-f(a)). 1.4 (Polinomi). I polinomé (a coefficienti) in K sono le espres- aotar+--+agr4, dove a; € K, ag # 0.€2 é-un simbolo detto intero d si dice il grado del polinomio. Indichiamo Uinsieme dei polinomi in K con K(z] Allora Kf] 2 uno spazio vettoriale su K con le usuali operazioni, che ricordiamo di seguito. 1, Se plz) = a9 +ajz4---+a4r4, q(x) = bot bizt---+ baz" eae K, assumendo h > d (altriment si scambia p con q) ¢ ponendo ay = 0 per ogni k > d, P(z) + 9(2) = ao + bo + (a1 + by)z +++ (an + by) x®. 2. Se plz) = a9 +ar+---+agx4 ea K, ap(2) = aay + aar2 +--+ ange L'elemento neutro & il polinomio con tut é coefficienti uguali a 0 (polinomio nullo, con grado ~1 per convensione), mentre Uopposto di p(2) € ~y(2) = Ay = a2 + +++ — aga! Se per esempio consideriamo P(2) = 325 +22 e g(2) = 27-22 +1, abbiamo 1) pla) + ofa) = ~325 +2? -2~1; 2) -p(a) = 323 — 2 +2 e dg(z) = 42? — Br +4. 68 2 Spazi vettoriali Esempio 2.1.5. Si considerino sull’insieme Rt = {2 € R | x > 0} dei numeri reali positivi le operazioni 2[+]y = zy (“somma”) ea+z = 2% (‘prodotto per scalare"), con x, y € Rt ea € R. Allora R+ con tali operazioni é uno spazio vettoriale suR. Infatti la moltipticazione tra numeri positivi soddisfa ($1)-(S4) con0=1 e—2= 2-1, mentre per + valgono Pi) (a+ B) a= 2088 = 2908 = 2[ +08 = ax a[t]8 +2; P2) acs (2lt]y) = ae ay = (ay) = oy" = 24 ]y" = a+ zltlaey; PS) c+ (B #2) = (a4 a8 = (28)? = 2°? = (af) +z; Ph) lew=e. 2.1.2 Sottospazi vettoriali Definizione 2.1.6. Un sottoinsieme U CV non wuoto di uno spazio vetto- Tiale V su K si dice sottospazio vettoriale diV se U é uno spazio vettoriale su K con le stesse operazioni di V. Poiché le proprieta delle operazioni non dipendono dall’appartenenza a U, ® sufficiente che operando con elementi di U si resti in J. Quindi U CV & un sottospazio vettoriale di V se e solo se, comunque dati vi, v2 € U e @ € K abbiamo 1. 0€U; 2. vitv2 € U (chiusura rispetto alla somma); 3. av € U (chiusura rispetto al prodotto per scalare). Questa proprieta si pud scrivere nella seguente forma: Proposizione 2.1.7. Un sottoinsieme non vuoto U di V é un sottospazio vettoriale di V se ¢ solo se Won, a2 € K, Vwi, v2 €U: anv; + agve €U. (211) Osservazione. “U non vuoto” equivale a 0 € U; infatti, se U # 0, allora esiste v € U, quindi 0 = Ov € U. Viceversa, 0 € U implica U #0. Uno spazio vettoriale V contiene sempre almeno due sottospazi vetto- Tali, detti sottospazi banali, ovvero V e {0}. Infatti l'insieme {0} formato dal solo vettore nullo & un sottospazio vettoriale detto sottospazio nullo: & Punico sottospazio vettoriale formato da un solo vettore. 2.1 Spazi vettoriali astratti 69 Un sottospazio vettoriale U di V si dice proprio se U #V, non nullo se 740) Esempio 2.1.8 (Sottospazi di K"). Se $ : AX = 0 é un sistema lineare omogeneo con A € Mm, allora Vinsieme sol(S) & un sottospazio vettoriale diK", Infatti se X1, Xz € sol(S) €a,8 € K, allora AX, =0, AX, =O ¢ A(aX; + Xz) = @AX + BAX, =O, quindi aX; + Xr € sol(S) Se un sottospazio U = sol(S) viene descritto tramite le equazioni del siste- ma S si dice che U ¢ rappresentato in forma implicita. Come casi particolaré abbiamo i sequenti: 1. Il sottospazio vettoriale nullo si ottiene come soluzione di qualsiasi sistema $: AX =O con AE GIy. 2. KM 2 Vinsieme delle soluzioné di ogni sistema OmnX =O (matrice dei coefficienti nulla). Esempio 2.1.9 (Sottospazi di matrici). Una mairice A € My si dice simmetrica se At = A. Ad esempio On, In € ba (3) sono simmetriche; & immediato verificare che anche A+B ¢ aA sono simmetriche per ogni a € K. In generale, il sottoinsieme Sy = {A € Mn; At = A} delle matrici simmetriche in My, é un sottospazio vettoriale di Mn. Altri sottospazi vettoriali di Mn, sono ¢ seguenti: 1. Dinsieme delle matrici antisimmetriche: A, = {A € Mn; At = —A} (si veda Vesercizio 2.1.6); = 0 sei > j} delle matrici 2.1.8); 2, Linsieme Tt = {A € Mn; [A] triangolari superiori (si veda lesere 3. Liinsieme Ty = {A € Mn; [Aky = 0 se i 1 Infatti soramando ¢ mol i, continue o differencia tipo. icando per uno scalare funsioni polinomia- si oltengono ancora funzioni dello stesso 2.1 Spasi vettoriali astratti n 3. Le solusions di equazioni differenziali lineari omogenee. Per esempio le soluzioni di y/' + y =0 sono le funsioni f(x) = acosz + bsinz al variare dia, 6 in R, le cui somme e prodotti per uno scalare sono funzioni dello stesso tipo. Non @ difficile provare che l'intersezione di sottospazi vettoriali & ancora un sottospazio vettoriale. Proposizione 2.1.12. Se V é uno spazio vettoriale suK ese U; eUz sono sottospazi vettoriali di V allora Ui Us & un sottospazio vettoriale di V. Dimostrazione. Se v, v € U: NU; € a,8 € K allora v, Ve The v, VE Us, quindi av + Bv' € Ui e av+ By’ € Up cio’ av + BY € Ui Us Osserviamo che lo spazio ottenuto come intersezione dei due sottospazi Us e Ur ha la caratteristica di essere il pit: grande sottospazio contenuto in entrambi, ossia se U @ un sottospazio di V tale che U CU; e U C U2 allora UCUNU ‘Al contrario di quel che succede per l'intersezione, l'unione di due sot- tospazi vettoriali non @ in generale un sottospazio vettoriale, nonostante contenga il vettore mullo e sia chiuso rispetto al prodotto per uno scalare (si veda esempio2.1.9 al punto 6). Il pit piccolo sottospazio che contenga Punione di due sottospazi é la somma dei due definita come segue. Definizione 2.1.13. Siano U; ¢ Uz sottospazi vettoriali di uno spazio vettoriale V su K. L'insieme Uy, + Ua = {uy + up | ui € Ui, ua € Uo} si dice somma di U; Us. Inoltre, se Uy U2 = {0}, la somma si dice diretta ¢ si scrive Ui ® U2. Proposizione 2.1.14. Siano U; € Us sottospazi vettoriali di uno spazio vettoriale V suK. Allora U;-+Us é un sottospazio vettoriale di V contenente U,UUz. Inoltre, se U é un sottospazio vettoriale di V tale che U; CU e U2 CU allora Uy + U2 CU. Dimostrazione. Se u, + uz ¢ uj + uf sono in Us +Up ese a, f € K, allora x(my + uz) + B(uy + 05) = (amy + Buh) + (cra + Bus) € Us + Ua, Seu € Uj, allora u € Ui + Us in quanto u = u+0e0 € Ur: quindi Ur C Ur + Up. Analogamente per Uz C Ui + Us. Inoltre, se Ui UU2 CU, ‘anche ogni somma u; + 2 appartiene a U in quanto sottospazio, e quindi U+Wacu. .

You might also like