You are on page 1of 30

Appunti di Geometria 1

delle dispense della prof Elena Rubei

.

.

c.b. a · a = a · a−1 = 1 Distributiva: ∀ a.c ∈ K a(b+c) = ab + bc (a+b)c = ac + bc Se il prodotto gode della propriet´ commutativa. a ab = ba ∀ a.b. ∈ K 0 ` l’elemento neutro della somma: 0 + a = a + 0 = 0 e ∀a∈K Esistenza dell’opposto: ∀ a ∈ K ∃ -a ∈ K t.b. allora -k ∈ P • P ∩ { -k | k ∈ P } = ∅ • k1 + k2 .c ∈ K Commutativa della somma: a + b = b + a ∀ a. 1 k1 > k2 . k2 ∈ P Dati k1 . e CAMPI ORDINATI: Un campo K si dice ordinato se contiene un sottoinsieme P (insieme degli elementi positivi) che gode delle propriet´: a • 0 ̸∈ P • se k ∈ K . R e C sono dei campi.b. Zp ´ un campo se e e e solo se p ` primo. 1 e su cui sono definite due operazioni binarie di somma (+) e prodotto (·) che godono delle propriet´: a Associativa della somma: (a + b) + c = a + (b + c) ∀ a.Corpi e Campi CORPO: Un corpo ` un insieme K. ESEMPI DI CAMPI: Q.c ∈ K 1 ` l’elemento neutro del prodotto: 1 · a = a · 1 = a e ∀a∈K −1 −1 Esistenza dell’inverso: ∀ a ̸= 0 ∈ K ∃ a ∈ K t. k2 ∈ K vale una e una sola delle tre relazioni: k 1 < k2 . k1 k2 ∈ P per ogni k1 .b ∈ K diciamo che K ` un CORPO COMMUTATIVO o CAMPO.c ∈ K •a+b=a+c⇔b=c • a0 = 0a = 0 • (-1)a = -a • (-a)b = a(-b) = -ab • (-a)(-b) = ab • ab = 0 ⇔ a = 0 o b = 0 • L’opposto e l’inverso sono unici. che contiene almeno due elementi distine ti 0.b. k1 = k2 . e PROPRIETA’ DEI CORPI: ∀ a. a + (-a) = -a + a = 0 Associativa del prodotto: (ab)c = a(bc) ∀ a. Fissato un intero p > 1 Zp ´ l’insieme delle classi di resto degli interi modulo p. c.{0} e k ̸∈ P.

e SOMMA E PRODOTTO PER SCALARI: Siano A.j + Bi.. si dice norma o lunghezza di v il numero reale √ |v| = (v.j ∀ i = 1.w) = vi wi i=1 con le seguenti propriet´: a • Simmetria: (v.m ∀ j = 1. K) = { A | A matrice m × n a coefficienti in K} M(m × n.v) ≥ 0 ∀ v ∈ R e (v.w) = (w...j = Ai. Si dice a coefficienti in un corpo K e se tutti gli elementi sulla tabella sono elementi di K.j = λAi. v) con le seguenti propriet´: a • |v| ≥ 0 ∀ v ∈ Rn : inoltre |v| = 0 se e solo se v = 0.. K) ´ uno spazio vettoriale su K...n PRODOTTO SCALARE STANDARD E NORMA: Si definisce prodotto scalare standard fra due elementi v e w di K n lo scalare: n ∑ (v.w ∈ K n • Bilinearit´: linearit´ al primo ed al secondo argomento a a • Se K = R. • |λv| = |λ||v| ∀ λ ∈ K.v) = 0 ⇔ v=0 Sia v ∈ Rn ... (v.j ∀ j = 1..... Una matrice m × n ´ una tabella con m righe ed n colonne.Matrici MATRICE: Siano m ed n numeri naturali positivi. allora si definisce λA come la matrice m × n tale che: (λA)i. ∀ v ∈ Rn . M(m × n.m ∀ i = 1...B ∈ M(m × n..v) ∀ v. e n K ´ l’insieme delle matrici n × 1.. K) allora si definisce A+B come la matrice m × n tale che: (A + B)i.n Sia λ ∈ K. 2 .

. Si definisce Trasposta di A (e si indica con t A) la matrice n × m cos´ definita: ı (t A)i.j = Aj...j = ∀i = 1. K) e B ∈ M(n × l.k Bk..K) e (AB)−1 = B −1 A−1 ∗ Se A ∈ GL(n..j = (t A(i) .m n ∑ k=1 Ai.m ∀ j = 1..B ∈ M(m × n. K).K) = {A ∈ M(n × n.. o equivalentemente..B (j) ) Il prodotto di matrici gode delle seguenti propriet´: a • (AB)C = A(BC) • A(B+C) = AB + AC • (A+B)C = AC + BC • λ(AB) = (λA)B = A(λB) • AIn = Im A • Se K ` un campo.n • t con le seguenti propriet´: a t t • ( A) = A • t( A + B ) = tA + tB ( λA) = λ t A Sia A ∈ M(n × n.n} Se in K 1 + 1 ̸= 0 allora gli elementi sulla diagonale principale di una matrice antisimmetrica sono nulli..j = 0 per i ̸= j • Identit´: Se la matrice ha tutti 1 sulla diagonale e 0 altrove a • Invertibile: A ´ invertibile se esiste B ∈ M(n × n. K) | A invertibile} Propriet´: a ∗ La matrice inversa ´ unica e ∗ Se A. A si dice matrice quadrata e: • Antisimmetrica: Se ai...... Si definisce AB la matrice m × l cos´ definita: ı (AB)i. A ´ antisimmetrica se e solo se A = -t A e • Diagonale: Se ai.j = -aj..i ∀ i = 1...j ∈ {1..n.. (AB)i. t (AB) = t B t A e TIPI DI MATRICI: Siano A..K) ⇒ A−1 ∈ GL(n.i ∀ i.K) ⇒ AB ∈ GL(n.j ∀j = 1. K). K). B ∈ GL(n. tale che: e AB = BA = In GL(n.K) e (A−1 )−1 = A ∗ Se AB = I ⇒ BA = I 3 .. K)..PRODOTTO DI MATRICI: Sia A ∈ M(m × n.

.j = 0 per i < j • Triangolare superiore: Se ai.j ∈ {1. • Triangolare inferiore: Se ai. e Come trovare l’inversa.j = (−1)i+j det(Aˆ ˆ) j.∗ A ∈ GL(n. ovvero le righe e le colonne di A sono di norma 1 e ortogonali fra loro per il prodotto scalare standard (tali che il prodotto scalare standard sia nullo)..i det(A) • Ortogonale: Se t AA = At A = In .. a destra la matrice In .j = 0 per i > j 4 . primo metodo: 1) Affiancare ad A.i ∀ i. • Simmetrica: Se ai. 3) La matrice B ´ l’inversa di A.j = aj.K) ⇔ rk(A) = n ⇔ det(A) ̸= 0 Come trovare l’inversa.n} A ` simmetrica se e solo se A = t A e ´ • Traccia: E la somma degli elementi della diagonale.. Propriet´: le matrici ortogonali sono invertibili: A−1 = t A a • Singolare: A ` singolare se det(A) = 0. secondo metodo: (A−1 )i. Le matrici singolari non sono e invertibili. ottenendo (A|In ) 2) Fare operazioni elementari di riga su (A|In ) fino ad ottenere una matrice del tipo (In |B).

• Un sistema lineare ha soluzione se e solo se.xn pu´ o essere scritto nella forma: Ax = b per una certa matrice A ∈ M(m × n.Risoluzione di sistemi lineari SISTEMA LINEARE: Un sistema lineare ´ un sistema di equazioni lie neari.. Tipo III: Sommare ad una riga un multiplo di un’altra riga. TEOREMI: • Un sistema lineare omogeneo ha sempre una soluzione: quella nulla. Se b = 0 il sistema si dice omogeneo.. Allora: ¯ { x ∈ K n | Ax = b } = { x + y | y ∈ K n e Ay = 0 } ¯ 5 . non ci sono pivots nell’ultima colonna. MATRICE A SCALINI: Una matrice si dice a scalini (per righe) se soddisfa le seguenti propriet´: se in una riga i primi k elementi sono nulli. • Supponiamo che esista una soluzione x del sistema lineare Ax = b. Data una qualsiasi matrice. • Un sitema lineare omogeneo con pi´ incognite che equazioni ha una soluu zione non nulla. La matrice (A|b) si dice completa del sistema. allora a la riga successiva (se esiste) o ` tutta nulla o almeno i primi k+1 elementi e sono nulli.. riducendo a scalini con operazioni elementari di riga la matrice completa. Tipo I: Scambiare due righe Tipo II: Moltiplicare una riga per uno scalare non nullo.. ´ Pivot: E il primo elemento non nullo di ogni riga non nulla di una matrice a scalini. dove x ´ l’n-upla e delle incognite. non si alterano le soluzioni del sistema. una matrice a scalini. con operazioni elementari o di riga di tipo I e III. OPERAZIONI ELEMENTARI DI RIGA Compiendo operazioni elementari di riga su una matrice completa di un sistema. La matrice A si dice incompleta del sistema. cio´ un sistema di equazioni i cui membri sono polinomi di grado ≤ 1 e nelle incognite. si pu´ ottenere da essa. Un sistema lineare di m equazioni e n incognite x1 . K) e un certo b ∈ K m .

..ˆ ˆi xi = k=1 det(A) 6 .K) e b = t (b1 . L’unica soluzione x ` data dalla formula: e n ∑ (−1)i+k Ak.. bn ) e Ax = b il sistema associato. .REGOLA DI CRAMER: Sia A ∈ GL(n.

c.u ∈ V Commutativa della somma: v + w = w + v ∀ v.w ∈ S e ∀ λ ∈ K: • Chiusura per la somma: v + w ∈ V • Chiusura per la moltiplicazione per scalari: λv ∈ V Propriet`: a • Un sottospazio vettoriale S di uno spazio vettoriale V contiene 0V • Un sottospazio vettoriale S di uno spazio vettoriale V con le operazioni di somma e di prodotto per scalari ereditate da V ` lui stesso uno spazio e vettoriale.w ∈ V 0 ` l’elemento neutro della somma: 0 + v = v + 0 = 0 e ∀v∈V Esistenza dell’opposto: ∀ v ∈ V ∃ -v ∈ V t. ∈ K PROPRIETA’ DEGLI SPAZI VETTORIALI: ∀ v. Sia V un insieme che contiene due elementi. ∀ λ. Un sottospazio di V ` un sottoinsieme non vuoto S di V tale che ∀ v.w. 0 e 1 e dotato di due operazioni binarie di somma (+): V × V → V e l’altra detta prodotto per scalari (·): K × V → V che godono delle propriet`: a Associativa della somma: (v + w) + u = v + (w + u) ∀ v. 7 . ∀ λ. SOTTOSPAZI VETTORIALI: Sia V uno spazio vettoriale su K. v + (-v) = -v + v = 0 Distributiva per la somma in K: (λ + µ)v = λv + µv ∀ v ∈ V.w ∈ V.u ∈ V •v+w=v+u⇔w=u • v0 = 0v = 0 • (-1)v = -v • L’opposto e l’inverso sono unici.Spazi vettoriali SPAZIO VETTORIALE: Sia K un campo. ∀ λ. ∈ K 1 ` l’elemento neutro del prodotto: 1 · v = v ∀ v ∈ V e (λµ)v = λ(µv) ∀ v ∈ V. Gli elementi di uno spazio vettoriale si dicono vettori. µ∈K Distributiva per la somma in V: λ(v + w) = λv + λw ∀ v.w.

. ... + λk vk = 0 ⇒ λ1 = ..Qualsiasi spazio vettoriale V ammette una base..... L’insieme delle soluzioni di un sistema lineare in n incognite ` un sottospazio e n vettoriale di K se e solo se il sistema lineare ` omogeneo... e VETTORI DIPENDENTI E INDIPENDENTI Sia V uno spazio vettoriale: • Si dice che un insieme di vettori v1 . detto span di e v1 .... + λk vk = 0 Propriet`: Se {v1 . ...........λk il vettore λ1 v1 + ....COMBINAZIONE LINEARE E SPAN: Sia V uno spazio vettoriale.vk ⟩.... o • Si dice che un insieme di vettori v1 . Siano v1 ....... e GENERATORI: Sia V uno spazio vettoriale....λk ∈ K...vk .λk ∈ K non tutti nulli tali che: λ1 v1 + ..vk non cambia: • Cambiando l’ordine dei generatori • Moltiplicando un generatore per uno scalare non nullo • Sommando ad un generatore un multiplo di un altro generatore. Un insieme di vettori di V si dice un insieme di generatori per V se ogni elemento di V ` una loro e combinazione lineare......vk .Le basi finite di uno stesso spazio vettoriale hanno tutte la stessa cardinalit`.vk ` un insieme di vettori linearmente e indipendenti se: λ1 v1 + .. Propriet`: a . BASE: Sia V uno spazio vettoriale.......... a 8 .vk ∈ V e λ1 ... cio` e { λ1 v1 + ..λk ∈ K } ` un sottopsazio vettoriale di V. k} tale che v1 si pu` scrivere come combinazione lineare di v1 .... Una base di V ` un insieme di vettori e linearmente indipendenti. generatori di V..vk ` un insieme di vettori linearmente e dipendenti se esistono λ1 ... Si definisce combinazione lineare di v1 .. denotato con ⟨ v1 .vk Lo span di v1 ..vk } ` un insieme di vettori dipendenti di V allora esiste a e i ∈ {1. = λk = 0 Propriet`: Un sottoinsieme di un insieme di vettori linearmente indipendenti a ` ancora un insieme di vettori linearmente indipendenti. + λk vk L’insieme delle combinazioni lineari di v1 .vk con coefficienti λ1 ... + λk vk | λ1 .

.. w + w’) c(v. w ∈ W .. affinch´ {v1 ... CONDIZIONI SUFFICIENTI PER UNA BASE: Se {v1 .vn siano linearmente indipendenti.. K) ha dimensione m·n • Kd [x] = { a0 + a1 x + .vn } sia e una base di V..vk generano uno spazio vettoriale V..vk } ` una base di V.. DIMENSIONE PRODOTTO CARTESIANO: Siano V e W due spazi vettoriali sullo stesso campo K. cw) ∀ v.vn } ⊂ V spazio vettoriale di dimensione n. w) := (cv. DIMENSIONE DEI SOTTOSPAZI: Sia S un sottospazio vettoriale di dimensione k di uno spazio vettoriale V di dimensione n.vn } tali che {v1 .. TEOREMA DEL COMPLETAMENTO: Dato un insieme di vettori linearmente indipendenti {v1 ..dim(A ∩ B) 9 .. Sia A+B = { a + b | a ∈ A.... • M(m × n.. Sul prodotto cartesiano V × W si possone definire le operazioni: (v. Con tali operazioni V × W ` uno spazio vettoriale su K e: e dim(V × W) = dim(V) + dim(W) FORMULA DI GRASSMAN: Siano A e B due sottospazi di uno stesso spazio vettoriale V... + ad xd | a0 .. w’) := (v + v’..DIMENSIONE: Si dice dimensione di uno spazio vettoriale la cardinalit` a di una sua base... allora k≤n e Se k = n ⇒ S = V .....vn } sia una base ` sufficiente e e che v1 ... c ∈ K..vk } in uno spazio vettoriale V di dimensione n. w’ ∈ W ∀ v ∈ V .. v’ in V. e se k < n ⇒ ` sempre possibile trovare {vk+1 .. Allora: dim(A+B) = dim(A) + dim(B) . TEOREMA DELL’ESTRAZIONE DI BASE: Se v1 . inoltre se k = n ⇒ {v1 .. ∀ w.. • Il sottospazio costituito dal solo vettore nullo ha dimensione 0.. allora: k ≤ n.ad ∈ K } ha dimensione d + 1. si pu` trovare un sottoinsieme di essi che formi una base o di V... w) + (v’. b ∈ B }.. oppure che siano generatori di V..

..wn ∈ W.. Si definisce nucleo (kernel) di f il seguente sottoinsieme di V: Ker(f ) = { v ∈ V | f (v) = 0 } Si definisce immagine di f il seguente sottoinsieme di W: Im(f ) = { w ∈ W | ∃ v ∈ V t.. Sia f : V → W una funzione lineare.... e e 10 .. Inoltre: • se w1 ....wn } ` una base di V =⇒ f ` bigettiva.. f (v = w) } = { f (v) | v ∈ V } ´ PROPRIETA DELLE FUNZIONI LINEARI: • f (0V ) = 0W • Ker(f ) ` un sottospazio vettoriale di V e • Im(f ) ` un sottospazio vettoriale di W e • f ` iniettiva ⇐⇒ Ker(f ) = {0V } e • f ` bigettiva =⇒ f−1 ` lineare.wn sono indipendenti =⇒ f ` iniettiva. Sia {v1 .vn } una base di V e siano w1 . n.. e • se w1 ...c.Applicazioni lineari APPLICAZIONE LINEARE: Siano V e W due spazi vettoriali su K.. Allora esiste una e una sola applicazione lineare f : V → W tale che f (vi ) = wi per i = 1. Allora: dimKer(f ) + dim Im(f ) = dim V FISSARE L’IMMAGINE DI UNA BASE Siano V e W due spazi vettoriali su K. e e RELAZIONE FONDAMENTALE: Siano V e W due spazi vettoriali su K con dim V < + ∞. Si dice che f : V → W ` una applicazione lineare se e solo se valgono le see guenti propriet`: a • Additivit`: a f (v + w) = f(v) + f(w) ∀ v. .w ∈ V • Omogeneit`: a f (λv) = λ f (v) ∀v∈V..∀λ∈K NUCLEO E IMMAGINE: Siano V e W due spazi vettoriali su K e sia F : V → W una funzione lineare..wn sono generatori di V =⇒ f ` surgettiva.. e • se {w1 .....

e Due spazi vettoriali V e W su uno stesso campo K si dicono isomorfi se esiste un isomorfismo fra V e W.ISOMORFISMI: Siano V e W due spazi vettoriali su un campo K.. e • Per ogni f : K n → K m esiste A ∈ M(m × n.pn } una base ordinata di V e A = {a1 . Siano mi.P (f). cos` definiti: ı m ∑ f (pj ) = mi.P (f ))i..j = mi.. e si denota MA.. K). dove φP ` l’isomorfismo che associa a v l’n-upla delle coordinate di v rispetto e a P. j = 1.j ∈ K per i = 1. di K n e K m A = Mϵ. Un isomorfismo da V a W ` un’applicazione lineare bigettiva f : V → W... Propriet`: Due spazi vettoriali su uno stesso campo sono isomorfi se e solo a se hanno la stessa dimensione. Allora il seguente diagramma ` commutativo: e 11 . L’applicazione associata ad A ` l’applicazione e n m f : K → K cos` definita: ı fA (x) = Ax ∀ x ∈ Kn Propriet`: a • fA ` lineare.j ai ISOMORFISMI E MATRICE ASSOCIATA: Sia v ∈ V e sia x = φP (v).ϵ (f) ˜ ˜ • L’immagine di fA ` generata dalle colonne di A.an } una base ordinata di W.. K) tale che f = fA • Dette ϵ ed ϵ le basi canoniche ordinate..... m. la matrice m × n cos` definita: ı (MA. .. Sia f : V → W un’applicazione lineare. n. Sia P = {p1 . . e MATRICE ASSOCIATA AD UNA APPLICAZIONE LINEARE: Siano V e W due spazi vettoriali di dimensione finita n e m ripsettivamente. APPLICAZIONE ASSOCIATA AD UNA MATRICE: Sia A ∈ M(m × n...j ai i=1 Si definisce matrice associata a f nelle basi ordinate P ed A.

B (IV )−1 ˜ ˜ 12 .P (g ◦ f ) = MA.P (f ) = MA.B (IV ) = MB.U tre spazi vettoriali su un campo K di dimensione finita e siano P .B (g) MB.A (IW ) MA. Allora: MA. W.P (f ) MP.B.W. Sia f : V → W un’applicazione lineare.P (f ) ˜ • Siano V e W due spazi vettoriali sullo stesso campo e siano P e P due ˜ basi di V e A e A due basi di W. Siano f : V → W g: W → U due applicazioni lineari. U. A basi ordinate rispettivamente di V. Allora: MA.´ PROPRIETA DELLA MATRICE ASSOCIATA: • Siano V. Allora: MB.P (IV ) ˜ ˜ ˜ ˜ • Sia V uno spazio vettoriale su un campo K di dimensione finita n e siano ˜ B e B due basi ordinate.

Allora rk(A) ≤ min{m.. 13 .A(m) ⟩) Si definisce rango per colonne di A la dimensione del sottospazio di K m generato dalle colonne di A: rkc (A) = dim(⟨ A(1) .. µ ∈ K) si ha: D(A) = λD(A’) + µD(A”) dove A’..rk(B)} • Siano A e C invertibili e tali che i prodotti AB e BC siano leciti ⇒ rk(AB) = rk(B) = rk(BC) ´ ROUCHE-CAPELLI: Sia A ∈ M(m × n. a ALTERNANZA: Una funzione D: M(n × n..A(nm) ⟩) ´ PROPRIETA DEL RANGO: • Il rango per righe ` uguale al rango per colonne e • Il rango non cambia facendo operazioni elementari di riga o di colonne • Il rango di una matrice ridotta a scalini ` uguale al numero di scalini e • dim(Ker(fA )) = n . Analogamente si definisce l’alternanza delle colonne. A” sono le matrici n × n tali che ∀i ̸= k A(i) = A′(i) = A′′ . K) → K si dice alternante delle righe se D(A) = 0 per qualsiasi A ∈ M(m × n. K) con due righe uguali.. K) tale che A(k) = λv + µw (λ. K) → K si dice una funzione multilineare nelle righe se vale seguente propriet`: a ∀ A ∈ M(m × n..rk(A) • dim(Im(fA )) = rk(A) • Sia A ∈ M(m × n.. Il sistema lineare Ax = b ha soluzione se e solo se: rk(A) = rk(A|b) ´ MULTILINEARITA: Una funzione D: M(n × n. K) e sia b ∈ K m . K).n} • Se A e B possono essere moltiplicate ⇒ rk(AB) ≤ min{rk(A). Si definisce rango per righe di A la dimensione del sottospazio di K n generato dalle righe di A: rkr (A) = dim(⟨ A(1) . K).. (i) A′(k) = v e A′′ = w (k) Analogamente si definisce la multilinearit` nelle colonne.Determinante e rango RANGO: Sia A ∈ M(m × n.

si definisce detc (A) = a Sia n ≥ 2. n}. K): Se n = 1 e quindi A = (a) per un certo a ∈ K.. K) → K (determinante sviluppato per una colonna) nel modo seguente. K) → K una funzione multilineare nelle righe (valgono teo˜ remi analoghi per le colonne). a DETERMINANTE: • Si definisce detc : M(n × n. Definiamo: det (A) = c n ∑ i=1 (-1)i+j ai. D(A) ` il prodotto degli elementi sulla e e diagonale. K) una matrice ottenuta da A scambiando due righe. e • Se D ` alternante nelle righe e D(I) = 1 e =⇒ ∗ D ` invariante per operazioni elementari di riga di tipo III e ∗ se A ` una matrice con una riga nulla. K) → K (determinante sviluppato per una riga) nel modo seguente. Sia j ∈ {1..j 14 . • Esiste una sola funzione D multilineare e alternante nelle righe che valga 1 sull’identit`: il determinante..D(A) e 1K + 1K ̸= 0K =⇒ D ` alternante nelle righe.j (Aˆ ˆ) i..´ MULTILINEARITA E ALTERNANZA: Sia D: M(n × n. n}. si definisce detr (A) = a Sia n ≥ 2.j e j-esima. Definiamo: det (A) = c n ∑ j=1 (-1)i+j ai. Sia A ∈ M(n × n. K): Se n = 1 e quindi A = (a) per un certo a ∈ K. • Si definisce detr : M(n × n. Sia A ∈ M(m × n.j (Aˆ ˆ) i.. Sia i ∈ {1. e ˜ • Se D(A) = .. Allora: ˜ • Se D ` alternante nelle righe =⇒ D(A) = . . .j dove Aˆ ˆ ` la matrice ottenuta da A togliendo la riga i-esima e la colonna i. allora D(A) = 0 e ∗ se A ` una matrice diagonale.D(A). Sia A ∈ M(m × n.

K). Il cofattore di A ` la matrice C cos` definita: e ı Ci. 1 Se A ` invertibile ⇒ det(A−1 ) = e det(A) DETERMINANTE.B ∈ M(m × n.´ PROPRIETA DEL DETERMINANTE: ∀ A. K). ovvero A−1 pu` essere cos` costruita: o ı (A )i. K) ⇔ rk(A) = n ⇔ det(A) ̸= 0 CRITERIO DEI MINORI ORLATI: Sia A ∈ M(m × n.j = −1 (−1)i+j det(Aˆ ˆ) j. ´ COFATTORE E SUE PROPRIETA: Sia A ∈ M(n × n. RANGO E MATRICI INVERTIBILI: Sia A ∈ M(n × n. K): • detr (A) = detc (A) := det(A) • Il determinante ` l’unica funzione multilineare e alternante nelle righe e e nelle colonne che valga 1 sull’identit`.i det(A) 15 . K). Allora rk(A) ` k se e solo se esite una sottomatrice k × k con determinante diverso da 0 e e tutte le sottomatrici (k + 1) × (k + 1) contenenti tale sottomatrice hanno determinante uguale a 0. • Il determinante ` zero sulle matrici con una riga nulla.j = (−1)i+j det(Aˆ ˆ) i. • Sommando ad una riga un multiplo di un’altra riga il determinante non cambia. a • Il determinante ` indipendente dalla riga/colonna scelta per lo sviluppo. K). • ( ) A D det = det(A)det(C) 0 C • ∀ A ∈ M(n × n.i det(A) = Cj. ∀ D ∈ M(n × m. e t • det(A) = det( A) • det(AB) = det(A)det(B) • Il determinante di una matrice triangolare ` il prodotto degli elementi e sulla diagonale.j Propriet`: a ∗ At C = t CA = det(A)In ∗ La matrice inversa di A. K): A ⇔ GL(n. e • Il determinante cambia di segno se scambio due righe/colonne. ∀ C ∈ M(m × m. K).

sia B una matrice reale di ordine 3. r3 + r1 . Siano r1 e r2 le colonne di tale matrice.0). r1 . Analogamente. il valore assoluto di det(A) ` il fattore con cui vengono modificati i volumi degli oggetti contenuti e nello spazio. r2 . r2 + r3 . r1 + r2 e al doppio dell’area del triangolo di vertici (0. r1 . r3 le colonne di tale matrice. II: Interpretando la matrice quadrata A di ordine n come trasformazione lineare di uno spazio vettoriale ad n dimensioni. Siano r1 . r2 . Se ` diverso da zero. Il valore assoluto del determinante di A ` uguale all’area del paralleloe gramma di vertici (0. r3 . r2 . r1 . r3 .0).0). r1 .0.0). r1 + r2 + r3 e a 6 volte il volume del tetraedro di vertici (0.SIGNIFICATO GEOMETRICO DEL DETERMINANTE: I: Sia A una matrcice reale di ordine 2. r2 . r1 + r2 .0. 16 . il segno del determinante indica inoltre e se la trasformazione A preserva o cambia l’orientazione dello spazio rispetto agli assi di riferimento. r2 . Il valore assoluto del determinante di B ` uguale al volume del parallelee 3 pipedo di R di vertici (0.

L’insieme degli autovalori di f ´ detto spettro. con n:=dim(V). detta x l’n-upla delle coordinate di v rispetto a B. • Il coefficiente del termine di grado massimo del polinomio caratteristico ´ ± 1. diagonalizzabilit´ a AUTOVETTORE.tI) Il polinomio caratteristico di f ´: e pA (t) := det(MB. MATRICI SIMILI Due matrici A e B si dicono simili se esiste C invertibile tale che: A = C −1 BC POLINOMIO CARATTERISTICO Sia A ∈ M(n × n. K) sono per definizione autovalori ed autovettori di fA . e e • Il polinomio caratteristico di f : V → V. • λ ∈ K ´ autovalore di f se e solo se ´ radice del polinomio caratteristico.tI) Dove I ´ l’identit´ n × n e B una qualsiasi base di V. e 17 . Un vettore v ∈ V si dice autovettore di f se ´ diverso da 0 e se esiste λ ∈ e K tale che: f (v) = λv λ ´ detto autovalore di f. Il polinomio caratteristico di A ´: e pA (t) := det(A . Allora v ´ un autovettore per e f se e solo se. ha grado n. x ` e un’autovettore di MB. Sia n la dimensione di V e B una sua base. e e Autovettori e autovalori di una matrice quadrata A ∈ M(m × n. • Due matrici simili hanno lo stesso polinomio caratteristico. AUTOVALORE. autovalori. SPETTRO Sia V uno spazio vettoriale di dimensione n su un campo K e f : V → V un’applicazione lineare. K). e a Propriet´: a • Il polinomio caratteristico non dipende dalla base scelta.B (f) .B (f).Autovettori.

. vk autovettori di f corrispondenti ad autovalori distinti.. ´ CRITERIO DI DIAGONALIZZABILITA: L’applicazione f ´ diagonae lizzabile se e solo se il polinomio caratteristico di f si fattorizza completamente in fattori di grado 1 a coefficienti in K e per ogni autovalore λ di f mg (λ) = ma (λ) TEOREMA FONDAMENTALE DELL’ALGEBRA: Ogni polinomio di grado n ammette n radici in C...λI) si dice molteplicit´ geometrica di λ e si indica con mg (λ). e MULTIPLI DI AUTOVETTORI: Se v ´ un’autovettore per f di autoe valore λ. 1 ≤ mg (λ)≤ ma (λ) Se MB.... AUTOVETTORI INDIPENDENTI: Siano v1 . vk sono linearmente indipendenti.λ) divide pf ) si dice molteplicit´ algebrica di f e a si indica con ma (λ). mg (λ) = ma (λ) ´ DIAGONALIZZABILITA: f si dice diagonalizzabile se esiste una base di V: • fatta di autovettori per f o.B (f) sia diagonale. allora anche un multiplo diverso da 0 di v ´ autovettore per f di e autovalore λ.. Allora v1 .λI) ed ´ quindi un sottospazio vettoriale di V. e ovvero se A ´ simile a una matrice diagonale..B (f) ´ diagonale.AUTOSPAZIO DI f RELATIVO A λ: L’insieme degli autovettori di f con autovalore λ ´ detto autospazio di f relativo a λ e coincide.. unito al e vettore 0 con Ker(f ... Una matrice quadrata A si dice diagonalizzabile se fA ´ diagonalizzabile. e ´ MOLTEPLICITA ALGEBRICA E GEOMETRICA: La dimensione di Ker(f . equivalentemente.. 18 . allora sulla diagonale appaiono gli autovalori di f e e detto λ un qualunque autovalore di f. a La molteplicit´ di λ come radice del polinomio caratteristico di f (cio´ il a e s massimo s tale che (t . • tale che MB..

Nota: ∀ v ∈ V b(0V .u ∈ V.u) ∀ v.λv + µw) = λb(u. ∀ λ.0v ) = 0K MATRICE ASSOCIATA: Sia V uno spazio vettoriale di dimensione finita su un campo K e sia b : V × V → K una forma bilineare. v ̸= 0... v) > 0 ∀ v ∈ V. v) ≥ 0 ∀ v ∈ V.u) + µb(w..j ∈ {1.v) + µb(u. v) < 0 ∀ v ∈ V. Si definisce matrice associata a b nella base B la matrice n × n il cui coefficiente i. Essa si denota MB (b) Propriet`: Siano x e y rispettivamente le n-uple dei coefficienti di v e w a rispetto a B: b(v.u) 2) b(u.w) = b(w.j `: e b(vi . Sia B = {v1 . Propriet`: b ` simmetrica se e solo se MB (b) ` simmetrica...vn } una base di V su K.. v) ≤ 0 ∀ v ∈ V.n}.w ∈ V. Un’applicazione b: V × V → K si dice bilineare se ∀ v.. • Si dice sedefinita negativa se b(v. a e e DEFINITA POSITIVA E NEGATIVA: Sia V uno spazio vettoriale su R e sia b: V × V → R una forma bilineare: • Si dice definita positiva se b(v.vj ) ∀ i.w. v) = b(v. µ ∈ K: 1) b(λv + µw. • Si dice definita negativa se b(v. • Si dice sedefinita positiva se b(v.w) b si dice simmetrica se: b(v. v ̸= 0.w) = t xMB (b)y 19 .Forme bilineari FORMA BILINEARE: Sia V uno spazio vettoriale su un campo K. u) = λb(v..

Allora esiste una base B di V tale che: MB (b) ` diagonale con gli elementi sulla diagonale appartenenti a {0. cio` una base B = {v1 .vn } e B = {w1 .v) = 0 TEOREMI DI GRAM-SCHMIDT: I: Sia V uno spazio vettoriale su R di dimensione n..vn } tale che: e MB (b) ` diagonale e III: Sia V uno spazio vettoriale su R di dimensione finita e sia b: V × V → R una forma bilineare simmetrica.. Allora esiste una base ortogonale per V. Sia b una forma bilineare simmetrica su V.FORMULA DI CAMBIO DI BASE: Sia V uno spazio vettoriale su un campo K di dimensione finita e sia b: V × V → K una forma bilineare. su un campo K tale che 1k + 1k ̸= 0. a e ISOTROPO: Sia V uno spazio vettoriale su un campo K... Sia b una forma bilineare simmetrica su V... ∗ Il numero p dei +1 si dice positivit` di b a ∗ Il numero ν dei -1 si dice negativit` di b. ν) si dice segnatura.1.-1}. Un vettore v ∈ V si dice isotropo per b se: b(v. Siano ˜ B = {v1 ....-1} e RANGO E SEGNATURA: Sia V uno spazio vettoriale su R di dimensione finita e sia b: V × V → R una forma bilineare simmetrica. a ∗ La coppia (p. La somma di positivit` e negativit` ` uguale al rango.B (IV ) MB (b) MB.wn } due basi di V su K.. a ae 20 .. Sia W un sottospazio vettoriale di V ....1.B (IV ) ˜ ˜ ˜ ORTOGONALE: Sia V uno spazio vettoriale su un campo K e sia b una forma bilineare simmetrica. Si definisce l’ortogonale di W (rispetto a b): W ⊥ = {v ∈ V | b(v. Allora: MB (b) = t MB.. Sia b una forma bilineare simmetrica e definita positiva su V.vn } di V tale che: e MB (b) = In II: Sia V uno spazio vettoriale di dimensione n. Si definisce rango di b il rango di MB (b) per una qualsiasi base B Sia B una base di V tale che MB (b) ` diagonale con gli elementi della diagonale e appartenenti a {0.w) = 0 ∀ w ∈ W} Propriet`: W ⊥ ` un sottospazio vettoriale di V. cio` una base B = {v1 . Allora esiste una base di V ortonormale per b..

... allora: ∑ q(v) = b(v.n 21 ..... Allora A ` definita positiva se e solo se per qualsiasi i da 1 a n il determinante della e sottomatrice di A formata dalle prime i righe e i colonne ` positivo.ν’) la segnatura di b|⟨v1 .ν”) CRITERIO DEI MINORI PRINCIPALI: Sia A ∈ M(N × n.vk+1 ..vk . Sia b: V × V ∈ K una forma bilineare simmetrica.´ PROPRIETA DELLA SEGNATURA: Sia V uno spazio vettoriale su R di dimensione finita n e sia b: V × V → K una forma bilineare simmetrica: • La segnatura di b non dipende dalla base scelta. R) Sia (p’.. Il segno del determinante di MB (b) non varia al variare della base B..v) = t xMB (b)x = xi xj MB (b)i.. K).. e FORME QUADRATICHE: Sia V uno spazio vettoriale su un campo K...n) e ∗ b ` semidefinita positiva ⇐⇒ ν = 0 e ∗ b ` semidefinita negativa ⇐⇒ p = 0 e • Sia B = {v1 .0) e ∗ b ` definita negativa ⇐⇒ (p.. e ∗ det(MB (b)) > 0 ⇐⇒ ν ` pari..ν) la segnatura di b.v) ∀ v ∈ V.ν) = (n.j=1. • ∗ det(MB (b)) < 0 ⇐⇒ ν ` dispari. Si dice forma quadratica associata a b l’applicazione q: V → K cos` definita: ı q(v) := b(v. R) e S ∈ M((n-k) × (n-k).ν’) + (p”.ν”) la segnatura di b|⟨vk+1 .ν) = (0.... e • Sia (p. Propriet`: Fissata una base finita B di V la forma quadratica si pu` esprimere a o come polinomio di grado 2 nelle coordinate rispetto alla base: sia x l’n-upla delle coordinate di V rispetto a B.vk ⟩ e sia (p”.. Allora: ∗ b ` definita positiva ⇐⇒ (p.vn } una base di V tale che: ( ) R 0 MB (b) = 0 S con R ∈ M(k × k. (Teorema di Inerzia) • Sia MB (b) la matrice associata ad una forma bilineare.vn−k ⟩ Allora: (p.ν) = (p’.j i.

22 . sono numeri reali). Infatti. Cambiando opportunamente coordinate.b ∈ K Il metodo babilonese ` utile per calcolare la segnatura di forme bilineari. Allora. (con sostituzioni di tipo lineare).w ∈ V. e grazie ad esso possiamo affermare che calcolare la segnatura di MB (b) equivale a contare il numero dei suoi autovalori positivi e di quelli negativi. E FORMA QUADRATICA: Sia V uno spazio vettoriale su un campo K in cui 1K + 1K ̸= 0. Allora A ` e ortogonalmente simile ad una matrice diagonale reale.. b(v. R) simmetrica. cio` tutti gli autovalori come plessi di A. w) 2 IL METODO BABILONESE: Sia P(x1 . Allora il polinomio caratteristico di A ` completamente fattorize zabile in fattori di grado 1 a coefficienti reali (in altre parole tutte le radici complesse del polinomio caratteristico di A.b2 = a2 + 2ab (a . TEOREMA SPETTRALE: Sia A ∈ M(n × n. e AUTOVALORI DI MATRICI SIMMETRICHE: Sia A ∈ M(n × n.b2 ∀ a. K) simmetrica.b ∈ K ∀ a.xn e FORMA BILINEARE SIMM... utilizzando i prodotti notevoli: (a + b)2 .w) = q(v + w) − q(v....b)(a + b) = a2 . e e APPLICAZIONE DEL TEOREMA SPETTRALE: Il teorema spettrale ` utile per calcolare la segnatura di forme bilineari simmetriche. Siano v.. v) − q(w. cio` esiste una matrice e P ortogonale tale che: P −1 AP (che ` uguale a t P AP ) ` diagonale.che ` un polinomio omogeneo di grado 2 in x1 ..xn ) un polinomio omogeneo di grado 2 a coefficienti in un campo K tale che 1K + 1K ̸= 0. si pu` trasforo mare P in un polinomio che sia una combinazione lineare di quadrati nelle incognite.

Sia B = {v1 .w) + µh(u. normali. Sia H ∈ M(n × n.w due elementi di V.w ∈ V ∀ λ.λv + µu) = λh(w. µ ∈ C (C -lineare nel primo argomento) Propriet` C-lineare nel secondo argomento: a ∀ u.. allora H ` unitaria ⇐⇒ H ` ortogonale.w) = t xHy 23 .v. e e FORME E MATRICI HERMITIANE: Sia V uno spazio vettoriale su C di dimensione finita n. siano v.vj ).w ∈ V 2) h(λv + µu. NORMALE: Sia H ∈ M(n × n.u) MATRICE HERMITIANA.w ∈ V ∀ λ. UNITARIA. v) ∀ v.w) = h(w.v) + µh(w. la ı e matrice associata ad una forma hermitiana. Sia h: V × V → C una forma hermitiana su V. Sia x l’n-upla delle coordinate di v rispetto a B e y l’n-upla delle coordinate di w rispetto a B..j = h(vi .. µ ∈ C h(w. Allora: H si dice hermitiana se H = H ∗ H si dice unitaria se HH ∗ = H ∗ H = I H si dice normale se HH ∗ = H ∗ H Propriet`: a • H hermitiana =⇒ H normale • H unitaria =⇒ H normale • Se H ∈ M(n × n. In altre parole.w) = λh(v. C) la matrice associata a h cos` definita: Hi. R). K).w) ∀ u. Una forma hermitiana (o prodotto hermitiano) su V ` una applicazione e h: V × V → C tale che: 1) h(v.. ` hermitiana. e Inoltre. Allora H ` hermitiana. unitarie MATRICE HERMITIANA: Sia V uno spazio vettoriale su C.v.Forme hermitiane. matrici hermitiane. R). allora: h(v. allora H ` hermitiana ⇐⇒ H ` simmetrica e e • Se H ∈ M(n × n.vn } una sua base. Sia H ∗ = t H.

e Inoltre: • H ` normale ⇐⇒ H ` unitariamente simile ad una matrice diagonale e e • H ` hermitiana ⇐⇒ H ` unitariamente simile ad una matrice diagonale e e reale • H ` unitaria ⇐⇒ H ` unitariamente simile ad una matrice diagonale e e con coefficienti sulla diagonale di norma 1. C) hermitiana.AUTOVALORI DI MATRICI HERMITIANE: Gli autovalori di matrici hermitiane a coefficienti in C sono tutti reali. cio` esiste una matrice U unitaria tale che: e U −1 AU ` diagonale. TEOREMA SPETTRALE PER MATRICI HERMITIANE: Sia A ∈ M(n × n. Allora A ` unitariamente simile ad una e matrice diagonale reale. 24 .

dei92@gmail.com 25 .Per eventuali errori. scrivete a: Andrea.