You are on page 1of 77

Note di Algebra Lineare

Pino Vigna Suria
6 dicembre 2010
Capitolo 1
Preliminari
1.1 Un po’ d’insiemistica
La matematica moderna si fonda sui concetti di elemento, insieme, appartiene
che non vengono definiti, confidando sul fatto che tutti ci intendiamo per-
fettamente sul loro significato. Tutti gli altri concetti devono essere definiti
a partire da questi tre. La notazione per esprimere il fatto che un elemen-
to x appartiene a un insieme X `e x ∈ X. Un insieme pu`o essere definito
sostanzialmente in due modi.
1. Elencando tutti i suoi elementi, ad esempio X = ¦1, 5, Tarzan¦.
2. Assegnando una propriet`a soddisfatta da tutti e soli gli elementi del-
l’insieme, ad esempio
X = ¦x tale che x ha partecipato alla spedizione dei mille¦.
Un’autentica pietra miliare della matematica, che si presenta fin da questo
punto, `e, una volta per tutte, la considerazione che segue
Possiamo dire di conoscere un insieme A soltanto quando, comunque ci
venga proposto un elemento x, siamo in grado di decidere se x ∈ A.
Un insieme importante `e l’ insieme vuoto che non ha elementi e viene indi-
cato con il simbolo ∅, a lui riservato e che quindi non verr`a usato in nessun
altra circostanza. Lo conosciamo precisamente perch´e, messi di fronte ad un
qualunque elemento x siamo in grado di decidere se x ∈ ∅, per la precisione
la nostra risposta `e sempre “no”.
1
Si dice che un insieme A `e contenuto in un insieme B o che B contiene
A o che A `e un sottoinsieme di B, se ogni elemento di A `e elemento di B; si
usa allora la notazione A ⊆ B o B ⊇ A; in simboli
A ⊆ B ⇐⇒ ∀x, x ∈ A =⇒ x ∈ B
dove i simboli ⇐⇒, ∀, ⇒ si leggono rispettivamente se e solo se, per ogni,
implica. Negare che A `e contenuto in B vuol dire che esiste un elemento che
appartiene a A ma non a B, in simboli ∃x ∈ A tale che x / ∈ B, e si scrive
A B. A titolo di esempio: ∀x x / ∈ ∅.
Vale la pena di precisare l’esatto significato che la matematica d`a alla
parola “implica ”(o, naturalmente, al simbolo ⇒): esso `e sempre compreso
tra due affermazioni, chiamiamole P, Q e fornisce una nuova affermazione
P ⇒ Q;
P ⇒ Q `e vera salvo quando P `e vera ma Q `e falsa.
Alla luce di questa precisazione si ha che l’insieme vuoto `e contenu-
to in ogni insieme e che due insiemi vuoti sono uguali. Questo giustifi-
ca l’uso dell’articolo determinativo che abbiamo finora usato abusivamente,
imbrogliando la lettrice e costringendola ad un primo atto di umilt` a.
Se A `e un insieme e / `e un insieme di sottoinsiemi di A ( per non essere
linguisticamente noiosi si dice che / `e una famiglia di sottoinsiemi di A),
• l’ unione di / `e l’insieme
_
B∈A
B = ¦a ∈ A tali che ∃B ∈ / tale che a ∈ B¦.
• l’ intersezione di / `e l’insieme

B∈A
B = ¦a ∈ A tali che ∀B ∈ /, a ∈ B¦.
Definizione 1. Siano a, b elementi. La coppia ordinata determinata da a e
b `e l’insieme
(a, b) = ¦¦a¦, ¦a, b¦¦
Teorema 1. Siano a, b, c, d elementi. sono equivalenti
1. a = c e b = d.
2
2. (a, b) = (c, d).
Dimostrazione.
`
E evidente che 1 ⇒ 2. Per quanto riguarda l’altra implica-
zione chiamiamo rispettivamente S e D gli insiemi menzionati in 2.
¦a¦ ∈ S ⊆ D e quindi ¦a¦ = ¦c¦ oppure ¦a¦ = ¦c, d¦; nel primo caso
a = c, nel secondo ¦c, d¦ ⊆ ¦a¦ e quindi, di nuovo c = a.
Supponiamo b = a, allora, visto che ¦c, d¦ ∈ D abbiamo che ¦c, d¦ = ¦a¦
e quindi d = a = b.
Se invece b ,= a, visto che ¦a, b¦ ∈ S avremo necessariamente che ¦a, b¦ ⊆
¦c, d¦. Siccome b ,= c segue che b = d.
Definizione 2. Siano A, B insiemi; il loro prodotto cartesiano `e l’insieme
A B = ¦(a, b) tali che a ∈ A, b ∈ B¦
Definizione 3. Siano A, B insiemi. Una funzione da A a B `e coppia ordi-
nata ((A, B), f) dove f `e un sottoinsieme di A B che soddisfa la seguente
condizione:
per ogni a ∈ A esiste un unico b ∈ B tale che (a, b) ∈ f. L’insieme A
viene detto dominio della funzione e B `e il codominio.
Se A = ∅ allora A B = ∅ e quindi l’unico suo sottoinsieme `e l’in-
sieme vuoto. Esso soddisfa la condizione imposta nelle definizione: abbiamo
verificato che ((∅, B), ∅) `e l’unica funzione da ∅ a B. Viene chiamata la vuota.
Se invece A ,= ∅ e B = ∅ di nuovo avremo che A B = ∅ e l’unico
suo sottoinsieme `e l’insieme vuoto; tuttavia esso non soddisfa la condizione
richiesta; cio`e non esistono funzioni da un insieme non vuoto all’insieme
vuoto.
Per indicare una funzione con dominio A e codominio B si usa la notazione
A
f
−→ B o semplicemente f se non c’`e pericolo di confusione.
Se a ∈ A l’unico elemento b ∈ B tale che (a, b) ∈ f viene chiamato
immagine di a mediante f e indicato con il simbolo f(a) o, alle volte, f
a
;
quindi b = f(a) `e sinonimo di (a, b) ∈ f.
id
A
= ¦(a, b) ∈ AA tali che a = b¦ `e chiamata la identica o identit`a di
A; con la notazione appena introdotta tale funzione `e dunque caratterizzata
da id
A
(a) = a ∀a ∈ A.
Se abbiamo due funzioni A
f
−→ B e B
g
−→ C definiamo la loro composizione
come la funzione A
g◦f
−→ C definita da g ◦ f(x) = g(f(x)).
`
E facile vedere che
se f, g, h sono funzioni, allora h ◦ (g ◦ f) = (h ◦ g) ◦ f a condizione che tali
3
composizioni abbiano senso. Questa regola si chiama propriet`a associativa
della composizione. Se le composizioni hanno senso `e facile controllare che
f ◦ id
A
= f = id
A
◦ f. Una funzione A
f
−→ B viene detta iniettiva se
∀a, a

∈ A f(a) = f(a

) ⇒ a = a

e viene detta suriettiva se ∀b ∈ B ∃a ∈
A tale che f(a) = b. Viene detta biettiva o corrispondenza biunivoca se `e
iniettiva e suriettiva. Se `e cos`ı esiste una funzione, indicata con il simbolo
B
f
−1
−→ A, tale che f
−1
◦ f = id
A
e f ◦ f
−1
= id
B
.
Sia n ∈ N un numero naturale, indichiamo con il simbolo n l’insieme
n = ¦1, . . . , n¦ costituito da tutti i numeri compresi tra 1 e n, (osserviamo
che 0 = ∅).
Se A `e un insieme una n−upla ordinata di elementi di A `e una funzione
/ : n −→ A, cio`e un elemento di A
n
. Con un piccolo ma universalmente ado-
perato risparmio notazionale indichiamo quest’ultimo insieme con A
n
. Una
notazione molto accattivante ed universalmente usata `e quella di denotare
una n−upla ordinata / ∈ A
n
con il simbolo (a
1
, . . . , a
n
). Nei casi n = 3, 4
si usa, per motivi storici, la terminologia particolare di terne ordinate e qua-
terne ordinate. Naturalmente l’unica 0−upla ordinata `e la funzione vuota; le
1−uple ordinate sono semplicemente gli elementi di A nel senso che adesso
precisiamo: la funzione A
1
−→ A che ad ogni / ∈ A
1
associa l’elemento
a
1
∈ A `e una corrispondenza biunivoca che viene sistematicamente utilizzata
per identificare A
1
con A.
Similmente la funzione che ad ogni / ∈ A
2
associa la coppia ordinata
(a
1
, a
2
) ∈ AA `e una corrispondenza biunivoca e la si adopera per identifi-
care A
2
con A A; attraverso tale corrispondenza si identifica ogni 2−upla
ordinata di elementi di A con un’opportuna coppia ordinata di elementi di
A.
1.2 Strutture algebriche
Definizione 4. Se A, B, C sono insiemi un’ operazione su A e B a valori in
C `e una funzione AB

−→ C. Si parla semplicemente di operazione interna
su A quando A = B = C.
Se (a, b) ∈ A B si preferisce denotare l’elemento ♥((a, b)) con il molto
pi` u succinto a♥b.
Definizione 5. Un gruppo `e una coppia ordinata (G, +) dove G `e un insieme
e + `e un’operazione interna su G che soddisfa i seguenti assiomi:
4
G1 Per ogni f, g, h ∈ G f +(g +h) = (f +g) +h. ( propriet` a associativa.)
G2 esiste e ∈ G tale che e +f = f +e = f ∀f ∈ G. Ogni elemento con
questa propriet`a viene detto elemento neutro.
G3 Per ogni g ∈ G esiste h ∈ G tale che g + h = h + g = e. Ogni
elemento con questa propriet`a viene detto opposto di g e indicato con
il simbolo −g.
Nella definizione che precede le parentesi ( e ) sono state usate con il
significato (di precedenza) che la lettrice ben conosce.
Esiste un solo elemento neutro, infatti se e, e

∈ G sono elementi neutri
allora e = e + e

= e

. Ogni g ∈ G ha un solo opposto, infatti se h, h

∈ G
sono opposti di g allora h = h+e = h+(g +h

) = (h+g) +h

= e +h

= h

.
Definizione 6. Un gruppo (G, +) `e detto commutativo o abeliano se ∀g, h ∈
G g + h = h + g.
Se X `e un insieme indichiamo con o(X) l’insieme di tutte le biezioni
f : X −→ X. Allora (o(X), ◦) `e un gruppo: l’elemento neutro ´e id
X
e
l’inverso di g ∈ o(X) `e g
−1
. Questo gruppo `e commutativo se e sono se X
non ha pi` u di due elementi: la lettrice `e incoraggiata a verificarlo.
Questo `e l’unico esempio concreto che possiamo produrre in questo mo-
mento, ma chi legge si sar`a subito accorto che l’insieme dei numeri relativi
e l’operazione di somma su cui la maestra delle elementari ha cos`ı a lungo
commentato costituiscono un altro esempio di gruppo abeliano.
Definizione 7. Un anello `e una coppia ordinata (A, (+, )) dove A `e un in-
sieme e (+, ) `e una coppia ordinata di operazioni interne su A che soddisfano
i seguenti assiomi:
A1 Per ogni f, g, h ∈ A f +(g +h) = (f +g) +h. ( propriet` a associativa.)
A2 Esiste 0 ∈ A tale che 0 + f = f + 0 = f ∀f ∈ A.
A3 Per ogni g ∈ A esiste h ∈ G tale che g + h = h + g = 0.
A4 ∀g, h ∈ A g + h = h + g.
A5 Per ogni f, g, h ∈ A f (g h) = (f g) h.
5
A6 Per ogni f, g, h ∈ A f (g + h) = (f g) + (f h) e (f + g) h =
(f h) + (g h).
I primi quattro assiomi ci dicono che (A, +) `e un gruppo abeliano. Le due
operazioni su un anello vengono chiamate rispettivamente somma e prodotto.
Se f, g ∈ A l’elemento f g viene indicato semplicemente con fg. Si usa,
per alleggerire la notazione, l’usuale convenzione di dare la precedenza al
prodotto sulla somma: a titolo di esempio fg + h sta per (fg) + h.
Qui non abbiamo al momento degli esempi che dipendano solo da quanto
abbiamo detto in queste note, ma la lettrice si `e certamente accorta che, con
le operazioni di cui ci hanno parlato prima la maestra e poi i professori delle
medie e delle superiori, i numeri interi, quelli razionali e quelli reali sono tutti
anelli.
In ogni anello 0 `e nullificatore del prodotto, cio`e, ∀g ∈ A g0 = 0 e
0g = 0; infatti, partendo da 0 + 0 = 0 e usando l’assioma A6 si vede che
0g = (0 +0)g = 0g +0g, sia h l’opposto di 0g, allora 0 = h +0g = h +(0g +
0g) = (h + 0g) + 0g = 0 + 0g = 0g. Analogamente per l’altra uguaglianza.
Definizione 8. Un campo `e una coppia ordinata (K, (+, )) dove K `e un in-
sieme e (+, ) `e una coppia ordinata di operazioni interne su K che soddisfano
i seguenti assiomi:
C1 Per ogni f, g, h ∈ K f +(g +h) = (f +g) +h. ( propriet` a associativa.)
C2 Esiste 0 ∈ K tale che 0 + f = f + 0 = f ∀f ∈ K.
C3 Per ogni g ∈ K esiste h ∈ G tale che g + h = h + g = 0.
C4 ∀g, h ∈ K g + h = h + g.
C5 Per ogni f, g, h ∈ K f(gh) = (fg)h.
C6 Per ogni f, g, h ∈ K f(g + h) = fg + fh.
C7 Per ogni f, g ∈ K fg = gf.
C8 Esiste 1 ∈ K tale che 1f = f ∀f ∈ K.
C9 Per ogni 0 ,= g ∈ K esiste g
−1
∈ K tale che gg
−1
= 1.
C10 1 ,= 0.
6
I primi sei assiomi ci assicurano che ogni campo `e un anello. L’insieme
dei numeri interi con le operazioni di cui ci ha detto la maestra `e un anello
ma non un campo. Lo indicheremo sistematicamente con il simbolo, a lui
riservato, Z. Invece i numeri razionali e quelli reali, con le solite operazioni
sono entrambi dei campi, indicati rispettivamente con Q e R.
La definizione rigorosa di tali insiemi e delle rispettive operazioni, come
anche dei numeri naturali (indicati con N), non `e affatto semplice ed in queste
note li useremo, per la verit` a con estrema parsimonia, usando la confidenza
che la lettrice ha acquisito con essi attraverso anni di convivenza. Chi non
gradisce questo atteggiamento pu`o consultare
http://alpha.science.unitn.it/

vigna/numeri.pdf
ma consigliamo di acquisire un pochino di confidenza con i metodi della
matematica moderna prima di affrontarne la lettura.
Un esempio autonomo pu` o essere ottenuto come segue: prendiamo due
elementi qualunque che indicheremo, per motivi che saranno subito evidenti,
con i simboli 0 e 1. Sull’insieme K = ¦0, 1¦ definiamo somma e prodotto
mediante le tabelle che seguono, da interpretarsi come alle scuole elementari.
+ 0 1
0 0 1
1 1 0
0 1
0 0 0
1 0 1
Un po’ di pazienza consente di verificare che i dieci assiomi sono tutti sod-
disfatti. Questo campo, ovviamente il pi` u semplice possibile, ha una sua
importanza specialmente in crittografia. Lo indicheremo con il simbolo Z
2
.
Ogni campo ha ovviamente le propriet` a elementari dei gruppi e degli
anelli, a cui aggiungiamo la seguente: se a, b sono elementi di un campo e
ab = 0 allora a = 0 o b = 0; infatti se a ,= 0 allora 0 = a
−1
0 = a
−1
(ab) =
(a
−1
a)b = 1b = b.
D’ora in poi denoteremo un campo (K, (+, )) semplicemente con K;
questo per semplificare la notazione. Analogamente per gli anelli ed i gruppi.
7
1.3 Numeri complessi
Poniamo C = R R e definiamo su questo insieme un’operazione interna,
detta somma mediante
(a, b) + (c, d) = (a + c, b + d)
e un’operazione interna, detta prodotto mediante
(a, b)(c, d) = (ac −bd, ad + bc)
Gli elementi di C sono chiamati numeri complessi ; con un po’ di pazienza
si verifica che (C, (+, )) `e un anello. La coppia ordinata (1, 0) `e elemen-
to neutro rispetto al prodotto, inoltre, se (a, b) ,= (0, 0) si vede subito che
(a, b)(
a
a
2
+ b
2
,
−b
a
2
+ b
2
) = (1, 0).
Quindi, con queste operazioni, C `e un campo. La funzione φ : R −→ C
data da φ(a) = (a, 0) `e inettiva, inoltre φ(a + b) = φ(a) + φ(b) e φ(ab) =
φ(a)φ(b) e questo ci permette di pensare ogni numero reale come un numero
complesso. La lettrice non si scandalizzi per questo piccolo ed utilissimo
abuso: `e lo stesso che le consente di interpretare, se lo desidera, un numero
intero come se fosse un razionale.
Cerchiamo i numeri complessi (x, y) tali che (x, y)
2
= −1, cio`e tali che
(x
2
− y
2
, 2xy) = (−1, 0); `e facile convincersi che x = 0 e y = ±1. Il numero
complesso (0, 1) viene indicato con il simbolo i; allora, se a, b ∈ R
a + ib = (a, 0) + (0, 1)(b, 0) = (a, 0) + (0, b) = (a, b)
che ci fornisce una notazione eccellente per i numeri complessi che d’ora in
poi verr`a adottata sistematicamente.
Se z = a + ib ∈ C il suo complesso coniugato `e il numero complesso z =
a−ib ed il suo modulo `e il numero reale non negativo [z[ =

a
2
+ b
2
=

zz.
Si vede con irrisoria facilit`a che, se z, w ∈ C allora z + w = z + w e che
zw = zw.
Un numero complesso z `e reale se e solo se z = z.
Il motivo principale che consiglia l’introduzione dei numeri complessi `e il
seguente
Teorema 2 (fondamentale dell’algebra). Ogni polinomio non costante a
coefficienti in C ha almeno una radice in C.
La dimostrazione `e fuori dalla nostra portata.
8
Capitolo 2
Spazi vettoriali
2.1 Spazi vettoriali
Definizione 9. Siano K un campo, (V, (+, )) una coppia ordinata dove V `e
un insieme + `e un’operazione interna su V, detta somma e : KV −→ V
`e un’operazione su K e V a valori in V , detta operazione esterna; si dice che
(V, (+, )) `e uno spazio vettoriale su K se valgono i seguenti assiomi
SV1 ∀v, w, u ∈ V (v + w) + u = v + (w + u).
SV2 ∃0 ∈ V tale che 0 + v = v + 0 = v, ∀v ∈ V.
SV3 ∀v ∈ V ∃w ∈ V tale che v + w = w + v = 0. Tale w viene chiamato l’
opposto v e indicato con il simbolo −v; inoltre, se u ∈ V , l’elemento
u + (−v) verr`a indicato con u −v.
SV4 ∀v, w ∈ V v + w = w + v.
SV5 ∀λ, µ ∈ K ∀v ∈ V λ(µv) = (λµ)v.
SV6 ∀λ, µ ∈ K ∀v ∈ V (λ + µ)v = λv + µv.
SV7 ∀λ ∈ K ∀v, w ∈ V λ(v + w) = λv + λw.
SV8 ∀v ∈ V 1v = v.
Se (V, (+, )) `e uno spazio vettoriale gli elementi di V vengono chiamati
vettori mentre gli elementi di K sono detti scalari. L’elemento 0 citato in
9
SV2 viene chiamato il vettore nullo. Se non c’`e pericolo di confusione uno
spazio vettoriale (V, (+, )) verr` a indicato semplicemente con V.
Ecco qualche esempio: sia V = ¦a¦ un insieme con un solo elemento a, e
definiamo le due operazioni nel solo modo possibile. Si vede facilissimamente
che si ottiene uno spazio vettoriale. In particolare l’elemento 0 menzionato
nell’assioma SV2 deve essere a, e quindi V = ¦0¦; questo semplicissimo
spazio vettoriale viene chiamato lo nullo.
Un altro spazio vettoriale, talmente generale che lo chiameremo supere-
sempio, pu` o essere ottenuto come segue: prendiamo un qualunque insieme
X e denotiamo con il simbolo K
X
l’insieme di tutte le funzioni X
f
−→K; su
questo insieme definiamo le operazioni come segue
(f + g)(x) = f(x) + g(x), ∀f, g ∈ K
X
, ∀x ∈ X,
(λf)(x) = λf(x), ∀λ ∈ K ∀g ∈ K
X
, ∀x ∈ X.
Di nuovo `e facile vedere che K
X
`e uno spazio vettoriale.
Adesso diamo un altro esempio che si ottiene scegliendo opportunamente
l’insieme X di cui si parla nel paragrafo precedente. Conviene illustrare
l’argomento in modo leggermente pi` u generale.
Se K `e un campo, abbiamo gi` a visto come assegnare le operazioni su
K
n
, ma l’eccezionale importanza pratica di questo esempio ci suggerisce di
tradurre nella nuova notazione le operazioni che abbiamo definito: avremo
dunque, per ogni (x
1
, . . . , x
n
) ∈ K
n
, (y
1
, . . . , y
n
) ∈ K
n
, λ ∈ K
(x
1
, . . . , x
n
) + (y
1
, . . . , y
n
) = (x
1
+ y
1
, . . . , x
n
+ y
n
)
λ(x
1
, . . . , x
n
) = (λx
1
, . . . , λx
n
).
Ogni spazio vettoriale gode delle seguenti propriet`a:
1. Il vettore nullo `e unico. Siano indatti 0, 0

elementi di V che soddisfano
entrambi la regola SV2, allora 0 = 0 + 0

= 0

.
2. Se v ∈ V, l’opposto di v `e unico. Siano infatti w, w

∈ V vettori che
soddisfano entrambi la regola SV3, allora w = w +0 = w +(v +w

) =
(w + v) + w

= 0 + w

= w

.
3. ∀v ∈ V 0v = 0. Infatti 0v = (0 + 0)v = 0v + 0v da cui segue che
0 = 0v −0v = (0v + 0v) −0v = 0v + (0v −0v) = 0v.
10
4. ∀λ ∈ K λ0 = 0. Infatti λ0 = λ(0 + 0) = λ0 + λ0 da cui segue che
0 = λ0 −λ0 = (λ0 + λ0) −λ0 = λ0 + (λ0 −λ0) = λ0.
5. Se λv = 0 allora λ = 0 oppure v = 0. Sia infatti λ ,= 0 allora 0 =
λ
−1
0 = λ
−1
(λv) = (λ
−1
λ)v = 1v = v.
6. ∀v ∈ V (−1)v = −v. Infatti (−1)v + v = (−1)v + 1v = (−1 + 1)v =
0v = 0.
2.2 Sottospazi vettoriali
In tutta questa sezione supporremo di aver scelto una volta per tutte un
campo K.
Definizione 10. Sia V uno spazio vettoriale e sia W ⊆ V. Si dice che W `e
un sottospazio vettoriale di V e si scrive W V se valgono le condizioni
S1 0 ∈ W.
S2 ∀v, w ∈ W v + w ∈ W.
S3 ∀λ ∈ K, ∀v ∈ W λv ∈ W.
In particolare se W V allora (W, +, ) `e uno spazio vettoriale.
Si pu` o controllare facilmente che W = ¦0¦ e W = V sono sottospazi
vettoriali, ma si possono fornire altri esempi non banali: sia W = ¦(x, y, z) ∈
R
3
tali che 2x −y + 5z = 0¦; si vede facilmente che W R
3
.
Se U, W sono sottospazi vettoriali di V anche la loro intersezione e cio`e
l’insieme U ∩ W = ¦v ∈ V tale che v ∈ U e v ∈ W¦ lo `e. Un altro esempio
ci viene fornito dalla seguente
Definizione 11. Siano V uno spazio vettoriale e U, W sottospazi vettoriali
di V . La somma di U e W `e l’insieme
U + W = ¦v ∈ V tali che esistono u ∈ U e w ∈ W tali che v = u + w¦
Non `e difficile verificare che U + W gode delle seguenti propriet` a:
1. U + W `e un sottospazio vettoriale di V.
2. U ⊆ U + W e W ⊆ U + W.
11
3. Se M V, U ⊆ M W ⊆ M allora U + W ⊆ M.
In lingua U +W `e il pi` u piccolo sottospazio vettoriale di V che contiene sia U
che W. Analogamente si vede che U ∩W `e il pi` u grande sottospazio vettoriale
di V contenuto sia in U che in W.
2.3 Matrici
Anche in questa sezione K `e un campo scelto una volta per tutte.
Definizione 12. Siano m, n numeri naturali positivi. Una matrice m n
(a coefficienti in K) `e una funzione A : mn −→K.
La notazione accattivante, anche se un tantino contradditoria con altre
convenzioni in auge, per una matrice `e
A =
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
L’insieme di K
m×n
di tutte le matrici mn viene indicato con /(mn; K).
Se A ∈ /(m n; K) la trasposta di A `e la matrice B ∈ /(n m; K)
definita da b
ji
= a
ij
. Essa viene indicata con il simbolo A
t
, ovviamente
(A
t
)
t
= A. Una matrice m1 viene chiamata vettore colonna e una matrice
1 n viene chiamata vettore riga.
Se A : 1 n −→ K `e un vettore riga, componendolo con la funzione, a
cui non vale la pena di dare un nome, n −→ 1 n che manda j nella coppia
ordinata (1, j) si ottiene una n−upla ordinata, cio`e un elemento di K
n
. Si
stabilisce in questo modo una corrispondenza biunivoca tra /(1 n, K) e
K
n
che chiamiamo isomorfismo canonico ed useremo quando necessario per
identificare questi due spazi vettoriali.
Per ogni i = 1, . . . , m denotiamo con il simbolo α
i
: 1 n −→ m n la
funzione data da α
i
(1, j) = (i, j). Se A ∈ /(mn, K) la sua composizione
con α
i
ci d`a un vettore riga che si chiama la i−esima riga di A e si indica
con A
i
. In sintesi A
i
= (a
i1
, . . . , a
in
).
Analogamente, per ogni j = 1, . . . , n denotiamo con β
j
: m1 −→ mn
la funzione data da β
j
(i, 1) = (i, j). Se A ∈ /(mn, K) la sua composizione
12
con β
j
ci d` a un vettore colonna che si chiama la j−esima colonna di A e si
indica con A
j
. In sintesi
A
j
=
_
_
_
a
1j
.
.
.
a
mj
_
_
_
= (a
1j
, . . . , a
mj
)
t
.
Ovviamente, equipaggiando /(n m; K) con le operazioni descritte nel
superesempio, si ottiene uno spazio vettoriale. Con la notazione appena
introdotta A + B `e la matrice C definita da c
ij
= a
ij
+ b
ij
, pi` u brevemente
(a + b)
ij
= a
ij
+ b
ij
.
Se λ ∈ K e A ∈ /(n m; K), λA ∈ /(n m; K) `e definita da
(λa)
ij
= λa
ij
.
Inoltre
∀A ∈ /(mn; K), B ∈ /(mn; K) (A + B)
t
= A
t
+ B
t
.
Se A ∈ /(m n; K) e B ∈ /(n p; K) definiamo il loro prodotto AB
come la matrice C ∈ /(mp; K) definita da
c
ik
=
n

j=1
a
ij
b
jk
dove i = 1, . . . , m e k = 1, . . . , p. Il prodotto di matrici gode delle seguenti
propriet` a, tutte facili da dimostrare meno la MP1; ad ogni buon conto sono
molto semplici da ricordare:
MP1 ∀A ∈ /(mn; K), B ∈ /(n p; K), C ∈ /(p q; K)
A(BC) = (AB)C.
MP2 ∀A ∈ /(mn; K), B ∈ /(n p; K), λ ∈ K
A(λC) = (λA)C = λ(AC).
MP3 ∀A ∈ /(mn; K), B ∈ /(n p; K), C ∈ /(n p; K)
A(B + C) = AB + AC.
13
MP4 ∀A ∈ /(mn; K), B ∈ /(mn; K), C ∈ /(n p; K)
(A + B)C = AC + BC.
MP5 ∀A ∈ /(mn; K), B ∈ /(n p; K) (AB)
t
= B
t
A
t
.
Notiamo che, ponendo in MP3 B = C = 0 si ottiene che A0 = 0.
In particolare il prodotto `e un’operazione sull’insieme /(n n; K) che `e
quindi un anello; se n ≥ 2 il prodotto non `e commutativo, qualunque sia il
campo K.: siano infatti A la matrice data da a
11
= a
12
= 1 e a
ij
= 0 in tutti
gli altri posti e B la matrice data da b
11
= b
21
= 1 e b
ij
= 0 in tutti gli altri
posti. Allora (ab)
11
= 1 + 1 mentre (ba)
11
= 1 e quindi AB ,= BA.
Per ogni naturale positivo n la identica
n
I ∈ /(n n; K) (o solo I se
non c’`e pericolo di confusione) `e definita mediante
i
jk
=
_
1 se j = k
0 se j ,= k.
Valgono allora le seguenti ulteriori propriet`a:
MP6 ∀A ∈ /(mn; K) AI = A.
MP7 ∀A ∈ /(mn; K) IA = A.
Una matrice A ∈ /(n n; K) si dice invertibile se esiste una matrice B ∈
/(n n; K) tale che AB = BA = I. Tale B, che, se esiste, `e unica viene
chiamata l’inversa di A e denotata con il simbolo A
−1
.
2.4 Generatori e basi
Sia V uno spazio vettoriale sul campo K e sia A un sottoinsieme di V. Con-
sideriamo la famiglia o(A) = ¦W V tali che A ⊆ W¦, costituita da tutti i
sottospazi vettoriali di V che contengono A; tale famiglia non `e vuota perch´e
V ∈ o(A).
Indichiamo con /(A) l’intersezione di tale famiglia.
`
E facile controllare
che si tratta ancora di un sottospazio di V , anzi `e il pi` u piccolo sottospazio
di V che contiene A. Tanto per familiarizzarci notiamo che /(∅) = ¦0¦.
Se A ⊆ V allora, dato v ∈ V , avremo che v ∈ /(A) ⇔ ∀WV tale che A ⊆
W, v ∈ W: tremendo, ma adesso impariamo una legge molto pi` u semplice
da verificare in pratica.
14
Definizione 13. Siano V uno spazio vettoriale, n un intero positivo e
(v
1
, . . . , v
n
) una n-upla ordinata di elementi di V. Si dice che un vettore
v ∈ V `e combinazione lineare di (v
1
, . . . , v
n
) ( o, per alleggerire la notazione,
dei vettori v
1
, . . . , v
n
) se esiste una n-upla ordinata di scalari (λ
1
, . . . , λ
n
) tali
che
v =
n

i=1
λ
i
v
i
.
L’insieme di tutte le combinazioni lineari di (v
1
, . . . , v
n
) viene indicato con
/(v
1
, . . . , v
n
).
Proposizione 1. /(v
1
, . . . , v
n
). `e il pi` u piccolo sottospazio vettoriale di V
che contiene tutti i vettori v
1
, v
2
, . . . , v
n
, cio`e
/(v
1
, v
2
, . . . , v
n
) = /(¦v
1
, v
2
, . . . , v
n
¦).
Dimostrazione. 1. /(v
1
, v
2
, . . . , v
n
) `e un sottospazio vettoriale di V infatti
S1 Ponendo λ
i
= 0 ∀i = 1, . . . , n si ottiene che 0 ∈ /(v
1
, v
2
, . . . , v
n
).
S2 Se v =

n
i=1
λ
i
v
i
e w =

n
i=1
µ
i
v
i
allora
v + w =
n

i=1

i
+ µ
1
)v
i
∈ /(v
1
, v
2
, . . . , v
n
).
S3 Se v =

n
i=1
λ
i
v
i
e λ ∈ K allora
λv =
n

i=1
(λλ
i
)v
i
∈ /(v
1
, v
2
, . . . , v
n
).
2. per ogni i = 1, . . . , n otteniamo che v
i
∈ /(v
1
, v
2
, . . . , v
n
) prendendo,
per ogni k = 1, . . . , n, λ
k
= 1 se k = i e λ
k
= 0 se k ,= i.
3. Se W V, v
i
∈ W ∀i = 1, . . . , n e v =

n
i=1
λ
i
v
i
allora λ
i
v
i
∈ W per
S3 e v ∈ W per S2.
Si dice che l’insieme A genera un sottospazio W V (o che A `e un insieme
di generatori di W) se /(A) = W.
Un qualunque insieme A si dice finito se esiste un numero naturale n ed
una corrispondenza biunivoca tra n ed A. Tale numero n, che dipende solo
15
da A
1
, `e detto il numero degli elementi A e indicato con A. L’insieme vuoto
`e finito e ∅ = 0.
Si dice che uno spazio vettoriale V `e finitamente generato se esiste un suo
sottoinsieme finito che lo genera.
In queste note ci occuperemo esclusivamente di spazi vettoriali finitamen-
te generati.
Ovviamente se (v
1
, . . . , v
n
) `e un’n-upla ordinata di vettori di V , m ≤ n e
v
1
, . . . , v
m
generano V allora anche v
1
, . . . , v
n
lo fanno.
A titolo di esempio, prendiamo in K
n
l’n-upla ordinata di vettori (e
1
, . . . , e
n
)
data da
e
1
= (1, 0, . . . , 0)
e
2
= (0, 1, . . . , 0)
.
.
.
.
.
.
.
.
.
.
.
.
e
n
= (0, 0, . . . , 1)
(2.1)
abbiamo che, per ogni v = (x
1
, . . . , x
n
) ∈ K
n
, v =

n
i=1
x
i
e
i
e quindi
e
1
, . . . , e
n
generano K
n
.
Definizione 14. 1. Si dice un’n-upla ordinata di vettori (v
1
, . . . , v
n
) `e li-
nearmente dipendente (o, brevemente, che i vettori v
1
, . . . , v
n
sono li-
nearmente dipendenti) se esiste un’ n−upla ordinata di scalari non tutti
nulli (λ
1
, . . . , λ
n
) tali che

n
i=1
λ
i
v
i
= 0.
2. Si dice che i vettori v
1
, . . . , v
n
sono linearmente indipendenti se non
sono linearmente dipendenti.
Detto in maniera pi` u simbolica una n-upla ordinata di vettori (v
1
, . . . , v
n
)
`e linearmente dipendente se e solo se
Esiste λ : n −→K tale che ∃i ∈ n tale che λ
i
,= 0 e

n
i=1
λ
i
v
i
= 0
il che, visto il significato di “implica”, ci assicura che la funzione vuota 0 −→
V `e linearmente indipendente.
Se esiste i = 1, . . . , n tale che v
i
= 0 allora scegliendo
λ
j
=
_
1 se j = i
0 se j ,= i
1
stiamo solo dicendo che, contando in modi diversi un insieme finito si ottiene sempre lo
stesso numero. Chi legge si sentir` a frustrato nel non riuscire a dimostrare questa banalit`a
senza la quale la vita sarebbe veramente difficile
16
si ottiene che v
1
, . . . , v
n
sono linearmente dipendenti. Analogamente se l’n−
upla ordinata (v
1
, . . . , v
n
) non `e iniettiva, cio`e esistono i ,= j tali che v
i
=
v
j
allora basta prendere
λ
k
=
_
_
_
1 se k = i
−1 se k = j
0 se k / ∈ ¦i, j¦
si vede di nuovo che si tratta di vettori linearmente dipendenti.
In sintesi v
1
, . . . , v
n
sono linearmente indipendenti se dall’equazione
n

i=1
λ
i
v
i
= 0
riusciamo a dedurre che λ
i
= 0 ∀i = 1, . . . , n.
Questa `e di gran lunga la tecnica che si applica pi` u frequentemente per
riconoscere dei vettori sono linearmente indipendenti, ma saranno utili anche
quelle esposte nella seguente
Proposizione 2. Siano v
1
, . . . , v
n
elementi dello spazio vettoriale V.
1. v
1
, . . . , v
n
sono linearmente dipendenti se e solo se uno di essi `e com-
binazione lineare degli altri.
2. Se v
1
, . . . , v
n−1
sono linearmente indipendenti allora v
1
, . . . , v
n
sono
linearmente dipendenti se e solo se v
n
∈ /(v
1
, . . . , v
n−1
).
Dimostrazione. 1. ⇒ Siano λ
1
, . . . , λ
n
scalari non tutti nulli tali che
n

i=1
λ
i
v
i
= 0,
esiste un indice i tale che λ
i
,= 0 e con facili passaggi algebrici si ottiene
v
i
=
i−1

s=1
−λ
−1
i
λ
s
v
s
+
n

s=i+1
−λ
−1
i
λ
s
v
s
.
⇐ Se v
i
=

i−1
s=1
µ
s
v
s
+

n
s=i+1
µ
s
v
s
con semplici passaggi algebrici si
ottiene
i−1

s=1
µ
s
v
s
+ (−1)v
i
+
n

s=i+1
µ
s
v
s
= 0.
17
2. ⇒ Siano λ
1
, . . . , λ
n
scalari non tutti nulli tali che
n

i=1
λ
i
v
i
= 0,
siccome v
1
, . . . , v
n−1
sono linearmente indipendenti si ottiene che λ
n
,=
0, e poi si procede come nella dimostrazione appena esposta prendendo
i = n.
⇐ Gi` a fatta.
Definizione 15. Si dice che B = (b
1
, . . . , b
n
) `e una base per V se
• b
1
, . . . , b
n
sono linearmente indipendenti.
• b
1
, . . . , b
n
generano V.
Per esempio `e facile vedere che la n− upla ordinata di vettori definita in
2.1 costituisce una base per K
n
, chiamata la base standard e indicata con il
simbolo c (o c
n
se esiste pericolo di confusione).
Anche lo spazio vettoriale /(mn; K) ha una base standard: comincia-
mo con il definire, per ogni (i, j) ∈ mn, la matrice E
ij
mediante
e
ij
rs
=
_
1 se (r, s) = (i, j)
0 se (r, s) ,= (i, j)
(2.2)
`
E facile vedete che l’insieme di tutte queste matrici genera /(mn, K).
Definiamo poi una funzione f : mn −→ mn mediante
f(i, j) = (i −1)n + j; si controlla facilmente che si tratta di una corrispon-
denza biunivoca e chiamiamo g la sua inversa.
Infine definiamo c : mn −→ /(mn, K) ponendo e
k
= E
g(k)
. Si verifica
senza patemi che la mn−upla ordinata c `e linearmente indipendente e quindi
una base per /(mn, K), si veda anche la propoisizione 4.
Se n ∈ N, A `e un insieme, / = (a
1
, . . . , a
n
) e B = (b
1
, . . . , b
n
) sono
n-uple ordinate di elementi di A si dice che B `e ottenuta da / cambiando
l’ordine se esiste una biezione σ : n −→ n tale che B = / ◦ σ, cio`e, per
ogni i = 1, . . . , n b
i
= a
σ(i)
. Se (v
1
, . . . , v
n
) genera uno spazio vettoriale V
(rispettivamente `e linearmente indipendente) e (w
1
, . . . , w
n
) `e ottenuta da
(v
1
, . . . , v
n
) cambiando l’ordine allora anche (w
1
, . . . , w
n
) genera V (rispetti-
vamente `e linearmente indipendente). In parole povere l’essere generatori o
linearmente indipendenti non dipende dall’ordine.
Il risultato pi` u decisivo di tutta l’algebra lineare `e il seguente
18
Teorema 3. Sia V uno spazio vettoriale, (v
1
, . . . , v
n
) linearmente indipen-
dente e (w
1
, . . . , w
m
) generatori di V. Allora n ≤ m.
Dimostrazione. Supponiamo per assurdo che sia n > m; siccome v
1
∈ V
esistono degli scalari tali che
v
1
=
m

i=1
λ
i
w
i
La proposizione 2 ci assicura che v
1
,= 0 e quindi almeno uno degli scalari
`e non nullo; salvo cambiare l’ordine in w
1
, . . . , w
m
, possiamo supporre sia
λ
1
,= 0. Con facili passaggi algebrici si ottiene
w
1
= λ
−1
1
v
1
−λ
−1
1
λ
2
w
2
−. . . −λ
−1
1
λ
m
w
m
da cui si deduce immediatamente che anche v
1
, w
2
, . . . , w
m
generano V. Ma
allora esistono degli scalari tali che
v
2
= µ
1
v
1
+ µ
2
w
2
+ . . . + µ
m
w
m
.
Visto che v
2
/ ∈ /(v
1
) si ha che µ
2
, . . . , µ
m
non sono tutti nulli e, cambiando
se necessario l’ordine in w
2
, . . . , w
m
, possiamo supporre che µ
2
,= 0 e allora
w
2
= −µ
−1
2
µ
1
v
1
+ µ
−1
2
v
2
−µ
−1
2
µ
3
w
3
−. . . −µ
−1
2
µ
m
w
m
e quindi anche v
1
, v
2
, w
3
, . . . , w
m
generano V. Ripetendo m volte questo ra-
gionamento si arriva a dire che v
1
, v
2
, . . . , v
m
generano V e quindi v
m+1

/(v
1
, v
2
, . . . , v
m
), e questo contraddice la proposizione 2.
La lettrice che sia infastidita dalle volgarit`a contenute nella dimostrazione
precedente (il particolare quel “ripetendo mvolte questo ragionamento”) avr` a
maggior soddisfazione dalla
Dimostrazione corretta. Sia U = ¦p ∈ m tali che ∃u : m −→ V tale che ∀i ∈
p, u
i
= v
i
, ∀i > p, u
i
∈ ¦w
1
, . . . , w
m
¦, u genera V ¦. 0 ∈ U, che quindi non `e
vuoto. Sia r = max(U); affermo che r ≥ n da cui in particolare segue la tesi.
Supponiamo infatti che r < n. Per definizione di U esiste u : m −→
V tale che ∀i ∈ r, u
i
= v
i
, ∀i > r, u
i
∈ ¦w
1
, . . . , w
m
¦, u genera V ; allora
esiste λ ∈ K
n
tale che v
r+1
=

m
i=1
λ
i
u
i
=

r
i=1
λ
i
v
i
+

m
i=r+1
λ
i
u
i
; siccome
(v
1
, . . . , v
n
) `e linearmente indipendente, esiste j ∈ ¦r+1, . . . , m¦ tale che λ
i
,=
0. Ne segue che (v
1
, . . . , v
r+1
, u
r+1
, . . . , u
j−1
, u
j+1
, . . . , u
m
) genera V e quindi
r + 1 ∈ U, contraddizione.
19
Questo teorema ha un numero impressionante di conseguenze:
Proposizione 3. Sia V uno spazio vettoriale
1. Se B = (b
1
, . . . , b
n
) e ( = (c
1
, . . . , c
m
) sono basi per V allora m = n.
Questo numero `e detto dimensione di V e indicato con dimV.
2. Se dimV = n e W V allora W `e finitamente generato, dimW ≤ n e
se dimW = n allora W = V.
3. Se dimV = n e v
1
, . . . , v
p
sono linearmente indipendenti allora p ≤ n;
se p = n allora (v
1
, . . . , v
p
) `e una base di V, se invece p < n allora
esistono v
p+1
, . . . , v
n
tali che (v
1
, . . . , v
p
, . . . , v
n
) `e una base di V. Cio`e
ogni p−upla ordinata di vettori linearmente indipendenti pu`o essere
completata a base.
4. Se dimV = n e v
1
, . . . , v
m
generano V allora m ≥ n; se m = n allora
(v
1
, . . . , v
m
) `e una base di V , se invece m > n possiamo scartare m−n
vettori in modo che i rimanenti formino una base, cio`e ogni n−upla
ordinata di generatori pu`o essere sfoltita a base.
Dimostrazione. 1. Usando il fatto che b
1
, . . . , b
n
sono linearmente indipen-
denti e che c
1
, . . . , c
n
generano V si ha che n ≤ m, e scambiando le basi
tra di loro si trova che m ≤ n.
2. La prima affermazione `e la pi` u delicata da dimostrare, anche se questo
sembra paradossale: in fondo stiamo solo dicendo che se V `e “picco-
lo”anche W lo `e: in realt` a tutto quello che sappiamo `e che V ha un
insieme di generatori con n elementi e vorremmo concludere che an-
che W ha un insieme finito di generatori; possiamo procedere cos`ı: sia
M = ¦m ∈ N tali che esiste un’m-upla ordinata linearmente indipen-
dente di vettori di W¦. Questo insieme non `e vuoto perch´e 0 ∈ M, ed
il teorema 3 ci assicura che, per ogni m ∈ M, m ≤ n, quindi M ha un
massimo, chiamiamolo m. Naturalmente questo significa che possiamo
trovare m vettori linearmente indipendenti in W ma non possiamo tro-
varne m+ 1. Sia (v
1
, . . . , v
m
) un’ m-upla con tale propriet` a; se w ∈ W
la (m + 1)-upla (v
1
, . . . , v
m
, w) `e linearmente dipendente e quindi, per
il punto 2 della proposizione 2, w ∈ /(v
1
, . . . , v
m
): dunque v
1
, . . . , v
m
generano W e siamo a posto.
20
Una base di W `e costituita da vettori linearmente indipendenti; inol-
tre se dimW = n e, per assurdo, esiste v ∈ V tale che v / ∈ W allora,
aggiungendo v a una base di W di otterrebbero n + 1 vettori linear-
mente indipendenti in V , per il punto 2 della proposizione 2, e questo
contraddice il teorema.
3. La prima affermazione segue ovviamente dal teorema. Per quanto ri-
guarda la seconda basta prendere W = /(v
1
, . . . , v
p
) e applicare il punto
precedente. Se invece p < n allora /(v
1
, . . . , v
p
) ,= V e quindi esiste
v
p+1
/ ∈ /(v
1
, . . . , v
p
). Per la proposizione 2 abbiamo che v
1
, . . . , v
p
, v
p+1
sono ancora linearmente indipendenti. Ripetendo n − p volte questo
ragionamento si ha la tesi.
4. Anche qui basta dimostrare la terza affermazione. Visto che m > n i
vettori v
1
, . . . , v
m
sono linearmente dipendenti. Per la proposizione 2
uno almeno di essi `e combinazione lineare degli altri. Escludendolo si
continua ad avere un insieme di generatori, e ripetendo m−n volte si
ha la tesi.
Se B = (b
1
, . . . , b
n
) `e una base per uno spazio vettoriale V allora esiste
(perch´e b
1
, . . . , b
n
generano V ) ed `e unica (perch´e b
1
, . . . , b
n
sono linearmente
indipendenti) una n−upla ordinata di scalari (x
1
, . . . , x
n
) tale che
v =
n

i=1
x
i
b
i
.
Tali scalari sono chiamati le coordinate di v rispetto a B (se V ha una base
standard e B `e tale base, si parla di coordinate tout court).
Lo spazio vettoriale nullo ha per base ∅ e dunque dimensione zero, K
n
ha
dimensione n e dim/(mn, K) = mn.
Abbiamo giurato che in queste note avremmo parlato soltanto di spazi
vettoriali finitamente generati, ma vogliamo soddisfare la legittima curiosit`a
della lettrice che a questo punto si sia domandato se ne esistano di non
finitamente generati.
La risposta, pienamente esauriente, `e fornita dal superesempio. Questa
discussione `e leggermente pi` u impegnativa e non `e il caso di farsi amareggiare
da una comprensione non immediata;
Proposizione 4. Siano K un campo e X un insieme:
21
• Se X `e finito allora K
X
`e finitamente generato e dimK
X
= X.
• Se X non `e finito K
X
non `e finitamente generato.
Dimostrazione. Per ogni x ∈ X indichiamo con x

l’elemento di K
X
definito
da
x

(y) =
_
1 se y = x.
0 se y ,= x
Supponiamo che X sia finito ed abbia n elementi, cio`e esiste una corrispon-
denza biunivoca A : n −→ X. Affermo che l’ n-upla ordinata (x

1
, . . . , x

n
) `e
una base di K
X
.
Supponiamo infatti di avere un’ n-upla ordinata (λ
1
, . . . , λ
n
) di scalari
tali che

n
i=1
λ
i
x

i
= 0; questo 0 `e naturalmente in vettore nullo di K
X
, cio`e
la funzione che associa lo scalare 0 a tutti gli elementi di X. Ma allora, per
ogni j = 1, . . . , n abbiamo
0 = 0(x
j
) = (
n

i=1
λ
i
x

i
)(x
j
) =
n

i=1
λ
i
(x

i
(x
j
)) = λ
j
.
E quindi x

1
, . . . , x

n
sono linearmente indipendenti; il penultimo passaggio
segue dalla definizione delle operazioni in K
X
e l’ultimo da quella di x

i
.
Sia poi f ∈ K
X
e, per i = 1, . . . , n, poniamo λ
i
= f(x
i
) ∈ K; vogliamo
dimostrare che f =

n
i=1
λ
i
x

i
, cio`e che queste due funzioni coincidono su
ogni elemento di X; visto che X = ¦x
1
, . . . , x
n
¦ abbiamo che, per ogni j
(
n

i=1
λ
i
x

i
)(x
j
) =
n

i=1
λ
i
(x

i
(x
j
)) = λ
j
= f(x
j
),
e si vince.
Supponiamo ora che X non sia finito, e dimostriamo che, per ogni n ∈ N,
possiamo trovare n vettori linearmente indipendenti in K
X
. Questo, usando
il teorema 3, ci permette di concludere che K
X
non `e finitamente generato.
Per ogni n ∈ N possiamo trovare una funzione iniettiva (x
1
, . . . , x
n
) :
n −→ X e, come nella prima parte della dimostrazione, `e facile vedere che
x

1
, . . . , x

n
sono linearmente indipendenti.
La prima parte di questa proposizione, scegliendo opportunamente X, ci
permette di ricalcolare le dimensioni degli spazi vettoriali che gi`a conosciamo.
Un altro strumento utilissimo per calcolare le dimensioni `e dato dalla
seguente
22
Proposizione 5 (Formula di Grassmann). Sia V uno spazio vettoriale, UV
e W V allora vale la formula
dim(U + W) = dimU + dimW −dimU ∩ W.
Dimostrazione. Poniamo dimU = p, dimW = q, dimU ∩ W = s. Alla
luce della proposizione appena dimostrata avremo che s ≤ p, s ≤ q e dob-
biamo dimostrare che dim(U +W) = p +q −s. Sia B = (b
1
, . . . , b
s
) una base
per U ∩ W (ovviamente prendiamo B = ∅ se s = 0) e completiamola a base
per U mediante l’aggiunta di altri p−s vettori c
s+1
, . . . , c
p
(nessun vettore se
p = s). Completiamo B a base di W mediante altri q −s vettori d
s+1
, . . . , d
q
( nessun vettore se q = s). La proposizione sar`a dimostrata se riusciremo a
verificare che i p + q −s vettori
b
1
, . . . , b
s
, c
s+1
, . . . , c
p
, d
s+1
, . . . , d
q
sono una base per U + W.
• Sono linearmente indipendenti: siano infatti
β
1
, . . . , β
s
, γ
s+1
, . . . , γ
p
, δ
s+1
, . . . , δ
q
degli scalari tali che
β
1
b
1
+ . . . + β
s
b
s
+ γ
s+1
c
s+1
+ . . . + γ
p
c
p
+ δ
s+1
d
s+1
+ . . . + δ
q
d
q
= 0
e poniamo v = β
1
b
1
+ . . . + β
s
b
s
+ γ
s+1
c
s+1
+ . . . + γ
p
c
p
∈ U, cosicch´e
−v = δ
s+1
d
s+1
+ . . . + δ
q
d
q
∈ W, ma, siccome W `e un sottospazio
vettoriale di V anche v ∈ W.
Quindi v ∈ U ∩ W ed allora esistono s scalari λ
1
, . . . , λ
s
tali che
v = λ
1
b
1
+ . . . + λ
s
b
s
da cui segue che
λ
1
b
1
+ . . . + λ
s
b
s
+ δ
s+1
d
s+1
+ . . . + δ
q
d
q
= v −v = 0
e, essendo b
1
, . . . , b
s
, d
s+1
, . . . , d
q
linearmente indipendenti, da qui si pu` o
dedurre che λ
1
, . . . , λ
s
, δ
s+1
, . . . , δ
q
sono tutti nulli, e in particolare che
v = 0; dalla definizione di v e dal fatto che b
1
, . . . , b
s
, c
s+1
, . . . , c
p
sono
linearmente indipendenti si conclude che β
1
, . . . , β
s
, γ
s+1
, . . . , γ
p
sono
tutti nulli.
23
• Generano U +W; sia infatti v ∈ U +W, allora esistono u ∈ U e w ∈ W
tali che v = u + w. Ma esistono degli scalari tali che
u = β
1
b
1
+ . . . + β
s
b
s
+ γ
s+1
c
s+1
+ . . . + γ
p
c
p
w = α
1
b
1
+ . . . + α
s
b
s
+ δ
s+1
d
s+1
+ . . . + δ
q
d
q
ma allora
v = (β
1

1
)b
1
+. . .+(β
s

s
)b
s

s+1
c
s+1
+. . .+γ
p
c
p

s+1
c
s+1
+. . .+δ
q
d
q
La somma di sottospazi U V e W V si dice diretta e si scrive U ⊕W se
ogni vettore in U + W si scrive in modo unico come somma di un elemento
di U e uno di W. Si pu` o riconoscere facilmente se una somma `e diretta
applicando la seguente
Proposizione 6. Siano V uno spazio vettoriale, U V e W V . Le seguenti
condizioni sono equivalenti:
1. La somma di U e W `e diretta.
2. Se u ∈ U e w ∈ W sono tali che u + w = 0 allora u = 0 e w = 0.
3. U ∩ W = ¦0¦.
Dimostrazione.2 ⇒ 1 Siano u, u

∈ U e w, w

∈ W tali che u + w = u

+ w

.
allora abbiamo che (u − u

) + (w − w

) = 0, e, usando 2 si ha subito
che u = u

, w = w

.
1 ⇒ 3 Sia v ∈ U ∩ W allora v ∈ U e v ∈ W e allora v + 0 = 0 + v ∈ U + W.
Da 1 si deduce subito che v = 0.
3 ⇒ 2 Se u ∈ U e w ∈ W sono tali che u + w = 0 allora u = −w da cui si
deduce che u ∈ U ∩ W. Usando 3 si vede che u = 0 e subito dopo che
w = 0.
Se la somma di U e W `e diretta la formula di Grassmann ci assicu-
ra che dimU + W = dimU + dimW e la sua dimostrazione ci dice che,
se (v
1
, . . . , v
p
) e (w
1
, . . . , w
q
) sono basi per Ue W rispettivamente, allora
(v
1
, . . . , v
p
, w
1
, . . . , w
q
) `e base per U + W.
24
2.5 Sistemi lineari
Definizione 16. Siano n, m interi positivi. Un sistema lineare di m equa-
zioni in n incognite `e una coppia ordinata (A, b) dove A ∈ /(m n; K) e
b ∈ /(m1; K).
Il sistema lineare (A, b) viene tradizionalmente indicato con la notazione
AX = b, e cos`ı faremo anche in queste note. A viene chiamata la matrice
dei coefficienti del sistema AX = b e la matrice (A[b) ∈ /(m(n + 1); K)
le cui prime n colonne sono quelle di A e l’ultima `e b viene detta la matrice
completa del sistema.
L’insieme delle soluzioni di tale sistema lineare `e Sol(A, b) = ¦X ∈
/(n1; K) tali che AX = b¦. Si dice che il sistema `e risolubile se Sol(A, b) ,=
∅. Se b = 0 il sistema si dice omogeneo.
Proposizione 7. Siano A ∈ /(mn; K).
1. Sol(A, 0) `e un sottospazio vettoriale di /(n 1; K).
2. ¦v ∈ K
n
tali che Av
t
= 0¦ `e un sottospazio vettoriale di K
n
.
Dimostrazione. 1. Si deve verificare
S1 A0 = 0 e questa `e conseguenza della propriet` a MP3 del prodotto
di matrici citata sopra.
S2 Se AX = 0, AY = 0 allora A(X + Y ) = AX + AY = 0 + 0 = 0.
S3 Se AX = 0 e λ ∈ K allora A(λX) = λ(AX) = λ0 = 0.
2.
`
E ovvio.
Proposizione 8. Sia AX = b un sistema lineare risolubile e sia X
0

Sol(A, b). Allora
Sol(A, b) = X
0
+ Sol(A, 0) =
¦X ∈ /(n 1; K) tali che ∃Y ∈ Sol(A, 0) tale che X = X
0
+ Y ¦
Dimostrazione. Se X ∈ Sol(A, b), ponendo Y = X−X
0
si ha che X = X
0
+Y
e che AY = A(X − X
0
) = AX − AX
0
= b − b = 0. Viceversa, se AY = 0
allora A(X
0
+ Y ) = AX
0
+ AY = b + 0 = b.
25
Sia A ∈ /(m n; K). Abbiamo gi`a detto che cosa sono le sue righe
A
1
, . . . , A
m
∈ /(1 n; K), e definiamo il rango per righe di A come il
numero
rg
R
(A) = dim/(A
1
, . . . , A
m
).
Naturalmente rg
R
(A) ≤ m, ma anche rg
R
(A) ≤ n, in quanto dimensione di
un sottospazio di /(1 n; K).
Analogamente possiamo definire il rango per colonne di A come
rg
C
(A) = dim/(A
1
, . . . , A
n
).
Di nuovo avremo che rg
C
(A) ≤ min(m, n) in quanto `e la dimensione di un
sottospazio di /(m1; K).
Dimostreremo pi` u avanti, nel corollario 3, il seguente importante risultato
Teorema 4. ∀n, m, A ∈ /(mn; K) rg
R
(A) = rg
C
(A).
Questo numero verr` a chiamato semplicemente rango di A e indicato con
rg(A). Siamo ora in grado di enunciare e provare il teorema che ci dice quando
un sistema lineare `e risolubile:
Teorema 5. (Rouch´e-Capelli) Il sistema lineare AX = b `e risolubile se e
solo se rg(A) = rg(A[b).
Dimostrazione. Conviene pensare al rango per colonne. Evidentemente
/(A
1
, . . . , A
n
) /(A
1
, . . . , A
n
, b)
e l’eguaglianza vale se e solo se b ∈ /(A
1
, . . . , A
n
). Perci` o abbiamo provato
che
rg(A) = rg(A[b) ⇔ b ∈ /(A
1
, . . . , A
n
).
Ma quest’ultima condizione vuol dire che esistono degli scalari x
1
, . . . , x
n
tali
che

n
i=1
x
i
A
i
= b, e questo significa che il vettore (x
1
, . . . , x
n
)
t
∈ Sol(A, b).
Perch´e questo risultato diventi praticamente efficace abbiamo bisogno di
un metodo che ci consenta di calcolare il rango di una matrice. Quello che
proponiamo calcola il rango per righe, ma per illustrarlo dovremo introdur-
re qualche concetto nuovo. L’idea `e di modificare una matrice, ma senza
cambiarne il rango, finch´e si trovi in una forma in cui il rango sia evidente.
Le modifiche avverranno attraverso le cosiddette operazioni elementari sulle
righe che sono
26
1. Scambiare tra loro due righe: se A ∈ /(m n; K) e 1 ≤ i < j ≤
m la matrice modificata ha per righe A
1
, . . . , A
j
, . . . , A
i
, . . . , A
n
dove
A
j
si trova all’i−esimo posto e A
i
al j−esimo. Evidentemente questa
operazione non modifica il rango per righe della matrice.
2. Moltiplicare una riga per uno scalare non nullo: se A ∈ /(m n; K)
e 1 ≤ i ≤ m e 0 ,= λ ∈ K la matrice modificata ha per righe
A
1
, . . . , λA
i
, . . . , A
n
dove λA
i
si trova all’i−esimo posto. Anche in que-
sto caso `e facile vedere che questa operazione non modifica il rango per
righe.
3. Sostituire una riga con la somma tra lei e un multiplo (anche nullo) di
una riga che la precede: se A ∈ /(mn; K) e 1 ≤ i < j ≤ m e λ ∈ K,
la matrice modificata ha per righe A
1
, . . . , A
i
, . . . , A
j
+λA
i
, . . . , A
n
dove
A
i
si trova all’i−esimo posto e A
j
+λA
i
al j− esimo. Anche qui il rango
non cambia.
Diremo che un vettore non nullo X = (x
1
, . . . , x
n
) ∈ K
n
ha s zeri iniziali
se x
i
= 0 quando i ≤ s ma x
s+1
,= 0. Questo numero s viene indicato con il
simbolo zi(X) e ovviamente si ha 0 ≤ zi(X) < n.
Definizione 17. Si dice che una matrice A ∈ /(m n; K) `e in forma
ridotta se si verificano le seguenti circostanze:
• Per ogni i = 1, . . . , m−1, se A
i
= 0 anche A
i+1
= 0, cio`e le (eventuali)
righe nulle sono confinate agli ultimi posti disponibili.
• Per ogni i = 1, . . . , m − 1, se A
i+1
,= 0 allora zi(A
i
) < zi(A
i+1
); cio`e
ogni riga non nulla ha pi` u zeri iniziali di quella che la precede.
Proposizione 9. Attraverso operazioni elementari sulle righe, e quindi senza
modificarne il rango, possiamo trasformare una matrice qualunque in una in
forma ridotta.
La dimostrazione, che non `e altro che un rifacimento teorico del processo
che si attua negli esempi, `e pesante dal punto di vista notazionale e queste
note non l’ospiteranno.
Il problema del calcolo del rango, per righe, di una matrice sar` a dunque
risolto se possiamo calcolare il rango delle matrici ridotte.
Proposizione 10. Il rango per righe di una matrice ridotta `e uguale al
numero delle sue righe non nulle.
27
Dimostrazione. Sia A ∈ /(mn; K) una matrice in forma ridotta, e sia A
t
la sua ultima riga non nulla. Evidentemente
/(A
1
, . . . , A
m
) = /(A
1
, . . . , A
t
)
e ci basta dimostrare che A
1
, . . . , A
t
sono linearmente indipendenti. Siano
λ
1
, . . . , λ
t
degli scalari tali che
λ
1
A
1
+ . . . + λ
t
A
t
= 0.
Abbiamo subito che λ
1
a
1zi(A
1
)
= 0, da cui si deduce che λ
1
= 0 visto che
a
1zi(A
1
)
,= 0. Usando questo risultato si vede analogamente che λ
2
= 0 e, uno
dopo l’altro, che tutti i λ
i
sono nulli.
Le operazioni elementari sulle righe ci permettono dunque di scoprire
quando un sistema lineare `e risolubile, ma c’`e di meglio:
Proposizione 11. Sia AX = b un sistema lineare. Se la matrice completa
(A

[b

) `e ottenuta da (A[b) mediante operazioni elementari sulle righe allora
Sol(A, b) = Sol(A

, b

).
Dimostrazione. Si tratta evidentemente di controllare che ogni operazione
elementare sulle righe non modifica l’insieme delle soluzioni di un sistema, e
questo `e lasciato per esercizio.
2.6 Equazioni parametriche di un sottospazio
vettoriale
Pu` o sembrare irrispettoso domandare a chi studia matematica che cosa sia
un’equazione, ma quanti lo sanno davvero? Ecco una proposta: un’ equa-
zione `e una coppia ordinata (X
f
−→ Y, y) dove X
f
−→ Y `e una funzione
e y ∈ Y . L’insieme delle soluzioni dell’equazione (f, y) `e Sol(f[y) = ¦x ∈
X tali che f(x) = y¦. Un’equazione (f, y) si dice risolubile se Sol(f[y) ,= ∅.
Sia V uno spazio vettoriale di dimensione n su un campo K e W un
sottospazio di V di dimensione p. Sia poi (v
1
, . . . , v
q
) una q−upla ordinata
in V che genera W; per il teorema fondamentale p ≤ q. Dato v ∈ V avremo
che v ∈ W = /(v
1
, . . . , v
q
) se e solo se esiste (λ
1
, . . . , λ
q
) ∈ K
q
tale che v =

q
i=1
λ
i
v
i
.
28
Sia ora B = (b
i
, . . . , b
n
) una base di V . Per ogni i = 1, . . . , q esiste
un’unica n−upla ordinata di scalari (a
1i
, . . . , a
ni
) tale che v
i
=

n
j=1
a
ji
b
j
, il
che ci procura una matrice A ∈ /(n q; K).
Se (x
1
, . . . , x
n
) `e la n− upla delle coordinate di un vettore v ∈ V rispetto
a B avremo che v ∈ W se e solo se esiste (λ
1
, . . . , λ
q
) ∈ K
q
tale che
n

j=1
x
j
b
j
=
q

i=1
λ
i
(
n

j=1
a
ji
b
j
) =
n

j=1
(
q

i=1
λ
i
a
ji
)b
j
cio`e, per l’unicit` a delle coordinate, se e solo se (x
1
, . . . , x
n
) soddisfa
_
¸
_
¸
_
x
1
= a
11
λ
1
+ . . . + a
1q
λ
q
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
x
n
= a
n1
λ
1
+ . . . + a
nq
λ
q
Avremo dunque che v =

n
j=1
x
j
b
j
∈ W se e solo se l’equazione (L
A
, X) `e
risolubile, dove L
A
: /(q 1, K) −→ /(n1, K) `e definita da L
A
(Λ) = AΛ
e X = (x
1
, . . . , x
n
)
t
.
Si dice che l’equazione (L
A
, X)`e un equazione parametrica del sottospazio
W rispetto alla base B.
29
Capitolo 3
Applicazioni lineari
3.1 Applicazioni lineari
Definizione 18. Siano V, W spazi vettoriali e V
T
−→ W una funzione. Si
dice che T `e un’ applicazione lineare se soddisfa le seguenti regole:
L1 ∀v, w ∈ V T(v + w) = T(v) + T(w).
L2 ∀v ∈ V, ∀λ ∈ K T(λv) = λT(v).
Ad esempio la funzione nulla V
0
−→ W definita da 0(v) = 0 ∀v ∈ V `e
un’applicazione lineare. Anche id
V
`e lineare. L’insieme di tutte le applicazio-
ni lineari V
T
−→ W viene indicato con il simbolo Hom(V, W). Una funzione
biettiva di Hom(V, W) viene detta isomorfismo; `e facile vedere che se T `e un
isomorfismo, anche la sua inversa T
−1
lo `e. Si dice che gli spazi vettoriali V
e W sono isomorfi se esiste un isomorfismo in Hom(V, W). Un importante
esempio `e il seguente: Sia B una base per lo spazio vettoriale V di dimensione
n. La funzione
K
n
C
B
−→ V
definita da C
B
(x
1
, . . . , x
n
) =

n
i=1
x
i
b
i
`e un isomorfismo.
Ogni elemento di Hom(V, W) gode automaticamente delle seguenti pro-
priet` a:
• T(0) = 0, infatti T(0) = T(00) = 0T(0) = 0.
• ∀v ∈ V T(−v) = −T(v), infatti T(v)+T(−v) = T(v−v) = T(0) = 0.
30
Definizione 19. Sia T ∈ Hom(V, W) il nucleo di T `e l’insieme
KerT = ¦v ∈ V tale che T(v) = 0¦
e l’ immagine di T `e l’insieme
ImT = ¦w ∈ W tali che ∃v ∈ V tale che T(v) = w¦.
`
E facile vedere che KerT V e che ImT W. La dimensione di KerT viene detta
la nullit`a di T e quella di ImT si chiama rango di T e si indica con rg(T).
Ovviamente T `e suriettiva se e solo se ImT = W, se e solo se rg(T) = dimW.
Quindi il rango ci fornisce un’informazione sull’applicazione lineare; al-
trettanto fa il nucleo:
Proposizione 12. Sia T ∈ Hom(V, W). T `e iniettiva se e solo se KerT =
¦0¦.
Dimostrazione. Supponiamo che T sia iniettiva e che v ∈ KerT, allora T(v) =
0 = T(0) e quindi v = 0. Viceversa supponiamo che KerT = ¦0¦ e che
v, w ∈ V soddisfino T(v) = T(w); ma allora T(v −w) = T(v) −T(w) = 0 e
quindi v −w = 0.
Proposizione 13. Sia T ∈ Hom(V, W) e sia U un sottospazio di V . Allora
1. T(U) = ¦T(u) tali che u ∈ U¦ `e un sottospazio di W.
2. Se u
1
, . . . , u
p
generano U allora T(u
1
), . . . , T(u
p
) generano T(U).
3. Se u
1
, . . . , u
p
∈U sono linearmente indipendenti e T `e iniettiva allora
T(u
1
), . . . , T(u
p
) sono linearmente indipendenti.
4. Se T `e iniettiva allora dimU = dimT(U).
Dimostrazione. 1. 0 = T(0) ∈ T(U) perch´e 0 ∈ U. Se w, w

∈ T(U)
allora esistono u, u

∈ U tali che T(u) = w, T(u

) = w

; ma allora
w + w

= T(u) + T(u

) = T(u + u

) ∈ T(U) perch´e u + u

∈ U.
Se w ∈ T(U) e λ ∈ K esiste u ∈ U tale che T(u) = w; ma allora
λw = λT(u) = T(λu) ∈ T(U) perch´e λu ∈ U.
2. Se w ∈ T(U) esiste u ∈ U tale che T(u) = w, ma esiste una p-upla
ordinata di scalari (λ
1
, . . . , λ
p
) tale che u =

p
i=1
λ
i
u
i
e allora w =
T(u) = T(

p
i=1
λ
i
u
i
) =

p
i=1
λ
i
T(u
i
).
31
3. Se 0 =

p
i=1
λ
i
T(u
i
) = T(

p
i=1
λ
i
u
i
) allora

p
i=1
λ
i
u
i
∈ KerT = ¦0¦;
siccome u
1
, . . . , u
p
sono linearmente indipendenti segue che λ
i
= 0 ∀i =
1, . . . p.
4. Se (u
1
, . . . , u
p
) `e una base di U allora (T(u
1
), . . . , T(u
p
)) genera T(U)
per 2 ed `e linearmente indipendente per 3.
Uno strumento indispensabile dell’algebra lineare `e dato dal seguente
Teorema 6 (nullit` a + rango). Se V `e uno spazio vettoriale finitamente
generato, W `e uno spazio vettoriale e T ∈ Hom(V, W) allora
dimKerT + dimImT = dimV.
Dimostrazione. Cominciamo con l’osservare che, grazie al punto 2 della pro-
posizione precedente, ImT `e finitamente generato; anche KerT lo `e in quanto
sottospazio di V. Quindi le dimensioni menzionate nell’enunciato del teorema
hanno senso.
Sia B = (b
1
, . . . , b
p
) una base di KerT ( B = ∅ se KerT = ¦0¦) e com-
pletiamo B a base di V mediante i vettori b
p+1
, . . . , b
n
(nessun vettore se
KerT = V, cio`e se T `e l’applicazione nulla). Il teorema sar`a dimostrato se
riusciamo a provare che (T(b
p+1
), . . . , T(b
n
)) `e una base per ImT.
• T(b
p+1
), . . . , T(b
n
) sono linearmente indipendenti, infatti se λ
p+1
, . . . , λ
n
sono scalari tali che
λ
p+1
T(b
p+1
) + . . . + λ
n
T(b
n
) = 0
allora, grazie al fatto che T `e lineare, possiamo scrivere
T(λ
p+1
b
p+1
+ . . . + λ
n
b
n
) = 0
e cio`e abbiamo che λ
p+1
b
p+1
+ . . . + λ
n
b
n
∈ KerT, esistono allora degli
scalari λ
1
, . . . , λ
p
tali che
λ
1
b
1
+ . . . + λ
p
b
p
−λ
p+1
b
p+1
−. . . −λ
n
b
n
= 0.
Siccome b
1
, . . . , b
n
sono linearmente indipendenti si deduce che λ
p+1
, . . . , λ
n
sono tutti nulli.
32
• T(b
p+1
), . . . , T(b
n
) generano ImT. Sia infatti w ∈ ImT, allora esiste
v ∈ V tale che T(v) = w. Dato che b
1
, . . . , b
n
generano V esistono degli
scalari λ
1
, . . . , λ
n
tali che
v = λ
1
b
1
+ . . . + λ
n
b
n
,
da cui deduciamo subito che
w = T(v) = T(λ
1
b
1
+ . . . + λ
n
b
n
) = λ
1
T(b
1
) + . . . + λ
n
T(b
n
)
= λ
p+1
T(b
p+1
) + . . . + λ
n
T(b
n
),
visto che T(b
i
) = 0 per ogni i = 1, . . . , p.
Questo conclude la dimostrazione.
Anche il teorema nullit` a pi` u rango ha una serie di illuminanti conseguenze:
poniamo dimV = n e dimW = m.
1. Se T ∈ Hom(V, W) `e iniettiva allora dimKerT = 0 e quindi il teorema
ci dice che dimImT = n; dato che ImT W si evince che n ≤ m; in altri
termini, se n > m non esistono funzioni iniettive (e quindi nemmeno
biettive) in Hom(V, W).
2. Se T ∈ Hom(V, W) `e suriettiva allora dimImT = m e quindi il teorema
ci dice che n ≥ m; in altri termini, se n < m non esistono funzioni
suriettive (e quindi nemmeno biettive) in Hom(V, W).
3. D’altra parte se (b
1
, . . . , b
n
), (c
1
, . . . , c
m
) sono basi per V e W rispet-
tivamente, definendo
T(
n

i=1
x
i
b
i
) =
_
¸
¸
¸
_
¸
¸
¸
_
n

i=1
x
i
c
i
se n ≤ m,
m

i=1
x
i
c
i
se n ≥ m,
si trova, nel primo caso, un’applicazione lineare iniettiva, e nel secondo
una suriettiva. Se poi n = m si ha un isomorfismo.
Tra le righe abbiamo anche provato che due spazi vettoriali sono iso-
morfi se e solo se hanno la stessa dimensione.
33
4. Se dimV = dimW e L ∈ Hom(V, W) `e iniettiva (rispettivamente su-
riettiva) allora `e anche suriettiva (iniettiva) e quindi `e un isomorfismo.
Proposizione 14. Siano V, W spazi vettoriali, B = (b
1
, . . . , b
n
) una base di
V e τ : ¦b
1
, . . . , b
n
¦ −→ W una funzione. Esiste un’unica
T ∈ Hom(V, W) tale che T(b
j
) = τ(b
j
) ∀j = 1, . . . , n.
Tale T `e detta l’ estensione lineare di τ.
Dimostrazione. Cominciamo col provare l’unicit` a: siano dunque T, T


Hom(V, W) funzioni che soddisfano quanto richiesto. Se v ∈ V esiste un’uni-
ca n−upla ordinata di scalari (x
1
, . . . , x
n
) tale che v =

n
j=1
x
j
b
j
ma allora
T(v) = T(
n

j=1
x
j
b
j
) =
n

j=1
x
j
T(b
j
) =
n

j=1
x
j
τ(b
j
) =
n

j=1
x
j
T

(b
j
) = T

(
n

j=1
x
j
b
j
) = T

(v).
Per quanto riguarda l’esistenza basta definire, per ogni v =

n
j=1
x
j
b
j
,
T(v) =

n
j=1
x
j
τ(b
j
) e poi verificare, molto facilmente, che tale funzione
soddisfa quanto richiesto.
Questa proposizione ci dice, rapidamente: ogni applicazione lineare `e
completamente determinata dal suo comportamento su una base.
La prossima definizione `e un’altro dei cardini su cui ruota l’algebra lineare:
Definizione 20. Siano V uno spazio vettoriale di dimensione n, W uno
spazio vettoriale di dimensione m, B = (b
1
, . . . , b
n
), ( = (c
1
, . . . , c
m
) basi
per V e W rispettivamente; sia infine T ∈ Hom(V, W). La matrice di T
rispetto alle basi B e ( `e la matrice /
B
C
(T) = A ∈ /(mn; K) data dalla
seguente regola:
∀j = 1, . . . , n T(b
j
) =
m

i=1
a
ij
c
i
In parole, per ogni j, la colonna j−esima della matrice `e data dalle coor-
dinate di T(b
j
) rispetto alla base (. Se B e ( sono basi standard si parla
semplicemente di matrice associata a T.
34
In modo del tutto analogo a quanto abbiamo fatto nel superesempio,
possiamo dare delle operazioni all’insieme W
V
in modo che diventi uno spazio
vettoriale; `e facile vedere che (T +T

) ◦S = T ◦S +T

◦S, che S ◦(T +T

) =
S ◦ T + S ◦ T

e che (λT) ◦ S = λ(T ◦ S) = T ◦ (λS) tutte le volte che le
operazioni hanno senso. Ma soprattutto si vede facilmente che Hom(V, W) `e
un sottospazio vettoriale di W
V
.
Proposizione 15. dimHom(V, W) = (dimV )(dimW).
Dimostrazione. Posto n = dimV, m = dimW e scelte le basi B per V e (
per W`e facile verificare che la funzione
Hom(V, W)
M
B
C
−→ /(mn; K)
`e un isomorfismo.
L’utilit` a principale dalla matrice associata risiede nella seguente
Proposizione 16. Se v =

n
i=1
x
i
b
i
A = /
B
C
(T) T(v) =

m
j=1
y
j
c
j
allora
A(x
1
, . . . , x
n
)
t
= (y
1
, . . . , y
m
)
t
.
In particolare v ∈ KerT ⇔ (x
1
, . . . , x
n
)
t
∈ Sol(A, 0).
Dimostrazione.
m

j=1
y
j
c
j
= T(v) = T(
n

i=1
x
i
b
i
) =
n

i=1
x
i
T(b
i
) =
n

i=1
x
i
(
m

j=1
a
ji
c
j
) =
m

j=1
(
n

i=1
a
ji
x
i
)c
j
e, per l’unicit` a delle coordinate, abbiamo che ∀j, y
j
=

n
i=1
a
ji
x
i
.
Proposizione 17. Se A = /
B
C
(T) allora rg(A) = rg(T).
Dimostrazione. Siccome la trasposizione /(m1; K) −→K
m
e C
C
: K
m
−→ W
sono isomorfismi e
∀i = 1, . . . , m C
C
(A
i
)
t
= T(b
i
)
per il punto 4 della proposizione 13 `e immediato che
rg(A) = dim/(A
1
, . . . , A
n
) = dim/(T(b
1
), . . . , T(b
n
)).
La tesi segue ora dal fatto che /(T(b
1
), . . . , T(b
n
)) = ImT, per il punto 2
della stessa proposizione.
35
Abbiamo gi` a visto un buon motivo per definire in quel modo apparen-
temente strampalato il prodotto di matrici, precisamente che consente di
tradurre la terminologia dei sistemi lineari; ma ecco un altra ragione:
Teorema 7. Siano B, (, T basi per gli spazi vettoriali V, W, U rispettiva-
mente. Siano poi T ∈ Hom(V, W), S ∈ Hom(W, U). Allora
1. S ◦ T ∈ Hom(V, U).
2. /
B
D
(S ◦ T) = /
C
D
(S)/
B
C
(T).
Dimostrazione. La prima affermazione `e una semplicissima verifica. La se-
conda un calcolo: chiamiamo n, m, p le dimensioni dei tre spazi vettoriali,
A = /
B
C
(T), B = /
C
D
(S), C = /
B
D
(S ◦ T).
∀i = 1, . . . n
p

s=1
c
si
d
s
= S ◦ T(b
i
) = S(T(b
i
))
= S(
m

j=1
a
ji
c
j
) =
m

j=1
a
ji
S(c
j
) =
m

j=1
a
ji
(
p

s=1
b
sj
d
s
)
=
p

s=1
(
m

j=1
b
sj
a
ji
)d
s
e, per l’unicit` a delle coordinale abbiamo che, ∀i, s c
si
=
m

j=1
b
sj
a
ji
, che `e la
tesi.
Corollario 1. Siamo B, ( basi per gli spazi vettoriali V, W.
1. Se T ∈ Hom(V, W) `e un isomorfismo allora /
C
B
(T
−1
) = /
B
C
(T)
−1
.
2. Se B

, (

sono altre basi per V, W e T ∈ Hom(V, W) allora
/
B

C

(T) = /
C

C
(id
W
)
−1
/
B
C
(T)/
B

B
(id
V
)
Dimostrazione. 1. Visto che T `e un isomorfismo, deve essere n = m. La
tesi segue dal teorema osservando che T
−1
◦ T = id
V
, T ◦ T
−1
= id
W
e /
B
B
(id
V
) = /
C
C
(id
W
) = I.
2. Basta applicare due volte il teorema osservando che id
W
◦ T = T ◦ id
V
.
36
Il prossimo risultato dimostra come l’algebra delle matrici possa trarre
vantaggio dalla conoscenza delle applicazioni lineari.
Corollario 2. Sia A ∈ /(n n; K) :
1. A `e invertibile se e solo se rg(A) = n.
2. Se esiste B ∈ /(n n; K) tale che AB = I allora A `e invertibile e
A
−1
= B.
3. Se esiste B ∈ /(n n; K) tale che BA = I allora A `e invertibile e
A
−1
= B.
Dimostrazione. Scegliamo uno spazio vettoriale V di dimensione n e una
sua base B (va benissimo, anche se non `e obbligatorio, scegliere K
n
con la
base standard), e sia T ∈ Hom(V, V ) l’unica applicazione lineare tale che
/
B
B
(T) = A.
1. Se A`e invertibile e A
−1
`e la sua inversa sia S ∈ Hom(V, V ) l’unica appli-
cazione lineare tale che /
B
B
(S) = A
−1
. Allora /
B
B
(T ◦S) = AA
−1
= I,
da cui segue che T ◦ S = id
V
; allora, per ogni w ∈ V abbiamo che
w = T(S(w)) e dunque T `e suriettiva, cio`e rg(T) = n; dato che
rg(A) = rg(T) abbiamo la tesi.
Viceversa se rg(A) = rg(T) = n allora T `e suriettiva e quindi `e un
isomorfismo. /
B
B
(T
−1
) `e l’inversa di A.
2. Sia S ∈ Hom(V, V ) tale che /
B
B
(S) = B. Allora /
B
B
(T ◦ S) = AB =
I = /
B
B
(id
V
), e dunque T ◦ S = id
V
; come prima segue che T `e un
isomorfismo e quindi A`e invertibile. Inoltre A
−1
= A
−1
I = A
−1
(AB) =
(A
−1
A)B = IB = B.
3. Sia S ∈ Hom(V, V ) tale che /
B
B
(S) = B. Allora /
B
B
(S ◦ T) = BA =
/
B
B
(id
V
), e dunque S ◦ T = id
V
, ma allora, se v ∈ KerT abbiamo che
v = S(T(v)) = S(0) = 0, cio`e T `e iniettiva e quindi un isomorfismo;
allora A `e invertibile. Inoltre A
−1
= IA
−1
= (BA)A
−1
= B(AA
−1
) =
BI = B.
37
3.2 Spazio duale
Definizione 21. Sia V uno spazio vettoriale sul campo K. Lo spazio vetto-
riale Hom(V, K) viene indicato con V

e chiamato le spazio duale di V .
Ovviamente dimV

= dimV ; se B = (b
1
, . . . , b
n
) `e una base di V, per
ogni i = 1, . . . , n, definiamo un vettore b

i
∈ V

mediante
b

i
(b
j
) =
_
1 se j = i
0 se j ,= i
La n−upla ordinata B

= (b

1
, . . . , b

n
) `e linearmente indipendente, suppo-
niamo infatti di avere una n-upla ordinata (λ
1
, . . . , λ
n
) di scalari tali che

n
i=1
λ
i
b

i
= 0; questo 0 `e naturalmente in vettore nullo di V

, cio`e la fun-
zione che associa lo scalare 0 a tutti gli elementi di V. Ma allora, per ogni
j = 1, . . . , n abbiamo
0 = 0(b
j
) = (
n

i=1
λ
i
b

i
)(b
j
) =
n

i=1
λ
i
(b

i
(b
j
)) = λ
j
.
Sarebbe altrettanto semplice dimostrare che tale n-upla genera V

, ma, per
motivi di dimensioni, `e inutile. B

`e detta la base duale di B.
Se U V l’ortogonale di U `e U

= ¦α ∈ V

tali che α(u) = 0 ∀u ∈ U¦.
`
E facile verificare che si tratta di un sottospazio di V

ma possiamo fare di
meglio:
Proposizione 18. Sia U un sottospazio di V. Allora
dimU + dimU

= dimV.
Dimostrazione. Poniamo p = dimU e n = dimV .
Sia (b
1
, . . . , b
p
) una base di U e completiamola a una base B di V. Affermo
che la (n−p)-upla ordinata (b

p+1
, . . . , b

n
) `e una base per U

, che avr` a quindi
dimensione n −p.
Non occorre dimostrare che questi vettori sono linearmente indipendenti,
in quanto estratti da una base, ci resta solo da verificare che appartengono
a U

e che lo generano. Se u ∈ U allora u =

p
i=1
x
i
b
i
e quindi, per ogni
j = p + 1, . . . , n abbiamo che b

j
(u) = b

j
(

p
i=1
x
i
b
i
) =

p
i=1
x
i
b

j
(b
i
) = 0 per
la definizione della base duale.
Inoltre, se α ∈ U

⊆ V

esiste una n−upla ordinata di scalari (x
1
, . . . , x
n
)
tale che α =

n
i=1
x
i
b

i
ma, per ogni j = 1, . . . , p, b
j
∈ U e quindi 0 =
α(b
j
) = (

n
i=1
x
i
b

i
)(b
j
) = x
j
e quindi α =

n
i=p+1
x
i
b

i
.
38
Se V, W sono spazi vettoriali sul campo K e T ∈ Hom(V, W) la trasposta
di T `e la funzione
T
t
: W

−→ V

definita da T
t
(β) = β ◦ T.
`
E facile controllare che T
t
∈ Hom(W

, V

) ed il
motivo del nome `e dato dalla seguente
Proposizione 19. Siano B una base di V , ( una base di W e T ∈ Hom(V, W)
allora
/
C

B

(T
t
) = (/
B
C
(T))
t
Dimostrazione. Sia n = dimV, m = dimW, A = /
B
C
(T), B = /
C

B

(T
t
).
Allora, per ogni i = 1, . . . , m e per ogni j = 1, . . . , n abbiamo
T
t
(c

i
)(b
j
) = (
n

k=1
b
ki
b

k
)(b
j
) =
n

k=1
b
ki
(b

k
(b
j
)) = b
ji
ma anche
T
t
(c

i
)(b
j
) = (c

i
◦ T)(b
j
) = c

i
(
m

k=1
a
kj
c
k
) =
m

k=1
a
kj
c

i
(c
k
) = a
ij
e quindi B = A
t
.
Se T ∈ Hom(V, W) abbiamo i sottospazi vettoriali ImT
t
e (KerT)

di V

e (ImT)

e KerT
t
di W

.
Teorema 8. Nelle condizioni appena descritte valgono le seguenti uguaglian-
ze:
1. ImT
t
= (KerT)

.
2. KerT
t
= (ImT)

.
3. rgT = rgT
t
.
Dimostrazione. Consiste nel provare direttamente due delle inclusioni dei
primi due punti, e poi nell’ottenere le altre ed il terzo punto per motivi
di dimensione. Poniamo n = dimV = dimV

, m = dimW = dimW

e
cominciamo
39
Se α ∈ ImT
t
esiste β ∈ W

tale che α = T
t
(β) = β ◦ T, ed allora, per
ogni v ∈ KerT avremo
α(v) = β(T(v)) = β(0) = 0.
Quindi ImT
t
⊆ (KerT)

, e, in particolare dimImT
t
≤ dim(KerT)

.
Se β ∈ KerT
t
allora 0 = T
t
(β) = β ◦ T; per ogni w ∈ Im(T) esiste
v ∈ V tale che T(v) = w e quindi
β(w) = β(T(v)) = (β ◦ T)(v) = 0(v) = 0.
Quindi KerT
t
⊆ (ImT)

, e, in particolare dimKerT
t
≤ dim(ImT)

. Infine
dimImT
t
≤ dim(KerT)


= n −dimKerT
∗∗
= dimImT

=
m−dim(ImT)

≤ m−dimKerT
t
∗∗
= dimImT
t
,
dove le uguaglianze indicate con ∗∗ sono dovute al teorema nullit` a+rango e
quelle segnate con ∗ sono motivate nella proposizione 18.
Quindi tutte le disuguaglianze che compaiono nella catena sono in realt`a
uguaglianze ed il teorema `e dimostrato.
Corollario 3. Siano m, n numeri naturali positivi e A ∈ /(mn, K) allora
rg
R
(A) = rg
C
(A)
Dimostrazione. Come nella dimostrazione del corollario 2, scegliamo uno spa-
zio vettoriale V di dimensione n e una sua base B, uno spazio vettoriale W
di dimensione m e una sua base ( e sia T ∈ Hom(V, W) l’unica applicazione
lineare tale che /
B
C
(T) = A. Allora /
C

B

(T
t
) = A
t
e dunque
rg
C
(A) = rgT = rgT
t
= rg
C
(A
t
) = rg
R
(A).
3.3 Spazio biduale
Niente ci impedisce, avendo uno spazio vettoriale V di dimensione n di
prendere il duale del suo duale. Tale spazio vettoriale, ancora di dimen-
sione n, `e chiamato lo spazio biduale di V e indicato con V
∗∗
, naturalmente
V
∗∗
= Hom(V

, K) = Hom(Hom(V, K), K), equipaggiato con le opportune
operazioni.
40
`
E fin troppo naturale definire un’applicazione, evidentemente lineare, σ :
V −→ V
∗∗
mediante σ(v)(α) = α(v). In realt` a σ `e un isomorfismo; per
motivi di dimensione ci basta controllare che `e iniettiva, il che ammonta a
dire che, per ogni 0 ,= v ∈ V , esiste α ∈ V

tale che α(v) ,= 0: facile, basta
prendere una base B di V con b
1
= v e poi scegliere α = b

1
.
Proposizione 20. Sia U un sottospazio vettoriale di V .
• σ(U) = U
⊥⊥
.
• u ∈ U ⇔ α(u) = 0, ∀α ∈ U

.
Dimostrazione. • Per ogni u ∈ U per ogni α ∈ U

abbiamo che α(u) = 0
e quindi σ(u) ∈ U
⊥⊥
, cio`e σ(U) ⊆ U
⊥⊥
, e poi dimσ(U) = dimU =
n −(dimU

) = n −(n − dim(U
⊥⊥
)) = dim(U
⊥⊥
).
• u ∈ U ⇔ σ(u) ∈ σ(U) = U
⊥⊥
⇔ ∀α ∈ U

, α(u) = 0.
3.4 Equazioni cartesiane di un sottospazio vet-
toriale
Di conseguenza, se U V e (α
1
, . . . , α
q
) genera U

(notiamo che deve es-
sere q ≥ n − dimU) avremo che u ∈ U ⇔ α
j
(u) = 0, ∀j = 1, . . . , q. Se
B = (b
1
, . . . , b
n
) `e una base di V, u =

n
i=1
x
i
b
i
avremo che u ∈ U ⇔ 0 =
(a
1
, . . . , a
n
)(x
i
, . . . , x
n
)
t
= α(u), ∀α =

n
j=1
a
i
b

i
∈ U

.
Quindi se scriviamo ogni α
j
=

n
i=1
a
ij
b

i
avremo che u ∈ U se e solo se
(x
1
. . . . , x
n
)
t
`e soluzione del sistema omogeneo
_
¸
¸
¸
_
¸
¸
¸
_
a
11
x
1
+ . . . + a
1n
x
n
= 0
a
21
x
1
+ . . . + a
2n
x
n
= 0
.
.
.
.
.
.
.
.
. +
.
.
. =
.
.
.
a
q1
x
1
+ . . . + a
qn
x
n
= 0
Ecco l’ equazione cartesiana di U rispetto alla base B. Ci assicura che v ∈
U se e solo se le sue coordinate sono soluzioni di un opportuno sistema
omogeneo.
41
Capitolo 4
Diagonalizzazione
4.1 Determinanti
In tutta questa sezione parleremo di matrici quadrate cio`e appartenenti a
/(n n; K); una matrice del genere `e detta singolare se il suo rango `e
minore di n. Useremo la seguente notazione: se A ∈ /(nn; K) scriveremo
A = (A
1
, . . . , A
n
).
Esiste uno strumento che permette, attraverso un calcolo facile fatto sol-
tanto di somme e prodotti di elementi di K, di rispondere a una sola doman-
da, ma decisiva: quand’`e che una matrice quadrata ha le colonne (e quindi
le righe) linearmente indipendenti? (cio`e `e non singolare?)
Teorema 9. Per ogni naturale positivo n esiste un’unica funzione
det : /(n n; K) −→K
detta determinante che gode delle seguenti propriet`a:
d1 tenendo fisse tutte le colonne meno una det `e un’applicazione lineare:
cio`e, per ogni i = 1, . . . , n
a)
det(A
1
, . . . , A
i−1
, A
i
+ B
i
, A
i+1
, . . . , A
n
) =
det(A
1
, . . . , A
i−1
, A
i
, A
i+1
, . . . , A
n
)+
det(A
1
, . . . , A
i−1
, B
i
, A
i+1
, . . . , A
n
)
b)
det(A
1
, . . . , A
i−1
, λA
i
, A
i+1
, . . . , A
n
) =
λdet(A
1
, . . . , A
i−1
, A
i
, A
i+1
, . . . , A
n
)
42
d2 Se la matrice ha due colonne uguali allora il suo determinante vale 0
cio`e, se esistono i < j ∈ ¦1, . . . , n¦ tali che A
i
= A
j
allora
det(A
1
, . . . , A
i
, . . . , A
j
, . . . , A
n
) = 0
d3 det(I) = 1.
La dimostrazione esula dai propositi di queste note; cerchiamo piuttosto
di convincerci che le cose stanno proprio cos`ı: esaminiamo il caso in cui
n = 1 : una matrice A ∈ /(1 1; K) `e del tipo A = (a) dove a ∈ K; allora,
usando d1 e d3 abbamo che det(A) = a det((1)) = a.
Notiamo soltanto che se in una matrice si scambiano due colonne allora
il determinante cambia di segno, infatti
0 = det(A
1
, . . . , A
i
+ A
j
, . . . , A
j
+ A
i
, . . . , A
n
) =
det(A
1
, . . . , A
i
, . . . , A
j
+A
j
, . . . , A
n
)+det(A
1
, . . . , A
j
, . . . , A
j
+A
j
, . . . , A
n
) =
det(A
1
, . . . , A
i
, . . . , A
i
, . . . , A
n
) + det(A
1
, . . . , A
i
, . . . , A
j
, . . . , A
n
)+
det(A
1
, . . . , A
j
, . . . , A
i
, . . . , A
n
) + det(A
1
, . . . , A
j
, . . . , A
j
, . . . , A
n
) =
0 + det(A
1
, . . . , A
i
, . . . , A
j
, . . . , A
n
) + det(A
1
, . . . , A
j
, . . . , A
i
, . . . , A
n
) + 0.
Prendiamo n = 2 e sia A ∈ /(2 2; K) cio`e
A =
_
a b
c d
_
La prima colonna pu` o essere scritta come a
_
1
0
_
+ c
_
0
1
_
, e la secon-
da come b
_
1
0
_
+ d
_
0
1
_
, per cui, usando le propriet` a caratterizzanti il
determinante avremo
det
_
a b
c d
_
= a det
_
1 b
0 d
_
+ c det
_
0 b
1 d
_
=
ab det
_
1 1
0 0
_
+ ad det
_
1 0
0 1
_
+ cb det
_
0 1
1 0
_
+ cd det
_
0 0
1 1
_
=
ad det
_
1 0
0 1
_
+ cb det
_
0 1
1 0
_
= ad −bc.
Il determinante delle matrici nn si calcola supponendo di conoscere quello
delle matrici (n − 1) (n − 1) secondo la regola che segue: si sceglie a
43
piacere una colonna, diciamo la j−esima (se ha dentro tanti zeri, tutto di
guadagnato) e poi, per ogni i = 1, . . . , n si chiama A
ij
la matrice (n − 1)
(n − 1) ottenuta da A cancellando la j− esima riga e la i− esima colonna:
poi si calcola
det(A) =
n

i=1
(−1)
i+j
a
ij
det(A
ij
).
Qualcuno ha verificato per noi che la funzione cos`ı definita soddisfa le regole
d1,d2,d3. Le propriet`a rilevanti del determinante sono
1. det(AB) = det(A) det(B); (formula di Binet).
2. det(A
t
) = det(A).
In particolare la seconda propriet`a ci assicura che tutto quanto `e stato detto
in questa sezione pu` o essere ripetuto scambiando tra loro le parole righe e
colonne. Ma il vero motivo per cui vale la pena di calcolare un determinante
`e il seguente
Teorema 10. ∀A ∈ /(n n; K) det(A) = 0 ⇔ rg(A) < n.
Dimostrazione. ⇒ Se rg(A) = n allora A `e invertibile e
1 = det(I) = det(AA
−1
) = det(A) det(A
−1
)
e quindi det(A) ,= 0.
⇐ Supponiamo che rg(A) < n, cio`e le colonne di A sono linearmente
dipendenti, e allora una di loro `e combinazione lineare delle altre. Siccome
il determinante cambia solo segno quando si scambiano le colonne, possiamo
supporre che sia
A
n
=
n−1

s=1
λ
s
A
s
.
Usando la propriet` a d1 si ha che
det(A) = det(A
1
, . . . , A
n−1
,
n−1

s=1
λ
s
A
s
) =
n−1

s=1
λ
s
det(A
1
, . . . , A
n−1
, A
s
)
e quest’ultimo numero `e la somma di n − 1 addendi tutti uguali a zero in
quanto determinanti di matrici con due colonne uguali.
44
4.2 Diagonalizzazione
In questa sezione ci occuperemo di operatori su uno spazio vettoriale V,
cio`e degli elementi di Hom(V, V ); in particolare , dato un operatore T su V
cercheremo una base B per V in modo che la matrice /
B
B
(T) si presenti in
una forma particolarmente maneggevole.
Definizione 22. Si dice che uno scalare λ `e un autovalore di T se esiste un
vettore v ,= 0 tale che T(v) = λv.
Osserviamo che 0 `e un autovalore se e solo se KerT ,= ¦0¦, cio`e T non `e
iniettivo. Pi` u in generale λ `e un autovalore se e solo se l’operatore λid
V
−T
non `e iniettivo.
Definizione 23. Si dice che un vettore v ,= 0 `e un autovettore di T se esiste
uno scalare λ tale che T(v) = λv, cio`e se v ∈ Ker(λid
V
−T). Tale λ `e detto
l’ autovalore di v.
Definizione 24. Un operatore T ∈ Hom(V, V ) `e detto diagonalizzabile se
esiste una base di V costituita interamente da autovettori.
Il motivo della definizione `e che, se B `e una base formata da autovettori
di T, ∀b
i
∈ B, λ
i
`e l’autovalore di b
i
e dimV = n allora
/
B
B
(T) =
_
_
_
_
_
λ
1
0 . . . 0
0 λ
2
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . λ
n
_
_
_
_
_
Cio`e /
B
B
(T) `e una matrice diagonale. Viceversa se /
B
B
(T) `e diagonale allora
tutti gli elementi di B sono autovettori.
Il nostro problema sar` a, dato un operatore, scoprire se `e diagonalizzabile
e, in caso affermativo, di trovare una base formata da autovettori.
Prima di tutto si devono cercare tutti gli autovalori del nostro operatore.
Sia T ∈ Hom(V, V ), B una base di V e sia A = /
B
B
(T). Consideriamo la
funzione P
A
: K −→K definita da
P
A
(t) = det(tI −A) = det
_
_
_
_
_
t −a
11
−a
12
. . . −a
1n
−a
21
t −a
22
. . . −a
2n
.
.
.
.
.
.
.
.
.
.
.
.
−a
n1
−a
n2
. . . t −a
nn
_
_
_
_
_
45
La funzione P
A
(t) `e un polinomio di grado n, il coefficiente di t
n
`e 1 e il
termine noto `e P
A
(0) = det(−A) = (−1)
n
det(A).
Naturalmente P
A
(t) dipende dall’operatore T e, ad occhio, ci si potrebbe
aspettare che dipenda anche dalla scelta della base che si usa per trasformare
T in una matrice; ma non `e cos`ı:
Proposizione 21. Siano T ∈ Hom(V, V ), B, ( basi di V, A = /
B
B
(T) e
B = /
C
C
(T). Allora le funzioni P
A
(t) e P
B
(t) coincidono.
Dimostrazione. Poniamo P = /
C
B
(id
V
), per il punto 2 del teorema 7 avremo
che B = P
−1
AP e le propriet` a del prodotto di matrici ci permettono di
affermare che, per ogni t ∈ K :
P
B
(t) = det(t I −B) = det(t P
−1
IP −P
−1
AP) =
det(P
−1
(tIP −AP)) = det(P
−1
(tI −A)P) =
det(P
−1
) det(tI −A) det(P) = det(P
−1
) det(P) det(tI −A) =
det(P
−1
P) det(tI −A) = det I det(tI −A) = P
A
(t).
Definizione 25. Il polinomio P
A
(t), che, come abbiamo visto dipende solo
dall’operatore T `e detto polinomio caratteristico dell’operatore T e indicato
con il simbolo P
T
(t).
Proposizione 22. Gli autovalori di T sono esattamente tutte le radici del
polinomio P
T
(t).
Dimostrazione. Sia B una base di V e poniamo A = /
B
B
(T); avremo che λ `e
un autovalore di T se e solo se l’operatore λid
V
−T non `e iniettivo. Ma questo
avviene se e solo se rg(λid
V
−T) < n, e, visto che λI −A = /
B
B
(λid
V
−T),
questa condizione `e equivalente a rg(λI − A) < n, cio`e 0 = det(λI − A) =
P
A
(λ) = P
T
(λ).
Ricordiamo qualche propriet` a dei polinomi con cui la lettrice sar`a certa-
mente in buona confidenza: questo richiamo `e tuttavia opportuno almeno
per fissare la notazione.
L’insieme di tutti i polinomi viene indicato con il simbolo K[t]; due polino-
mi possono essere sommati e moltiplicati; si pu`o anche dividere per un poli-
nomio non nullo, per la precisione: siano P(t), S(t) ,= 0 ∈ K[t] allora esistono
e sono unici due polinomi Q(t), R(t) ∈ K[t] tali che P(t) = S(t)Q(t) + R(t)
46
e, se R(t) ,= 0, allora ∂R(t) < ∂S(t), dove con ∂ si indica il grado di un
polinomio, che `e definito come la lettrice sa bene per tutti e soli i polinomi
non nulli. R(t) che `e chiamato il resto della divisione di P(t) per S(t). Se `e il
polinomio nullo si dice che P(t) `e divisibile per S(t). Il caso pi` u interessante
si verifica quando S(t) `e del tipo t −α, in particolare di grado 1. In tal caso
si ha che P(t) `e divisibile per t −α se e solo se P(α) = 0, cio`e α `e una radice
di P(t). Si dice che la radice α del polinomio non nullo P(t) ha molteplicit`a
algebrica m se P(t) `e divisibile per (t −α)
m
ma non per (t −α)
m+1
, cio`e se
esiste un polinomio Q(t) tale che P(t) = (t − α)
m
Q(t) e Q(α) ,= 0. Questo
numero m viene indicato con il simbolo m.a.(α).
Naturalmente la somma di tutte le molteplicit` a algebriche di tutte le
radici di un polinomio non supera il suo grado, e ci sono dei casi in cui `e
minore, per esempio il polinomio P(t) = t
3
+ t che ha solo la radice 0 e
m.a.(0) = 1 < 3 = ∂P(t).
In particolare, se λ `e un autovalore dell’operatore T ∈ Hom(V, V ) ha
senso parlare della sua molteplicit`a algebrica pensando λ come radice del
polinomio caratteristico.
Inoltre se λ `e un autovalore di T il sottospazio Ker(λid
V
− T) = ¦v ∈
V tali che T(v) = λv¦ `e chiamato l’ autospazio di λ, e indicato con il simbolo
V
λ
o V
λ,T
se sussiste pericolo di confusione; la sua dimensione si chiama
molteplicit`a geometrica di λ e si indica con m.g.(λ). Gli elementi di V
λ
sono
il vettore nullo e tutti gli autovettori che fanno capo a λ.
Proposizione 23. Se λ `e un autovalore dell’operatore T allora
m.g.(λ) ≤ m.a.(λ).
Dimostrazione. Possiamo calcolare il polinomio caratteristico usando una
qualsiasi base per trasformare T in una matrice; procediamo in questo modo:
siano p = m.g.(λ), n = dimV e sia (b
1
, . . . , b
p
) una base di V
λ
ed estendiamola
a una base B di V. La matrice A = /
B
B
(T) sar`a dunque del tipo
A =
_
_
_
_
_
_
_
_
_
_
_
λ 0 . . . 0 a
1(p+1)
. . . a
1n
0 λ . . . 0 a
2(p+1)
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . λ a
p(p+1)
. . . a
pn
0 0 . . . 0 a
(p+1)(p+1)
. . . a
(p+1)n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 0 a
n(p+1)
. . . a
nn
_
_
_
_
_
_
_
_
_
_
_
47
per cui il polinomio caratteristico sar` a
det(tI−A) = det
_
_
_
_
_
_
_
_
_
_
_
t −λ 0 . . . 0 −a
1(p+1)
. . . −a
1n
0 t −λ . . . 0 −a
2(p+1)
. . . −a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . t −λ −a
p(p+1)
. . . −a
pn
0 0 . . . 0 t −a
(p+1)(p+1)
. . . −a
(p+1)n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 0 −a
n(p+1)
. . . t −a
nn
_
_
_
_
_
_
_
_
_
_
_
Chiamando B la matrice quadrata (n−p)(n−p) ottenuta usando le ultime
righe e colonne di A e sviluppando il determinante di ottiene
P
T
(t) = (t −λ)
p
det(tI −B)
da cui segue che p ≤ m.a.(λ).
Abbiamo parlato di somma di due sottospazi, ma niente ci impedisce di
ripetere la definizione quando ne abbiamo di pi` u.
Definizione 26. Sia V uno spazio vettoriale, U
1
, . . . , U
k
siano sottospazi
vettoriali di V ; la somma di U
1
, . . . , U
k
`e il sottospazio di V dato da
k

i=1
U
i
= ¦v tali che ∀i = 1, . . . , k ∃u
i
∈ U
i
tale che v =
k

i=1
u
i
¦
La somma dei sottospazi U
1
, . . . , U
k
`e detta diretta se l’unico modo di
ottenere il vettore nullo nella forma v =

k
i=1
u
i
con u
i
∈ U
i
, ∀i = 1; . . . , k `e
di prendere u
i
= 0, ∀i. Se la somma `e diretta si usa la notazione

k
i=1
U
i
. Non
esiste una formula di Grassmann per la somma di tre o pi` u sottospazi, ma,
se la somma `e diretta allora dim

k
i=1
U
i
=

k
i=1
dimU
i
. La dimostrazione,
concettualmente non difficile, `e complicata da una notazione necessariamente
pesante: eccola. Per ogni i = 1, . . . , k poniamo n
i
= dimU
i
e sia
B
i
= (b
i1
, . . . , b
in
i
)
una base di U
i
. La nostra tesi seguir`a dal fatto, che proveremo, che la

k
i=1
n
i
-
upla ordinata
B = (b
11
, . . . , b
1n
1
. . . , b
k1
, . . . , b
kn
k
)
48
`e una base di

k
i=1
U
i
. Che B generi la somma si vede facilmente, proviamo
dunque `e linearmente indipendente. Siano
x
11
, . . . , x
1,n
1
, . . . , x
k1
, . . . , x
k,n
k
degli scalari tali che
0 = x
11
b
11
+ . . . + x
1n
1
b
1n
1
+
. . . + . . . + . . . +
x
k1
b
k1
+ . . . + x
kn
k
b
kn
k
e poniamo, ∀i = 1, . . . , k , v
i
=

n
i
j=1
x
ij
b
ij
∈ U
i
. Avremo allora che

k
i=1
v
i
=
0 e, visto che la somma `e diretta, troviamo che v
i
= 0 ∀i = 1, . . . , k. Dato che
i vettori in B
i
sono linearmente indipendenti si avr`a che ∀i = 1, . . . , k , ∀j =
1, . . . , n
i
, x
ij
= 0.
Proposizione 24. Siano λ
1
, . . . , λ
k
autovalori distinti di un operatore T ∈
Hom(V, V ), per ogni i = 1, . . . , k sia v
i
un autovettore in V
λ
i
. Allora v
1
, . . . , v
k
sono linearmente indipendenti.
Dimostrazione. Si effettua per induzione sul numero k. Se k = 1 abbia-
mo un solo vettore, non nullo in quanto autovettore, e quindi linearmente
indipendente.
Supponiamo ora che la proposizione sia vera per k−1 autovettori (ipotesi
induttiva) e dimostriamola quando ne abbiamo k. Sia
µ
1
v
1
+ . . . + µ
k−1
v
k−1
+ µ
k
v
k
= 0 (4.1)
Moltiplicando questa equazione per λ
k
otteniamo
λ
k
µ
1
v
1
+ . . . + λ
k
µ
k−1
v
k−1
+ λ
k
µ
k
v
k
= λ
k
0 = 0. (4.2)
Applicando T all’equazione (4.1) si ottiene
λ
1
µ
1
v
1
+ . . . + λ
k−1
µ
k−1
v
k−1
+ λ
k
µ
k
v
k
= T(0) = 0. (4.3)
Sottraendo (4.3) da (4.2) si ha

k
−λ
1

1
v
1
+ . . . (λ
k
−λ
k−1

k−1
v
k−1
= 0 −0 = 0
da cui segue, visto che v
1
, . . . , v
k−1
sono linearmente indipendenti per l’ipotesi
induttiva, che ∀i = 1, . . . , k − 1, (λ
k
− λ
i

i
= 0 e, dato che λ
k
− λ
i
,=
0, abbiamo che µ
i
= 0 ∀i = 1, . . . , k − 1. Infine, sostituendo quest’ultimo
risultato in (4.1) in cui v
k
,= 0, si ha che anche µ
k
= 0.
49
Corollario 4. La somma di autospazi relativi ad autovalori distinti `e diretta.
Dimostrazione. Siano λ
1
, . . . , λ
k
gli autovalori in questione e, per ogni i =
1, . . . , k siano v
i
∈ V
λ
i
tali che

k
i=1
v
i
= 0. Supponiamo per assurdo che
s ≥ 1 di essi siano non nulli. Cambiando se necessario l’ordine degli addendi
possiamo supporre che sia

s
i=1
v
i
= 0, con v
i
,= 0 ∀i = 1, . . . , s. Ma questa
`e una combinazione lineare di autovettori che fornisce il vettore nullo, pur
avendo tutti i coefficienti uguali a 1, e contraddice la proposizione appena
dimostrata.
Teorema 11. Sia T un operatore sullo spazio vettoriale V di dimensione n
e sia /(T) l’insieme di tutti i suoi autovalori. Le seguenti condizioni sono
equivalenti:
1. T `e diagonalizzabile.
2.

λ∈A(T)
m.a.(λ) = n e ∀λ ∈ /(T) m.a.(λ) = m.g.(λ).
3.

λ∈A(T)
V
λ
= V.
Dimostrazione. Cominciamo con il premettere una successione di disegua-
glianze che abbiamo provato in questa sezione:
n = ∂P
T
(t) ≥

λ∈A(T)
m.a.(λ) ≥

λ∈A(T)
m.g.(λ) = dim

λ∈A(T)
V
λ
≤ dimV = n.
1) ⇒ 3). Sia B una base di V costituita da autovettori e, per ogni λ ∈ /(T)
poniamo B
λ
= B∩V
λ
, cio`e raggruppiamo insieme gli elementi di B che hanno
lo stesso autovalore. Le seguenti osservazioni sono ovvie
• Se λ ,= µ allora B
λ
∩ B
µ
= ∅.


λ∈A(T)
B
λ
= B.
• Se indichiamo con (B
λ
) il numero degli elementi di B
λ
abbiamo che
(B
λ
) ≤ m.g.(λ) in quanto sono vettori estratti da una base e quindi
linearmente indipendenti.
Da qui si deduce subito che
n = (B) =

λ∈A(T)
(B
λ
) ≤

λ∈A(T)
m.g.(λ) = dim

λ∈A(T)
V
λ
50
da cui si ha subito la tesi.
3) ⇒ 1). Per ogni λ ∈ /(T) prendiamo una base B
λ
di V
λ
; abbiamo gi`a
visto che B =

λ∈A(T)
B
λ
`e una base per

λ∈A(T)
V
λ
= V, ed `e chiaramente
costituita da autovettori.
3) ⇒ 2) Se vale la condizione 3) allora l’ultima disuguaglianza che ab-
biamo premesso a questa dimostrazione `e un’uguaglianza, e quindi anche
le altre due lo sono. La seconda, in particolare, pu` o essere verificata solo
quando ∀λ ∈ /(T), m.a.(λ) = m.g.(λ) e quindi vale la 2).
2) ⇒ 3) Se vale la 2) allora le prime due disuguaglianze sono delle ugua-
glianze e quindi anche la terza lo `e; cio`e dim

λ∈A(T)
V
λ
= n = dimV. Ne
segue che

λ∈A(T)
V
λ
= V.
51
Capitolo 5
Spazi euclidei
5.1 Forme bilineari
Definizione 27. Sia V uno spazio vettoriale. Una forma bilineare su V `e
una funzione
f : V V −→K
che soddisfa le seguenti condizioni:
B1 ∀v, v

, w ∈ V f(v + v

, w) = f(v, w) + f(v

, w)
B2 ∀v, w ∈ V, ∀λ ∈ K f(λv, w) = λf(v, w)
B3 ∀v, w, w

∈ V f(v, w + w

) = f(v, w) + f(v, w

)
B4 ∀v, w ∈ V, ∀λ ∈ K f(v, λw) = λf(v, w)
L’insieme di tutte le forma bilineari su V viene indicato con il simbolo
Bil(V ); `e facile verificare che si tratta di un sottospazio vettoriale di K
V ×V
.
Se f ∈ Bil(V ) allora f(0, w) = f(00, w) = 0f(0, w) = 0, analogamente
f(v, 0) = 0.
Un esempio importantissimo di forma bilineare pu` o essere ottenuto come
segue: Sia A ∈ /(n n; K), prendiamo V = K
n
e definiamo la funzione
V V
f
−→K mediante f(v, w) = vAw
t
. Le propriet`a delle operazioni sulle
matrici ci dicono che f `e effettivamente una forma bilineare.
Se B = (b
1
, . . . , b
n
) `e una base per V e f ∈ Bil(V ) la matrice di f rispetto
a B `e la matrice A ∈ /(n n; K) data da a
ij
= f(b
i
, b
j
); questa matrice
viene indicata con il simbolo /
B
(f).
52
Se v =

n
i=1
x
i
b
i
, w =

n
j=1
y
j
b
j
avremo
f(v, w) = f(
n

i=1
x
i
b
i
, w) =
n

i=1
x
i
f(b
i
, w) =
n

i=1
x
i
f(b
i
,
n

j=1
y
j
b
j
) =
n

i,j=1
x
i
f(b
i
, b
j
)y
j
=
n

i,j=1
x
i
a
ij
y
j
= (x
1
, . . . , x
n
)A(y
1
, . . . , y
n
)
t
.
`
E facile, vedere che la funzione
Bil(V )
M
B
−→ /(n n; K)
`e un isomorfismo, e quindi dimBil(V ) = (dimV )
2
. Se ( `e un’altra base di
V, B = /
C
(f), P = /
C
B
(id
V
), allora
b
ij
= f(c
i
, c
j
) = f(
n

s=1
p
si
b
s
, c
j
) =
n

s=1
p
si
f(b
s
, c
j
) =
n

s=1
p
si
f(b
s
,
n

t=1
p
tj
b
t
) =
n

s,t=1
p
si
f(b
s
, b
t
)p
tj
=
n

s,t=1
p
si
a
st
p
tj
= (p
t
ap)
ij
e quindi le matrici A, B, P sono legate dalla formula
B = P
t
AP.
Definizione 28. Sia f ∈ Bil(V ). Il nucleo sinistro di f il sottoinsieme
Ker
S
f = ¦v ∈ V tali che f(v, w) = 0 ∀w ∈ V ¦
mentre il nucleo destro di f `e
Ker
D
f = ¦v ∈ V tali che f(w, v) = 0 ∀w ∈ V ¦.
Si vede molto facilmente che sono entrambi sottospazi di V.
Se B `e una base di V possiamo controllare quanto segue:
v ∈ Ker
S
f ⇔ f(v, b
i
) = 0 ∀i = 1, . . . , n
L’implicazione ⇒ `e ovvia. Viceversa se v ∈ V soddisfa quanto richiesto
allora, per ogni w =

n
i=1
x
i
b
i
, avremo
f(v, w) =
n

i=1
x
i
f(v, b
i
) = 0.
53
Analogamente
v ∈ Ker
D
f ⇔ f(b
i
, v) = 0 ∀i = 1, . . . , n.
Da questo segue facilmente che, posto A = /
B
(f), v =

n
i=1
x
i
b
i
allora
v ∈ Ker
S
f ⇔ (x
1
, . . . , x
n
)A = 0 e v ∈ Ker
D
f ⇔ A(x
1
, . . . , x
n
)
t
= 0. Se
prendiamo K = R, n = 2 e
A =
_
1 2
3 6
_
allora Ker
S
f = /(3b
1
− b
2
) mentre Ker
D
f = /(2b
1
− b
2
), e dunque i due
nuclei sono diversi. Eppure
Teorema 12. Siano V uno spazio vettoriale di dimensione n, B una base di
V, f ∈ Bil(V ) e A = /
B
(f) allora
dimKer
S
f = n −rg(A) = dimKer
D
f
Il numero n−dimKer
S
f = n−dimKer
D
f viene detto rango della forma
bilineare f e indicato con rg(f); esso coincide con il rango di una qualunque
matrice di f.
Dimostrazione. Conviene procedere per una via indiretta che produce il ri-
sultato in maniera altamente spettacolare.
Cominciamo con il definire una funzione
φ : Hom(V, V

) −→ Bil(V )
mediante φ(T)(v, w) = T(v)(w), le seguenti verifiche sono molto facili e
lasciate alla lettrice:
• Per ogni T ∈ Hom(V, V

), φ(T) appartiene effettivamente a Bil(V ).
• φ `e lineare.
• φ `e iniettiva, e dunque, visto che il suo dominio e codominio hanno la
stessa dimensione n
2
, `e un isomorfismo, in particolare suriettiva.
54
Inoltre
v ∈ KerT ⇔ T(v) = 0 ⇔ T(v)(w) = 0 ∀w ∈ V ⇔
φ(T)(v, w) = 0 ∀w ∈ V ⇔ v ∈ Ker
S
φ(T)
Definiamo poi
ψ : Hom(V, V

) −→ Bil(V )
mediante φ(S)(v, w) = T(w)(v), anche qui si vede subito che
• Per ogni S ∈ Hom(V, V

), ψ(T) appartiene effettivamente a Bil(V ).
• ψ `e lineare.
• ψ `e iniettiva, e dunque, visto che il suo dominio e codominio hanno la
stessa dimensione n
2
, `e un isomorfismo, in particolare suriettiva.
Anche qui si vede che KerS = Ker
D
ψ(S).
Sia B una base per V, T ∈ Hom(V, V

), e poniamo B = /
B
B

(T), A =
/
B
(φ(T)) allora, per ogni i, j = 1, . . . , n
a
ij
= φ(T)(b
i
, b
j
) = T(b
i
)(b
j
) =
n

k=1
b
ki
b

k
(b
j
) =
n

k=1
b
ki
(b

k
(b
j
)) = b
ji
Cio`e B = A
t
. Sia poi S ∈ Hom(V, V

), C = /
B
B

(S), A = /
B
(ψ(S)) allora,
per ogni i, j = 1, . . . , n
a
ij
= ψ(S)(b
i
, b
j
) = S(b
j
)(b
i
) =
n

k=1
ckjb

k
(b
i
) =
n

k=1
c
kj
(b

k
(b
i
)) = c
ij
Cio`e A = C, adesso possiamo facilmente concludere la dimostrazione del
teorema: siano f, B, A come nell’enunciato, siccome φ `e suriettiva esiste T ∈
Hom(V, V

) tale che φ(T) = f e, visto che anche ψ `e suriettiva esiste S ∈
Hom(V, V

) tale che ψ(S) = f; ma allora
dimKer
S
f = dimKer
S
φ(T) = dimKerT = n−dimImT = n−rgA
t
= n−rg(A),
dimKer
D
f = dimKer
D
ψ(S) = dimKerS = n −dimImS = n −rgA
e la dimostrazione `e conclusa.
55
Una forma bilineare f ∈ Bil(V ) si dice non degenere se Ker
S
f = ¦0¦ o,
equivalentemente, Ker
D
f = ¦0¦; naturalmente questa condizione pu` o essere
facilmente verificata prendendo una matrice A che rappresenti f e controllan-
do se ha rango massimo, per esempio vedendo che det(A) ,= 0. Ovviamente f
`e non degenere se per ogni 0 ,= v ∈ V ∃w ∈ V tale che f(v, w) ,= 0 (oppure,
ma `e equivalente, per ogni 0 ,= v ∈ V ∃w ∈ V tale che f(w, v) ,= 0).
Una forma bilineare f ∈ Bil(V ) si dice simmetrica se ∀v, w ∈ V f(v, w) =
f(w, v); una matrice quadrata A si dice simmetrica se A = A
t
. La simmetria
di una forma bilineare pu`o essere facilmente controllata guardando una sua
matrice rispetto a qualunque base:
Proposizione 25. Sia f ∈ Bil(V ); le seguenti condizioni sono equivalenti:
1. f `e simmetrica.
2. Per ogni base ( di V la matrice /
C
(f) `e simmetrica.
3. Esiste una base B di V tale che la matrice /
B
(f) `e simmetrica.
Dimostrazione. 1) ⇒ 2) Sia B = /
C
(f), allora, per ogni i, j = 1, . . . , n
abbiamo b
ij
= f(c
i
, c
j
) = f(c
j
, c
i
) = b
ji
.
2) ⇒ 3)
`
E ovvio.
3) ⇒ 1) Siano A = /
B
(f), v =

n
i=1
x
i
b
i
, w =

n
j=1
y
j
b
j
e osservia-
mo che ogni matrice 1 1 `e simmetrica. Avremo
f(v, w) = (x
1
, . . . , x
n
)A(y
1
, . . . , y
n
)
t
= ((x
1
, . . . , x
n
)A(y
1
, . . . , y
n
)
t
)
t
=
(y
1
, . . . , y
n
)A
t
(x
1
, . . . , x
n
)
t
= (y
1
, . . . , y
n
)A(x
1
, . . . , x
n
)
t
= f(w, v).
.
D’ora in poi imponiamo, fino alla fine di queste note, una limitazione sul
campo K: per la precisione richiediamo che ∀0 ,= λ ∈ K, 2λ = λ + λ ,= 0,
cio`e K non ha caratteristica 2.
Questa richiesta non `e soddisfatta sul campo Z
2
ma lo `e su Q o R.
Teorema 13. Sia V uno spazio vettoriale di dimensione n, f ∈ Bil(V ); le
seguenti condizioni sono equivalenti
1. f `e simmetrica.
2. Esiste una base B di V tale che f(b
i
, b
j
) = 0 se i ,= j; cio`e /
B
(f) `e
diagonale.
56
In parole, una forma bilineare `e simmetrica se e solo se `e diagonalizzabile.
Dimostrazione. 2 ⇒ 1 Sia B una base tale che /
B
(f) `e diagonale; siccome
ogni matrice diagonale `e simmetrica la conclusione segue dalla proposizione
precedente.
1 ⇒ 2 La dimostrazione si effettua per induzione su n = dimV. Se n = 1 la
conclusione `e banalmente vera. Supponiamo dunque n > 1 e che il teorema
sia vero su tutti gli spazi di dimensione n − 1, cio`e ogni forma bilineare
simmetrica su uno spazio di dimensione n − 1 `e diagonalizzabile (ipotesi
induttiva).
Sia dimV = n e f ∈ Bil(V ) una forma bilineare simmetrica. Se f `e la for-
ma bilineare nulla, certamente `e diagonalizzabile (ogni base va bene). Suppo-
niamo allora che non lo sia, cio`e esistono v, w ∈ V tali che f(v, w) ,= 0. Dalla
simmetria di f deduciamo facilmente la seguente formula di polarizzazione
f(v + w, v + w) = f(v, v) + 2f(v, w) + f(w, w).
Se f(v, v) ,= 0 poniamo b
1
= v se invece f(v, v) = 0 ma f(w, w) ,= 0 poniamo
b
1
= w se, infine, f(v, v) = 0 = f(w, w) la formula di polarizzaione ci
garantisce che f(v + w, v + w) = 2f(v, w) ,= 0 e allora poniamo b
1
= v + w.
In tutti i casi siamo riusciti a trovare un vettore b
1
∈ V tale che f(b
1
, b
1
) ,=
0. Poniamo W = ¦v ∈ V tali che f(v, b
1
) = 0¦. Si vede immediatamente che
W `e un sottospazio di V, ma affermo che V = /(b
1
) ⊕ W. Alla luce dalla
proposizione 6 dobbiamo provare che
• /(b
1
) ∩ W = ¦0¦ sia v = λb
1
∈ /(b
1
) tale che v ∈ W, allora 0 =
f(v, b
1
) = f(λb
1
, b
1
) = λf(b
1
, b
1
) e, siccome f(b
1
, b
1
) ,= 0 dalle propriet` a
elementari dei campi segue che λ = 0 e quindi v = 0.
• V = /(b
1
)+W, cio`e, per ogni v ∈ V esistono λ ∈ K, w ∈ W tali che v =
λb
1
+ w; `e facile verificare che scegliendo λ = f(v, b
1
)f(b
1
, b
1
)
−1
e
w = v −λb
1
si vince.
Quindi dimW = n − 1; sia g la restrizione di f a W W (per un leggero
abuso la si chiama semplicemente restrizione di f a W); evidentemente g
`e una forma bilineare simmetrica su W, che, per l’ipotesi induttiva ha una
base (b
2
, . . . , b
n
) tale che g(b
i
, b
j
) = f(b
i
, b
j
) = 0 ∀i ,= j = 2, . . . , n; la base
(b
1
, b
2
, . . . , b
n
) di V `e quanto andavamo cercando in quanto, per ogni j =
2, . . . , n, f(b
1
, b
j
) = f(b
j
, b
1
) = 0 dato che b
j
∈ W.
La dimostrazione `e conclusa.
57
Corollario 5. Sia A ∈ /(n n; K), esiste P ∈ /(n n; K) non singolare
tale che P
t
AP `e diagonale se e solo se A `e simmetrica.
D’ora in poi, fino ad avviso contrario, il campo degli scalari sar` a R. Il
vantaggio rispetto ad un campo qualunque `e che ha senso parlare di scalari
positivi (anche in Q c’`e questa possibilit`a) e che si pu`o estrarre la radice
quadrata dei numeri reali positivi (e questo non si pu` o fare sui razionali).
Supponiamo dunque che V sia uno spazio vettoriale di dimensione n su
R (brevemente uno spazio vettoriale reale) e che f sia una forma bilinea-
re simmetrica su V, sia B una base tale che f(b
i
, b
j
) = 0 quando i ,= j.
Cambiando, se necessario, l’ordine in B possiamo trovare un numero natu-
rale p = 0, . . . , n tale che f(b
i
, b
i
) > 0 se i = 1, . . . p e un numero naturale
q = 0, . . . , n −p tale che f(b
i
, b
i
) < 0 se i = p + 1, . . . p + q e f(b
i
, b
i
) = 0 se
i = p + q + 1, . . . n.
A questo punto, ponendo
c
i
=
_
¸
¸
¸
_
¸
¸
¸
_
b
i
_
f(b
i
, b
i
)
se i = 1, . . . , p
b
i
_
−f(b
i
, b
i
)
se i = p + 1, . . . , p + q
b
i
se i = p + q + 1, . . . , n
Si ha che ( `e una base f−adattata, cio`e /
B
(f) `e diagonale, sulla diagonale
principale ha 1 sui primi p posti, −1 sui seguenti q posti e 0 nei rimanenti.
La coppia di numeri naturali (p, q) viene detta segnatura di f (rispetto
alla base f-adattata ().
In realt`a la segnatura dipende soltanto dalla forma bilineare e non dalla
base che si sceglie.
Teorema 14 (legge di inerzia). Siano V uno spazio vettoriale reale di di-
mensione n, f una forma bilineare simmetrica su V , B, ( basi f− adattate
di V , (p, q) la segnatura di f rispetto a B, (p

, q

) la segnatura di f rispetto
a (. Allora p = p

, q = q

.
Dimostrazione. Certamente p+q = p

+q

in quanto coincidono entrambi con
il rango di f. Affermo che la p+n−p

-upla ordinata (b
1
, . . . , b
p
, c
p

+1
, . . . , c
n
)
`e linearmente indipendente, da cui segue, per il teorema 3 che p ≤ p

; scam-
biando tra loro le basi si ha l’altra disuguaglianza e quindi p = p

che prova
la tesi.
58
Supponiamo dunque di avere il vettore nullo come combinazione lineare
dei vettori citati: cio`e
p

i=1
x
i
b
i
+
n

j=p

+1
y
j
c
j
= 0 (5.1)
e poniamo v =

p
i=1
x
i
b
i
ottenendo di conseguenza −v =

n
j=p

+1
y
j
c
j
f(v, v) =
p

i,k=1
x
i
x
k
f(b
i
, b
k
) =
p

i=1
x
2
i
f(b
i
, b
i
) =
p

i=1
x
2
i
≥ 0 (5.2)
e l’uguaglianza si verifica solamente se x
i
= 0, ∀i = 1, . . . , p; inoltre
f(−v, −v) =
n

j,k=p

+1
y
j
y
k
f(c
j
, c
k
) =
n

i=p

+1
y
2
j
f(c
j
, c
j
) =
p

+q

i=p

+1
−y
2
j
≤ 0 (5.3)
Siccome f(v, v) = (−1)
2
f(−v, −v) = f(−v, −v) confrontando le equazioni
5.2 e 5.3 si ottiene che entrambe le disuguaglianze sono in realt`a degli uguale.
In particolare x
i
= 0, ∀i = 1, . . . , p e dunque v = 0. Sostituendo nell’equa-
zione 5.1 si trova che anche y
j
= 0, ∀i = p

+ 1, . . . , n in quanto i vettori
c
p

+1
, . . . , c
n
sono linearmente indipendenti.
Una forma bilineare simmetrica su uno spazio vettoriale reale di dimen-
sione n `e detta
• definita positiva o prodotto scalare se la sua segnatura `e (n, 0), cio`e se
la sua matrice rispetto ad una qualunque base f− adattata `e la matrice
identica I.
• definita negativa se la sua segnatura `e (0, n), cio`e se la sua matrice
rispetto ad una qualunque base f− adattata `e la matrice −I.
• semidefinita positiva se la sua segnatura `e (p, 0), con p ≤ n.
• semidefinita negativa se la sua segnatura `e (0, q), con q ≤ n.
59
5.2 Prodotti scalari
I fisici trovano particolarmente interessante lo spazio di Minkowski, cio`e ogni
coppia ordinata (M, f) dove M `e uno spazio vettoriale reale di dimensione
4 e f `e una forma bilineare simmetrica su M di segnatura (3, 1). Chiamano
eventi gli elementi di M, riferimento inerziale ogni sua base f− adattata e
trasformazioni di Lorentz gli operatori su M che soddisfano f(T(v), T(w)) =
f(v, w) ∀v, w ∈ M. A malincuore dobbiamo abbandonare questo filone perch´e
altre scelte appaiono prioritarie.
Ci occuperemo invece di prodotti scalari.
Proposizione 26. Una forma bilineare simmetrica f ∈ Bil(V ) `e un prodotto
scalare se e solo se ∀ 0 ,= v ∈ V, f(v, v) > 0.
Dimostrazione. Sia B una base f-adattata di V. Se 0 ,= v ∈ V esisto-
no degli scalari non tutti nulli tali che v =

n
i=1
x
i
b
i
ma allora f(v, v) =

n
i,k=1
x
i
x
k
f(b
i
, b
k
) =

n
i=1
x
2
i
f(b
i
, b
i
) =

n
i=1
x
2
i
> 0.
Viceversa, se vale questa condizione, allora , ∀i = 1, . . . , n, f(b
i
, b
i
) = 1 e
quindi f ha segnatura (n, 0).
Siano f una forma bilineare simmetrica su V , B, ( basi di V , A =
/
B
(f), B = /
C
(f) e P = /
C
B
(id
V
). Allora B = P
t
AP e det(B) =
det(P
t
) det(A) det(P) = det(A) det(P)
2
da cui segue che det(A) e det(B)
sono concordi (quando non sono nulli); in particolare se f `e un prodotto
scalare e ( `e f-adattata allora B = I e quindi det(A) > 0;ma si pu`o fare
di meglio: se una forma bilineare simmetrica f sia un prodotto scalare pu`o
essere visto eseguendo facili calcoli sulla matrice (simmetrica) A di f rispetto
a una qualunque base: basta fare cos`ı: per ogni s = 1, . . . , n definiamo la
matrice
s
A ∈ /(s s; R) prendendo solo le prime s righe e s colonne (`e
detta l’s− esimo minore di nord-ovest di A):
Proposizione 27. f `e un prodotto scalare se e solo se
∀s = 1, . . . , n, det(
s
A) > 0.
Dimostrazione. Sia B una base qualunque e A = /
B
(f). Per ogni s =
1, . . . , n sia V
s
= /(b
1
, . . . , b
s
); evidentemente V
s
`e un sottospazio di V di
dimensione s e la matrice della restrizione a V
s
della forma bilineare f rispetto
alla base (b
1
, . . . , b
s
) `e proprio
s
A.
60
Supponiamo allora che f sia un prodotto scalare; allora la sua restrizione
a V
s
lo `e ancora, e quindi, per l’osservazione appena fatta, det(
s
A) > 0 e una
delle due implicazioni (disgraziatamente la meno utile) `e dimostrata.
L’altra deduzione proceder` a per induzione sulla dimensione di V. Se dimV =
1 allora A = (a) dove a = f(b
1
, b
1
); det A > 0 significa dunque che f(b
1
, b
1
) >
0, ma allora, per ogni 0 ,= v ∈ V, v = λb
1
con λ ,= 0 e dunque f(v, v) =
λ
2
f(b
1
, b
1
) > 0 e f `e effettivamente un prodotto scalare.
Supponiamo ora n > 1, che la proposizione sia vera su tutti gli spazi di
dimensione n−1 e dimostriamola per quelli di dimensione n. Siccome l’ipotesi
induttiva `e piuttosto involuta vale la pena di ricordarla esplicitamente: essa
recita
Se W `e uno spazio vettoriale di dimensione n−1, g `e una forma bilineare
simmetrica su W, ( `e una base di W e B = /
C
(g) ha tutti i suoi n−1 minori
di nord-ovest con determinante positivo, allora g `e un prodotto scalare su W.
Supponiamo dimV = n, con la notazione introdotta nell’enunciato, osser-
viamo che, per s = 1, . . . , n −1,
s
A `e anche l’s-esimo minore di nord-ovest
di
n−1
A, la matrice della restrizione di f a V
n−1
; il fatto che tutti queste
matrici abbiano determinante positivo e che dimV
n−1
= n −1, ci garantisce,
tramite l’ipotesi induttiva, che tale restrizione `e un prodotto scalare.
Sia (c
1
, . . . , c
n−1
) una base di V
n−1
adattata rispetto a tale forma, cio`e
∀i, j = 1, . . . , n −1 f(c
i
, c
j
) =
_
0 se i ,= j
1 se i = j
Poniamo
c
n
= b
n

n−1

i=1
f(b
n
, c
i
)c
i
Siccome /(b
1
, . . . , b
n−1
) = V
n−1
= /(c
1
, . . . , c
n−1
) `e facile vedere che /(b
1
, . . . , b
n
) =
/(c
1
, . . . , c
n
), cio`e che (c
1
, . . . , c
n
) `e una base ( di V .
Inoltre, per ogni j = 1, . . . , n −1,
f(c
n
, c
j
) = f(b
n

n−1

i=1
f(b
n
, c
i
)c
i
, c
j
) =
f(b
n
, c
j
) −
n−1

i=1
f(b
n
, c
i
)f(c
i
, c
j
) = f(b
n
, c
j
) −f(b
n
, c
j
) = 0
e quindi la matrice di f rispetto a ( `e
61
B =
_
_
_
_
_
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . f(c
n
, c
n
)
_
_
_
_
_
e quindi f `e un prodotto scalare se e solo se f(c
n
, c
n
) > 0; d’altra par-
te f(c
n
, c
n
) = det(B) che `e concorde con det(A) e quindi effettivamente `e
positivo.
Se f `e un prodotto scalare si preferisce scrivere ¸v, w¸ invece di f(v, w).
Per esempio se V = R
n
la forma bilineare data da
¸(x
1
, . . . , x
n
), (y
1
, . . . , y
n
)¸ =
n

i=1
x
i
y
i
= (x
1
, . . . , x
n
)(y
1
, . . . , y
n
)
t
`e un prodotto scalare, detto il prodotto scalare standard. La sua matrice
rispetto alla base standard `e la matrice identica I.
Una base di V `e detta ortogonale per ¸ , ¸ se la matrice di ¸ , ¸ rispetto
ad essa `e diagonale, ed `e detta ortonormale se `e ¸ , ¸-adattata.
Uno spazio euclideo `e una coppia ordinata (V, ¸ , ¸) dove V `e uno spazio
vettoriale e ¸ , ¸ `e un prodotto scalare su V.
Se (V, ¸ , ¸) `e uno spazio euclideo e v ∈ V possiamo definire la norma di
v come |v| =
_
¸v, v¸ ≥ 0. Ovviamente avremo che |v| = 0 ⇔ v = 0. Si
dice che v `e unitario se |v| = 1.
Proposizione 28 (disuguaglianza di Cauchy-Schwartz). Sia (V, ¸ , ¸) uno
spazio euclideo. ∀v, w ∈ V si ha che
[¸v, w¸[ ≤ |v| |w|
e vale l’eguaglianza se e solo se v, w sono linearmente dipendenti.
Dimostrazione. La dimostrazione `e ovvia se w = 0, supponiamo dunque che
w ,= 0 e osserviamo che v, w sono linearmente dipendenti se e solo se esiste
λ ∈ R tale che v − λw = 0 o, equivalentemente |v − λw|
2
= 0. Per gestirci
questa osservazione definiamo una funzione g : R −→R mediante
g(t) = |v −tw|
2
= ¸v −tw, v −tw¸ = |w|
2
t
2
−2¸v, w¸t +|v|
2
.
62
Si tratta di un polinomio di secondo grado, per ogni t ∈ R, g(t) ≥ 0 e esiste
λ tale che g(λ) = 0 se e solo se v, w sono linearmente dipendenti. Il discri-
minante ´ di questa funzione sar` a dunque sempre ≤ 0 e vale l’uguaglianza
se e solo se v, w sono linearmente dipendenti. Adesso basta calcolare
´
4
= ¸v, w¸
2
−|v|
2
|w|
2
.
La tesi si deduce con un ovvio passaggio algebrico seguito da un’estrazione
di radice quadrata.
La disuguaglianza appena provata ha una serie di importanti conseguenze:
Proposizione 29. Sia (V, ¸ , ¸) uno spazio euclideo, v, w ∈ V, λ ∈ R;
• |λv| = [λ[ |v|.
• |v + w| ≤ |v| +|w|.
Dimostrazione. La prima affermazione `e facilissima. Per quanto riguarda le
seconda, che si chiama disuguaglianza triangolare della norma, osserviamo
che, trattandosi di una disuguaglianza tra numeri reali non negativi, la sua
validit` a non viene alterata se eleviamo entrambi i membri al quadrato. Pro-
cediamo al calcolo avvisando la lettrice che, ad un certo punto, useremo la
disuguaglianza di Cauchy-Schwartz:
|v + w|
2
= ¸v + w, v + w¸ = |v|
2
+ 2¸v, w¸ +|w|
2

|v|
2
+ 2|v| |w| +|w|
2
= (|v| +|w|)
2
.
Su uno spazio euclideo (V, ¸ , ¸), ponendo d(v, w) = |v − w| definiamo
una distanza, cio`e una funzione d : V V −→ R che gode delle seguenti
propriet` a
• ∀v, w ∈ V, d(v, w) ≥ 0.
• ∀v, w ∈ V, d(v, w) = d(w, v).
• ∀v, w ∈ V, d(v, w) = 0 ⇔ v = w.
• ∀v, w, u ∈ V, d(v, w) ≤ d(v, u) + d(u, w).
63
L’ultima propriet`a si chiama disuguaglianza triangolare della distanza.
Inoltre, se v ,= 0, w ,= 0 la disuguaglianza di Cauchy-Schwartz si pu` o
scrivere come
−1 ≤
¸v, w¸
|v| |w|
≤ 1
e cos`ı possiamo definire l’ angolo tra v e w come quell’unico numero θ ∈
[0, π] tale che
cos θ =
¸v, w¸
|v| |w|
.
Due vettori v, w ∈ V si dicono ortogonali se ¸v, w¸ = 0. il vettore nullo `e
ortogonale a ogni vettore, ma nessun altro vettore `e ortogonale a se stesso.
Sappiamo gi` a che esistono basi ortonormali di uno spazio euclideo, anzi,
si pu`o fare di meglio:
Teorema 15 (ortonormalizzazione di Gram-Schmidt). Sia B = (b
1
, . . . , b
n
)
una base per lo spazio euclideo (V, ¸ , ¸); allora
• Esiste una base ortogonale ( di V tale che ∀i = 1, . . . , n,
/(c
1
, . . . , c
i
) = /(b
1
, . . . , b
i
).
• Esiste una base ortonormale T di V tale che ∀i = 1, . . . , n,
/(d
1
, . . . , d
i
) = /(b
1
, . . . , b
i
).
Dimostrazione. Ci basta provare la prima affermazione, infatti, una volta
trovata la base ( con le propriet` a conclamate, ci baster`a definire d
i
=
c
i
|c
i
|
per ottenere quanto enunciato al secondo punto.
Cominciamo col definire c
1
= b
1
, e poi procediamo per induzione: in altri
termini, supponendo di avere gi` a trovato c
1
, . . . , c
i−1
con le propriet`a richieste
che, ricordiamo, sono:
• /(c
1
, . . . , c
i−1
) = /(b
1
, . . . , b
i−1
).
• ∀j ,= k ∈ ¦1, . . . , i −1¦, ¸c
j
, c
k
¸ = 0
definiamo
c
i
= b
i

i−1

j=0
¸b
i
, c
j
¸
|c
j
|
2
c
j
.
64
`
E facilissimo vedere che /(c
1
, . . . , c
i
) = /(b
1
, . . . , b
i
) e ci resta solo da provare
che c
i
`e ortogonale a c
k
∀k = 1, . . . , i −1. Calcoliamo dunque
¸c
i
, c
k
¸ = ¸b
i

i−1

j=0
¸b
i
, c
j
¸
|c
j
|
2
c
j
, c
k
¸ = ¸b
i
, c
k
¸ −
i−1

j=0
¸b
i
, c
j
¸
|c
j
|
2
¸c
j
, c
k
¸ =
¸b
i
, c
k
¸ −
¸b
i
, c
k
¸
|c
k
|
2
¸c
k
, c
k
¸ = 0.
E notiamo che la dimostrazione ci spiega come trovare le basi con le propriet` a
desiderate.
Se UV poniamo U

= ¦v ∈ V tali che ¸v, u¸ = 0 ∀u ∈ U¦, cio´e l’insieme
di tutti i vettori ortogonali a tutti i vettori di U; `e facile controllare che si
tratta di un sottospazio di V ed `e chiamato il sottospazio ortogonale a U.
Notiamo che, se B = (b
1
, . . . , b
p
) `e una base di U, per verificare che v ∈ U

ci baster`a controllare che ¸v, b
i
¸ = 0 ∀i = 1, . . . , p.
Proposizione 30. Per ogni sottospazio vettoriale U dello spazio euclideo
(V, ¸ , ¸) si ha che
U ⊕U

= V,
in particolare dimU

= dimV −dimU.
Dimostrazione. L’enunciato `e banalmente vero se U = ¦0¦, supponiamo
dunque che non sia cos`ı.
U ∩ U

= ¦0¦ perch´e solo il vettore nullo `e ortogonale a se stesso.
Ci resta dunque da provare che, per ogni v ∈ V riusciamo a trovare u ∈ U
e w ∈ U

tali che v = u + w.
Prendiamo una base ortonormale B = (b
1
, . . . , b
p
) di U e poi definiamo
u =
p

i=1
¸v, b
i
¸b
i
∈ U, a questo punto ci basta verificare che w = v − u ∈ U

e cio`e che ¸w, b
j
¸ = 0 ∀j = 1, . . . , p. Si tratta di un calcolo molto simile al
procedimento di Gram-Schmidt:
¸v −u, b
j
¸ = ¸v, b
j
¸ −¸
p

i=1
¸v, b
i
¸b
i
, b
j
¸ =
¸v, b
j
¸ −
p

i=1
¸v, b
i
¸¸b
i
, b
j
¸ = ¸v, b
j
¸ −¸v, b
j
¸ = 0.
65
5.3 Spazi euclidei complessi
In questa sezione il campo degli scalari `e C, gli spazi vettoriali su C vengono
chiamati spazi vettoriali complessi..
Definizione 29. Sia V uno spazio vettoriale complesso. Una forma sesqui-
lineare su V `e una funzione
f : V V −→C
che soddisfa le seguenti condizioni:
S1 ∀v, v

, w ∈ V f(v + v

, w) = f(v, w) + f(v

, w)
S2 ∀v, w ∈ V, ∀λ ∈ C f(λv, w) = λf(v, w)
S3 ∀v, w, w

∈ V f(v, w + w

) = f(v, w) + f(v, w

)
S4 ∀v, w ∈ V, ∀λ ∈ C f(v, λw) = λf(v, w)
S5 ∀v, w ∈ V, f(v, w) = f(w, v)
L’ultima richiesta ci dice in particolare che, se v ∈ V, f(v, v) = f(v, v) e
quindi `e un numero reale.
Se B `e una base di V possiamo definire la matrice di f rispetto a B come
la matrice A data da a
ij
= f(b
i
, b
j
) e ripetere gran parte di quanto detto a
proposito delle forme bilineari. La matrice A soddisfa A = A
t
; matrici di
questo genere vengono chiamate matrici hermitiane.
Definizione 30. Sia f `e una forma sesquilineare su V ; si dice che f `e un
prodotto hermitiano se, per ogni 0 ,= v ∈ V, f(v, v) > 0.
Definizione 31. Uno spazio euclideo complesso `e una coppia ordinata (V, ¸ , ¸)
dove V `e uno spazio vettoriale complesso e ¸ , ¸ `e un prodotto hermitiano su
V ; il prodotto hermitiano standard su C
n
`e definito da
¸(z
1
, . . . , z
n
), (w
1
, . . . , w
n
) ¸ =
n

i=1
z
i
w
i
Sugli spazi euclidei complessi si pu`o ripetere con variazioni minime il
procedimento di Gram-Schmidt per trovare le basi ortonormali.
La base standard di C
n
`e una base ortonormale per il prodotto hermitiano
standard.
66
5.4 Operatori su spazi euclidei
Definizione 32. Sia (V, ¸ , ¸) uno spazio euclideo reale e T un operatore su
V . Si dice che T `e
• simmetrico se, per ogni v, w ∈ V ¸T(v), w¸ = ¸v, T(w)¸.
• ortogonale se, per ogni v, w ∈ V ¸T(v), T(w)¸ = ¸v, w¸.
Definizione 33. Sia (V, ¸ , ¸) uno spazio euclideo complesso e T un opera-
tore su V . Si dice che T `e
• hermitiano se, per ogni v, w ∈ V ¸T(v), w¸ = ¸v, T(w)¸.
• unitario se, per ogni v, w ∈ V ¸T(v), T(w)¸ = ¸v, w¸.
Le propriet`a citate nelle ultime due definizioni sono soddisfatte a condi-
zione che lo siano su una base di V . Si tratta di un facile esercizio che la
lettrice `e invitata a risolvere per conto suo.
Proposizione 31. Sia T un operatore su uno spazio euclideo complesso
(V, ¸ , ¸), B una base di V , A = /
B
(¸ , ¸), B = /
B
B
(T), allora
1. T `e hermitiano se e solo se B
t
A = AB, in particolare se B `e ortonor-
male allora A = I e quindi la condizione diventa B
t
= B, che equivale
a B = B
t
,cio`e la matrice B `e hermitiana..
2. T `e unitario se e solo se B
t
AB = A, in particolare se B `e ortonormale
allora A = I e quindi la condizione diventa B
t
B = I, che equivale a
BB
t
= I ,cio`e la matrice B `e unitaria
Dimostrazione. Sia n = dimV.
1. Per l’osservazione che segue le definizioni T `e hermitiano se e solo se,
per ogni i, j = 1, . . . , n ¸T(b
i
), b
j
¸ = ¸b
i
, T(b
j
)¸ ma
¸T(b
i
), b
j
¸ = ¸
n

k=1
b
ki
b
k
, b
j
¸ =
n

k=1
b
ki
¸b
k
, b
j
¸ =
n

k=1
b
ki
a
kj
= (b
t
a)
ij
mentre
¸b
i
, T(b
j
)¸ = ¸b
i
,
n

k=1
b
kj
b
k
¸ =
n

k=1
b
kj
¸b
i
, b
k
¸ =
n

k=1
a
ik
b
kj
= (ab)
ij
.
67
2. T `e unitario se e solo se, per ogni i, j = 1, . . . , n ¸T(b
i
), T(b
j
)¸ =
¸b
i
, b
j
¸ = a
ij
ma
¸T(b
i
), T(b
j
)¸ = ¸
n

k=1
b
ki
b
k
,
n

s=1
b
sj
b
s
¸ =
n

k,s=1
b
ki
¸b
k
, b
s
¸b
sj
=
n

k,s=1
b
ki
a
ks
b
sj
= (b
t
ab)
ij
.
E la dimostrazione `e conclusa
Proposizione 32. Sia T un operatore su uno spazio euclideo (V, ¸ , ¸), B
una base di V , A = /
B
(¸ , ¸), B = /
B
B
(T), allora
1. T `e simmetrico se e solo se B
t
A = AB, in particolare se B `e orto-
normale allora A = I e quindi la condizione diventa B
t
= B, cio`e la
matrice B `e simmetrica.
2. T `e ortogonale se e solo se B
t
AB = A, in particolare se B `e ortonor-
male allora A = I e quindi la condizione diventa B
t
B = I, cio`e la
matrice B `e ortogonale
Dimostrazione. Un po’ pi` u facile di quella appena conclusa.
Se T `e un operatore hermitiano su V e λ ∈ C `e un suo autovalore, allora
esiste 0 ,= v ∈ V tale che T(v) = λv ma allora
λ¸v, v¸ = ¸λv, v¸ = ¸T(v), v¸ = ¸v, T(v)¸ = ¸v, λv¸ = λ¸v, v¸
Siccome ¸v, v¸ , = 0 segue che λ ∈ R.
Lemma 1. Ogni operatore simmetrico su uno spazio euclideo ha un autova-
lore.
Dimostrazione. Sia V lo spazio euclideo in questione e poniamo n = dimV .
Siano T un operatore simmetrico su V , B una base ortonormale di V e
A = /
B
B
(T); per il punto 1 della proposizione 32, A = A
t
.
Equipaggiamo C
n
con il prodotto hermitiano standard e sia L l’unico
operatore su C
n
la cui matrice rispetto alla base standard `e A. Allora A =
A
t
= A
t
e, grazie al caso particolare del punto 1 della proposizione 31, L `e
un operatore hermitiano.
68
Per l’osservazione appena esposta i suoi autovalori, che certamente esi-
stono (in C) per il teorema fondamentale dell’algebra, sono in realt` a numeri
reali. Essi sono anche gli autovalori di T in quanto T e L hanno lo stesso
polinomio caratteristico, cio`e det(tI −A).
Teorema 16 (spettrale). Sia V uno spazio euclideo e T un operatore su V ,
le seguenti condizioni sono equivalenti
1. T `e un operatore simmetrico.
2. Esiste una base ortonormale di V formata da autovettori di T.
Dimostrazione. 2 ⇒ 1 Se B `e come in 2 allora la matrice di T rispetto a tale
base `e diagonale, e quindi simmetrica. Visto che B `e ortonormale, il caso
particolare del punto 1 della proposizione 32 dice che T `e simmetrico.
1 ⇒ 2 si dimostra per induzione su n = dimV. Se n = 1 ogni vettore di
norma 1 `e una base ortonormale di autovettori; si pu` o obbiettare di non aver
usato l’ipotesi, ma questo `e dovuto semplicemente al fatto che in dimensione
uno ogni operatore `e simmetrico.
Supponiamo dunque che n > 1 e che il teorema sia vero per gli spazi
vettoriali di dimensione n − 1. Per il lemma 1 esistono λ ∈ R e 0 ,= v ∈
V tali che T(v) = λv; dividendo v per la sua norma si trova un autovettore
unitario b
1
∈ V
λ
. Poniamo W = /(b
1
)

. = ¦v ∈ V tali che ¸v, b
1
¸ = 0¦ Per
la proposizione 30 dimW = n −1, inoltre, se v ∈ W allora
¸T(v), b
1
¸ = ¸v, T(b
1
)¸ = ¸v, λb
i
¸ = λ¸v, b
1
¸ = 0
e quindi T, ristretto a W `e un operatore, evidentemente simmetrico, sullo
spazio euclideo W equipaggiato con la restrizione del prodotto scalare di V .
Per l’ipotesi induttiva esiste una base ortonormale (b
2
, . . . , b
n
) di W for-
mata da autovettori di T
|W
e quindi di T. Allora la base (b
1
, . . . , b
n
) di V
soddisfa tutte le richieste.
5.5 Classificazione degli operatori unitari in
dimensione 2 e 3.
Sia V uno spazio euclideo di dimensione 2 e B = (b
1
, b
2
) una sua base or-
tonormale. Sia T un operatore ortogonale su V , il che ammonta a dire che
|T(b
1
)| = |T(b
2
)| = 1 e che ¸T(b
1
), T(b
2
)¸ = 0, cio`e che T(b
2
) ∈ /(T(b
1
))

;
69
se T(b
1
) = xb
1
+ yb
2
allora |T(b
1
)| = 1 ⇒ x
2
+ y
2
= 1 e, visto che /(b
1
)

ha dimensione 1 per la proposizione 30 e 0 ,= −yb
1
+xb
2
ci appartiene, esiste
k ∈ R tale che T(b
2
) = −kyb
1
+ kxb
2
; infine 1 = |T(b
2
)| = k
2
(x
2
+ y
2
) = k
2
da cui segue che k = ±1.
In sintesi la matrice di T rispetto a B pu` o essere di uno dei seguenti tipi
A =
_
x −y
y x
_
oppure B =
_
x y
y −x
_
con x
2
+ y
2
= 1; notiamo che det(A) = 1 mentre det(B) = −1.
Nel primo caso esiste (tutt’altro che unico) un numero reale θ tale che
cos θ = x e sin θ = y; allora la matrice A diventa
_
cos θ −sin θ
sin θ cos θ
_
e l’ope-
ratore T viene chiamato rotazione di θ radianti ; non ha autovalori salvo nei
due casi T = id
V
e T = −id
V
, cio`e θ = kπ, ∀k ∈ Z.
Nel secondo caso il polinomio caratteristico di T `e P
T
(t) = t
2
− 1 e
quindi ha esattamente i due autovalori 1 e −1 e quindi due autospazi V
1
e
V
−1
che hanno entrambi dimensione 1 ed `e diagonalizzabile; se V
1
= /(v) e
V
−1
= /(w) allora
¸v, w¸ = ¸T(v), T(w)¸ = ¸v, −w¸ = −¸v, w¸
e quindi i due vettori sono ortogonali; in altri termini V
−1
= V

1
.
Ogni vettore in V pu` o essere scritto in modo unico come av +bw e allora
T(av + bw) = av −bw e T di chiama riflessione rispetto alla retta V
1
.
Supponiamo ora che dimV = 3; se λ `e un autovalore di T allora esiste
0 ,= v ∈ V tale che T(v) = λv, ma allora 0 ,= ¸v, v¸ = ¸T(v), T(v)¸ =
¸λv, λv¸ = λ
2
¸v, v¸ da cui segue che λ = ±1, ed in particolare che T `e un
isomorfismo. Dal punto 2 della proposizione 32 segue che det(A) = ±1, dove
A `e la matrice di T rispetto a una qualunque base. Il polinomio caratteristico
di T `e della forma P
T
(t) = t
3
+αt
2
+βt −det(A) dove α, β ∈ R ed il termine
noto, essendo uguale a P
T
(0) `e proprio −det(A).
Se det(A) = −1 siccome lim
t→−∞
P
T
(t) = −∞, per il teorema (di analisi)
dell’esistenza degli zeri, T ha un autovalore negativo, che deve essere −1;
analogamente se det(A) = 1 allora T ha 1 come autovalore; in sintesi T ha
sempre un autovalore λ = ±1 tale che λdet(A) = 1.
Sia b
1
un autovettore unitario di tale autovalore e sia W = /(b
1
)

, che ha
dimensione 2. Se w ∈ W allora ¸T(w), λb
1
¸ = ¸w, b
1
¸ = 0, cio`e la restrizione
70
di T a W `e un operatore, evidentemente ortogonale, su W, che ha dimensione
2, quindi, se (b
2
, b
3
) `e una base ortonormale di W la matrice di T rispetto
alla base ortonormale (b
1
, b
2
, b
3
) di V `e di una delle due forme
_
_
λ 0 0
0 x −y
0 y x
_
_
oppure
_
_
λ 0 0
0 x y
0 y −x
_
_
con x
2
+ y
2
= 1; in realt`a il secondo caso non si pu`o presentare perch´e il
determinante di tale matrice non `e concorde con λ.
Quindi esiste θ ∈ R tale che la matrice di T rispetto a (b
1
, b
2
, b
3
) `e
_
_
λ 0 0
0 cos θ −sin θ
0 sin θ cos θ
_
_
Se λ = 1 si dice che T `e una rotazione di θ radianti attorno all’asse /(b
1
).
Se λ = −1 si dice che T `e una rotazione di θ radianti attorno all’asse
/(b
1
) seguita (o preceduta) dalla riflessione rispetto al piano W.
71
Indice analitico
i−esima riga, 12
j−esima colonna, 13
n−upla ordinata, 4
zeri iniziali, 27
anello, 5
angolo, 64
appartiene, 1
applicazione lineare, 30
autospazio, 47
autovalore, 45
autovettore, 45
base, 18
duale, 38
adattata, 58
ortogonale, 62
ortonormale, 62
standard, 18
campo, 6
caratteristica, 56
combinazione lineare, 15
complesso coniugato, 8
contenuto, 2
contiene, 2
coordinate, 21
coppia ordinata, 2
corrispondenza biunivoca, 4
determinante, 42
diagonalizzabile, 45
dimensione, 20
distanza, 63
disuguaglianza triangolare della distan-
za, 64
disuguaglianza triangolare della nor-
ma, 63
divisibile, 47
elemento, 1
elemento neutro., 5
equazione, 28
insieme delle soluzioni, 28
risolubile, 28
equazione cartesiana, 41
equazione parametrica, 29
estensione lineare, 34
eventi, 60
famiglia, 2
forma bilineare, 52
definita negativa, 59
definita positiva, 59
matrice di, 52
non degenere, 56
rango, 54
segnatura di, 58
semidefinita negativa, 59
semidefinita positiva, 59
simmetrica, 56
forma sesquilineare, 66
72
formula di polarizzazione, 57
funzione, 3
biettiva, 4
identica, 3
codominio, 3
composizione, 3
dominio, 3
identit` a, 3
immagine, 3
iniettiva, 4
suriettiva, 4
vuota, 3
gruppo, 4
abeliano, 5
commutativo, 5
immagine, 31
insieme, 1
finito, 15
numero degli elementi, 16
insieme di generatori, 15
insieme vuoto, 1
intersezione, 2, 11
isomorfi, 30
isomorfismo, 30
isomorfismo canonico, 12
matrice, 12
completa del sistema, 25
dei coefficienti, 25
diagonale, 45
identica, 14
in forma ridotta, 27
inversa di, 14
invertibile, 14
ortogonale, 68
prodotto, 13
quadrate, 42
simmetrica, 56
singolare, 42
trasposta, 12
unitaria, 67
matrici hermitiane, 66
minore di nord-ovest, 60
modulo, 8
molteplicit` a algebrica, 47
molteplicit` a geometrica, 47
norma, 62
nucleo, 31
nucleo destro, 53
nucleo sinistro, 53
nullificatore del prodotto, 6
nullit` a, 31
numeri complessi, 8
operatore
hermitiano, 67
ortogonale, 67
simmetrico, 67
unitario, 67
operatori, 45
operazione, 4
interna, 4
operazioni elementari sulle righe, 26
opposto, 5, 9
polinomio caratteristico, 46
prodotto cartesiano, 3
prodotto hermitiano, 66
prodotto hermitiano standard, 66
prodotto scalare, 59
standard, 62
quaterne ordinate, 4
rango, 26, 31
73
rango per colonne, 26
rango per righe, 26
restrizione, 57
riferimento inerziale, 60
riflessione, 71
riflessione rispetto alla retta, 70
rotazione, 71
rotazione di θ radianti, 70
scalari, 9
se e solo se, per ogni, implica, 2
sistema lineare, 25
insieme delle soluzioni, 25
omogeneo, 25
risolubile, 25
somma, 11, 48
diretta, 24, 48
sottoinsieme, 2
sottospazio
ortogonale, 38
sottospazio ortogonale, 65
sottospazio vettoriale di, 11
spazi vettoriali complessi, 66
spazio biduale, 40
spazio di Minkowski, 60
spazio duale, 38
spazio euclideo, 62
spazio euclideo complesso, 66
spazio vettoriale, 9
finitamente generato, 16
nullo, 10
spazio vettoriale reale, 58
superesempio, 10
terne ordinate, 4
trasformazioni di Lorentz, 60
trasposta, 39
unione, 2
vettore
unitario, 62
vettore colonna, 12
vettore nullo, 10
vettore riga, 12
vettori, 9
linearmente dipendenti, 16
linearmente indipendenti, 16
ortogonali, 64
74
Indice
1 Preliminari 1
1.1 Un po’ d’insiemistica . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Strutture algebriche . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Numeri complessi . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 Spazi vettoriali 9
2.1 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 Generatori e basi . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6 Equazioni parametriche di un sottospazio vettoriale . . . . . . 28
3 Applicazioni lineari 30
3.1 Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2 Spazio duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 Spazio biduale . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.4 Equazioni cartesiane di un sottospazio vettoriale . . . . . . . . 41
4 Diagonalizzazione 42
4.1 Determinanti . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2 Diagonalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . 45
5 Spazi euclidei 52
5.1 Forme bilineari . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2 Prodotti scalari . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.3 Spazi euclidei complessi . . . . . . . . . . . . . . . . . . . . . 66
5.4 Operatori su spazi euclidei . . . . . . . . . . . . . . . . . . . . 67
75
5.5 Classificazione degli operatori unitari in dimensione 2 e 3. . . . 69
76

Capitolo 1 Preliminari
1.1 Un po’ d’insiemistica

La matematica moderna si fonda sui concetti di elemento, insieme, appartiene che non vengono definiti, confidando sul fatto che tutti ci intendiamo perfettamente sul loro significato. Tutti gli altri concetti devono essere definiti a partire da questi tre. La notazione per esprimere il fatto che un elemento x appartiene a un insieme X ` x ∈ X. Un insieme pu` essere definito e o sostanzialmente in due modi. 1. Elencando tutti i suoi elementi, ad esempio X = {1, 5, Tarzan}. 2. Assegnando una propriet` soddisfatta da tutti e soli gli elementi dela l’insieme, ad esempio X = {x tale che x ha partecipato alla spedizione dei mille}. Un’autentica pietra miliare della matematica, che si presenta fin da questo punto, `, una volta per tutte, la considerazione che segue e Possiamo dire di conoscere un insieme A soltanto quando, comunque ci venga proposto un elemento x, siamo in grado di decidere se x ∈ A. Un insieme importante ` l’ insieme vuoto che non ha elementi e viene indie cato con il simbolo ∅, a lui riservato e che quindi non verr` usato in nessun a altra circostanza. Lo conosciamo precisamente perch´, messi di fronte ad un e qualunque elemento x siamo in grado di decidere se x ∈ ∅, per la precisione la nostra risposta ` sempre “no”. e

Si dice che un insieme A ` contenuto in un insieme B o che B contiene e A o che A ` un sottoinsieme di B, se ogni elemento di A ` elemento di B; si e e usa allora la notazione A ⊆ B o B ⊇ A; in simboli A ⊆ B ⇐⇒ ∀x, x ∈ A =⇒ x ∈ B

dove i simboli ⇐⇒, ∀, ⇒ si leggono rispettivamente se e solo se, per ogni, implica. Negare che A ` contenuto in B vuol dire che esiste un elemento che e appartiene a A ma non a B, in simboli ∃x ∈ A tale che x ∈ B, e si scrive / A B. A titolo di esempio: ∀x x ∈ ∅. / Vale la pena di precisare l’esatto significato che la matematica d` alla a parola “implica ”(o, naturalmente, al simbolo ⇒): esso ` sempre compreso e tra due affermazioni, chiamiamole P, Q e fornisce una nuova affermazione P ⇒ Q; P ⇒ Q ` vera salvo quando P ` vera ma Q ` falsa. e e e Alla luce di questa precisazione si ha che l’insieme vuoto ` contenue to in ogni insieme e che due insiemi vuoti sono uguali. Questo giustifica l’uso dell’articolo determinativo che abbiamo finora usato abusivamente, imbrogliando la lettrice e costringendola ad un primo atto di umilt`. a Se A ` un insieme e A ` un insieme di sottoinsiemi di A ( per non essere e e linguisticamente noiosi si dice che A ` una famiglia di sottoinsiemi di A), e • l’ unione di A ` l’insieme e B = {a ∈ A tali che ∃B ∈ A tale che a ∈ B}.
B∈A

• l’ intersezione di A ` l’insieme e B = {a ∈ A tali che ∀B ∈ A, a ∈ B}.
B∈A

Definizione 1. Siano a, b elementi. La coppia ordinata determinata da a e b ` l’insieme e (a, b) = {{a}, {a, b}} Teorema 1. Siano a, b, c, d elementi. sono equivalenti 1. a = c e b = d.

cio` non esistono funzioni da un insieme non vuoto all’insieme e vuoto. B insiemi. b) ∈ f viene chiamato immagine di a mediante f e indicato con il simbolo f (a) o. Definizione 2. d). tuttavia esso non soddisfa la condizione e richiesta. d} = {a} e quindi d = a = b. d} ⊆ {a} e quindi. B insiemi. E evidente che 1 ⇒ 2. f ) dove f ` un sottoinsieme di A × B che soddisfa la seguente e condizione: per ogni a ∈ A esiste un unico b ∈ B tale che (a. Siano A. alle volte. Se invece b = a. b} ∈ S avremo necessariamente che {a. e Se invece A = ∅ e B = ∅ di nuovo avremo che A × B = ∅ e l’unico suo sottoinsieme ` l’insieme vuoto. d}. b) ∈ f . di nuovo c = a. d} ∈ D abbiamo che {c. e idA = {(a. B). b) ∈ A × A tali che a = b} ` chiamata la identica o identit` di e a A. L’insieme A viene detto dominio della funzione e B ` il codominio. visto che {c. con la notazione appena introdotta tale funzione ` dunque caratterizzata e da idA (a) = a ∀a ∈ A. Per quanto riguarda l’altra implicazione chiamiamo rispettivamente S e D gli insiemi menzionati in 2. E facile vedere che se f. Esso soddisfa la condizione imposta nelle definizione: abbiamo verificato che ((∅. b ∈ B} Definizione 3. (a. e Se a ∈ A l’unico elemento b ∈ B tale che (a. fa . h sono funzioni. b) ∈ f. Siccome b = c segue che b = d.2. ` Dimostrazione. Se abbiamo due funzioni A −→ B e B −→ C definiamo la loro composizione g◦f ` come la funzione A −→ C definita da g ◦ f (x) = g(f (x)). allora. quindi b = f (a) ` sinonimo di (a. Siano A. b} ⊆ {c. Una funzione da A a B ` coppia ordie nata ((A. Per indicare una funzione con dominio A e codominio B si usa la notazione f A −→ B o semplicemente f se non c’` pericolo di confusione. B). visto che {a. nel secondo {c. nel primo caso a = c. g. il loro prodotto cartesiano ` l’insieme e A × B = {(a. allora h ◦ (g ◦ f ) = (h ◦ g) ◦ f a condizione che tali f g . ∅) ` l’unica funzione da ∅ a B. d}. b) tali che a ∈ A. {a} ∈ S ⊆ D e quindi {a} = {c} oppure {a} = {c. Viene chiamata la vuota. Supponiamo b = a. b) = (c. e Se A = ∅ allora A × B = ∅ e quindi l’unico suo sottoinsieme ` l’ine sieme vuoto.

Naturalmente l’unica 0−upla ordinata ` la funzione vuota. C sono insiemi un’ operazione su A e B a valori in ♥ C ` una funzione A × B −→ C. . . attraverso tale corrispondenza si identifica ogni 2−upla ordinata di elementi di A con un’opportuna coppia ordinata di elementi di A. an ). cio` un elemento di A .2 Strutture algebriche Definizione 4. Una notazione molto accattivante ed universalmente usata ` quella di denotare e n una n−upla ordinata A ∈ A con il simbolo (a1 . la terminologia particolare di terne ordinate e quaterne ordinate. u Definizione 5. Nei casi n = 3. 4 si usa. Una funzione A −→ B viene detta iniettiva se ∀a. Similmente la funzione che ad ogni A ∈ A2 associa la coppia ordinata (a1 . Viene detta biettiva o corrispondenza biunivoca se ` e iniettiva e suriettiva. Se A ` un insieme una n−upla ordinata di elementi di A ` una funzione e e n A : n −→ A.composizioni abbiano senso. Questa regola si chiama propriet` associativa a della composizione. B. . . Se (a. indichiamo con il simbolo n l’insieme n = {1. indicata con il simbolo e ı B −→ A. a2 ) ∈ A × A ` una corrispondenza biunivoca e la si adopera per identifie 2 care A con A × A. Se le composizioni hanno senso ` facile controllare che e f f ◦ idA = f = idA ◦ f. b) ∈ A × B si preferisce denotare l’elemento ♥((a. per motivi storici. . +) dove G ` un insieme e e e + ` un’operazione interna su G che soddisfa i seguenti assiomi: e . Un gruppo ` una coppia ordinata (G. a ∈ A f (a) = f (a ) ⇒ a = a e viene detta suriettiva se ∀b ∈ B ∃a ∈ A tale che f (a) = b. f −1 1. le e 1−uple ordinate sono semplicemente gli elementi di A nel senso che adesso precisiamo: la funzione A1 −→ A che ad ogni A ∈ A1 associa l’elemento a1 ∈ A ` una corrispondenza biunivoca che viene sistematicamente utilizzata e per identificare A1 con A. Si parla semplicemente di operazione interna e su A quando A = B = C. Con un piccolo ma universalmente adoe perato risparmio notazionale indichiamo quest’ultimo insieme con An . (osserviamo che 0 = ∅). . . tale che f −1 ◦ f = idA e f ◦ f −1 = idB . Sia n ∈ N un numero naturale. . Se ` cos` esiste una funzione. n} costituito da tutti i numeri compresi tra 1 e n. b)) con il molto pi` succinto a♥b. Se A.

Se X ` un insieme indichiamo con S(X) l’insieme di tutte le biezioni e f : X −→ X.) a A2 Esiste 0 ∈ A tale che 0 + f = f + 0 = f ∀f ∈ A. infatti se h. ( propriet` associativa. Ogni elemento con questa propriet` viene detto elemento neutro. ◦) ` un gruppo: l’elemento neutro ´ idX e e e −1 l’inverso di g ∈ S(X) ` g . Un anello ` una coppia ordinata (A. h ∈ A tale che g + h = h + g = 0. a G3 Per ogni g ∈ G esiste h ∈ G tale che g + h = h + g = e. u e Questo ` l’unico esempio concreto che possiamo produrre in questo moe mento. Esiste un solo elemento neutro. ·) ` una coppia ordinata di operazioni interne su A che soddisfano e i seguenti assiomi: A1 Per ogni f. h ∈ A g + h = h + g. g. f · (g · h) = (f · g) · h. Definizione 7. g. h ∈ G f + (g + h) = (f + g) + h. (+. Nella definizione che precede le parentesi ( e ) sono state usate con il significato (di precedenza) che la lettrice ben conosce. Allora (S(X). h ∈ A f + (g + h) = (f + g) + h. . Definizione 6. ·)) dove A ` un ine e sieme e (+. ma chi legge si sar` subito accorto che l’insieme dei numeri relativi a e l’operazione di somma su cui la maestra delle elementari ha cos` a lungo ı commentato costituiscono un altro esempio di gruppo abeliano. infatti se e.) a G2 esiste e ∈ G tale che e + f = f + e = f ∀f ∈ G. A5 Per ogni f. A3 Per ogni g ∈ A esiste h ∈ G A4 ∀g. h ∈ e G g + h = h + g. g. Un gruppo (G. ( propriet` associativa. h ∈ G sono opposti di g allora h = h + e = h + (g + h ) = (h + g) + h = e + h = h .G1 Per ogni f. Ogni elemento con questa propriet` viene detto opposto di g e indicato con a il simbolo −g. +) ` detto commutativo o abeliano se ∀g. e ∈ G sono elementi neutri allora e = e + e = e . Questo gruppo ` commutativo se e sono se X e e non ha pi` di due elementi: la lettrice ` incoraggiata a verificarlo. Ogni g ∈ G ha un solo opposto.

f (g + h) = f g + f h. g. per alleggerire la notazione. Qui non abbiamo al momento degli esempi che dipendano solo da quanto abbiamo detto in queste note. allora 0 = h + 0g = h + (0g + 0g) = (h + 0g) + 0g = 0 + 0g = 0g. h ∈ K f + (g + h) = (f + g) + h. C3 Per ogni g ∈ K esiste h ∈ G C4 ∀g. h ∈ K g + h = h + g. ·)) dove K ` un ine e sieme e (+. g. g ∈ A l’elemento f · g viene indicato semplicemente con f g.) a C2 Esiste 0 ∈ K tale che 0 + f = f + 0 = f ∀f ∈ K. Analogamente per l’altra uguaglianza. In ogni anello 0 ` nullificatore del prodotto. g. ma la lettrice si ` certamente accorta che. i numeri interi. +) ` un gruppo abeliano. ·) ` una coppia ordinata di operazioni interne su K che soddisfano e i seguenti assiomi: C1 Per ogni f. Definizione 8. quelli razionali e quelli reali sono tutti anelli. ( propriet` associativa. Le due e operazioni su un anello vengono chiamate rispettivamente somma e prodotto. C8 Esiste 1 ∈ K tale che 1f = f ∀f ∈ K. h ∈ K tale che g + h = h + g = 0. C9 Per ogni 0 = g ∈ K esiste g −1 ∈ K tale che gg −1 = 1. g ∈ K f g = gf. h ∈ A (f · h) + (g · h). f (gh) = (f g)h. infatti. Si usa. sia h l’opposto di 0g. (+. Un campo ` una coppia ordinata (K. con e le operazioni di cui ci hanno parlato prima la maestra e poi i professori delle medie e delle superiori. ∀g ∈ A g0 = 0 e e e 0g = 0. l’usuale convenzione di dare la precedenza al prodotto sulla somma: a titolo di esempio f g + h sta per (f g) + h. . f · (g + h) = (f · g) + (f · h) e (f + g) · h = I primi quattro assiomi ci dicono che (A. h ∈ K C6 Per ogni f. C5 Per ogni f. C10 1 = 0. Se f.A6 Per ogni f. cio`. partendo da 0 + 0 = 0 e usando l’assioma A6 si vede che 0g = (0 + 0)g = 0g + 0g. C7 Per ogni f. g.

come anche dei numeri naturali (indicati con N). con le solite operazioni sono entrambi dei campi. b sono elementi di un campo e ab = 0 allora a = 0 o b = 0. D’ora in poi denoteremo un campo (K. questo per semplificare la notazione. per motivi che saranno subito evidenti. ovviamente il pi` semplice possibile. per la verit` con estrema parsimonia. Chi non gradisce questo atteggiamento pu` consultare o http://alpha. + 0 1 0 0 1 1 1 0 · 0 1 0 0 0 1 0 1 Un po’ di pazienza consente di verificare che i dieci assiomi sono tutti soddisfatti.pdf ma consigliamo di acquisire un pochino di confidenza con i metodi della matematica moderna prima di affrontarne la lettura. con i simboli 0 e 1. L’insieme e dei numeri interi con le operazioni di cui ci ha detto la maestra ` un anello e ma non un campo. Invece i numeri razionali e quelli reali. 1} definiamo somma e prodotto mediante le tabelle che seguono. da interpretarsi come alle scuole elementari. a lui riservato. Sull’insieme K = {0. Lo indicheremo sistematicamente con il simbolo.unitn. non ` affatto semplice ed in queste e note li useremo. (+. Un esempio autonomo pu` essere ottenuto come segue: prendiamo due o elementi qualunque che indicheremo.science. Questo campo. a cui aggiungiamo la seguente: se a. indicati rispettivamente con Q e R. La definizione rigorosa di tali insiemi e delle rispettive operazioni. Ogni campo ha ovviamente le propriet` elementari dei gruppi e degli a anelli. usando la confidenza a che la lettrice ha acquisito con essi attraverso anni di convivenza.it/∼ vigna/numeri. . ha una sua u importanza specialmente in crittografia. Z. infatti se a = 0 allora 0 = a−1 0 = a−1 (ab) = (a−1 a)b = 1b = b. Lo indicheremo con il simbolo Z2 .I primi sei assiomi ci assicurano che ogni campo ` un anello. Analogamente per gli anelli ed i gruppi. ·)) semplicemente con K.

a z Se z = a + ib ∈ C il suo complesso coniugato ` il numero complesso√ = e √ 2 + b2 = zz. La coppia ordinata (1. b) + (c. d) = (a + c. b ∈ R a + ib = (a. Cerchiamo i numeri complessi (x. 1)(b. Un numero complesso z ` reale se e solo se z = z. ·)) ` un anello. se lo desidera. 0) si vede subito che a −b (a. 2xy) = (−1. y) tali che (x. se z. 0) = (a. e Il motivo principale che consiglia l’introduzione dei numeri complessi ` il e seguente Teorema 2 (fondamentale dell’algebra). Il numero e complesso (0. b) = (a. se (a. con queste operazioni. 0). 1) viene indicato con il simbolo i. La lettrice non si scandalizzi per questo piccolo ed utilissimo abuso: ` lo stesso che le consente di interpretare. b + d) e un’operazione interna. inoltre. con un po’ di pazienza si verifica che (C. detta prodotto mediante (a. 0) + (0. 0). 2 ) = (1. a − ib ed il suo modulo ` il numero reale non negativo |z| = a e Si vede con irrisoria facilit` che. se a. 0) + (0. inoltre φ(a + b) = φ(a) + φ(b) e φ(ab) = e φ(a)φ(b) e questo ci permette di pensare ogni numero reale come un numero complesso. un numero e intero come se fosse un razionale. b)(c. cio` tali che e 2 (x − y 2 .3 Numeri complessi Poniamo C = R × R e definiamo su questo insieme un’operazione interna. b) = (0. b) che ci fornisce una notazione eccellente per i numeri complessi che d’ora in poi verr` adottata sistematicamente. 0) ` elemene e to neutro rispetto al prodotto. allora. (+. C ` un campo. e . detta somma mediante (a. a + b2 a + b2 Quindi. Ogni polinomio non costante a coefficienti in C ha almeno una radice in C. w ∈ C allora z + w = z + w e che a zw = zw. y)2 = −1. d) = (ac − bd. 0) ` inettiva. ad + bc) Gli elementi di C sono chiamati numeri complessi. La funzione φ : R −→ C e data da φ(a) = (a. ` facile convincersi che x = 0 e y = ±1.1. b)( 2 . La dimostrazione ` fuori dalla nostra portata.

w ∈ V SV5 ∀λ. (+. µ ∈ K SV7 ∀λ ∈ K SV8 ∀v ∈ V v + w = w + v. w ∈ V 1v = v. detta operazione esterna. SV2 ∃0 ∈ V tale che 0 + v = v + 0 = v. ·)) ` uno spazio vettoriale su K se valgono i seguenti assiomi e SV1 ∀v. (+. l’elemento u + (−v) verr` indicato con u − v. (λ + µ)v = λv + µv. L’elemento 0 citato in . µ ∈ K SV6 ∀λ. Se (V. ∀v.1 Spazi vettoriali Definizione 9. u ∈ V (v + w) + u = v + (w + u). ·)) una coppia ordinata dove V ` e un insieme + ` un’operazione interna su V. si dice che e (V. λ(v + w) = λv + λw. detta somma e · : K × V −→ V e ` un’operazione su K e V a valori in V . Siano K un campo. se u ∈ V . a SV4 ∀v. SV3 ∀v ∈ V ∃w ∈ V tale che v + w = w + v = 0. ·)) ` uno spazio vettoriale gli elementi di V vengono chiamati e vettori mentre gli elementi di K sono detti scalari. (+. ∀v ∈ V ∀v ∈ V λ(µv) = (λµ)v. (V. inoltre. Tale w viene chiamato l’ opposto v e indicato con il simbolo −v.Capitolo 2 Spazi vettoriali 2. ∀v ∈ V. w.

2. . Di nuovo ` facile vedere che KX ` uno spazio vettoriale. . . 0 elementi di V che soddisfano e entrambi la regola SV2. λ ∈ K (x1 . . . . . . su questo insieme definiamo le operazioni come segue (f + g)(x) = f (x) + g(x). . . ·)) verr` indicato semplicemente con V. . 3. . (y1 . pu` essere ottenuto come segue: prendiamo un qualunque insieme o f X e denotiamo con il simbolo KX l’insieme di tutte le funzioni X −→ K. e e Adesso diamo un altro esempio che si ottiene scegliendo opportunamente l’insieme X di cui si parla nel paragrafo precedente. questo semplicissimo spazio vettoriale viene chiamato lo nullo. allora w = w + 0 = w + (v + w ) = (w + v) + w = 0 + w = w . . Si vede facilissimamente che si ottiene uno spazio vettoriale. ∀v ∈ V 0v = 0. . e definiamo le due operazioni nel solo modo possibile. a Ecco qualche esempio: sia V = {a} un insieme con un solo elemento a. . xn ) ∈ Kn . Conviene illustrare l’argomento in modo leggermente pi` generale. . Siano indatti 0. Siano infatti w. Se v ∈ V. . (+. ∀x ∈ X. u Se K ` un campo. Se non c’` pericolo di confusione uno e spazio vettoriale (V. (λf )(x) = λf (x). Infatti 0v = (0 + 0)v = 0v + 0v da cui segue che 0 = 0v − 0v = (0v + 0v) − 0v = 0v + (0v − 0v) = 0v.SV2 viene chiamato il vettore nullo. ∀f. xn ) = (λx1 . . l’opposto di v ` unico. g ∈ KX . . . . allora 0 = 0 + 0 = 0 . In particolare l’elemento 0 menzionato nell’assioma SV2 deve essere a. e quindi V = {0}. abbiamo gi` visto come assegnare le operazioni su e a Kn . . yn ) ∈ Kn . . ma l’eccezionale importanza pratica di questo esempio ci suggerisce di tradurre nella nuova notazione le operazioni che abbiamo definito: avremo dunque. yn ) = (x1 + y1 . . Un altro spazio vettoriale. λxn ). w ∈ V vettori che e soddisfano entrambi la regola SV3. . Ogni spazio vettoriale gode delle seguenti propriet`: a 1. ∀x ∈ X. . ∀λ ∈ K ∀g ∈ KX . per ogni (x1 . Il vettore nullo ` unico. xn ) + (y1 . . . . talmente generale che lo chiameremo superesempio. xn + yn ) λ(x1 .

e 2. si vede facilmente che W R3 . La somma di U e W ` l’insieme e U + W = {v ∈ V tali che esistono u ∈ U e w ∈ W tali che v = u + w} Non ` difficile verificare che U + W gode delle seguenti propriet`: e a 1. S3 ∀λ ∈ K. y. Infatti λ0 = λ(0 + 0) = λ0 + λ0 da cui segue che 0 = λ0 − λ0 = (λ0 + λ0) − λ0 = λ0 + (λ0 − λ0) = λ0. 6.2 Sottospazi vettoriali In tutta questa sezione supporremo di aver scelto una volta per tutte un campo K. Se U. . ∀v ∈ V 0v = 0. w ∈ W v + w ∈ W. S2 ∀v. Si dice che W ` e un sottospazio vettoriale di V e si scrive W V se valgono le condizioni S1 0 ∈ W. ∀v ∈ W In particolare se W V allora (W. Sia V uno spazio vettoriale e sia W ⊆ V. Un altro esempio e ci viene fornito dalla seguente Definizione 11. Definizione 10. U ⊆ U + W e W ⊆ U + W. U + W ` un sottospazio vettoriale di V. Sia infatti λ = 0 allora 0 = λ−1 0 = λ−1 (λv) = (λ−1 λ)v = 1v = v. ma si possono fornire altri esempi non banali: sia W = {(x. e Si pu` controllare facilmente che W = {0} e W = V sono sottospazi o vettoriali. ∀λ ∈ K λ0 = 0.4. Siano V uno spazio vettoriale e U. ·) ` uno spazio vettoriale. W sottospazi vettoriali di V . Se λv = 0 allora λ = 0 oppure v = 0. λv ∈ W. W sono sottospazi vettoriali di V anche la loro intersezione e cio` e l’insieme U ∩ W = {v ∈ V tale che v ∈ U e v ∈ W } lo `. Infatti (−1)v + v = (−1)v + 1v = (−1 + 1)v = 2. +. z) ∈ R3 tali che 2x − y + 5z = 0}. 5. (−1)v = −v.

j). a1n . per una matrice ` e  a11 a12  a21 a22  A= . a2n . . . . . per ogni j = 1. e Se A : 1 × n −→ K ` un vettore riga. . . Analogamente si vede che U ∩ W ` il pi` grande sottospazio vettoriale e u di V contenuto sia in U che in W. . Se A ∈ M(m × n. In lingua U + W ` il pi` piccolo sottospazio vettoriale di V che contiene sia U e u che W. ain ). componendolo con la funzione. Si e stabilisce in questo modo una corrispondenza biunivoca tra M(1 × n. Se A ∈ M(m × n. . .. . K) la trasposta di A ` la matrice B ∈ M(n × m. . j) = (i. K) la sua composizione con αi ci d` un vettore riga che si chiama la i−esima riga di A e si indica a con Ai . j) si ottiene una n−upla ordinata. n −→ 1 × n che manda j nella coppia ordinata (1. amn L’insieme di Km×n di tutte le matrici m × n viene indicato con M(m × n. K) e Kn che chiamiamo isomorfismo canonico ed useremo quando necessario per identificare questi due spazi vettoriali. . anche se convenzioni in auge. . In sintesi Ai = (ai1 . ovviamente (At )t = A. . n numeri naturali positivi. Se A ∈ M(m×n. e Definizione 12. . .3. U ⊆ M W ⊆ M allora U + W ⊆ M. K) e definita da bji = aij . Essa viene indicata con il simbolo At . cio` un elemento di Kn . Se M V. . j). n denotiamo con βj : m × 1 −→ m × n la funzione data da βj (i. Una matrice m × 1 viene chiamata vettore colonna e una matrice 1 × n viene chiamata vettore riga. . K) la sua composizione . . m denotiamo con il simbolo αi : 1 × n −→ m × n la funzione data da αi (1. . 1) = (i. am1 am2 un tantino contradditoria con altre      . 2. . a cui non vale la pena di dare un nome. Analogamente. e La notazione accattivante. Una matrice m × n (a coefficienti in K) ` una funzione A : m × n −→ K. .  . . . . K).3 Matrici Anche in questa sezione K ` un campo scelto una volta per tutte. . Per ogni i = 1. . Siano m.

. . K) (A + B)t = At + B t . B ∈ M(n × p. K). λA ∈ M(n × m. K) definiamo il loro prodotto AB come la matrice C ∈ M(m × p. . . tutte facili da dimostrare meno la M P 1. K) e B ∈ M(n × p. K). Con la notazione appena introdotta A + B ` la matrice C definita da cij = aij + bij . p. K). m e k = 1. amj )t . pi` brevemente e u (a + b)ij = aij + bij . λ ∈ K A(λC) = (λA)C = λ(AC). amj Ovviamente. C ∈ M(n × p. . si ottiene uno spazio vettoriale. C ∈ M(p × q. K) A(B + C) = AB + AC. . K) con le operazioni descritte nel superesempio. B ∈ M(m × n. B ∈ M(n × p. In sintesi   a1j  . .  = (a1j . K) A(BC) = (AB)C.  Aj =  . K) ` definita da e (λa)ij = λaij . Inoltre ∀A ∈ M(m × n. . B ∈ M(n × p.con βj ci d` un vettore colonna che si chiama la j−esima colonna di A e si a indica con Aj . . . ad ogni buon conto sono a molto semplici da ricordare: MP1 ∀A ∈ M(m × n. MP2 ∀A ∈ M(m × n. Se A ∈ M(m × n. K) definita da n cik = j=1 aij bjk dove i = 1. Il prodotto di matrici gode delle seguenti propriet`. K). K). . K). Se λ ∈ K e A ∈ M(n × m. . K). equipaggiando M(n × m. MP3 ∀A ∈ M(m × n. . K). .

v ∈ W : tremendo. 2. che. se n ≥ 2 il prodotto non ` commutativo. ponendo in M P 3 B = C = 0 si ottiene che A0 = 0. B ∈ M(n × p. Per ogni naturale positivo n la identica n I ∈ M(n × n. anzi ` il pi` piccolo sottospazio e u di V che contiene A. K) (A + B)C = AC + BC. K) (AB)t = B t At . K). . Tanto per familiarizzarci notiamo che L(∅) = {0}.4 Generatori e basi Sia V uno spazio vettoriale sul campo K e sia A un sottoinsieme di V. In particolare il prodotto ` un’operazione sull’insieme M(n × n. K) IA = A. se esiste. MP7 ∀A ∈ M(m × n. Una matrice A ∈ M(n × n. tale famiglia non ` vuota perch´ e e V ∈ S(A). Consideriamo la famiglia S(A) = {W V tali che A ⊆ W }. K) che ` e e quindi un anello. Valgono allora le seguenti ulteriori propriet`: a MP6 ∀A ∈ M(m × n. K) tale che AB = BA = I. K). Tale B. K).MP4 ∀A ∈ M(m × n. costituita da tutti i sottospazi vettoriali di V che contengono A.: siano infatti A la matrice data da a11 = a12 = 1 e aij = 0 in tutti gli altri posti e B la matrice data da b11 = b21 = 1 e bij = 0 in tutti gli altri posti. Allora (ab)11 = 1 + 1 mentre (ba)11 = 1 e quindi AB = BA. qualunque sia il e campo K. ` unica viene e −1 chiamata l’inversa di A e denotata con il simbolo A . K) si dice invertibile se esiste una matrice B ∈ M(n × n. B ∈ M(m × n. C ∈ M(n × p. Notiamo che. avremo che v ∈ L(A) ⇔ ∀W V tale che A ⊆ W. ma adesso impariamo una legge molto pi` semplice u da verificare in pratica. MP5 ∀A ∈ M(m × n. dato v ∈ V . K) AI = A. K) (o solo I se non c’` pericolo di confusione) ` definita mediante e e ijk = 1 se j = k 0 se j = k. Se A ⊆ V allora. E facile controllare che si tratta ancora di un sottospazio di V . ` Indichiamo con L(A) l’intersezione di tale famiglia.

vn ). . . . λk = 1 se k = i e λk = 0 se k = i. λn ) tali che n v= i=1 λi vi . Tale numero n. 1. vn ) prendendo. . v2 . . . per ogni k = 1. vn . 3. . . . . vi ∈ W ∀i = 1. vn ). . vn ). . . . L(v1 . . Se W V. . . . n e v = S3 e v ∈ W per S2. cio` e L(v1 . . vn ) una n-upla ordinata di elementi di V. . v2 . . . . . . . ` il pi` piccolo sottospazio vettoriale di V e u che contiene tutti i vettori v1 . . . . . v2 . . vn ) ` un sottospazio vettoriale di V infatti e n i=1 n i=1 S1 Ponendo λi = 0 ∀i = 1. . . . . per ogni i = 1. Dimostrazione. vn ) ( o. e dei vettori v1 . . . L(v1 . Siano V uno spazio vettoriale. n otteniamo che vi ∈ L(v1 . . vn }). Un qualunque insieme A si dice finito se esiste un numero naturale n ed una corrispondenza biunivoca tra n ed A. 2. . . . . . . . Si dice che un vettore v ∈ V ` combinazione lineare di (v1 . . Proposizione 1. . vn ). . . S3 Se v = n i=1 λi vi e λ ∈ K allora n λv = i=1 (λλi )vi ∈ L(v1 . . . . n. che dipende solo . v2 . . . . v2 . vn ) se esiste una n-upla ordinata di scalari (λ1 . . . n si ottiene che 0 ∈ L(v1 . L’insieme di tutte le combinazioni lineari di (v1 . v2 . . vn ). . . . v2 . . n un intero positivo e (v1 . v2 . . . . . . . . n i=1 λi vi allora λi vi ∈ W per Si dice che l’insieme A genera un sottospazio W V (o che A ` un insieme e di generatori di W ) se L(A) = W . . . . per alleggerire la notazione. . S2 Se v = λi vi e w = n µi vi allora v+w = i=1 (λi + µ1 )vi ∈ L(v1 . . . . vn ) viene indicato con L(v1 .Definizione 13. vn ) = L({v1 .

. vn sono linearmente indipendenti se non sono linearmente dipendenti. vn sono linearmente dipendenti) se esiste un’ n−upla ordinata di scalari non tutti nulli (λ1 . . . per ogni v = (x1 . . Detto in maniera pi` simbolica una n-upla ordinata di vettori (v1 . ci assicura che la funzione vuota 0 −→ V ` linearmente indipendente. Si dice che i vettori v1 . 1) abbiamo che. . vn ) ` lie nearmente dipendente (o. . n tale che vi = 0 allora scegliendo λj = 1 1 se j = i 0 se j = i stiamo solo dicendo che. . . . . . . . . . . m ≤ n e e v1 . . . e Si dice che uno spazio vettoriale V ` finitamente generato se esiste un suo e sottoinsieme finito che lo genera. Chi legge si sentir` frustrato nel non riuscire a dimostrare questa banalit` a a senza la quale la vita sarebbe veramente difficile . . v = n i=1 xi ei e quindi Definizione 14. e1 . . . . . . . . Ovviamente se (v1 . . . . . 0. . . 1. prendiamo in Kn l’n-upla ordinata di vettori (e1 .1) . . . . . . . . vm generano V allora anche v1 . vn ) ` un’n-upla ordinata di vettori di V . . . . λn ) tali che n λi vi = 0. . . brevemente. . . . . . 0) e2 = (0. en = (0. vn ) u ` linearmente dipendente se e solo se e Esiste λ : n −→ K tale che ∃i ∈ n tale che λi = 0 e n i=1 λi vi = 0 il che. . en ) data da e1 = (1. en generano Kn . . . 1. . L’insieme vuoto e ` finito e ∅ = 0. che i vettori v1 . . . . In queste note ci occuperemo esclusivamente di spazi vettoriali finitamente generati. . . vn lo fanno. e Se esiste i = 1. . ` detto il numero degli elementi A e indicato con A. . . . . A titolo di esempio. . contando in modi diversi un insieme finito si ottiene sempre lo stesso numero. visto il significato di “implica”. . 0) (2. Si dice un’n-upla ordinata di vettori (v1 . 0. .da A1 . . . . . i=1 2. xn ) ∈ Kn . .

. . . . . . vn sono linearmente dipendenti se e solo se vn ∈ L(v1 . vn−1 ). 2. vn−1 sono linearmente indipendenti allora v1 . λn scalari non tutti nulli tali che n λi vi = 0. . vn sono linearmente dipendenti. .si ottiene che v1 . n. . . . . . . . . . 1. . . . . . vn ) non ` iniettiva. vn sono linearmente dipendenti se e solo se uno di essi ` come binazione lineare degli altri. cio` esistono i = j tali che vi = e e vj allora basta prendere  k=i  1 se −1 se k=j λk =  0 se k ∈ {i. vn elementi dello spazio vettoriale V. Questa ` di gran lunga la tecnica che si applica pi` frequentemente per e u riconoscere dei vettori sono linearmente indipendenti. ⇒ Siano λ1 . i ⇐ Se vi = ottiene i−1 s=1 µs v s + i−1 µs vs con semplici passaggi algebrici si n µs vs + (−1)vi + s=1 s=i+1 µs vs = 0. Siano v1 . vn sono linearmente indipendenti se dall’equazione n λi vi = 0 i=1 riusciamo a dedurre che λi = 0 ∀i = 1. ma saranno utili anche quelle esposte nella seguente Proposizione 2. . . . . . j} / si vede di nuovo che si tratta di vettori linearmente dipendenti. Se v1 . Analogamente se l’n− upla ordinata (v1 . . . . . . 1. In sintesi v1 . . . Dimostrazione. v1 . . . . . . i=1 esiste un indice i tale che λi = 0 e con facili passaggi algebrici si ottiene i−1 n vi = s=1 −λ−1 λs vs i n s=i+1 + s=i+1 −λ−1 λs vs . . .

a Definizione 15. . bn ) ` una base per V se e • b1 . K) ponendo ek = Eg(k) . bn generano V. vn ) genera uno spazio vettoriale V (rispettivamente ` linearmente indipendente) e (w1 . j) (2. i=1 siccome v1 . . . s) = (i. j) ∈ m × n. Se n ∈ N. . . Anche lo spazio vettoriale M(m × n. . wn ) genera V (rispettivamente ` linearmente indipendente).2) ` E facile vedete che l’insieme di tutte queste matrici genera M(m × n. A = (a1 . Si verifica senza patemi che la mn−upla ordinata E ` linearmente indipendente e quindi e una base per M(m × n. . . . . . . si controlla facilmente che si tratta di una corrispondenza biunivoca e chiamiamo g la sua inversa. . . bn ) sono e n-uple ordinate di elementi di A si dice che B ` ottenuta da A cambiando e e l’ordine se esiste una biezione σ : n −→ n tale che B = A ◦ σ. . la matrice E ij mediante eij = rs 1 se (r. . ⇐ Gi` fatta. . s) = (i. . . Definiamo poi una funzione f : m × n −→ mn mediante f (i. cio`. . . . A ` un insieme. . Se (v1 . . per ogni i = 1. . . K) ha una base standard: cominciamo con il definire.2. . . . . chiamata la base standard e indicata con il simbolo E (o E n se esiste pericolo di confusione). . . . n bi = aσ(i) . wn ) ` ottenuta da e e (v1 . j) 0 se (r. . vn−1 sono linearmente indipendenti si ottiene che λn = 0. si veda anche la propoisizione 4. Si dice che B = (b1 . . Il risultato pi` decisivo di tutta l’algebra lineare ` il seguente u e . e poi si procede come nella dimostrazione appena esposta prendendo i = n. . . ⇒ Siano λ1 . vn ) cambiando l’ordine allora anche (w1 . . . λn scalari non tutti nulli tali che n λi vi = 0.1 costituisce una base per Kn . . In parole povere l’essere generatori o e linearmente indipendenti non dipende dall’ordine. . . . . . Infine definiamo E : mn −→ M(m × n. K). • b1 . bn sono linearmente indipendenti. j) = (i − 1)n + j. . K). . Per esempio ` facile vedere che la n− upla ordinata di vettori definita in e 2. an ) e B = (b1 . . per ogni (i.

. vr+1 . . . . . . um ) genera V e quindi r + 1 ∈ U . wm generano V. siccome v1 ∈ V esistono degli scalari tali che m v1 = i=1 λi wi La proposizione 2 ci assicura che v1 = 0 e quindi almeno uno degli scalari ` non nullo. wm }. ui ∈ {w1 . v2 . . − µ−1 µm wm 2 2 2 2 e quindi anche v1 . . possiamo supporre sia e λ1 = 0. . vm ). . vn ) linearmente indipendente e (w1 . . Allora n ≤ m. u genera V . wm generano V. v2 . . La lettrice che sia infastidita dalle volgarit` contenute nella dimostrazione a precedente (il particolare quel “ripetendo m volte questo ragionamento”) avr` a maggior soddisfazione dalla Dimostrazione corretta. − λ−1 λm wm 1 1 1 da cui si deduce immediatamente che anche v1 . . (v1 . . . . u genera V }. . Per definizione di U esiste u : m −→ V tale che ∀i ∈ r. Sia U = {p ∈ m tali che ∃u : m −→ V tale che ∀i ∈ p. wm }. . . Supponiamo per assurdo che sia n > m. . . w3 . . . . e questo contraddice la proposizione 2. ui ∈ {w1 . . vn ) ` linearmente indipendente. Con facili passaggi algebrici si ottiene w1 = λ−1 v1 − λ−1 λ2 w2 − . . . Sia V uno spazio vettoriale. Ne segue che (v1 . . uj+1 . ∀i > r. 0 ∈ U . . . vm generano V e quindi vm+1 ∈ L(v1 . wm . . contraddizione. wm ) generatori di V. . che quindi non ` e vuoto. . .Teorema 3. salvo cambiare l’ordine in w1 . . allora esiste λ ∈ Kn tale che vr+1 = m λi ui = r λi vi + m i=1 i=1 i=r+1 λi ui . . . w2 . . . . ∀i > p. possiamo supporre che µ2 = 0 e allora w2 = −µ−1 µ1 v1 + µ−1 v2 − µ−1 µ3 w3 − . . . . affermo che r ≥ n da cui in particolare segue la tesi. Ma allora esistono degli scalari tali che v2 = µ1 v1 + µ2 w2 + . . . . . . . wm . ui = vi . . + µm wm . . . . ui = vi . . . Visto che v2 ∈ L(v1 ) si ha che µ2 . v2 . m} tale che λi = e 0. . . . Ripetendo m volte questo ragionamento si arriva a dire che v1 . Supponiamo infatti che r < n. Dimostrazione. . . . . uj−1 . Sia r = max(U ). . ur+1 . µm non sono tutti nulli e. . siccome (v1 . . . . . . . . esiste j ∈ {r+1. cambiando / se necessario l’ordine in w2 .

. per e il punto 2 della proposizione 2. . . quindi M ha un massimo. . . . w ∈ L(v1 . . . o Dimostrazione. Se dim V = n e v1 . . . Sia (v1 . . La prima affermazione ` la pi` delicata da dimostrare. . se p = n allora (v1 . Sia V uno spazio vettoriale 1. . Se dim V = n e W V allora W ` finitamente generato. vm ): dunque v1 . . Cio` e e ogni p−upla ordinata di vettori linearmente indipendenti pu` essere o completata a base.Questo teorema ha un numero impressionante di conseguenze: Proposizione 3. . bn ) e C = (c1 . . m ≤ n. . . per ogni m ∈ M. . vm ) ` una base di V . . . . 4. vp . w) ` linearmente dipendente e quindi. 1. . e scambiando le basi tra di loro si trova che m ≤ n. Questo insieme non ` vuoto perch´ 0 ∈ M . . chiamiamolo m. . vp ) ` una base di V. cm ) sono basi per V allora m = n. . se invece m > n possiamo scartare m − n e vettori in modo che i rimanenti formino una base. vm ) un’ m-upla con tale propriet`. 2. . vp sono linearmente indipendenti allora p ≤ n. . . . cio` ogni n−upla e ordinata di generatori pu` essere sfoltita a base. . . 3. vn tali che (v1 . vn ) ` una base di V. . . vm . possiamo procedere cos` sia ı: M = {m ∈ N tali che esiste un’m-upla ordinata linearmente indipendente di vettori di W }. . Se dim V = n e v1 . . . . . . Usando il fatto che b1 . . . . anche se questo e u sembra paradossale: in fondo stiamo solo dicendo che se V ` “piccoe lo”anche W lo `: in realt` tutto quello che sappiamo ` che V ha un e a e insieme di generatori con n elementi e vorremmo concludere che anche W ha un insieme finito di generatori. . Naturalmente questo significa che possiamo trovare m vettori linearmente indipendenti in W ma non possiamo trovarne m + 1. . bn sono linearmente indipendenti e che c1 . . . . se w ∈ W a la (m + 1)-upla (v1 . . Questo numero ` detto dimensione di V e indicato con dim V. . e 2. . . . . se invece p < n allora e esistono vp+1 . . cn generano V si ha che n ≤ m. Se B = (b1 . . se m = n allora (v1 . . . . . . vm generano V allora m ≥ n. ed e e il teorema 3 ci assicura che. vm generano W e siamo a posto. dim W ≤ n e e se dim W = n allora W = V.

vp . . per assurdo. Ripetendo n − p volte questo ragionamento si ha la tesi. . Visto che m > n i vettori v1 . e questo contraddice il teorema. Per la proposizione 2 uno almeno di essi ` combinazione lineare degli altri. . Se invece p < n allora L(v1 . . e Lo spazio vettoriale nullo ha per base ∅ e dunque dimensione zero. . . . . . . . Anche qui basta dimostrare la terza affermazione. inole tre se dim W = n e. bn sono linearmente e e e indipendenti) una n−upla ordinata di scalari (x1 . bn generano V ) ed ` unica (perch´ b1 . Per la proposizione 2 abbiamo che v1 . . e ripetendo m − n volte si ha la tesi. . esiste v ∈ V tale che v ∈ W allora. Se B = (b1 . . Escludendolo si e continua ad avere un insieme di generatori. . . .Una base di W ` costituita da vettori linearmente indipendenti. . . K) = mn. . / aggiungendo v a una base di W di otterrebbero n + 1 vettori linearmente indipendenti in V . xn ) tale che n v= i=1 x i bi . Abbiamo giurato che in queste note avremmo parlato soltanto di spazi vettoriali finitamente generati. . La risposta. 3. vm sono linearmente dipendenti. . . . Kn ha dimensione n e dim M(m × n. 4. vp+1 / sono ancora linearmente indipendenti. pienamente esauriente. ` fornita dal superesempio. . ma vogliamo soddisfare la legittima curiosit` a della lettrice che a questo punto si sia domandato se ne esistano di non finitamente generati. . per il punto 2 della proposizione 2. . La prima affermazione segue ovviamente dal teorema. . vp ) = V e quindi esiste vp+1 ∈ L(v1 . Tali scalari sono chiamati le coordinate di v rispetto a B (se V ha una base standard e B ` tale base. si parla di coordinate tout court). Per quanto riguarda la seconda basta prendere W = L(v1 . . . . bn ) ` una base per uno spazio vettoriale V allora esiste e (perch´ b1 . . vp ). . vp ) e applicare il punto precedente. Siano K un campo e X un insieme: . Questa e discussione ` leggermente pi` impegnativa e non ` il caso di farsi amareggiare e u e da una comprensione non immediata. . Proposizione 4. . .

. Affermo che l’ n-upla ordinata (x∗ . per ogni n ∈ N. vogliamo e dimostrare che f = n λi x∗ . . per i = 1. i e si vince. . . . . . . visto che X = {x1 . Supponiamo infatti di avere un’ n-upla ordinata (λ1 . . scegliendo opportunamente X. come nella prima parte della dimostrazione. per ogni j n n ( i=1 λi x∗ )(xj ) = i i=1 λi (x∗ (xj )) = λj = f (xj ). cio` che queste due funzioni coincidono su i i=1 ogni elemento di X. . . . Per ogni x ∈ X indichiamo con x∗ l’elemento di KX definito da 1 se y = x. x∗ sono linearmente indipendenti. n. cio` i i=1 la funzione che associa lo scalare 0 a tutti gli elementi di X. . e dimostriamo che. . . . ci permette di ricalcolare le dimensioni degli spazi vettoriali che gi` conosciamo. Supponiamo ora che X non sia finito. questo 0 ` naturalmente in vettore nullo di KX . x∗ sono linearmente indipendenti. e e • Se X non ` finito KX non ` finitamente generato. ci permette di concludere che KX non ` finitamente generato. . i Sia poi f ∈ KX e. cio` esiste una corrispone denza biunivoca X : n −→ X. λn ) di scalari e e tali che n λi x∗ = 0. . . .• Se X ` finito allora KX ` finitamente generato e dim KX = X. e Per ogni n ∈ N possiamo trovare una funzione iniettiva (x1 . . . 1 n La prima parte di questa proposizione. Questo. poniamo λi = f (xi ) ∈ K. . possiamo trovare n vettori linearmente indipendenti in KX . . n abbiamo n n 0 = 0(xj ) = ( i=1 λi x∗ )(xj ) = i i=1 λi (x∗ (xj )) = λj . Ma allora. xn } abbiamo che. ` facile vedere che e x∗ . . . per ogni j = 1. . il penultimo passaggio n 1 segue dalla definizione delle operazioni in KX e l’ultimo da quella di x∗ . xn ) : n −→ X e. . x∗ (y) = 0 se y = x Supponiamo che X sia finito ed abbia n elementi. . . . x∗ ) ` 1 n e X una base di K . i E quindi x∗ . usando il teorema 3. a Un altro strumento utilissimo per calcolare le dimensioni ` dato dalla e seguente . e e Dimostrazione. .

dalla definizione di v e dal fatto che b1 . . dq ( nessun vettore se q = s). . + δq dq = 0 e poniamo v = β1 b1 + . . . . γs+1 . . . Dimostrazione. . . . . . . λs tali che v = λ1 b1 + . . . bs . . βs . . . . . . . γs+1 . . cs+1 . . da qui si pu` o dedurre che λ1 . e in particolare che v = 0. bs ) una base per U ∩ W (ovviamente prendiamo B = ∅ se s = 0) e completiamola a base per U mediante l’aggiunta di altri p − s vettori cs+1 . . . + λs bs da cui segue che λ1 b1 + . . . siccome W ` un sottospazio e vettoriale di V anche v ∈ W. ds+1 . . . . . . . . . . . cs+1 . . . . Poniamo dim U = p. • Sono linearmente indipendenti: siano infatti β1 . + λs bs + δs+1 ds+1 + . . . . . cosicch´ e −v = δs+1 ds+1 + . . . . . . cp . . ds+1 . . . . γp . . U V e W V allora vale la formula dim(U + W ) = dim U + dim W − dim U ∩ W. + δq dq ∈ W. dq sono una base per U + W. . . . Alla luce della proposizione appena dimostrata avremo che s ≤ p. La proposizione sar` dimostrata se riusciremo a a verificare che i p + q − s vettori b1 . γp sono tutti nulli. Sia V uno spazio vettoriale. . . . s ≤ q e dobbiamo dimostrare che dim(U + W ) = p + q − s. Quindi v ∈ U ∩ W ed allora esistono s scalari λ1 . βs . + γp cp + δs+1 ds+1 + . Completiamo B a base di W mediante altri q − s vettori ds+1 . δq sono tutti nulli. . + γp cp ∈ U. . Sia B = (b1 . bs .Proposizione 5 (Formula di Grassmann). . . ma. . . . . . . + δq dq = v − v = 0 e. . . bs . . . . δs+1 . . + βs bs + γs+1 cs+1 + . δs+1 . essendo b1 . λs . . δq degli scalari tali che β1 b1 + . . dim U ∩ W = s. . . . + βs bs + γs+1 cs+1 + . dim W = q. cp sono linearmente indipendenti si conclude che β1 . . . . cp (nessun vettore se p = s). . dq linearmente indipendenti. . . . . .

sia infatti v ∈ U + W. allora (v1 . allora esistono u ∈ U e w ∈ W tali che v = u + w. Le seguenti condizioni sono equivalenti: 1.2 ⇒ 1 Siano u. . . Dimostrazione.+δq dq La somma di sottospazi U V e W V si dice diretta e si scrive U ⊕ W se ogni vettore in U + W si scrive in modo unico come somma di un elemento di U e uno di W. Siano V uno spazio vettoriale. wq ) ` base per U + W . . wq ) sono basi per U e W rispettivamente. . . Se u ∈ U e w ∈ W sono tali che u + w = 0 allora u = 0 e w = 0. . .+(βs +αs )bs +γs+1 cs+1 +. + βs bs + γs+1 cs+1 + . . . U ∩ W = {0}. . se (v1 . . e 2. . . 3. . vp ) e (w1 . w ∈ W tali che u + w = u + w . . .+γp cp +δs+1 cs+1 +. . . w = w . . . vp . allora abbiamo che (u − u ) + (w − w ) = 0. Se la somma di U e W ` diretta la formula di Grassmann ci assicue ra che dim U + W = dim U + dim W e la sua dimostrazione ci dice che. . . 3 ⇒ 2 Se u ∈ U e w ∈ W sono tali che u + w = 0 allora u = −w da cui si deduce che u ∈ U ∩ W . 1 ⇒ 3 Sia v ∈ U ∩ W allora v ∈ U e v ∈ W e allora v + 0 = 0 + v ∈ U + W.• Generano U + W . Si pu` riconoscere facilmente se una somma ` diretta o e applicando la seguente Proposizione 6. usando 2 si ha subito che u = u . . Ma esistono degli scalari tali che u = β1 b1 + . w1 . u ∈ U e w. + γp cp w = α1 b1 + . Da 1 si deduce subito che v = 0. e. . . . . . . e . La somma di U e W ` diretta. Usando 3 si vede che u = 0 e subito dopo che w = 0. + δq dq ma allora v = (β1 +α1 )b1 +. + αs bs + δs+1 ds+1 + . . U V e W V .

2. Siano A ∈ M(m × n. S3 Se AX = 0 e λ ∈ K allora A(λX) = λ(AX) = λ0 = 0. b) = e ∅. S2 Se AX = 0. Proposizione 8. b) = X0 + Sol(A. Un sistema lineare di m equazioni in n incognite ` una coppia ordinata (A. Il sistema lineare (A. e 2. e cos` faremo anche in queste note. Se X ∈ Sol(A. b). K). 1. Proposizione 7. 1. Se b = 0 il sistema si dice omogeneo. Allora Sol(A. Si dice che il sistema ` risolubile se Sol(A. K) le cui prime n colonne sono quelle di A e l’ultima ` b viene detta la matrice e completa del sistema. E ovvio. Sia AX = b un sistema lineare risolubile e sia X0 ∈ Sol(A. K). Si deve verificare S1 A0 = 0 e questa ` conseguenza della propriet` MP3 del prodotto e a di matrici citata sopra. 0) tale che X = X0 + Y } Dimostrazione. Sol(A. b). se AY = 0 allora A(X0 + Y ) = AX0 + AY = b + 0 = b. . K) e e b ∈ M(m × 1. K). b) = {X ∈ e M(n×1.5 Sistemi lineari Definizione 16. K) tali che ∃Y ∈ Sol(A. Siano n. L’insieme delle soluzioni di tale sistema lineare ` Sol(A. AY = 0 allora A(X + Y ) = AX + AY = 0 + 0 = 0. Viceversa. b) dove A ∈ M(m × n. b) viene tradizionalmente indicato con la notazione AX = b. 0) ` un sottospazio vettoriale di M(n × 1. A viene chiamata la matrice ı dei coefficienti del sistema AX = b e la matrice (A|b) ∈ M(m × (n + 1). ` 2. K) tali che AX = b}. 0) = {X ∈ M(n × 1. e Dimostrazione. m interi positivi. {v ∈ Kn tali che Av t = 0} ` un sottospazio vettoriale di Kn . ponendo Y = X −X0 si ha che X = X0 +Y e che AY = A(X − X0 ) = AX − AX0 = b − b = 0.

∀n. . . K). . . nel corollario 3. Perci` abbiamo provato o che rg(A) = rg(A|b) ⇔ b ∈ L(A1 . Abbiamo gi` detto che cosa sono le sue righe a A1 . . . Am ). ma per illustrarlo dovremo introdurre qualche concetto nuovo. e questo significa che il vettore (x1 . . . . . An ). i=1 Perch´ questo risultato diventi praticamente efficace abbiamo bisogno di e un metodo che ci consenta di calcolare il rango di una matrice. . Dimostrazione. . Analogamente possiamo definire il rango per colonne di A come rgC (A) = dim L(A1 . Siamo ora in grado di enunciare e provare il teorema che ci dice quando un sistema lineare ` risolubile: e Teorema 5. L’idea ` di modificare una matrice. in quanto dimensione di un sottospazio di M(1 × n. . Am ∈ M(1 × n. ma senza e cambiarne il rango. K). K). Conviene pensare al rango per colonne. Dimostreremo pi` avanti. . e definiamo il rango per righe di A come il numero rgR (A) = dim L(A1 . Naturalmente rgR (A) ≤ m. An ) L(A1 . . Di nuovo avremo che rgC (A) ≤ min(m. Ma quest’ultima condizione vuol dire che esistono degli scalari x1 . . . xn tali che n xi Ai = b. . . Questo numero verr` chiamato semplicemente rango di A e indicato con a rg(A). ma anche rgR (A) ≤ n. il seguente importante risultato u Teorema 4. . (Rouch´-Capelli) Il sistema lineare AX = b ` risolubile se e e e solo se rg(A) = rg(A|b). . A ∈ M(m × n. . . . . m. n) in quanto ` la dimensione di un e sottospazio di M(m × 1. K) rgR (A) = rgC (A). . . . . K). e Le modifiche avverranno attraverso le cosiddette operazioni elementari sulle righe che sono . Quello che proponiamo calcola il rango per righe. . . . . xn )t ∈ Sol(A. . b) e l’eguaglianza vale se e solo se b ∈ L(A1 . An ). . finch´ si trovi in una forma in cui il rango sia evidente. b). Evidentemente L(A1 .Sia A ∈ M(m × n. An ). . An .

. Ai . . . K) e 1 ≤ i ≤ m e 0 = λ ∈ K la matrice modificata ha per righe A1 . λAi . xn ) ∈ Kn ha s zeri iniziali se xi = 0 quando i ≤ s ma xs+1 = 0. cio` le (eventuali) e righe nulle sono confinate agli ultimi posti disponibili. . . . Attraverso operazioni elementari sulle righe. • Per ogni i = 1. . ` pesante dal punto di vista notazionale e queste e note non l’ospiteranno. . Il rango per righe di una matrice ridotta ` uguale al e numero delle sue righe non nulle. . u Proposizione 9. . Proposizione 10. . cio` e ogni riga non nulla ha pi` zeri iniziali di quella che la precede. . Definizione 17. Aj +λAi . An dove Ai si trova all’i−esimo posto e Aj +λAi al j− esimo. la matrice modificata ha per righe A1 . . Questo numero s viene indicato con il simbolo zi(X) e ovviamente si ha 0 ≤ zi(X) < n. . . 3. . An dove λAi si trova all’i−esimo posto. K) e 1 ≤ i < j ≤ m la matrice modificata ha per righe A1 . e quindi senza modificarne il rango. Aj . . m − 1. . Evidentemente questa operazione non modifica il rango per righe della matrice. possiamo trasformare una matrice qualunque in una in forma ridotta. . La dimostrazione. . per righe. . . di una matrice sar` dunque a risolto se possiamo calcolare il rango delle matrici ridotte. Anche in questo caso ` facile vedere che questa operazione non modifica il rango per e righe. Ai . Scambiare tra loro due righe: se A ∈ M(m × n. . . . Diremo che un vettore non nullo X = (x1 . . . . An dove Aj si trova all’i−esimo posto e Ai al j−esimo. m − 1. se Ai+1 = 0 allora zi(Ai ) < zi(Ai+1 ). . . . . che non ` altro che un rifacimento teorico del processo e che si attua negli esempi. . Anche qui il rango non cambia. . . Moltiplicare una riga per uno scalare non nullo: se A ∈ M(m × n. . 2. K) e 1 ≤ i < j ≤ m e λ ∈ K. K) ` in forma e ridotta se si verificano le seguenti circostanze: • Per ogni i = 1. .1. . . . Il problema del calcolo del rango. se Ai = 0 anche Ai+1 = 0. Sostituire una riga con la somma tra lei e un multiplo (anche nullo) di una riga che la precede: se A ∈ M(m × n. . . Si dice che una matrice A ∈ M(m × n. . . .

. Sia AX = b un sistema lineare. e questo ` lasciato per esercizio. ma c’` di meglio: e e Proposizione 11. . Dato v ∈ V avremo che v ∈ W = L(v1 . .6 Equazioni parametriche di un sottospazio vettoriale Pu` sembrare irrispettoso domandare a chi studia matematica che cosa sia o un’equazione. Se la matrice completa (A |b ) ` ottenuta da (A|b) mediante operazioni elementari sulle righe allora e Sol(A. . . . . Sia A ∈ M(m × n. Am ) = L(A1 . K) una matrice in forma ridotta. . . . . uno dopo l’altro. y) dove X −→ Y ` una funzione e e e y ∈ Y . Sia poi (v1 . . . e 2. Le operazioni elementari sulle righe ci permettono dunque di scoprire quando un sistema lineare ` risolubile. Un’equazione (f. b) = Sol(A . Usando questo risultato si vede analogamente che λ2 = 0 e. . . λt degli scalari tali che λ1 A1 + . . da cui si deduce che λ1 = 0 visto che a1zi(A1 ) = 0. Siano λ1 . b ). vq ) se e solo se esiste (λ1 . . At ) e ci basta dimostrare che A1 . e sia At la sua ultima riga non nulla. vq ) una q−upla ordinata in V che genera W . . . . Si tratta evidentemente di controllare che ogni operazione elementare sulle righe non modifica l’insieme delle soluzioni di un sistema. . At sono linearmente indipendenti. . . per il teorema fondamentale p ≤ q. . . ma quanti lo sanno davvero? Ecco una proposta: un’ equaf f zione ` una coppia ordinata (X −→ Y. λq ) ∈ Kq tale che v = q i=1 λi vi . . y) ` Sol(f |y) = {x ∈ e X tali che f (x) = y}. . Dimostrazione.Dimostrazione. . . Evidentemente L(A1 . Abbiamo subito che λ1 a1zi(A1 ) = 0. L’insieme delle soluzioni dell’equazione (f. . y) si dice risolubile se Sol(f |y) = ∅. + λt At = 0. che tutti i λi sono nulli. Sia V uno spazio vettoriale di dimensione n su un campo K e W un sottospazio di V di dimensione p. .

. . . . xn ) ` la n− upla delle coordinate di un vettore v ∈ V rispetto e a B avremo che v ∈ W se e solo se esiste (λ1 . . Per ogni i = 1. se e solo se (x1 . . K) −→ M(n × 1. dove LA : M(q × 1. per l’unicit` delle coordinate. . . . . xn ) soddisfa e a   x1 = a11 λ1 + .   x = a λ + . . . .Sia ora B = (bi . . . . . .. . il j=1 che ci procura una matrice A ∈ M(n × q. . . Si dice che l’equazione (LA . . . . + a λ n n1 1 nq q e Avremo dunque che v = n xj bj ∈ W se e solo se l’equazione (LA . K) ` definita da LA (Λ) = AΛ e e X = (x1 . . . . . . . xn )t . . . . . . . . . . . + a1q λq  . K). . . . Se (x1 . .. . . . q esiste un’unica n−upla ordinata di scalari (a1i . . . X) ` j=1 risolubile. ani ) tale che vi = n aji bj . λq ) ∈ Kq tale che n q n n q x j bj = j=1 i=1 λi ( j=1 aji bj ) = ( j=1 i=1 λi aji )bj cio`. X)` un equazione parametrica del sottospazio e W rispetto alla base B. bn ) una base di V . . .

infatti T (v)+T (−v) = T (v −v) = T (0) = 0. T (λv) = λT (v). . anche la sua inversa T −1 lo `. e i=1 Ogni elemento di Hom(V. W ) viene detta isomorfismo. ∀λ ∈ K Ad esempio la funzione nulla V −→ W definita da 0(v) = 0 ∀v ∈ V ` e un’applicazione lineare. W ) gode automaticamente delle seguenti propriet`: a • T (0) = 0. • ∀v ∈ V T (−v) = −T (v). xn ) = n xi bi ` un isomorfismo. Un importante esempio ` il seguente: Sia B una base per lo spazio vettoriale V di dimensione e n. 0 L2 ∀v ∈ V. La funzione CB Kn −→ V definita da CB (x1 . . ` facile vedere che se T ` un e e isomorfismo. Siano V. infatti T (0) = T (00) = 0T (0) = 0. W spazi vettoriali e V −→ W una funzione. Si dice che gli spazi vettoriali V e e W sono isomorfi se esiste un isomorfismo in Hom(V. W ). .Capitolo 3 Applicazioni lineari 3. L’insieme di tutte le applicazioe T ni lineari V −→ W viene indicato con il simbolo Hom(V. Una funzione biettiva di Hom(V. Anche idV ` lineare. . Si dice che T ` un’ applicazione lineare se soddisfa le seguenti regole: e L1 ∀v. w ∈ V T (v + w) = T (v) + T (w).1 Applicazioni lineari T Definizione 18. . W ).

Se u1 . e T (U ) allora ∈ U.Definizione 19. Supponiamo che T sia iniettiva e che v ∈ KerT. W ) e sia U un sottospazio di V . . e 2. ma λw = λT (u) = T (λu) ∈ T (U ) perch´ λu ∈ U . T (up ) sono linearmente indipendenti. La dimensione di KerT viene detta la nullit` di T e quella di ImT si chiama rango di T e si indica con rg(T ). . . . 1. . . W ) il nucleo di T ` l’insieme e KerT = {v ∈ V tale che T (v) = 0} e l’ immagine di T ` l’insieme e ImT = {w ∈ W tali che ∃v ∈ V tale che T (v) = w}. e Dimostrazione. . up ∈U sono linearmente indipendenti e T ` iniettiva allora e T (u1 ). ma allora T (v − w) = T (v) − T (w) = 0 e quindi v − w = 0. se e solo se rg(T ) = dim W. T (U ) = {T (u) tali che u ∈ U } ` un sottospazio di W. Se w. Allora 1. ` E facile vedere che KerT V e che ImT W. Proposizione 13. allora 2. 4. Dimostrazione. . T (up ) generano T (U ). . ma w + w = T (u) + T (u ) = T (u + u ) ∈ T (U ) perch´ u + u e Se w ∈ T (U ) e λ ∈ K esiste u ∈ U tale che T (u) = w. . Se w ∈ T (U ) esiste u ∈ U tale che T (u) = w. allora T (v) = 0 = T (0) e quindi v = 0. . e Quindi il rango ci fornisce un’informazione sull’applicazione lineare. T (u ) = w . a Ovviamente T ` suriettiva se e solo se ImT = W . . λp ) tale che u = i=1 λi ui e allora w = p p T (u) = T ( i=1 λi ui ) = i=1 λi T (ui ). . . . ma esiste una p-upla p ordinata di scalari (λ1 . 3. Sia T ∈ Hom(V. Sia T ∈ Hom(V. Se T ` iniettiva allora dim U = dim T (U ). Viceversa supponiamo che KerT = {0} e che v. w ∈ V soddisfino T (v) = T (w). . W ). altrettanto fa il nucleo: Proposizione 12. u ∈ U tali che T (u) = w. . Sia T ∈ Hom(V. . w ∈ e allora esistono u. . 0 = T (0) ∈ T (U ) perch´ 0 ∈ U . Se u1 . T ` iniettiva se e solo se KerT = e {0}. . . up generano U allora T (u1 ).

Il teorema sar` dimostrato se e e a riusciamo a provare che (T (bp+1 ). . W ) allora e dim KerT + dim ImT = dim V. . . . Se 0 = p λi T (ui ) = T ( p λi ui ) allora p λi ui ∈ KerT = {0}. infatti se λp+1 . Cominciamo con l’osservare che. λp tali che λ1 b1 + . . . possiamo scrivere e T (λp+1 bp+1 + . . . . . e • T (bp+1 ). Siccome b1 . . . Dimostrazione. Sia B = (b1 . . . . . + λn bn ) = 0 e cio` abbiamo che λp+1 bp+1 + . Quindi le dimensioni menzionate nell’enunciato del teorema hanno senso. . − λn bn = 0. . . . bn sono linearmente indipendenti si deduce che λp+1 . . . . grazie al punto 2 della proposizione precedente. . . grazie al fatto che T ` lineare. p. . bn (nessun vettore se KerT = V. . λn sono scalari tali che λp+1 T (bp+1 ) + . . . bp ) una base di KerT ( B = ∅ se KerT = {0}) e completiamo B a base di V mediante i vettori bp+1 . esistono allora degli e scalari λ1 . . . 4. Se (u1 . . . + λn bn ∈ KerT. . . . cio` se T ` l’applicazione nulla). + λn T (bn ) = 0 allora. . . i=1 i=1 i=1 siccome u1 . T (bn ) sono linearmente indipendenti. . . . ImT ` finitamente generato.3. . . . T (bn )) ` una base per ImT. T (up )) genera T (U ) e per 2 ed ` linearmente indipendente per 3. . + λp bp − λp+1 bp+1 − . . . . . λn sono tutti nulli. . Se V ` uno spazio vettoriale finitamente a e generato. . up sono linearmente indipendenti segue che λi = 0 ∀i = 1. . . e Uno strumento indispensabile dell’algebra lineare ` dato dal seguente e Teorema 6 (nullit` + rango). . . W ` uno spazio vettoriale e T ∈ Hom(V. . . anche KerT lo ` in quanto e e sottospazio di V. . up ) ` una base di U allora (T (u1 ).

da cui deduciamo subito che w = T (v) = T (λ1 b1 + . se n > m non esistono funzioni iniettive (e quindi nemmeno biettive) in Hom(V. D’altra parte se (b1 . in altri termini. . W ). W ). Se T ∈ Hom(V. . . . p. 2. Tra le righe abbiamo anche provato che due spazi vettoriali sono isomorfi se e solo se hanno la stessa dimensione. + λn T (bn ). W ) ` iniettiva allora dim KerT = 0 e quindi il teorema e ci dice che dim ImT = n. λn tali che v = λ1 b1 + . . + λn bn ) = λ1 T (b1 ) + . cm ) sono basi per V e W rispet         n n xi ci se n ≤ m. . + λn bn . . .• T (bp+1 ). 1. visto che T (bi ) = 0 per ogni i = 1. . Questo conclude la dimostrazione. . i=1 m T( i=1 xi b i ) = xi ci se n ≥ m. Se poi n = m si ha un isomorfismo. i=1 si trova. . dato che ImT W si evince che n ≤ m. Sia infatti w ∈ ImT . . . allora esiste v ∈ V tale che T (v) = w. Dato che b1 . Anche il teorema nullit` pi` rango ha una serie di illuminanti conseguenze: a u poniamo dim V = n e dim W = m. . e nel secondo una suriettiva. . se n < m non esistono funzioni suriettive (e quindi nemmeno biettive) in Hom(V. definendo (c1 . . . + λn T (bn ) = λp+1 T (bp+1 ) + . . W ) ` suriettiva allora dim ImT = m e quindi il teorema e ci dice che n ≥ m. . . . nel primo caso. . . in altri termini. . . . un’applicazione lineare iniettiva. . . . . Se T ∈ Hom(V. T (bn ) generano ImT. . tivamente. . bn ). bn generano V esistono degli scalari λ1 . 3. .

. . Se dim V = dim W e L ∈ Hom(V. bn } −→ W una funzione. Siano V. Siano V uno spazio vettoriale di dimensione n. . n. Se B e C sono basi standard si parla semplicemente di matrice associata a T. Se v ∈ V esiste un’unica n−upla ordinata di scalari (x1 . La matrice di T rispetto alle basi B e C ` la matrice MB (T ) = A ∈ M(m × n. . per ogni v = n xj bj . per ogni j. W ) funzioni che soddisfano quanto richiesto. . . La prossima definizione ` un’altro dei cardini su cui ruota l’algebra lineare: e Definizione 20. . e e Proposizione 14. . W ) ` iniettiva (rispettivamente sue riettiva) allora ` anche suriettiva (iniettiva) e quindi ` un isomorfismo. Questa proposizione ci dice. C = (c1 . B = (b1 . . Cominciamo col provare l’unicit`: siano dunque T. . . j=1 n xj τ (bj ) e poi verificare. .4. K) data dalla e C seguente regola: m ∀j = 1. . . Tale T ` detta l’ estensione lineare di τ. la colonna j−esima della matrice ` data dalle coore dinate di T (bj ) rispetto alla base C. T ∈ a Hom(V. . bn ) una base di V e τ : {b1 . . . W uno spazio vettoriale di dimensione m. che tale funzione T (v) = j=1 soddisfa quanto richiesto. . Per quanto riguarda l’esistenza basta definire. bn ). cm ) basi per V e W rispettivamente. n T (bj ) = i=1 aij ci In parole. . . W spazi vettoriali. Esiste un’unica T ∈ Hom(V. sia infine T ∈ Hom(V. . B = (b1 . xn ) tale che v = n xj bj ma allora j=1 n n n T (v) = T ( j=1 n x j bj ) = j=1 xj T (bj ) = j=1 n xj τ (bj ) = xj T (bj ) = T ( j=1 j=1 xj bj ) = T (v). . rapidamente: ogni applicazione lineare ` e completamente determinata dal suo comportamento su una base. . . . . . W ). molto facilmente. . W ) tale che T (bj ) = τ (bj ) ∀j = 1. e Dimostrazione. .

m CC (Ai )t = T (bi ) per il punto 4 della proposizione 13 ` immediato che e rg(A) = dim L(A1 . . Proposizione 15. per il punto 2 della stessa proposizione. ym )t . K) MB ` un isomorfismo. . Se v = C i=1 xi bi allora A(x1 . . . Dimostrazione. . . . yj = a Proposizione 17. per l’unicit` delle coordinate. K) −→ Km e CC : Km −→ W sono isomorfismi e ∀i = 1. Dimostrazione. Dimostrazione. . . abbiamo che ∀j. T (bn )) = ImT . . . dim Hom(V.In modo del tutto analogo a quanto abbiamo fatto nel superesempio. . . . . . T (bn )). . e L’utilit` principale dalla matrice associata risiede nella seguente a n A = MB (T ) Proposizione 16. . Ma soprattutto si vede facilmente che Hom(V. ` facile vedere che (T + T ) ◦ S = T ◦ S + T ◦ S. m j=1 T (v) = y j cj In particolare v ∈ KerT ⇔ (x1 . m = dim W e scelte le basi B per V e C per W ` facile verificare che la funzione e C Hom(V. . Siccome la trasposizione M(m×1. 0). . . Se A = MB (T ) C aji xi . . . possiamo dare delle operazioni all’insieme W V in modo che diventi uno spazio vettoriale. An ) = dim L(T (b1 ). . allora rg(A) = rg(T ). Posto n = dim V. W ) ` e un sottospazio vettoriale di W V . . . . W ) = (dim V )(dim W ). xn )t ∈ Sol(A. xn )t = (y1 . . m n n yj cj = T (v) = T ( j=1 n i=1 m m x i bi ) = i=1 n xi T (bi ) = xi ( i=1 j=1 aji cj ) = ( j=1 i=1 aji xi )cj n i=1 e. che S ◦ (T + T ) = e S ◦ T + S ◦ T e che (λT ) ◦ S = λ(T ◦ S) = T ◦ (λS) tutte le volte che le operazioni hanno senso. W ) −→ M(m × n. . La tesi segue ora dal fatto che L(T (b1 ).

W. Se B . deve essere n = m. che ` la e tesi. precisamente che consente di tradurre la terminologia dei sistemi lineari. D basi per gli spazi vettoriali V. W ). D D C Dimostrazione. 1. m. . Siano B. C = MB (S ◦ T ). Se T ∈ Hom(V.Abbiamo gi` visto un buon motivo per definire in quel modo apparena temente strampalato il prodotto di matrici. U rispettivamente. U ). Siano poi T ∈ Hom(V. s csi = a j=1 bsj aji . ma ecco un altra ragione: Teorema 7. p le dimensioni dei tre spazi vettoriali. 2. S ◦ T ∈ Hom(V. Basta applicare due volte il teorema osservando che idW ◦ T = T ◦ idV . Visto che T ` un isomorfismo. n m s=1 csi ds = S ◦ T (bi ) = S(T (bi )) m m p = S( = ( aji cj ) = j=1 aji S(cj ) = j=1 aji ( s=1 bsj ds ) j=1 p m bsj aji )ds m s=1 j=1 e. B = MC (S). e C B 2. W ) ` un isomorfismo allora MC (T −1 ) = MB (T )−1 . C D D p ∀i = 1. C basi per gli spazi vettoriali V. La prima affermazione ` una semplicissima verifica. Siamo B. 1. . La e tesi segue dal teorema osservando che T −1 ◦ T = idV . U ). B C 2. ∀i. C. A = MB (T ). La see conda un calcolo: chiamiamo n. W. W ) allora MB (T ) = MC (idW )−1 MB (T )MB (idV ) C C C B Dimostrazione. S ∈ Hom(W. C sono altre basi per V. per l’unicit` delle coordinale abbiamo che. W e T ∈ Hom(V. MB (S ◦ T ) = MC (S)MB (T ). Corollario 1. T ◦ T −1 = idW e MB (idV ) = MC (idW ) = I. . Allora 1. .

V ) l’unica applie e cazione lineare tale che MB (S) = A−1 . Se esiste B ∈ M(n × n. dato che e e rg(A) = rg(T ) abbiamo la tesi. 3. K) tale che AB = I allora A ` invertibile e e −1 A = B. anche se non ` obbligatorio. e dunque T ◦ S = idV . B 1. Inoltre A = A I = A (AB) = e (A−1 A)B = IB = B. scegliere Kn con la e base standard). e sia T ∈ Hom(V. allora. Corollario 2. B B da cui segue che T ◦ S = idV . e e allora A ` invertibile. Scegliamo uno spazio vettoriale V di dimensione n e una sua base B (va benissimo. Sia A ∈ M(n × n. Allora MB (T ◦ S) = AB = B B e I = MB (idV ). 3. MB (T ) ` l’inversa di A. V ) tale che MB (S) = B. Sia S ∈ Hom(V. Inoltre A−1 = IA−1 = (BA)A−1 = B(AA−1 ) = e BI = B. cio` rg(T ) = n. Se A ` invertibile e A−1 ` la sua inversa sia S ∈ Hom(V. Sia S ∈ Hom(V.Il prossimo risultato dimostra come l’algebra delle matrici possa trarre vantaggio dalla conoscenza delle applicazioni lineari. e 2. per ogni w ∈ V abbiamo che w = T (S(w)) e dunque T ` suriettiva. se v ∈ KerT abbiamo che B v = S(T (v)) = S(0) = 0. ma allora. Dimostrazione. e 2. . A ` invertibile se e solo se rg(A) = n. Allora MB (T ◦ S) = AA−1 = I. K) : 1. cio` T ` iniettiva e quindi un isomorfismo. V ) tale che MB (S) = B. come prima segue che T ` un B −1 −1 −1 isomorfismo e quindi A ` invertibile. K) tale che BA = I allora A ` invertibile e e −1 A = B. Se esiste B ∈ M(n × n. V ) l’unica applicazione lineare tale che MB (T ) = A. e dunque S ◦ T = idV . Allora MB (S ◦ T ) = BA = B B MB (idV ). Viceversa se rg(A) = rg(T ) = n allora T ` suriettiva e quindi ` un e e B −1 isomorfismo.

. . . Sia U un sottospazio di V. . . . . . K) viene indicato con V ∗ e chiamato le spazio duale di V . bn ) ` una base di V. bp ) una base di U e completiamola a una base B di V.3. ` inutile. . . in quanto estratti da una base. B ∗ ` detta la base duale di B. . . se B = (b1 . e ` facile verificare che si tratta di un sottospazio di V ∗ ma possiamo fare di E meglio: Proposizione 18. . per ogni i=1 j = p + 1. . λn ) di scalari tali che n ∗ ∗ e e i=1 λi bi = 0. Allora dim U + dim U ⊥ = dim V. . Se u ∈ U allora u = p xi bi e quindi. . Dimostrazione. per e ogni i = 1. b∗ ) ` linearmente indipendente. . b∗ ) ` una base per U ⊥ . che avr` quindi a p+1 n e dimensione n − p. . e e ⊥ Se U V l’ortogonale di U ` U = {α ∈ V ∗ tali che α(u) = 0 ∀u ∈ U }. . . n. suppon e 1 niamo infatti di avere una n-upla ordinata (λ1 . xn ) tale che α = n xi b∗ ma. . Sia V uno spazio vettoriale sul campo K. . Affermo che la (n − p)-upla ordinata (b∗ . bj ∈ U e quindi 0 = i i=1 ∗ α(bj ) = ( n xi b∗ )(bj ) = xj e quindi α = n i i=1 i=p+1 xi bi . n abbiamo n n 0 = 0(bj ) = ( i=1 λi b∗ )(bj ) i = i=1 λi (b∗ (bj )) = λj . per motivi di dimensioni. cio` la funzione che associa lo scalare 0 a tutti gli elementi di V. Lo spazio vettoriale Hom(V. . . . per ogni j = 1. se α ∈ U ⊥ ⊆ V ∗ esiste una n−upla ordinata di scalari (x1 . . . . . . . Non occorre dimostrare che questi vettori sono linearmente indipendenti. . Sia (b1 . p. . n abbiamo che b∗ (u) = b∗ ( p xi bi ) = p xi b∗ (bi ) = 0 per j j j i=1 i=1 la definizione della base duale. Ma allora. Poniamo p = dim U e n = dim V . ma. . definiamo un vettore b∗ ∈ V ∗ mediante i b∗ (bj ) = i 1 se j = i 0 se j = i La n−upla ordinata B ∗ = (b∗ . i Sarebbe altrettanto semplice dimostrare che tale n-upla genera V ∗ . ci resta solo da verificare che appartengono a U ⊥ e che lo generano. . .2 Spazio duale Definizione 21. Inoltre. . questo 0 ` naturalmente in vettore nullo di V . Ovviamente dim V ∗ = dim V . . . per ogni j = 1. . .

Se T ∈ Hom(V. KerT t = (ImT )⊥ . . A = MB (T ). V ∗ ) ed il motivo del nome ` dato dalla seguente e Proposizione 19. Dimostrazione. n abbiamo n n ∗ T ma anche t (c∗ )(bj ) i =( k=1 bki b∗ )(bj ) k = k=1 bki (b∗ (bj )) = bji k m m T t (c∗ )(bj ) = (c∗ ◦ T )(bj ) = c∗ ( i i i k=1 akj ck ) = k=1 akj c∗ (ck ) = aij i e quindi B = At . rgT = rgT t . 3. W sono spazi vettoriali sul campo K e T ∈ Hom(V. C una base di W e T ∈ Hom(V. Teorema 8. 2. . Consiste nel provare direttamente due delle inclusioni dei primi due punti. . Siano B una base di V . C B Allora. W ) la trasposta di T ` la funzione e T t : W ∗ −→ V ∗ ` definita da T t (β) = β ◦ T . per ogni i = 1. E facile controllare che T t ∈ Hom(W ∗ . . Sia n = dim V. Poniamo n = dim V = dim V ∗ . m e per ogni j = 1. m = dim W. W ) abbiamo i sottospazi vettoriali ImT t e (KerT )⊥ di V ∗ e (ImT )⊥ e KerT t di W ∗ . e poi nell’ottenere le altre ed il terzo punto per motivi di dimensione.Se V. m = dim W = dim W ∗ e cominciamo . . . . W ) allora ∗ MC ∗ (T t ) = (MB (T ))t C B Dimostrazione. Nelle condizioni appena descritte valgono le seguenti uguaglianze: 1. B = MC ∗ (T t ). . ImT t = (KerT )⊥ .

Se α ∈ ImT t esiste β ∈ W ∗ tale che α = T t (β) = β ◦ T, ed allora, per ogni v ∈ KerT avremo α(v) = β(T (v)) = β(0) = 0. Quindi ImT t ⊆ (KerT )⊥ , e, in particolare dim ImT t ≤ dim(KerT )⊥ . Se β ∈ KerT t allora 0 = T t (β) = β ◦ T ; per ogni w ∈ Im(T ) esiste v ∈ V tale che T (v) = w e quindi β(w) = β(T (v)) = (β ◦ T )(v) = 0(v) = 0. Quindi KerT t ⊆ (ImT )⊥ , e, in particolare dim KerT t ≤ dim(ImT )⊥ . Infine dim ImT t ≤ dim(KerT )⊥ = n − dim KerT = dim ImT = m − dim(ImT )⊥ ≤ m − dim KerT t = dim ImT t , dove le uguaglianze indicate con ∗∗ sono dovute al teorema nullit`+rango e a quelle segnate con ∗ sono motivate nella proposizione 18. Quindi tutte le disuguaglianze che compaiono nella catena sono in realt` a uguaglianze ed il teorema ` dimostrato. e Corollario 3. Siano m, n numeri naturali positivi e A ∈ M(m×n, K) allora rgR (A) = rgC (A) Dimostrazione. Come nella dimostrazione del corollario 2, scegliamo uno spazio vettoriale V di dimensione n e una sua base B, uno spazio vettoriale W di dimensione m e una sua base C e sia T ∈ Hom(V, W ) l’unica applicazione ∗ lineare tale che MB (T ) = A. Allora MC ∗ (T t ) = At e dunque C B rgC (A) = rgT = rgT t = rgC (At ) = rgR (A).
∗∗ ∗ ∗∗ ∗

3.3

Spazio biduale

Niente ci impedisce, avendo uno spazio vettoriale V di dimensione n di prendere il duale del suo duale. Tale spazio vettoriale, ancora di dimensione n, ` chiamato lo spazio biduale di V e indicato con V ∗∗ , naturalmente e V ∗∗ = Hom(V ∗ , K) = Hom(Hom(V, K), K), equipaggiato con le opportune operazioni.

` E fin troppo naturale definire un’applicazione, evidentemente lineare, σ : V −→ V ∗∗ mediante σ(v)(α) = α(v). In realt` σ ` un isomorfismo; per a e motivi di dimensione ci basta controllare che ` iniettiva, il che ammonta a e dire che, per ogni 0 = v ∈ V , esiste α ∈ V ∗ tale che α(v) = 0: facile, basta prendere una base B di V con b1 = v e poi scegliere α = b∗ . 1 Proposizione 20. Sia U un sottospazio vettoriale di V . • σ(U ) = U ⊥⊥ . • u ∈ U ⇔ α(u) = 0, ∀α ∈ U ⊥ . Dimostrazione. • Per ogni u ∈ U per ogni α ∈ U ⊥ abbiamo che α(u) = 0 e quindi σ(u) ∈ U ⊥⊥ , cio` σ(U ) ⊆ U ⊥⊥ , e poi dim σ(U ) = dim U = e n − (dim U ⊥ ) = n − (n − dim(U ⊥⊥ )) = dim(U ⊥⊥ ). • u ∈ U ⇔ σ(u) ∈ σ(U ) = U ⊥⊥ ⇔ ∀α ∈ U ⊥ , α(u) = 0.

3.4

Equazioni cartesiane di un sottospazio vettoriale

Di conseguenza, se U V e (α1 , . . . , αq ) genera U ⊥ (notiamo che deve essere q ≥ n − dim U ) avremo che u ∈ U ⇔ αj (u) = 0, ∀j = 1, . . . , q. Se B = (b1 , . . . , bn ) ` una base di V, u = n xi bi avremo che u ∈ U ⇔ 0 = e i=1 (a1 , . . . , an )(xi , . . . , xn )t = α(u), ∀α = n ai b∗ ∈ U ⊥ . i j=1 Quindi se scriviamo ogni αj = n aij b∗ avremo che u ∈ U se e solo se i i=1 (x1 . . . . , xn )t ` soluzione del sistema omogeneo e

  a11 x1 + . . .    a21 x1 + . . . . . . . .  . . .   .  a x + ... q1 1

+ a1n xn = 0 + a2n xn = 0 . . . + . = . . + aqn xn = 0

Ecco l’ equazione cartesiana di U rispetto alla base B. Ci assicura che v ∈ U se e solo se le sue coordinate sono soluzioni di un opportuno sistema omogeneo.

Capitolo 4 Diagonalizzazione
4.1 Determinanti

In tutta questa sezione parleremo di matrici quadrate cio` appartenenti a e M(n × n; K); una matrice del genere ` detta singolare se il suo rango ` e e minore di n. Useremo la seguente notazione: se A ∈ M(n × n; K) scriveremo A = (A1 , . . . , An ). Esiste uno strumento che permette, attraverso un calcolo facile fatto soltanto di somme e prodotti di elementi di K, di rispondere a una sola domanda, ma decisiva: quand’` che una matrice quadrata ha le colonne (e quindi e le righe) linearmente indipendenti? (cio` ` non singolare?) ee Teorema 9. Per ogni naturale positivo n esiste un’unica funzione det : M(n × n; K) −→ K detta determinante che gode delle seguenti propriet`: a d1 tenendo fisse tutte le colonne meno una det ` un’applicazione lineare: e cio`, per ogni i = 1, . . . , n e a) det(A1 , . . . , Ai−1 , Ai + B i , Ai+1 , . . . , An ) = det(A1 , . . . , Ai−1 , Ai , Ai+1 , . . . , An )+ det(A1 , . . . , Ai−1 , B i , Ai+1 , . . . , An ) b) det(A1 , . . . , Ai−1 , λAi , Ai+1 , . . . , An ) = λ det(A1 , . . . , Ai−1 , Ai , Ai+1 , . . . , An )

Aj . An ) = det(A1 . . . . . Ai . . K) ` del tipo A = (a) dove a ∈ K. . . . . . La dimostrazione esula dai propositi di queste note. . . . . . . . . Ai . e la secon- La prima colonna pu` essere scritta come a o da come b 1 +d 0 determinante avremo a b c d 1 ab det 0 1 ad det 0 det = a det 1 0 0 1 0 1 . . . . . . Ai . . . cerchiamo piuttosto di convincerci che le cose stanno proprio cos` esaminiamo il caso in cui ı: n = 1 : una matrice A ∈ M(1 × 1. allora. . . n} tali che Ai = Aj allora e det(A1 . . . .d2 Se la matrice ha due colonne uguali allora il suo determinante vale 0 cio`. Aj . . . Aj . . . . . . . . Prendiamo n = 2 e sia A ∈ M(2 × 2. . . Aj + Ai . . . Aj . . . . . . . An ) = det(A1 . Aj +Aj . . . An ) + det(A1 . per cui. K) cio` e A= a b c d 1 0 +c 0 1 . . . . . An )+det(A1 . . usando le propriet` caratterizzanti il a 1 b 0 d 1 + ad det 0 0 + cb det 1 + c det 0 1 1 0 0 b 1 d = 0 1 1 0 + cd det 0 0 1 1 = + cb det = ad − bc. . An ) = 0 + det(A1 . . . Ai . . . . . se esistono i < j ∈ {1. . . . . Aj . . . Ai . infatti 0 = det(A1 . . . . . Notiamo soltanto che se in una matrice si scambiano due colonne allora il determinante cambia di segno. . Aj . Ai . . . An ) + 0. Ai . . . . . . . Aj . . An ) = 0 d3 det(I) = 1. . e usando d1 e d3 abbamo che det(A) = a det((1)) = a. . . . . . Aj +Aj . . . . . . Aj . An ) + det(A1 . . . . . . . Ai . . . . . . . . Ai + Aj . . An )+ det(A1 . . . . . . . . . . . . Il determinante delle matrici n × n si calcola supponendo di conoscere quello delle matrici (n − 1) × (n − 1) secondo la regola che segue: si sceglie a . An ) + det(A1 . . . . . .

. . Se rg(A) = n allora A ` invertibile e e 1 = det(I) = det(AA−1 ) = det(A) det(A−1 ) e quindi det(A) = 0. (formula di Binet). . A 1 n−1 . tutto di guadagnato) e poi. possiamo supporre che sia n−1 An = s=1 λs As . K) Dimostrazione. 2. per ogni i = 1. . .d2. An−1 . . Siccome e il determinante cambia solo segno quando si scambiano le colonne. s=1 λs A ) = s=1 s λs det(A1 . In particolare la seconda propriet` ci assicura che tutto quanto ` stato detto a e in questa sezione pu` essere ripetuto scambiando tra loro le parole righe e o colonne. ⇒ det(A) = 0 ⇔ rg(A) < n. diciamo la j−esima (se ha dentro tanti zeri. As ) e quest’ultimo numero ` la somma di n − 1 addendi tutti uguali a zero in e quanto determinanti di matrici con due colonne uguali. .piacere una colonna. n si chiama Aij la matrice (n − 1) × (n − 1) ottenuta da A cancellando la j− esima riga e la i− esima colonna: poi si calcola n det(A) = i=1 (−1)i+j aij det(Aij ). Qualcuno ha verificato per noi che la funzione cos` definita soddisfa le regole ı d1. ⇐ Supponiamo che rg(A) < n. det(At ) = det(A). Ma il vero motivo per cui vale la pena di calcolare un determinante ` il seguente e Teorema 10. . . Le propriet` rilevanti del determinante sono a 1. e allora una di loro ` combinazione lineare delle altre. det(AB) = det(A) det(B). . Usando la propriet` d1 si ha che a n−1 n−1 det(A) = det(A . cio` le colonne di A sono linearmente e dipendenti.d3. . . ∀A ∈ M(n × n. .

Osserviamo che 0 ` un autovalore se e solo se KerT = {0}. . Consideriamo la B funzione PA : K −→ K definita da   t − a11 −a12 . . . in caso affermativo. Il motivo della definizione ` che.. cio` degli elementi di Hom(V. λi ` l’autovalore di bi e dim V = n allora e   λ1 0 . −a2n    PA (t) = det(tI − A) = det   . cio` se v ∈ Ker(λ idV − T ). scoprire se ` diagonalizzabile a e e. . . . Definizione 22. B una base di V e sia A = MB (T ). . e Definizione 23.. . Si dice che uno scalare λ ` un autovalore di T se esiste un e vettore v = 0 tale che T (v) = λv. Il nostro problema sar`. Un operatore T ∈ Hom(V.4. . . 0    MB (T ) =  . . se B ` una base formata da autovettori e e di T . . . Sia T ∈ Hom(V. −a1n  −a21 t − a22 . . Prima di tutto si devono cercare tutti gli autovalori del nostro operatore. in particolare . . . . cio` T non ` e e e iniettivo.   . 0 0 . . −an1 −an2 . dato un operatore T su V e cercheremo una base B per V in modo che la matrice MB (T ) si presenti in B una forma particolarmente maneggevole. . . Definizione 24. . dato un operatore. V ).  B . . V ). Si dice che un vettore v = 0 ` un autovettore di T se esiste e uno scalare λ tale che T (v) = λv. . . t − ann . . . .. V ) ` detto diagonalizzabile se e esiste una base di V costituita interamente da autovettori. di trovare una base formata da autovettori. Viceversa se MB (T ) ` diagonale allora e B B tutti gli elementi di B sono autovettori. 0  0 λ2 . Pi` in generale λ ` un autovalore se e solo se l’operatore λ idV − T u e non ` iniettivo. . ∀bi ∈ B. λn e e Cio` MB (T ) ` una matrice diagonale. Tale λ ` detto e e l’ autovalore di v.   .2 Diagonalizzazione In questa sezione ci occuperemo di operatori su uno spazio vettoriale V.

come abbiamo visto dipende solo dall’operatore T ` detto polinomio caratteristico dell’operatore T e indicato e con il simbolo PT (t). B. e Naturalmente PA (t) dipende dall’operatore T e. A = MB (T ) e B B = MC (T ). e Dimostrazione. Proposizione 22. Ricordiamo qualche propriet` dei polinomi con cui la lettrice sar` certaa a mente in buona confidenza: questo richiamo ` tuttavia opportuno almeno e per fissare la notazione. R(t) ∈ K[t] tali che P (t) = S(t)Q(t) + R(t) . ma non ` cos` e ı: Proposizione 21. S(t) = 0 ∈ K[t] allora esistono e sono unici due polinomi Q(t). per il punto 2 del teorema 7 avremo B che B = P −1 AP e le propriet` del prodotto di matrici ci permettono di a affermare che. che. ad occhio. il coefficiente di tn ` 1 e il e e n termine noto ` PA (0) = det(−A) = (−1) det(A). cio` 0 = det(λI − A) = e e PA (λ) = PT (λ). Siano T ∈ Hom(V. B questa condizione ` equivalente a rg(λI − A) < n. visto che λI − A = MB (λidV − T ). e. C basi di V. si pu` anche dividere per un polio nomio non nullo. Allora le funzioni PA (t) e PB (t) coincidono. avremo che λ ` B un autovalore di T se e solo se l’operatore λidV −T non ` iniettivo. Sia B una base di V e poniamo A = MB (T ). Definizione 25. due polinomi possono essere sommati e moltiplicati. per la precisione: siano P (t). V ). Gli autovalori di T sono esattamente tutte le radici del polinomio PT (t). C Dimostrazione. per ogni t ∈ K : PB (t) = det(t I − B) = det(t P −1 IP − P −1 AP ) = det(P −1 (tIP − AP )) = det(P −1 (tI − A)P ) = det(P −1 ) det(tI − A) det(P ) = det(P −1 ) det(P ) det(tI − A) = det(P −1 P ) det(tI − A) = det I det(tI − A) = PA (t). L’insieme di tutti i polinomi viene indicato con il simbolo K[t]. Il polinomio PA (t). ci si potrebbe aspettare che dipenda anche dalla scelta della base che si usa per trasformare T in una matrice. Ma questo e avviene se e solo se rg(λidV − T ) < n. Poniamo P = MC (idV ).La funzione PA (t) ` un polinomio di grado n.

. Possiamo calcolare il polinomio caratteristico usando una qualsiasi base per trasformare T in una matrice. . . .a. . . che ` definito come la lettrice sa bene per tutti e soli i polinomi e non nulli. Proposizione 23. . a1n  0 λ . n = dim V e sia (b1 . . Inoltre se λ ` un autovalore di T il sottospazio Ker(λ idV − T ) = {v ∈ e V tali che T (v) = λv} ` chiamato l’ autospazio di λ. . Il caso pi` interessante e u si verifica quando S(t) ` del tipo t − α.(λ).g.g. a2n  .  . V ) ha e senso parlare della sua molteplicit` algebrica pensando λ come radice del a polinomio caratteristico. . . . . . . . . . . .   . .    . .a. . . In particolare. R(t) che ` chiamato il resto della divisione di P (t) per S(t). 0 a2(p+1)  .(λ) ≤ m. e indicato con il simbolo e Vλ o Vλ. allora ∂R(t) < ∂S(t). se λ ` un autovalore dell’operatore T ∈ Hom(V.. . . procediamo in questo modo: siano p = m. 0 a(p+1)(p+1) . . . . cio` se e esiste un polinomio Q(t) tale che P (t) = (t − α)m Q(t) e Q(α) = 0.  . 0 0 .a. dove con ∂ si indica il grado di un polinomio. . . . .  . λ ap(p+1)     0 0 . . .(λ). .(0) = 1 < 3 = ∂P (t). per esempio il polinomio P (t) = t + t che ha solo la radice 0 e m. Gli elementi di Vλ sono a il vettore nullo e tutti gli autovettori che fanno capo a λ. . bp ) una base di Vλ ed estendiamola a a una base B di V. .g. In tal caso e si ha che P (t) ` divisibile per t − α se e solo se P (α) = 0. . . Si dice che la radice α del polinomio non nullo P (t) ha molteplicit` a m m+1 algebrica m se P (t) ` divisibile per (t − α) ma non per (t − α) e . . Se λ ` un autovalore dell’operatore T allora e m.(λ). ann . apn A =  0 0 .(α). .  . . . . Dimostrazione. . la sua dimensione si chiama molteplicit` geometrica di λ e si indica con m. . 0 an(p+1) . . La matrice A = MB (T ) sar` dunque del tipo B   λ 0 . . Naturalmente la somma di tutte le molteplicit` algebriche di tutte le a radici di un polinomio non supera il suo grado. . . . . cio` α ` una radice e e e di P (t). .T se sussiste pericolo di confusione. . se R(t) = 0. a(p+1)n   . 0 a1(p+1) . Questo numero m viene indicato con il simbolo m. . Se ` il e e polinomio nullo si dice che P (t) ` divisibile per S(t). . e ci sono dei casi in cui ` e 3 minore.  .e. in particolare di grado 1.

che la a upla ordinata B = (b11 . . . . . . .. . 0  0  .  .. k ∃ui ∈ Ui tale che v = i=1 i=1 ui } La somma dei sottospazi U1 . 0 −a1(p+1) −a2(p+1) . . ... . u Definizione 26. . .a. . k poniamo ni = dim Ui e sia Bi = (bi1 . . bk1 . ma. Per ogni i = 1. Sia V uno spazio vettoriale. . .per cui il polinomio caratteristico sar` a  t−λ 0 . . . . . Chiamando B la matrice quadrata (n−p)×(n−p) ottenuta usando le ultime righe e colonne di A e sviluppando il determinante di ottiene PT (t) = (t − λ)p det(tI − B) da cui segue che p ≤ m. . . . . . t − ann            −ap(p+1) . .. Se la somma ` diretta si usa la notazione i=1 Ui . . Uk ` il sottospazio di V dato da e k k Ui = {v tali che ∀i = 1. .  .. ma niente ci impedisce di ripetere la definizione quando ne abbiamo di pi`. . . t − λ det(tI−A) = det  0  0 . . Non e esiste una formula di Grassmann per la somma di tre o pi` sottospazi. −an(p+1) . .(λ). . ∀i = 1. ... .. . bini ) una base di Ui .. Uk ` detta diretta se l’unico modo di e e ottenere il vettore nullo nella forma v = k ui con ui ∈ Ui . . . . . b1n1 . La nostra tesi seguir` dal fatto. u se la somma ` diretta allora dim k Ui = k dim Ui . la somma di U1 . . ∀i. . . . La dimostrazione. t − a(p+1)(p+1) . . . . . . .. . che proveremo. 0 0 . . . 0  0 t − λ .. . Uk siano sottospazi vettoriali di V . . U1 . . −a1n −a2n . . .  . . e i=1 i=1 concettualmente non difficile. . k ` i=1 k di prendere ui = 0.. .. .. . . . . . bknk ) k i=1 ni - . . Abbiamo parlato di somma di due sottospazi..  0 . . 0  . .. .. . . −apn −a(p+1)n .. . . . ` complicata da una notazione necessariamente e pesante: eccola.

∀j = a 1. + xk1 bk1 + . x1. Sia µ1 v1 + .. . ni . k .3) (4. . . Se k = 1 abbiamo un solo vettore. Siano e x11 . Siano λ1 . xk1 . . . . k. .. . . .. . visto che v1 .` una base di k Ui . vk−1 sono linearmente indipendenti per l’ipotesi induttiva. che ∀i = 1.2) (4. per ogni i = 1. (λk − λi )µi = 0 e. . . . (λk − λk−1 )µk−1 vk−1 = 0 − 0 = 0 da cui segue. .n1 . . e quindi linearmente indipendente. Dato che e i vettori in Bi sono linearmente indipendenti si avr` che ∀i = 1. . . . . Avremo allora che k vi = j=1 i=1 0 e. . . . . Applicando T all’equazione (4. . + x1n1 b1n1 + . . Sottraendo (4. . . . . . non nullo in quanto autovettore. . Infine.2) si ha (λk − λ1 )µ1 v1 + .1) si ottiene λ1 µ1 v1 + . . . Allora v1 . . . Si effettua per induzione sul numero k.. . . . Supponiamo ora che la proposizione sia vera per k − 1 autovettori (ipotesi induttiva) e dimostriamola quando ne abbiamo k. λk autovalori distinti di un operatore T ∈ Hom(V. . k . k − 1. . ∀i = 1. + λk µk−1 vk−1 + λk µk vk = λk 0 = 0. V ). abbiamo che µi = 0 ∀i = 1.nk degli scalari tali che 0 = x11 b11 + . k sia vi un autovettore in Vλi . . . xij = 0. . Dimostrazione. k − 1. . proviamo e i=1 dunque ` linearmente indipendente. . . . vk sono linearmente indipendenti. + µk−1 vk−1 + µk vk = 0 Moltiplicando questa equazione per λk otteniamo λk µ1 v1 + . troviamo che vi = 0 ∀i = 1. + λk−1 µk−1 vk−1 + λk µk vk = T (0) = 0. . + . .1) in cui vk = 0.1) . . + xknk bknk e poniamo.3) da (4. + . visto che la somma ` diretta. . si ha che anche µk = 0. . Proposizione 24. . Che B generi la somma si vede facilmente. . . xk. . dato che λk − λi = 0. . . . vi = ni xij bij ∈ Ui . (4.. . sostituendo quest’ultimo risultato in (4. .. . .

per ogni i = 1. e contraddice la proposizione appena dimostrata.a. • λ∈A(T ) Bλ = B. 1) ⇒ 3). Supponiamo per assurdo che i=1 s ≥ 1 di essi siano non nulli. . con vi = 0 ∀i = 1. . Sia B una base di V costituita da autovettori e. Le seguenti condizioni sono equivalenti: 1. . Siano λ1 . s.(λ). Cambiando se necessario l’ordine degli addendi possiamo supporre che sia s vi = 0. . .(λ) = dim λ∈A(T ) Vλ ≤ dim V = n. • Se indichiamo con (Bλ ) il numero degli elementi di Bλ abbiamo che (Bλ ) ≤ m. . Da qui si deduce subito che n = (B) = λ∈A(T ) (Bλ ) ≤ λ∈A(T ) m. e Dimostrazione. cio` raggruppiamo insieme gli elementi di B che hanno e lo stesso autovalore.g.(λ) = n e ∀λ ∈ A(T ) m.a. pur e avendo tutti i coefficienti uguali a 1. 3. k siano vi ∈ Vλi tali che k vi = 0. . Le seguenti osservazioni sono ovvie • Se λ = µ allora Bλ ∩ Bµ = ∅. . .g. La somma di autospazi relativi ad autovalori distinti ` diretta. Dimostrazione. Sia T un operatore sullo spazio vettoriale V di dimensione n e sia A(T ) l’insieme di tutti i suoi autovalori. per ogni λ ∈ A(T ) poniamo Bλ = B ∩ Vλ .a. λk gli autovalori in questione e. λ∈A(T ) λ∈A(T ) m.(λ) in quanto sono vettori estratti da una base e quindi linearmente indipendenti.Corollario 4. T ` diagonalizzabile. e 2.g. Vλ = V. . Ma questa i=1 ` una combinazione lineare di autovettori che fornisce il vettore nullo.(λ) ≥ λ∈A(T ) m. Cominciamo con il premettere una successione di diseguaglianze che abbiamo provato in questa sezione: n = ∂PT (t) ≥ λ∈A(T ) m. .g. . Teorema 11.(λ) = dim λ∈A(T ) Vλ .(λ) = m.

Ne e e segue che λ∈A(T ) Vλ = V.(λ) = m. ed ` chiaramente e e costituita da autovettori.da cui si ha subito la tesi. in particolare. pu` essere verificata solo o quando ∀λ ∈ A(T ).a. cio` dim λ∈A(T ) Vλ = n = dim V. 3) ⇒ 1). abbiamo gi` a visto che B = λ∈A(T ) Bλ ` una base per λ∈A(T ) Vλ = V. m.(λ) e quindi vale la 2). . Per ogni λ ∈ A(T ) prendiamo una base Bλ di Vλ . 3) ⇒ 2) Se vale la condizione 3) allora l’ultima disuguaglianza che abbiamo premesso a questa dimostrazione ` un’uguaglianza. e quindi anche e le altre due lo sono. La seconda.g. 2) ⇒ 3) Se vale la 2) allora le prime due disuguaglianze sono delle uguaglianze e quindi anche la terza lo `.

w) = vAwt . ∀λ ∈ K f (v. analogamente f (v. w. . Le propriet` delle operazioni sulle a matrici ci dicono che f ` effettivamente una forma bilineare. w ∈ V f (v. questa matrice e viene indicata con il simbolo MB (f ). f . w) = 0. K) data da aij = f (bi . 0) = 0. . w ∈ V. w ∈ V f (v + v . w) = f (00. λw) = λf (v. bn ) ` una base per V e f ∈ Bil(V ) la matrice di f rispetto e a B ` la matrice A ∈ M(n × n. w) = 0f (0. w) B2 ∀v. w) = λf (v. . w) L’insieme di tutte le forma bilineari su V viene indicato con il simbolo Bil(V ). w) B3 ∀v. e Se B = (b1 . e Se f ∈ Bil(V ) allora f (0. K). w ∈ V. ` facile verificare che si tratta di un sottospazio vettoriale di KV ×V . w) + f (v . w) + f (v. w ) B4 ∀v. bj ). v . w + w ) = f (v. prendiamo V = K e definiamo la funzione V × V −→ K mediante f (v. Una forma bilineare su V ` e una funzione f : V × V −→ K che soddisfa le seguenti condizioni: B1 ∀v. Sia V uno spazio vettoriale. .Capitolo 5 Spazi euclidei 5. Un esempio importantissimo di forma bilineare pu` essere ottenuto come o n segue: Sia A ∈ M(n × n.1 Forme bilineari Definizione 27. ∀λ ∈ K f (λv. w) = f (v.

P = MB (idV ). . Se C ` un’altra base di e e C V. B = MC (f ).j=1 i. bi ) = 0 ∀i = 1.t=1 psi f (bs . per ogni w = n xi bi .Se v = n i=1 x i bi . bi ) = 0. K) M ` un isomorfismo. xn )A(y1 . Il nucleo sinistro di f il sottoinsieme KerS f = {v ∈ V tali che f (v. avremo i=1 n f (v. B. w) = f ( i=1 n xi bi . vedere che la funzione B Bil(V ) −→ M(n × n. w) = i=1 xi f (v. s=1 t=1 ptj bt ) = s. . yn )t . . w = n n j=1 yj bj avremo n n n f (v. bt )ptj = s. bj )yj = i. Definizione 28. Sia f ∈ Bil(V ).j=1 xi aij yj = (x1 . w) = i=1 n xi f (bi . . .t=1 psi ast ptj = (pt ap)ij e quindi le matrici A. n L’implicazione ⇒ ` ovvia. Viceversa se v ∈ V soddisfa quanto richiesto e allora. . . . j=1 y j bj ) = xi f (bi . w) = 0 ∀w ∈ V } mentre il nucleo destro di f ` e KerD f = {v ∈ V tali che f (w. P sono legate dalla formula B = P t AP. . cj ) = f ( n n s=1 psi bs . cj ) = n psi f (bs . Si vede molto facilmente che sono entrambi sottospazi di V. Se B ` una base di V possiamo controllare quanto segue: e v ∈ KerS f ⇔ f (v. w) = i=1 xi f (bi . . . cj ) = n s=1 psi f (bs . allora n n bij = f (ci . . ` E facile. e quindi dim Bil(V ) = (dim V )2 . . v) = 0 ∀w ∈ V }.

v) = 0 ∀i = 1. V ∗ ) −→ Bil(V ) mediante φ(T )(v. n. V ∗ ). le seguenti verifiche sono molto facili e lasciate alla lettrice: • Per ogni T ∈ Hom(V. • φ ` lineare. esso coincide con il rango di una qualunque matrice di f. n = 2 e A= 1 2 3 6 allora KerS f = L(3b1 − b2 ) mentre KerD f = L(2b1 − b2 ). . Dimostrazione. posto A = MB (f ). B una base di V. Cominciamo con il definire una funzione φ : Hom(V. Conviene procedere per una via indiretta che produce il risultato in maniera altamente spettacolare. w) = T (v)(w). e dunque i due nuclei sono diversi. Eppure Teorema 12. . xn )A = 0 e v ∈ KerD f ⇔ A(x1 . e dunque. . .Analogamente v ∈ KerD f ⇔ f (bi . . e • φ ` iniettiva. Siano V uno spazio vettoriale di dimensione n. v = n xi bi allora i=1 v ∈ KerS f ⇔ (x1 . visto che il suo dominio e codominio hanno la e stessa dimensione n2 . φ(T ) appartiene effettivamente a Bil(V ). . . e . xn )t = 0. ` un isomorfismo. . Da questo segue facilmente che. . Se prendiamo K = R. . f ∈ Bil(V ) e A = MB (f ) allora dim KerS f = n − rg(A) = dim KerD f Il numero n − dim KerS f = n − dim KerD f viene detto rango della forma bilineare f e indicato con rg(f ). . . in particolare suriettiva.

. visto che anche ψ ` suriettiva esiste S ∈ e Hom(V. e • ψ ` iniettiva. w) = 0 ∀w ∈ V ⇔ v ∈ KerS φ(T ) Definiamo poi ψ : Hom(V. A come nell’enunciato. per ogni i. . dim KerD f = dim KerD ψ(S) = dim KerS = n − dim ImS = n − rgA e la dimostrazione ` conclusa. in particolare suriettiva. n n n aij = φ(T )(bi . T ∈ Hom(V. V ∗ ) −→ Bil(V ) mediante φ(S)(v. adesso possiamo facilmente concludere la dimostrazione del e teorema: siano f. V ) tale che φ(T ) = f e. ψ(T ) appartiene effettivamente a Bil(V ). j = 1. j = 1. . . w) = T (w)(v). anche qui si vede subito che • Per ogni S ∈ Hom(V. V ∗ ). . V ∗ ). bj ) = T (bi )(bj ) = k=1 bki b∗ (bj ) = k k=1 bki (b∗ (bj )) = bji k Cio` B = At .Inoltre v ∈ KerT ⇔ T (v) = 0 ⇔ T (v)(w) = 0 ∀w ∈ V ⇔ φ(T )(v. n n n aij = ψ(S)(bi . e Anche qui si vede che KerS = KerD ψ(S). e dunque. bj ) = S(bj )(bi ) = k=1 ckjb∗ (bi ) k = k=1 ckj (b∗ (bi )) = cij k Cio` A = C. Sia poi S ∈ Hom(V. e . • ψ ` lineare. A = B MB (φ(T )) allora. A = MB (ψ(S)) allora. e B per ogni i. e poniamo B = MB∗ (T ). B. V ∗ ) tale che ψ(S) = f . siccome φ ` suriettiva esiste T ∈ e ∗ Hom(V. Sia B una base per V. . C = MB∗ (S). ` un isomorfismo. . ma allora dim KerS f = dim KerS φ(T ) = dim KerT = n−dim ImT = n−rgAt = n−rg(A). visto che il suo dominio e codominio hanno la e stessa dimensione n2 . . V ∗ ).

. una matrice quadrata A si dice simmetrica se A = At . 2λ = λ + λ = 0. f ∈ Bil(V ). . . . e 2. . . . . . yn )t )t = . xn )A(y1 . xn )A(y1 . e Dimostrazione. . v) = 0). e ma ` equivalente. ` 2) ⇒ 3) E ovvio. . fino alla fine di queste note. f ` simmetrica. . v). equivalentemente. w) = (x1 . w) = f (w. w = n yj bj e osserviaj=1 i=1 mo che ogni matrice 1 × 1 ` simmetrica. . una limitazione sul campo K: per la precisione richiediamo che ∀0 = λ ∈ K. e 2. . ci ) = bji . f ` simmetrica. La simmetria di una forma bilineare pu` essere facilmente controllata guardando una sua o matrice rispetto a qualunque base: Proposizione 25. (y1 . . . . Sia V uno spazio vettoriale di dimensione n. . . . Sia f ∈ Bil(V ). cio` K non ha caratteristica 2. xn )t = (y1 . Per ogni base C di V la matrice MC (f ) ` simmetrica.Una forma bilineare f ∈ Bil(V ) si dice non degenere se KerS f = {0} o. . . . . yn )t = ((x1 . KerD f = {0}. cj ) = f (cj . . w) = 0 (oppure. e 3. e Questa richiesta non ` soddisfatta sul campo Z2 ma lo ` su Q o R. le seguenti condizioni sono equivalenti: 1. naturalmente questa condizione pu` essere o facilmente verificata prendendo una matrice A che rappresenti f e controllando se ha rango massimo. . cio` MB (f ) ` e e diagonale. yn )A(x1 . allora. Esiste una base B di V tale che la matrice MB (f ) ` simmetrica. . le seguenti condizioni sono equivalenti 1. . v). . . 3) ⇒ 1) Siano A = MB (f ). . w ∈ V f (v. yn )At (x1 . Ovviamente f ` non degenere se per ogni 0 = v ∈ V ∃w ∈ V tale che f (v. xn )t = f (w. . bj ) = 0 se i = j. n abbiamo bij = f (ci . Esiste una base B di V tale che f (bi . e Una forma bilineare f ∈ Bil(V ) si dice simmetrica se ∀v. per ogni i. . . v = n xi bi . D’ora in poi imponiamo. Avremo e f (v. e e Teorema 13. 1) ⇒ 2) Sia B = MC (f ). per esempio vedendo che det(A) = 0. . j = 1. . per ogni 0 = v ∈ V ∃w ∈ V tale che f (w. .

. bj ) = f (bj . • V = L(b1 )+W . v) = 0 poniamo b1 = v se invece f (v. per ogni v ∈ V esistono λ ∈ K. una forma bilineare ` simmetrica se e solo se ` diagonalizzabile. e . Si vede immediatamente che W ` un sottospazio di V. bj ) = 0 ∀i = j = 2. . allora 0 = f (v. w) = 0. b1 )f (b1 . Se f (v. . bn ) di V ` quanto andavamo cercando in quanto. Se f ` la fore ma bilineare nulla. bn ) tale che g(bi . w) + f (w. . n. . per l’ipotesi induttiva ha una e base (b2 . w) = 0 e allora poniamo b1 = v + w. b1 ) = 0. . La dimostrazione ` conclusa. . Supponiamo dunque n > 1 e che il teorema e sia vero su tutti gli spazi di dimensione n − 1. f (v. ` facile verificare che scegliendo λ = f (v. sia g la restrizione di f a W × W (per un leggero abuso la si chiama semplicemente restrizione di f a W ). evidentemente g ` una forma bilineare simmetrica su W . . w ∈ V tali che f (v. v + w) = 2f (v. la base (b1 . e e Dimostrazione. b1 )−1 e e w = v − λb1 si vince. . 1 ⇒ 2 La dimostrazione si effettua per induzione su n = dim V. cio`. v) = 0 = f (w. w). che. b1 ) e. . Alla luce dalla e proposizione 6 dobbiamo provare che • L(b1 ) ∩ W = {0} sia v = λb1 ∈ L(b1 ) tale che v ∈ W . cio` esistono v. w) = 0 poniamo b1 = w se. w) la formula di polarizzaione ci garantisce che f (v + w. siccome f (b1 . b1 ) = λf (b1 . . . Quindi dim W = n − 1. f (b1 . cio` ogni forma bilineare e simmetrica su uno spazio di dimensione n − 1 ` diagonalizzabile (ipotesi e induttiva). Se n = 1 la conclusione ` banalmente vera. siccome e ogni matrice diagonale ` simmetrica la conclusione segue dalla proposizione e precedente. v) = 0 ma f (w. b1 ) = 0 dato che bj ∈ W. . n. b1 ) = 0 dalle propriet` a elementari dei campi segue che λ = 0 e quindi v = 0. b2 . In tutti i casi siamo riusciti a trovare un vettore b1 ∈ V tale che f (b1 .In parole. Poniamo W = {v ∈ V tali che f (v. b1 ) = 0}. v) + 2f (v. . Suppoe niamo allora che non lo sia. 2 ⇒ 1 Sia B una base tale che MB (f ) ` diagonale. per ogni j = e 2. Sia dim V = n e f ∈ Bil(V ) una forma bilineare simmetrica. w ∈ W tali che v = e λb1 + w. b1 ) = f (λb1 . v + w) = f (v. certamente ` diagonalizzabile (ogni base va bene). infine. Dalla e simmetria di f deduciamo facilmente la seguente formula di polarizzazione f (v + w. ma affermo che V = L(b1 ) ⊕ W. . . bj ) = f (bi .

fino ad avviso contrario. cio` MB (f ) ` diagonale. . . −1 sui seguenti q posti e 0 nei rimanenti. K). bj ) = 0 quando i = j. K) non singolare tale che P t AP ` diagonale se e solo se A ` simmetrica. . . ponendo ci =          bi se i = 1. . l’ordine in B possiamo trovare un numero naturale p = 0. bi ) bi se i = p + 1. f una forma bilineare simmetrica su V . . cp +1 . A questo punto. Cambiando. Sia A ∈ M(n × n. per il teorema 3 che p ≤ p . . . . q = q . . . n. p f (bi . cn ) ` linearmente indipendente. . (p. Teorema 14 (legge di inerzia). p + q e f (bi . bi ) = 0 se i = p + q + 1. . Certamente p+q = p +q in quanto coincidono entrambi con il rango di f . q) la segnatura di f rispetto a B. da cui segue. Dimostrazione. . . Allora p = p . Affermo che la p + n − p -upla ordinata (b1 . . . . . In realt` la segnatura dipende soltanto dalla forma bilineare e non dalla a base che si sceglie. . Siano V uno spazio vettoriale reale di dimensione n. se necessario. . n − p tale che f (bi . esiste P ∈ M(n × n.Corollario 5. . . q ) la segnatura di f rispetto a C. bi ) bi se i = p + q + 1. p + q −f (bi . sia B una base tale che f (bi . . . . . n Si ha che C ` una base f −adattata. n tale che f (bi . (p . Il a vantaggio rispetto ad un campo qualunque ` che ha senso parlare di scalari e positivi (anche in Q c’` questa possibilit`) e che si pu` estrarre la radice e a o quadrata dei numeri reali positivi (e questo non si pu` fare sui razionali). . sulla diagonale e e e principale ha 1 sui primi p posti. bp . . o Supponiamo dunque che V sia uno spazio vettoriale di dimensione n su R (brevemente uno spazio vettoriale reale) e che f sia una forma bilineare simmetrica su V. . p e un numero naturale q = 0. bi ) < 0 se i = p + 1. . . B. e e D’ora in poi. . . il campo degli scalari sar` R. . bi ) > 0 se i = 1. . q) viene detta segnatura di f (rispetto alla base f -adattata C). scame biando tra loro le basi si ha l’altra disuguaglianza e quindi p = p che prova la tesi. . C basi f − adattate di V . . La coppia di numeri naturali (p.

. . . inoltre n n p +q 2 yj f (cj . v) = i.k=p +1 yj yk f (cj . n). q). e • semidefinita positiva se la sua segnatura ` (p. .3) Siccome f (v.1) yj cj (5. cio` se la sua matrice e e rispetto ad una qualunque base f − adattata ` la matrice −I.3 si ottiene che entrambe le disuguaglianze sono in realt` degli uguale. ck ) = = i=p +1 2 −yj ≤ 0 (5.2) e poniamo v = p i=1 xi bi ottenendo di conseguenza −v = p p p f (v. Sostituendo nell’equazione 5. cj ) i=p +1 f (−v. ∀i = p + 1. ∀i = 1. . p e dunque v = 0. p. .Supponiamo dunque di avere il vettore nullo come combinazione lineare dei vettori citati: cio` e p n x i bi + i=1 j=p +1 y j cj = 0 n j=p +1 (5.k=1 xi xk f (bi . cio` se e e la sua matrice rispetto ad una qualunque base f − adattata ` la matrice e identica I. . 0). ∀i = 1. e • semidefinita negativa se la sua segnatura ` (0. 0). con p ≤ n. . −v) = f (−v. . cn sono linearmente indipendenti. . . e . v) = (−1)2 f (−v. −v) = j. . a In particolare xi = 0. n in quanto i vettori cp +1 . con q ≤ n. .1 si trova che anche yj = 0. . • definita negativa se la sua segnatura ` (0. . Una forma bilineare simmetrica su uno spazio vettoriale reale di dimensione n ` detta e • definita positiva o prodotto scalare se la sua segnatura ` (n. bk ) = i=1 x2 f (bi . bi ) = i i=1 x2 ≥ 0 i e l’uguaglianza si verifica solamente se xi = 0.2 e 5. −v) confrontando le equazioni 5. .

. evidentemente Vs ` un sottospazio di V di e dimensione s e la matrice della restrizione a Vs della forma bilineare f rispetto alla base (b1 . n. T (w)) = f (v. det(s A) > 0. n definiamo la ı: s matrice A ∈ M(s × s. Ci occuperemo invece di prodotti scalari. v) = n n n 2 2 i=1 xi > 0. se vale questa condizione. i=1 xi f (bi . n sia Vs = L(b1 .5. bi ) = i. riferimento inerziale ogni sua base f − adattata e trasformazioni di Lorentz gli operatori su M che soddisfano f (T (v). e . B = MC (f ) e P = MC (idV ). . . bs ) ` proprio s A. n. . Sia B una base f -adattata di V. allora . w) ∀v. Dimostrazione. . . A malincuore dobbiamo abbandonare questo filone perch´ e altre scelte appaiono prioritarie. f ) dove M ` uno spazio vettoriale reale di dimensione e 4 e f ` una forma bilineare simmetrica su M di segnatura (3. 0). . f (bi . . . Sia B una base qualunque e A = MB (f ). Allora B = P t AP e det(B) = B det(P t ) det(A) det(P ) = det(A) det(P )2 da cui segue che det(A) e det(B) sono concordi (quando non sono nulli). Dimostrazione. f (v. cio` ogni e coppia ordinata (M. 1). C basi di V . .k=1 xi xk f (bi . Chiamano e eventi gli elementi di M . . Per ogni s = 1. A = MB (f ). Proposizione 26. . . bi ) = 1 e quindi f ha segnatura (n. ∀i = 1. w ∈ M. . . . . . bs ). f ` un prodotto scalare se e solo se e ∀s = 1. bk ) = Viceversa. in particolare se f ` un prodotto e scalare e C ` f -adattata allora B = I e quindi det(A) > 0.ma si pu` fare e o di meglio: se una forma bilineare simmetrica f sia un prodotto scalare pu` o essere visto eseguendo facili calcoli sulla matrice (simmetrica) A di f rispetto a una qualunque base: basta fare cos` per ogni s = 1. R) prendendo solo le prime s righe e s colonne (` e detta l’s− esimo minore di nord-ovest di A): Proposizione 27. v) > 0. . Se 0 = v ∈ V esiston no degli scalari non tutti nulli tali che v = i=1 xi bi ma allora f (v. B. Siano f una forma bilineare simmetrica su V . . . . . .2 Prodotti scalari I fisici trovano particolarmente interessante lo spazio di Minkowski. Una forma bilineare simmetrica f ∈ Bil(V ) ` un prodotto e scalare se e solo se ∀ 0 = v ∈ V.

g ` una forma bilineare e e simmetrica su W . per l’osservazione appena fatta. . . det(s A) > 0 e una e delle due implicazioni (disgraziatamente la meno utile) ` dimostrata. cj ) = 0 e quindi la matrice di f rispetto a C ` e . . . . cj ) = f (bn . e e Inoltre. b1 ). Siccome l’ipotesi induttiva ` piuttosto involuta vale la pena di ricordarla esplicitamente: essa e recita Se W ` uno spazio vettoriale di dimensione n − 1. cj ) − i=1 f (bn . . cn ). bn e L(c1 . ci )ci Siccome L(b1 . e Supponiamo dim V = n. s A ` anche l’s-esimo minore di nord-ovest e n−1 di A. . . det A > 0 significa dunque che f (b1 . . . .Supponiamo allora che f sia un prodotto scalare. per ogni j = 1. cn ) ` una base C di V . osserviamo che. . . . il fatto che tutti queste matrici abbiano determinante positivo e che dim Vn−1 = n − 1. cj ) = f (bn − i=1 n−1 f (bn . . . bn−1 ) = Vn−1 = L(c1 . ci )f (ci . . . e Supponiamo ora n > 1. . . . cio` e 0 se i = j 1 se i = j ∀i. b1 ) > 0. allora g ` un prodotto scalare su W . cj ) = Poniamo c n = bn − i=1 n−1 f (bn . . . . . . v) = λ2 f (b1 . ma allora. e quindi. . ci garantisce. con la notazione introdotta nell’enunciato. per s = 1. . ci )ci . . cio` che (c1 . . e Sia (c1 . cn−1 ) una base di Vn−1 adattata rispetto a tale forma. j = 1. che la proposizione sia vera su tutti gli spazi di dimensione n−1 e dimostriamola per quelli di dimensione n. tramite l’ipotesi induttiva. e L’altra deduzione proceder` per induzione sulla dimensione di V. . b1 ) > 0 e f ` effettivamente un prodotto scalare. . . la matrice della restrizione di f a Vn−1 . n − 1. n − 1 f (ci . che tale restrizione ` un prodotto scalare. . . v = λb1 con λ = 0 e dunque f (v. n − 1. per ogni 0 = v ∈ V. cj ) = f (bn . allora la sua restrizione a Vs lo ` ancora. C ` una base di W e B = MC (g) ha tutti i suoi n−1 minori e di nord-ovest con determinante positivo. Se dim V = a 1 allora A = (a) dove a = f (b1 . n−1 f (cn . . cj ) − f (bn . cn−1 ) ` facile vedere che L(b1 .

Per gestirci questa osservazione definiamo una funzione g : R −→ R mediante g(t) = v − tw 2 = v − tw. . . w ∈ V si ha che | v. La dimostrazione ` ovvia se w = 0. v ≥ 0. se la matrice di . . e Per esempio se V = Rn la forma bilineare data da n (x1 . . . ` un prodotto scalare su V. detto il prodotto scalare standard. . 0 . Dimostrazione. . La sua matrice e rispetto alla base standard ` la matrice identica I. cn ) > 0. . e e e Uno spazio euclideo ` una coppia ordinata (V... cn )      e quindi f ` un prodotto scalare se e solo se f (cn . . . e Proposizione 28 (disuguaglianza di Cauchy-Schwartz). . e Una base di V ` detta ortogonale per . ) dove V ` uno spazio e e vettoriale e .. . . ∀v.   B=  1 0 . w). w invece di f (v.. w sono linearmente dipendenti. (y1 . Se f ` un prodotto scalare si preferisce scrivere v. f (cn . supponiamo dunque che e w = 0 e osserviamo che v. e Se (V. -adattata. 0 0 . w | ≤ v w e vale l’eguaglianza se e solo se v.. w sono linearmente dipendenti se e solo se esiste λ ∈ R tale che v − λw = 0 o. Ovviamente avremo che v = 0 ⇔ v = 0. d’altra pare te f (cn . ) uno spazio euclideo. ed ` detta ortonormale se ` . . ) ` uno spazio euclideo e v ∈ V possiamo definire la norma di e v. rispetto e ad essa ` diagonale. . yn )t ` un prodotto scalare. . . . . . . Si v come v = dice che v ` unitario se v = 1. Sia (V. . . 0 . . equivalentemente v − λw 2 = 0. . xn )(y1 . yn ) = i=1 xi yi = (x1 . xn ). v − tw = w 2 t2 − 2 v. . 0 1 . . . . w t + v 2 . cn ) = det(B) che ` concorde con det(A) e quindi effettivamente ` e e positivo. . .

Sia (V. u ∈ V. Adesso basta calcolare 4 = v. La disuguaglianza appena provata ha una serie di importanti conseguenze: Proposizione 29. w ∈ V. v + w = v 2 + 2 v.Si tratta di un polinomio di secondo grado. Dimostrazione. La prima affermazione ` facilissima. d(v. w + w v 2 + 2 v w + w 2 = ( v + w )2 . w) = 0 ⇔ v = w. osserviamo che. w ∈ V. d(v. la sua validit` non viene alterata se eleviamo entrambi i membri al quadrato. v. ) uno spazio euclideo. w 2 − v 2 w 2. w) = d(w. • v+w ≤ v + w . cio` una funzione d : V × V −→ R che gode delle seguenti e propriet` a • ∀v. w) ≤ d(v. w sono linearmente dipendenti. w). ). w) = v − w definiamo una distanza. Proa cediamo al calcolo avvisando la lettrice che. w sono linearmente dipendenti. w. w ∈ V. La tesi si deduce con un ovvio passaggio algebrico seguito da un’estrazione di radice quadrata. useremo la disuguaglianza di Cauchy-Schwartz: v + w 2 = v + w. v). 2 ≤ Su uno spazio euclideo (V. per ogni t ∈ R. λ ∈ R. . . • ∀v. • ∀v. • ∀v. w ∈ V. g(t) ≥ 0 e esiste λ tale che g(λ) = 0 se e solo se v. Per quanto riguarda le e seconda. d(v. Il discriminante di questa funzione sar` dunque sempre ≤ 0 e vale l’uguaglianza a se e solo se v. u) + d(u. che si chiama disuguaglianza triangolare della norma. . ponendo d(v. ad un certo punto. w) ≥ 0. trattandosi di una disuguaglianza tra numeri reali non negativi. • λv = |λ| v . d(v.

w cos θ = . e Sappiamo gi` che esistono basi ortonormali di uno spazio euclideo. bi−1 ). . a Inoltre. ). . . . una volta ci trovata la base C con le propriet` conclamate. . . Cominciamo col definire c1 = b1 . . bn ) una base per lo spazio euclideo (V. ck = 0 i−1 bi . ci−1 con le propriet` richieste a a che. . ci ) = L(b1 . ci baster` definire di = a a ci per ottenere quanto enunciato al secondo punto. w = 0. a si pu` fare di meglio: o Teorema 15 (ortonormalizzazione di Gram-Schmidt). . . . . cj 2 . . . w ≤1 −1 ≤ v w e cos` possiamo definire l’ angolo tra v e w come quell’unico numero θ ∈ ı [0. . . . n. . . . . . . w = 0 la disuguaglianza di Cauchy-Schwartz si pu` o scrivere come v.L’ultima propriet` si chiama disuguaglianza triangolare della distanza. . n. . i − 1}. . Sia B = (b1 . . . Dimostrazione. . ci−1 ) = L(b1 . Ci basta provare la prima affermazione. infatti. allora • Esiste una base ortogonale C di V tale che ∀i = 1. bi ). . ricordiamo. supponendo di avere gi` trovato c1 . ma nessun altro vettore ` ortogonale a se stesso. . w ∈ V si dicono ortogonali se v. e poi procediamo per induzione: in altri termini. . . . . cj cj . v w Due vettori v. . sono: • L(c1 . bi ). . . . definiamo c i = bi − j=0 cj . anzi. . . il vettore nullo ` e ortogonale a ogni vettore. . L(c1 . π] tale che v. • Esiste una base ortonormale D di V tale che ∀i = 1. di ) = L(b1 . . L(d1 . se v = 0. . . • ∀j = k ∈ {1.

cj cj . bj = v. supponiamo e dunque che non sia cos` ı. . ) si ha che U ⊕ U ⊥ = V. bi bi ∈ U. . U ∩ U ⊥ = {0} perch´ solo il vettore nullo ` ortogonale a se stesso. i − 1. . . ck = cj 2 bi . e e Ci resta dunque da provare che. e Notiamo che. . Prendiamo una base ortonormale B = (b1 . . p. . . . per ogni v ∈ V riusciamo a trovare u ∈ U e w ∈ U ⊥ tali che v = u + w. bj = v. bj = v. p. . . bj = 0. . . . Dimostrazione. L’enunciato ` banalmente vero se U = {0}. ` facile controllare che si e tratta di un sottospazio di V ed ` chiamato il sottospazio ortogonale a U. . . bi bi . a Proposizione 30. bj − i=1 v. ck = 0. in particolare dim U ⊥ = dim V − dim U. . bp ) ` una base di U . . . . bj − p i=1 v.` E facilissimo vedere che L(c1 . se B = (b1 . cj cj . Se U V poniamo U ⊥ = {v ∈ V tali che v. . ck = bi − j=0 bi . Si tratta di un calcolo molto simile al e procedimento di Gram-Schmidt: p v − u. ck bi . . . . bi bi . bi = 0 ∀i = 1. Calcoliamo dunque e i−1 ci . bj − v. ci ) = L(b1 . . a questo punto ci basta verificare che w = v − u ∈ U ⊥ e cio` che w. bj = 0 ∀j = 1. . Per ogni sottospazio vettoriale U dello spazio euclideo (V. ck ck . . ck = bi . . cio´ l’insieme e di tutti i vettori ortogonali a tutti i vettori di U . − ck 2 E notiamo che la dimostrazione ci spiega come trovare le basi con le propriet` a desiderate. . bp ) di U e poi definiamo p u= i=1 v. bi ) e ci resta solo da provare che ci ` ortogonale a ck ∀k = 1. . u = 0 ∀u ∈ U }. ck − cj 2 i−1 j=0 bi . per verificare che v ∈ U ⊥ e ci baster` controllare che v.

. w) S2 ∀v. . Definizione 31. per ogni 0 = v ∈ V. w ∈ V. se v ∈ V. f (v. ` un prodotto hermitiano su e e n V . La matrice A soddisfa A = A . . v) = f (v. e Se B ` una base di V possiamo definire la matrice di f rispetto a B come e la matrice A data da aij = f (bi . w + w ) = f (v. Sia f ` una forma sesquilineare su V . w) S3 ∀v. . v) > 0. w. Una forma sesquilineare su V ` una funzione e f : V × V −→ C che soddisfa le seguenti condizioni: S1 ∀v. λw) = λf (v. il prodotto hermitiano standard su C ` definito da e n (z1 . Definizione 29. Sia V uno spazio vettoriale complesso. . w) + f (v . . gli spazi vettoriali su C vengono e chiamati spazi vettoriali complessi. w) = f (w.5. Uno spazio euclideo complesso ` una coppia ordinata (V. . bj ) e ripetere gran parte di quanto detto a t proposito delle forme bilineari.. f (v. ∀λ ∈ C f (λv. zn ). La base standard di Cn ` una base ortonormale per il prodotto hermitiano e standard. ∀λ ∈ C f (v.3 Spazi euclidei complessi In questa sezione il campo degli scalari ` C. v) L’ultima richiesta ci dice in particolare che. w ) S4 ∀v. w) = λf (v. w ∈ V f (v. w) = f (v. . w) S5 ∀v. w ∈ V. w ∈ V f (v + v . w) + f (v. matrici di questo genere vengono chiamate matrici hermitiane. (w1 . v) e quindi ` un numero reale. si dice che f ` un e e prodotto hermitiano se. Definizione 30. f (v. . ) e dove V ` uno spazio vettoriale complesso e . w ∈ V. v . . wn ) = i=1 zi wi Sugli spazi euclidei complessi si pu` ripetere con variazioni minime il o procedimento di Gram-Schmidt per trovare le basi ortonormali.

w ∈ V • ortogonale se. T (v). w = v. bj = bi . . B una base di V . in particolare se B ` ortonore t male allora A = I e quindi la condizione diventa B = B. T (w) = v. e per ogni i. n T (bi ). T (w) . w . .5.cio` la matrice B ` unitaria e e Dimostrazione. T (w) = v. . w ∈ V • unitario se. che equivale t e e a B = B . Sia n = dim V. Definizione 33. Per l’osservazione che segue le definizioni T ` hermitiano se e solo se. bj = k=1 bki akj = (bt a)ij mentre n n n bi . che equivale a t BB = I .4 Operatori su spazi euclidei Definizione 32. T (w) . w = v. T (v). w .cio` la matrice B ` hermitiana. w ∈ V T (v). T (bj ) ma n n n T (bi ). Sia (V. bj = k=1 bki bk . Sia T un operatore su uno spazio euclideo complesso (V. . per ogni v. .. . bk = k=1 aik bkj = (ab)ij . Le propriet` citate nelle ultime due definizioni sono soddisfatte a condia zione che lo siano su una base di V . in particolare se B ` ortonormale e e allora A = I e quindi la condizione diventa B t B = I. bj = k=1 bki bk . per ogni v. Si dice che T ` e • hermitiano se. e Proposizione 31. Si tratta di un facile esercizio che la lettrice ` invitata a risolvere per conto suo. 2. A = MB ( . ). k=1 bkj bk = k=1 bkj bi . w ∈ V T (v). . per ogni v. ). j = 1. Si dice che T ` e • simmetrico se. ) uno spazio euclideo complesso e T un operatore su V . 1. ) uno spazio euclideo reale e T un operatore su V . T (bj ) = bi . per ogni v. Sia (V. . T ` hermitiano se e solo se B t A = AB. T ` unitario se e solo se B t AB = A. allora B e 1. B = MB (T ).

T ` simmetrico se e solo se B t A = AB. . allora B 1. in particolare se B ` ortoe e normale allora A = I e quindi la condizione diventa B t = B. L ` e un operatore hermitiano.s=1 E la dimostrazione ` conclusa e Proposizione 32. in particolare se B ` ortonore e t male allora A = I e quindi la condizione diventa B B = I. bs bsj = bki aks bsj = (bt ab)ij . B una base di V . per il punto 1 della proposizione 32. Ogni operatore simmetrico su uno spazio euclideo ha un autovalore. Siano T un operatore simmetrico su V . v = T (v). cio` la e matrice B ` simmetrica. per ogni i. v = 0 segue che λ ∈ R. j = 1. v = λv. A = MB ( . B una base ortonormale di V e A = MB (T ). Lemma 1. Allora A = e t t A = A e. v Siccome v. .s=1 bki bk . cio` la e matrice B ` ortogonale e Dimostrazione. T (bj ) = T (bi ). T (bj ) = k=1 n bki bk . Un po’ pi` facile di quella appena conclusa. T (v) = v. Dimostrazione. n e bi . B Equipaggiamo Cn con il prodotto hermitiano standard e sia L l’unico operatore su Cn la cui matrice rispetto alla base standard ` A. Sia T un operatore su uno spazio euclideo (V. k. grazie al caso particolare del punto 1 della proposizione 31.2. B = MB (T ). s=1 bsj bs = k. bj = aij ma n n n T (bi ). v = v. A = At . . u Se T ` un operatore hermitiano su V e λ ∈ C ` un suo autovalore. T ` unitario se e solo se. e 2. . Sia V lo spazio euclideo in questione e poniamo n = dim V . ). . allora e e esiste 0 = v ∈ V tale che T (v) = λv ma allora λ v. . ). T ` ortogonale se e solo se B t AB = A. λv = λ v.

b1 = 0 e quindi T . . T (b1 ) = v. . Essi sono anche gli autovalori di T in quanto T e L hanno lo stesso polinomio caratteristico. Sia V uno spazio euclideo di dimensione 2 e B = (b1 . ristretto a W ` un operatore. Sia T un operatore ortogonale su V . Poniamo W = L(b1 )⊥ . e 2. Sia V uno spazio euclideo e T un operatore su V . il che ammonta a dire che T (b1 ) = T (b2 ) = 1 e che T (b1 ). . b1 = 0} Per la proposizione 30 dim W = n − 1. se v ∈ W allora T (v). sono in realt` numeri a reali. . che certamente esistono (in C) per il teorema fondamentale dell’algebra. Visto che B ` ortonormale. Per l’ipotesi induttiva esiste una base ortonormale (b2 . b1 = v. cio` det(tI − A). T ` un operatore simmetrico. . bn ) di V soddisfa tutte le richieste. Dimostrazione. inoltre. sullo e spazio euclideo W equipaggiato con la restrizione del prodotto scalare di V . le seguenti condizioni sono equivalenti 1. = {v ∈ V tali che v. evidentemente simmetrico. Per il lemma 1 esistono λ ∈ R e 0 = v ∈ V tali che T (v) = λv. e Teorema 16 (spettrale). Se n = 1 ogni vettore di norma 1 ` una base ortonormale di autovettori. 2 ⇒ 1 Se B ` come in 2 allora la matrice di T rispetto a tale e base ` diagonale. λbi = λ v. e quindi simmetrica. dividendo v per la sua norma si trova un autovettore unitario b1 ∈ Vλ . ma questo ` dovuto semplicemente al fatto che in dimensione e uno ogni operatore ` simmetrico. bn ) di W formata da autovettori di T|W e quindi di T . T (b2 ) = 0. . e . si pu` obbiettare di non aver e o usato l’ipotesi.5 Classificazione degli operatori unitari in dimensione 2 e 3. Esiste una base ortonormale di V formata da autovettori di T . cio` che T (b2 ) ∈ L(T (b1 ))⊥ .Per l’osservazione appena esposta i suoi autovalori. Allora la base (b1 . e 1 ⇒ 2 si dimostra per induzione su n = dim V. il caso e e particolare del punto 1 della proposizione 32 dice che T ` simmetrico. . 5. b2 ) una sua base ortonormale. . e Supponiamo dunque che n > 1 e che il teorema sia vero per gli spazi vettoriali di dimensione n − 1.

T ha un autovalore negativo. Se w ∈ W allora T (w). infine 1 = T (b2 ) = k 2 (x2 + y 2 ) = k 2 da cui segue che k = ±1. cio` θ = kπ. ∀k ∈ Z. Supponiamo ora che dim V = 3. e Se det(A) = −1 siccome limt→−∞ PT (t) = −∞. Ogni vettore in V pu` essere scritto in modo unico come av + bw e allora o T (av + bw) = av − bw e T di chiama riflessione rispetto alla retta V1 . se V1 = L(v) e e V−1 = L(w) allora v. λv = λ2 v. Dal punto 2 della proposizione 32 segue che det(A) = ±1. β ∈ R ed il termine e noto. per il teorema (di analisi) dell’esistenza degli zeri. che deve essere −1. v = T (v). Sia b1 un autovettore unitario di tale autovalore e sia W = L(b1 )⊥ . Nel primo caso esiste (tutt’altro che unico) un numero reale θ tale che cos θ − sin θ cos θ = x e sin θ = y. −w = − v. ed in particolare che T ` un e isomorfismo. dove A ` la matrice di T rispetto a una qualunque base. che ha dimensione 2. cio` la restrizione e . e Nel secondo caso il polinomio caratteristico di T ` PT (t) = t2 − 1 e e quindi ha esattamente i due autovalori 1 e −1 e quindi due autospazi V1 e V−1 che hanno entrambi dimensione 1 ed ` diagonalizzabile. ma allora 0 = v. T (v) = λv. Il polinomio caratteristico e di T ` della forma PT (t) = t3 + αt2 + βt − det(A) dove α. essendo uguale a PT (0) ` proprio − det(A). w e quindi i due vettori sono ortogonali. visto che L(b1 )⊥ ha dimensione 1 per la proposizione 30 e 0 = −yb1 + xb2 ci appartiene.se T (b1 ) = xb1 + yb2 allora T (b1 ) = 1 ⇒ x2 + y 2 = 1 e. allora la matrice A diventa e l’opesin θ cos θ ratore T viene chiamato rotazione di θ radianti . λb1 = w. T (w) = v. In sintesi la matrice di T rispetto a B pu` essere di uno dei seguenti tipi o A= x −y y x oppure B = x y y −x con x2 + y 2 = 1. in altri termini V−1 = V1⊥ . v da cui segue che λ = ±1. analogamente se det(A) = 1 allora T ha 1 come autovalore. non ha autovalori salvo nei due casi T = idV e T = −idV . in sintesi T ha sempre un autovalore λ = ±1 tale che λ det(A) = 1. notiamo che det(A) = 1 mentre det(B) = −1. w = T (v). esiste k ∈ R tale che T (b2 ) = −kyb1 + kxb2 . b1 = 0. se λ ` un autovalore di T allora esiste e 0 = v ∈ V tale che T (v) = λv.

e Se λ = −1 si dice che T ` una rotazione di θ radianti attorno all’asse e L(b1 ) seguita (o preceduta) dalla riflessione rispetto al piano W . b2 . e Quindi esiste θ ∈ R tale che la matrice di T rispetto a (b1 . che ha dimensione e 2. su W . b3 ) ` una base ortonormale di W la matrice di T rispetto e alla base ortonormale (b1 . in realt` il secondo caso non si pu` presentare perch´ il a o e determinante di tale matrice non ` concorde con λ. b3 ) di V ` di una delle due forme e     λ 0 0 λ 0 0  0 x −y  oppure  0 x y  0 y x 0 y −x con x2 + y 2 = 1. se (b2 . b3 ) ` e   λ 0 0  0 cos θ − sin θ  0 sin θ cos θ Se λ = 1 si dice che T ` una rotazione di θ radianti attorno all’asse L(b1 ). .di T a W ` un operatore. b2 . evidentemente ortogonale. quindi.

47 elemento. 15 complesso coniugato. 4 determinante. 63 disuguaglianza triangolare della distanza. 60 famiglia. 56 combinazione lineare. 54 segnatura di. 5 equazione. 13 n−upla ordinata. 6 caratteristica. 62 standard. 59 definita positiva. 29 estensione lineare. 28 insieme delle soluzioni. 58 ortogonale. 59 matrice di. 2 forma bilineare. 45 autovettore. 45 dimensione. 41 equazione parametrica. 64 disuguaglianza triangolare della norma. 59 simmetrica. 12 j−esima colonna. 56 forma sesquilineare. 63 divisibile. 28 risolubile. 28 equazione cartesiana. 4 zeri iniziali.. 27 anello. 1 applicazione lineare. 8 contenuto. 64 appartiene. 56 rango. 42 diagonalizzabile. 58 semidefinita negativa. 47 autovalore. 59 semidefinita positiva. 34 eventi. 18 campo. 2 coordinate. 66 . 1 elemento neutro. 20 distanza. 52 non degenere. 52 definita negativa. 21 coppia ordinata. 30 autospazio.Indice analitico i−esima riga. 2 contiene. 18 duale. 38 adattata. 45 base. 5 angolo. 2 corrispondenza biunivoca. 62 ortonormale.

46 prodotto cartesiano.formula di polarizzazione. 15 numero degli elementi. 12 completa del sistema. 3 biettiva. 4 identica. 42 trasposta. 67 unitario. 31 nucleo destro. 25 dei coefficienti. 4 operazioni elementari sulle righe. 12 unitaria. 60 modulo. 31 insieme. 59 standard. 3 iniettiva. 25 diagonale. 15 insieme vuoto. 53 nullificatore del prodotto. 27 inversa di. 4 abeliano. 4 interna. 16 insieme di generatori. 67 simmetrico. 62 nucleo. 8 operatore hermitiano. 5. 42 simmetrica. 14 ortogonale. 4 suriettiva. 31 a numeri complessi. 67 ortogonale. 56 singolare. 5 immagine. 57 funzione. 5 commutativo. 68 prodotto. 4 rango. 3 identit`. 3 dominio. 3 a immagine. 12 matrice. 11 isomorfi. 31 . 1 finito. 3 codominio. 6 nullit`. 47 a norma. 4 vuota. 26 opposto. 3 composizione. 30 isomorfismo canonico. 45 identica. 8 molteplicit` algebrica. 67 operatori. 53 nucleo sinistro. 67 matrici hermitiane. 14 invertibile. 62 quaterne ordinate. 26. 66 prodotto hermitiano standard. 2. 45 operazione. 66 prodotto scalare. 13 quadrate. 1 intersezione. 14 in forma ridotta. 30 isomorfismo. 47 a molteplicit` geometrica. 3 gruppo. 66 minore di nord-ovest. 9 polinomio caratteristico. 3 prodotto hermitiano.

rango per colonne. 12 vettori. 60 spazio duale. 2 vettore unitario. 40 spazio di Minkowski. 66 spazio biduale. 62 vettore colonna. 10 terne ordinate. implica. 9 se e solo se. 38 sottospazio ortogonale. per ogni. 4 trasformazioni di Lorentz. 25 risolubile. 62 spazio euclideo complesso. 48 diretta. 64 . 70 scalari. 16 ortogonali. 58 superesempio. 26 rango per righe. 70 rotazione. 25 insieme delle soluzioni. 71 rotazione di θ radianti. 25 somma. 60 trasposta. 38 spazio euclideo. 57 riferimento inerziale. 71 riflessione rispetto alla retta. 48 sottoinsieme. 11. 26 restrizione. 65 sottospazio vettoriale di. 12 vettore nullo. 9 linearmente dipendenti. 16 linearmente indipendenti. 16 nullo. 60 riflessione. 2 sistema lineare. 25 omogeneo. 11 spazi vettoriali complessi. 39 unione. 10 vettore riga. 9 finitamente generato. 66 spazio vettoriale. 2 sottospazio ortogonale. 24. 10 spazio vettoriale reale.

. . . . . . . .1 Applicazioni lineari . . . . . . . . . . . vettoriale . . .Indice 1 Preliminari 1. . . . . . . . . . . . . . . . . . . .1 Determinanti . . . . . .2 Prodotti scalari . . . . . . . .3 Numeri complessi . . . . . . . . . . . . . . . . . . . . . . 3. . . 5. 1. . . . 5. . . . . . . . . . . . . . . .4 Operatori su spazi euclidei 52 52 60 66 67 . . . . . . . . . . . . . . . . . . . . . . . .3 Spazio biduale . . 2. . 42 4. . . . . . 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5 Sistemi lineari . . . . . . . . 5. . . .4 Equazioni cartesiane di 1 1 4 8 9 9 11 12 14 25 28 30 30 38 40 41 . .2 Diagonalizzazione .3 Matrici . . . . . . . . . . .2 Sottospazi vettoriali . 2. . . . . . . . . . . . .6 Equazioni parametriche di un sottospazio 3 Applicazioni lineari 3.1 Spazi vettoriali . . . . un sottospazio vettoriale . . . . . . . . . . . . . . . . . . . . . . . . .3 Spazi euclidei complessi . . 45 5 Spazi euclidei 5. . . . . . . 4 Diagonalizzazione 42 4. . . . . . . . . 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. . . 3. . . . . . . . . . . . . . . . . . . . . . . .4 Generatori e basi . . . . . . . . . . . . . .2 Strutture algebriche . . . . . . . . . .1 Forme bilineari . . . . . . . . . . . . 2 Spazi vettoriali 2. . . . . . .1 Un po’ d’insiemistica . . . . . . . . 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 Spazio duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. . .

. . 69 .5 Classificazione degli operatori unitari in dimensione 2 e 3.5. .