You are on page 1of 114

Momamath 2

Giovannina Albano, Ciro DApice, Saverio Salerno


Algebra Lineare
a cura di MOMA e CUES
con la collaborazione di CRMPA
1
Indice
Prefazione i
Capitolo 1 STRUTTURE ALGEBRICHE
1.1 Denizioni generali 1
1.2 Gruppi 4
1.3 Anelli 5
1.4 Campi 6
Capitolo 2 MATRICI
2.1 Denizioni e nozioni preliminari 9
2.2 Operazioni con le matrici 14
2.3 Determinante di una matrice
quadrata
21
2.4 Rango di una matrice 27
2.5 Matrici a scalini 30
Capitolo 3 SISTEMI LINEARI
3.1 Generalit` a 33
3.2 Metodo di eliminazione di Gauss 36
3.3 Sistemi lineari omogenei 38
Capitolo 4 SPAZI VETTORIALI
4.1 Denizioni ed esempi 41
4.2 Lineare dipendenza e indipendenza.
Basi
44
4.3 Sottospazi vettoriali 55
4.4 Lo spazio riga e lo spazio colonna
di una matrice
57
4.5 Intersezione e somma di sottospazi 58
4.6 Rappresentazione di un sottospazio
vettoriale
61
Capitolo 5 SPAZI EUCLIDEI
5.1 Denizioni 63
5.2 Spazi euclidei reali 65
5.3 Basi ortonormali 67
5.4 Sottospazi ortogonali 73
Capitolo 6 APPLICAZIONI LINEARI
6.1 Denizioni 75
6.2 Rappresentazione matriciale 86
Capitolo 7 DIAGONALIZZAZIONE
5.1 Autovalori e autovettori di una ma-
trice
90
5.2 Autovalori e autovettori di un en-
domorsmo
95
5.3 Diagonalizzazione 100
5.4 Diagonalizzazione ortogonale 106
Capitolo 1
Strutture algebriche
1.1 Denizioni generali
Denizione 1.1.1 Sia G un insieme non vuoto. Si
dice operazione (binaria) interna denita in G un appli-
cazione:
GG G
(a, b) (a, b) = ab.
La coppia (G, ) si dice struttura algebrica su G indi-
viduata da e G si dice sostegno della struttura.
1
Un elemento u G si dice elemento neutro rispetto
a se au = ua = a a G.
Proposizione 1.1.2 Se esiste un elemento neutro in G
rispetto a , allora `e unico.
Dim. Siano u, u
0
elementi neutri rispetto a . Allora
si ha:
uu
0
= u, per la neutralit` a di u
0
uu
0
= u
0
per la neutralit` a di u
da cui u = u
0
.
Denizione 1.1.3 Se esiste lelemento neutro in G ri-
spetto a , allora un elemento a di G si dice simmetriz-
zabile rispetto a se a
0
G :
aa
0
= a
0
a = u
Lelemento a
0
si dice simmetrico di a.
Denizione 1.1.4 Loperazione si dice associativa se
a(bc) = (ab) c a, b, c G.
2
Denizione 1.1.5 Loperazione si dice commutativa
se ab = ba a, b G.
Di seguito riportiamo alcune particolari operazioni:
Somma: si denisce come loperazione additiva +
ovvero ab = a +b
In tal caso lelemento neutro viene detto zero di
G e indicato con 0; mentre il simmetrico di un
elemento a Gviene detto opposto di a e indicato
con a.
Prodotto: si denisce come loperazione moltiplica-
tiva ovvero ab = a b
In tal caso lelemento neutro viene detto unit` a di
G e indicato con 1; mentre il simmetrico di un
elemento a G viene detto inverso di a e indicato
con a
1
.
Proposizione 1.1.6 Sia (G, ) una struttura algebrica
che soddis le seguenti propriet` a:
`e associativa
3
esiste lelemento neutro u G rispetto a .
Allora se esiste il simmetrico di un elemento a di
G, allora `e unico.
Dim. Supponiamo per assurdo che esistano due sim-
metrici, a
0
, a
00
, di a rispetto a . Allora
a
0
= a
0
u = a
0
(aa
00
) = (a
0
a) a
00
= ua
00
= a
00
.
1.2 Gruppi
Denizione 1.2.1 Una struttura algebrica (G, ) `e un
gruppo se sono vericate le seguenti propriet`a:
`e associativa
esiste in G lelemento neutro rispetto a
esiste in G il simmetrico di a, a G.
Denizione 1.2.2 Diremo gruppo abeliano un gruppo
in cui sia commutativa.
4
Proposizione 1.2.3 Se (G, ) `e un gruppo, allora vale
la legge di cancellazione a destra e a sinistra:
ab = ac b = c
ba = ca b = c.
Dim. Sia u lelemento neutro di G rispetto a e a
0
il simmetrico di a rispetto a
ab = ac a
0
(ab) = a
0
(ac)
(a
0
a) b = (a
0
a) c ub = uc b = c.
Analogamente si prova la cancellazione a destra.
1.3 Anelli
Denizione 1.3.1 Sia G 6= e siano +, due opera-
zioni interne. La terna (G, +, ) si dice anello se
1) (G, +) `e un gruppo abeliano
2) `e associativa
5
3) `e distributiva rispetto a +.
Ovvero se valgono le seguenti propriet` a:
1)
_

_
a + (b +c) = (a +b) +c a, b, c G
0 G : a + 0 = 0 +a = a a G
a G : a + (a) = (a) +a = 0 a G
a +b = b +a a, b G.
2) a (b c) = (a b) c a, b, c G.
3)
_
_
_
a (b +c) = ab +ac
(b +c) a = ba +ca a, b, c G.
1.4 Campi
Denizione 1.4.1 Un anello (G, +, ) `e un campo se
1) `e commutativa
2) esiste lelemento neutro rispetto a : a1 = 1a = a
3) esiste linverso di ogni a G {0} : a
1
a =
aa
1
= 1.
Proposizione 1.4.2 In un campo vale la legge di an-
nullamento del prodotto
ab = 0 a = 0 oppure b = 0.
6
Dim. Supponiamo che a 6= 0, allora a
1
G
ab = 0 a
1
(ab) = a
1
0 = 0

a
1
a

b = 0 1 b = 0 b = 0.
Viceversa, sia a = 0
0b = (0 + 0) b = 0b + 0b 0b = 0
per la legge di cancellazione.
Esempio 1.4.3 (Z, +) `e un gruppo infatti:
+ `e associativa
0: a + 0 = 0 +a = a
a: a + (a) = a +a = 0 a Z.
Inoltre `e gruppo abeliano perch`e + `e commutativa.
Esempio 1.4.4 Si pu` o provare che (Q, +) `e abeliano,
(R, +) `e abeliano, (Q{0} , ) `e abeliano, (R{0} , )
`e abeliano.
7
Osservazione 1.4.5 Riportiamo di seguito esempi di
strutture algebriche che non sono gruppo.
(N, +) perch`e nessun elemento ha opposto
(N, ) perch`e solo 1 ha inverso
(Z, ) perch`e solo 1,-1 hanno inverso
(Q, ) , (R, ) perch`e 0 non ha inverso.
Esempio 1.4.6 (R, +, ) `e un campo. Infatti:
(R, +) `e un gruppo abeliano
`e associativa
`e distributiva rispetto a +
a
1
R a R.
Esempio 1.4.7 Si prova facilmente che (Q, +, ) `e un
campo.
Osservazione 1.4.8 Le strutture (N, +, ) e (Z, +, )
non sono campi perch`e (N, +) non `e un gruppo e in Z
solo 1,-1 sono invertibili.
8
Capitolo 2
MATRICI
2.1 Denizioni e nozioni prelimi-
nari
Denizione 2.1.1 Siano R il campo dei numeri reali e
m e n due interi positivi. Una matrice A a valori in R,
con m righe e n colonne (cio`e di tipo [m, n] o mn), `e
una tabella a doppia entrata costituita da m n elementi
9
disposti su m righe e n colonne:
A =
_
_
_
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
... ... ... ...
a
m1
a
m2
... a
mn
_
_
_
_
_
_
_
_
.
Linsieme delle matrici a valori in R di tipo m n
viene denotato con M
m,n
(R).
Il generico elemento della matrice A `e indicato con
a
ij
, dove gli indici i e j sono rispettivamente la riga e
la colonna a cui lelemento appartiene. Pertanto tal-
volta per denotare una matrice A M
m,n
(R) si usa la
notazione A = (a
ij
), con i = 1, ....m e j = 1, ...n.
Osservazione 2.1.2 Indicheremo rispettivamente con
A
i
e A
j
la righa i-esima e la colonna j-esima della ma-
trice A, cio`e
A
i
= (
a
i1
a
i2
... a
in
),
10
A
j
=
_
_
_
_
_
_
_
_
a
1j
a
2j
...
a
mj
_
_
_
_
_
_
_
_
.
Per semplicit`a le righe A
i
e le colonne A
j
vengono iden-
ticate rispettivamente con i vettori di R
n
ed R
m
.
Esempio 2.1.3 Diamo ora un esempio di matrice ap-
partenente a M
3,4
(R):
A =
_
_
_
_
_
1 2 0 4
6 5 7 2
5 3 4 1
_
_
_
_
_
.
Naturalmente si ha:
a
23
= 7; A
2
= (
6 5 7 2
); A
3
=
_
_
_
_
_
0
7
4
_
_
_
_
_
.
Denizione 2.1.4 Data una matrice A M
m,n
(R),
diremo trasposta di A la matrice B M
m,n
(R) cos
`
i
11
denita: b
ij
= a
ji
. La matrice B verr`a denotata con
A
T
.
Denizione 2.1.5 Una matrice A M
m,n
(R) si dice
quadrata di ordine n se m = n. Linsieme delle matrici
quadrate di ordine n si indica con M
n
(R). La n-upla
di elementi aventi lo stesso indice di riga e di colonna,
cio`e a
ii
, viene detta diagonale principale di A.
Di seguito riportiamo alcune denizioni:
Una matrice quadrata A che abbia tutti elementi
nulli fuori dalla diagonale principale si dice ma-
trice diagonale, cio`e a
ij
= 0 per i 6= j.
Una matrice diagonale A M
n
(R) con a
ii
= 1 `e
detta matrice identica e sar`a denotata con I
n
.
Una matrice quadrata A si dice triangolare supe-
riore se a
ij
= 0 per i > j.
Una matrice quadrata A si dice triangolare infe-
riore se a
ij
= 0 per i < j.
12
Una matrice quadrata A si dice simmetrica se
a
ij
= a
ij
i 6= j, ovvero se A = A
T
.
Una matrice quadrata A si dice antisimmetrica se
a
ij
= a
ij
i 6= j, ovvero se A = A
T
.
Una matrice che si ottiene da A cancellando al-
cune righe e colonne si dice subordinata ad A o
estratta da A.
Esempio 2.1.6 Data la matrice
A =
_
_
_
_
_
_
_
_
0 6 0 5 1
1 6 0 8 2
7 2 6 7 3
1 9 9 9 4
_
_
_
_
_
_
_
_
una matrice subordinata ad A `e la matrice
_
_
_
_
_
0 6 5 1
7 2 7 3
1 9 9 4
_
_
_
_
_
ottenuta cancellando la seconda riga e la terza co-
13
lonna.
2.2 Operazioni con le matrici
Denizione 2.2.1 Siano A = (a
ij
) e B = (b
ij
) due ma-
trici appartenenti a M
m,n
(R). Deniamo somma di A
e B la matrice C appartenente a M
m,n
(R) cos
`
i denita:
C =
_
_
_
_
_
_
_
_
a
11
+b
11
a
12
+b
12
... a
1n
+b
1n
a
21
+b
21
a
22
+b
22
... a
2n
+b
2n
... ... ... ...
a
m1
+b
m1
a
m2
+b
m2
... a
mn
+b
mn
_
_
_
_
_
_
_
_
ovvero
c
ij
= a
ij
+b
ij
.
Denizione 2.2.2 Sia A = (a
ij
) una matrice apparte-
nente a M
m,n
(R) e h un elemento di R. Deniamo
prodotto dello scalare h per la matrice A la seguente ma-
14
trice D appartenente a M
m,n
(R):
D =
_
_
_
_
_
_
_
_
ha
11
ha
12
... ha
1n
ha
21
ha
22
... ha
2n
... ... ... ...
ha
m1
ha
m2
... ha
mn
_
_
_
_
_
_
_
_
cio`e
d
ij
= ha
ij
.
Riportiamo di seguito le principali propriet` a della
somma di matrici e del prodotto di una matrice per uno
scalare.
Proposizione 2.2.3 Siano A = (a
ij
), B = (b
ij
) e C =
(c
ij
) tre matrici appartenenti a M
m,n
(R) ed h e k due
elementi di R. Valgono le seguenti relazioni:
A+B = B +A (propriet`a commutativa)
(A+B)+C = A+(B +C) (propriet`a associativa)
A+0 = 0 +A = 0, dove con 0 si indica la matrice
nulla (esistenza dellelemento neutro)
15
A+ (A) = 0, con A = (a
ij
)
(esistenza dellopposto)
h(kA) = (hk) A (propriet` a associativa)
(h +k) A = hA+kA (propriet` a distributiva)
h(A+B) = hA+hB (propriet`a distributiva)
1A = A (esistenza dellelemento neutro).
Denizione 2.2.4 Siano A=(a
1
, a
2
, .., a
n
) e B
_
_
_
_
_
_
_
_
b
1
b
2
...
b
n
_
_
_
_
_
_
_
_
rispettivamente due matrici di M
1,n
(R) e M
n,1
(R). Si
denisce prodotto righe per colonne di A e B, e si indica
con A B, lelemento
a
11
b
11
+a
12
b
21
+... +a
1n
b
n1
R.
Denizione 2.2.5 Siano A = (a
ij
) e B = (b
ij
) rispetti-
vamente due matrici di M
m,p
(R) e M
p,n
(R). Si denisce
prodotto righe per colonne di A e B, e si indica con AB,
16
la matrice C di M
m,n
(R) data da:
C =
_
_
_
_
_
_
_
_
A
1
B
1
A
1
B
2
... A
1
B
n
A
2
B
1
A
2
B
2
... A
2
B
n
... ... ... ...
A
m
B
1
A
m
B
2
... A
m
B
n
_
_
_
_
_
_
_
_
.
Osservazione 2.2.6 Osserviamo che il prodotto AB `e
denito soltanto se il numero delle colonne di A `e uguale
al numero di righe di B.
Osservazione 2.2.7 Ovviamente il prodotto AB `e sem-
pre denito se le matrici sono quadrate e delle stesso
ordine.
Osservazione 2.2.8 In generale, il prodotto AB non `e
uguale a BA, ovvero il prodotto righe per colonne non `e
commutativo, come si evince dallesempio che segue.
Esempio 2.2.9 Siano A e B due matrici denite come
17
segue:
A =
_
_
1 1 2
0 3 4
_
_
; B =
_
_
_
_
_
2 3 0 1
5 1 4 2
1 0 0 3
_
_
_
_
_
.
Allora possiamo eettuare il prodotto righe per colonne
di A per B ottenendo
AB =
_
_
5 1 4 5
11 3 12 18
_
_
.
Osserviamo che BA non `e denito perch`e il numero di
colonne di B `e 4 mentre il numero di righe di A `e 2 e
quindi AB non `e uguale a BA.
Osserviamo inoltre che anche nel caso di matrici
quadrate il prodotto non sempre `e commutativo. Infatti
considerate le seguenti matrici:
A =
_
_
1 2
3 4
_
_
; B =
_
_
1 1
0 2
_
_
18
si ha:
AB =
_
_
1 5
3 11
_
_
; BA =
_
_
4 6
6 8
_
_
e quindi AB 6= BA.
Esempio 2.2.10 (M
2
(R) , +, ) `e un anello rispetto alle
operazioni di addizione tra matrici e prodotto righe per
colonne. Infatti:
(M
2
(R) , +) `e un gruppo abeliano.
A+ (B +C) = (A+B) +C
A+ 0 = 0 +A = A
A+ (A) = A+A = 0
`e associativa A(BC) = (AB) C
`e distributiva rispetto a +
A(B +C) = AB +AC
(A+B) C = AC +BC
(M
2
(R) , +, ) `e dotato di unit`a IA = AI = A.
19
Osservazione 2.2.11 (M
2
(R) , +, ) non `e un campo.
Infatti non vale la legge di annullamento del prodotto e
non tutte le matrici sono invertibili
_
_
2 3
2 3
_
_
_
_
3 3
2 2
_
_
=
_
_
0 0
0 0
_
_
.
Riportiamo alcune propriet`a fondamentali.
Proposizione 2.2.12 Siano A appartenente a M
m,n
(R),
B appartenente a M
n,p
(R), C appartenente a M
p,q
(R), si
ha (AB)C=A(BC).
Proposizione 2.2.13 Siano A appartenente a M
m,n
(R),
B appartenente a M
m,n
(R), C appartenente a M
n,p
(R),
D appartenente a M
q,m
(R), allora valgono le seguenti
relazioni:
(A+B) C = AC +BC (propriet` a distributiva)
D(A+B) = DA+DB (propriet` a distributiva)
AI
n
= A = I
n
A (esistenza dellelemento neutro)
(BC)
T
= C
T
B
T
.
20
Denizione 2.2.14 Data una matrice A M
n
(R), di-
remo che `e invertibile, e indicheremo con A
1
la sua in-
versa, se esiste una matrice B M
n
(R): AB = BA =
I.
2.3 Determinante di una matrice
quadrata
Diamo la denizione di determinante di A per induzione
sulla dimensione di A.
Denizione 2.3.1 Sia A una matrice quadrata, il de-
terminante di A, indicato con |A| o con det A, `e il nu-
mero reale denito come segue:
Se A `e di ordine 1, si ha:
|A| = a
11
.
21
Se A =
_
_
a
11
a
12
a
21
a
22
_
_
, si ha:
|A| = a
11
a
22
a
12
a
21
.
Se A `e di ordine n > 2, si ha:
|A| = a
11
|A
11
| a
12
|A
12
| +....
+a
1j
|A
1j
| +... + (1)
1+n
a
in
|A
1n
| .
dove A
1j
`e la matrice ottenuta da A cancellando
la prima riga e la j-esima colonna.
Riportiamo di seguito la cosidetta regola di Sarrus
per calcolare in modo alternativo il determinante di una
matrice di ordine 3.
Denizione 2.3.2 Sia A una matrice quadrata di or-
dine 3:
A =
_
_
_
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
_
_
_
22
Si ha
|A| = a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32
a
12
a
21
a
33
a
11
a
23
a
32
a
13
a
22
a
31
.
Data la matrice A un metodo pratico per ricordare la
regola di Sarrus `e utile considerare la seguente matrice:
Per calcolare il determinante basta sommare i pro-
dotti degli elementi delle diagonali principali e sottrarre
i prodotti degli elementi delle diagonali secondarie.
Teorema 2.3.3 (Laplace) Data una matrice di ordine
n, scelta una qualsiasi riga i, si ha
|A| = (1)
i+1
a
i1
|A
i1
| + (1)
i+2
a
i2
|A
i2
| +
..... + (1)
i+n
a
in
|A
in
| .
23
Inoltre, scelta una colonna j, si ha
|A| = (1)
1+j
a
1j
|A
1j
| + (1)
2+j
a
2j
|A
2j
| +
..... + (1)
n+j
a
nj
|A
nj
| .
Osservazione 2.3.4 Lelemento (-1)
i+j
|A
ij
| viene det-
to complemento algebrico o aggiunto di a
ij
e indicato con
a
0
ij
.
Teorema 2.3.5 (II Teorema di Laplace) In ogni ma-
trice quadrata A = (a
ij
) M
n
(R) `e nulla la somma
dei prodotti degli elementi di un riga (colonna) per gli
aggiunti dei corrispondenti elementi di unaltra riga (o
colonna) cio`e
0 = a
i1
a
0
j1
+a
i2
a
0
j2
+... +a
in
a
0
jn
.
Dal teorema precedente si ricava un metodo per il
calcolo dellinversa di una matrice A. Infatti dal II Teo-
rema di Laplace si ha:
a
i1
a
0
j1
+a
i2
a
0
j2
+... +a
in
a
0
jn
=
ij
|A| ,
24
dove
ij
=
_
_
_
0 se i 6= j
1 se i = j
e viene detto simbolo di Kro-
necker. Costruiamo la matrice dei complementi algebrici
(matrice complementare di A)
C =
_
_
_
_
_
_
_
_
a
0
11
a
0
12
... a
0
1n
a
0
21
a
0
22
... a
0
2n
... ... ... ...
a
0
n1
a
0
n2
... a
0
nn
_
_
_
_
_
_
_
_
.
La trasposta di C si dice matrice aggiunta di A
agg (A) =
_
_
_
_
_
_
_
_
a
0
11
a
0
21
... a
0
n1
a
0
12
a
0
22
... a
0
n2
... ... ... ...
a
0
1n
a
0
2n
... a
0
nn
_
_
_
_
_
_
_
_
.
Consideriamo il prodotto B = A agg (A). Si ha
b
ij
= (a
i1
, ..., a
in
)

a
0
j1
, ..., a
0
jn

=
= a
i1
a
0
j1
+... +a
in
a
0
jn
=
ij
|A| .
25
B =
_
_
_
_
_
_
_
_
|A| 0 ... 0
0 |A| ... 0
... ... ... ...
0 0 ... |A|
_
_
_
_
_
_
_
_
= |A|I
cio`e
A
aggA
|A|
= I A
1
=
agg (A)
|A|
A
1
=
_
_
_
_
_
_
_
_
a
0
11
|A|
a
0
21
|A|
...
a
0
n1
|A|
a
0
12
|A|
a
0
22
|A|
...
a
0
n2
|A|
... ... ... ...
a
0
1n
|A|
a
0
2n
|A|
...
a
0
nn
|A|
_
_
_
_
_
_
_
_
.
Riportiamo alcune propriet`a principali dei determi-
nanti.
Proposizione 2.3.6 Siano A, B M
n
(R) e h un ele-
mento di R, si ha:
|A| = |A
T
|
26
se A ha due righe o due colonne proporzionali, al-
lora |A| = 0
se in A si scambiano tra loro due righe (colonne),
si ottiene una matrice B tale che |B| = |A|
se B si ottiene da A moltiplicando tutti gli ele-
menti di una riga (colonna) di A per h, si ha:
|B| = h|A|
se B `e ottenuta da A aggiungendo ad una riga
(colonna) un multiplo di unaltra riga (colonna),
allora |B| = |A|
Proposizione 2.3.7 Il determinante di una matrice A
triangolare superiore (inferiore) `e uguale al prodotto de-
gli elementi della diagonale.
2.4 Rango di una matrice
Denizione 2.4.1 Sia A M
m,n
(R). Scelti p indici di
riga i
1
, ..., i
p
e p indici di colonna j
1
, ..., j
p
si considera la
sottomatrice M costituita dagli elementi di A che sono
27
agli incroci delle suddette righe e colonne di A:
M =
_
_
_
_
_
_
_
_
a
i
1
j
1
a
i
1
j
2
.... a
i1jp
a
i
2
j
1
a
i
2
j
2
.... a
i
2
jp
.... .... .... ....
a
i
p
j
1
a
i
p
j
2
.... a
i
p
j
p
_
_
_
_
_
_
_
_
M
p
(R) .
Si chiama minore di ordine p della matrice A relativo
alle righe i
1
, ..., i
p
e alle colonne j
1
, ..., j
p
il determinante
di M e si scriver`a
|M| = a
i
1
...
ip;j
1
...jp
.
Osservazione 2.4.2 I minori con la diagonale princi-
pale contenuta in quella di A si chiamano minori prin-
cipali di A.
Denizione 2.4.3 Si denisce rango di A M
m,n
(R)
e si indica con rk (A) il massimo ordine di un minore
non nullo di A.
28
Osservazione 2.4.4 Se A M
m,n
(R), allora
rk (A) min {m, n} .
Denizione 2.4.5 Siano A M
m,n
(R) e
=

a
i
1
j
1
... a
i
1
jp
... ... ...
a
i
p
j
1
... a
i
p
j
p

un suo minore di ordine p. Si dice orlato di , un minore


di ordine p + 1 del tipo
=

a
i
1
j
1
... a
i
1
j
p
a
i
1
j
... ... ... ...
a
ipj
1
... a
ipjp
a
ipj
a
ij
1
... a
ijp
a
ij

cio`e un minore individuato dalle righe i


1
, ..., i
p
, i e dalle
colonne j
1
, ..., j
p
, j dove i / {i
1
, ..., i
p
} e j / {j
1
, ..., j
p
}
ovvero dalle stesse righe di pi` u una e dalle stesse co-
lonne di pi` u una. Si suole dire anche che il minore
orla il minore .
29
Teorema 2.4.6 (Orlati) Sia un minore di ordine p
non nullo di A M
m,n
(R) . Se tutti i minori di ordine
p + 1 che orlano sono nulli, allora il rango di A `e p.
2.5 Matrici a scalini
Denizione 2.5.1 Una matrice A M
m,n
(R) non nul-
la si dice a scalini (relativamente alle righe) se ha le
seguenti propriet`a:
se una riga `e nulla, tutte le righe successive sono
nulle;
il primo elemento non nullo di una riga, detto
pivot, `e sempre pi` u a sinistra del primo elemento
non nullo delle righe successive.
Teorema 2.5.2 Ogni matrice A M
m,n
(R) pu` o es-
sere ridotta a scalini per mezzo delle seguenti operazioni
(dette elementari):
scambio di righe r
i
r
j
30
sostituzione di una riga con un suo multiplo
r
i
r
i
, R{0}
sostituzione di una riga con la stessa a cui viene
aggiunto un multiplo di unaltra riga r
i
r
i
+r
j
,
R.
Riportiamo di seguito lalgoritmo (detto di Gauss)
di riduzione di una matrice appartenente a M
m,n
(R) a
forma a scalini.
Passo 1 Individuiamo la prima colonna non nulla (par-
tendo da sinistra) di A,diciamola h, e il primo ele-
mento (partendo dallalto) non nullo di tale co-
lonna. Sia k lindice di riga corrispondente, ovvero
sia a
kh
6= 0.
Passo 2 Se k 6= 1, scambiamo le righe r
1
e r
k
(r
1
r
k
)
in modo da portare a
kh
nella prima riga, e quindi
si ha a
1h
6= 0.
Passo 3 Per ogni riga r
i
, i > 1, dobbiamo azzerare
lelemento a
ih
e a tal ne operiamo la trasforma-
zione elementare r
i
r
i

a
ih
a
1h

r
1
.
31
Passo 4 Escludiamo la prima riga, vale a dire consi-
deriamo la sottomatrice delle righe r
i
, 2 i m.
Se questultima `e costituita da una sola riga o `e
la matrice nulla lalgoritmo termina; altrimenti ri-
cominciamo dal passo 1 applicato a tale sottoma-
trice. Terminato lalgoritmo si ricava una matrice
a scalini S.
Proposizione 2.5.3 Data una matrice A M
n
(R) e
indicata con S la forma a scalini di A, si ha: |A| = |S|.
Proposizione 2.5.4 Sia A M
n
(R) e S la sua forma
a scalini. Si ha
rk (A) = rk (S) .
Osservazione 2.5.5 Il rango di una matrice a scalini
S `e il numero delle righe non nulle di S.
32
Capitolo 3
SISTEMI LINEARI
3.1 Generalit`a
Denizione 3.1.1 Si dice sistema lineare di m equa-
zioni in n incognite un insieme di relazioni del tipo:
_

_
a
11
x
1
+a
12
x
2
+... +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+... +a
2n
x
n
= b
2
...
a
m1
x
1
+a
m2
x
2
+... +a
mn
x
n
= b
m
(3.1)
33
dove le costanti a
ij
, 1 i m, 1 j n, sono dette
coecienti e le costanti b
i
termini noti.
Una soluzione del sistema `e una n-upla (s
1
, ..., s
n
) di
numeri reali che vericano ogni equazione del sistema.
Un sistema lineare si dice compatibile se ammette
almeno una soluzione, e incompatibile altrimenti.
Proposizione 3.1.2 Un sistema lineare ammette nes-
suna, una o innite soluzioni.
Denizione 3.1.3 Ad ogni sistema lineare si possono
associare due matrici:
A =
_
_
_
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
... ... ... ...
a
m1
a
m2
... a
mn
_
_
_
_
_
_
_
_
,
A
0
=
_
_
_
_
_
_
_
_
a
11
a
12
... a
1n
b
1
a
21
a
22
... a
2n
b
2
... ... ... ... ...
a
m1
a
m2
... a
mn
b
m
_
_
_
_
_
_
_
_
34
dette rispettivamente matrice incompleta (o dei coe-
cienti) e matrice completa.
Inoltre posto x =
_
_
_
_
_
_
_
_
x
1
x
2
...
x
n
_
_
_
_
_
_
_
_
e b =
_
_
_
_
_
_
_
_
b
1
b
2
...
b
m
_
_
_
_
_
_
_
_
si pu`o
scrivere il sistema (3.1) nella forma matriciale
Ax = b.
Il vettore b viene detto colonna dei termini noti.
Teorema 3.1.4 (Rouch`e-Capelli) Un sistema lineare `e
compatibile se e soltanto se rk(A) = rk(A
0
).
Teorema 3.1.5 (Cramer) Sia Ax = b un sistema li-
neare di n equazioni in n incognite. Se |A|6=0 allora il
sistema lineare ammette ununica soluzione le cui com-
ponenti sono date da:
x
1
=
|A
1
|
|A|
, ..., x
i
=
|A
i
|
|A|
, ..., x
n
=
|A
n
|
|A|
,
35
dove A
i
(1 i n) `e la matrice che si ottiene da A so-
stituendo la i-esima colonna di A con la colonna dei ter-
mini noti.
Un sistema compatibile, non di Cramer, ammette
soluzioni dipendenti da n rk(A) parametri (e talvolta
si indica con
nr(A)
)
3.2 Metodo di eliminazione di
Gauss
Denizione 3.2.1 Due sistemi lineari, in n variabili,
aventi le stesse soluzioni si dicono equivalenti.
Denizione 3.2.2 Si dicono operazioni elementari i se-
guenti tre tipi di operazioni sulle equazioni di un sistema
lineare
moltiplicare unequazione per una costante non nul-
la
scambiare due equazioni
36
aggiungere un multiplo di unequazione ad unaltra
equazione.
Osservazione 3.2.3 Tali operazioni elementari corri-
spondono ad operazioni elementari dello stesso tipo sulla
matrice completa del sistema.
Teorema 3.2.4 Due sistemi lineari sono equivalenti se
e solo se ogni equazione di uno pu` o essere ottenuta dall
altro per mezzo di un numero nito di operazioni ele-
mentari.
Descriviamo un semplice metodo, detto di elimina-
zione di Gauss, utile per determinare le soluzioni di un
sistema lineare.
Consideriamo il sistema lineare
Ax = b. (3.2)
Riduciamo a scalini la matrice completa del sistema.
Chiamiamo S
0
la matrice ridotta. Se lultima riga di
S
0
`e del tipo (0, ..., 0, b) con b 6= 0, allora il sistema `e
incompatibile. In caso contrario si possono presentare
due situazioni.
37
(a) Il sistema ammette ununica soluzione se il numero
di righe non nulle di S
0
`e pari al numero di vari-
abili. Il sistema che ha per matrice completa S
0
risulta di tipo triangolare superiore e la soluzione
si trova per semplice sostituzione a ritroso.
(b) Il sistema ha innite soluzioni se il numero di righe
non nulle di S
0
`e minore del numero di variabili.
Allora, scegliendo come variabili indipendenti (o
parametri) quelle variabili che corrispondono a co-
lonne che non contengono pivot, otteniamo un si-
stema triangolare superiore che ha ununica solu-
zione per ogni scelta dei parametri, quindi il si-
stema originario ha
nrk(A)
soluzioni.
3.3 Sistemi lineari omogenei
Denizione 3.3.1 Un sistema lineare in cui la colonna
dei termini noti `e nulla si dice omogeneo.
Con notazione matriciale un sistema omogeneo viene
scritto come
38
Ax = 0.
Se Ax = b `e un qualsiasi sistema lineare, il sistema
Ax = 0 viene detto sistema omogeneo ad esso associato.
Un sistema lineare omogeneo `e sempre compatibile,
ammettendo almeno la soluzione nulla.
Un sistema lineare omogeneo ammette innite solu-
zioni quando il rango della matrice dei coecienti `e mi-
nore del numero delle incognite. In tal caso si suole
scrivere che il sistema ammette
nrk(A)
soluzioni (se n
`e il numero delle variabili) intendendo che la soluzione
generale dipende da n rk(A) parametri. La soluzione
generale di un sistema lineare omogeneo pu` o essere ge-
nerata da un opportuno insieme di n rk(A) soluzioni
particolari del sistema. Tale insieme, non univocamente
determinato, viene detto base dello spazio delle soluzioni
del sistema lineare omogeneo. Citiamo un metodo per
trovare una base. Scelti p = n rk(A) parametri del
sistema, diciamoli x
i
1
, ..., x
i
p
, troviamo p soluzioni del
39
sistema corrispondenti ai seguenti valori dei parametri
x
i
1
= 1, x
i
2
= 0, . . . x
ip
= 0
x
i
1
= 0, x
i
2
= 1, . . . x
ip
= 0
.
.
. . . .
x
i
1
= 0, x
i
2
= 0, . . . x
i
p
= 1.
Le soluzioni cos
`
i trovate costituisono una base dello
spazio delle soluzioni del sistema lineare omogeneo.
Proposizione 3.3.2 Ogni soluzione di un sistema li-
neare si ottiene sommando una ssata soluzione del si-
stema con una soluzione del sistema omogeneo associato.
40
Capitolo 4
SPAZI VETTORIALI
4.1 Denizioni ed esempi
Sia K un campo e V un insieme non vuoto. Deniamo
su V due operazioni, dette rispettivamente somma e
prodotto per uno scalare:
interna + : V V V
(u, v) u +v
esterna : K V V
(, u) u
Denizione 4.1.1 La terna (V, +, )si dice spazio vet-
41
toriale sul campo K se verica le seguenti propriet` a:
1
s
) u +v = v +u u, v V
2
s
) (u +v) +w = u + (v +w) u, v, w V
3
s
) 0 V : u + 0 = 0 +u = u u V
4
s
) u V : u + (u) = u +u = 0 u V
( 0 `e detto valore nullo, u `e detto opposto di u )
1
p
) (u +v) = u +v K, u, v V
2
p
) ( +) u = u +u , K, u V
3
p
) () u = (u) , K, u V
4
p
) 1 K : 1u = u V .
Osservazione 4.1.2 Le propriet` a 1
s
)4
s
) indicano che
(V, +) `e un gruppo abeliano.
Esempio 4.1.3 Riportiamo alcuni esempi di spazi vet-
toriali:
R
n
con le operazioni naturali
Sia V ={f : C
0
[a,b] R} ,e deniamo su esso le
seguenti operazioni:
42
f +g : [a, b] R
x f (x) +g (x)
R, f : [a, b] R
x f (x)
(V, +, ) `e uno spazio vettoriale.
Sia V = {polinomi di grado n in una variabile}
a coecienti in R. Se p e q sono elementi di V
p = a
0
+a
1
x+... +a
n
x
n
e q = b
0
+b
1
x+... +b
n
x
n
.
La somma e il prodotto per uno scalare sono de-
nite da:
p +q = (a
0
+b
0
) +(a
1
+b
1
) x
1
+... +(a
n
+b
n
) x
n
p = a
0
+a
1
x +... +a
n
x, R
(V, +, ) `e uno spazio vettoriale.
(M
m,n
(R) , +, ) `e uno spazio vettoriale.
43
4.2 Lineare dipendenza e indi-
pendenza. Basi.
Denizione 4.2.1 Sia V uno spazio vettoriale sul cam-
po K. Un vettore w si dice combinazione lineare dei
vettori v
1
, ...v
r
secondo gli scalari
1
, ...,
r
K (detti
coecienti della combinazione) se pu` o essere espresso
nella forma
w =
1
v
1
+... +
r
v
r
Il vettore w si dice generato da v
1
, ..., v
r
.
Denizione 4.2.2 Siano v
1
, ..., v
r
vettori di uno spazio
vettoriale su K. Se lequazione vettoriale

1
v
1
+... +
r
v
r
= 0
ammette solo la soluzione nulla
1
= .... =
r
= 0,
i vettori v
1
, ..., v
r
sono detti linearmente indipendenti.
Diremo che v
1
, ..., v
r
sono linearmente dipendenti se `e
possibile generare il vettore nullo con una combinazione
44
lineare in cui non tutti gli scalari sono nulli.
Lemma 4.2.3 Due vettori sono linearmente dipendenti
se e solo se sono proporzionali.
Dim. Se v
1
, v
2
sono lineramente dipendenti, allora
esistono , in K, non entrambi nulli, tali che:
v
1
+v
2
= 0
da cui, supposto 6= 0, si ha:
v
1
=

v
2
.
Viceversa, se v
1
= v
2
per qualche 6= 0, allora
v
1
v
2
= 0.
Denizione 4.2.4 Dato un sistema B = {v
1
, ..., v
n
} di
vettori dello spazio vettoriale V sul campo K, diremo
che B `e una base di V se valgono le seguenti propriet` a:
B `e linearmente indipendente, ovvero

1
v
1
+... +
n
v
n
= 0
1
= ... =
n
= 0
45
B `e un sistema di generatori di V , ovvero
v V,
1
, ...,
n
K tali che
v =
1
v
1
+... +
n
v
n
.
Osservazione 4.2.5 B `e base se tutti i vettori di V
sono generati da B e il vettore nullo `e generato solo con
scalari tutti nulli.
Denizione 4.2.6 Data una base B = {v
1
, ..., v
n
} di
V , si ha v =
1
v
1
+... +
n
v
n
. Ln-pla (
1
, ...,
n
) viene
detta n-pla delle componenti di v in B e sar`a denotata
con c
B
(v).
Proposizione 4.2.7 Le componenti di v in B sono uni-
vocamente determinate.
Dim. Infatti se per assurdo c
B
(v) = (
1
, ...,
n
) =
(
1
, ..,
n
) , si ha:
v =
1
v
1
+... +
n
v
n
e v =
1
v
1
+... +
n
v
n
.
Sottraendo membro a membro si ha
0 = (
1

1
) v
1
+.. + (
n

n
) v
n
,
46
da cui essendo B linearmente indipendente segue

1
= ... =
n

n
= 0,
ovvero
1
=
1
, ...,
n
=
n
.
Esempio 4.2.8 Il sistema
B = {(1, 0, 0) , (0, 1, 0) , (0, 0, 1)}
`e una base di R
3
.
B `e lineramente indipendente, infatti da

1
(1, 0, 0) +
2
(0, 1, 0) +
3
(0, 0, 1) = (0, 0, 0),
segue (
1
,
2
,
3
) = (0, 0, 0).
B `e un sistema di generatori, infatti dato (a, b, c)
un generico vettore di R
3
si ha
(a, b, c) =
1
(1, 0, 0) +
2
(0, 1, 0) +
3
(0, 0, 1),
da cui (a, b, c) = (
1
,
2
,
3
) .
Osservazione 4.2.9 B `e una particolare base di R
3
det-
ta canonica. Per essa `e c
B
(v) = v.
Lemma 4.2.10 (Steinitz) Sia B = {v
1
, ..., v
n
} una base
di uno spazio vettoriale V. Allora ogni insieme di V con-
tenente pi` u di n vettori `e linearmente dipendente.
47
Dim. Sia T = {w
1
, .., w
m
} un sistema di vettori di
V con m > n. Si vuole dimostrare che T `e costituito
da vettori lineramente dipendenti e quindi che esistono

1
, ..,
m
non tutti nulli tali che:

1
w
1
+... +
m
w
m
= 0. (4.1)
Poich`e B `e una base di V e w
j
V j = 1, ..., m,
allora w
j
`e generato da B per cui
w
1
= a
11
v
1
+a
21
v
2
+... +a
n1
v
n
(4.2)
w
2
= a
12
v
1
+a
22
v
2
+... +a
n2
v
n
........................................
w
m
= a
1m
v
1
+a
2m
v
2
+... +a
nm
v
n
Sostituendo le espressioni (4.2) in (4.1) si ottiene:

1
(a
11
v
1
+a
21
v
2
+... +a
n1
v
n
) +
+
2
(a
12
v
1
+a
22
v
2
+... +a
n2
v
n
) +... +
+
m
(a
1m
v
1
+a
2m
v
2
+... +a
nm
v
n
) = 0.
48
Mettendo in evidenza v
1
, ...v
n
si ha
(
1
a
11
+
2
a
12
+... +
m
a
1m
) v
1
+
+(
1
a
21
+
2
a
22
+... +
m
a
2m
) v
2
+... +
+(
1
a
n1
+... +
m
a
nm
) v
n
= 0.
Per la lineare indipendenza dei vettori v
i
si ha
_

_
a
11

1
+a
12

2
+... +a
1m

m
= 0
a
21

1
+a
22

2
+... +a
2m

m
= 0.
...
a
n1

1
+a
n2

2
+... +a
nm

m
= 0
(4.3)
Il sistema (4.3), che ha per incognite
1
, ...,
m
, `e un
sistema omogeneo di n equazioni in m incognite con
n < m.
Osservando che il rango della matrice A = (a
ij
),
rk(A), `e tale che rk(A) n < m, si ha che tale sistema
ammette innite soluzioni e quindi esiste almeno una
n-pla (
1
, ...,
m
) 6= (0, ..., 0) che soddisfa la relazione
(4.1) da cui {w
1
, ..., w
m
} risulta linearmente dipendente.
49
Teorema 4.2.11 (della Base) Sia V uno spazio vet-
toriale nitamente generato. Allora tutte le basi di V
hanno lo stesso numero di vettori.
Dim. Siano B = {v
1
, ..., v
n
} e B
0
= {w
1
, ..., w
m
} due
basi di uno stesso spazio vettoriale V. Vogliamo dimo-
strare che m = n.
Consideriamo B come base di V e B
0
come insieme di
vettori linearmente indipendenti. Allora, per il lemma
di Steinitz, `e m n.
Viceversa, consideriamo B
0
come base di V e B come
insieme di vettori linearmente indipendenti. Allora, per
il lemma di Steinitz, `e n m. Quindi n = m.
Possiamo ora dare la seguente denizione.
Denizione 4.2.12 Si dice dimensione di V il numero
di elementi di una qualsiasi sua base.
Proposizione 4.2.13 Dato uno spazio vettoriale V di
dimensione n, un insieme di n vettori, B = {v
1
, ..., v
n
},
linearmente indipendenti `e una base.
50
Osservazione 4.2.14 Un insieme di vettori linearmen-
te indipendenti non pu` o contenere sottoinsiemi di vettori
linearmente dipendenti.
Infatti sia S = {v
1
, ..., v
r
} un insieme di vettori li-
nearmente indipendenti. Sia S
0
= {v
1
, ..., v
k
} con k < r
un insieme di vettori lineramente dipendenti, allora esi-
stono
1
, ...,
k
non tutti nulli tali che

1
v
1
+... +
k
v
k
+ 0v
k+1
+... + 0v
n
= 0
da cui segue che S `e lineramente dipendente e ci`o con-
trasta con le ipotesi.
Osservazione 4.2.15 Un insieme di vettori linearmen-
te dipendenti pu` o contenere sottoinsiemi di vettori che
sono linearmente indipendenti.
S = {(1, 1) , (2, 3) , (5, 7)} `e linearmente dipendente
ma S
0
= {(1, 1) , (2, 3)} `e linearmente indipendente.
Osservazione 4.2.16 Il vettore nullo `e linearmente di-
pendente poich`e 0 = 0 K. Dallosservazione
4.2.14 si deduce che il vettore nullo non pu` o far parte di
51
un insieme linearmente indipendente. In particolare, 0
non pu` o appartenere a una base.
Proposizione 4.2.17 B `e una base di uno spazio vet-
toriale V sul campo K se e solo se B `e un sistema mas-
simale di vettori linearmente indipendenti.
Dim. La condizione necessaria segue dal Lemma di
Steinitz.
Per provare la condizione suciente bisogna dimo-
strare che B genera V. Sia v V.
Se v B v = 1v. Se v / B B {v} `e
linearmente dipendente allora esistono
1
, ...,
n
, non
tutti nulli in K tali che

1
v
1
+... +
n
v
n
+v = 0
Se fosse = 0, allora si avrebbe

1
v
1
+... +
n
v
n
= 0
52
con qualche
i
6= 0 che `e assurdo perch`e B `e linearmente
indipendente. Allora devessere 6= 0
1
K
v =
1

1
v
1
...
1

n
v
n
.
Proposizione 4.2.18 B `e una base se e solo se B `e un
sistema minimale di generatori.
Dim. Supponiamo per assurdo che esista B
0
B
tale che B
0
generi V. Allora v BB
0
tale che v `e gene-
rato da B
0
, per cui B
0
{v} `e lineramente dipendente,
ma B
0
{v} B che `e linearmente indipendente.
Viceversa, supponiamo per assurdo che B sia linear-
mente dipendente, quindi esistono
1
, ...,
n
non tutti
nulli tali che

1
v
1
+... +
n
v
n
= 0.
Supponendo che
1
6= 0 si ha
v
1
=
1
1

2
v
2
...
1
1

n
v
n
.
Ponendo k
i
=
1
1

i
i = 2, ..., n, abbiamo v
1
= k
2
v
2
+
53
... +k
n
v
n
. Sia v V. Risulta
v = u
1
v
1
+... +u
n
v
n
=
= u
1
(k
2
v
2
+... +k
n
v
n
) +... +u
n
v
n
=
= (u
1
k
2
u
2
) v
2
+... + (u
1
k
n
u
n
) v
n
cio`e v `e generato da v
2
, ..., v
n
, contro lipotesi.
Proposizione 4.2.19 Sia V uno spazio vettoriale di di-
mensione n. Se B = {v
1
, ..., v
n
} `e un sistema di vettori
linearmente indipendenti allora B `e una base.
Dim. Sia v V allora B {v} `e un sistema di
vettori linearmente dipendenti per il lemma di Steinitz.
Segue che esistono
1
, ..,
n
, non tutti nulli in K tali
che
1
v
1
+ ... +
n
v
n
+ v = 0. Devessere 6= 0 v `e
generato da v
1
, ..., v
n
B `e un sistema di generatori
B `e una base.
Osservazione 4.2.20 Ogni insieme di vettori linear-
menti indipendenti pu` o essere completato a una base.
Ad esempio i vettori (1, 2, 3, 1) e (1, 2, 3, 1) sono li-
54
nearmente indipendenti. Aggiungendo ad essi i vettori
(0, 0, 1, 0) , (0, 0, 0, 1) otteniamo una base di R
4
.
Da ogni sistema di generatori `e possibile estrarre
una base, prendendo il massimo insieme linearmente in-
dipendente in esso contenuto.
4.3 Sottospazi vettoriali
Denizione 4.3.1 Sia V uno spazio vettoriale sul cam-
po K. Un sottoinsieme W V si dice sottospazio vet-
toriale di V se `e chiuso rispetto alle operazioni di somma
e prodotto per uno scalare denite su V. Ovvero
u, v W, u +v W
K, v W, v W
Osservazione 4.3.2 W `e un sottospazio vettoriale se
e solo se contiene tutte le combinazioni lineari di suoi
elementi.
Se V ha dimensione nita e W `e un suo sottospazio,
allora dimW dimV e luguaglianza vale se e solo se
55
W = V.
Se v
1
, ..., v
r
sono vettori di V , linsieme di tutte le
possibili combinazioni lineari di tali vettori costituisce
un sottospazio vettoriale detto sottospazio generato da
v
1
, ....v
r
e indicato con < v
1
, ..., v
r
>.
Esempio 4.3.3 Riportiamo alcuni esempi di sottospazi
vettoriali:
W = {(a, 0, b) / a, b R}
W = {A = (a
ij
) M
n
(R) / a
ij
= 0 se i = j}
W = {f : R R/ f (0) = 0}
W = {x R
n
/Ax = 0}.
Esempio 4.3.4 Riportiamo alcuni esempi di sottoin-
siemi di spazi vettoriali che non sono sottospazi:
W = {(1, a) / a R}
W = {p (x) K [x] / p ha grado 2}
W = {x R
n
/ Ax = b}.
56
Osservazione 4.3.5 Un qualsiasi sottoinsieme di uno
spazio vettoriale che non contenga il vettore nullo non
`e sottospazio vettoriale. Infatti se w W allora an-
che 0 w deve appartenere a W 0 W. Si deduce
che lappartenenza del vettore nullo a W `e condizione
necessaria perch`e W sia sottospazio vettoriale.
4.4 Lo spazio riga e lo spazio co-
lonna di una matrice
Denizione 4.4.1 Sia A una matrice di tipo mn su
R.
A =
_
_
_
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
... ... ... ...
a
m1
a
m2
... a
mn
_
_
_
_
_
_
_
_
.
Si denisce spazio riga lo spazio generato dalle riga di
A e lo si indica con W
r
= < A
1
, ..., A
m
> R
n
.
Analogamente si denisce spazio colonna lo spazio
57
generato dalle colonne di W
c
= < A
1
, ..., A
n
> R
m
.
Si dimostra che:
dimW
r
= dimW
c
cio`e il massimo numero di righe linearmente indipen-
denti `e uguale al massimo numero di colonne linearmente
indipendenti. Si dimostra inoltre che tale numero `e pro-
prio il rango di A.
4.5 Intersezione e somma di sot-
tospazi
Siano W
1
, W
2
due sottospazi vettoriali di uno spazio
vettoriali V sul campo K.
Deniamo i seguenti insiemi:
W
1
W
2
= {v V/v W
1
e v W
2
}
W
1
W
2
= {v V/v W
1
o v W
2
}
detti rispettivamente intersezione ed unione.
58
Osservazione 4.5.1 Lintersezione `e un sottospazio
vettoriale.
Osservazione 4.5.2 Siano u, v W
1
W
2

u, v W
1
e u, v W
2
.
Poich`e W
1
, W
2
sono chiusi rispetto alla somma,
u +v W
1
e u +v W
2
u +v W
1
W
2
.
Siano ora K e u W
1
W
2
u W
1
e
u W
2
.
Poich`e W
1
, W
2
sono chiusi rispetto al prodotto per
uno scalare u W
1
e u W
2
u
W
1
W
2
.
Osservazione 4.5.3 Lunione non `e un sottospazio vet-
toriale.Infatti W
1
W
2
non `e chiuso rispetto alla somma.
Presi
W
1
= {(0, a, b) /a, b R} e W
2
= {(a, b, 0) /a, b R}
entrambi sottospazi vettoriali di R
3
, consideriamo u =
(0, a, b) W
1
e v = (c, d, 0) W
2
u+v = (c, a +d, b).
59
Il vettore u+v / W
1
e u+v / W
2
u+v / W
1
W
2
.
Denizione 4.5.4 Siano W
1
e W
2
sottospazi vettoriali
di uno spazio vettoriale V sul campo K. Deniamo som-
ma di W
1
e W
2
il pi` u piccolo sottospazio vettoriale che
contiene W
1
W
2
.
In particolare si pu` o dire che W
1
+W
2
`e generato da
W
1
W
2
.
Osservazione 4.5.5 Dalla denizione di W
1
+ W
2
se-
gue che v W
1
+W
2
v `e combinazione lineare di vet-
tori di W
1
W
2
v `e dato dalla somma di unopportuna
combinazione lineare di vettori u
1
, ..., u
k
W
1
e di una
combinazione lineare di vettori w
1
, ..., w
h
W
2
, cio`e
v =
1
u
1
+... +
k
u
k
+
1
w
1
+... +
h
w
h
.
Se indichiamo con w
1
=
1
u
1
+ ... +
k
u
k
e
w
2
=
1
w
1
+...+
h
w
h
, possiamo dire che v W
1
+W
2

v = w
1
+w
2
con w
1
W
1
e w
2
W
2
.
Teorema 4.5.6 (Relazione di Grassmann) Se W
1
e W
2
sono sottospazi vettoriali di uno spazio vettoriale V di
60
dimensione nita, allora
dim(W
1
+W
2
) = dimW
1
+ dimW
2
dim(W
1
W
2
).
Osservazione 4.5.7 Da quanto detto si deduce che se
B
1
`e una base di W
1
e B
2
`e una base di W
2
, allora
B
1
B
2
`e un sistema di generatori di W
1
+ W
2
, dal
quale si pu` o estrarre una base di W
1
+W
2
prendendo un
sistema massimale di vettori linearmente indipendenti.
Denizione 4.5.8 Dati W
1
e W
2
sottospazi vettoriali
la somma W
1
+ W
2
si dice diretta se W
1
W
2
= {0} e
si indica con W
1
W
2
.
In particolare si ha dim(W
1
W
2
) = dimW
1
+dimW
2
.
4.6 Rappresentazione di un sot-
tospazio vettoriale
Si dimostra che un sottospazio vettoriale di dimensione
h in uno spazio di dimensione n si rappresenta con un
sistema lineare omogeneo Ax =0 con rk(A) = n h e
61
x R
n
, ovvero un sottospazio di dimensione h si rappre-
senta con un sistema lineare omogeneo di nh equazioni
linearmente indipendenti in n incognite. Tale sistema
non `e univocamente determinato.
Vale anche il viceversa.
Se Ax =0 `e un sistema lineare omogeneo in n inco-
gnite con rk(A) = p, allora lo spazio delle soluzioni `e un
sottospazio vettoriale di R
n
di dimensione n p.
62
Capitolo 5
SPAZI EUCLIDEI
5.1 Denizioni
Denizione 5.1.1 Sia V uno spazio vettoriale reale.
Unapplicazione
: V V R
(u, v) u v
si dice prodotto scalare se gode delle seguenti propriet`a:
u, v, w V, R,
(1) (u +v) w = u w +v w (linearit` a a sinistra)
63
(2) (u) v = (u v) (omogenit`a)
(3) u v = v u (simmetria)
(4) u u 0 e u u = 0 u = 0 (positivit` a).
Osservazione 5.1.2 Dalla simmetria si ricava la li-
nearit`a a destra, cio`e:
w (u +v) = w u +w v.
Inoltre `e facile vericare che:
u (v) = (u v)
0 v = v 0 = 0.
Esempio 5.1.3 Diamo alcuni esempi di prodotti sca-
lari:
Prodotto scalare ordinario o canonico
: R
n
R
n
R
u v = u
1
v
1
+ ... + u
n
v
n
dove u = (u
1
, ..., u
n
),
v = (v
1
, ..., v
n
).
: R
2
R
2
R
uv = 3u
1
v
1
+2u
2
v
2
dove u = (u
1
, u
2
), v = (v
1
, v
2
).
64
Sia V lo spazio delle funzioni continue su [a, b]
f : [a, b] R, con a < b.
: V V R
f g =
R
b
a
f(x)g(x)dx.
5.2 Spazi euclidei reali
Denizione 5.2.1 Sia V uno spazio vettoriale su R. Se
V `e dotato di un prodotto scalare si dice spazio euclideo
reale.
Proposizione 5.2.2 (Disuguaglianza di Cauchy-
Schwarz). Se u e v sono vettori di uno spazio euclideo
reale V , allora
(u v)
2
(u u)(v v).
Dim. Se v = 0, allora `e 0 0 e quindi la tesi `e
ovvia. Supponiamo che v 6= 0. Consideriamo il vettore
w di V ottenuto come combinazione lineare di u e v con
scalari (u v) e v v, cio`e w = (v v)u (u v)v. Dalla
65
propriet` a (4) del prodotto scalare segue che w w 0,
ovvero
w w = [(v v)u (u v)v] [(v v)u (u v) v] =
= (v v)
2
(u u) (v v)(u v)
2

(u v)
2
(v v) + (u v)
2
(v v) =
= (v v)[(v v)(u u) (u v)
2
] 0.
Poich`e v v 0, si ha:
(v v)(u u) (u v)
2
0
(u v)
2
(u u)(v v).
Denizione 5.2.3 Dato un vettore u V spazio eucli-
deo, si denisce norma (o modulo) del vettore u il nu-
mero reale |u| =

u u.
Valgono le seguenti proprit` a della norma:
(1) |u| 0
(2) |u| = 0 u = 0
66
(3) |u| = |||u|
(4) |u +v| |u| + |v| (disuguaglianza triangolare).
5.3 Basi ortonormali
Siano u e v appartenenti allo spazio euclideo reale V
e siano non nulli. Per la disuguaglianza di Cauchy-
Schwarz si ha
(u v)
2
|u|
2
|v|
2

u v
|u| |v|

2
1
cio`e
1
u v
|u| |v|
1.
Poich`e esiste un unico angolo compreso tra 0 e
tale che
cos =
u v
|u| |v|
tale angolo viene denito angolo tra i vettori u, v.
67
Segue che
d u, v = arco cos
u v
|u| |v|
.
Denizione 5.3.1 Due vettori u e v si dicono ortogo-
nali se u v = 0. Un vettore si dice normale se |u| = 1.
Denizione 5.3.2 Sia V uno spazio euclideo di dimen-
sione n. Una base B = {u
1
, ..., u
n
} si dice ortonormale
se u
i
u
j
=
ij
.
Proposizione 5.3.3 Se {u
1
, ..., u
k
} `e u insieme di vet-
tori non nulli ortogonali, allora tale insieme `e linearmen-
te indipendente.
Dim. Consideriamo lequazione vettoriale

1
u
1
+... +
k
u
k
= 0 (5.1)
e dimostriamo che
i
= 0 i = 1, ..., k. Moltiplichiamo
la (5.1) per un ssato u
i
(con i {1, ..., k})
(
1
u
1
+... +
k
u
k
) u
i
= 0 u
i
.
68
Per la (1) e la (2) della denizione di prodotto scalare,
si ha

1
(u
1
u
i
) +.. +
i
(u
i
u
i
) +...
k
(u
k
u
i
) = 0. (5.2)
Per ipotesi u
j
u
i
= 0 per j 6= i, quindi la (5.2) si riduce
a
i
(u
i
u
i
) = 0. da cui segue
i
= 0. Facendo variare i
da 1 a k si ha
i
= 0 i = 1, ..., k.
Teorema 5.3.4 (Componenti di una base ortonormale)
Se B = {u
1
, ..., u
n
} `e una base ortonormale di uno spazio
euclideo V , allora preso un vettore v di V si ha:
v = (v u
1
)u
1
+... + (v u
n
)u
n
.
Dim. Dal fatto che B `e un sistema di generatori di
V segue che esistono
1
,...,
n
tali che
v =
1
u
1
+... +
n
u
n
. (5.3)
Moltiplichiamo ambo i membri della (5.3) per u
i
(con
69
i ssato tra 1 e n).
v u
i
= (
1
u
1
+... +
n
u
n
) u
i
=
=
1
(u
1
u
i
) +... +
i
(u
i
u
i
) +... +
n
(u
n
u
i
)
da cui v u
i
=
i
.
Denizione 5.3.5 Si denisce proiezione ortogonale di
un vettore v su un vettore u il vettore proporzione ad u
cos
`
i ottenuto:
proj
u
v =
v u
|u|
2
u.
Analogamente si denisce proiezione di un vettore
v su un sottospazio W di base B = {u
1
, ..., u
n
} il vet-
tore che si ottiene come somma delle proiezioni di v su
ciascun vettore u
i
B i = 1, ..., k.
Teorema 5.3.6 (Gram-Schmidt) Ogni spazio euclideo
V di dimensione nita possiede una base ortonormale.
Dim. La dimostrazione `e costruttiva ossia fornisce
un metodo per il calcolo di una base ortonormale. Tale
70
metodo prende il nome di procedimento di ortonorma-
lizzazione di Gram-Schmidt.
Supponiamo che B = {v
1
, ..., v
n
} sia una base di V .
A partire da B costruiamo una base B
0
= {u
1
, ..., u
n
} di
V in modo che u
i
u
j
=
ij
.
Poniamo
u
1
=
v
1
|v
1
|
,
in tal modo u
1
`e normale.
Poniamo
u
0
2
= v
2
proj
u
1
v
2
= v
2
(v
2
u
1
)u
1
Si ha
u
1
u
0
2
= u
1
(v
2
(v
2
u
1
)u
1
) =
= u
1
v
2
(v
2
u
1
)(u
1
u
1
) =
= u
1
v
2
(v
2
u
1
) = 0.
71
Deniamo
u
2
=
u
0
2
|u
0
2
|
Poniamo
u
0
3
= v
3
proj
u
1
v
3
proj
u
2
v
3
=
= v
3
(v
3
u
1
)u
1
(v
3
u
2
)u
2
.
Si vede che u
0
3
u
1
= 0 e u
0
3
u
2
= 0.
Normalizzando u
0
3
si ha
u
3
=
u
0
3
|u
0
3
|
.
Alli-esimo passo si ha
u
0
i
= v
i
proj
u
1
v
i
proj
u
2
v
i
... proj
u
i1
v
i
=
= v
i
(v
i
u
1
)u
1
(v
i
u
2
)u
2
... (v
i
u
i1
)u
i1
e
u
i
=
u
0
i
|u
0
i
|
.
72
Completando il procedimento i = 1, ..., n si ottiene
linsieme B
0
= {u
1
, ..., u
n
} che `e una base ortonormale
di V.
5.4 Sottospazi ortogonali
Denizione 5.4.1 Sia W un sottospazio vettoriale di
uno spazio vettoriale euclideo V. Allora il sottoinsieme
di V costituito da tutti i vettori ortogonali a tutti i vettori
di W si dice sottospazio ortogonale a W e si indica con
W

, cio`e
W

= {v V/ v w = 0 w W}.
Proposizione 5.4.2 W

`e un sottospazio vettoriale di
V .
Dim. Presi u, u
0
W

, allora
(u + u
0
) w = u w + u
0
w = 0 + 0 = 0 w W
(chiusura rispetto alla somma).
Se K, u W

, allora (u) w = (u w) = 0 = 0
w W (chiusura rispetto al prodotto).
73
Proposizione 5.4.3 Dato W sottospazio vettoriale di
V , un vettore `e ortogonale a W se e solo se `e ortogonale
ad un sistema di generatori di W (in particolare ad una
base di W).
Proposizione 5.4.4 Ogni spazio euclideo V di dimen-
sione nita si pu`o rappresentare come somma diretta di
un suo sottospazio vettoriale W e di W

, cio`e
V = W W

.
74
Capitolo 6
APPLICAZIONI
LINEARI
6.1 Denizioni
Denizione 6.1.1 Siano V e V
0
due spazi vettoriali su
uno stesso campo K. Unapplicazione
f : V V
0
75
si dice applicazione lineare (o omomorsmo) se verica
le due propriet`a:
(a) f (u +v) = f (u) +f (v) , u, v V
(b) f (u) = f (u) , u V, K
che sono equivalenti alla propriet` a
(c) f (u +v) =f (u) +f (v) , u,v V, , K.
Osservazione 6.1.2 Si osservi che loperazione u al
primo membro della (b) `e loperazione di prodotto per
uno scalare in V, quindi deve appartenere al campo
su cui `e denito V ; a secondo membro, invece, f (u)
si riferisce alloperazione di prodotto per uno scalare in
V
0
, quindi deve appartenere al campo su cui `e denito
V
0
. Luguaglianza (b) impone la necessit`a che i campi di
V e V
0
coincidano.
Di seguito riportiamo alcune denizioni:
Unapplicazione lineare iniettiva si dice monomor-
smo.
76
Unapplicazione lineare suriettiva si dice epimor-
smo.
Unapplicazione lineare biettiva si dice isomorsmo.
Unapplicazione lineare di uno spazio in s`e si dice
endomorsmo.
Denizione 6.1.3 Data f : V V
0
lineare, deniamo
i seguenti insiemi
ker f = {v V / f (v) = 0}
Imf = {v
0
V
0
/ v V : f (v) = v
0
}
che chiameremo rispettivamente nucleo ed immagine di
f.
Proposizione 6.1.4 Data f : V V
0
lineare, allora il
nucleo e limmagine di f sono rispettivamente sottospazi
vettoriali di V e di V
0
.
Dim. Per dimostrare che il nucleo di f `e un sotto-
spazio, basta provare che `e chiuso rispetto alla somma e
77
al prodotto per uno scalare. Presi u, v vettori di ker f e
un qualsiasi scalare si ha:
f (u +v) = f (u) +f (v) = 0 + 0 = 0
e quindi u +v appartiene a ker f. Inoltre
f (u) = f (u) = 0 = 0
e u appartiene a ker f.
Analogamente, proviamo che limmagine di f `e un
sottospazio. Presi v
1
, v
2
vettori di Imf e un qualsiasi
scalare segue che esistono u
1
, u
2
V : f (u
1
) = v
1
e
f (u
2
) = v
2
. Si ha
v
1
+v
2
= f (u
1
) +f (u
2
) = f (u
1
+u
2
) Imf
e
v
1
= f (u
1
) = f (u
1
) Imf.
78
Esempio 6.1.5 Sia V uno spazio vettoriale di dimen-
sione n sul campo K. Sia B = {v
1
, ..., v
n
} una base di
V. Lapplicazione
c
B
: V K
n
v (
1
, ..,
n
) , v =
1
v
1
+... +
n
v
n
`e un isomorsmo.
Teorema 6.1.6 (della Dimensione) Siano V uno spazio
vettoriale di dimensione nita e f : V V
0
un appli-
cazione lineare. Allora
dimV = dimker f + dimImf.
Dim. Supponiamo che dimV = n e dimker f = r.
Sia B
0
= {u
1
, ...., u
r
} una base di ker f.
Esistono nr vettori in V linearmente indipendenti
tali che B = {u
1
, ..., u
r
, u
r+1
, ..., u
n
} `e una base di V.
Per completare la dimostrazione basta provare che
B
00
= {f (u
r+1
) , ..., f (u
n
)} `e una base di Imf. Seguir` a
allora che dimker f +dimImf = r +nr = n = dimV,
79
cio`e la tesi.
Per dimostrare che B
00
`e base di Imf, dobbiamo
provare che
1) B
00
`e un sistema di generatori
2) B
00
`e un insieme di vettori linearmente indipen-
denti.
Proviamo la 1).
Se v
0
`e un vettore dellimmagine, allora esiste v in
V : v
0
= f (v) . Poich`e B `e base di V , esistono
1
, ...,
n
:
v =
1
u
1
+... +
n
u
n
. Allora si ha:
v
0
=f (v) =
=f (
1
u
1
+.. +
r
u
r
+
r+1
u
r+1
+.. +
n
u
n
) =
=
1
f (u
1
) +... +
r
f (u
r
) +
+
r+1
f (u
r+1
) +... +
n
f (u
n
)
Per ipotesi, u
1
, ..., u
r
appartengono al nucleo di f e
quindi f (u
1
) = ... = f (u
r
) = 0, da cui segue che
v
0
=
r+1
f (u
r+1
) +... +
n
f (u
n
) .
Proviamo la 2).
80
Consideriamo una combinazione lineare nulla di ele-
menti di B
00
:
h
r+1
f (u
r+1
) +... +h
n
f (u
n
) = 0. (6.1)
Per la linearit` a della f possiamo scrivere
f (h
r+1
u
r+1
+... +h
n
u
n
) = 0.
Da qui segue che il vettore h
r+1
u
r+1
+... +h
n
u
n
ap-
partiene a ker f e quindi, essendo B
0
una base del nu-
cleo, esistono h
1
, ..., h
r
tali che h
r+1
u
r+1
+ ... + h
n
u
n
=
h
1
u
1
+... +h
r
u
r
, cio`e
h
1
u
1
+... +h
r
u
r
h
r+1
u
r+1
... h
n
u
n
= 0.
Questultima `e una combinazione lineare nulla di vet-
tori di una base di V per cui tutti gli scalari devono
essere nulli. In particolare h
r+1
= ... = h
n
= 0 e dalla
(6.1) si deduce che f (u
r+1
) , ..., f (u
n
) sono linearmente
indipendenti il che completa la dimostrazione.
Di seguito riportiamo alcune propriet` a delle appli-
81
cazioni lineari.
Siano V uno spazio vettoriale e B = {u
1
, ..., u
n
} una
sua base.
(1) Sia f : V V
0
un omomorsmo, allora
{f (u
1
) , ..., f (u
n
)} `e un sistema di generatori per
Imf.
(2) Se v
1
, ..., v
n
sono n vettori qualsiasi di V
0
, allora
esiste un unico omomorsmo f: V V
0
tale che
f (u
1
) = v
1
, ..., f (u
n
) = v
n
e v V,
v =
1
u
1
+...+
n
u
n
, si ha f (v) =
1
v
1
+...+
n
v
n
.
Tale applicazione prende anche il nome di prolunga-
mento lineare a V .
Osservazione 6.1.7 Dalla (2) segue che per assegnare
univocamente un omomorsmo, basta dare le immagini
dei vettori di una base di V.
(3) Se V `e uno spazio vettoriale di dimensione n, se
{u
1
, ....., u
k
} `e un insieme di vettori di V linearmen-
te indipendenti con k < n, allora esistono in-
nite aplicazioni lineari f: V V
0
tali che, scelti
82
v
1
, ..., v
k
V
0
, si ha
f (u
1
) = v
1
, ..., f (u
k
) = v
k
.
Esempio 6.1.8 Siano V = R
4
e V
0
= R
3
. Consi-
deriamo il sistema B
0
= {(1, 1, 0, 1), (0, 2, 1, 3)} di
R
4
linearmente indipendente. Vogliamo capire se esiste
unapplicazione lineare f : R
4
R
3
tale che:
f (1, 1, 0, 1) = (3, 1, 1)
f (0, 2, 1, 3) = (0, 1, 2)
(6.2)
Se completiamo B
0
ad una base di R
4
e scegliamo
due vettori di R
3
, allora esiste ununica applicazione che
soddisfa le nostre richieste.
Siano
(0, 0, 1, 0), (0, 0, 0, 1) R
4
,(1, 0, 1), (1, 2, 0) R
3
,
per la (2) esiste ununica f:R
4
R
3
tale che valgono le
(6.2) e f(0, 0, 1, 0)=(1, 0, 1) e f(0, 0, 0, 1)=(1, 2, 0).
Poich`e il completamento di B
0
non `e unico e la scelta
di altri due vettori R
3
non `e unica, allora esistono
innite applicazioni che soddisfano (6.2).
83
(4) Siano u
1
, ..., u
h
sono vettori linearmente dipendenti
di V e siano
1
, ...,
h
scalari non tutti nulli per
cui
1
u
1
+ .. +
h
u
h
= 0. Scelti v
1
, ..., v
h
vet-
tori arbitrari di V
0
, allora esiste unapplicazione
di V in V
0
tale che f (u
i
) = v
i
se e solo se vale

1
v
1
+... +
h
v
h
= 0.
Esempio 6.1.9 Siano u
1
= (3, 1, 1), u
2
= (1, 0, 1),
u
3
= (5, 1, 1). Vogliamo vedere se esiste un appli-
cazione lineare f: R
3
R
3
tale che
f (u
1
)=(1, 1, 0) , f (u
2
)=(0, 4, 1) , f (u
3
)=(5, 6, 7) .
Osserviamo che u
1
, u
2
, u
3
sono linearmente dipen-
denti. Infatti u
3
= u
1
+ 2u
2
. Allora, anch`e esista
unapplicazione lineare f come richiesta, deve essere
f (u
3
) = f (u
1
+ 2u
2
) = f (u
1
) + 2f (u
2
).
Vediamo se `e vero. Calcoliamo lultimo membro:
f (u
1
) + 2f (u
2
) = (1, 1, 0) + 2 (0, 4, 1) =
= (1, 7, 2) 6= (5, 6, 7) = f (u
3
).
Segue che non esiste alcuna applicazione lineare che
assegni ad u
1
, u
2
, u
3
le immagini scelte.
Esempio 6.1.10 Siano u
1
, u
2
, u
3
i vettori dellesempio
84
precedente.Vogliamo vericare se esiste unapplicazione
lineare
f : R
3
R
2
tale che
f (u
1
) = (3, 2) , f (u
2
) = (1, 1) , f (u
3
) = (5, 0).
Con discorso analogo a quanto fatto nellesempio pre-
cedente, lapplicazione richiesta esiste se e solo se
f (u
3
) = f (u
1
) + 2f (u
2
).
Poich`e (5, 0) = (3, 2)+2 (1, 1) , allora f esiste. Tut-
tavia, poich`e f non `e denita su una base di R
3
, essa
non `e univocamente determinata. Completiamo {u
1
, u
2
}
a una base di R
3
, aggiungendo per esempio (0, 0, 1) .
Scegliamo un vettore di R
2
, per esempio (3, 0) , e poni-
amo f (0, 0, 1) = (3, 0) . Allora la f cos
`
i costruita sod-
disfa le richieste. Larbitrariet`a della scelta del comple-
tamento e dei vettori immagine giustica la non unicit` a
di f.
Proposizione 6.1.11 Sia f : V V
0
unapplicazione
lineare. Allora sono vere le seguenti asserzioni:
(a) f iniettiva ker f = {0}
85
(b) f iniettiva f trasforma sistemi di vettori li-
nearmente indipendenti di V in sistemi indipen-
denti di V
(c) f iniettiva f trasforma sottospazi di V in sot-
tospazi di V
0
della stessa dimensione
(d) f suriettiva f trasforma sistemi di generatori
di V in sistemi di generatori di V
0
(e) f biettiva dimV = dimV
0
(f ) f biettiva f trasforma basi di V in basi di V
0
.
6.2 Rappresentazione matriciale
Siano V e V
0
due spazi vettoriali sullo stesso campo K
di dimensioni, rispettivamente, n e m. Consideriamo
lapplicazione lineare f : V V
0
. Siano B = {u
1
, ..., u
n
}
una base di V e B
0
= {v
1
, ..., v
m
} una base di V
0
.
Sia v V v = x
1
u
1
+ .... + x
n
u
n
per opportuni
x
1
, ..., x
n
K c
B
(v) = (x
1
, ..., x
n
) .
Poich`e f (v) V
0
f (v) = y
1
v
1
+ ... + y
m
v
m
per
opportuni y
1
, ..., y
m
K c
B
0 (f (v)) = (y
1
, ..., y
m
).
86
Determiniamo la relazione che intercorre tra le com-
ponenti di v rispetto a B e le componenti di f (v) ri-
spetto a B
0
.
Da v = x
1
u
1
+... +x
n
u
n
segue per la linearit` a della
f che:
f (v) = f (x
1
u
1
+... +x
n
u
n
) =
= x
1
f (u
1
) +... +x
n
f (u
n
) .
Osserviamo che f (u
i
) V
0
i = 1, ..., n, quindi de-
vono essere generati da B
0
, ovvero
f (u
1
) = a
11
v
1
+a
21
v
2
+... +a
m1
v
m
f (u
2
) = a
12
v
1
+a
22
v
2
+... +a
m2
v
m
...
...
f (u
n
) = a
1n
v
1
+a
2n
v
2
+... +a
mn
v
m
che sostituite nellespressione di f (v) danno
f (v) = (a
11
x
1
+a
12
x
2
+... +a
1n
x
n
) v
1
+
+(a
21
x
1
+a
22
x
2
+... +a
2n
x
n
) v
2
+... +
(a
m1
x
1
+a
m2
x
2
+... +a
mn
x
n
) v
n
87
da cui si ricava che:
c
B
0 (f (v)) = (a
11
x
1
+... +a
1n
x
n
, a
21
x
1
+... +
+a
2n
x
n
, ..., a
m1
x
1
+... +a
mn
x
n
) = (y
1
, ..., y
m
)
e quindi
_

_
y
1
= a
11
x
1
+... +a
1n
x
n
y
2
= a
21
x
1
+... +a
2n
x
n
...
....
y
m
= a
m1
x
1
+... +a
mn
x
n

_
_
_
_
_
_
_
_
_
_
_
y
1
y
2
.
.
y
m
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
... ... ... ...
a
m1
a
m2
... a
mn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
x
n
_
_
_
_
_
_
_
_
_
_
_
c
B
0 (f (v)) = Ac
B
(v)
dove A`e la matrice la cui j-esima colonna `e costituita
dalle componenti di f (u
j
) rispetto a B
0
.
Osserviamo che se f : K
n
K
m
e B, B
0
sono le basi
canoniche rispettivamente di K
n
e K
m
, allora c
B
(v) = v
88
e c
B
0 (f (v)) = f (v) e quindi
f (v) = Av.
89
Capitolo 7
DIAGONALIZZAZIO-
NE
7.1 Autovalori e autovettori di
una matrice
Denizione 7.1.1 Sia A una matrice quadrata di or-
dine n sul campo K. Un vettore v non nullo di K
n
, si
dice autovettore di A se esiste un elemento di K tale che
Av = v.
90
Lo scalare `e detto autovalore di A relativo a v.
Denizione 7.1.2 Un elemento di K `e detto auto-
valore di A se esiste un vettore non nullo di K
n
tale
che Au = u. Lautovettore u si dir`a autovettore di A
relativo (o associato) a .
Osservazione 7.1.3 Un autovettore individua univoca-
mente lautovalore ad esso relativo. Infatti se per as-
surdo esistessero due autovalori di v,
1
e
2
, si avrebbe
che Av =
1
v e Av =
2
v da cui 0 = (
1

2
) v, e
quindi
1
=
2
essendo v 6= 0.
Non `e vero il viceversa, esistono pi` u autovettori re-
lativi ad un ssato autovalore. Infatti se v `e un autovet-
tore relativo ad un ssato di K, allora ogni vettore hv
con h in K {0} `e un autovettore relativo a essendo
A(hv) = hAv = h(v) = (hv) .
Denizione 7.1.4 Dato un elemento non nullo di
K, deniamo autospazio di e lo indichiamo con V

linsieme costituito da tutti gli autovettori di e dal vet-


tore nullo.
91
Proposizione 7.1.5 Linsieme V

`e un sottospazio vet-
toriale di K
n
.
Dim. Proviamo che V

`e chiuso rispetto alla somma.


Siano v
1
, v
2
autovettori relativi a . Si ha Av
1
= v
1
e Av
2
= v
2
da cui A(v
1
+v
2
) = (v
1
+v
2
) e quindi
v
1
+v
2
`e autovettore relativo a .
Inoltre, per losservazione precedente, V

`e chiuso an-
che rispetto al prodotto per uno scalare.
Proposizione 7.1.6 `e autovalore di A se e solo se
`e radice del polinomio cartteristico |AI|.
Dim. Infatti `e autovalore di A se e solo se esiste
un vettore v di K
n
non nullo tale che Av = v da cui
Av = Iv e da qui (AI) v = 0 cio`e v `e soluzione non
banale del sistema lineare (AI) x = 0 con A I
matrice quadrata e quindi per avere soluzioni non nulle
deve essere |AI| = 0.
Denizione 7.1.7 Lequazione |AI| = 0 si dice
equazione caratteristica.
92
Osservazione 7.1.8 Si osservi che |AI| `e un poli-
nomio di grado n, detto polinomio caratteristico, per cui
esistono al pi` u n autovalori distinti relativi ad A.
Denizione 7.1.9 Sia in K un autovalore di A. De-
niamo molteplicit`a geometrica di e la indichiamo con
m
g

la dimensione dellautospazio associato a .


Denizione 7.1.10 Sia in K un autovalore di A.
Deniamo molteplicit` a algebrica di e la indichiamo
con m
a

la molteplicit`a di come radice del poli-


nomio caratteristico, ovvero il massimo intero m tale
che

m
divide |AI| .
Proposizione 7.1.11 Sia in K un autovalore di A,
allora vale la seguente relazione
1 m
g

m
a

.
Osservazione 7.1.12 Gli autovettori relativi a sono
le soluzioni del sistema lineare omogeneo

AI

v = 0.
93
Proposizione 7.1.13 Valgono le seguenti propriet`a re-
lative agli autospazi:
Se
1
,
2
sono autovalori distinti di A, risulta
V

1
V

2
= {0}, quindi la somma V

1
+ V

2
`e
diretta.
Siano v
1
, ..., v
t
autovettori associati ad autovalori
distinti
1
, ...,
t
di A, allora v
1
, ..., v
t
sono linear-
mente indipendenti.
Siano
1
, ...,
s
autovalori distinti di A e siano
B
1
, ..., B
s
basi rispettivamente di V

1
, ..., V
s
, al-
lora B
1
...B
s
`e linearmente indipendente, quindi
`e base di V

1
+... +V

s
.
Ne segue che dim(V

1
+... +V

s
) = m
g
(
1
) + ... +
m
g
(
s
) e la somma degli autospazi `e diretta.
94
7.2 Autovalori ed autovettori di
un endomorsmo
Sia V uno spazio vettoriale di dimensione n sul campo
K e f unapplicazione lineare di V in s`e.
Denizione 7.2.1 Un vettore non nullo u di V `e detto
autovettore di f se esiste un elemento di K : f (u) = u.
Lo scalare `e detto autovalore di f relativo ad u.
Denizione 7.2.2 Un elemento k `e detto autova-
lore di f se v 6= 0, v V, tale che f (v) = v, cio`e se
esiste un autovettore v di f tale che sia lautovalore
associato a v. Il vettore v `e detto un autovettore di f
relativo allautovalore .
Esempio 7.2.3 Sia V 6= {0} e
f : V V,
u 0
Osserviamo che V, f (u) = 0 u = 0 per cui ogni
95
vettore di V `e autovettore relativo a 0 e 0 `e lunico au-
tovalore di f.
Denizione 7.2.4 Se `e un autovalore di f, deno-
tiamo con
V

= {u V/f (u) = u}
l autospazio relativo allautovalore .
V

`e sottospazio vettoriale di V e la sua dimensione,


indicata con m
g
() ,viene detta molteplicit`a geometrica
dellautovalore .
Proposizione 7.2.5 autovalore di f, risulta
f (V

) V

e se 6= 0, f (V

) = V

.
Fissiamo una base B = {u
1
, ..., u
n
} di V . Allora, se
: V V e
v = x
1
u
1
+... +x
n
u
n
, (v) = y
1
u
1
+... +y
n
u
n
96
si ha y = Ax con x = (x
1
, ..., x
n
) , y = (y
1
, ..., y
n
) e A la
matrice di ordine n rappresentativa di f rispetto a B.
Un autovettore di f `e un vettore non nullo u tale che
f (u) = u e questultima relazione `e vera se e solo se le
coordinate di u soddisfano la relazione Ax = x.
Si ha quindi che un elemento K `e autovalore
di f se e solo se il sistema lineare omogeneo Ax = x
ammette soluzioni non banali, se e solo se
Ax Ix = 0 (AI) x = 0 |AI| = 0.
Allora risulta evidente la seguente:
Proposizione 7.2.6 Sia V uno spazio vettoriale di di-
mensione n e : V V un endomorsmo.
Sia A M
n
(K) matrice associata a rispetto a una
base B. Valgono le seguenti propriet`a:
gli autovalori di sono gli autovalori di A
il vettore v `e un autovettore di corrispondente
allautovalore K se e solo se c
B
(v) `e un au-
tovettore di A associato a .
97
Proposizione 7.2.7 Se A e B sono matrici di uno stes-
so endomorsmo f di V, risulta:
|AI| = |B I| .
Osservazione 7.2.8 Dalle proposizioni precedenti se-
gue che tutto quanto riguarda autovalori ed autovettori
di matrici pu`o essere rivisto in termini di endomorsmi,
quindi tutti i risultati visti nel caso delle matrici valgono
anche per gli endomorsmii.
Osservazione 7.2.9 Osserviamo che le matrici di cui
alla proposizione precedente sono intese come matrici
rappresentative di f rispetto a una stessa base presa nel
dominio e nel codominio, altrimenti la proposizione `e
falsa. Infatti sia
f : R
2
R
2
tale che f (x, y) = (2x + 2y, 4x) .
La matrice rappresentativa di f rispetto alla base cano-
98
nica `e
A =
_
_
2 2
4 0
_
_
.
Si ha che
|AI| =
2
2 8=0 da cui
1
=4,
2
=2.
La matrice di f rispetto alla base B = {(1, 1) , (2, 0)} e
alla base canonica `e
B =
_
_
4 4
4 8
_
_
.
Osserviamo che
|B I| =
2
12 + 16 = 0
da cui
1
= 6 +

20,
2
= 6

20
mentre la matrice rispetto a B presa nel dominio e nel
99
codominio `e
C =
_
_
4 8
0 2
_
_
e
|C I| = (4 ) (2 ) = 0
da cui
1
= 4,
2
= 2.
7.3 Diagonalizzazione
Denizione 7.3.1 Una matrice quadrata A M
n
(K)
si dice diagonalizzabile se `e simile ad una matrice dia-
gonale D, cio`e se esiste una matrice invertibile P tale
che
D = P
1
AP
Si dice che P diagonalizza A.
Denizione 7.3.2 Se V `e uno spazio vettoriale di di-
mensione n ed f `e un endomorsmo di V, allora f si
100
dice diagonalizzabile se esiste una base B di V tale che
la matrice rappresentativa di f rispetto a B `e una ma-
trice diagonale.
Osservazione 7.3.3 Un endomorsmo `e diagonaliz-
zabile se tale `e la matrice che lo rappresenta rispetto ad
una ssata base.
Proposizione 7.3.4 Sia f : V V e sia dimV = n,
f `e diagonalizzabile se e solo se V possiede una base di
autovettori.
Dim. Se f `e diagonalizzabile, allora esiste una base
B = {u
1
, ..., u
n
} di V tale che rispetto a B `e rappresen-
tata da una matrice diagonale:
D =
_
_
_
_
_
_
_
_

1
0 ... 0
0
2
... 0
... ... ... ...
0 0 ...
2
_
_
_
_
_
_
_
_
.
Per denizione di matrice rappresentatrice di f in B,
la colonna j-esima (1 j n) di D`e il vettore delle com-
101
ponenti di f(u
j
) in B,cio`e c
B
(f(u
j
))=(0,0,...,
j
,...,0).
Per denizione di componenti,
f(u
j
) = 0
u
1
+ 0
u
2
+... +
j
u
j
+... + 0u
n
=
j
u
j
da cui u
j
`e autovettore.
Quindi B `e costituita da autovettori.
Viceversa, se B `e costituita da autovettori, allora
j = 1, ..., n

j
K : f (u
j
) =
j
u
j
c
B
(f (u
j
)) = (0, ...,
j
, ..., 0)
e cio`e la matrice che rappresenta f in B `e diagonale.
Valgono per matrici (ed endomorsmi) diagonaliz-
zabili alcune caratterizzazioni che andiamo ad elencare.
Proposizione 7.3.5 Siano
1
, ...,
t
autovalori distinti
di A (o di f), A M
n
(K) `e diagonalizzabile se e solo
se
(1) A ha n autovettori linearmente indipendenti
(2) V

1
+... +V

t
= K
n
102
(3) dimV

1
+... + dimV
t
= n.
Nel caso di endomorsmo diagonalizzabile la (1) e
(2) si riscrivono come:
(1) V ha n autovettori linearmente indipendenti
(2) V

1
+... +V

t
= V .
Teorema 7.3.6 (Caratterizzazione principale delle ma-
trici/endomorsmi diagonalizzabili) Sia A M
n
(K) e
siano
1
, ...,
t
i suoi autovalori distinti di molteplicit` a
algebrica
1
, ..,
t
. Allora A `e diagonalizzabile se e solo
se
t
P
i=1

i
= n e dimV

i
=
i
i = 1, ..., t.
Dim. Il polinomio caratteristico di A ha grado n,
quindi se la somma delle molteplicit`a algebrica degli au-
tovalori `e n, vuol dire che il polinomio ha tutte le radici
in K. Dallipotesi che m
g
(
i
) = m
a
(
i
) i = 1, ..., t
103
segue che
t
P
i=1
m
g
(
i
) = n dim(V

1
+... +V
t
) =
= dimV

1
+... + dimV

t
= n
V

1
+... +V

t
= K
n
A `e diagonalizzabile.
Viceversa, se A `e diagonalizzabile, allora
V

1
+... +V

t
= K
n
da cui dim(V

1
+... +V

t
)=n. Pertanto
t
P
i=1
m
g
(
i
)=n.
Daltra parte, poich`e
1 m
g
(
i
) m
a
(
i
) i = 1, ..., t,
si ha anche
n =
t
X
i=1
m
g
(
i
)
t
X
i=1
m
a
(
i
) e
t
X
i=1
m
a
(
i
) n
perch`e il polinomio caratteristico ha grado n. Segue che
t
P
i=1
m
a
(
i
) = n e la proposizione 7.1.11 garantisce che
104
m
g
(
i
) = m
a
(
i
) .
Osservazione 7.3.7 Il teorema precedente pu`o essere
riformulato come segue: A `e diagonalizzabile se e solo
se il polinomio caratteristico |A I| ha tutte le radici
in K e la molteplicit`a algebrica di ciascun autovalore
coincide con la molteplicit`a geometrica.
Corollario 7.3.8 Se A M
n
(K) ha n autovalori di-
stinti (in K), allora A `e diagonalizzabile.
Dim. Se
i
`e autovalore, vale 1 m
g
(
i
) m
a
(
i
).
Per ipotesi m
a
(
i
) = 1 m
a
(
i
) = m
g
(
i
) = 1 e
quindi A `e diagonalizzabile per il teorema precedente.
Osservazione 7.3.9 La matrice P che diagonalizza A
ha per colonne i vettori dellinsieme B=B

1
... B

t
dove con B
i
indichiamo una base di autovettori dell au-
tospazio V

i
. Si osservi che, dalla proposizione 7.3.5, si
ha che B contiene esattamente n vettori. La matrice D
diagonale ha come elementi sulla diagonale gli autova-
lori di A ripetuti tante volte quant`e la loro molteplicit`a.
105
7.4 Diagonalizzazione ortogonale
Denizione 7.4.1 Una matrice quadrata reale A si dice
ortogonalmente diagonalizzabile se esiste una matrice P
ortogonale (cio`e tale che P
1
= P
T
) in modo tale che A
sia simile ad una matrice diagonale, ovvero si abbia
D = P
T
AP.
Denizione 7.4.2 Sia V uno spazio euclideo reale di
dimensione nita n. Un endomorsmo f : V V si
dice ortogonalmente diagonalizzabile se esiste una base
ortonormale B di V tale che la matrice di f in B sia
diagonale.
Osservazione 7.4.3 Osserviamo che, poich`e la ma-
trice di f in B `e diagonale se e solo se B `e fatta di au-
tovettori, allora possiamo dire che f `e ortogonalmente
diagonalizzabile se e solo se esiste una base ortonormale
B costituita da autovettori.
Denizione 7.4.4 Un endomorsmo f : V V si
dice simmetrico se e solo se gode della seguente propriet` a
106
(rispetto al prodotto scalare):
u f (v) = f (u) v u, v V
Esempio 7.4.5 Consideriamo in R
2
il prodotto scalare
canonico e sia f lendomorsmo denito da
f (x, y) = (x 3y, 3x + 2y)
Siano u = (x
1
, y
1
) e v = (x
2
, y
2
) allora
u f (v) = (x
1
, y
1
) (x
2
3y
2
, 3x
2
+ 2y
2
) =
= x
1
x
2
3x
1
y
2
3x
2
y
1
+ 2y
1
y
2
.
f (u) v = (x
1
3y
1
, 3x
1
+ 2y
1
) (x
2
, y
2
) =
= x
1
x
2
3y
1
x
2
3x
1
x
2
+ 2y
1
y
2
da cui u f (v) = f (u) v per generici u, v R
2
f
simmetrico.
Osservazione 7.4.6 Si prova che un endomorsmo `e
simmetrico se e solo se la matrice che lo rappresenta ri-
spetto ad una base ortogonale `e simmetrica. La matrice
dellendomorsmo di R
2
dellesempio precedente rispetto
107
alla base canonica `e data da
_
_
1 3
3 2
_
_
.
Essendo questultima simmetrica si ha che f `e sim-
metrico.
Se una matrice reale `e simmetrica, allora i suoi au-
tovalori e gli autospazi ad essi relativi soddisfano alcune
condizioni che andiamo ad elencare:
Proposizione 7.4.7 Sia A una matrice reale simme-
trica di ordine n. Allora
(1) A possiede n autovalori reali (contati con la loro
molteplicit`a);
(2) se `e un autovalore di A, allora m
a
() = m
g
() ;
(3) se e sono due autovalori distinti di A, allora
gli autospazi ad essi associati sono tra loro ortogonali,
cio`e V

.
Possiamo ora dimostrare il seguente:
Teorema 7.4.8 (Spettrale) Un endomorsmo f:VV `e
ortogonalmente diagonalizzabile se e solo se f `e sim-
108
metrico (o equivalentemente, in versione matriciale, una
matrice A reale di ordine n `e ortogonalmente diagona-
lizzabile se e solo se A `e simmetrica).
Dim. Supponiamo che f sia ortogonalmente diagona-
lizzabile. Per denizione esiste una base ortonormale B
di V tale che la matrice associata ad f sia diagonale.
Una matrice diagonale `e simmetrica per cui f `e simmet-
rico (per losservazione 7.4.6).
Viceversa, sia f simmetrico. Allora, ssata una base
ortonormale B,la matrice Arappresentativa di f rispetto
a B `e simmetrica. Le condizioni (1) e (2) della propo-
sizione 7.4.7 ci dicono che allora tutti gli autovalori di A
(quindi di f) sono reali, diciamoli
1
, ...,
t
con moltepli-
cit` a algebrica uguale a quella geometrica ed f risulta
diagonalizzabile. Pertanto V ha una base di autovettori
di f data da
t
U
i=1
B
i
, dove B
i
`e una base di V

i
. In parti-
colare, se prendiamo B
i
ortonormale, allora la (3) della
proposizione 7.4.7 ci assicura che lunione delle B
i
`e una
base ortonormale di V fatta di autovettori da cui segue
che `e ortogonalmente diagonalizzabile.
109
Osservazione 7.4.9 La matrice P ortogonale che dia-
gonalizza ortogonalmente A ha per colonne i vettori della
unione
t
U
i=1
B
i
, con B
i
base ortonormale dell autospazio
V

i
. La matrice D ha sulla diagonale gli autovalori di A
ripetuti tante volte quant`e la loro molteplicit`a.
110