You are on page 1of 36

Appunti di Algebra Lineare e Matrici

Basilio Bona
Dipartimento di Automatica e Informatica
Politecnico di Torino
Internal Report: DAUIN/BB-2003-09-01
Capitolo 1
Matrici e vettori
Il lettore interessato pu`o fare riferimento a numerosi libri che trattano le matrici e
lalgebra vettoriale; in lingua italiana posso suggerire i testi di base [8, 9], in inglese
un classico per la teoria della matrici `e rappresentato da [4], mentre per lalgebra
lineare consiglio il testo di Strang [10]. Le lezioni videoregistrate di questultimo
sono visibili alla pagina Web del MIT OpenCourseWare, allindirizzo [1].
1.1 Denizioni
Con il termine matrice si denisce un insieme composto da elementi ordinati in m
righe e n colonne, che viene indicato da una delle notazioni seguenti:
A = A
mn
= [a
ij
] =
_

_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_

_
Gli elementi a
ij
posso essere variabili reali, quando a
ij
R o variabili complesse,
quando a
ij
C; allora si scrive A R
mn
oppure A C
mn
. In questa Appendice
consideriamo di solito matrici reali, salvo quando espressamente dichiarato. Se n =
1, abbiamo una matrice particolare, detta vettore colonna o semplicemente vettore.
Data una matrice A
mn
si denisce matrice trasposta la matrice ottenuta scambian-
do le righe e le colonne
A
T
nm
=
_

_
a
11
a
21
a
m1
a
12
a
22
a
m2
.
.
.
.
.
.
.
.
.
.
.
.
a
1n
a
2n
a
mn
_

_
Vale la propriet`a che (A
T
)
T
= A.
2
Basilio Bona - Algebra Lineare e Matrici 3
Una matrice si dice quadrata se m = n. Se una matrice `e quadrata, anche la sua
trasposta `e quadrata. Una matrice quadrata n n si dice triangolare superiore se
a
ij
= 0 per i > j
A
nn
=
_

_
a
11
a
12
a
1n
0 a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
nn
_

_
Se una matrice quadrata `e triangolare superiore, la sua trasposta `e triangolare
inferiore
A
T
nn
=
_

_
a
11
0 0
a
12
a
22
0
.
.
.
.
.
.
.
.
.
.
.
.
a
1n
a
2n
a
nn
_

_
Se una matrice K ha elementi complessi k
ij
= a
ij
+ jb
ij
, (dove j =

1) si indica
con K la matrice coniugata, ossia quella che ha elementi k
ij
= a
ij
jb
ij
.
Data una matrice complessa K, si chiama matrice aggiunta K

la matrice trasposta
coniugata, K

= K
T
= K
T
. Alcuni testi indicano questa matrice con il simbolo
K

oppure con il simbolo K


H
.
Una matrice reale quadrata si dice simmetrica se A = A
T
, una matrice complessa
si dice autoaggiunta o hermitiana se K = K

. In una matrice reale simmetrica vi


sono al pi` u
n(n + 1)
2
elementi indipendenti.
Una matrice quadrata si dice diagonale se a
ij
= 0 per i ,= j
A
nn
= diag(a
i
) =
_

_
a
1
0 0
0 a
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
n
_

_
Una matrice diagonale `e sempre simmetrica.
Una matrice quadrata A si dice antisimmetrica se A = A
T
; dati i vincoli imposti
da questa relazione, la matrice antisimmetrica ha la seguente struttura
A
nn
=
_

_
0 a
12
a
1n
a
12
0 a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
1n
a
2n
0
_

_
In una matrice antisimmetrica vi sono al pi` u
n(n 1)
2
elementi indipendenti e non
nulli. Vedremo in seguito alcune importanti propriet`a delle matrici antisimmetriche
3 3.
Basilio Bona - Algebra Lineare e Matrici 4
1.2 Operazioni sulle matrici
Le matrici sono elementi di unalgebra (lineare) detta algebra della matrici .
Ricordiamo che, in generale, unalgebra `e uno spazio lineare (vettoriale) con lag-
giunta di un operatore (prodotto) bilineare.
1
Uno spazio lineare `e una struttura matematica in cui sono deniti gli elementi dello
spazio, che indicheremo, per il caso che stiamo trattando, con il simbolo maiuscolo
grassetto A, e alcune altre condizioni, qui di seguito elencate:
1) `e denita unoperazione di somma, indicata con il simbolo +; la somma deve
essere commutativa. Esiste un elemento neutro rispetto alla somma detto O.
Esso prende il nome di elemento nullo (relativamente alla somma).
2) per ogni elemento A dello spazio, data una variabile reale o complessa
2
,
esiste loperazione di prodotto per , tale che Aappartiene ancora allo spazio.
Inoltre, date due variabili scalari e ,
(a) vale la propriet`a associativa rispetto al prodotto degli scalari: (A) =
()A;
(b) vale la propriet`a distributiva rispetto alla somma: (A+B) = A+B;
(c) vale la propriet`a distributiva rispetto al prodotto per scalare: (+)A =
A+ A;
Nel caso particolare delle matrici queste propriet`a generali prendono le forme parti-
colari descritte nel seguito.
Prodotto per scalare
A =
_

_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_

_
=
_

_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_

_
1
per bilinearit`a si intende la linearit`a rispetto a entrambi gli operandi.
2
ci limiteremo a considerare il caso di reale.
Basilio Bona - Algebra Lineare e Matrici 5
Somma di matrici
A+B =
_

_
a
11
+ b
11
a
12
+ b
12
a
1n
+ b
1n
a
21
+ b
21
a
22
+ b
22
a
2n
+ b
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
+ b
m1
a
m2
+ b
m2
a
mn
+ b
mn
_

_
Per poter essere sommate, le matrici devono avere le stesse dimensioni.
Valgono le seguenti propriet`a, che sono state genericamente aermate nella condi-
zione 1) precedente:
A+O = A
A+B = B +A
(A+B) +C = A+ (B +C)
(A+B)
T
= A
T
+B
T
Lelemento neutro o nullo O prende il nome di matrice nulla. Loperazione dierenza
viene denita con lausilio dello scalare = 1:
AB = A+ (1)B.
Prodotto di matrici
Indicheremo per ora loperatore prodotto con il simbolo , ma nelluso comune esso
viene quasi sempre omesso, come si usa fare per il simbolo di prodotto tra grandezze
scalari.
Loperazione si eettua con la ben nota regola riga per colonna: il generico
elemento c
ij
della matrice prodotto C
mp
= A
mn
B
np
vale
c
ij
=
n

k=1
a
ik
b
kj
La propriet`a di bilinearit`a del prodotto tra matrici `e garantita, in quanto si verica
immediatamente che, dato uno scalare generico , vale la seguente identit`a:
(A B) = (A) B = A (B)
Valgono le seguenti propriet`a, anchesse genericamente ssate nelle condizioni 2)
(a)-(c) precedenti:
A B C = (A B) C = A (B C)
A (B +C) = A B +A C
(A+B) C = A C +B C
(A B)
T
= B
T
A
T
In generale si verica quanto segue:
Basilio Bona - Algebra Lineare e Matrici 6
il prodotto tra matrici non `e commutativo: A B ,= B A, salvo in casi
particolari;
A B = A C non implica B = C, salvo in casi particolari;
AB = O non implica che sia A = O oppure B = O, salvo in casi particolari.
Esiste un elemento neutro rispetto al prodotto, che prende il nome di matrice identit`a
e viene indicata con I
n
oppure semplicemente I quando non ci sono ambiguit`a nella
dimensione; data una matrice rettangolare A
mn
si ha
A
mn
= I
m
A
mn
= A
mn
I
n
.
Oltre a queste operazioni fondamentali, esistono altre funzioni su matrici che elen-
cheremo brevemente nel seguito.
Potenza di matrice
Data una matrice quadrata A R
nn
, la potenza k-esima di matrice vale
A
k
= A A A k volte
Una matrice si dice idempotente se
A
2
= A.
Traccia
La traccia di una matrice quadrata A
nn
`e la somma dei suoi elementi diagonali
tr (A) =
n

k=1
a
kk
La traccia di una matrice soddisfa le seguenti propriet`a
tr (A+ B) = tr (A) + tr (B)
tr (AB) = tr (BA)
tr (A) = tr (A
T
)
tr (A) = tr (T
1
AT) per T non singolare (vedi oltre)
Basilio Bona - Algebra Lineare e Matrici 7
Determinante
Data la matrice A R
nn
, indichiamo con A
(ij)
la matrice quadrata di dimensioni
(n 1) (n 1) ottenuta cancellando la i-esima riga e la j-esima colonna della
matrice A. Ad esempio, data la matrice
A =
_

_
1 5 3 2
6 4 9 7
7 4 8 2
0 9 2 3
_

_
si ha
A
(23)
=
_
_
1 5 2
7 4 2
0 9 3
_
_
Si denisce minore di ordine p di una matrice A
mn
il determinante D
p
di una
sottomatrice quadrata ottenuta selezionando p righe e p colonne qualsiasi di A
mn
.
Esistono tanti minori quante sono le scelte possibili di p su m righe e p su n colonne.
Si deniscono minori principali di ordine k di una matrice A
mn
i determinanti D
k
,
con k = 1, , minm, n, ottenuti selezionando le prime k righe e k colonne della
matrice A
mn
.
Si denisce minore complementare D
rc
di un generico elemento a
rc
di una matrice
quadrata A
nn
il determinante di A
(rc)
D
rc
= det(A
(rc)
).
Si denisce complemento algebrico o cofattore (in inglese cofactor) di un elemento
a
rc
di una matrice quadrata A
nn
il prodotto
A
rc
= (1)
r+c
D
rc
Una volta denito il complemento algebrico si pu`o denire il determinante di A.
Fissata una qualsiasi riga i, si ha la denizione per riga:
det (A) =
n

k=1
a
ik
(1)
i+k
det (A
(ik)
) =
n

k=1
a
ik
A
ik
oppure, ssata una qualsiasi colonna j, si ha la denizione per colonna:
det (A) =
n

k=1
a
kj
(1)
k+j
det (A
(kj)
) =
n

k=1
a
kj
A
kj
Poiche le precedenti denizioni sono ricorsive e coinvolgono i determinanti di minori
via via pi` u piccoli, occorre denire il determinante della matrice 1 1, che vale
det (a
ij
) = a
ij
.
In generale si hanno le propriet`a seguenti:
Basilio Bona - Algebra Lineare e Matrici 8
det(A B) = det(A) det(B);
det(A
T
) = det(A);
det(kA
nn
) = k
n
det(A
nn
);
se si eettua un numero s di scambi tra righe o tra colonne della matrice A
ottenendo la matrice A
s
, si ha det(A
s
) = (1)
s
det(A);
se la matrice A ha due righe o due colonne uguali o proporzionali, si ha
det(A) = 0;
se la matrice A ha una riga o una colonna ottenibile da una combinazione
lineare di altre righe o colonne, si ha det(A) = 0;
se la matrice A
nn
`e triangolare superiore o inferiore, si ha det(A
nn
) =

n
i=1
a
ii
;
se la matrice A
nn
`e triangolare a blocchi, con p blocchi A
ii
sulla diagonale,
si ha det(A
nn
) =

p
i=1
det A
ii
;
Una matrice A si dice singolare se det(A) = 0.
Rango
Si denisce rango (o caratteristica) della matrice A
mn
il numero (A
mn
) denito
come il massimo intero p per cui esiste almeno un minore D
p
non nullo.
Valgono le seguenti propriet`a:
(A) minm, n;
se (A) = minm, n, la matrice A si dice a rango pieno;
(A B) min(A), (B).
(A) = (A
T
);
(A A
T
) = (A
T
A) = (A);
Dora in poi il prodotto tra matrici A B sar`a indicato semplicemente come AB.
Matrice aggiunta
Data una matrice quadrata A R
nn
, si denisce matrice aggiunta di A la matrice
quadrata Adj(A) =
ij
i cui elementi
ij
sono deniti come

ij
= (1)
i+j
D
ji
ossia quella matrice che ha come elemento di riga i e colonna j il minore comple-
mentare del corrispondente elemento a
ji
di riga j e colonna i.
Basilio Bona - Algebra Lineare e Matrici 9
Matrice inversa
Data una matrice quadrata A R
nn
si dice invertibile o non singolare se esiste la
matrice inversa A
1
nn
tale che
AA
1
= A
1
A = I
n
La matrice `e invertibile se e solo se (A) = n, ossia `e di rango pieno; ci`o equivale
ad avere det(A) ,= 0.
Linversa si ottiene come:
A
1
=
1
det(A)
Adj(A)
Valgono le seguenti propriet`a:
(A
1
)
1
= A;
(A
T
)
1
= (A
1
)
T
.
Si denisce matrice ortonormale la matrice quadrata per cui A
1
= A
T
. Per queste
matrici vale quindi lidentit` a
A
T
A = AA
T
= I
Date due matrici quadrate di pari dimensioni A e B, vale la seguente identit` a
(AB)
1
= B
1
A
1
Esiste un importante risultato, chiamato Lemma dinversione, che stabilisce quanto
segue: se Ae C sono matrici quadrate invertibili e B e D sono matrici di dimensioni
opportune, allora
(A+BCD)
1
= A
1
A
1
B(DA
1
B +C
1
)
1
DA
1
La matrice (DA
1
B +C
1
) deve essere anchessa invertibile.
Se la matrice quadrata A(t) `e composta da elementi a
ij
(t) tutti derivabili nel tempo
t, allora la derivata della matrice vale
d
dt
A(t) =

A(t) =
_
d
dt
a
ij
(t)
_
= [ a
ij
(t)]
Se la matrice quadrata A(t) ha rango (A(t)) = n per ogni valore del tempo t,
allora la derivata della sua inversa vale
d
dt
A(t)
1
= A
1
(t)

A(t)A(t)
1
La matrice inversa, quando esiste, permette risolvere la trasformazione lineare
y = Ax
in funzione dellincognita x, come
x = A
1
y.
Basilio Bona - Algebra Lineare e Matrici 10
Decomposizione di matrice
Data una matrice quadrata A, `e sempre possibile decomporla in una somma di due
matrici, come segue:
A = A
s
+A
a
(1.1)
dove
A
s
=
1
2
(A+A
T
)
`e una matrice simmetrica e
A
a
=
1
2
(AA
T
)
`e una matrice antisimmetrica (vedi Sezione 1.4).
Data una matrice reale di dimensioni qualsiasi A R
mn
, risultano simmetriche
entrambe le matrici seguenti
A
T
A R
nn
AA
T
R
mm
Trasformazioni di similarit`a
Data una matrice quadrata A R
nn
e una matrice quadrata non singolare T
R
nn
, la matrice B R
nn
ottenuta come
B = T
1
AT oppure B = TAT
1
si dice similare ad A e la trasformazione si dice di similarit`a. Se la matrice A `e
similare alla matrice diagonale = diag(
i
)
A = TT
1
si pu`o scrivere
AT = T
e se indichiamo con t
i
la i-esima colonna di T, ossia
T =
_
t
1
t
n

avremo la nota formula che lega autovalori e autovettori (vedi Paragrafo 1.2.1)
At
i
=
i
t
i
e quindi potremo dire che le costanti
i
sono gli autovalori di A e i vettori t
i
sono
gli autovettori di A, in generale non normalizzati.
Basilio Bona - Algebra Lineare e Matrici 11
1.2.1 Autovalori e autovettori
Data una matrice quadrata A
nn
, si chiamano autovalori della matrice (in inglese
eigenvalue) le soluzioni
i
(reali o complesse) dellequazione caratteristica
det(I A) = 0
det(I A) `e un polinomio in , detto polinomio caratteristico.
Se gli autovalori sono tutti distinti, si chiamano autovettori (in inglese eigenvector)
i vettori u
i
che soddisfano lidentit` a
Au
i
=
i
u
i
Se gli autovalori non sono tutti distinti, si ottengono autovettori generalizzati, la cui
determinazione va oltre gli scopi di questa Appendice.
Geometricamente gli autovettori rappresentano quelle particolari direzioni nello
spazio R
n
, in cui si applica la trasformazione lineare rappresentata da A, che si tra-
sformano in se stesse; sono quindi le direzioni invarianti rispetto alla trasformazione
A e gli autovalori forniscono le rispettive costanti di scalamento lungo queste
direzioni.
Linsieme degli autovalori di una matrice A sar`a indicato con (A) oppure con

i
(A); linsieme degli autovettori di A sar`a indicato con u
i
(A). In generale,
essendo gli autovettori delle rappresentazioni di direzioni invarianti rispetto alla
trasformazione rappresentata da A, essi sono deniti a meno di una costante, ossia
possono o meno essere normalizzati; tuttavia `e convenzione tacita che essi abbiano
norma unitaria, salvo quando altrimenti dichiarato.
Propriet`a degli autovalori
Data una matrice A e i suoi autovalori
i
(A), sar`a

i
(A+ cI ) = (
i
(A) + c)
Data una matrice A e i suoi autovalori
i
(A), sar`a

i
(cA) = (c
i
(A)
Data una matrice triangolare (superiore o inferiore)
_

_
a
11
a
12
a
1n
0 a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
nn
_

_
,
_

_
a
11
0 0
a
21
a
22
0
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_

_
Basilio Bona - Algebra Lineare e Matrici 12
i suoi autovalori sono gli elementi sulla diagonale
i
(A) = a
ii
; lo stesso vale per
una matrice diagonale.
Data una matrice A
nn
e i suoi autovalori
i
(A), sar`a
det(A) =
n

i=1

i
e
tr (A) =
n

i=1

i
Data una qualunque trasformazione invertibile, rappresentata dalla matrice T, gli
autovalori di A sono invarianti alle trasformazioni di similarit`a

A = T
1
AT
ossia

i
(

A) =
i
(A)
Se costruiamo una matrice di trasformazione M ordinando per colonne gli autovet-
tori normalizzati u
i
(A)
M =
_
u
1
u
n

allora la trasformazione di similarit`a fornisce una matrice diagonale


=
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_

_
= M
1
AM
La matrice M si chiama matrice modale.
Se la matrice A `e simmetrica, i suoi autovalori sono tutti reali e si ha lidentit`a
= M
T
AM
In questo caso la matrice M `e ortonormale.
1.2.2 Decomposizione ai valori singolari
Data una matrice A R
mn
qualsiasi, di rango r = (A) s con s = minm, n,
essa si pu`o fattorizzare secondo la decomposizione ai valori singolari, come segue:
A = UV
T
(1.2)
dove:
Basilio Bona - Algebra Lineare e Matrici 13
U `e una matrice (mm) ortonormale
U =
_
u
1
u
m

; UU
T
= I
m
contenente per colonne gli autovettori u
i
della matrice AA
T
V `e una matrice n n ortonormale
V =
_
v
1
v
n

; VV
T
= I
n
contenente per colonne gli autovettori v
i
della matrice A
T
A
`e una matrice (mn) con la seguente struttura
se m < n =
_

s
O

se m = n =
s
se m > n =
_

s
O
_
.
La matrice
s
= diag(
i
) `e diagonale di dimensioni s s e contiene sulla
diagonale i valori singolari, deniti come segue.

i
(A) 0 sono detti valori singolari e coincidono con le radici quadrate non
negative degli autovalori della matrice simmetrica A
T
A:

i
(A) =
_

i
(A
T
A) =
_

i
(AA
T
)
i
0
ordinati in ordine decrescente

1

2

s
0
se r < s vi sono r valori singolari positivi, mentre i restanti s r sono nulli:

1

2

r
> 0;
r+1
= =
s
= 0
Alternativamente, possiamo descrivere la decomposizione della matrice A nel modo
seguente, che `e del tutto analogo a quello dato in (1.2), ma mette in evidenza i soli
valori singolari positivi:
A =
_
P

P

. .
U
_

r
O
O O
_
. .

_
Q
T

Q
T
_
. .
V
T
= P
r
Q
T
=
s

i=1

i
p
i
q
T
i
(1.3)
dove
Basilio Bona - Algebra Lineare e Matrici 14
P `e una matrice ortonormale mr,

P `e una matrice ortonormale m(mr);
Q `e una matrice ortonormale nr, Q
T
`e una matrice ortonormale n(nr);

r
`e una matrice diagonale r r che contiene sulla diagonale i soli valori
singolari positivi
i
, i = 1, , r.
Il rango r della matrice A `e pari al numero r s di valori singolari non nulli.
Un altro modo ancora di denire la decomposizione SVD di A
mn
`e il seguente:
A
mn
= UV
T
(1.4)
dove ora
U `e una matrice (mn) ortonormale
U =
_
u
1
u
n

I vettori colonna u
i
di U sono chiamati vettori singolari sinistri di A, e
corrispondono agli n autovettori della matrice A
T
A, cio`e A
T
Au
i
=
2
i
u
i
.
V `e una matrice n n ortonormale
V =
_
v
1
v
n

I vettori colonna v
i
di V sono chiamati vettori singolari destri di A, e corri-
spondono agli m autovettori della matrice AA
T
, cio`e AA
T
v
i
=
2
i
v
i
.
`e una matrice (n n) diagonale = diag(
i
) e contiene sulla diagonale i
valori singolari, deniti come descritto sopra.
Si fa notare che:
La decomposizione singolare esiste sempre ed `e unica, a meno
1. di identiche permutazioni delle colonne di U, V, ,
2. combinazioni lineari di colonne di U e V con con uguali valori singolari.
data una matrice A R
mn
qualsiasi, le due matrici A
T
A e AA
T
sono
simmetriche, hanno gli stessi valori singolari positivi e dieriscono soltanto
per il numero di valori singolari nulli.
Altre propriet`a della decomposizione singolare
le colonne u
i
che corrispondono a valori singolari positivi sono una base per
lo spazio immagine (range) di A.
le colonne v
i
che corrispondono a valori singolari positivi sono una base per
lo spazio nullo (kernel o null-space) di A.
Basilio Bona - Algebra Lineare e Matrici 15
1.3 Vettori e spazi vettoriali
Un vettore pu`o essere semplicemente interpretato come una particolare matrice
colonna di dimensioni n 1:
v =
_

_
v
1
v
2
.
.
.
v
n
_

_
Esso gioca un ruolo fondamentale in molti campi dellingegneria, dalla modellisti-
ca dei sistemi dinamici alla cinematica dei corpi rigidi nello spazio tridimensio-
nale, dallelettromagnetismo alla statica per citarne solo alcuni permettendo
di passare agevolmente dalla rappresentazione algebrica di un fenomeno alla sua
rappresentazione geometrica e viceversa.
In generale, un vettore `e un elemento di uno spazio vettoriale. Nella Sezione 1.2
abbiamo gi`a fatto conoscenza con gli spazi vettoriali delle matrici. Ora ne daremo
una denizione pi` u completa.
1.3.1 Spazio vettoriale
Come detto sopra, gli elementi di uno spazio vettoriale rappresentano entit` a assai
utili nello studio di molti settori dellingegneria e della sica classica e moderna [3].
Dato un campo
3
qualsiasi T, lo spazio vettoriale (in inglese vector space) V(T), `e
linsieme di quegli elementi, chiamati vettori , che soddisfano le seguenti propriet`a
assiomatiche:
1. esiste loperazione +, detta somma vettoriale, tale che V(T); + forma un
gruppo abeliano; lelemento identit`a `e chiamato 0;
2. per ogni T e ogni v V(T), esiste un vettore v V(T); inoltre per
ogni , T e ogni v, w V(T) valgono le seguenti propriet`a:
associativa rispetto al prodotto per scalare: (v) = ()v
identit` a rispetto al prodotto per scalare: 1(v) = v; v
distributiva rispetto alla somma vettoriale: (v +w) = v + w
distributiva rispetto al prodotto per scalare: ( + )v = v + v
(1.5)
Uno spazio vettoriale `e detto reale se T = R, `e detto complesso se T = C.
3
per le denizioni di campo e gruppo, vedere [2, Appendice A]
Basilio Bona - Algebra Lineare e Matrici 16
Esempio classico di spazio vettoriale reale `e quello rappresentato da n-ple di reali,
V
n
(R) = R
n
; in questi casi un elemento (vettore) viene rappresentato per componenti
v =
_

_
v
1
v
2
.
.
.
v
n
_

_
, v R
n
, v
i
R
Poiche le propriet`a (1.5) inducono una struttura lineare sullo spazio V, esso viene
indicato anche con il termine di spazio vettoriale lineare o semplicemente spazio
lineare (in inglese linear vector space o semplicemente linear space).
Il termine vettore ha un signicato molto ampio, nel senso che essa include entit`a
matematiche in apparenza anche molto diverse. Ad esempio, non solo le n-ple di
reali, ma anche le sequenze innite di numeri reali o complessi, le funzioni continue
che assumono valori reali nellintervallo [a, b], i polinomi a coecienti complessi
deniti nellintervallo [a, b] ecc. [7].
Come si pu`o notare, tra gli assiomi dello spazio vettoriale non compare alcuna
operazione di prodotto.
Per questo motivo la struttura dello spazio vettoriale, ossia linsieme di propriet`a che
derivano dagli assiomi, non permette di denire concetti geometrici quali langolo
o la distanza, che invece sono impliciti nella denizione puramente geometrica di
vettore. Per consentire di denire tali concetti `e necessario dotare lo spazio vettoriale
di una struttura quadratica o metrica. Lintroduzione di una metrica in uno spazio
vettoriale genera unalgebra che rende possibile lesecuzione di calcoli su oggetti
geometrici. La metrica pi` u comune `e quella indotta dalla denizione di prodotto
scalare.
Prima di passare alla denizione di questo prodotto, riassumiamo brevemente alcune
propriet`a delle funzioni lineari.
1.3.2 Funzioni lineari
Dati due spazi vettoriali U(T) e V(T), che per comodit`a assumiamo deniti entrambi
sul campo T, una funzione L : U V si dice lineare, se per ogni a, b U e T
valgono i seguenti assiomi:
L(a +b) = L(a) +L(b) = La +Lb
L(a) = L(a) = La
(1.6)
La funzione lineare L : U U viene anche chiamata operatore lineare, trasforma-
zione lineare, applicazione lineare oppure endomorsmo (in inglese endomorphism).
Linsieme di tutte le funzioni lineari L : U V forma, a sua volta, uno spazio
lineare vettoriale L(T).
Basilio Bona - Algebra Lineare e Matrici 17
Linsieme delle funzioni lineari L : U U forma un anello, indicato con il simbolo
End(U).
Ricordiamo inne che qualsiasi funzione o trasformazione lineare da U a V `e rap-
presentabile con una matrice quadrata A R
mn
, dove m e n sono le dimensioni
(vedere pi` u oltre la denizione di dimensione) rispettivamente di V e U.
Indipendenza lineare Base Dimensione
Dati n vettori qualsiasi a
i
V(T), un vettore generico v V(T) `e detto combina-
zione lineare di a
1
, a
2
, . . . , a
n
se esso pu`o essere scritto come
v = v
1
a
1
+ v
2
a
2
+ v
n
a
n
con v
i
T. Linsieme di vettori a
1
, a
2
, . . . , a
n
`e detto linearmente indipendente
se nessun a
i
pu`o essere scritto come combinazione lineare dei restanti a
j
, j ,= i. In
altre parole, lunica soluzione dellequazione
v
1
a
1
+ v
2
a
2
+ v
n
a
n
= 0
`e quella con v
1
= v
2
= = v
n
= 0. In caso contrario si dice che a
i
`e linearmente
dipendente dagli altri vettori.
Nella combinazione lineare v = v
1
a
1
+ v
2
a
2
+ v
n
a
n
, se tutti i vettori a
i
so-
no linearmente indipendenti, allora gli scalari v
i
sono unici e prendono il nome di
coordinate o componenti di v.
Le combinazioni lineari di vettori linearmente indipendenti a
1
, a
2
, . . . , a
k
, con
k n, formano un sottospazio S(T) V(T). Si dice che questo sottospazio `e
coperto o descritto (in inglese spanned) da a
1
, a
2
, . . . , a
k
.
Ogni insieme di vettori a
1
, a
2
, . . . , a
n
che risulti linearmente indipendente, forma
una base in V. Tutte le basi in V hanno lo stesso numero di elementi (nel nostro
caso n), che prende il nome di dimensione dello spazio e si indica con dim(V).
1.3.3 Matrici come rappresentazione di operatori lineari
Dati due spazi vettoriali A R
n
e R
m
, aventi rispettivamente dimensioni n e
m, e dati due generici vettori x A e y , la pi` u generica trasformazione lineare
tra gli spazi si pu`o rappresentare attraverso loperatore matriciale A R
mn
, come
segue:
y = Ax; x R
n
; y R
m
.
Quindi una matrice pu`o essere sempre interpretata come un operatore che prende
un vettore dello spazio di partenza A e lo trasforma in un vettore dello spazio
di arrivo . Qualunque trasformazione lineare ha (almeno) una matrice che la
Basilio Bona - Algebra Lineare e Matrici 18
rappresenta e, di converso, qualunque matrice `e la rappresentazione di una qualche
trasformazione lineare.
Si denisce spazio immagine (in inglese range) della trasformazione A il sottospazio
di denito dalla seguente propriet`a:
1(A) = y [ y = Ax, x A; 1(A)
Si denisce spazio nullo (in inglese kernel o null-space) della trasformazione A il
sottospazio di A denito dalla seguente propriet`a:
^(A) = x [ 0 = Ax, x A; ^(A) A
Lo spazio nullo rappresenta cio`e tutti quei vettori di A che vengono trasformati nel
vettore nullo (lorigine) di .
Le dimensioni dello spazio immagine e dello spazio nullo si chiamano, rispettivamen-
te, rango (A) (che abbiamo gi`a denito in 1.2) e nullit`a (A):
(A) = dim(1(A)); (A) = dim(^(A)).
Se A e hanno dimensioni nite, e questo `e il nostro caso in quanto A R
n
e
R
m
, allora valgono le seguenti relazioni:
^(A) = 1(A
T
)

1(A) = ^(A
T
)

^(A)

= 1(A
T
)
1(A)

= ^(A
T
)
dove il simbolo indica il complemento ortogonale al (sotto-)spazio corrispondente.
Ricordiamo che 0

= R.
Vale anche la seguente decomposizione ortogonale degli spazi A e (vedere [9] e
[10])
A = ^(A) ^(A)

= ^(A) 1(A
T
)
= 1(A) 1(A)

= 1(A) ^(A
T
)
dove il simbolo indica la somma diretta tra due sottospazi.
1.3.4 Inversa generalizzata
Data una matrice reale qualsiasi A R
mn
, con m ,= n, la matrice inversa non
risulta denita. Tuttavia, `e possibile denire una classe di matrici, dette pseudo-
inverse, inverse generalizzate o 1-inverse A

, che soddisfano la seguente relazione:


AA

A = A
Se la matrice A ha rango pieno, ossia (A) = minm, n, `e possibile denire due
classi di matrici inverse generalizzate particolari
Basilio Bona - Algebra Lineare e Matrici 19
se m < n (ossia (A) = m), linversa destra di A `e quella matrice A
d
R
nm
per cui
AA
d
= I
mm
se n < m (ossia (A) = n), linversa sinistra di A`e quella matrice A
s
R
nm
per cui
A
s
A = I
nn
Tra le molte inverse destre e sinistre concepibili, due sono particolarmente impor-
tanti:
pseudo-inversa destra (m < n):
A
+
d
= A
T
(AA
T
)
1
che rappresenta una particolare inversa destra. Si pu`o dimostrare che quando
(A) = m allora (AA
T
)
1
esiste.
pseudo-inversa sinistra (n < m):
A
+
s
= (A
T
A)
1
A
T
che rappresenta una particolare inversa sinistra. Si pu`o dimostrare che quando
(A) = n allora (A
T
A)
1
esiste.
Questa particolare pseudo-inversa sinistra prende anche il nome di pseudo-
inversa di Moore-Penrose. In generale, anche se A
T
Anon risulta invertibile, si
pu`o sempre denire una pseudo-inversa di Moore-Penrose, che `e quella matrice
A
+
che soddisfa le seguenti relazioni:
AA
+
A = A
A
+
AA
+
= A
+
(AA
+
)
T
= AA
+
(A
+
A)
T
= A
+
A
(1.7)
Queste due pseudo-inverse coincidono con la matrice inversa quando A `e quadrata
e ha rango pieno:
A
1
= A
+
d
= A
+
s
La trasformazione lineare associata alla matrice A R
mn
y = Ax, (1.8)
con x R
n
e y R
m
, `e equivalente ad un sistema di m equazioni lineari in n
incognite, i cui coecienti sono dati dagli elementi di A; questo sistema lineare pu`o
non ammettere soluzioni, ammetterne una sola o ammetterne un numero innito
[10].
Se vogliamo utilizzare le pseudo-inverse denite sopra per risolvere il sistema lineare
in (1.8), dobbiamo distinguere due casi, sempre nellipotesi che il rango di A sia
pieno:
Basilio Bona - Algebra Lineare e Matrici 20
m < n: abbiamo pi` u incognite che equazioni; allora, tra le innite soluzio-
ni possibili x R
n
, scegliamo convenzionalmente quella che ha norma |x|
minima, che viene individuata da
x = A
+
d
y = A
T
(AA
T
)
1
y
Tutte le altre possibili soluzioni di y = Ax si ottengono come
x = x +v = A
+
d
y +v
dove v ^(A) `e un vettore dello spazio nullo di A, che ha dimensioni nm.
Queste possibili soluzioni si possono anche esprimere in una forma alternativa,
ovvero
x = A
+
d
y + (I A
+
d
A)w
dove w R
n
`e un vettore n 1 qualsiasi. La matrice I A
+
d
A proietta w
nello spazio nullo di A, trasformandolo in v ^(A); essa prende il nome di
matrice di proiezione.
n < m: abbiamo pi` u equazioni che incognite; allora non esistono soluzioni
esatte alla y = Ax, ma solo soluzioni approssimate, tali per cui esiste un
errore e = Ax y ,= 0. Tra queste possibili soluzioni approssimate si sceglie
convenzionalmente quella che minimizza la norma dellerrore, ossia
x = arg min
xR
n
|Ax y|
Essa vale
x = A
+
s
y = (A
T
A)
1
A
T
y
e geometricamente consiste nella proiezione ortogonale di y sul complemento
ortogonale di ^(A), ovvero sul sottospazio 1(A
T
). Lerrore di approssima-
zione, detto anche errore di proiezione, vale in questo caso
e = (I AA
+
s
)y
e la sua norma `e minima, come detto sopra.
La somiglianza tra la matrice di proiezione I A
+
d
A e la matrice che fornisce lerrore
di proiezione I AA
+
s
verr`a spiegata nella Sezione 1.3.6.
Per calcolare le inverse generalizzate, si pu`o utilizzare la decomposizione ai valori
singolari; in particolare, ricordando la (1.3), la pseudo-inversa vale
A
+
= V
_

1
r
O
O O
_
U
T
= Q
1
r
P
T
.
Basilio Bona - Algebra Lineare e Matrici 21
1.3.5 Prodotti tra vettori
Abbiamo visto nella Sezione 1.3.1 che la denizione assiomatica di spazio vettoriale
non comprenda anche la denizione di un prodotto, mentre per calcolare con enti
geometrici `e spesso necessario introdurre sia un prodotto sia una struttura quadratica
o metrica, che possa fornire la misura degli elementi che si manipolano; una delle
metriche pi` u comuni `e quella derivata dal prodotto scalare o interno tra vettori.
Prodotto scalare e norma di vettore
Dati due vettori reali a, b V(R), il prodotto scalare o interno (in inglese scalar o
inner product) ab `e un numero reale che pu`o venire denito sia in modo geometrico
sia in modo analitico (per componenti):
denizione geometrica: a b = |a| |b| cos (1.9)
denizione analitica: a b =

k
a
k
b
k
= a
T
b (1.10)
dove |a| `e la lunghezza del vettore a e , (0

180

) `e langolo compreso tra


a e b. Alcuni testi indicano il prodotto scalare con il simbolo a, b).
Il prodotto scalare soddisfa le seguenti propriet`a:
`e distributivo rispetto alla somma: (a +b) c = a c +b c
`e distributivo rispetto al prodotto per scalare: (a b) = (a) b = a (b)
`e commutativo: a b = b a
`e positivo: a a > 0, a ,= 0
(1.11)
La denizione geometrica di prodotto scalare implica di aver preventivamente deni-
to il concetto di angolo e di lunghezza, mentre nellapproccio analitico la lunghezza
ovvero la norma (in inglese norm) pu`o essere denita come grandezza derivata dal
prodotto scalare
|a| =

a a =

k
a
2
k
=

a
T
a (1.12)
e langolo tra a e b come
= cos
1
_
a b
|a| |b|
_
Si chiamano spazi euclidei o cartesiani quelli per i quali `e denita la norma euclidea
(1.12).
La norma euclidea derivata dal prodotto scalare non `e lunica norma possibile per
misurare le dimensioni di un vettore. In generale la norma di un vettore deve
soddisfare le seguenti tre propriet`a (assiomi della norma):
Basilio Bona - Algebra Lineare e Matrici 22
1. |x| > 0 per ogni x ,= 0, |x| = 0 se e solo se x = 0;
2. |x +y| |x| +|y| (diseguaglianza triangolare);
3. |x| = [[ |x| per ogni scalare e ogni x.
Generalizzando la norma euclidea, possiamo denire la p-norma ||
p
come
|x|
p
=
_

k
[a
k
[
p
_
1/p
Tra le p-norme pi` u usate nei vari campi della matematica e dellingegneria ricordia-
mo:
la norma 2 o euclidea p = 2 |x|
2
=

x
T
x
la norma 1 p = 1 |x|
1
=

k
[a
k
[
la norma o max-norma p = |x|

= max
k
[x
k
[
Si denisce versore un generico vettore diviso per la sua norma
u =
x
|x|
; |u| = 1.
Il prodotto scalare opera tra due vettori e genera uno scalare, mentre in generale
vorremmo poter denire un prodotto pi` u generale che operi su due vettori e generi
come risultato ancora un vettore.
`
E possibile denire questultimo prodotto anche nel caso generale di vettori appar-
tenenti a spazi n-dimensionali, ma per i ni che ci proponiamo `e suciente limitarsi
al caso tridimensionale, in cui possiamo denire il cosiddetto prodotto vettoriale.
Prodotto vettoriale o esterno
Nel caso particolare di due vettori tridimensionali
x =
_
x
1
x
2
x
3

T
e y =
_
y
1
y
2
y
3

T
, con x, y R
3
il prodotto vettoriale o esterno
4
(in inglese outer o external o vector product) x y
`e un vettore che soddisfa le relazioni seguenti:
z = x y =
_
_
x
2
y
3
x
3
y
2
x
3
y
1
x
1
y
3
x
1
y
2
x
2
y
1
_
_
(1.13)
4
Per il prodotto esterno utilizzeremo il simbolo , che `e molto comune nella letteratura
anglosassone; testi italiani usano pi` u spesso il simbolo .
Basilio Bona - Algebra Lineare e Matrici 23
La (1.13) pu`o essere scritta come prodotto della matrice antisimmetrica S(x) per il
vettore y:
x y =
_
_
0 x
3
x
2
x
3
0 x
1
x
2
x
1
0
_
_
y = S(x)y
Le propriet`a delle matrici antisimmetriche e i loro utilizzi sono descritte nel paragrafo
1.4.
La norma del prodotto esterno vale
|z| = |x| |y| sin (1.14)
dove `e langolo tra i due vettori x e y misurato sul piano xy denito da questi
ultimi; la direzione di z `e ortogonale al piano, il verso `e dato dallapplicazione della
regola della mano destra
5
, per portare x su y compiendo la rotazione di angolo
minimo.
Il prodotto vettoriale soddisfa le seguenti propriet`a:
`e non commutativo o anticommutativo: x y = (y x)
`e distributivo rispetto alla somma: x (y +z) = (x y)
`e distributivo rispetto al prodotto per scalare: (x y) = (x) y = x (y)
`e non associativo: x (y z) ,= (x y) z
(1.15)
Dati tre vettori tridimensionali x, y, z, si denisce prodotto triplo il prodotto
esterno triplo non associativo, ossia:
x (y z) = (x z) y (x y) z
(x y) z = (x z) y (y z) x
(1.16)
Dati tre vettori x, y, z, vale inoltre la seguente relazione:
(x y) z = (z y) x (1.17)
Il prodotto vettoriale, come abbiamo visto, `e denito solo in spazi vettoriali di
dimensione 3; la generalizzazione di questo prodotto a spazi n-dimensionali, con
n > 3, richiede di introdurre le algebre di Cliord [5], cosa che va oltre gli scopi di
questa Appendice.
5
Regola della mano destra: se con le dita della mano destra si accompagna il movimento che
porta x a sovrapporsi a y secondo il percorso a minimo angolo, allora il pollice si allinea lungo
x y; questa `e la stessa regola che denisce i tre versori di un sistema di riferimento cartesiano
destrorso.
Basilio Bona - Algebra Lineare e Matrici 24
Prodotto diadico
Dati due vettori x, y R
n
, si denisce prodotto diadico il seguente
x y = xy
T
= D(x, y) =
_

_
x
1
y
1
x
1
y
n
.
.
. x
i
y
i
.
.
.
x
n
y
1
x
n
y
n
_

_
Si fa notare che alcuni testi anglosassoni chiamano questo prodotto external product,
generando confusione con il prodotto vettoriale.
Risulta immediato dimostrare che il prodotto non `e commutativo, in quanto, in
generale xy
T
,= yx
T
, essendo
D(x, y) = D
T
(y, x)
risulta quindi x y ,= y x.
La matrice D che si ottiene come risultato del prodotto risulta sempre avere rango
(D) = 1, qualunque sia la dimensione n dei vettori di partenza.
Una propriet`a utile che lega il prodotto vettoriale triplo e il prodotto diadico per
vettori tridimensionali `e la seguente
x (y z) = [(x z) I z x] y
(x y) z = [(x z) I x z] y
`
E interessante sottolineare che, mentre il prodotto esterno al primo termine delle
equazioni precedenti, `e stato denito solo per vettori tridimensionali, i prodotti
al secondo termine si possono calcolare indipendentemente dalle dimensioni dello
spazio vettoriale.
Altri prodotti
Poiche il prodotto interno `e un prodotto tra vettori che fornisce uno scalare ed
il prodotto esterno non `e associativo, nasce la necessit`a di denire un prodotto
ab tra vettori che obbedisca alla maggior parte delle regole della moltiplicazione
ordinaria, ovvero possegga almeno le propriet`a di essere associativo e distributivo,
mentre la commutativit` a non `e essenziale. Si richiede anche che, nel fare il prodotto,
venga preservata la norma, ossia |ab| = |a| |b|.
Sono stati deniti in passato prodotti tra vettori che soddisfano questi requisiti. Di
solito essi vengono trascurati nei testi elementari di algebra vettoriale. Tra questi,
un qualche interesse per lapplicazione alla cinematica teorica e alla computer vision,
oltreche nella sica quantistica, rivestono il prodotto di Hamilton e il prodotto di
Cliord.
Basilio Bona - Algebra Lineare e Matrici 25
Prodotto di Hamilton
Il prodotto di Hamilton trova la sua giusticazione nellambito della denizione di
prodotto tra quaternioni. Qui ci limitiamo a denire tale prodotto come quel vettore
c ottenuto dai vettori a e b nel modo seguente
c = ab = a b +a b (1.18)
Questo prodotto ha solo pi` u un signicato storico, in quanto presenta la spiacevole
caratteristica di fornire un numero negativo come risultato del prodotto di un vettore
per se stesso
aa = a a +a a = |a|
2
(1.19)
Esso fu presto abbandonato in favore di altri pi` u semplici e utili, come i precedenti
prodotti interno ed esterno, oppure pi` u generali dal punto di vista geometrico, come
il prodotto di Cliord.
Prodotto di Cliord
`
E stato dimostrato che un prodotto vettoriale che permetta di soddisfare gli stessi
assiomi del prodotto tra due numeri reali, ossia la distributivit`a, lassociativit`a e
la commutativit` a, non esiste per spazi vettoriali con dimensioni n 3; se si lascia
cadere lassioma della commutativit`a, si pu`o denire il prodotto di Cliord, dal nome
del matematico inglese William Cliord (1845-79) che per primo lo introdusse. Esso
consente di estendere a spazi vettoriali R
n
, con n > 3, il prodotto esterno denito
in 1.3.5.
Limitiamoci in un primo momento, per semplicit`a, al piano R
2
: dati due vettori
a = a
1
i + a
2
j , e b = b
1
i + b
2
j , il prodotto di Cliord risulta essere denito come:
ab = a
1
b
1
+ a
2
b
2
+ (a
1
b
2
a
2
b
1
)e
12
= a b + (a
1
b
2
a
2
b
1
)e
12
(1.20)
dove e
12
prende il nome di bivettore. Esso `e denito come larea dotata di segno del
parallelogrammo compreso tra i e j ; in un certo senso `e analogo al prodotto esterno
i j , salvo il fatto che questultimo `e interpretato come vettore ortogonale al piano
in cui sono contenuti i e j , mentre il primo `e da interpretarsi come una pezza (in
inglese patch) nel medesimo piano, come illustrato in Fig. 1.1.
Lestensione allo spazio R
3
si ottiene assumendo che sia vericata per il prodotto la
seguente identit`a:
cc = c
2
= c c (1.21)
se poi consideriamo c = a +b, otteniamo:
(a +b)(a +b) = (a +b) (a +b) (1.22)
da cui segue
ab +ba = 2a b (1.23)
Basilio Bona - Algebra Lineare e Matrici 26
i
j
12
e
i j
i
j
12
e
i j
Figura 1.1: Il bivettore e
12
nel piano R
3
.
e quindi
ab = 2a b ba (1.24)
Il lettore interessato pu`o fare riferimento al testo [6] per ulteriori approfondimenti.
1.3.6 Proiezioni e matrici di proiezione
Dato uno spazio vettoriale reale V(R
n
) di dimensioni n, dotato di prodotto scalare,
ed un suo sottospazio W(R
k
) di dimensioni k n, `e possibile denire la proiezione
dei vettori v V sul sottospazio W.
Loperatore di proiezione `e denito dalla matrice quadrata di proiezione P R
nn
,
le cui colonne sono le proiezioni degli elementi della base di V in W. Una matrice
`e di proiezione se e solo se P
2
= P ossia se essa `e idempotente. La proiezione pu`o
essere ortogonale, oppure non ortogonale; nel primo caso la matrice P `e simmetrica,
nel secondo caso no. Se P `e una matrice di proiezione, anche I P lo `e.
Classici esempi di matrici di proiezione ortogonale sono le matrici associate alla
pseudo-inversa sinistra P
1
= AA
+
s
e P
2
= I AA
+
s
e alla pseudo-inversa destra
P
3
= A
+
d
A e P
4
= I A
+
d
A (vedi Sezione 1.3.4).
Dal punto di vista geometrico, P
1
proietta ogni vettore v V nel spazio immagine
1(A) (vedi 1.3.3), mentre P
2
proietta v nel suo complemento ortogonale 1(A)

=
^(A
T
).
1.3.7 Norme di matrice
Come per il vettore, `e possibile fornire una misura della grandezza di una ma-
trice, denendone la norma. Poiche una matrice rappresenta una trasformazione
lineare tra vettori, la norma misura quando grande sia questa trasformazione, ma
deve in qualche modo normalizzare il risultato perche questo non sia inuenzato
dalla grandezza del vettore che viene trasformato, ossia:
|A| = sup
x
|Ax|
|x|
= sup
x=1
|Ax| .
Basilio Bona - Algebra Lineare e Matrici 27
Data una matrice quadrata A R
nn
la sua norma deve soddisfare in generale i
seguenti assiomi generali:
1. |A| > 0 per ogni A ,= O, |A| = 0 se e solo se A = O;
2. |A+B| |A| +|B| (diseguaglianza triangolare);
3. |A| = [[ |A| per ogni scalare e ogni A;
4. |AB| |A| |B|.
Data A R
nn
e i suoi autovalori
i
(A), vale la seguente diseguaglianza
1
_
_
A
1
_
_
[
i
[ |A| i = 1, . . . , n
Fatte queste premesse, elenchiamo le norme di matrice pi` u comunemente adottate,
considerando solo matrici reali
1. norma spettrale:
|A|
2
=
_
max
i

i
(A
T
A)
2. norma di Frobenius:
|A|
F
=

j
a
2
ij
=
_
tr A
T
A
3. massimo valore singolare:
|A|

=
_
max
i

i
(A)
4. norma 1 o max-norma:
|A|
1
= max
j
n

i=1
[a
ij
[
5. norma :
|A|

= max
i
n

j=1
[a
ij
[
In generale |A|
2
= |A|

e |A|
2
2
|A|
1
|A|

Basilio Bona - Algebra Lineare e Matrici 28


1.4 Matrici antisimmetriche
Abbiamo visto sopra che una matrice S si dice antisimmetrica quando soddisfa la
seguente propriet`a:
S +S
T
= O (1.25)
Una matrice antisimmetrica ha perci`o tutti zeri sulla diagonale principale ed elementi
fuori dalla diagonale che soddisfano la relazione s
ij
= s
ji
.
Ne segue che una matrice antisimmetrica `e denita da soli
n(n 1)
2
parametri.
Per n = 3 risulta
n(n 1)
2
= 3, per cui la matrice antisimmetrica ha esattamente
tre elementi indipendenti, che possono essere considerati come le componenti di un
generico vettore tridimensionale v; la matrice viene allora indicata come S(v).
Nel seguito studieremo le propriet`a delle matrici antisimmetriche per n = 3, in
quanto sono di fondamentale importanza per denire la cinematica delle rotazioni
di corpi rigidi in spazi tridimensionali.
Se v =
_
v
x
v
y
v
z

T
`e un vettore qualsiasi, possiamo denire S(v) come loperatore
che trasforma v in una matrice antisimmetrica:
S(v) =
_
_
0 v
z
v
y
v
z
0 v
x
v
y
v
x
0
_
_
(1.26)
e viceversa, data una matrice antisimmetrica qualsiasi, `e sempre possibile estrarre
da essa un vettore v.
La matrice S(v) si indica semplicemente con S quando non si vuole evidenziare
la dipendenza dal vettore v. La propriet`a di antisimmetria comporta la seguente
identit`a:
S
T
(v) = S(v) = S(v) (1.27)
Le matrici antisimmetriche soddisfano la propriet`a di linearit`a; dati due scalari

i
R, vale la propriet`a
S(
1
u +
2
v) =
1
S(u) +
2
S(v) (1.28)
Inoltre, dati due vettori qualsiasi v e u, si ha la seguente importante propriet`a:
S(u)v = u v (1.29)
e quindi S(u) pu`o essere interpretata come loperatore (u) e viceversa.
Da questa propriet`a e dalla anti-commutativit`a del prodotto esterno segue che
S(u)v = S(v)u.
`
E semplice vericare che la matrice S(u)S(u) = S
2
(u) `e simmetrica e verica la
relazione
S
2
(u) = vv
T
|v|
2
I (1.30)
Basilio Bona - Algebra Lineare e Matrici 29
Autovalori e autovettori di matrici antisimmetriche Data la matrice anti-
simmetrica S(v) i suoi autovalori sono immaginari o nulli:

1
= 0,
2,3
= j |v|
Lautovettore relativo allautovalore
1
= 0 vale v; gli altri due sono complessi
coniugati.
1.5 Matrici ortogonali e ortonormali
Una generica matrice quadrata U R
n
`e detta ortonormale quando:
la sua inversa coincide con la sua trasposta
UU
T
= U
T
U = I (1.31)
ovvero
U
1
= U
T
(1.32)
Le colonne di U sono tra loro ortogonali e a norma unitaria, come pure le
righe.
|U| = 1;
Il determinante di U ha modulo unitario:
[det(U)[ = 1 (1.33)
perci`o esso pu`o valere +1 oppure 1.
Viene chiamata ortogonale quella matrice quadrata per cui vale una relazione meno
forte della (1.31), ovvero
U
T
U =
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_

_
con
ii
,= 0.
Il termine ortonormale viene riservato al caso in cui
ii
= 1.
Il prodotto scalare `e invariante a trasformazioni ortonormali, ossia
(Ux) (Uy) = (Ux)
T
(Uy) = x
T
U
T
Uy = x
T
I y = x
T
y = x y
Basilio Bona - Algebra Lineare e Matrici 30
Se U `e una matrice ortonormale,
6
di dimensioni opportune, allora |AU| = |UA| =
|A|.
Limitandoci al caso di matrici U
33
, solo 3 dei 9 elementi che compongono la matrice
sono indipendenti, in quanto le condizioni di ortonormalit`a tra le righe o tra le
colonne deniscono 6 vincoli.
Come si pu`o vedere in [2], le matrici ortonormali U
33
sono la rappresentazione
di trasformazioni geometriche di corpi rigidi nello spazio Euclideo: infatti quando
det(U) = +1, U rappresenta una rotazione propria, mentre quando det(U) =
1, U rappresenta una rotazione impropria ovvero una roto-riessione.
Se U `e una matrice ortonormale, vale la propriet`a distributiva
7
rispetto al prodotto
esterno:
U(x y) = (Ux) (Uy) (1.34)
Per ogni matrice di rotazione U e ogni vettore x si dimostra che
US(x)U
T
y = U
_
x (U
T
y)
_
= (Ux) (UU
T
y)
= (Ux) y
= S(Ux)y
(1.35)
dove S(x) `e la matrice antisimmetrica associata a x; si ricavano pertanto le relazioni
seguenti:
US(x)U
T
= S(Ux)
US(x) = S(Ux)U
(1.36)
1.6 Forme bilineari e quadratiche
Si denisce forma bilineare associata alla matrice A R
mn
la variabile scalare
b(x, y) = x
T
Ay = y
T
A
T
x
Si denisce forma quadratica associata alla matrice quadrata A R
nn
la variabile
scalare
q(x) = x
T
Ax = x
T
A
T
x
Qualsiasi forma quadratica associata ad una matrice antisimmetrica S(y) `e identi-
camente nulla, ossia
x
T
S(y)x 0 (1.37)
6
La regola vale anche nel caso pi` u generale in cui U sia una matrice unitaria, denita da
U

U = I .
7
Questa propriet`a non `e generalmente vera, salvo appunto quando U `e ortonormale.
Basilio Bona - Algebra Lineare e Matrici 31
per ogni x e ogni y. La dimostrazione di questa propriet`a `e semplice: denendo
w = S(y)x = y x, avremo x
T
S(y)x = x
T
w, ma essendo w ortogonale sia a y
sia a x per denizione, il prodotto scalare x
T
w, e quindi la forma quadratica, sar`a
sempre nullo.
Pertanto, ricordando la decomposizione (1.1), la forma quadratica dipende solo dalla
parte simmetrica A
s
della matrice A:
q(x) = x
T
Ax = x
T
(A
s
+A
a
)x = x
T
A
s
x
Una matrice quadrata A si dice denita positiva se la forma quadratica associata
x
T
Ax soddisfa le condizioni
x
T
Ax > 0 x ,= 0
x
T
Ax = 0 x = 0
Una matrice quadrata Asi dice semidenita positiva se la forma quadratica associata
x
T
Ax soddisfa la condizione
x
T
Ax 0 x
Una matrice quadrata A si dice denita negativa se A `e denita positiva; analo-
gamente una matrice quadrata A si dice semidenita negativa se A `e semidenita
positiva.
Spesso, per indicare queste matrici si usano le notazioni seguenti:
matrice denita positiva: A ~ 0
matrice semidenita positiva: A _ 0
matrice denita negativa: A 0
matrice semidenita negativa: A _ 0
Condizione necessaria anche la matrice quadrata A sia denita positiva `e che gli
elementi sulla diagonale siano strettamente positivi.
Condizione necessaria e suciente anche la matrice quadrata A sia denita posi-
tiva `e che tutti gli autovalori siano strettamente positivi.
Il criterio di Sylvester aerma che condizione necessaria e suciente anche la
matrice quadrata A sia denita positiva `e che tutti i suoi minori principali siano
strettamente positivi. Una matrice denita positiva ha rango pieno ed `e sempre
invertibile.
La forma quadratica x
T
Ax soddisfa la relazione seguente

min
(A) |x|
2
x
T
Ax
max
(A) |x|
2
dove
min
(A) e
max
(A) sono, rispettivamente, lautovalore minimo e massimo di
A.
Basilio Bona - Algebra Lineare e Matrici 32
Una matrice A semidenita positiva ha rango (A) = r < n, ovvero possiede r
autovalori strettamente positivi e n r autovalori nulli. La forma quadratica si
annulla per ogni x ^(A).
Data una matrice reale di dimensioni qualsiasi A R
mn
, abbiamo visto che sia
A
T
A, sia AA
T
sono simmetriche; inoltre abbiamo visto nella Sezione 1.2.2 che
(A
T
A) = (AA
T
) = (A). Si pu`o dimostrare che esse hanno sempre autovalori
reali non negativi, e quindi sono denite o semi-denite positive: in particolare, se
la matrice A ha rango pieno,
se m < n, A
T
A _ 0 e AA
T
~ 0,
se m = n, A
T
A ~ 0 e AA
T
~ 0,
se m > n, A
T
A ~ 0 e AA
T
_ 0.
Data la forma bilineare b(x, y) = x
T
Ay, si deniscono gradienti le seguenti espres-
sioni:
gradiente rispetto a x: grad
x
b(x, y) =
_
b(x, y)
x
_
T
= Ay
gradiente rispetto a y: grad
y
b(x, y) =
_
b(x, y)
y
_
T
= A
T
x
Data la forma quadratica q(x) = x
T
Ax, si denisce gradiente rispetto a x la
seguente espressione:
grad
x
q(x) =
_
q(x)
x
_
T
= 2Ax.
Bibliograa
[1] http://ocw.mit.edu/18/18.06/f02/index.htm.
[2] B. Bona. Modellistica dei Robot Industriali. CELID, Torino, 2002.
[3] C. N. Dorny. A Vector Space Approach to Models and Optimization. John
Wiley & Sons, 1975.
[4] F. R. Gantmacher. The Theory of Matrices, volume 2. Chelsea Publishing
Company, 3rd edition, 1989.
[5] P. Lounesto. Cliord Algebras and Spinors. Cambridge University Press, second
edition, 2001.
[6] P. Lounesto. Cliord Algebras and Spinors. Cambridge University Press, second
edition, 2001.
[7] D. G. Luenberger. Optimization by Vector Space Methods. John Wiley & Sons,
1969.
[8] R. Monaco and A. R`epaci. Algebra Lineare: Vettori, Matrici, Applicazioni.
CELID, Torino, 2002.
[9] S. Rinaldi. Algebra Lineare. CLUP, Milano, 1971.
[10] G. Strang. Introduction to Linear Algebra. Wellesey- Cambridge Press, 1998.
33
Indice
1 Matrici e vettori 2
1.1 Denizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Operazioni sulle matrici . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Autovalori e autovettori . . . . . . . . . . . . . . . . . . . . . 11
1.2.2 Decomposizione ai valori singolari . . . . . . . . . . . . . . . . 12
1.3 Vettori e spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.1 Spazio vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.2 Funzioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.3 Matrici come rappresentazione di operatori lineari . . . . . . . 17
1.3.4 Inversa generalizzata . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.5 Prodotti tra vettori . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.6 Proiezioni e matrici di proiezione . . . . . . . . . . . . . . . . 26
1.3.7 Norme di matrice . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4 Matrici antisimmetriche . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.5 Matrici ortogonali e ortonormali . . . . . . . . . . . . . . . . . . . . . 29
1.6 Forme bilineari e quadratiche . . . . . . . . . . . . . . . . . . . . . . 30
34
Elenco delle gure
1.1 Il bivettore e
12
nel piano R
3
. . . . . . . . . . . . . . . . . . . . . . . 26
35