You are on page 1of 27

APPLICAZIONI LINEARI E DIAGONALIZZAZIONE

Parte I - Applicazioni Lineari


Sezione 1 - Applicazioni lineari in generale
1 - Richiami sulle applicazioni
Sia f : A B una applicazione (funzione) tra gli insiemi A e B. Per denizione di
applicazione, a ogni a A f associa uno e un solo elemento f(a) di B, detto immagine di
a per f. Il sottoinsieme Im(f) = {f(a) B|a A} di B formato dalle immagini per f si
dice immagine di f.
In generale, se C A e D B, limmagine di C `e linsieme f(C) = {f(a) B|a C}
mentre la controimmagine di D `e linsieme f
1
(C) = {a A|f(a) D}. (La notazione
f
1
non signica qui che f `e invertibile). Quindi Im(f) = f(V ).
1) Se Im(f) = B, f si dice surgettiva (ogni b B `e immagine di un a A);
2) se f(a) = f(a

) implica a = a

, f si dice iniettiva (f(a) `e immagine di un solo a A) ;


3) se f `e surgettiva e iniettiva allora f si dice biunivoca.
Se g : B C, possiamo denire la composizione di f e g come lapplicazione g f : A C
data da
g f(a) = g(f(a)).
In generale g f = f g anche se A = B = C.
Dato un insieme A, Id
A
: A A indica lapplicazione che associa a ogni elemento a A
s`e stesso, detta applicazione identica di A.
Una applicazione f : A B si dice invertibile, se esiste f
1
: B A, tale che f
1
f = Id
A
e f f
1
= Id
B
. Lapplicazione f
1
se esiste `e unica e si dice inversa di f. Direttamente
dalle denizioni abbiamo che f `e biunivoca se e solo `e invertibile.
2 - Denizione di applicazione lineare
Introduciamo ora le applicazioni lineari tra spazi vettoriali, partendo da un esempio. Dati
m, n, la trasposizione denisce una applicazione T : M
m,n
M
n,m
tra M
m,n
e M
n,m
ponendo T(A) =
t
A. Per le propriet`a della trasposizione, abbiamo
1
T(A+B) = T(A) +T(B), T(A) = T(A)
per ogni A, B M
m,n
e K.
Abbiamo quindi che limmagine per T di una somma di matrici `e uguale alla somma delle
immagini e che limmagine per T di un prodotto di una matrice per uno scalare `e uguale al
prodotto dellimmagine della matrice per lo stesso scalare. Tali condizioni di compatibilit`a
con le operazioni di spazio vettoriale possono essere generalizzate.
Denizione. Sia f : V W una applicazione tra gli spazi vettoriali V e W su K. Allora
f si dice lineare se
L1) Per ogni v
1
, v
2
V , f(v
1
+v
2
) = f(v
1
) +f(v
2
);
L2) Per ogni v V e K, f(v) = f(v).
Osservazione. Se f `e lineare, f(O
V
) = O
W
; infatti, ponendo in L2 0 e v = O
V
otteniamo f(O
V
) = 0f(O
v
) = O
W
.
Esempi.
1) Lapplicazione f : R
3
R
2
denita da f(x, y, z) = (x +y z, 2x +z) `e lineare.
2) Lapplicazione f : R
2
R
3
denita da f(x, y) = (x + y, x y + 1, 2x) non `e lineare
poiche f(0, 0) = (0, 0, 1) = O.
3) Sia R
+
considerato come SV con le operazioni x[+]y = xy e x = x

per x, y R
+
e
R. Lapplicazione f : R
+
R denita da f(x) = log x `e lineare: f(x[+]y) = log xy =
log x + log y = f(x) +f(y) e f( x) = log x

= log x = f(x).
4) Sia I un intervallo in R. Lapplicazione D : C
1
(I) C
0
(I) denita dalla derivata prima,
D(f) = f

`e lineare. Infatti, per le propriet`a della derivata, D(f + g) = D(f) + D(g) e


D(f) = D(f) per f, g C
1
(I) e K.
Analogamente, lapplicazione D
k
che associa a f C
k
(I) la sua derivata di ordine k `e
lineare.
5) Sia I = [a b]. Lapplicazione
_
b
a
: C
0
(I) R data dallintegrale denito
_
b
a
(f) =
_
b
a
f(x)dx `e lineare per le propriet`a dellintegrale.
Analogamente lapplicazione
_
: C
0
(I) C
1
(I) data dalla funzione integrale (
_
(f))(x) =
_
x
a
f(t)dt `e lineare.
2
3 - Immagine e nucleo di una applicazione lineare
Sia f : V W una applicazione tra gli spazi vettoriali V e W su K. Il sottoinsieme
Ker(f) = {v V |f(v) = O
W
} `e detto nucleo di f. Osserviamo che Ker(f) = f
1
(O
W
).
Proposizione.
1) Se U V `e un SSV, allora f(U) `e un SSV di W. In particolare Im(f) `e un SSV di V .
2) Se U W `e un SSV, allora f
1
(U) `e un SSV di V . In particolare Ker(f) = f
1
(O
W
)
`e un SSV di V .
Prova. Trattiamo solo i casi di Im(f) e Ker(f).
1) Abbiamo f(O
V
) = O
W
, quindi O
W
Im(f). Se w = f(v), w

= f(v

) e K, allora
w + w

= f(v) + f(v

) = f(v + v

) e w = f(v) = f(v), quindi w + w

Im(f) e
w Im(f).
2) f(O
V
) = O
W
, quindi O
V
Ker(f). Se v, v

Ker(f) e K, f(v + v

) =
f(v) +f(v

) = O
W
e f(v) = O
W
= O
W
, quindi v +v

Ker(f) e v Ker(f) .
Proposizione. Se f `e iniettiva se e solo se Ker(f) = {O
V
}.
Prova. Se f `e iniettiva e se v Ker(f), f(O
V
) = O
W
e f(v) = O
W
implicano v = O
V
.
Daltra parte, se Ker(f) = {O
V
}, abbiamo
f(v) = f(v

) f(v) f(v

) = f(v v

) = O
W
v v

Ker(f) v = v

.
Tra le dimensioni del nucleo e dellimmagine vale la seguente relazione.
Proposizione. Se f : V W `e una applicazione lineare, allora
dimKer(f) + dimIm(f) = dimV.
3 - Isomorsmi
Se f : V W `e unapplicazione lineare biunivoca tra gli spazi vettoriali V e W su K,
allora f si dice isomorsmo tra V e W. Nel caso in cui V = W, f : V V si dice
automorsmo di V ; in particolare Id
V
`e un automorsmo di V .
3
In pratica un isomorsmo ci permette di identicare V e W come spazi vettoriali trasfer-
endo in W le operazioni eettuate tra elementi di V e viceversa.
Proposizione. Se f `e un isomorsmo, anche f
1
: W V `e lineare e quindi un isomor-
smo.
Prova. Infatti, se w = f(v), w

= f(v

) e K, abbiamo:
f
1
(w +w

) = f
1
(f(v) +f(v

)) = f
1
(f(v +v

)) = v +v

= f
1
(w) +f
1
(w

)
e
f
1
(w) = f
1
(f(v)) = f
1
(f(v)) = v = f
1
(w).
Esempio. La trasposizone T : M
m,n
M
n,m
`e un isomorsmo: verichiamolo in due
modi diversi.
1) Per ogni A M
m,n
, T(T(A)) =
t
(
t
A) = A, quindi T `e invertibile con T
1
= T.
2) Se B M
n,m
, B = T(
t
B), quindi B Im(T) e T `e surgettiva. Inoltre
T(A) =
t
A = O
n,m
se e solo se A = O
m,n
, quindi T `e iniettiva e dunque biunivoca.
Nel caso m = 1, T identica i vettori riga con i vettori colonna.
4 - Isomorsmo delle coordinate
Sia V uno SV su K di dimensione nita n e sia B una base di V . Lapplicazione f
B
: V
K
n
denita associando a un vettore v V il vettore delle coordinate [v]
B
rispetto a B,
cio`e f
B
(v) = [v]
B
, `e un isomorsmo.
1) f
B
`e lineare. Infatti
f
B
(v +v

) = [v +v

]
B
= [v]
B
+ [v

]
B
= f
B
(v) +f
B
(v

) e f
B
(v) = [v]
B
= f
B
(v);
2) f
B
`e invertibile. Infatti, se X = (x
1
, . . . , x
n
) K
n
e se v = x
1
v
1
+ + x
n
v
n
, allora
f
B
(v) = X, quindi f
B
`e surgettiva. Inoltre, se f
B
(v) = f
B
(v

) allora v e v

hanno le stesse
coordinate, quindi v = v

, cio`e f
B
`e iniettiva.
Dalle considerazioni precedenti segue che ogni SV di dimensione nita n `e isomorfo a K
n
.
4
Sezione 2 - Applicazioni lineari e matrici
1 - Applicazioni denite da prodotti di matrici
Se A M
m,n
e p `e un intero, lapplicazione f : M
n,p
M
m,p
denita da f(X) = AX per
X M
n,p
`e lineare. Infatti
1) f(X +Y ) = A(X +Y ) = AX +AY = f(X) +f(Y ),
2) f(X) = A(X) = AX = f(X)
per le propriet`a delle operazioni tra matrici.
Se B M
q,p
e se g : M
m,p
M
q,p
`e denita da g(X) = BX, allora lapplicazione
g f : M
n,p
M
q,p
`e denita da g f(X) = BAX.
Se n = m e A Gl
n
, f `e un automorsmo di M
n,p
con f
1
(X) = A
1
X. Infatti
f f
1
(X) = AA
1
X = A
1
AX = f
1
f(X) = X.
Per esempio, una OE (operazione elementare) si pu`o considerare come lautomorsmo di
M
m,n
denito da f(X) = EX, dove E GL
m
`e la matrice elementare associata a OE.
5
2 - Applicazioni associate a matrici
Sia A M
m,n
; se nellesempio precedente consideriamo p = 1, otteniamo una applicazione
lineare l
A
: K
n
K
m
detta applicazione associata a A. Ad esempio, se
A =
_
1 2 1
2 4 2
_
, l
A
((x, y, z)) =
_
1 2 1
2 4 2
_
_
_
x
y
z
_
_
=
_
x + 2y z
2x 4y + 2z
_
.
Un vettore (u, v) K
2
appartiene a Im(l
A
) se e solo se esiste (x, y, z) K
3
tale che:
_
u
v
_
=
_
1 2 1
2 4 2
_
_
_
x
y
z
_
_
= x
_
1
2
_
+y
_
2
4
_
+z
_
1
2
_
.
Dunque (u, v) Im(l
A
) se e solo se (u, v) `e CL delle colonne di A.
Osserviamo in particolare che le colonne di A sono date da [A]
j
= Ae
j
= l
A
(e
j
).
Un vettore (x, y, z) K
3
appartiene a Ker(l
A
) se e solo se
_
1 2 1
2 4 2
_
_
_
x
y
z
_
_
= O che si scrive
_
x + 2y z = 0
2x 4y + 2z = 0
Dunque (x, y) Ker(l
A
) se e solo se (x, y, z) `e soluzione del sistema omogeneo con matrice
associata A.
Generalizzando lesempio precedente abbiamo che, se A M
m,n
:
1) Im(l
A
) coincide con il SSV di K
m
generato dalle colonne di A e quindi dimIm(l
A
) =
r(A);
2) Ker(l
A
) coincide con il SSV di K
n
delle soluzioni del sistema omogeneo AX = O e
quindi dimKer(l
A
) = n r(A)
Osservazione. Ricordando la relazione dimKer(f) + dimIm(f) = dimV , abbiamo che
1) 2).
Riguardo alla composizione si ha che l
B
l
A
= l
BA
. Da quanto fatto abbiamo che l
A
`e
invertibile se e solo se A GL
n
: in tal caso l
A
`e un automorsmo di K
n
e (l
A
)
1
= l
A
1.
In particolare Id
K
n `e lapplicazione associata a I
n
.
Se B `e una base di K
n
allora l
M
B
`e lautomorsmo di K
n
che rappresenta il cambiamento
di coordinate dato da B.
6
3 - Applicazioni lineari da K
n
a K
m
Sia f : K
2
K
2
una applicazione lineare. Supponiamo che f(e
1
) = (1, 2) e f(e
2
) =
(3, 1). Allora, poich`e (x, y) = xe
1
+ye
2
, per la linearit`a di f abbiamo
f((x, y)) = xf(e
1
) +yf(e
2
) = x(1, 2) +y(3, 1) = (x + 3y, 2x +y) =
_
1 3
2 1
__
x
y
_
,
dunque f = l
A
dove A =
_
1 3
2 1
_
.
Possiamo generalizzare lesempio precedente.
Proposizione. Se f : K
n
K
m
`e una applicazione lineare, allora f `e lapplicazione
associata alla matrice [f] = [f(e
1
), . . . , f(e
n
)] M
m,n
. Quindi f(X) = [f]X per X K
n
,
cio`e f = l
[f]
.
La matrice [f], le cui colonne sono le immagini dei vettori canonici, viene detta matrice
associata a f (rispetto alla base canonica).
Queste considerazioni ci permettono di identicare le applicazioni lineari da K
n
in K
m
con le matrici mn. In particolare possiamo indenticare gli automorsmi di K
n
con le
matrici di cambiamento di coordinate.
7
Parte II - Diagonalizzazione
Sezione 1 - Applicazioni lineari e cambi di coordinate
Supponiamo di dover risolvere un qualsiasi problema che coinvolga una matrice quadrata
A: `e evidente che la risoluzione in generale pi` u semplice se A `e diagonale. In eetti,
identicando A con lapplicazione l
A
, si scopre in molti casi che `e conveniente cambiare base
in modo che la trasformazione determinata da A diventi nelle nuove coordinate quella di
una matrice diagonale (o comunque di una matrice di forma pi` u semplice di A). Esponiamo
ora in modo dettagliato queste considerazioni per il caso diagonale.
Per prima cosa dobbiamo studiare la relazione tra applicazioni lineari da K
n
in s`e e cambi
di base. Se f : K
n
K
n
`e lineare, allora f `e lapplicazione associata alla matrice [f] M
n
:
poniamo [f] = A e identichiamo f con A.
Se B `e una base di K
n
, vogliamo determinare una matrice A

M
n
tale che si abbia
[AX]
B
= A

[X]
B
per ogni X K
n
.
Se B = {X
1
, . . . , X
n
} e se N = [X
1
, . . . , X
n
], ricordiamo che M
B
= N
1
`e la matrice
di cambiamento di coordinate relativa a B: in particolare, se X K
n
, N
1
X = [X]
B
e
N[X]
B
= X. Quindi per ogni X K
n
[AX]
B
= N
1
AX = N
1
ANN
1
X = N
1
AN[X]
B
da cui A

= N
1
AN.
Possiamo dire che la matrice A

rappresenta lapplicazione f nelle nuove coordinate.


Esempio. Sia A =
_
3 1
1 1
_
e sia B = {X
1
= (1, 1), X
2
= (1, 0)}. Allora AX
1
= 2X
1
e
AX
2
= (3, 1) = X
1
+ 2X
2
. Quindi se X = c
1
X
1
+c
2
X
2
abbiamo
AX = (2c
1
+c
2
)X
1
+ 2c
2
X
2
da cui
[AX]
B
=
_
2c
1
+c
2
2c
2
_
=
_
2 1
0 2
__
c
1
c
2
_
= A

[X]
B
.
Si verica che A

= N
1
AN, dove N = [X
1
, X
2
].
In base a quanto detto diamo la seguente denizione:
8
Denizione. Una matrice A M
n
si dice diagonalizzabile se esiste una matrice invertibile
N GL
n
tale che la matrice N
1
AN = D `e diagonale.
La matrice D si dice forma diagonale di A mentre N si dice matrice di diagonalizzazione
da A a D.
Applicazione ai sistemi dierenziali. Consideriamo il sistema di equazioni dierenziali
S :
_
x

(t) = 2x(t) +y(t)


x

(t) = x(t) + 2y(t)


dove le incognite x(t) e y(t) sono funzioni reali in t di classe C
1
. Possiamo determinare tutte
le soluzioni di tale sistema usando la diagonalizzazione. Se poniamo P(t) = (x
1
(t), x
2
(t)),
P

(t) = (x

(t), y

(t)) e
A =
_
2 1
1 2
_
,
possiamo scrivere S come S : P

(t) = AP(t)
Ora A `e diagonalizzabile: se
N =
_
1 1
1 1
_
e D =
_
3 0
0 1
_
,
abbiamo N
1
AN = D da cui A = NDN
1
. Sostituendo in S otteniamo P

(t) =
NDN
1
P(t). Ponendo N
1
P(t) = Q(t) = (u(t), v(t)) abbiamo il nuovo sistema
Q

(t) = DQ(t), cio`e S

:
_
u

(t) = 3u(t)
v

(t) = v(t)
in quanto Q

(t) = N
1
P

(t).
Allore `e immediato che le soluzioni di S

sono le coppie di funzioni Q(t) = (c


1
e
3t
, c
2
e
t
) con
c
1
, c
2
R, quindi le soluzioni di S sono date da
P(t) = NQ(t) = (c
1
e
3t
c
2
e
t
, c
1
e
3t
+c
2
e
t
).
Sezione 2 - Autovettori e diagonalizzazione
Osserviamo che possiamo caratterizzare le matrici diagonali nel seguente modo: D M
n
`e diagonale se e solo se De
i
=
i
e
i
per i = 1, . . . , n, dove
i
= [D]
i,i
. Per esempio, se
9
D =
_
_
2 0 0
0 1 0
0 0 3
_
_
,
abbiamo De
1
= [D]
1
= 2e
1
, De
2
= [D]
2
= e
2
, De
3
= [D]
3
= 3e
3
.
Se ora A `e una matrice qualsiasi, A `e diagonalizzabile se e solo se N
1
AN `e diagonale
per qualche N Gl
n
cio`e se e solo se N
1
ANe
i
=
i
e
i
per i = 1, . . . , n. Moltiplicando a
destra per N otteniamo ANe
i
=
i
Ne
i
.
Poiche N = [X
1
, . . . , X
n
], dove {X
1
, . . . , X
n
} `e una base di K
n
e poiche Ne
i
= X
i
per
ogni i, abbiamo che A `e diagonalizzabile se e solo se esistono una base B = {X
1
, . . . , X
n
}
di K
n
e scalari
1
, . . . ,
n
in K (non necessariamente distinti) tali che
AX
i
=
i
X
i
i = 1, . . . , n.
Tale condizione ci porta a formulare la seguente denizione
Denizione. Se A M
n
, un vettore X K
n
si dice autovettore di A se:
1) X = O;
2) Esiste K, detto autovalore di A relativo a X, tale che AX = X.
Si dice anche che X `e autovettore di A con autovalore .
Esempi.
1) Se
A =
_
_
1 0 1
2 3 1
1 0 1
_
_
osservando la seconda colonna, vediamo che [A]
2
= 3
_
_
0
1
0
_
_
= 3e
2
, e quindi che Ae
2
= 3e
2
.
Quindi e
2
`e un autovettore di A con autovalore 3.
2) Siano A =
_
2 1
1 2
_
M
2
e X
1
= (1, 1) K
2
. Allora
AX
1
=
_
2 1
1 2
__
1
1
_
=
_
1
1
_
= X
1
quindi X
1
`e un autovettore di A con autovalore 1.
Se ora consideriamo il vettore X
2
= (1, 1), abbiamo che AX
2
= 3X
2
;
10
AX
2
=
_
2 1
1 2
__
1
1
_
= 3
_
1
1
_
= 3X
2
quindi X
2
`e un autovettore di A con autovalore 3.
3) Se
A =
_
1 1
1 1
_
, X
1
= (1, 1)
allora AX
1
= O = 0X
1
. Quindi X
1
`e autovettore (`e non nullo!) di A con autovalore 0.
Osservazioni.
1) Poiche AO = O = O vale per qualsiasi , se considerassimo O autovettore il relativo
autovalore sarebbe indenito. Questo fatto giustica la richiesta che un autovettore sia un
vettore non nullo.
2) Un vettore X K
n
tale che AX = X si dice vettore sso di A M
n
: quindi
lapplicazione lineare l
A
: K
n
K
n
trasforma X in s`e stesso. Un vettore sso = O
di A `e un autovettore di A con autovalore 1.
3) Una matrice A M
n
ha autovalore 0 se e solo se il sistema omogeneo S : AX = O
non `e determinato (altrimenti sol(S) = {O}), quindi se e solo se A non `e invertibile. Nel
linguaggio delle applicazioni lineari questo equivale a dire che Ker(l
A
) `e non nullo e quindi
che l
A
non `e iniettiva.
4) Se A `e una matrice diagonale nn, allora gli elementi e
1
, . . . , e
n
della base canonica di
K
n
sono autovettori di A con autovalori gli elementi della diagonale principale di A.
5) Le matrici del tipo I
n
con K si dicono matrici scalari (O
n
e I
n
sono scalari)). Per
una matrice scalare in M
n
tutti i vettori = O di K
n
sono autovettori con autovalore .
Usando la denizione di autovettore e le considerazioni che la precedono otteniamo diret-
tamente il
I Criterio di Diagonalizzabilit`a . Una matrice A M
n
`e diagonalizzabile se e solo se
esiste una base B = {X
1
, . . . , X
n
} di K
n
formata da autovettori di A (base di autovettori
per A).
In tal caso, se N = [X
1
, . . . , X
n
] e se
i
`e lautovalore relativo a X
i
per i = 1, . . . , n, allora
N
1
AN = D =
_
_

1
. . . 0
.
.
.
.
.
.
.
.
.
0 . . .
n
_
_
.
11
Vediamo due semplici applicazioni del criterio precedente.
Esempi.
1) La matrice
A =
_
0 1
0 0
_
non `e diagonalizzabile . Infatti gli autovettori di A sono le soluzioni non nulle, per i per
cui esistono, del sistema omogeneo parametrico
AX X =
_
0 1
0 0
__
x
y
_

_
x
y
_
=
_
0
0
_
cio`e
_
y x = 0
0 = y
Necessariamente abbiamo y = = 0 e gli autovettori sono tutti i multipli non nulli di
(1, 0); dunque non esiste una base di autovettori per A.
2) Se A =
_
1 1
1 1
_
, allora B = {X
1
= (1, 1), X
2
= (1, 1)} formano una base di K
2
di
autovettori per A con autovalori rispettivamente 0 e 2. Infatti AX
1
= O e
AX
2
=
_
1 1
1 1
__
1
1
_
=
_
2
2
_
= 2
_
1
1
_
.
Quindi A `e diagonalizzabile .
Osservazione. Una matrice diagonale
A =
_
_

1
. . . 0
.
.
.
.
.
.
.
.
.
0 . . .
n
_
_
.
`e ovviamente diagonalizzabile, potendo prendere come base di autovettori C
n
. In tal caso
la matrice di diagonalizzazione `e I
n
e la forma diagonale `e A stessa.
Sezione 3 - Autovalori e polinomio caratteristico
1 - Metodo
Al ne di tradurre il I Criterio di Diagonalizzabilit`a in un enunciato pi` u direttamente ap-
plicabile, stabiliremo dapprima un metodo per lindividuazione di eventuali autovalori di
12
una matrice. Successivamente, a partire dalla conoscenza di tali autovalori, potremo deter-
minare gli autovettori relativi e trovare condizioni per lesistenza di una base di autovettori
per la matrice.
2 - Esempio
Consideriamo la matrice
A =
_
_
5 2 2
8 3 4
4 2 3
_
_
.
K `e un autovalore di A se e solo se esiste X K
3
NON NULLO tale che AX = X,
cio`e AX X = O.
Quindi, se X = (x, y, z), abbiamo la condizione
_
_
5 2 2
8 3 4
4 2 3
_
_
_
_
x
y
z
_
_

_
_
x
y
z
_
_
=
= (
_
_
5 2 2
8 3 4
4 2 3
_
_

_
_
1 0 0
0 1 0
0 0 1
_
_
)
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
.
Quindi `e autovalore di A se e solo se il sistema omogeneo
S

:
_
_
_
(5 )x + 2y + 2z = 0
8x + (3 )y 4z = 0
4x + 2y + (3 )z = 0
`e indeterminato (altrimenti lunica soluzione sarebbe il vettore nullo!).
In altre parole `e autovalore di A se e solo se si annulla il determinante della matrice
AI
3
associata a S

, cio`e
det
_
_
5 2 2
8 3 4
4 2 3
_
_
=
3
+ 5
2
7 + 3 = 0.
Questo equivale a richiedere che sia radice del polinomio t
3
+ 5t
2
7t + 3.
3 - Polinomio caratteristico
13
Data A M
n
lespressione p
A
(t) = D(A tI
n
) nella variabile t `e un polinomio di K[t]
di grado n con monomio di grado massimo uguale a (1)
n
t
n
. p
A
(t) si dice polinomio
caratteristico di A.
Generalizzando quanto visto nellesempio, abbiamo che `e un autovalore di A se e solo se
`e una radice di p
A
(t). A questo punto ricordiamo il ben noto
Teorema di Runi. Se p(t) K[t] `e un polinomio non nullo e K `e una radice
di p(t), allora esistono un intero positivo m() e q(t) K[t] tali che q() = 0 e p(t) =
(t )
m()
q(t).
Lintero m() si dice molteplicit`a di . Se m() > 1, la radice si dice multipla, mentre
se m() = 1 si dice semplice.
Nel caso di una matrice A M
n
, la molteplicit`a di un autovalore di A come radice di
p
A
(t) sar`a denotata con m
A
() e sar`a anche detta molteplicit`a algebrica di .
`
E immediato che, se B M
n
, allora p
B
(t) = p
A
(t) se e solo se B ha gli stessi autovalori
di A con la stessa molteplicit`a algebrica.
Esempi.
1) Nellesempio precedente, avevamo ottenuto il polinomio caratteristico
p
A
(t) = t
3
+ 5t
2
7t + 3.
Utilizzando il metodo di Runi per risolvere lequazione
t
3
+ 5t
2
7t + 3 = 0 (si vede subito che 1 `e soluzione!), otteniamo
p
A
(t) = (t 1)
2
(t + 3).
Quindi abbiamo 2 autovalori
1
= 1 e
2
= 3 con m
A
(1) = 2 e m
A
(3) = 1.
2) Sia
A =
_
_
1 0 2
5 3 1
2 0 4
_
_
.
Sviluppando D(AtI
3
) rispetto alla seconda colonna otteniamo il polinomio caratteristico
gi`a decomposto: p
A
(t) = (3 t)(t
2
5t) = (3 t)(t 5)t. Dunque abbiamo 3 autovalori
semplici, 3, 5, 0.
3) Sia
A =
_
3 1
1 1
_
.
14
Allora p
A
(t) = (t 2)
2
e quindi A ha il solo autovalore 2 con m
A
(2) = 2. Se A fosse
diagonalizzabile, esisterebbe N Gl
2
tale che N
1
AN = 2I
2
. Quindi avremmo lassurdo
A = 2NI
2
N
1
= 2I
2
=
_
2 0
0 2
_
.
In generale, se A M
n
ha un solo autovalore con m
A
() = n allora A `e diagonalizzabile
se e solo se A = I
n
(gi`a diagonale!).
In alcuni casi particolari il polinomio caratteristico e gli autovalori sono immediatamente
calcolabili.
Matrici di ordine 2. Data A M
n
, la traccia tr(A) di A `e la somma degli elementi
della diagonale principale, tr(A) = [A]
1,1
+ [A]
2,2
+ + [A]
n,n
. Se
A =
_
a b
c d
_
allora
det
_
a t b
c d t
_
= t
2
(a +d)t +ad bc
quindi
p
A
(t) = t
2
tr(A)t +D(A).
Esempi. Se
A =
_
1 5
1 2
_
, B =
_
3 4
1 1
_
, C =
_
2 3
1 1
_
,
allora p
A
(t) = t
2
3t 3, p
B
(t) = t
2
2t + 1 = (t 1)
2
, p
C
(t) = t
2
+t + 1.
Matrici triangolari. Consideriamo le matrici triangolari (superiore, inferiore e diagonale
rispettivamente)
A =
_
_
2 1 7
0 1 11
0 0 2
_
_
, B =
_
_
0 0 0
5 1 0
4 0 3
_
_
, C =
_
_
2 0 0
0 1 0
0 0 3
_
_
.
Allora
p
A
(t) = (t 2)
2
(t + 1), p
B
(t) = t(t + 1)(t 3), p
C
(t) = (t 2)(t + 1)(t 3).
15
In generale possiamo aermare che, se A M
n
`e una matrice triangolare, gli autovalori
di A sono gli elementi distinti della diagonale principale e che la molteplicit`a algebrica di
ciascun autovalore `e il numero di volte che compare sulla diagonale principale.
4 - Diagonalizzazione su R e C
Quanto fatto in precedenza ci permette di ridurre la determinazione degli autovalori alla
risoluzione di equazioni algebriche.Dunque in generale avremo risultati dierenti a seconda
che K = R o K = C. Infatti nel primo caso vale il
Teorema Fondamentale dellAlgebra. Se p(t) C[t] `e un polinomio a coecienti in
C, allora p(t) ammette radici. Inoltre se n `e il grado di p(t) e se
1
, . . . ,
k
sono le radici
di p(t), allora
m(
1
) +m(
2
) + +m(
k
) =
k

i=1
m(
i
) = n.
La seconda parte dellenunciato signica che p(t) ha n radici se contiamo le radici con la
loro molteplicit`a .
Nel caso K = R, non sempre un polinomio in R[t] ammette radici reali.
Esempio. Se
A =
_
0 1
1 0
_
,
allora p
A
(t) = t
2
+ 1, che non ha radici reali. Se noi consideriamo A come matrice in
M
2
(R), A non ha autovalori (un autovalore deve essere un numero nel campo degli scalari
considerato) e dunque non pu`o essere diagonalizzabile.
Daltra parte, poiche R C, possiamo invece considerare A come matrice in M
2
(C). In
tal caso ammette gli autovalori i con autovettori X
1
= (1, i) e X
2
= (1, i) ottenuti come
soluzioni di (AiI
2
)X = 0, cio`e
_
ix +y = 0
x iy = 0
,
_
ix +y = 0
x +iy = 0
X
1
, X
2
sono una base di C
2
, dunque in questo caso A `e diagonalizzabile con
N =
_
1 1
i i
_
.
16
In generale , una matrice A che ha tutti gli elementi reali potr`a essere considerata come
appartenente a M
n
(R) o a M
n
(C). Per distinguere i due casi specicheremo A `e diago-
nalizzabile su R o A `e diagonalizzabile su C.
Ovviamente una matrice diagonalizzabile su R lo `e anche su C mentre, come mostra
lesempio precedente, non vale limplicazione contraria.
Sezione 4 - Autospazi
1 - Esempio
Utilizzando un esempio gi`a studiato, cerchiamo un metodo per determinare gli autovettori
a partire dalla conoscenza degli autovalori. Abbiamo visto che la matrice
A =
_
_
5 2 2
8 3 4
4 2 3
_
_
ha polinomio caratteristico p
A
(t) = t
3
+ 5t
2
7t + 3 e autovalori
1
= 1 e
2
= 3 con
m
A
(1) = 2 e m
A
(3) = 1.
Gli autovettori di A relativi a 1 sono le soluzioni non nulle del sistema omogeneo S
1
:
(AI)X = O, cio`e
S
1
:
_
4x + 2y + 2z = 0
8x 4y 4z = 0
4x + 2y + 2z = 0
che ha equazione risolvente z = 2x y
Gli autovettori di A relativi a 3 sono le soluzioni non nulle di S
2
: (A3I)X = O, cio`e
S
2
:
_
2x + 2y + 2z = 0
8x 6y 4z = 0
4x + 2y = 0
con equazioni risolventi y = 2x, z = x.
Poiche V
1
= sol(S
1
) e V
2
= sol(S
2
) sono SSV di K
3
in forma implicita, le loro dimensioni
sono
dimV
1
= 3 r(AI) = 2 e dimV
2
= 3 r(A3I) = 1
in quanto
17
r(AI) = r(
_
_
4 2 2
8 4 4
4 2 2
_
_
) = 1, r(A3I) = r(
_
_
2 2 2
8 6 4
4 2 0
_
_
) = 2.
Una base di V
1
`e B
1
= {X
1
= (1, 0, 2), X
2
= (0, 1, 1)} mentre una base di V
2
`e B
2
=
{X
3
= (1, 2, 1)}. Si verica direttamente che B = {X
1
, X
2
, X
3
} `e una base di K
3
ovviamente formata da autovettori di A e quindi A `e diagonalizzabile per il I Criterio di
Diagonalizzabilit`a .
Dunque possiamo diagonalizzare A con la matrice
N = [X
1
, X
2
, X
3
] =
_
_
1 0 1
0 1 2
2 1 1
_
_
ottenendo la forma diagonale
D = N
1
AN =
_
_
1 0 0
0 1 0
0 0 3
_
_
.
Osservazione. Possiamo scegliere innite basi di autovettori per la matrice A dellesempio
precedente in modo da ottenere la stessa forma diagonale D: per esempio moltiplicando i
vettori di B per scalari non nulli o prendendo qualsiasi altra base di V
1
.
Daltra parte, permutando gli elementi di B abbiamo sempre una base di autovettori di
A ma la relativa forma diagonale in generale varia: per esempio se B

= {X
3
, X
1
, X
2
},
allora otteniamo la forma diagonale
D

=
_
_
1 0 0
0 3 0
0 0 1
_
_
.
In generale vi `e un numero nito di possibili forme diagonali di una matrice, in quanto
sono tutte ottenute permutando gli autovalori sulla diagonale.
2 - Autospazi e molteplicit`a geometrica
Sia A M
n
e sia K un autovalore di A. Deniamo autospazio di A relativo a
linsieme V
A
() = sol(S

) delle soluzioni del sistema omogeneo


S

: (AI
n
)X = O.
18
V
A
() `e il SSV di K
n
formato da tutti gli autovettori di A relativi a pi` u il vettore nullo
(che non `e un autovettore ma `e una soluzione di S

!).
Se K `e un autovalore di A M
n
, la dimensione d
A
() dellautospazio V
A
() `e data
dalla formula della dimensione per i SSV in forma implicita:
d
A
() = dimV
A
() = n r(AI
n
).
d
A
() viene detta molteplicit`a geometrica di (come autovalore di A). Osserviamo che
necessariamente d
A
() `e 1, in quanto un autospazio non pu`o consistere nel solo vettore
nullo.
Nellesempio esposto in precedenza, tutti gli autovalori hanno molteplicit`a algebrica e
geometrica uguali (m
A
(1) = 2 = d
A
(1) e d
A
(3) = 1 = d
A
(3)). Questo in generale non `e
vero. Per esempio, se
B =
_
1 1
0 1
_
p
B
(t) = (t 1)
2
, quindi B ha solo 1 come autovalore con m
B
(1) = 2 e
d
B
(1) = 2 r(B I
2
) = 2 1 = 1 < m
B
(1). Comunque vale la seguente
Proposizione. Sia A M
n
e sia K un autovalore di A. Allora
1 d
A
() m
A
().
Osserviamo che, se m
A
() = 1 la precedente disuguaglianza implica che d
A
() = m
A
() =
1. Dunque le due molteplicit`a possono dierire solo nel caso di autovalori multipli.
Sezione 6 - Autovettori e indipendenza lineare
1 - Metodo
Nellesempio precedente abbiamo ottenuto una base di di autovettori per una matrice A
come unione di basi degli autospazi di A. Una condizione necessaria per poter generalizzare
questo metodo `e che questa unione di basi sia intanto un insieme libero. Dunque siamo
interessati a vericare lindipendenza lineare tra autovettori relativi a autovalori diversi.
2 - Indipendenza degli autovettori
19
Intanto, se A M
n
e se X
1
, X
2
sono autovettori di A con relativi autovalori
1
=
2
,
allora X
1
, X
2
sono LI.
Infatti sono entrambi = O per denizione e, se fosse X
2
= X
1
, avremmo

2
X
2
= AX
2
= AX
1
= AX
1
=
1
X
1
=
1
X
1
=
1
X
2
da cui
1
=
2
contro lipotesi.
Siano ora X
1
, X
2
, X
3
autovettori di A con relativi autovalori
1
,
2
,
3
distinti. Se per
assurdo fosse X
3
= c
1
X
1
+c
2
X
2
, avremmo

3
X
3
= AX
3
= c
1
AX
1
+c
2
AX
2
= c
1

1
X
1
+c
2

2
X
2
e

3
X
3
=
3
(c
1
X
1
+c
2
X
2
) = c
1

3
X
1
+c
2

3
X
2
da cui
c
1

1
X
1
+c
2

2
X
2
= c
1

3
X
1
+c
2

3
X
2
cio`e c
1
(
1

3
)X
1
+c
2
(
2

3
)X
2
= O.
Poiche X
1
e X
2
sono LI per il caso precedente, i coecienti dellultima CL devono essere
nulli; daltra parte
3
=
1
e
2
=
1
, dunque c
1
= c
2
= 0. Ma allora X
3
= O, il che `e
assurdo in quanto X
3
`e un autovettore.
Questo ragionamento si generalizza con il principio di induzione ottenendo il
Teorema di Indipendenza degli Autovettori. Sia A M
n
.
1) Se X
1
, . . . X
k
sono autovettori di A con relativi autovalori
1
, . . . ,
k
distinti, allora
linsieme V = {X
1
, . . . , X
k
} `e libero.
2) Se p
A
(t) ha radici distinte
1
, . . . ,
k
in K (cio`e consideriamo tutti gli autovalori di A
in K senza molteplicit`a ), allora scelta per ogni autospazio V
A
(
i
) una base B
i
, linsieme
di vettori V =

k
i=1
B
i
`e libero.
Illustriamo con un esempio il punto (2) del teorema.
Esempio. Sia
A =
_
_
_
1 1 1 2
0 1 0 3
0 0 1 1
0 0 0 2
_
_
_ M
4
20
Gli autovalori di A sono 1 e 2 con m
A
(1) = 3 e m
A
(2) = 1, poiche A`e triangolare superiore.
Si verica che r(A I
4
) = 2 e che i sistemi S
1
: (A I
4
)X = O e S
2
: (A 2I
4
)X = O
hanno risolventi rispettivamente
_
y = z
t = 0
e
_
x = 4t
y = 3t
z = t
Dunque una base di V
A
(1) = sol(S
1
) `e B
1
= {X
1
= (1, 0, 0, 0), X
2
= (0, 1, 1, 0)} mentre
B
2
= {X
3
= (4, 3, 1, 1)} `e una base di V
A
(2) = sol(S
2
). La matrice [X
1
, X
2
, X
3
] ha rango
3, quindi X
1
, X
2
, X
3
formano un insieme libero.
Sezione 7 - Diagonalizzabilit`a e autovalori
1 - Diagonalizzabilit`a con autovalori semplici
Dal Teorema di Indipendenza degli Autovettori otteniamo:
Proposizione. Se A M
n
ha n autovalori
1
, . . . ,
n
distinti (quindi semplici in quanto

n
i=1
m
A
(
i
) = n i m
A
(
i
) = 1), allora A `e diagonalizzabile.
Infatti, prendendo per ogni
i
un autovettore X
i
, linsieme B = {X
1
, . . . , X
n
} `e libero
per il punto (1) del Teorema di Indipendenza degli Autovettori, e quindi `e una base di
autovettori per A avendo n elementi.
ATTENZIONE! Il viceversa non `e vero! Se una matrice n n `e diagonalizzabile non
possiamo concludere che ha necessariamente n autovalori distinti.
Per esempio I
n
ha il solo autovalore 1 con molteplicit`a n ma `e diagonalizzabile in quanto
diagonale.
2 - Diagonalizzabilit`a in presenza di autovalori multipli
Il punto (2) del Teorema di Indipendenza degli Autovettori ci dice che un insieme libero
di autovettori di A M
n
al massimo pu`o avere tanti elementi quanti la somma delle
molteplicit`a geometriche degli autovalori di A. Dunque tale somma sar`a uguale a n se e
solo se esiste una base di autovettori per A, cio`e se e solo se A `e diagonalizzabile.
Inoltre
n

i=1
d
A
(
i
)
n

i=1
m
A
(
i
) n.
21
Da tali considerazioni precedenti ricaviamo il seguente criterio:
II Criterio di Diagonalizzabilit`a . Sia A M
n
. Se p
A
(t) ha k radici distinte
1
, . . . ,
k
in K, allora A `e diagonalizzabile se e solo sono vericate le seguenti condizioni:
1)

k
i=1
m
A
(
i
) = n;
2) d
A
(
i
) = m
A
(
i
) per ogni i = 1, . . . , k.
In altre parole, A `e diagonalizzabile se e solo la somma delle molteplicit`a algebriche degli
autovalori `e n (massima possibile) e per ogni autovalore la molteplicit`a algebrica `e uguale
a quella geometrica.
3 - Diagonalizzazione in presenza di parametri
Comme applicazione del II Criterio di Diagonalizzabilit`a , studiamo al variare di k in R
la diagonalizzabilit`a della famiglia di matrici
A
k
=
_
_
3 0 0
2 1 k 3
1 k 1
_
_
.
Il polinomio caratteristico di A
k
`e , sviluppando D(A
k
tI
3
) lungo la prima riga,
p
A
k
(t) = det
_
_
3 t 0 0
2 1 t k 3
1 k 1 t
_
_
= (3 t)(t
2
2t + 1 k(k 3))
Dunque, al variare di k, gli autovalori di A
k
sono
1
= 3,
2
= 1 +
_
k(k 3),
3
=
1
_
k(k 3).
1) Se 0 < k < 3 allora k(k 3) < 0 e
2
,
3
sono complessi coniugati.
Quindi A
k
non `e diagonalizzabile su R mentre lo `e su C essendoci in C tre autovalori
distinti.
2) Per k 0 o k 3 gli autovalori sono tutti reali. Vi sono autovalori multipli per i k
tali che il discriminante `e 0, cio`e per k = 0 e k = 3, e per i k tali che 1
_
k(k 3) = 3.
Questi ultimi sono k = 1 e k = 4.
Quindi per k > 3, k < 0 e k = 1, 4, A
k
`e diagonalizzabile su R.
3) Esaminiamo ora separatamente i casi k = 0, 3, 4, 1.
k=0. Autovalore 1 con molteplicit`a algebrica 2. Allora
22
r(A
0
I) = r(
_
_
2 0 0
2 0 3
1 0 0
_
_
) = 2 implica dimV
A
0
(1) = 1
quindi A
0
non `e diagonalizzabile.
k=3. Autovalore 1 con molteplicit`a algebrica 2. Allora
r(A
3
I) = r(
_
_
2 0 0
2 0 0
1 3 0
_
_
) = 2 implica dimV
A
3
(1) = 1
quindi A
3
non `e diagonalizzabile.
k=4. Autovalore 3 con molteplicit`a 2. Allora
r(A
4
3I) = r(
_
_
0 0 0
2 2 1
1 4 2
_
_
) = 2 implica dimV
A
4
(3) = 1
quindi A
4
non `e diagonalizzabile.
k=-1. Autovalore 3 con molteplicit`a 2. Allora
r(A
1
3I) = r(
_
_
0 0 0
2 2 4
1 1 2
_
_
) = 1 implica dimV
A
1
(3) = 2
quindi A
1
`e diagonalizzabile.
23
Parte IV - Diagonalizzazione nel caso generale
Sezione 1 - Autovalori e autovettori
1 - Endomorsmi e autovettori
Sia V uno spazio vettoriale su K. Unapplicazione lineare f : V V da V in se si dice un
endomorsmo di V . Allora un autovettore di f con autovalore K `e un vettore v V
diverso da O tale che f(v) = v. Si dice anche che `e un autovalore di f.
Linsieme V
f
() = {v V |f(v) = v}, detto autospazio di f relativo a , `e un SSV di V .
Sia V un SV su K di dimensione nita e sia f : V V un endomorsmo di V con
autovalori
1
, . . . ,
k
.
Allora, scelta per ogni autospazio V
f
(
i
) una base B
i
, linsieme di vettori V =

k
i=1
B
i
`e
libero.
3 - Endomorsmi semplici
Da ora in poi considereremo solo SV di dimensione nita. Se V `e uno SV su K, un
endomorsmo f : V V si dice semplice se esiste una base di V formata da autovettori
di f (base di autovettori per f).
Criterio di semplicit`a . Siano V un SV su K con dimV = n e f : V V un
endomorsmo di V con autovalori
1
, . . . ,
k
. Posto d
f
(
i
) = dimV
f
(
i
) (molteplicit`a
geometrica di
i
), allora f `e semplice se e solo
k

i=1
d
f
(
i
) = n.
Osserviamo che questo criterio deriva dal fatto che linsieme libero V ottenuto in precedenza
come unione di basi di autospazi ha esattamente

k
i=1
d
f
(
i
) elementi. Quindi se tale
somma `e uguale a n, V forma una base di autovettori per f.
Esempio. Sia T : M
2
M
2
la trasposizione: T(A) =
t
A. A `e simmetrica se e solo se
T(A) = A mentre A `e antisimmetrica se e solo seT(A) = A. Quindi i sottospazi delle
matrici simmetriche e antisimmetriche sono gli autospazi V
T
(1) e V
T
(1) di T relativi agli
autovalori 1 e 1 rispettivamente.
24
Le matrici simmetriche e antisimmetriche di ordine 2 si possono scrivere rispettivamente
come:
_
a b
b c
_
= a
_
1 0
0 0
_
+b
_
0 1
1 0
_
+c
_
0 0
0 1
_
= aE
1
+bE
2
+cE
3
e
_
0 k
k 0
_
= k
_
0 1
1 0
_
= kE
4
Si verica facilmente che B
1
= {E
1
, E
2
, E
3
} `e una base di V
T
(1), mentre B
2
= {E
4
} `e
una base di V
T
(1).
Quindi d
T
(1) +d
T
(1) = 3 +1 = 4 = dimM
2
: per il Criterio di semplicit`a T `e semplice e
B = {E
1
, E
2
, E
3
, E
4
} `e una base di autovettori per T.
Sezione 2 - Matrici associate a applicazioni lineari
1 - Esempio
Se A M
2
e se B = {E
1
, E
2
, E
3
, E
4
} `e la base di M
2
denita in precedenza, possiamo
scrivere
A =
_
a b
c d
_
= aE
1
+
b +c
2
E
2
+dE
3
+
b c
2
E
4
.
Quindi le coordinate di A rispetto a B sono [A]
B
= (a,
b+c
2
, d,
bc
2
).
Ora T(A) = aT(E
1
) +
b+c
2
T(E
2
) +dT(E
3
) +
bc
2
T(E
4
) da cui
[T(A)]
B
= a[T(E
1
)]
B
+
b +c
2
[T(E
2
)]
B
+d[T(E
3
)]
B
+
b c
2
[T(E
4
)]
B
Osserviamo che T(E
i
) = E
i
per i = 1, 2, 3 e che T(E
4
) = E
4
.
Quindi, se M
B
(T) `e la matrice le cui colonne sono i vettori di coordinate
[T(E
1
)]
B
=
_
_
_
1
0
0
0
_
_
_, [T(E
2
)]
B
=
_
_
_
0
1
0
0
_
_
_, [T(E
3
)]
B
=
_
_
_
0
0
1
0
_
_
_ [T(E
4
)]
B
=
_
_
_
0
0
0
1
_
_
_
abbiamo
25
[T(A)]
B
= M
B
(T)[A]
B
=
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
_
_
a
b+c
2
d
bc
2
_
_
_ =
_
_
_
a
b+c
2
d
cb
2
_
_
_.
2 - Matrice associata
Il procedimento precedente si pu`o generalizzare. Sia f : V W unapplicazione lineare
tra SV su K con dimV = n e dimW = m. Se B = {v
1
, . . . , v
n
} e B

= {w
1
, . . . , w
m
} sono
basi di V e W rispettivamente, indichiamo con M
B
B
(f) la matrice le cui colonne sono i
vettori [f(v
i
)]
B
delle coordinate rispetto a B

delle immagini degli elementi di B.


Per ogni v V si ha:
[f(v)]
B
= M
B
B
(f)[v]
B
.
La matrice M
B
B
(f) si dice matrice associata a f rispetto alle basi B e B

. Nel caso degli


endomorsmi, se B = B

come nellesempio precedente, si pone M


B
(f).
Nellesempio M
B
(T) `e diagonale: questo fatto dipende evidentemente dalla scelta di una
base di autovettori per T.
3 - Endomorsmi semplici e matrici diagonalizzabili
In generale possiamo aermare che un endomorsmo f : V V di uno SV su K`e semplice
se e solo se esiste una base B di V tale che la matrice M
B
(f) associata a f rispetto a B `e
diagonale. Questo sar`a vero se e solo se B `e una base di autovettori per f.
Supponiamo esista una base di V tale che la matrice M = M
B
(f) sia diagonalizzabile. Se
{X
1
, . . . , X
n
} K
n
`e una base di autovettori per M, allora i vettori B = {v
1
, . . . , v
n
} di
V tali che [v
i
]
B
= X
i
formano una base di autovettori per f, in quanto
[f(v
i
)]
B
= M[v
i
]
B
= MX
i
=
i
X
i
=
i
[v
i
]
B
f(v
i
) =
i
v
i
.
Abbiamo quindi provato che un endomorsmo f : V V di uno SV V su K`e semplice se e
solo se, data una base B di V , la matrice M
B
(f) associata a f rispetto a B `e diagonalizzabile.
Le applicazioni associate a matrici studiate precedentemente sono un caso particolare di
quanto esposto in questa parte.
26
Esempio. Sia D : R
2
[x] R
2
[x] lendomorsmo tra i polinomi a coecienti reali di grado
2 denito dalla derivata prima: D(p(x)) = D(a
0
+a
1
x +a
2
x
2
) = a
1
+ 2a
2
x = p

(x). Se
B = {1, x, x
2
} `e la base standard di R
2
[x], allora D(1) = 0, D(x) = 1 e D(x
2
) = 2x.
Quindi
M
B
(D) =
_
_
0 0 0
1 0 0
0 2 0
_
_
.
Questa matrice ha solo lautovalore 0 con molteplicit`a algebrica 3, dunque non `e diagonal-
izzabile (altrimenti sarebbe nulla!). Quindi D non `e semplice.
Sezione 3 - Applicazioni associate a matrici diagonalizzabili
Sia A =
_
2 1
1 2
_
e consideriamo alcuni esempi.
1) B = {e
1
, e
2
} (base canonica): poiche Ae
i
= [A]
i
per i = 1, 2, si ha M
B
(l
A
) = A
2) B = {(1, 1), (1, 1)} : B `e una base di autovettori per A , quindi M
B
(l
A
) =
_
1 0
0 3
_
.
3) B = {(0, 1), (1, 1)}: allora M
B
(l
A
) =
_
1 0
1 3
_
, in quanto
l
A
((0, 1)) = (1, 2) = (0, 1) + (1, 1), l
A
((1, 1)) = 3(1, 1)
da cui
[l
A
((0, 1))]
B
= (1, 1), [l
A
((1, 1))]
B
= (0, 3).
In generale, se consideriamo lapplicazione lineare l
A
: K
n
K
n
associata a A M
n
,
allora:
1) M
C
(l
A
) = A;
2) l
A
`e semplice se e solo se A `e diagonalizzabile;
3) Una base di K
n
`e di autovettori per l
A
se e solo se lo `e per A.
27