ELENA RUBEI

Dispense di
ALGEBRA LINEARE,
c.d.l. in Informatica, Universit`a di Firenze,
http://web.math.unifi.it/users/rubei/didattica.html
Contents
1 Notazioni fondamentali in matematica 3
2 I numeri complessi 4
3 R
n
e le matrici 6
3.1 Definizione di R
n
e di matrici, somma e prodotto per uno scalare . . . . . . . . 6
3.2 Vari tipi di matrici, trasposta, traccia . . . . . . . . . . . . . . . . . . . . . . . . 8
3.3 Prodotto scalare standard e norma . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.4 Prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.5 Matrici invertibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4 Sistemi lineari 15
4.1 Forma matriciale dei sistemi lineari, sistemi lineari omogenei e non . . . . . . . . 15
4.2 Operazioni elementari di riga, matrici a scalini . . . . . . . . . . . . . . . . . . . 15
4.3 Metodo per risolvere un sistema lineare quando la sua matrice completa `e a scalini 17
4.4 Metodo per risolvere un qualsiasi sistema lineare . . . . . . . . . . . . . . . . . . 18
5 Spazi vettoriali 21
5.1 Definizione e prime propriet`a . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.3 Generatori, insiemi di vettori linearmente indipendenti, basi, dimensione . . . . . 24
5.4 Dimensione di M(m×n, R) e di R
k
[x] . . . . . . . . . . . . . . . . . . . . . . 27
5.5 Un esempio fondamentale: lo spazio generato dalle colonne di una matrice (range)
e lo spazio generato dalle righe . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
6 Applicazioni lineari 30
6.1 Applicazioni lineari, nucleo , immagine, relazione fondamentale . . . . . . . . . . 30
6.2 Applicazioni lineari associate a matrici . . . . . . . . . . . . . . . . . . . . . . . 32
7 Determinante, spazi generati da righe e colonne, rango, inversa di una matrice 33
7.1 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
7.2 Spazi generati da righe e colonne e rango . . . . . . . . . . . . . . . . . . . . . 34
7.3 Il teorema di Rouch´e-Capelli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.4 Relazione fra rango e determinante . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.5 Metodo per calcolare l’inversa di una matrice . . . . . . . . . . . . . . . . . . . 36
1
8 Autovettori e autovalori, diagonalizzabilit`a 38
Ordine di lettura consigliato : 3.1, 3.2, 5.1, 5.2, 3.3, 3.4, etc
2
1 Notazioni fondamentali in matematica
“∀” significa “per qualsiasi”
“∃” significa “esiste”
“⇒” significa “implica”
“⇔” significa “implica e `e implicato”, “se e solo se”
“∈” significa “appartiene”, “`e un elemento di”
“⊂” significa “`e incluso”
3
2 I numeri complessi
Come `e ben noto non tutte le equazioni polinomiali hanno soluzioni nei reali. Ad esempio
l’equazione
x
2
= −1
non ha soluzione nei reali, cio`e non esiste un numero reale x il cui quadrato `e −1.
L’insieme dei numeri complessi `e stato introdotto proprio per consentire di trovare soluzione a
tutte le equazione polinomiali, cio`e `e stato introdotto come un insieme “pi`u grande” dell’insieme
dei numeri reali, nel quale ogni equazione polinomiale ha soluzione. In altre parole per ottenere
l’insieme dei numeri complessi si aggiunge all’insieme dei numeri reali l’insieme di tutte le soluzioni
di equazioni polinomiali.
Informalmente si definisce C (insieme dei numeri complessi) nel modo seguente:
si definisce i (unit`a immaginaria) come un numero che gode della seguente propriet`a:
i
2
= −1
e si definisce:
C = {a + bi| a, b ∈ R}
Quindi un numero complesso `e un numero del tipo
z = a + bi
dove a e b sono due numeri reali e i `e l’unit`a immaginaria. Si dice che a `e la parte reale del
numero complesso a + bi e bi `e la parte immaginaria. In genere si scrive:
Re(z) = a
Im(z) = b (coefficiente della parte immaginaria).
La somma e il prodotto in C si definiscono nel modo seguente:
(a + bi) + (c + di) = a + b + (c + d)i
(a + bi) · (c + di) = ac −bd + (ad + bc)i
La definizione di prodotto pu` o sembrare strana e difficile da memorizzare, ma in realt`a si ricava
facilmente “facendo valere” le propriet`a distribuitiva e commutative e ricordando che i
2
= −1:
(a+bi)·(c+di) = a·(c+di)+bi·(c+di) = ac+adi+bci+bdi
2
= ac+adi+bci−bd = ac−bd+(ad+bc)i
Ovviamente si pu` o vedere l’insieme dei numeri reali contenuto nell’insieme dei numeri complessi:
a ∈ R si pu` o vedere come il numero complesso a + 0i.
Si definisce coniugato di un numero complesso z = a+bi il numero complesso a−bi e si denota
z:
z = a −bi
Si definisce modulo di un numero complesso z = a + bi il numero reale

a
2
+ b
2
e si denota
|z|:
|z| =

a
2
+ b
2
Se z ∈ R, allora il modulo coincide con il valore assoluto: infatti in tal caso, se si scrive z = a+bi,
si ha che b = 0 e quindi |z| =

a
2
+ b
2
=

a
2
= |a|.
4
Si dimostrano facilmente le seguenti propriet`a:
1) |z| = |z|
2) |z| = 0 se e solo se z = 0
3) |z · w| = |z||w|
4) z · z = |z|
2
5) z + w = z + w
6) z · w = z · w
Inoltre `e semplice dimostrare che valgono le propriet`a associativa e commutativa sia per la somma
che per il prodotto, esiste un elemento neutro per la somma (0 = 0 + 0i), esiste un elemento
neutro per il prodotto (1 = 1 + 0i), vale la propriet`a distributiva, esiste l’opposto per la somma
(cio`e, dato un qualsiasi numero complesso z = a+bi, esiste un numero complesso che sommato
a z d`a 0: esso sar`a −a − bi); infine per qualsiasi numero complesso z = a + bi diverso da 0,
esiste l’inverso, cio`e un numero complesso che moltiplicato per z d`a 1: esso sar`a
z
|z|
2
.
Pi`u formalmente si pu` o definire
C = {(a, b)| a, b ∈ R}
definendo la somma e il prodotto nel modo seguente:
(a, b) + (c, d) = (a + b, c + d)
(a, b) · (c, d) = (ac −bd, ad + bc)
L’insieme dei numeri complessi pu` o essere identificato con i punti del piano in cui `e stato fissato
un sistema di riferimento cartesiano, precisamente al numero complesso a+bi si fa corrispondere
il punto del piano di coordinate cartesiane (a, b). Il piano identificato con l’insieme dei numeri
complessi si chiama piano di Argand-Gauss.
(a,b)
a
b
Sia θ l’angolo formato dal semiasse positivo delle ascisse e il segmento che congiunge (0, 0) con
(a, b) tale che π < θ ≤ π e sia ρ la lunghezza del segmento che congiunge (0, 0) con (a, b),
allora si ha ovviamente:
z = a + bi = ρ(cos θ + isen θ)
(forma trigonometrica dei numeri complessi).
Supponiamo che z = a + bi = ρ(cos θ + isen θ) w = c + di = λ(cos η + isen η). Si pu` o
dimostrare facilmente che
z · w = (ρλ)[cos(θ + η) + isen(θ + η)]
Quindi in pratica moltiplicare per z = ρ(cos θ +isen θ) un numero complesso w significa molti-
plicare per ρ la lunghezza del segmento che unisce l’origine col punto del piano che rappresenta
w e ruotare tale segmento di θ.
5
3 R
n
e le matrici
3.1 Definizione di R
n
e di matrici, somma e prodotto per uno scalare
Definizione 1 Sia n un numero naturale ≥ 1. Si definisce
R
n
=

¸
¸
¸
x
1
.
.
.
xn
¸

| x
1
, ..., x
n
∈ R

Notazione 2 Sia x =

¸
¸
¸
x
1
.
.
.
xn
¸

∈ R
n
. L’elemento x
i
che compare al’i-esimo posto si definisce
i-esima componente di x.
Definizione 3 Sia n un numero naturale ≥ 1. Si definisce la somma fra due elementi di R
n
nel modo seguente:

¸
¸
¸
¸
¸
x
1
.
.
.
x
n
¸

+

¸
¸
¸
¸
¸
y
1
.
.
.
y
n
¸

=

¸
¸
¸
¸
¸
x
1
+ y
1
.
.
.
x
n
+ y
n
¸

(cio`e se x, y ∈ R
n
, si definisce x + y come l’elemento di R
n
tale che (x + y)
i
= x
i
+ y
i
∀i = 1, ..., n).
Esempio

¸
¸
¸
¸
¸
1
0
−2
−π
7
¸

+

¸
¸
¸
¸
¸
1
3
2
2
1
¸

=

¸
¸
¸
¸
¸
2
3
0
−π + 2
8
¸

Definizione 4 Sia n un numero naturale ≥ 1. Si definisce il prodotto fra un elemento di R
n
e uno scalare (cio`e un numero reale) nel modo seguente:
λ

¸
¸
¸
¸
¸
x
1
.
.
.
x
n
¸

=

¸
¸
¸
¸
¸
λx
1
.
.
.
λx
n
¸

(cio`e se x ∈ R
n
e λ ∈ R, si definisce λx come l’elemento di R
n
tale che (λx)
i
= λx
i
∀i = 1, ..., n).
Esempio
3

¸
¸
¸
¸
¸
1
0
−2
−π
7
¸

=

¸
¸
¸
¸
¸
3
0
−6
−3π
21
¸

6
Osservazione 5 Fissando un sistema cartesiano nel piano, si stabilisce un’ovvia bigezione fra
R
2
e il piano.
Analogamente fissando un sistema cartesiano nello spazio, si stabilisce un’ovvia bigezione fra R
3
e lo spazio.
Osservazione 6 “Regola del parallelogramma” Per ogni elemento

x
y

di R
2
consideriamo il
segmento orientato avente

0
0

come punto iniziale e

x
y

come punto finale. In tal modo
la somma di due elementi di R
2
pu` o essere interpretata geometricamente tramite la cosiddetta
regola del parallelogramma:
y
y’
x’
y+y’
x+x’
x
Definizione 7 Siano m, n due numeri naturali ≥ 1. Una matrice m× n `e una tabella con m
righe e n colonne. Si dice a coefficienti in R se tutti gli elementi sulla tabella sono numeri reali.
Notazione 8 L’elemento che sta sull’i-esima riga e j-esima colonna di una matrice A si denota
con a
i,j
o A
i,j
.
La riga i-esima si denota con A
(i)
.
La colonna j-esima si denota con A
(j)
.
Definizione 9 Siano m e n due numeri naturali ≥ 1. Si definisce
M(m×n, R) = {A| A matrice m×n a coefficienti in R}
Definizione 10 Siano m, n due numero naturale ≥ 1. Si definisce la somma fra due elementi
di M(m× n, R) nel modo seguente: siano A, B ∈ M(m× n, R), si definisce A + B come la
matrice m×n tale che
(A + B)
i,j
= A
i,j
+ B
i,j
∀i = 1, ..., m, j = 1, ..., n.
Esempio

¸
¸
¸
¸
¸
1 0 2
0 0 3
−2 1 −1
−π 4 5
7 0 1
¸

+

¸
¸
¸
¸
¸
1 3 2
3 1 0
2 0 −1
2 4 1
1 −6 −

2
¸

=

¸
¸
¸
¸
¸
2 3 4
3 1 3
0 1 −2
−π + 2 8 6
8 −6 1 −

2
¸

7
Definizione 11 Siano m, n due numero naturale ≥ 1. Si definisce il prodotto fra un elemento
di M(m×n, R) e uno scalare nel modo seguente: sia A ∈ M(m×n, R) e λ ∈ R; si definisce
λA come la matrice m×n tale che
(λA)
i,j
= λA
i,j
∀i = 1, ..., m, j = 1, ..., n.
Esempio
3

¸
¸
¸
¸
¸
1 0 2
0 0 3
−2 1 −1
−π 4 5
7 0 1
¸

=

¸
¸
¸
¸
¸
3 0 6
0 0 9
−6 3 −3
−3π 12 15
21 0 3
¸

Proposizione 12 Valgono le seguenti propriet`a:
1) (A +B) +C = A +(B + C) ∀A, B, C ∈ M(m×n, R) (propriet`a associativa della somma)
2) A + B = B + A ∀A, B ∈ M(m×n, R) (propriet`a commutativa della somma)
3) La matrice m×n con tutti i coefficienti nulli `e un elemento neutro per la somma in M(m×
n, R), cio`e 0
m×n
+ A = A + 0
m×n
= A ∀A ∈ M(m×n, R).
4) Per ogni A ∈ M(m×n, R) l’elemento (−1)A `e opposto di A per la somma in M(m×n, R),
cio`e A + (−1)A = (−1)A + A = 0
m×n
5) (λ + µ)A = λA + µA ∀λ, µ ∈ R ∀A ∈ M(m × n, R) (propriet`a distributiva rispetto alla
somma in R)
6) λ(A + B) = λA + λB ∀λ ∈ R ∀A, B ∈ M(m× n, R) (propriet`a distributiva rispetto alla
somma in M(m×n, R))
7) (λµ)A = λ(µA) ∀λ, µ ∈ R ∀A ∈ M(m×n, R)
8) 1A = A ∀A ∈ M(m×n, R).
Dimostrazione. Per esercizio.
Nel capitolo 3 vedremo che la proposizione sopra si pu` o enunciare brevemente dicendo che
M(m×n, R) `e uno spazio vettoriale su R.
In modo del tutto analogo a come si `e definito R
n
, le matrici a coefficienti in R e le operazioni
di somma e moltiplicazione per scalari, si possono definire C
n
, le matrici a coefficienti in C e le
operazioni di somma e moltiplicazione per scalari. Valgono per essi propriet`a del tutto anaologhe
a quelle enunciate per R.
3.2 Vari tipi di matrici, trasposta, traccia
Definizione 13 Sia n ∈ N n ≥ 1. Sia A ∈ M(n ×n, R). Si definisce diagonale (principale) di
A l’n-upla (a
1,1
, ...., a
n,n
).
Definizione 14 Sia n ∈ N n ≥ 1. Sia A ∈ M(n ×n, R). Si dice che A `e diagonale se
a
i,j
= 0
per i = j (cio`e se tutti gli elementi al di fuori della diagonale principale sono nulli).
8
Esempio

¸
¸
¸
3 0 0 0
0 1 0 0
0 0 −3 0
0 0 0 2
¸

Esempio (fondamentale) Si dice matrice identit`a n × n (e si denota con I
n
) la matrice n ×n
con tutti 1 sulla diagonale e 0 altrove. Per esempio
I
1
= (1)
I
2
=

1 0
0 1

I
3
=

¸
1 0 0
0 1 0
0 0 1
¸

Definizione 15 Sia n ∈ Nn ≥ 1. Sia A ∈ M(n×n, R). Si dice che A `e triangolare superiore
se
a
i,j
= 0
per i > j (cio`e se tutti gli elementi al di sotto della diagonale principale sono nulli).
Esempio

¸
¸
¸
¸
¸
1 1 1 6 1
0 1 2 6 −1
0 0 0 −3 4
0 0 0 −3 2
0 0 0 0 23
¸

Definizione 16 Sia n ∈ N n ≥ 1. Sia A ∈ M(n×n, R). Si dice che A `e triangolare inferiore
se
a
i,j
= 0
per i < j (cio`e se tutti gli elementi al di sopra della diagonale principale sono nulli).
Esempio

¸
¸
¸
¸
¸
3 0 0 0 0
0 1 0 0 0
π 1 2 0 0
0 2 2 2 0
0 4 0 3 0
¸

Definizione 17 Sia n ∈ N n ≥ 1. Sia A ∈ M(n ×n, R). Si dice che A `e simmetrica se
a
i,j
= a
j,i
∀i, j (cio`e se gli elementi simmetrici rispetto alla diagonale principale sono uguali).
Esempio

¸
¸
¸
4 1 0 7
1 0 2 6
0 2 9 −3
7 6 −3 8
¸

9
Definizione 18 Sia n ∈ N n ≥ 1. Sia A ∈ M(n ×n, R). Si dice che A `e antisimmetrica se
a
i,j
= −a
j,i
∀i, j ∈ {1, .., n} (cio`e se gli elementi simmetrici rispetto alla diagonale principale sono opposti).
Esempio

¸
¸
¸
0 1 0 −7
−1 0 2 6
0 −2 0 −3
7 −6 3 0
¸

Osservazione 19 Gli elementi sulla diagonale principale di una matrice antisimmetrica sono
nulli.
(Infatti a
i,i
= −a
i,i
∀i ∈ {1, ..., n}, pertanto 2a
i,i
= 0 e quindi a
i,i
= 0.)
Definizione 20 Siano m e n due numeri naturali ≥ 1. Sia A ∈ M(m × n, R). Si definisce
trasposta di A (che si indica con
t
A) la matrice n ×m cos`ı definita:
(
t
A)
i,j
= A
j,i
∀i ∈ 1, ..., n, j ∈ 1, ..., m.
Proposizione 21 Propriet`a della trasposta
1)
t
(
t
A) = A ∀A ∈ M(m×n, R).
2)
t
(A + B) =
t
A +
t
B ∀A, B ∈ M(m×n, R).
3)
t
(λA) = λ
t
A ∀λ ∈ R ∀A ∈ M(m×n, R).
Dimostrazione.
1) Per ogni i ∈ {1, ..., m} e per ogni j ∈ {1, ..., n} si ha
(
t
(
t
A))
i,j
= (
t
A)
j,i
= A
i,j
2) Per ogni i ∈ {1, ..., n} e per ogni j ∈ {1, ..., m} si ha
(
t
(A + B))
i,j
= (A + B)
j,i
= A
j,i
+ B
j,i
(
t
A +
t
B)
i,j
= (
t
A)
i,j
+ (
t
B)
i,j
= A
j,i
+ B
j,i
3) Per ogni i ∈ {1, ..., n} e per ogni j ∈ {1, ..., m} si ha
(
t
(λA))
i,j
= (λA)
j,i
= λA
j,i
= λ(
t
A)
i,j
Q.e.d.
Osservazione 22 Sia n ∈ N n ≥ 1. Sia A ∈ M(n ×n, R);
1) A `e simmetrica se e solo se A =
t
A
2) A `e antisimmetrica se e solo se A = −
t
A
Definizione 23 Si definisce traccia di una matrice quadrata la somma degli elementi della sua
diagonale.
10
3.3 Prodotto scalare standard e norma
Definizione 24 Sia n un numero naturale ≥ 1. Si definisce prodotto scalare standard fra due
elementi v e w di R
n
il numero reale
¸
i=1,...,n
v
i
w
i
Esso si indica con (v, w)
Esempio Siano
v =

¸
¸
¸
−1
31
2
9
¸

w =

¸
¸
¸
1
0
1
−1
¸

Allora (v, w) = −1 · 1 + 31 · 0 + 2 · 1 + 9 · (−1) = −8.
Proposizione 25 Propriet`a del prodotto scalare standard
1) Simmetria: (v, w) = (w, v) ∀v, w ∈ R
n
2) Bilinearit`a:
linearit`a nel primo argomento:
(λv, w) = λ(v, w) ∀λ ∈ R ∀v, w ∈ R
n
(v + w, u) = (v, u) + (w, u) ∀v, w, u ∈ R
n
linearit`a nel secondo argomento:
(v, λw) = λ(v, w) ∀λ ∈ R ∀v, w ∈ R
n
(v, w + u) = (v, w) + (v, u) ∀v, w, u ∈ R
n
3) Definita positivit`a:
(v, v) ≥ 0 ∀v ∈ R
n
(positivit`a); inoltre (v, v) = 0 se e solo se v = 0.
Dimostrazione.
1) (v, w) =
¸
i=1,...,n
v
i
w
i
=
¸
i=1,...,n
w
i
v
i
= (w, v)
2) λ(v, w) = λ
¸
i=1,...,n
v
i
w
i
(λv, w) =
¸
i=1,...,n
(λv)
i
w
i
=
¸
i=1,...,n
λv
i
w
i
= λ
¸
i=1,...,n
v
i
w
i
(v, λw) =
¸
i=1,...,n
v
i
(λw)
i
=
¸
i=1,...,n
v
i
λw
i
= λ
¸
i=1,...,n
v
i
w
i
(v + w, u) =
¸
i=1,...,n
(v + w)
i
u
i
=
¸
i=1,...,n
(v
i
+ w
i
)u
i
=
¸
i=1,...,n
(v
i
u
i
+ w
i
u
i
) =
¸
i=1,...,n
v
i
u
i
+
¸
i=1,...,n
w
i
u
i
= (v, u) + (w, u)
La linearit`a nel secondo argomento si dimostra in modo analogo oppure la possiamo derivare
dalla linearit`a nel secondo argomento e la simmetria.
3) (v, v) =
¸
i=1,...,n
v
i
v
i
=
¸
i=1,...,n
v
2
i
≥ 0;
inoltre (v, v) = 0 se e solo se
¸
i=1,...,n
(v
i
)
2
= 0 e questo `e vero se e solo se (v
i
)
2
= 0
∀i = 1, ..., n cio`e se e solo se v
i
= 0 ∀i = 1, ..., n.
Q.e.d.
Definizione 26 Sia v ∈ R
n
. Si definisce norma o lunghezza di v il numero reale

(v, v)
cio`e la radice quadrata del prodotto scalare di v con se stesso (che `e positivo per la propriet`a 3
del prodotto scalare, quindi ne posso considerare la radice quadrata), cio`e

¸
i=1,...,n
v
i
v
i
=

¸
i=1,...,n
(v
i
)
2
11
Esempio Sia
v =

¸
¸
¸
−1
3
2
2
¸

Allora |v| =

18.
Proposizione 27 Propriet`a della norma
1) |v| ≥ 0 ∀v ∈ R
n
; inoltre |v| = 0 se e solo se v = 0
2) |λv| = |λ||v| ∀λ, ∀v ∈ R
n
Dimostrazione.
1) Essendo la norma una radice quadrata `e ovviamente maggiore o uguale a 0. Inoltre ovviamente
|0| =

0 · 0 + ..... + 0 · 0 = 0; inoltre se v ∈ R
n
e |v| = 0 allora

¸
i=1,...,n
v
2
i
= 0, quindi
¸
i=1,...,n
v
2
i
= 0, quindi v
2
i
= 0 i = 1, ..., n, quindi v
i
= 0 i = 1, ..., n, cio`e v = 0.
2) |λv| =

(λv, λv) =

¸
i=1,...,n
(λv)
2
i
=

¸
i=1,...,n
(λv
i
)
2
=
=

¸
i=1,...,n
λ
2
v
2
i
=

λ
2
¸
i=1,...,n
v
2
i
= |λ|

¸
i=1,...,n
v
2
i
= |λ||v|
Q.e.d.
3.4 Prodotto di matrici
Definizione 28 Siano m, n, l tre numeri naturali ≥ 1. Sia A ∈ M(m×n, R) e B ∈ M(n×l, R).
Si definisce AB la matrice m×l cos`ı definita:
(AB)
i,j
=
¸
k=1,...,n
A
i,k
B
k,j
∀i = 1, ..., m, ∀j = 1, ...., l, o, equivalentemente,
(AB)
i,j
= (
t
A
(i)
, B
(j)
)
(prodotto scalare standard fra la trasposta della riga i-esima di A e la colonna j-esima di B)
∀i = 1, ..., m, ∀j = 1, ...., l.
Esempio

¸
1 0 3 2
11 2 0 2
−1 1 −1 1
¸

¸
¸
¸
1 0
11 20
0 2
−1 1
¸

=

¸
−1 8
31 42
9 19
¸

Osservazione 29 Il prodotto di matrici non gode della propriet`a commutativa.
Esempio

1 0
−1 2

1 10
3 −1

=

1 10
5 −12

1 10
3 −1

1 0
−1 2

=

−9 20
4 −2

12
Proposizione 30 Propriet`a del prodotto di matrici
1) (AB)C = A(BC) ∀A ∈ M(m×n, R), B ∈ M(n ×p, R), C ∈ M(p ×q, R).
2) A(B + C) = AB + AC ∀A ∈ M(m×n, R), B ∈ M(n ×p, R), C ∈ M(n ×p, R).
3) (A + B)C = AC + BC ∀A ∈ M(m×n, R), B ∈ M(m×n, R), C ∈ M(n ×p, R).
4) λ(AB) = (λA)B = A(λB) ∀A ∈ M(m×n, R), B ∈ M(n ×p, R), λ ∈ R
5) AI
n
= A e I
m
A ∀A ∈ M(m×n, R)
Dimostrazione.
Per dimostrare che due matrici sono uguali, basta ovviamente dimostrare che i coefficienti cor-
rispondenti sono uguali; quindi per provare un’uguaglianza di matrici, basta dimostrare che per
qualsiasi i, j, il coefficiente i, j del primo membro `e uguale al coefficiente i, j del secondo membro.
1) ((AB)C)
i,j
=
¸
k=1,...,p
(AB)
i,k
C
k,j
=
¸
k=1,...,p
[
¸
r=1,...,n
A
i,r
B
r,k
]C
k,j
=
=
¸
k=1,...,p
[
¸
r=1,...,n
A
i,r
B
r,k
C
k,j
] =
¸
k=1,...,p,r=1,...,n
A
i,r
B
r,k
C
k,j
(A(BC))
i,j
=
¸
r=1,...,n
A
i,r
(BC)
r,j
=
¸
r=1,...,n
A
i,r
¸
k=1,...,p
B
r,k
C
k,j
=
=
¸
r=1,...,n
¸
k=1,...,p
A
i,r
B
r,k
C
k,j
=
¸
r=1,...,n,k=1,...,p
A
i,r
B
r,k
C
k,j
2) (A(B + C))
i,j
=
¸
k=1,..,n
A
i,k
(B + C)
k,j
=
=
¸
k=1,..,n
A
i,k
(B
k,j
+ C
k,j
) =
¸
k=1,..,n
(A
i,k
B
k,j
+ A
i,k
C
k,j
) =
=
¸
k=1,..,n
A
i,k
B
k,j
+
¸
k=1,..,n
A
i,k
C
k,j
= (AB)
i,j
+ (AC)
i,j
=
= (AB + AC)
i,j
3) Analoga a 2).
4) (λ(AB))
i,j
= λ(AB)
i,j
= λ
¸
k=1,...,n
A
i,k
B
k,j
=
¸
k=1,...,n
λ(A
i,k
B
k,j
) =
¸
k=1,...,n
(λA
i,k
)B
k,j
=
¸
k=1,...,n
(λA)
i,k
B
k,j
= ((λA)B)
i,j
Analogamente la seconda uguaglianza.
5) (AI
n
)
i,j
=
¸
k=1,...,n
A
i,k
(I
n
)
k,j
=
¸
k=1,...,n
A
i,k
δ
k,j
= A
i,j
1 = A
i,j
dove δ
k,j
`e il cosidetto
simbolo di Kronecker, cos`ı definito
δ
k,j
=

0 se k = j
1 se k = j
Analogamente l’altra uguaglianza.
Q.e.d.
Proposizione 31
t
(AB) =
t
B
t
A ∀A ∈ M(m×k, R), B ∈ M(k ×n, R).
Dimostrazione.
(
t
(AB))
i,j
= (AB)
j,i
=
¸
t=1,...,k
A
j,t
B
t,i
(
t
B
t
A)
i,j
=
¸
t=1,...,k
(
t
B)
i,t
(
t
A)
t,j
=
¸
t=1,...,k
B
t,i
A
j,t
=
¸
t=1,...,k
A
j,t
B
t,i
Q.e.d.
3.5 Matrici invertibili
Definizione 32 Sia n ∈ N, n ≥ 1. Sia A ∈ M(n ×n, R). Si dice che A `e invertibile se esiste
B ∈ M(n ×n, R) tale che
AB = BA = I
n
13
Osservazione 33 (- Definizione.) Sia n ∈ N, n ≥ 1. Sia A ∈ M(n × n, R). Siano B, C ∈
M(n ×n, R) tali che AB = BA = I
n
= AC = CA. Allora B = C.
In altre parole se A `e invertibile esiste una e una sola matrice B tale che AB = BA = I
n
. Tale
matrice si dice l’inversa di A e si denota con A
−1
.
Dimostrazione.
Per ipotesi so che
AB = I
n
Moltiplico a sinistra entrambi i membri dell’uguaglianza per C, ottenendo cos`ı
C(AB) = CI
n
da cui
(CA)B = C
Dato che per ipotesi CA = I
n
, ottengo
I
n
B = C
e quindi
B = C
Q.e.d.
Notazione 34 GL(n, R) = {A ∈ M(n × n, R)| A invertibile}
Esempio. GL(1, R) = {(a)| a ∈ R−{0}}
Osservazione 35 Sia n ∈ N, n ≥ 1.
i) Siano A, B ∈ GL(n, R). Allora AB ∈ GL(n, R) e (AB)
−1
= B
−1
A
−1
ii) Se A ∈ GL(n, R) allora A
−1
∈ GL(n, R) e (A
−1
)
−1
= A
Esercizio.

a b
c d

`e invertibile se e solo se ad−bc = 0 e in tal caso l’inversa `e
1
ad−bc

d −b
−c a

.
NOTA. Tutto quello che `e stato detto nei paragrafi 3.1, 3.2, 3.4 e 3.5 pu` o essere enunciato
sostituendo C a R.
14
4 Sistemi lineari
4.1 Forma matriciale dei sistemi lineari, sistemi lineari omogenei e non
Definizione 36 Un sistema lineare `e un sistema di equazioni lineari cio`e un sistema di equazioni
i cui membri sono polinomi di grado ≤ 1 nelle incognite.
Osservazione 37 Un sistema lineare di m equazioni e n incognite x
1
, ..., x
n
pu` o essere scritto
nella forma
Ax = b
per una certa matrice A ∈ M(m×n, R) e un certo b ∈ R
m
, dove x =

¸
¸
¸
¸
x1
.
.
.
xn
¸

.
(Basta prendere, per ogni i, come coefficienti della i-esima riga di A i coefficienti di x
1
, ..., x
n
nella i-esima equazione del sistema e come b
i
il termine noto della i-esima equazione del sistema).
Definizione 38 La matrice A si dice matrice incompleta del sistema. La matrice m×(n + 1)
ottenuta affiancando (a destra) ad A l’m-upla b si chiama matrice completa del sistema e si
indica con A|b
Esempio Consideriamo il seguente sistema lineare nelle incognite x
1
, x
2
, x
3
, x
4
, x
5
.

2x
1
+ x
3
−6x
4
= 0
x
1
−x
4
−6x
5
= 5
x
2
−x
3
−x
4
= 3
La matrice incompleta A e b saranno
A =

¸
2 0 1 −6 0
1 0 0 −1 −6
0 1 −1 −1 0
¸

b =

¸
0
5
3
¸

La matrice completa A|b sar`a
A|b =

¸
2 0 1 −6 0 0
1 0 0 −1 −6 5
0 1 −1 −1 0 3
¸

Definizione 39 Un sistema lineare Ax = b si dice omogeneo se b = 0.
Vogliamo adesso illustrare un metodo sistematico per risolvere i sistemi lineari. Per fare ci` o
occorre premettere le nozioni di matrici a scalini e operazioni elementari di riga.
4.2 Operazioni elementari di riga, matrici a scalini
Definizione 40 Si definiscono operazioni elementari sulle righe di una matrice le seguenti
operazioni:
operazioni di tipo I: scambiare due righe
operazioni di tipo II: moltiplicare una riga per uno scalare non nullo
operazioni di tipo III: sommare ad una riga un multiplo di un’altra riga.
15
Definizione 41 Una matrice si dice a scalini (per righe) se soddisfa la seguente propriet`a:
se in una riga i primi k elementi sono nulli allora la riga successiva (se esiste) o `e tutta nulla o
almeno i primi k + 1 elementi sono nulli.
Definizione 42 Il primo elemento non nullo di ogni riga non nulla di una matrice a scalini si
dice pivot.
Esempi di matrici a scalini

¸
¸
¸
0 1 0 6 −1
0 0 2 6 −1
0 0 0 −3 4
0 0 0 0 12
¸

¸
¸
¸
¸
¸
3 1 0 9 1
0 1 0 6 −1
0 0 0 −3 4
0 0 0 0 2
0 0 0 0 0
¸

Esempi di matrici non a scalini

¸
¸
¸
0 1 0 6 −1
0 1 2 6 −1
0 2 0 −3 4
0 0 0 0 12
¸

¸
¸
¸
¸
¸
1 1 1 6 1
0 1 2 6 −1
0 2 0 −3 4
0 2 0 0 12
0 0 0 0 0
¸

Proposizione 43 Data una qualsiasi matrice, si pu` o ottenere da essa, con operazioni elementari
di riga di tipo I e III, una matrice a scalini.
Dimostrazione. Per induzione sul numero di righe della matrice.
Sia j l’indice della prima colonna non nulla. Con un scambio opportuno di righe possiamo fare
in modo che il primo elemento della j-esima colonna sia diverso da zero. Con operazioni di tipo
III possiamo fare in modo che tutti gli elementi dal secondo in poi della j-esima colonna siano
nulli. Ripetiamo il procedimento sulla matrice ottenuta togliendo la prima riga.
Q.e.d.
Esempio

¸
¸
¸
0 1 0 6 −1
0 1 2 6 −1
0 2 0 −3 4
0 0 0 10 12
¸

¸
¸
¸
0 1 0 6 −1
0 0 2 0 0
0 0 0 −15 6
0 0 0 10 12
¸

II −I
III −2I
16

¸
¸
¸
0 1 0 6 −1
0 0 2 0 0
0 0 0 −15 6
0 0 0 0 16
¸

IV +
2
3
III
4.3 Metodo per risolvere un sistema lineare quando la sua matrice com-
pleta `e a scalini
Si scrive la matrice completa del sistema e si scrivono le incognite sopra essa. Supponiamo
che non ci siano pivots nell’ultima colonna della matrice completa. Chiamiamo “incognite
corrispondenti ad un pivot” quelle che “stanno sopra un pivot” e “incognite non corrispondenti
ad un pivot” le altre.
Sfruttando le equazioni, partendo dall’ultima, si scrivono le incognite corrispondenti ai pivots in
funzione di quelle non corrispondenti ai pivots.
Esempio. Consideriamo il seguente sistema lineare

x + 2y + z −2w −u = 0
z −w −3u = 1
w + u = 2
Scriviamo la matrice associata e scriviamo le incognite sopra la matrice
x y z w u

¸
1 2 1 −2 −1 0
0 0 1 −1 −3 1
0 0 0 1 1 2
¸

Le variabili che corrispondono ai pivots sono x, z, w, quelle che non corrispondono ai pivots sono
y, u.
Voglio scrivere le variabili che corrispondono ai pivots in funzione delle variabili che non cor-
rispondono ai pivots.
Dall’ultima equazione w + u = 2 ricavo w in funzione di u (e quindi di y, u):
w = 2 −u
Dalla penultima equazione z −w −3u = 1 ricavo
z = w + 3u + 1
e, sostituendo l’espressione gi`a trovata di w in funzione di y, u, ricavo anche z in funzione di
y, u:
z = 2 −u + 3u + 1 = 3 + 2u
Dalla prima equazione ricavo
x = −2y −z + 2w + u
da cui sostituendo l’espressione gi`a trovate di w e z in funzione di y, u, ricavo anche x in funzione
di y, u:
x = −2y −3 −2u + 4 −2u + u = −2y −3u + 1
17
Quindi l’insieme delle soluzioni del sistema lineare `e

¸
¸
¸
¸
¸
−2y −3u + 1
y
3 + 2u
−u + 2
u
¸

| y, u ∈ R

che si pu` o anche scrivere

y

¸
¸
¸
¸
¸
−2
1
0
0
0
¸

+ u

¸
¸
¸
¸
¸
−3
0
2
−1
1
¸

+

¸
¸
¸
¸
¸
1
0
3
2
0
¸

| y, u ∈ R

4.4 Metodo per risolvere un qualsiasi sistema lineare
Osservazione 44 Facendo operazioni elementari di riga sulla matrice completa di un sistema
lineare non si altera l’insieme delle soluzioni.
Dimostrazione. Fare un’operazione elementare di riga di tipo I (scambio di due righe) sulla
matrice associata al sistema significa scambiare due equazioni del sistema e questo ovviamente
non altera l’insieme delle soluzioni.
Fare un’operazione elementare di riga di tipo III (moltiplicare una riga per uno scalre non nullo)
sulla matrice associata al sistema significa moltiplicare entrambi i membri di un’equazione del
sistema per uno scalare non nullo e questo ovviamente non altera l’insieme delle soluzioni.
Infine fare un’operazione elementare di riga di tipo II (sommare ad una riga un multiplo di
un’altra riga) sulla matrice associata al sistema significa sommare ad un’equazione un multiplo
di un’altra equazione (membro a membro) e questo non altera l’insieme delle soluzioni.
Q.e.d.
Vediamo adesso come si risolve un sistema lineare qualsiasi.
Anzi tutto si scrive la matrice completa associata al sistema. Facendo operazioni elementari di
riga, si riduce la matrice completa del sistema in forma a scalini. Si risolve il sistema lineare
associato alla matrice cos`ı ottenuta; l’insieme delle soluzioni `e uguale all’ insieme delle soluzioni
del sistema iniziale per l’Osservazione 44.
Esempio Consideriamo il sistema lineare

y + z −w −u = 1
x + y + z −3w −u = 0
2x + 2y + 3z −5w −u = −1
Scriviamo la matrice associata al sistema

¸
0 1 1 −1 −1 1
1 1 1 −3 −1 0
2 2 3 −5 −1 −1
¸

Riduciamo a scalini, facendo operazioni elementari di riga.

¸
1 1 1 −3 −1 0
0 1 1 −1 −1 1
2 2 3 −5 −1 −1
¸

II
I
18

¸
1 1 1 −3 −1 0
0 1 1 −1 −1 1
0 0 1 1 1 −1
¸

III −2I
Scriviamo le incognite sopra la matrice a scalini cos`ı ottenuta:
x y z w u

¸
1 1 1 −3 −1 0
0 1 1 −1 −1 1
0 0 1 1 1 −1
¸

Ricaviamo adesso le variabili che corrispondono ai pivots, cio`e x, y, z in funzione di quelle che
non corrispondono ai pivots, cio`e w, u. Dall’ultima equazione ricaviamo
z = −w −u −1
Dalla seconda equazione ricaviamo
y = −z + w + u + 1
da cui sostituendo
y = w + u + 1 + w + u + 1 = 2w + 2u + 2
Dalla prima equazione ricaviamo
x = −y −z + 3w + u
da cui sostituendo
x = −2w −2u −2 + w + u + 1 + 3w + u = −1 + 2w
Quindi l’insieme del soluzioni `e

¸
¸
¸
¸
¸
−1 + 2w
2u + 2w + 2
−u −w −1
w
u
¸

| w, u ∈ R

Osservazione 45 Un sistema lineare omogeneo ha sempre una soluzione: quella nulla.
(Infatti un sistema linare omogeneo si pu` o scrivere nella forma Ax = 0 e 0 `e una soluzione infatti
A0 = 0.)
Osservazione 46 Un sistema lineare omogeneo con pi`u incognite che equazioni ha una soluzione
non nulla.
Dimostrazione.
Quando riduco la matrice completa a scalini, il numero dei pivots `e ovviamente minore o uguale
al numero delle righe che `e uguale al numero delle equazioni del sistema, il quale per ipotesi
`e minore del numero dell incognite. Quindi il numero dei pivots `e minore del numero delle
incognite. Pertanto ci sono necessariamente delle variabili non corrispondenti a pivots, quindi
assegnando dei valori non nulli ad esse ottengo una soluzione non nulla.
Q.e.d.
19
Osservazione 47 Un sistema lineare ha soluzione se e solo se, riducendo a scalini con operazioni
elementari di riga la matrice completa, non ci sono pivots nell’ultima colonna.
Dimostrazione. Basta dimostrare che un sistema lineare la cui matrice completa `e a scalini ha
soluzioni se e solo se non ci sono pivots nell’ultima colonna.
Ma questo `e ovvio in quanto se c’`e un pivot nell’ultima colonna (chiamiamolo p) vuol dire che
nel sistema lineare c’`e l’equazione 0x
1
+ .... + 0x
n
= p, che ovviamente non ha soluzioni in
quanto p = 0. Viceversa se non ci sono pivots nell’ultima colonna allora trovo le soluzioni con il
metodo illustrato sopra.
Q.e.d.
Teorema 48 Teorema di struttura delle soluzioni di un sistema lineare
Sia A ∈ M(m×n, R) e sia b ∈ R
m
.
Supponiamo che il sistema Ax = b abbia una soluzione.
Sia x una soluzione del sistema lineare Ax = b.
Allora {x ∈ R
n
| Ax = b} = {x + y| y ∈ R
n
e Ay = 0}
Dimostrazione.
Sia S
1
:= {x ∈ R
n
| Ax = b} e S
2
:= {x + y| y ∈ R
n
e Ay = 0}.
Dimostriamo anzitutto che S
2
⊂ S
1
.
Sia y ∈ R
n
tale che Ay = 0. Voglio dimostrare che x + y ∈ S
1
cio`e che A(x + y) = b. Per la
propriet`a distributiva del prodotto di matrici A(x + y) = Ax + Ay = b + 0 = b.
Dimostriamo adesso che S
1
⊂ S
2
.
Sia x ∈ S
1
. Occorre dimostrare che esiste y ∈ R
n
tale che Ay = 0 e x = x + y. Definisco
y = x − x. Ovviamente Ay = 0, infatti Ay = A(x −x) = Ax −Ax = b −b = 0.
Q.e.d.
NOTA. Tutto quello che `e stato detto in questo capitolo pu` o essere enunciato sostituendo C a
R.
20
5 Spazi vettoriali
5.1 Definizione e prime propriet`a
Definizione 49 Sia V un insieme dotato di due operazioni, una (detta somma) + : V ×V → V ,
l’altra (detta prodotto per scalari) · : R×V → V .
Si dice che V `e uno spazio vettoriale su R se valgono le seguenti propriet`a:
1) (v + w) + u = v + (w + u) ∀v, w, u ∈ V (propriet`a associativa della somma)
2) v + w = w + v ∀v, w ∈ V (propriet`a commutativa della somma)
3) Esiste un elemento neutro per la somma, cio`e esiste un elemento z di V tale che z+v = v+z =
v ∀v ∈ V . (Si pu` o dimostrare che tale elemento `e necessariamente unico, vedere l’osservazione
immediatamente seguente questa definizione; lo denoteremo quindi 0
V
e lo chiameremo zero di
V .)
4) Per ogni v ∈ V esiste un opposto, cio`e un elemento v

∈ V tale che v + v

= v

+ v = 0
V
5) (λ + µ)v = λv + µv ∀λ, µ ∈ R ∀v ∈ V (propriet`a distributiva rispetto alla somma in R)
6) λ(v + w) = λv + λw ∀λ ∈ R ∀v, w ∈ V (propriet`a distributiva rispetto alla somma in V )
7) (λµ)v = λ(µv) ∀λ, µ ∈ R ∀v ∈ V
8) 1v = v ∀v ∈ V
Osservazione 50 In ogni spazio vettoriale V esiste un solo elemento neutro per la somma.
Dimostrazione.
Siano z e z

due elementi neutri per la somma di V
Si ha che z + z

= z in quanto z

`e elemento neutro per la somma.
Inoltre si ha che z + z

= z

in quanto z `e elemento neutro per la somma.
Quindi z = z

, in quanto sono entrambi uguali a z + z

.
Q.e.d.
Osservazione 51 In ogni spazio vettoriale V si ha che
0
R
v = 0
V
∀v ∈ V
Dimostrazione.
Si ha:
0
R
v = (0
R
+ 0
R
)v = 0
R
v + 0
R
v
(la prima uguaglianza segue dal fatto che 0
R
+ 0
R
= 0
R
, la seconda segue dalla propriet`a 5
degli spazi vettoriali, cio`e la propriet`a distributiva rispetto alla somma in R).
Sia w un opposto di 0
R
v (esite per la propriet`a 4 degli spazi vettoriali). Sommando w al primo
membro e all’ultimo membro della catena di uguaglianze sopra, si ottiene
0
R
v + w = (0
R
v + 0
R
v) + w
e quindi, applicando la definizione di opposto al primo membro e la propriet`a 1 di spazio vettoriale
cio`e la propriet`a associativa della somma al secondo membro, ottengo
0
V
= 0
R
v + (0
R
v + w)
e quindi, per definizione di opposto,
0
V
= 0
R
v + 0
V
21
da cui
0
V
= 0
R
v
Q.e.d.
Osservazione 52 Per qualsiasi v ∈ V l’elemento (−1)v `e un opposto di v.
Dimostrazione.
(−1)v + v = (−1)v + 1v = (−1 + 1)v = 0
R
v = 0
V
(la prima uguaglianza segue dalla propriet`a 8 degli spazi vettoriali, la seconda dalla propriet`a
distributiva rispetto alla somma in R, l’ultima dall’osservazione precedente).
Q.e.d.
Osservazione 53 Per qualsiasi v ∈ V , esiste un solo opposto di v (e quindi per l’osservazione
precedente `e (−1)v).
Dimostrazione.
Siano v

e v
′′
due opposti di v, quindi v

+ v = 0
V
e v
′′
+ v = 0
V
;
in particolare
v

+ v = v
′′
+ v
Sommando ad entrambi i membri un opposto, w, di v , si ottiene
(v

+ v) + w = (v
′′
+ v) + w
e quindi
v

+ (v + w) = v
′′
+ (v + w)
Pertanto
v

+ 0
V
= v
′′
+ 0
V
da cui v

= v
′′
. Q.e.d.
Esempio basilare. Sia n ∈ N, n, ≥ 1; ; l’insieme R
n
con le operazioni di somma e di prodotto
per uno scalare definite nel capitolo 1 `e uno spazio vettoriale.
Esempio basilare. Siano n, m ∈ N, n, m ≥ 1; l’insieme M(m×n, R) con le operazioni di somma
e di prodotto per uno scalare definite nel capitolo 1 `e uno spazio vettoriale.
Definizione 54 Gli elementi di uno spazio vettoriale si dicono vettori.
Definizione 55 Sia V uno spazio vettoriale. Siano v
1
, ..., v
k
∈ V e λ
1
, ..., λ
k
∈ R. Si definisce
combinazione lineare di v
1
, ..., v
k
con coefficienti λ
1
, ..., λ
k
il vettore
λ
1
v
1
+ ... + λ
k
v
k
22
5.2 Sottospazi vettoriali
Definizione 56 Sia V uno spazio vettoriale su R. Un sottospazio di V `e un sottoinsieme non
vuoto S di V tale che
• v + w ∈ S ∀v, w ∈ S (chiusura per la somma)
• λv ∈ S ∀λ ∈ R, ∀v ∈ S (chiusura per la moltiplicazione per scalari).
Esempio. L’insieme delle matrici simmetriche n×n `e un sottospazio vettoriale dell’insieme delle
matrici n × n, infatti la somma di due matrici simmetriche `e simmetrica e il prodotto fra uno
scalare e una matrice simmetrica `e ancora una matrice simmetrica.
Osservazione 57 Un sottospazio vettoriale S di uno spazio vettoriale V contiene 0
V
.
Dimostrazione.
Essendo un sottospazio, S `e non vuoto, quindi contiene un elemento v. Allora, per la propriet`a
di chiusura per la moltiplicazione per scalari, si deve avere che O
R
v ∈ S. Ma, per l’osservazione
51, si ha che O
R
v = 0
V
, quindi 0
V
∈ S.
Q.e.d.
Osservazione 58 Un sottospazio vettoriale S di uno spazio vettoriale V con le operazioni di
somma e di prodotto per scalari ereditate da V `e lui stesso uno spazio vettoriale.
Proposizione 59 Sia V uno spazio vettoriale; sia k un qualsiasi numero naturale positivo. Siano
v
1
, ..., v
k
∈ V . L’insieme delle combinazioni lineari di v
1
, ..., v
k
, cio`e

1
v
1
+ .... + λ
k
v
k
| λ
1
, ..., λ
k
∈ R}
`e un sottospazio vettoriale di V . (In genere `e denotato v
1
, ..., v
k
e si legge “span di v
1
, ...., v
k
”.)
Dimostrazione.
Sia S = {λ
1
v
1
+ .... + λ
k
v
k
| λ
1
, ..., λ
k
∈ R}.
Ovviamente S `e non vuoto.
• S `e chiuso per la somma, infatti sommando due elementi di S, λ
1
v
1
+ .... + λ
k
v
k
e µ
1
v
1
+
.... + µ
k
v
k
, si ottiene

1
v
1
+ .... + λ
k
v
k
) + (µ
1
v
1
+ .... + µ
k
v
k
)
che, per le propriet`a 1),2),5) degli spazi vettoriali, `e uguale a

1
+ µ
1
)v
1
+ .... + (λ
k
+ µ
k
)v
k
che `e un elemento di S.
• S `e chiuso per la moltiplicazione per scalari, infatti, moltiplicando un elemento di S, λ
1
v
1
+
.... + λ
k
v
k
, per uno scalare γ, si ottiene
γ(λ
1
v
1
+ .... + λ
k
v
k
)
che, per le propriet`a 6) e 7) degli spazi vettoriali, `e uguale a
(γλ
1
)v
1
+ .... + (γλ
k
)v
k
che `e un elemento di S.
Q.e.d.
23
Proposizione 60 Sia V uno spazio vettoriale; sia k un qualsiasi numero naturale positivo. Siano
v
1
, ..., v
k
∈ V .
1) v
1
, ..., v
i−1
, v
i
, v
i+1
, ..., v
j−1
, v
j
, v
j+1
, ...., v
k
= v
1
, ..., v
i−1
, v
j
, v
i+1
, ..., v
j−1
, v
i
, v
j+1
, ...., v
k

(cio`e il sottospazio non cambia cambiando l’ordine dei generatori)
2) v
1
, ..., v
i−1
, v
i
, v
i+1
, ..., v
k
= v
1
, ..., v
i−1
, λv
i
, v
i+1
, ...v
k
∀λ ∈ R−{0} (cio`e il sottospazio
non cambia se moltiplico un generatore per uno scalare non nullo)
3) v
1
, ..., v
i−1
, v
i
, v
i+1
, ..., v
j−1
, v
j
, v
j+1
, ...., v
k
= v
1
, ..., v
i−1
, v
i
+λv
j
, v
i+1
, ..., v
j−1
, v
j
, v
j+1
, ...., v
k

∀λ ∈ R (cio`e il sottospazio non cambia se ad un generatore sommo un multiplo di un altro gen-
eratore).
Dimostrazione. Per esercizio.
Proposizione 61 L’insieme delle soluzioni di un sistema lineare in n incognite `e un sottospazio
vettoriale di R
n
se e solo se il sistema lineare `e omogeneo.
Dimostrazione.
Scriviamo il nostro sistema lineare nella forma matriciale Ax = b.
Vogliamo dimostrare che S := {x ∈ R
n
| Ax = b} `e un sottospazio vettoriale se e solo se b = 0.
Se S `e un sottospazio vettoriale allora deve contenere 0 quindi A0 = b quindi b = 0.
Viceversa se b = 0, S = {x ∈ R
n
| Ax = 0} ed `e un sottospazio vettoriale infatti:
• `e non vuoto (infatti contiene 0, perch`e A0 = 0)
• `e chiuso per la somma, infatti se x e x

∈ S, quindi Ax = 0 e Ax

= 0, allora anche x+x

∈ S
perch`e A(x + x

) = Ax + Ax

= 0 + 0 = 0.
• `e chiuso per la moltiplicazione per scalari infatti se x ∈ S, quindi Ax = 0 e λ ∈ R allora anche
λx ∈ S perch`e A(λx) = λAx = λ0 = 0.
Q.e.d.
5.3 Generatori, insiemi di vettori linearmente indipendenti, basi, dimen-
sione
Definizione 62 Sia V uno spazio vettoriale. Si dice che un insieme di vettori v
1
, ..., v
k
`e un
insieme di vettori linearmente dipendenti se esistono λ
1
, ..., λ
k
∈ R non tutti nulli tali che
λ
1
v
1
+ ... + λ
k
v
k
= 0
Definizione 63 Sia V uno spazio vettoriale. Si dice che un insieme di vettori v
1
, ..., v
k
`e un
insieme di vettori linearmente indipendenti se l’unica loro combinazione lineare uguale a 0 `e
quella con tutti i coefficienti uguali a 0.
Definizione 64 Sia V uno spazio vettoriale. Un insieme di vettori di V si dice un insieme di
generatori per V se ogni elemento di V `e una loro combinazione lineare.
Osservazione 65 Un sottoinsieme di un insieme di vettori linearmente indipendenti `e ancora un
insieme di vettori linearmente indipendenti
Dimostrazione. L’affermazione `e ovvia, in quanto se avessi una combinazione lineare con coeffi-
cienti non tutti nulli del sottoinsieme di vettori, potrei facilmente trovare una combinazione con
coefficienti non tutti nulli dell’insieme di vettori (basta prendere gli stessi coefficienti per i vettori
del sottoinsieme e coefficienti nulli per gli altri vettori).
Q.e.d.
24
Osservazione 66 Se {v
1
, ..., v
k
} `e un insieme di vettori dipendenti di V allora esiste i ∈
{1, ..., k} tale che v
i
si pu` o scrivere come combinazione lineare di v
1
, ..., v
i
, v
i+1
, ..., v
k
.
Dimostrazione.
Dato che v
1
, ..., v
k
sono un insieme di vettori linearmenti dipendenti, esistono λ
1
, ..., λ
k
∈ R
non tutti nulli tali che
λ
1
v
1
+ .....λ
k
v
k
= 0
Supponiamo λ
i
= 0. Allora
v
i
= −
λ
1
λ
i
v
1
−........ −
λ
i−1
λ
1
v
i−1

λ
i+1
λ
1
v
i+1
− ........ −
λ
n
λ
i
v
n
Q.e.d.
Definizione 67 Sia V uno spazio vettoriale. Un insieme di vettori di V si dice una base di V
se `e un insieme di vettori linearmente indipendenti che genera V .
Teorema 68 Sia V uno spazio vettoriale.
Sia {v
1
, ..., v
k
} un insieme di vettori indipendenti di V .
Sia {w
1
, ..., w
s
} un insieme di generatori di V .
Allora k ≤ s.
Dimostrazione. Dato che {w
1
, ..., w
s
} `e un insieme di generatori di V , esistono λ
i,j
∈ R tali che
v
i
=
¸
j=1...s
λ
i,j
w
j
per i = 1, ..., k.
Consideriamo la combinazione lineare
¸
i=1,...,k
x
i
v
i
=
¸
i=1,...,k
x
i
¸
j=1,...,s
λ
i,j
w
j
=
¸
i=1,...,k
¸
j=1,...,s
x
i
λ
i,j
w
j
=
=
¸
j=1,...,s
¸
i=1,...,k
x
i
λ
i,j
w
j
=
¸
j=1,...,s
(
¸
i=1,...,k
x
i
λ
i,j
)w
j
Se per assurdo k > s allora il sistema lineare omogeneo nelle incognite x
i
dato dalle j equazioni:
¸
i=1,...,k
x
i
λ
i,j
= 0
per j = 1, ..., s ha una soluzione non nulla (x
1
, ..., x
k
) per l’osservazione 46.
Quindi si ottiene
¸
i=1,...k
x
i
v
i
= 0
contraddicendo l’ipotesi per cui {v
1
, ..., v
k
} `e un insieme di vettori indipendenti di V . Quindi
k ≤ s.
Q.e.d.
Corollario 69 Sia V uno spazio vettoriale.
Siano {v
1
, ..., v
k
} e {w
1
, ..., w
s
} due basi di V .
Allora k = s.
25
Dato che due basi di uno stesso spazio vettoriale hanno la stessa cardinalit`a, per il corollario
appena enunciato, possiamo definire:
Definizione 70 Si dice dimensione di uo spazio vettoriale la cardinalit`a di una sua base.
Teorema 71 Completamento di vettori indipendenti ad una base. Dato un insieme di
vettori linearmente indipendenti {v
1
, ..., v
k
} in uno spazio vettoriale V di dimensione n, allora
k ≤ n, inoltre
se k = n allora {v
1
, ..., v
k
} `e una base di V ,
se invece k < n `e sempre possibile trovare {v
k+1
, ..., v
n
} tali che {v
1
, ..., v
n
} formano una base
di V .
Dimostrazione.
Il fatto che k ≤ n segue dal Teorema 68.
Per dimostrare la restante parte della tesi, premetto la seguente osservazione
Osservazione. Se {v
1
, ..., v
k
} non `e una base di V allora ovviamente v
1
, ..., v
k
= V e scegliendo
v
k+1
non contenuto in v
1
, ..., v
k
si ottiene che {v
1
, ..., v
k
, v
k+1
} sono ancora indipendenti,
infatti:
supponiamo
¸
i=1,...,k+1
λ
i
v
i
= 0 per certi λ
i
∈ R; vogliamo dimostrare λ
i
= 0 per i =
1, ..., k +1; si ha λ
k+1
= 0 (altrimenti v
k+1
sarebbe combinazione lineare dei precedenti) quindi
rimane
¸
i=1,...,k
λ
i
v
i
= 0 e siccome {v
1
, ..., v
k
} sono indipendenti segue λ
i
= 0 per i = 1, ..., k.
Quindi per l’osservazione, se k = n, {v
1
, ..., v
k
} `e una base di V (se non lo fosse otterrei un
insieme di k + 1 vettori indipendenti quindi, per il Teorema 68, si avrebbe k + 1 ≤ n, che `e
assurdo).
Se k < n allora {v
1
, ..., v
k
} non pu` o essere una base e quindi per l’Osservazione posso trovare
un vettore v
k+1
tale che {v
1
, ..., v
k
, v
k+1
} sono ancora indipendenti.
Continuando in questo modo aggiungiamo n −k vettori fino a che non troviamo una base.
Q.e.d.
Teorema 72 Estrazione di una base da vettori generatori Se v
1
, ..., v
k
generano uno spazio
vettoriale V , si pu` o trovare un sottoinsieme di essi che forma una base di V .
Dimostrazione.
Se {v
1
, ..., v
k
} non `e gi`a una base, cio`e non sono indipendenti, per l’Osservazione 66, esiste
un vettore dell’insieme {v
1
, ..., v
k
} che `e combinazione lineare dei rimanenti. Allora i rimanenti
formano ancora un insieme di generatori per V
(infatti supponiamo ad esempio che sia v
k
combinazione lineare di v
1
, .., v
k−1
:
v
k
=
¸
i=1,...,k−1
c
i
v
i
per certi c
i
; sia v ∈ V ; dato che v
1
, ..., v
k
generano V , esistono λ
1
, ..., λ
k
tali che
v =
¸
i=1,...,k
λ
i
v
i
sostituendo a v
k
l’espressione
¸
i=1,...,k−1
c
i
v
i
, si ottiene
v =
¸
i=1,...,k−1
λ
i
v
i
+ λ
k
¸
i=1,...,k−1
c
i
v
i
26
=
¸
i=1,...,k−1

i
+ λ
k
c
i
)v
i
e quindi v `e combinazione lineare di v
1
, .., v
k−1
; quindi v
1
, .., v
k−1
sono generatori per V ).
Ripetendo il procedimento sui rimanenti, alla fine si arriva ad estrarre una base da {v
1
, ..., v
k
}.
Q.e.d.
Teorema 73 Sia S un sottospazio vettoriale di dimensione k di uno spazio vettoriale V di
dimensione n, allora k ≤ n.
Se k = n allora S = V .
Dimostrazione.
Sia {v
1
, ..., v
k
} una base di S. Essendo linearmente indipendenti in S sono anche linearmente
indipendenti in V , quindi, per il Teorema 71, k ≤ n.
Sempre per il Teorema 71, se k = n allora {v
1
, ..., v
k
} `e una base di V ; quindi, se v ∈ V , v pu` o
essere scritto come combinazione lineare di v
1
, ..., v
k
e quindi, dato che v
1
, ..., v
k
sono elementi
di S e una combinazione lineare di elementi di S `e ancora un elemento di S (essendo S un
sottospazio vettoriale), si ha che v appartiene a S.
Q.e.d.
Proposizione 74 Sia V uno spazio vettoriale di dimensione n. Se v
1
, .., v
n
sono vettori gener-
atori di V , allora formano una base.
Dimostrazione
Si pu` o estrarre da {v
1
, .., v
n
} una base. Essa deve essere costituita da n elementi, (dato V ha
dimensione n), quindi coincide con {v
1
, .., v
n
}.
Q.e.d.
5.4 Dimensione di M(m×n, R) e di R
k
[x]
Osservazione 75 La dimensione di M(m×n, R) `e mn.
Dimostrazione. Sia E
i,j
la matrice m×n con il coefficiente i, j uguale a 1 e tutti gli altri nulli.
L’insieme {E
i,j
}
i=1,...,m, j=1,...,n
`e una base di M(m×n, R), infatti se A ∈ M(m×n, R) si ha
A =
¸
i=1,...,m, j=1,...,n
a
i,j
E
i,j
quindi l’insieme {E
i,j
}
i=1,...,m, j=1,...,n
`e un insiem di generatori per M(m×n, R) e si dimostra
anche facilmente che sono indipendenti.
Q.e.d.
Notazione 76 Sia R
k
[x] l’insieme dei polinomi in x a coefficienti in R di grado minore o uguale
a k, cio`e
{a
0
+ a
1
x + .... + a
k
x
k
| a
0
, ..., a
k
∈ R}
E’ uno spazio vettoriale con la usuale somma di polinomi e prodotto per uno scalare.
Osservazione 77 La dimensione di R
k
[x] `e k + 1.
Dimostrazione.
L’insieme {1, x, ..., x
k
} `e una base di R
k
[x].
Q.e.d.
27
5.5 Un esempio fondamentale: lo spazio generato dalle colonne di una
matrice (range) e lo spazio generato dalle righe
Sia A una matrice m×n a coefficienti in R. Ad essa si possono associare due spazi vettoriali:
il sottospazio di R
m
generato dalle colonne di A (che a volte viene chiamto “range di A”)
A
(1)
, ..., A
(n)

e il sottospazio di R
n
generato dalle righe di A
A
(1)
, ..., A
(m)

Ovviamente questi due spazi non sono uguali, ma in seguito dimostreremo che, sorpendente-
mente, la loro dimensione `e la stessa (e chiameremo tale numero rango della matrice).
Esempio. Sia
A =

¸
3 0 3 −3
0 1 2 1
0 2 4 2
¸

Lo spazio generato dalle colonne `e il seguente sottospazio di R
3
:

¸
3
0
0
¸

,

¸
0
1
2
¸

,

¸
3
2
4
¸

,

¸
−3
1
2
¸

¸
=

¸
3
0
0
¸

,

¸
0
1
2
¸

¸
=
=

t

¸
3
0
0
¸

+ s

¸
0
1
2
¸

| t, s ∈ R

Quindi per esempio

¸
3
3
6
¸

appartiene a tale spazio.
Lo spazio generato dalle righe `e il seguente sottospazio di R
4
:

¸
¸
¸
3
0
3
−3
¸

,

¸
¸
¸
0
1
2
1
¸

,

¸
¸
¸
0
2
4
2
¸

¸
=

¸
¸
¸
3
0
3
−3
¸

,

¸
¸
¸
0
1
2
1
¸

¸
=
=

t

¸
¸
¸
3
0
3
−3
¸

+ s

¸
¸
¸
0
1
2
1
¸

| t, s ∈ R

Quindi per esempio

¸
¸
¸
3
−1
1
−4
¸

appartiene a tale spazio.
Osservazione 78 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni
elementari di righe.
Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di
colonne.
28
Dimostrazione. Segue immediatamente dalla Proposizione 60.
Q.e.d.
Osservazione 79 Sia A ∈ M(m×n, R) e B ∈ M(n ×k, R).
Allora lo spazio generato dalle colonne di AB `e contenuto nello spazio generato dalle colonne di
A.
Inoltre lo spazio generato dalle righe di AB `e contenuto nello spazio generato dalle righe di B.
Riprenderemo nel capitolo 5 lo studio dello spazio generato dalle colonne di una matrice e dello
spazio generato dalle righe; in particolare studieremo la loro dimensione (detta rango).
NOTA. Tutto quello che `e stato detto in questo capitolo pu` o essere enunciato sostituendo C a
R.
29
6 Applicazioni lineari
6.1 Applicazioni lineari, nucleo , immagine, relazione fondamentale
Definizione 80 Siano V e W due spazi vettoriali su R. Si dice che f : V → W `e una funzione
lineare se e solo se valgono le seguenti propriet`a:
a) f(v
1
+ v
2
) = f(v
1
) + f(v
2
) ∀v
1
, v
2
∈ V (additivit`a)
b) f(λv) = λf(v) ∀v ∈ V , ∀λ ∈ R (omogeneit`a)
Definizione 81 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.
Si definisce nucleo (in inglese kernel) di f il seguente sottoinsieme di V :
Ker(f) = {v ∈ V | f(v) = 0}
Si definisce immagine di f il seguente sottoinsieme di W:
Im(f) = {w ∈ W| ∃v ∈ V t.c. f(v) = w} = {f(v)| v ∈ V }
Osservazione 82 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.
Allora f(0
V
) = 0
W
.
Dimostrazione. f(0
V
) = f(0
R
0
V
) = 0
R
f(0
V
) = 0
W
Q.e.d.
Osservazione 83 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.
Allora Ker(f) `e un sottospazio vettoriale di V e Im(f) `e un sottospazio vettoriale di W.
Dimostrazione. Siano v
1
e v
2
due elementi di Ker(f), quindi f(v
1
) = 0
V
e f(v
2
) = 0
V
. Voglio
dimostrare che v
1
+ v
2
∈ Ker(f), cio`e che f(v
1
+ v
2
) = 0. Dato che f `e lineare si ha che
f(v
1
+ v
2
) = f(v
1
) + f(v
2
) = 0
V
+ 0
V
= 0
V
.
Sia v ∈ Ker(f), quindi f(v) = 0
V
e λ ∈ R, devo dimostrare che λv ∈ Ker(f), cio`e che
f(λv) = 0. Dato che f `e lineare, f(λv) = λf(v) = λ0
V
= 0
V
.
Q.e.d.
Osservazione 84 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.
Allora f `e iniettiva se e solo se Ker(f) = {0
V
}.
Dimostrazione. Ricordo che f `e iniettiva se e solo se f(v
1
) = f(v
2
) implica v
1
= v
2
, cio`e se e
solo se l’immagine inversa f
−1
(w) di un qualsiasi elemento w di Im(f) `e costituita solo da un
elemento.
Supponiamo che f sia iniettiva; in particolare f
−1
(0
W
), che contiene sicuramente 0
V
, pu` o
contenere solo 0
V
, quindi f
−1
(0
W
) = {0
V
}, ma f
−1
(0
W
) `e Ker(f), quindi Ker(f) = {0
V
}.
Supponiamo che Ker(f) = {0
V
}. Voglio dimostrare che se v
1
e v
2
sono due elementi di V e
f(v
1
) = f(v
2
) allora v
1
= v
2
. Dato che f(v
1
) = f(v
2
) si ha che f(v
1
) −f(v
2
) = 0
W
e quindi,
dato che f `e lineare, f(v
1
− v
2
) = 0
W
. Quindi v
1
− v
2
∈ Ker(f). Dato che Ker(f) = {0
V
},
si deve avere v
1
−v
2
= 0
V
. Quindi v
1
= v
2
.
Q.e.d.
Teorema 85 . Relazione fondamentale. Siano V e W due spazi vettoriali su R con dim V <
+∞. Sia f : V → W una funzione lineare. Allora
dim Ker(f) + dim Im(f) = dim V
30
Dimostrazione.
Siano k = dim Ker(f), n = dim V . Sia {v
1
, .., v
k
} una base di Ker(f), e completiamola ad
una base di V {v
1
, .., v
n
}. Vogliamo dimostrare che dim Im(f) = n −k. Basta dimostrare che
gli n −k vettori f(v
k+1
), .., f(v
n
) formano una base di Im(f).
• Dimostriamo anzitutto che f(v
k+1
), .., f(v
n
) generano Im(f). Sia w ∈ Im(f); allora esiste
v in V tale che w = f(v). Siccome {v
1
, .., v
n
} `e una base di V , esistono coefficienti reali λ
i
tali
che
v =
¸
i=1,...,n
λ
i
v
i
Pertanto
w = f(v) = f(
¸
i=1,...,n
λ
i
v
i
)
f lineare
=
¸
i=1,...,n
λ
i
f(v
i
)
f(vi)=0 per i=1,...,k
=
¸
i=k+1,...,n
λ
i
f(v
i
)
come volevamo.
• Dimostriamo adesso che f(v
k+1
), .., f(v
n
) sono linearmente indipendenti.
Siano λ
i
∈ R i = k + 1, ..., n tali che
¸
i=k+1,...,n
λ
i
f(v
i
) = 0
Allora, per la linearit`a di f,
f(
¸
i=k+1,...,n
λ
i
v
i
) = 0
e quindi
¸
i=k+1,...,n
λ
i
v
i
appartiene a Ker(f) e quindi si pu` o scrivere come combinazione
lineare di v
1
, .., v
k
. Pertanto esistono coefficienti reali µ
j
j = 1, ..., k tali che
¸
i=k+1,...,n
λ
i
v
i
=
¸
j=1,...,k
µ
j
v
j
da cui
¸
i=k+1,...,n
λ
i
v
i

¸
j=1,...,k
µ
j
v
j
= 0
Dato che v
1
, ...., v
n
sono linearmente indipendenti, otteniamo che tutti i coefficienti della com-
binazione lineare sopra sono nulli, in particolare λ
i
= 0 per i = k + 1, ..., n come volevamo.
Q.e.d.
Proposizione 86 Siano V e W due spazi vettoriali su R e sia {v
1
, .., v
n
} una base di V . Siano
f, g due funzioni lineari. Se f(v
i
) = g(v
i
) i = 1, ..., n, allora f = g.
Dimostrazione.
Sia v un qualsiasi elemento di V . Voglio vedere che f(v) = g(v). Dato che {v
1
, .., v
n
} `e una
base di V , esistono λ
1
, ..., λ
n
∈ R tali che v =
¸
i=1,...,n
λ
i
v
i
. Dato che f `e lineare
f(v) = f(
¸
i=1,...,n
λ
i
v
i
) =
¸
i=1,...,n
λ
i
f(v
i
)
Analogamente
g(v) = g(
¸
i=1,...,n
λ
i
v
i
) =
¸
i=1,...,n
λ
i
g(v
i
)
ma dato che f(v
i
) = g(v
i
) i = 1, ..., n, le due espressioni coincidono. Quindi f(v) = g(v).
Q.e.d.
31
6.2 Applicazioni lineari associate a matrici
Definizione 87 Sia A ∈ M(m×n, R). Definisco l’applicazione lineare associata ad A l’applicazione
f
A
: R
n
→R
m
definita nel modo seguente:
f
A
(x) = Ax
Osservazione 88 f
A
`e lineare.
Dimostrazione.
a) (additivit`a) f
A
(x + y) = A(x + y)
prop. 2 prod. matrici
= Ax + Ay = f
A
(x) + f
A
(y)
b) (omogeneit`a) f
A
(λx) = A(λx)
prop 4 prod. matrici
= λAx = λf
A
(x)
Q.e.d.
Proposizione 89 Sia f : R
n
→R
m
lineare; allora esiste A ∈ M(m×n, R) tale che f = f
A
.
Dimostrazione.
Sia A la matrice che ha come colonne rispettivamente f(e
1
),..., f(e
n
).
Voglio dimostrare che f = f
A
.
Per la Prop. 86 basta dimostrare che f(e
j
) = f
A
(e
j
) j = 1, ..., n.
Ma questo `e ovvio in quanto f
A
(e
j
) `e Ae
j
cio`e la j-esima colonna di A, che, per come si `e
definita A, `e proprio f(e
j
).
Q.e.d.
Osservazione 90 Sia A ∈ M(m× n, R). Allora l’immagine di f
A
`e generata dalle colonne di
A.
Dimostrazione.
Im(f
A
) = {f
A
(x)| x ∈ R
n
} = {Ax| x ∈ R
n
} = {A
(1)
x
1
+ ... + A
(n)
x
n
| x
1
, ..., x
n
∈ R} =
A
(1)
, ..., A
(n)

Q.e.d.
NOTA. Tutto quello che `e stato detto in questo capitolo pu` o essere enunciato sostituendo C a
R.
32
7 Determinante, spazi generati da righe e colonne, rango,
inversa di una matrice
7.1 Determinante
Definizione 91 Sia A ∈ M(n ×n, R).
Se n = 1 e quindi A = (a) con a ∈ R si definisce il determinante di A nel modo seguente:
det(A) = a
Se n = 2 e quindi A =

a b
c d

con a, b, c, d ∈ R si definisce il determinante di A nel modo
seguente
det(A) = ad −bc
Pi`u in generale per n ≥ 2 si definisce il determinante di A ∈ M(n ×n, R) nel modo seguente:
fissiamo i ∈ {1, ..., n}; definiamo
det(A) =
¸
j=1,...,n
(−1)
i+j
a
i,j
det(A
ˆı,ˆ
)
dove A
ˆı,ˆ
`e la matrice ottenuta da A togliendo la riga i-esima e la colonna j-esima (sviluppo per
l’i-esima riga).
Esempio. det

2 3
4 −1

= −14
det

¸
2 1 0
−3 2 2
1 1 7
¸

= 2 det

2 2
1 7

− 1 det

−3 2
1 7

+ 0 det

−3 2
1 1

= 2 · 12 −
1(−23) + 0(−5) = 24 + 23 = 47
Proposizione 92 Propriet`a del determinante
1) det(A) = det(A

) + det(A
′′
) se A
(i)
= A

(i)
= A
′′
(i)
∀i = k e A
(k)
= A

(k)
+ A
′′
(k)
.
2) Moltplicando una riga di una matrice per uno scalare λ, il determinante `e moltiplicato per λ,
cio`e se
˜
A `e ottenuta da A moltiplicando una riga di A per λ, allora det(
˜
A) = λdet(A).
3) Il determinante di una matrice cambia di segno se si scambiano due righe della matrice, cio`e
det(A) = det(
˜
A) per qualsiasi A ∈ M(n ×n, R), se
˜
A `e ottenuta da A scambiando due righe.
4) Il determinante `e zero sulle matrici con due righe uguali.
5) Sommando ad una riga un multiplo di un’altra riga il determinante non cambia.
6) Il determinante `e zero sulle matrici con una riga nulla.
7) det(A) = det(
t
A) ∀A ∈ M(n ×n, R).
8) Le regole 1,...., 6 valgono anche per le colonne.
9) det(AB) = det(A)det(B) ∀A, B ∈ M(n ×n, R).
10) Il determinante di una matrice triangolare `e il prodotto degli elementi sulla diagonale.
11) det

A B
0 C

= det(A)det(C) ∀A ∈ M(n × n, R) ∀B ∈ M(n × m, R) ∀C ∈ M(m×
m, R).
Dimostrazione omessa.
(Le propriet`a 1 e 2 sono dette in breve “il determinante `e una funzione multilineare delle righe”;
la propriet`a 3 `e detta in breve “il determinante `e una funzione alternante delle righe”.)
33
7.2 Spazi generati da righe e colonne e rango
Definizione 93 Sia A ∈ M(m× n, R). Si definisce rango per righe di A la dimensione del
sottospazio di R
n
generato dalle righe di A
rk
r
(A) = dim(A
(1)
, ..., A
(m)
)
Si definisce rango per colonne di A la dimensione del sottospazio di R
m
generato dalle colonne
di A
rk
c
(A) = dim(A
(1)
, ..., A
(n)
)
Osservazione 94 Sia A ∈ M(m×n, R). Allora
rk
r
(A) ≤ min{m, n}
in quanto rk
r
(A) `e la dimensione di un sottospazio di R
n
, quindi ha dimensione ≤ n, generato
da m elementi (le righe di A), quindi ha dimensione ≤ m. Analogamente
rk
c
(A) ≤ min{m, n}
Osservazione 95 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni
elementari di righe. Quindi il rango per righe non cambia facendo operazioni elementari di righe.
Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di
colonne. Quindi il rango per colonne non cambia facendo operazioni elementari di colonne.
Dimostrazione. Segue immediatamente dalla Proposizione 60.
Q.e.d.
Proposizione 96 Sia A una matrice a scalini allora rk
r
(A) `e uguale al numero degli scalini.
Dimostrazione.
Sia k il numero degli scalini cio`e delle righe non nulle.
Siano j
1
,..., j
k
gli indici delle colonne dove compaiono i pivots.
Per dimostrare la tesi basta dimostrare che le prime k righe sono indipendenti.
Siano λ
1
, ..., λ
k
∈ R tali che
λ
1
A
(1)
+ .... + λ
k
A
(k)
= 0 (1)
Voglio dimostrare che λ
1
= ... = λ
k
= 0.
Considerando i j
1
-esimi coefficienti dell’uguaglianza 1, ricavo
λ
1
A
1,j1
+ .... + λ
k
A
k,j1
= 0
cio`e
λ
1
A
1,j1
= 0
(in quanto A
2,j1
= .... = A
k,j1
= 0) da cui
λ
1
= 0
in quanto A
1,j1
= 0 essendo un pivot.
Considerando i j
2
-esimi coefficienti dell’uguaglianza 1, ricavo
λ
1
A
1,j2
+ λ
2
A
2,j2
+ .... + λ
k
A
k,j2
= 0
34
cio`e
λ
2
A
2,j2
= 0
(in quanto λ
1
= 0 e A
3,j2
= .... = A
k,j2
= 0) da cui
λ
2
= 0
in quanto A
2,j2
= 0 essendo un pivot.
Proseguendo analogamente ricaviamo λ
1
= ... = λ
k
= 0.
Q.e.d.
Proposizione 97 Sia A ∈ M(m×n, R). Allora
dim(Ker(f
A
)) = n −rk
r
(A)
Dimostrazione.
Ovviamente
Ker(f
A
) = {x ∈ R
n
| Ax = 0}
che, se A

`e una matrice a scalini ottenuta da A con operazioni elementari di riga, `e uguale a
{x ∈ R
n
| A

x = 0}
quindi all’insieme delle soluzioni del sistema lineare omogeneo con matrice incompleta A

.
Per trovare tale insieme di soluzioni devo scrivere le variabili che corrispondono ai pivots in
funzione di quelle che non corrispondono ai pivots.
Sia k = rk
r
(A) che `e uguale a rk
r
(A

). Modulo riordinare le variabili, posso supporre che le
variabili che corrispondono ai pivots siano le prime k: x
1
, ...., x
k
.
Sfruttando le equazioni scrivo x
1
, ...., x
k
in funzione di x
k+1
, ...., x
n
:
x
1
= f
1
(x
k+1
, ...., x
n
)
.
.
.
x
k
= f
k
(x
k+1
, ...., x
n
)
Quindi l’insieme delle soluzioni `e

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
f
1
(x
k+1
, ...., xn)
.
.
.
f
k
(x
k+1
, ...., xn)
x
k+1
.
.
.
xn
¸

| x
k+1
, ...., x
n
∈ R

=

x
k+1

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
.
.
.
.
.
1
0
.
.
0
¸

+ .... + x
n

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
.
.
.
.
.
0
.
.
0
1
¸

| x
k+1
, ...., x
n
∈ R

quindi ha dimensione n −k
Q.e.d.
Osservazione 98 Sia A ∈ M(m×n, R). Allora dim(Im(f
A
)) = rk
c
(A).
Dimostrazione.
Segue immediatamente dall’Osservazione 90.
Q.e.d.
Teorema 99 Sia A ∈ M(m×n, R). Allora rk
r
(A) = rk
c
(A)
Dimostrazione.
rk
c
(A)
Oss.98
= dim(Im(f
A
))
Relaz.Fondam.
= n −dimKer(f
A
)
Prop.97
= rk
r
(A).
Q.e.d.
35
7.3 Il teorema di Rouch´e-Capelli
Teorema 100 Teorema di Rouch´e-Capelli. Sia A ∈ M(m× n, R) e sia b ∈ R
m
. Il sistema
lineare Ax = b ha soluzione se e solo se rk(A) = rk(A|b).
Dimostrazione.
Il sistema lineare Ax = b ha soluzione se e solo se esistono x
1
, ..., x
n
∈ R tali che
x
1
A
(1)
+ .... + x
n
A
(n)
= b
cio`e se e solo se b `e combinazione lineare di A
(1)
, ...., A
(n)
. Questo equivale a dire che
A
(1)
, ...., A
(n)
= A
(1)
, ...., A
(n)
, b
Dato che si ha sempre A
(1)
, ...., A
(n)
⊂ A
(1)
, ...., A
(n)
, b, dire questi due sottospazi sono
uguali equivale a dire che le loro dimensioni sono uguali.
Q.e.d.
7.4 Relazione fra rango e determinante
Teorema 101 Sia A ∈ M(n ×n, R).
A ∈ GL(n, R) ⇔ rk(A) = n ⇔ det(A) = 0
Dimostrazione omessa.
Teorema 102 (Criterio dei minori orlati). Sia A ∈ M(m × n, R). Allora rk(A) `e k se
e solo se esite una sottomatrice k × k con determinante diverso da 0 e tutte le sottomatrici
(k + 1) ×(k + 1) contenenti tale sottomatrice hanno determinante uguale a 0
Dimostrazione omessa.
Esempio. Sia A =

¸
¸
¸
1 0 2 3 −1
−2 0 −4 −6 2
2 1 2 −6 2
0 1 −2 −12 4
¸

Esiste una sottomatrice 2×2 (per esempio quella formata dalle prime due colonne e la seconda e
terza riga) con determinante diverso da 0 e tutte le sottomatrici 3 ×3 che la contengono hanno
determinante uguale a 0; quindi il rango di A `e 2.
7.5 Metodo per calcolare l’inversa di una matrice
Sia A ∈ GL(n, R).
Un metodo per calcolare l’inversa `e il seguente (omettiamo la dimostrazione):
• affiancare ad A a destra la matrice I
n
, ottenendo cos`ı una matrice n ×2n: (A|I
n
)
• fare operazioni elementari di riga sulla matrice (A|I
n
) fino ad ottenere una matrice la cui prima
parte `e I
n
, cio`e del tipo (I
n
|B).
La matrice B cos`ı trovata `e l’inversa di A.
Esempio. Sia
A =

¸
1 0 2
0 2 1
−1 0 0
¸

36
Affiancando ad A la matrice I
3
ottengo

¸
1 0 2 1 0 0
0 2 1 0 1 0
−1 0 0 0 0 1
¸

Faccio adesso operazioni elementari di riga.

¸
1 0 2 1 0 0
0 2 1 0 1 0
0 0 2 1 0 1
¸

III + I

¸
1 0 0 0 0 −1
0 2 0 −
1
2
1 −
1
2
0 0 2 1 0 1
¸

I −III
II −
1
2
III

¸
1 0 0 0 0 −1
0 1 0 −
1
4
1
2

1
4
0 0 1
1
2
0
1
2
¸

1
2
II
1
2
III
La matrice
B =

¸
0 0 −1

1
4
1
2

1
4
1
2
0
1
2
¸

`e l’inversa di A.
NOTA. Tutto quello che `e stato detto in questo capitolo pu` o essere enunciato sostituendo C a
R.
37
8 Autovettori e autovalori, diagonalizzabilit`a
Definizione 103 Sia V uno spazio vettoriale su R e f : V → V una applicazione lineare. Un
vettore v ∈ V non nullo si dice autovettore di f se esiste λ ∈ R tale che
f(v) = λv
(quindi se f manda v in un suo multiplo). In tal caso si dice che λ `e un autovalore di f
(l’autovalore di f relativo a v).
Autovettori ed autovalori di una matrice quadrata A sono per definizione autovalori ed autovettori
di f
A
. Quindi v ∈ R
n
−{0} `e un autovettore di A con autovalore λ se vale
Av = λv
Esempio. Sia
A =

¸
1 2 0
2 1 1
0 0 1
¸

Il vettore

¸
1
1
0
¸

`e autovettore di A di autovalore 3.
Per semplicit`a tratteremo soprattutto il caso degli autovalori ed autovettori di una matrice.
Definizione 104 Sia A ∈ M(n ×n, R). Il polinomio caratteristico di A `e definito nel modo
seguente:
p
A
(t) := det(A −tI)
dove I la matrice identit`a n ×n.
Esempio. Sia
A =

¸
1 2 0
2 1 1
0 0 1
¸

Allora
p
A
(t) = det

¸
1 −t 2 0
2 1 −t 1
0 0 1 −t
¸

= (1 −t)[(1 −t)(1 −t) −4] = (1 −t)(t
2
−2t −3)
Lemma 105 Un numero reale λ `e un autovalore di A se e solo se `e una radice (reale) del
polinomio caratteristico di A.
Dimostrazione λ `e un autovalore di A ⇔∃v ∈ R
n
−{0} tale che Av = λv ⇔∃v ∈ R
n
−{0} tale
che (A−λI)v = 0 ⇔ Ker(A−λI) = {0} ⇔ A−λI non `e iniettiva
Thm.101
⇔ det(A−λI) = 0
Q.e.d.
Osservazione 106 L’insieme degli autovettori di A con autovalore λ, unito al vettore zero,
coincide con Ker(A−λI) e si dice autospazio di A relativo a λ.
38
Definizione 107 Sia A una matrice quadrata e sia λ un suo autovalore.
La dimensione di Ker(A −λI) si dice molteplicit`a geometrica di λ.
La molteplicit`a di λ come radice del polinomio caratteristico si dice molteplicit`a algebrica di
λ.
Definizione 108 Due matrici A e B si dicono simili se esiste C invertibile tale che
A = C
−1
BC
Lemma 109 Due matrici simili hanno lo stesso polinomio caratteristico.
Dimostrazione. Supponiamo che A e B siano simili, quindi esiste C tale che A = C
−1
BC.
Allora
p
A
(t) = det(A −tI) = det(C
−1
BC − tI) = det(C
−1
(B −tI)C) =
= det(C
−1
)det(B −tI)det(C) = det(B −tI) = p
B
(t)
Q.e.d.
Esercizi.
i) Provare che la similitudine una relazione di equivalenza.
ii) Provare che se A `e una matrice 2 ×2 allora p
A
(t) = t
2
−tr(A)t + det(A)
iii) Provare che gli autovalori di una matrice triangolare sono gli elementi sulla diagonale.
Definizione 110 Una matrice quadrata A si dice diagonalizzabile se `e simile ad una matrice
diagonale.
Teorema 111 Una matrice A diagonalizzabile se e solo se esiste una base di autovettori di A.
Dimostrazione. Se A `e diagonalizzabile allora esiste C invertibile tale che C
−1
AC = D con D
diagonale. Moltiplicando a sinistra per C si ottiene AC = CD.
Tale equazione equivale a AC
(j)
= λ
j
C
(j)
per ogni j = 1, ..., n dove λ
j
`e il j-esimo elemento
della diagonale di D; quindi le colonne di C formano la base richiesta di autovettori.
Viceversa se esiste una base di autovettori per A, definiamo C la matrice ottenuta affiancando
gli elementi di tale base. Allora vale AC
(j)
= λ
j
C
(j)
per ogni j = 1, ..., n; quindi, chiamando D
la matrice che ha λ
1
, ..., λ
n
sulla diagonale, si ha AC = CD, da cui C
−1
AC = D.
Osservazione 112 Se A `e simile ad una matrice D diagonale, allora sulla diagonale di D ap-
paiono gli autovalori di A (infatti A e D hanno lo stesso polinomio caratteristico).
Proposizione 113 Per qualsiasi autovalore si ha che la molteplicit`a geometrica `e minore o uguale
della molteplicit`a algebrica.
Dimostrazione omessa.
Come abbiamo gi`a detto, gran parte dell’algebra lineare che abbiamo enunciato per l’insieme dei
numeri reali R, pu` o essere in modo del tutto analogo enunciato per l’insieme dei numeri complessi
C (spazi vettoriali su C, C
n
, M(m×n, C), applicazioni lineari, determinante, rango.....)
In particolare ben definito il determinante di una matrice quadrata a coefficienti complessi e
una matrice quadrata a coefficienti complessi invertibile se e solo se il suo determinante `e non
nullo.
Con dimostrazione del tutto analoga alla dimostrazione del Lemma 105, si dimostra che λ ∈ C
`e radice del polinomio caratteristico di A se e solo se esiste v ∈ C
n
tale che Av = λv. Un tale
v si dice autovettore (complesso) di A con autovalore (complesso) λ.
39
Teorema 114 Criterio necessario e sufficiente di diagonalizzabilit`a.
Una matrice A `e diagonalizzabile se e solo se tutti le radici complesse del polinomio caratteristico
di A sono numeri reali e per ogni autovalore (reale) di A la molteplicit`a geometrica uguale alla
molteplicit`a algebrica.
Dimostrazione omessa.
Esempi.
1) Sia
A =

¸
1 −2 0
2 1 1
0 0 −1
¸

Allora
p
A
(t) = det

¸
1 −t −2 0
2 1 −t 1
0 0 −1 −t
¸

= (−1 −t)[(1 −t)(1 −t) +4] = (−1 −t)(t
2
−2t +5)
Quindi non tutte le radici complesse del polinomio caratteristico sono reali. Quindi A non `e
diagonalizzabile.
2) Sia
B =

¸
1 2 0
2 1 1
0 0 −1
¸

Allora
p
B
(t) = (−1 −t)[(1 −t)(1 −t) −4] = (−1 −t)(t
2
−2t −3) = −(t −3)(t + 1)
2
Quindi tutte le radici complesse del polinomio caratteristico sono reali. Esse sono t = 3 e t = −1.
Ovviamente la molteplicit`a algebrica di 3 `e 1, quella di −1 `e 2; ovviamente la molteplicit`a
geometrica di 3 `e 1, inoltre si calcola facilmente che la molteplicit`a geometrica di −1 `e 1; quindi
B non `e diagonalizzabile.
3) Sia
C =

¸
3 1 1
2 4 2
3 3 5
¸

Allora
p
C
(t) = −t
3
+ 12t
2
−36t + 32 = (2 −t)
2
(8 −t)
Quindi tutte le radici complesse del polinomio caratteristico sono reali. Esse sono t = 2 e
t = 8. Ovviamente la molteplicit`a algebrica di 2 `e 2, quella di 8 `e 1; ovviamente la molteplicit`a
geometrica di 8 `e 1, inoltre si calcola facilmente che la molteplicit`a geometrica di 2 `e 2; quindi
C `e diagonalizzabile.
40

8 Autovettori e autovalori, diagonalizzabilit` a

38

Ordine di lettura consigliato : 3.1, 3.2, 5.1, 5.2, 3.3, 3.4, etc

2

1

Notazioni fondamentali in matematica

“∀” significa “per qualsiasi”

“∃” significa “esiste”

“⇒” significa “implica”

“⇔” significa “implica e ` implicato”, “se e solo se” e

“∈” significa “appartiene”, “` un elemento di” e

“⊂” significa “` incluso” e

3

2

I numeri complessi

Come ` ben noto non tutte le equazioni polinomiali hanno soluzioni nei reali. Ad esempio e l’equazione x2 = −1 e non ha soluzione nei reali, cio` non esiste un numero reale x il cui quadrato ` −1. e L’insieme dei numeri complessi ` stato introdotto proprio per consentire di trovare soluzione a e tutte le equazione polinomiali, cio` ` stato introdotto come un insieme “pi` grande” dell’insieme ee u dei numeri reali, nel quale ogni equazione polinomiale ha soluzione. In altre parole per ottenere l’insieme dei numeri complessi si aggiunge all’insieme dei numeri reali l’insieme di tutte le soluzioni di equazioni polinomiali. Informalmente si definisce C (insieme dei numeri complessi) nel modo seguente: si definisce i (unit` immaginaria) come un numero che gode della seguente propriet`: a a i2 = −1 e si definisce: C = {a + bi| a, b ∈ R} Quindi un numero complesso ` un numero del tipo e z = a + bi dove a e b sono due numeri reali e i ` l’unit` immaginaria. Si dice che a ` la parte reale del e a e numero complesso a + bi e bi ` la parte immaginaria. In genere si scrive: e Re(z) = a Im(z) = b (coefficiente della parte immaginaria). La somma e il prodotto in C si definiscono nel modo seguente: (a + bi) + (c + di) = a + b + (c + d)i (a + bi) · (c + di) = ac − bd + (ad + bc)i La definizione di prodotto pu` sembrare strana e difficile da memorizzare, ma in realt` si ricava o a facilmente “facendo valere” le propriet` distribuitiva e commutative e ricordando che i2 = −1: a (a+bi)·(c+di) = a·(c+di)+bi·(c+di) = ac+adi+bci+bdi2 = ac+adi+bci−bd = ac−bd+(ad+bc)i Ovviamente si pu` vedere l’insieme dei numeri reali contenuto nell’insieme dei numeri complessi: o a ∈ R si pu` vedere come il numero complesso a + 0i. o Si definisce coniugato di un numero complesso z = a + bi il numero complesso a − bi e si denota z: z = a − bi Si definisce modulo di un numero complesso z = a + bi il numero reale |z|: |z| = a2 + b2 √ a2 + b2 e si denota

Se z ∈ R, allora il modulo coincide con il valore assoluto: infatti in tal caso, se si scrive z = a+bi, √ √ si ha che b = 0 e quindi |z| = a2 + b2 = a2 = |a|. 4

dato un qualsiasi numero complesso z = a + bi. b) + (c. b). precisamente al numero complesso a + bi si fa corrispondere il punto del piano di coordinate cartesiane (a. cio` un numero complesso che moltiplicato per z d` 1: esso sar` |z|2 . b) tale che π < θ ≤ π e sia ρ la lunghezza del segmento che congiunge (0. b)| a. Il piano identificato con l’insieme dei numeri complessi si chiama piano di Argand-Gauss. b). esiste un numero complesso che sommato e a z d` 0: esso sar` −a − bi). b ∈ R} Si dimostrano facilmente le seguenti propriet`: a 1) |z| = |z| 2) |z| = 0 se e solo se z = 0 3) |z · w| = |z||w| 4) z · z = |z|2 5) z + w = z + w 6) z · w = z · w (a. vale la propriet` distributiva. Supponiamo che z = a + bi = ρ(cos θ + isen θ) w = c + di = λ(cos η + isen η). esiste un elemento neutro per il prodotto (1 = 1 + 0i).b) a Sia θ l’angolo formato dal semiasse positivo delle ascisse e il segmento che congiunge (0. infine per qualsiasi numero complesso z = a + bi diverso da 0. d) = (a + b. e a a z Pi` formalmente si pu` definire u o definendo la somma e il prodotto nel modo seguente: C = {(a. 0) con (a.Inoltre ` semplice dimostrare che valgono le propriet` associativa e commutativa sia per la somma e a che per il prodotto. Si pu` o dimostrare facilmente che z · w = (ρλ)[cos(θ + η) + isen(θ + η)] Quindi in pratica moltiplicare per z = ρ(cos θ + isen θ) un numero complesso w significa moltiplicare per ρ la lunghezza del segmento che unisce l’origine col punto del piano che rappresenta w e ruotare tale segmento di θ. b (a. d) = (ac − bd. c + d) (a. 0) con (a. allora si ha ovviamente: z = a + bi = ρ(cos θ + isen θ) (forma trigonometrica dei numeri complessi). a a esiste l’inverso. 5 . esiste l’opposto per la somma a (cio`. ad + bc) L’insieme dei numeri complessi pu` essere identificato con i punti del piano in cui ` stato fissato o e un sistema di riferimento cartesiano. esiste un elemento neutro per la somma (0 = 0 + 0i). b) · (c.

    xn  Notazione 2 Sia x =    x1 .  =  . .     . xn  i-esima componente di x.   .  xn λxn (cio` se x ∈ Rn e λ ∈ R.. . xn ∈ R R =     .   2 3 0 −π + 2 8           =     Definizione 4 Sia n un numero naturale ≥ 1... . Esempio   3    1 0 −2 −π 7      =     6  3 0 −6 −3π 21           =     .1 Rn e le matrici Definizione di Rn e di matrici. si definisce λx come l’elemento di Rn tale che (λx)i = λxi e ∀i = 1. somma e prodotto per uno scalare Definizione 1 Sia n un numero naturale ≥ 1.      λ . .   ∈ Rn .. nel modo seguente:    x1 y1  .     . y ∈ Rn . Si definisce     x1     ...3 3.       . | x1 . . . + . xn yn Esempio       1 0 −2 −π 7      +      1 3 2 2 1 (cio` se x. L’elemento xi che compare al’i-esimo posto si definisce  Si definisce la somma fra due elementi di Rn   x1 + y1 .   .. Si definisce il prodotto fra un elemento di Rn e uno scalare (cio` un numero reale) nel modo seguente: e     x1 λx1  .   n  . n). si definisce x + y come l’elemento di Rn tale che (x + y)i = xi + yi e ∀i = 1.   . n).. .. xn + yn       Definizione 3 Sia n un numero naturale ≥ 1.   .

Una matrice m × n ` una tabella con m e righe e n colonne..j o Ai. Definizione 9 Siano m e n due numeri naturali ≥ 1. Notazione 8 L’elemento che sta sull’i-esima riga e j-esima colonna di una matrice A si denota con ai. Si dice a coefficienti in R se tutti gli elementi sulla tabella sono numeri reali. La riga i-esima si denota con A(i) .Osservazione 5 Fissando un sistema cartesiano nel piano. R) nel modo seguente: siano A.j + Bi... n.j ∀i = 1.. Osservazione 6 “Regola del parallelogramma” Per ogni elemento segmento orientato avente x y di R2 consideriamo il 0 x come punto iniziale e come punto finale.. si stabilisce un’ovvia bigezione fra R2 e il piano. si definisce A + B come la matrice m × n tale che (A + B)i. In tal modo 0 y 2 la somma di due elementi di R pu` essere interpretata geometricamente tramite la cosiddetta o regola del parallelogramma: x’ y’ x y x+x’ y+y’ Definizione 7 Siano m..j = Ai. R). . m. n due numeri naturali ≥ 1.j . . R) = {A| A matrice m × n a coeff icienti in R} Definizione 10 Siano m. B ∈ M (m × n. j = 1. Esempio       1 0 −2 −π 7   0 2 0 3     1 −1  +    4 5   0 1 1 3 2 2 1 3 2 1 0 0 −1 4 1 √ −6 − 2 7      =      2 3 0 −π + 2 8 3 4 1 3 1 −2 8 6√ −6 1 − 2       . n due numero naturale ≥ 1. La colonna j-esima si denota con A(j) . si stabilisce un’ovvia bigezione fra R3 e lo spazio. Analogamente fissando un sistema cartesiano nello spazio. Si definisce M (m × n. Si definisce la somma fra due elementi di M (m × n.

e 8 .. R) 8) 1A = A ∀A ∈ M (m × n. Dimostrazione. Valgono per essi propriet` del tutto anaologhe a a quelle enunciate per R. C ∈ M (m × n. R) ` uno spazio vettoriale su R.. e 4) Per ogni A ∈ M (m × n. . e In modo del tutto analogo a come si ` definito Rn . .n ). µ ∈ R ∀A ∈ M (m × n.j ∀i = 1.Definizione 11 Siano m. le matrici a coefficienti in C e le operazioni di somma e moltiplicazione per scalari. B. R). n due numero naturale ≥ 1. Sia A ∈ M (n × n. B ∈ M (m × n. Definizione 14 Sia n ∈ N n ≥ 1. trasposta.1 . Per esercizio.. R) (propriet` distributiva rispetto alla a somma in M (m × n. µ ∈ R ∀A ∈ M (m × n. Sia A ∈ M (n × n. traccia Definizione 13 Sia n ∈ N n ≥ 1. n.. 3.. R) e λ ∈ R. cio` 0m×n + A = A + 0m×n = A ∀A ∈ M (m × n. . m. R) (propriet` distributiva rispetto alla a somma in R) 6) λ(A + B) = λA + λB ∀λ ∈ R ∀A.. R).j = 0 per i = j (cio` se tutti gli elementi al di fuori della diagonale principale sono nulli).. Si dice che A ` diagonale se e ai. R) l’elemento (−1)A ` opposto di A per la somma in M (m × n. Si definisce diagonale (principale) di A l’n-upla (a1. le matrici a coefficienti in R e le operazioni e di somma e moltiplicazione per scalari. R). Nel capitolo 3 vedremo che la proposizione sopra si pu` enunciare brevemente dicendo che o M (m × n. R) (propriet` commutativa della somma) a 3) La matrice m × n con tutti i coefficienti nulli ` un elemento neutro per la somma in M (m × e n. R) (propriet` associativa della somma) a 2) A + B = B + A ∀A. R)) 7) (λµ)A = λ(µA) ∀λ... B ∈ M (m × n. R). si possono definire Cn . Esempio   3    1 0 −2 −π 7   0 2 3 0 3   0   1 −1  =  −6   4 5   −3π 0 1 21  0 6 0 9   3 −3   12 15  0 3 Proposizione 12 Valgono le seguenti propriet`: a 1) (A + B) + C = A + (B + C) ∀A. si definisce λA come la matrice m × n tale che (λA)i. R)..2 Vari tipi di matrici. an. j = 1.j = λAi. e cio` A + (−1)A = (−1)A + A = 0m×n e 5) (λ + µ)A = λA + µA ∀λ. Si definisce il prodotto fra un elemento di M (m × n. R). R) e uno scalare nel modo seguente: sia A ∈ M (m × n.

Si dice che A ` simmetrica se e ai. Si dice che A ` triangolare inferiore e se ai. e Esempio       1 0 0 0 0 1 1 0 0 0 1 2 0 0 0  6 1 6 −1   −3 4   −3 2  0 23 1 0 I3 =  0 1 0 0 Definizione 16 Sia n ∈ N n ≥ 1. R). e Esempio       3 0 π 0 0 0 1 1 2 4 0 0 2 2 0 0 0 0 2 3 0 0 0 0 0       Definizione 17 Sia n ∈ N n ≥ 1. j (cio` se gli elementi simmetrici rispetto alla diagonale principale sono uguali). R).Esempio  3  0   0 0 0 1 0 0 0 0 −3 0  0 0   0  2 a Esempio (fondamentale) Si dice matrice identit` n × n (e si denota con In ) la matrice n × n con tutti 1 sulla diagonale e 0 altrove.j = aj.j = 0 per i > j (cio` se tutti gli elementi al di sotto della diagonale principale sono nulli).i ∀i. R). Sia A ∈ M (n × n. Per esempio I1 = (1) I2 =  1 0 0 1  0 0  1 Definizione 15 Sia n ∈ N n ≥ 1. e Esempio  4  1   0 7 1 0 2 6  0 7 2 6   9 −3  −3 8 9 . Sia A ∈ M (n×n. Sia A ∈ M (n × n.j = 0 per i < j (cio` se tutti gli elementi al di sopra della diagonale principale sono nulli). Si dice che A ` triangolare superiore e se ai.

i + Bj. ..i = 0..d..j = Aj.i 3) Per ogni i ∈ {1.j = (A + B)j. m} si ha (t (A + B))i. . Sia A ∈ M (n × n..i = λ(tA)i.j 2) Per ogni i ∈ {1.i = Aj. B ∈ M (m × n. .. m} e per ogni j ∈ {1. Si dice che A ` antisimmetrica se e ai. ..i = λAj... 1) A ` simmetrica se e solo se A = tA e 2) A ` antisimmetrica se e solo se A = −tA e Definizione 23 Si definisce traccia di una matrice quadrata la somma degli elementi della sua diagonale..i ∀i ∈ {1.Definizione 18 Sia n ∈ N n ≥ 1.. R). (Infatti ai.i = 0 e quindi ai.e. Sia A ∈ M (n × n.. R).. Dimostrazione. 1) Per ogni i ∈ {1.. j ∈ {1.) Definizione 20 Siano m e n due numeri naturali ≥ 1. . m} si ha (t (λA))i.. . . Sia A ∈ M (m × n. n} (cio` se gli elementi simmetrici rispetto alla diagonale principale sono opposti).i = −ai. R). Si definisce trasposta di A (che si indica con tA) la matrice n × m cos` definita: ı (tA)i...j = (tA)j.j + (tB)i. . pertanto 2ai.i = Ai. j ∈ 1. e Esempio  0 1  −1 0   0 −2 7 −6  0 −7 2 6   0 −3  3 0 Osservazione 19 Gli elementi sulla diagonale principale di una matrice antisimmetrica sono nulli. 2) t (A + B) = tA + tB ∀A.i + Bj.j Q... R).i ∀i.. n} si ha (t (tA))i..j = −aj...j = (λA)j. m. R). 10 . . Proposizione 21 Propriet` della trasposta a 1) t (tA) = A ∀A ∈ M (m × n...j = Aj.. n} e per ogni j ∈ {1. 3) t (λA) = λtA ∀λ ∈ R ∀A ∈ M (m × n.. n}.i (tA + tB)i. Osservazione 22 Sia n ∈ N n ≥ 1. n.i ∀i ∈ 1.. n} e per ogni j ∈ {1.. R).j = (tA)i. ..

n vi wi = i=1... w + u) = (v.. w) = i=1. w ∈ Rn 2) Bilinearit`: a linearit` nel primo argomento: a (λv..n vi (λw)i = i=1. w) = i=1.... u) ∀v.n vi wi (v + w.......3.n vi λwi = λ i=1. v) 2) λ(v. w.n vi vi = i=1..n (vi )2 i=1.......d. w) = λ(v... w. .n wi vi = (w. w) = (w... Si definisce prodotto scalare standard fra due elementi v e w di Rn il numero reale vi wi i=1....... v) ∀v. u ∈ Rn linearit` nel secondo argomento: a (v... λw) = i=1... w) = −1 · 1 + 31 · 0 + 2 · 1 + 9 · (−1) = −8.n vi ≥ 0... u) i=1........ w) = λ i=1... v) cio` la radice quadrata del prodotto scalare di v con se stesso (che ` positivo per la propriet` 3 e e a del prodotto scalare...........n wi ui = (v. v) = i=1. w) ∀λ ∈ R ∀v. a 2 3) (v.n (vi ) = 0 e questo ` vero se e solo se (vi ) = 0 ∀i = 1. 1) (v. v) = 0 se e solo se v = 0. e Q..n (vi + wi )ui = i=1.3 Prodotto scalare standard e norma Definizione 24 Sia n un numero naturale ≥ 1. u) = (v. u) + (w. v) ≥ 0 ∀v ∈ Rn (positivit`)....n 11 . u) ∀v.n vi wi (v. n.n vi wi (λv.. n cio` se e solo se vi = 0 ∀i = 1.n λvi wi = λ i=1....n (v + w)i ui = vi ui + i=1. u) + (w. w) + (v.. inoltre (v....n Esso si indica con (v.. w ∈ Rn (v + w. 2 2 e inoltre (v... u ∈ Rn 3) Definita positivit`: a (v. u) = i=1.n La linearit` nel secondo argomento si dimostra in modo analogo oppure la possiamo derivare a dalla linearit` nel secondo argomento e la simmetria.. w) Esempio Siano  −1  31   v=  2  9   1  0   w=  1  −1  Allora (v. a Dimostrazione... Definizione 26 Sia v ∈ Rn . w) ∀λ ∈ R ∀v... quindi ne posso considerare la radice quadrata).. . cio` e vi vi = i=1.... w ∈ Rn (v..n (λv)i wi = i=1.. Si definisce norma o lunghezza di v il numero reale (v..n (vi ui + wi ui ) = i=1. v) = 0 se e solo se i=1.e. λw) = λ(v.... Proposizione 25 Propriet` del prodotto scalare standard a 1) Simmetria: (v..

n vi = Q.j ∀i = 1. n. cio` v = 0.. n.Esempio Sia  −1  3   v=  2  2  Allora |v| = √ 18..n Ai.. quindi vi = 0 i = 1........ inoltre |v| = 0 se e solo se v = 0 2) |λv| = |λ||v| ∀λ.4 Prodotto di matrici Definizione 28 Siano m.. Proposizione 27 Propriet` della norma a 1) |v| ≥ 0 ∀v ∈ Rn .d. 1) Essendo la norma una radice quadrata ` ovviamente maggiore o uguale a 0. l tre numeri naturali ≥ 1. n..... ∀j = 1. (AB)i.... l...n vi = 0.... + 0 · 0 = 0. quindi vi = 0 i = 1.n λ vi 2 i=1.. l.n vi = |λ| = |λ||v| 3... Si definisce AB la matrice m × l cos` definita: ı (AB)i. o. .. equivalentemente.. Esempio  1 0  11 2 −1 1   1 0 3 2 −1  11 20   =  31 0 2   0 2  −1 1 9 −1 1    8 42  19 a Osservazione 29 Il prodotto di matrici non gode della propriet` commutativa.n (λvi ) 2 i=1.k Bk.n vi 2 = 0. R) e B ∈ M (n×l. B(j) ) (prodotto scalare standard fra la trasposta della riga i-esima di A e la colonna j-esima di B) ∀i = 1... 2 2 i=1. Esempio 1 0 −1 2 1 3 10 −1 1 3 10 −1 = = 1 10 5 −12 −9 20 4 −2 1 0 −1 2 12 . m..n (λv)i 2) |λv| = = (λv.. R).. . m.. inoltre se v ∈ Rn e |v| = 0 allora i=1... ... Inoltre ovviamente e √ 2 |0| = 0 · 0 + .. ∀j = 1. .j = (t A(i) ... λv) = = λ2 = 2 i=1... ∀v ∈ Rn Dimostrazione.j = k=1. .. .......... e 2 i=1. quindi 2 i=1.e... Sia A ∈ M (m×n..

quindi per provare un’uguaglianza di matrici.n Ai. j.j = = k=1...k=1.k Ck... Si dice che A ` invertibile se esiste e B ∈ M (n × n.j = (AB)j..j = k=1.k Ck..e..p [ r=1..n Ai. 4) λ(AB) = (λA)B = A(λB) ∀A ∈ M (m × n.e.. 0 se k = j 1 se k = j Q...k Bk. 2) A(B + C) = AB + AC ∀A ∈ M (m × n.k Ck.j = k=1.n r=1.r=1..j 1 = Ai.r 2) (A(B + C))i...j = k=1.k (In )k.j dove δk.....p.j ) = k=1. Per dimostrare che due matrici sono uguali.j = k=1.n (λAi..r (BC)r..j = k=1..n Ai...t = t=1...r Br..n Ai. R).j = k=1. R)..k Ck. Sia A ∈ M (n × n. R).k Ck..p Br... R). j del primo membro ` uguale al coefficiente i..... R).. R) Dimostrazione....r Br.j = = r=1. cos` definito ı k=1.......n Ai..j + Ai...p [ r=1. R). C ∈ M (n × p.n Ai.j k=1..k Aj.....n Ai.. R).n (λA)i. basta dimostrare che per qualsiasi i. C ∈ M (p × q..p Ai.k )Bk...i = t=1.. R).j = simbolo di Kronecker..j = = k=1. B ∈ M (n × p. B ∈ M (m × n...t Bt.n Ai...k (tB)i.k ]Ck. C ∈ M (n × p.k Bt..d.... Dimostrazione.5 Matrici invertibili Definizione 32 Sia n ∈ N.j = λ(AB)i.... R).. e 1) ((AB)C)i.k Bk.. R)..n Ai. R) tale che AB = BA = In 13 .j = (AB)i.. 5) (AIn )i.. (t (AB))i.r Br.k Aj..j = = (AB + AC)i.... R).j = t=1.. B ∈ M (n × p.n (Ai. il coefficiente i.n Ai..p r=1.j 3) Analoga a 2).j + k=1. B ∈ M (k × n.k Ck.k Ck.k Bk.j = ((λA)B)i... Proposizione 31 t (AB) = tB tA ∀A ∈ M (m × k.k Bk. R).Proposizione 30 Propriet` del prodotto di matrici a 1) (AB)C = A(BC) ∀A ∈ M (m × n.j + (AC)i..j ` il cosidetto e δk.j + Ck.t Bt.n Ai...j = Ai.n Ai....r Br.j = Analogamente l’altra uguaglianza. j del secondo membro... R).i Aj..k (Bk.j r=1.j = Ai.n....d....i (tB tA)i.k δk...r Br.k Bk.j = λ k=1..... B ∈ M (n × p. λ ∈ R 5) AIn = A e Im A ∀A ∈ M (m × n..j (A(BC))i.i Q.j = Analogamente la seconda uguaglianza...j ) = k=1.j ) = = k=1.p (AB)i. 3.k Ck.. R).k (B + C)k.t (tA)t. basta ovviamente dimostrare che i coefficienti corrispondenti sono uguali. 4) (λ(AB))i.. 3) (A + B)C = AC + BC ∀A ∈ M (m × n.j = t=1..n λ(Ai.j = k=1...j ] = k=1. n ≥ 1.

Osservazione 33 (. R).d.e. R) = {(a)| a ∈ R − {0}} Osservazione 35 Sia n ∈ N.5 pu` essere enunciato e o sostituendo C a R. R) tali che AB = BA = In = AC = CA. Dimostrazione. 3.2. n ≥ 1. Allora B = C. R) e (AB)−1 = B −1 A−1 ii) Se A ∈ GL(n. C ∈ M (n × n.4 e 3. R)| A invertibile} Esempio. n ≥ 1. 3. i) Siano A. Tutto quello che ` stato detto nei paragrafi 3. R) e (A−1 )−1 = A Esercizio.) Sia n ∈ N. R). ottenendo cos` ı C(AB) = CIn da cui (CA)B = C Dato che per ipotesi CA = In . R) allora A−1 ∈ GL(n.Definizione. Tale e matrice si dice l’inversa di A e si denota con A−1 . Per ipotesi so che AB = In Moltiplico a sinistra entrambi i membri dell’uguaglianza per C. Sia A ∈ M (n × n.1. In altre parole se A ` invertibile esiste una e una sola matrice B tale che AB = BA = In . 14 . R) = {A ∈ M (n × n. NOTA. Notazione 34 GL(n. a b c d ` invertibile se e solo se ad−bc = 0 e in tal caso l’inversa ` e e 1 ad−bc d −c −b a . GL(1. ottengo In B = C e quindi B=C Q. B ∈ GL(n. Siano B. Allora AB ∈ GL(n.

x3 .. R) e un certo b ∈ Rm . Definizione 38 La matrice A si dice matrice incompleta del sistema. 15 . .  . sistemi lineari omogenei e non Definizione 36 Un sistema lineare ` un sistema di equazioni lineari cio` un sistema di equazioni e e i cui membri sono polinomi di grado ≤ 1 nelle incognite. per ogni i.    per una certa matrice A ∈ M (m × n. Vogliamo adesso illustrare un metodo sistematico per risolvere i sistemi lineari. . matrici a scalini Definizione 40 Si definiscono operazioni elementari sulle righe di una matrice le seguenti operazioni: operazioni di tipo I: scambiare due righe operazioni di tipo II: moltiplicare una riga per uno scalare non nullo operazioni di tipo III: sommare ad una riga un multiplo di un’altra riga. .. x4 ..1 Sistemi lineari Forma matriciale dei sistemi lineari.. La matrice m × (n + 1) ottenuta affiancando (a destra) ad A l’m-upla b si chiama matrice completa del sistema e si indica con A|b Esempio Consideriamo il seguente sistema lineare nelle incognite x1 . x2 . Osservazione 37 Un sistema lineare di m equazioni e n incognite x1 . Per fare ci` o occorre premettere le nozioni di matrici a scalini e operazioni elementari di riga.. x5 .2 Operazioni elementari di riga.  (Basta prendere..4 4. dove x =  .  1 −6 0 0 0 −1 −6 5  −1 −1 0 3 4. xn pu` essere scritto o nella forma Ax = b   x1 xn  . come coefficienti della i-esima riga di A i coefficienti di x1 . xn nella i-esima equazione del sistema e come bi il termine noto della i-esima equazione del sistema).   2x1 + x3 − 6x4 = 0 x1 − x4 − 6x5 = 5  x2 − x3 − x4 = 3 La matrice incompleta A e b saranno   2 0 1 −6 0 A =  1 0 0 −1 −6  0 1 −1 −1 0 La matrice completa A|b sar` a 2 0 A|b =  1 0 0 1   0 b= 5  3  Definizione 39 Un sistema lineare Ax = b si dice omogeneo se b = 0.

Esempi di matrici a scalini  0  0   0 0  3  0   0   0 0  0  0   0 0  1  0   0   0 0 1 0 0 0 1 1 0 0 0 0 2 0 0 0 0 0 0 0  6 −1 6 −1   −3 4  0 12  9 1 6 −1   −3 4   0 2  0 0  6 −1 6 −1   −3 4  0 12  6 1 6 −1   −3 4   0 12  0 0 Esempi di matrici non a scalini 1 1 2 0 1 1 2 2 0 0 2 0 0 1 2 0 0 0 Proposizione 43 Data una qualsiasi matrice. si pu` ottenere da essa. una matrice a scalini. Definizione 42 Il primo elemento non nullo di ogni riga non nulla di una matrice a scalini si dice pivot. Con operazioni di tipo III possiamo fare in modo che tutti gli elementi dal secondo in poi della j-esima colonna siano nulli.e. Con un scambio opportuno di righe possiamo fare in modo che il primo elemento della j-esima colonna sia diverso da zero. Dimostrazione. Esempio   0  0   0 0  6 −1 6 −1   −3 4  10 12  0 6 −1 2 0 0  II − I  0 −15 6  III − 2I 0 10 12 1 1 2 0 0 2 0 0 16 0 1  0 0   0 0 0 0 . Per induzione sul numero di righe della matrice. Sia j l’indice della prima colonna non nulla. Q. Ripetiamo il procedimento sulla matrice ottenuta togliendo la prima riga.d.Definizione 41 Una matrice si dice a scalini (per righe) se soddisfa la seguente propriet`: a se in una riga i primi k elementi sono nulli allora la riga successiva (se esiste) o ` tutta nulla o e almeno i primi k + 1 elementi sono nulli. con operazioni elementari o di riga di tipo I e III.

Consideriamo il seguente sistema lineare   x + 2y + z − 2w − u = 0 z − w − 3u = 1  w+u=2 x y 1 2  0 0 0 0  z 1 1 0 Scriviamo la matrice associata e scriviamo le incognite sopra la matrice w u  −2 −1 0 −1 −3 1  1 1 2 Le variabili che corrispondono ai pivots sono x. w. Supponiamo che non ci siano pivots nell’ultima colonna della matrice completa. Dall’ultima equazione w + u = 2 ricavo w in funzione di u (e quindi di y. u: x = −2y − 3 − 2u + 4 − 2u + u = −2y − 3u + 1 17 . si scrivono le incognite corrispondenti ai pivots in funzione di quelle non corrispondenti ai pivots. z. sostituendo l’espressione gi` trovata di w in funzione di y. ricavo anche x in funzione a di y. quelle che non corrispondono ai pivots sono y. 0  0   0 0 1 0 0 0  0 6 −1 2 0 0   0 −15 6  2 IV + 3 III 0 0 16 4. partendo dall’ultima. Chiamiamo “incognite corrispondenti ad un pivot” quelle che “stanno sopra un pivot” e “incognite non corrispondenti ad un pivot” le altre. u. Sfruttando le equazioni. u: z = 2 − u + 3u + 1 = 3 + 2u Dalla prima equazione ricavo x = −2y − z + 2w + u da cui sostituendo l’espressione gi` trovate di w e z in funzione di y. u): w =2−u Dalla penultima equazione z − w − 3u = 1 ricavo z = w + 3u + 1 e. Voglio scrivere le variabili che corrispondono ai pivots in funzione delle variabili che non corrispondono ai pivots. u. Esempio. ricavo anche z in funzione di a y. u.3 Metodo per risolvere un sistema lineare quando la sua matrice completa ` a scalini e Si scrive la matrice completa del sistema e si scrivono le incognite sopra essa.

Dimostrazione. Q. Esempio Consideriamo il sistema lineare  y+z−w−u=1  x + y + z − 3w − u = 0  2x + 2y + 3z − 5w − u = −1  −1 1 −1 0  −1 −1 riga.e. Facendo operazioni elementari di riga. facendo operazioni elementari di  1 1 1 −3 −1  0 1 1 −1 −1 2 2 3 −5 −1 18 Scriviamo la matrice associata al sistema  0 1 1 −1  1 1 1 −3 2 2 3 −5 . si riduce la matrice completa del sistema in forma a scalini. Vediamo adesso come si risolve un sistema lineare qualsiasi.4. l’insieme delle soluzioni ` uguale all’ insieme delle soluzioni ı e del sistema iniziale per l’Osservazione 44. Si risolve il sistema lineare associato alla matrice cos` ottenuta. Fare un’operazione elementare di riga di tipo III (moltiplicare una riga per uno scalre non nullo) sulla matrice associata al sistema significa moltiplicare entrambi i membri di un’equazione del sistema per uno scalare non nullo e questo ovviamente non altera l’insieme delle soluzioni. Fare un’operazione elementare di riga di tipo I (scambio di due righe) sulla matrice associata al sistema significa scambiare due equazioni del sistema e questo ovviamente non altera l’insieme delle soluzioni. Anzi tutto si scrive la matrice completa associata al sistema. Infine fare un’operazione elementare di riga di tipo II (sommare ad una riga un multiplo di un’altra riga) sulla matrice associata al sistema significa sommare ad un’equazione un multiplo di un’altra equazione (membro a membro) e questo non altera l’insieme delle soluzioni. u ∈ R                        +     Metodo per risolvere un qualsiasi sistema lineare Osservazione 44 Facendo operazioni elementari di riga sulla matrice completa di un sistema lineare non si altera l’insieme delle soluzioni.d.4 che si pu` anche scrivere o          y        Quindi l’insieme delle soluzioni del sistema lineare   −2y − 3u + 1    y   3 + 2u   −u + 2    u −2 1 0 0 0      +u      −3 0 2 −1 1  ` e     | y.  0 II 1  I −1 Riduciamo a scalini. u ∈ R         1 0 3 2 0     | y.

y. Dall’ultima equazione ricaviamo e z = −w − u − 1 Dalla seconda equazione ricaviamo y = −z + w + u + 1 da cui sostituendo y = w + u + 1 + w + u + 1 = 2w + 2u + 2 Dalla prima equazione ricaviamo x = −y − z + 3w + u da cui sostituendo x = −2w − 2u − 2 + w + u + 1 + 3w + u = −1 + 2w Quindi l’insieme del soluzioni ` e  −1 + 2w     2u + 2w + 2   −u − w − 1   w    u           | w. il numero dei pivots ` ovviamente minore o uguale e al numero delle righe che ` uguale al numero delle equazioni del sistema. Q. u ∈ R        Osservazione 45 Un sistema lineare omogeneo ha sempre una soluzione: quella nulla. cio` w. z in funzione di quelle che e non corrispondono ai pivots.) Osservazione 46 Un sistema lineare omogeneo con pi` incognite che equazioni ha una soluzione u non nulla. Quando riduco la matrice completa a scalini. u. Scriviamo le incognite sopra la matrice a scalini cos` ottenuta: ı  x 1  0 0 y z w 1 1 −3 1 1 −1 0 1 1 1 1  0 1 0 0 1 −3 1 −1 1 1  −1 0 −1 1  1 −1 III − 2I u  −1 0 −1 1  1 −1 Ricaviamo adesso le variabili che corrispondono ai pivots. il quale per ipotesi e ` minore del numero dell incognite. (Infatti un sistema linare omogeneo si pu` scrivere nella forma Ax = 0 e 0 ` una soluzione infatti o e A0 = 0.d. Quindi il numero dei pivots ` minore del numero delle e e incognite. 19 . cio` x. Dimostrazione. Pertanto ci sono necessariamente delle variabili non corrispondenti a pivots.e. quindi assegnando dei valori non nulli ad esse ottengo una soluzione non nulla.

Per la e propriet` distributiva del prodotto di matrici A(x + y) = Ax + Ay = b + 0 = b. Viceversa se non ci sono pivots nell’ultima colonna allora trovo le soluzioni con il metodo illustrato sopra. e Dimostrazione.d. Voglio dimostrare che x + y ∈ S1 cio` che A(x + y) = b.. Supponiamo che il sistema Ax = b abbia una soluzione. Definisco y = x − x. Sia y ∈ Rn tale che Ay = 0. Q. NOTA. che ovviamente non ha soluzioni in e quanto p = 0. Dimostriamo anzitutto che S2 ⊂ S1 . Teorema 48 Teorema di struttura delle soluzioni di un sistema lineare Sia A ∈ M (m × n. Basta dimostrare che un sistema lineare la cui matrice completa ` a scalini ha soluzioni se e solo se non ci sono pivots nell’ultima colonna. a Dimostriamo adesso che S1 ⊂ S2 . 20 . Sia S1 := {x ∈ Rn | Ax = b} e S2 := {x + y| y ∈ Rn e Ay = 0}. riducendo a scalini con operazioni elementari di riga la matrice completa. Tutto quello che ` stato detto in questo capitolo pu` essere enunciato sostituendo C a e o R. Allora {x ∈ Rn | Ax = b} = {x + y| y ∈ Rn e Ay = 0} Dimostrazione. Occorre dimostrare che esiste y ∈ Rn tale che Ay = 0 e x = x + y. + 0xn = p.e. Q. non ci sono pivots nell’ultima colonna. R) e sia b ∈ Rm . Ovviamente Ay = 0.. Sia x ∈ S1 .d. Ma questo ` ovvio in quanto se c’` un pivot nell’ultima colonna (chiamiamolo p) vuol dire che e e nel sistema lineare c’` l’equazione 0x1 + . Sia x una soluzione del sistema lineare Ax = b.Osservazione 47 Un sistema lineare ha soluzione se e solo se.e. infatti Ay = A(x − x) = Ax − Ax = b − b = 0..

1 Spazi vettoriali Definizione e prime propriet` a Definizione 49 Sia V un insieme dotato di due operazioni. u ∈ V (propriet` associativa della somma) a 2) v + w = w + v ∀v. ottengo e a 0V = 0R v + (0R v + w) e quindi. Si ha: 0R v = (0R + 0R )v = 0R v + 0R v (la prima uguaglianza segue dal fatto che 0R + 0R = 0R . per definizione di opposto. cio` la propriet` distributiva rispetto alla somma in R). Osservazione 51 In ogni spazio vettoriale V si ha che 0R v = 0V ∀v ∈ V Dimostrazione. w ∈ V (propriet` distributiva rispetto alla somma in V ) a 7) (λµ)v = λ(µv) ∀λ.e. Si dice che V ` uno spazio vettoriale su R se valgono le seguenti propriet`: e a 1) (v + w) + u = v + (w + u) ∀v. l’altra (detta prodotto per scalari) · : R × V → V . e Quindi z = z ′ . µ ∈ R ∀v ∈ V (propriet` distributiva rispetto alla somma in R) a 6) λ(v + w) = λv + λw ∀λ ∈ R ∀v. vedere l’osservazione o e immediatamente seguente questa definizione. e Inoltre si ha che z + z ′ = z ′ in quanto z ` elemento neutro per la somma. Dimostrazione.d. una (detta somma) + : V ×V → V . lo denoteremo quindi 0V e lo chiameremo zero di V . la seconda segue dalla propriet` 5 a degli spazi vettoriali. w ∈ V (propriet` commutativa della somma) a 3) Esiste un elemento neutro per la somma. Q. 0V = 0R v + 0V 21 . w. e a Sia w un opposto di 0R v (esite per la propriet` 4 degli spazi vettoriali). µ ∈ R ∀v ∈ V 8) 1v = v ∀v ∈ V Osservazione 50 In ogni spazio vettoriale V esiste un solo elemento neutro per la somma.) 4) Per ogni v ∈ V esiste un opposto. in quanto sono entrambi uguali a z + z ′ . Siano z e z ′ due elementi neutri per la somma di V Si ha che z + z ′ = z in quanto z ′ ` elemento neutro per la somma. applicando la definizione di opposto al primo membro e la propriet` 1 di spazio vettoriale a cio` la propriet` associativa della somma al secondo membro. Sommando w al primo a membro e all’ultimo membro della catena di uguaglianze sopra.5 5. cio` un elemento v ′ ∈ V tale che v + v ′ = v ′ + v = 0V e 5) (λ + µ)v = λv + µv ∀λ. cio` esiste un elemento z di V tale che z+v = v+z = e v ∀v ∈ V . si ottiene 0R v + w = (0R v + 0R v) + w e quindi. (Si pu` dimostrare che tale elemento ` necessariamente unico.

. Osservazione 53 Per qualsiasi v ∈ V .da cui 0V = 0R v Q. Osservazione 52 Per qualsiasi v ∈ V l’elemento (−1)v ` un opposto di v... in particolare v ′ + v = v ′′ + v Sommando ad entrambi i membri un opposto. e Dimostrazione. di v . si ottiene (v ′ + v) + w = (v ′′ + v) + w e quindi v ′ + (v + w) = v ′′ + (v + w) Pertanto v ′ + 0V = v ′′ + 0V da cui v ′ = v ′′ . . Q. Definizione 55 Sia V uno spazio vettoriale. . m ≥ 1.. la seconda dalla propriet` a a distributiva rispetto alla somma in R.. w. ≥ 1.e. ..e.. vk con coefficienti λ1 . n.. Siano v1 . l’insieme M (m×n. λk ∈ R. Sia n ∈ N. n.e.. + λk vk 22 . (−1)v + v = (−1)v + 1v = (−1 + 1)v = 0R v = 0V (la prima uguaglianza segue dalla propriet` 8 degli spazi vettoriali.d. e Esempio basilare. esiste un solo opposto di v (e quindi per l’osservazione precedente ` (−1)v). λk il vettore λ1 v1 + .. l’insieme Rn con le operazioni di somma e di prodotto per uno scalare definite nel capitolo 1 ` uno spazio vettoriale. .. m ∈ N.d. l’ultima dall’osservazione precedente).. Siano v ′ e v ′′ due opposti di v..d. Q. quindi v ′ + v = 0V e v ′′ + v = 0V . Esempio basilare. vk ∈ V e λ1 . e Definizione 54 Gli elementi di uno spazio vettoriale si dicono vettori.. Siano n. Si definisce combinazione lineare di v1 . e Dimostrazione. R) con le operazioni di somma e di prodotto per uno scalare definite nel capitolo 1 ` uno spazio vettoriale..

e • S ` chiuso per la somma. per le propriet` 6) e 7) degli spazi vettoriali. vk . λ1 v1 + .... λ1 v1 + e . + λk vk | λ1 . e • S ` chiuso per la moltiplicazione per scalari..) e e Dimostrazione. si ottiene γ(λ1 v1 + . si ottiene (λ1 v1 + . + λk vk ... w ∈ S (chiusura per la somma) • λv ∈ S ∀λ ∈ R. si ha che OR v = 0V . + λk vk | λ1 . + µk vk ) che... ` uguale a a e (γλ1 )v1 + ........ .e.. + λk vk e µ1 v1 + e .. vk ∈ V .. per la propriet` e a di chiusura per la moltiplicazione per scalari. + λk vk ) + (µ1 v1 + . + λk vk ) che. quindi contiene un elemento v... per le propriet` 1)..2 Sottospazi vettoriali Definizione 56 Sia V uno spazio vettoriale su R.. + (λk + µk )vk che ` un elemento di S... infatti. quindi 0V ∈ S. Un sottospazio di V ` un sottoinsieme non e vuoto S di V tale che • v + w ∈ S ∀v.... e Proposizione 59 Sia V uno spazio vettoriale. Essendo un sottospazio.... λk ∈ R} ` un sottospazio vettoriale di V .. Osservazione 58 Un sottospazio vettoriale S di uno spazio vettoriale V con le operazioni di somma e di prodotto per scalari ereditate da V ` lui stesso uno spazio vettoriale... . vk e si legge “span di v1 .. Dimostrazione.. Allora.. Ma... (In genere ` denotato v1 . vk ”. cio` e {λ1 v1 + .5. L’insieme delle combinazioni lineari di v1 . S ` non vuoto.. infatti la somma di due matrici simmetriche ` simmetrica e il prodotto fra uno e scalare e una matrice simmetrica ` ancora una matrice simmetrica. . e Osservazione 57 Un sottospazio vettoriale S di uno spazio vettoriale V contiene 0V .. e Q. L’insieme delle matrici simmetriche n × n ` un sottospazio vettoriale dell’insieme delle e matrici n × n. Siano v1 .. + (γλk )vk che ` un elemento di S. moltiplicando un elemento di S.5) degli spazi vettoriali. per l’osservazione 51.. sia k un qualsiasi numero naturale positivo. λk ∈ R}. . per uno scalare γ.. + µk vk . ` uguale a a e (λ1 + µ1 )v1 + . si deve avere che OR v ∈ S. . ∀v ∈ S (chiusura per la moltiplicazione per scalari). Q.2).. 23 . Esempio..d.. Ovviamente S ` non vuoto. Sia S = {λ1 v1 + .e...d. .. infatti sommando due elementi di S.

. e Q. .vk ∀λ ∈ R − {0} (cio` il sottospazio e non cambia se moltiplico un generatore per uno scalare non nullo) 3) v1 ..d. vi +λvj . Siano v1 . . .. sia k un qualsiasi numero naturale positivo.. vj+1 . .... vj+1 . vi . vi+1 . vk ∈ V .. vi−1 .. vj . . λvi . vj−1 . .. . . potrei facilmente trovare una combinazione con coefficienti non tutti nulli dell’insieme di vettori (basta prendere gli stessi coefficienti per i vettori del sottoinsieme e coefficienti nulli per gli altri vettori). . vk ` un e insieme di vettori linearmente indipendenti se l’unica loro combinazione lineare uguale a 0 ` e quella con tutti i coefficienti uguali a 0. vk = v1 . vi−1 .. vk ` un e insieme di vettori linearmente dipendenti se esistono λ1 . vi+1 . 24 . Si dice che un insieme di vettori v1 . e Osservazione 65 Un sottoinsieme di un insieme di vettori linearmente indipendenti ` ancora un e insieme di vettori linearmente indipendenti Dimostrazione. vj+1 . Q..e. ... vj . basi. vi+1 . vi−1 . vk = v1 .e. . vj . . e • ` chiuso per la moltiplicazione per scalari infatti se x ∈ S.. in quanto se avessi una combinazione lineare con coeffie cienti non tutti nulli del sottoinsieme di vettori. dimensione Definizione 62 Sia V uno spazio vettoriale.. vi .. perch` A0 = 0) e e e • ` chiuso per la somma.. vi−1 .. vi+1 .. quindi Ax = 0 e Ax′ = 0.... vi .. vj−1 .. vi+1 . + λk vk = 0 Definizione 63 Sia V uno spazio vettoriale... Vogliamo dimostrare che S := {x ∈ Rn | Ax = b} ` un sottospazio vettoriale se e solo se b = 0....... vi−1 ...Proposizione 60 Sia V uno spazio vettoriale... . vi−1 .. vi+1 . λk ∈ R non tutti nulli tali che λ1 v1 + . vi .... .. Proposizione 61 L’insieme delle soluzioni di un sistema lineare in n incognite ` un sottospazio e vettoriale di Rn se e solo se il sistema lineare ` omogeneo. Scriviamo il nostro sistema lineare nella forma matriciale Ax = b. vk (cio` il sottospazio non cambia cambiando l’ordine dei generatori) e 2) v1 . vk = v1 . insiemi di vettori linearmente indipendenti.. . vj+1 .. e Se S ` un sottospazio vettoriale allora deve contenere 0 quindi A0 = b quindi b = 0. allora anche x + x′ ∈ S perch` A(x + x′ ) = Ax + Ax′ = 0 + 0 = 0. Si dice che un insieme di vettori v1 .. infatti se x e x′ ∈ S.. vj−1 .. vk ∀λ ∈ R (cio` il sottospazio non cambia se ad un generatore sommo un multiplo di un altro gene eratore).. e Dimostrazione. 5.3 Generatori.. 1) v1 ... vj . L’affermazione ` ovvia.. Un insieme di vettori di V si dice un insieme di generatori per V se ogni elemento di V ` una loro combinazione lineare.. ..d.. .. e Viceversa se b = 0.. vj−1 ... Definizione 64 Sia V uno spazio vettoriale. quindi Ax = 0 e λ ∈ R allora anche e λx ∈ S perch` A(λx) = λAx = λ0 = 0. Dimostrazione. S = {x ∈ Rn | Ax = 0} ed ` un sottospazio vettoriale infatti: e • ` non vuoto (infatti contiene 0..... Per esercizio.. ... .

Osservazione 66 Se {v1 . . e Teorema 68 Sia V uno spazio vettoriale. ws } un insieme di generatori di V . Sia {w1 ... .. vi .k i=1. . Consideriamo la combinazione lineare xi vi = i=1. e Dimostrazione.. ..j = 0 i=1..s i=1... ..s λi....... k} tale che vi si pu` scrivere come combinazione lineare di v1 .. Quindi si ottiene xi vi = 0 i=1. k.s i=1... ws } ` un insieme di generatori di V ... vk } un insieme di vettori indipendenti di V . 25 . vk } e {w1 . . Dato che {w1 ... esistono λi..k xi j=1.. Un insieme di vettori di V si dice una base di V se ` un insieme di vettori linearmente indipendenti che genera V ..... vk ... Quindi e k ≤ s... vk } ` un insieme di vettori indipendenti di V .k xi λi. ...k per j = 1....j wj = i=1.λk vk = 0 Supponiamo λi = 0.. esistono λ1 .. vk } ` un insieme di vettori dipendenti di V allora esiste i ∈ e {1. . Corollario 69 Sia V uno spazio vettoriale...s xi λi. Allora k ≤ s.d.... λk ∈ R non tutti nulli tali che λ1 v1 + .... − vi−1 − vi+1 − .. . .. Definizione 67 Sia V uno spazio vettoriale... o Dimostrazione. Allora k = s.. Q....j )wj Se per assurdo k > s allora il sistema lineare omogeneo nelle incognite xi dato dalle j equazioni: xi λi... s ha una soluzione non nulla (x1 .........e. Dato che v1 ....k contraddicendo l’ipotesi per cui {v1 ..j wj = ( j=1.. .s λi..... Sia {v1 . Siano {v1 ...j ∈ R tali che vi = j=1.... ws } due basi di V .. ... .j wj = = j=1. − vn λi λ1 λ1 λi Q. ......d..k xi λi.. Allora vi = − λ1 λi−1 λi+1 λn v1 − .j wj per i = 1.......... ... vk sono un insieme di vettori linearmenti dipendenti. vi+1 .. xk ) per l’osservazione 46.k j=1......e...

..... si pu` trovare un sottoinsieme di essi che forma una base di V .... vk } ` una base di V . che ` e assurdo). vk si ottiene che {v1 ...... λi vi + λk i=1.. vk } non ` una base di V allora ovviamente v1 . vk } sono indipendenti segue λi = 0 per i = 1. Dimostrazione. vk generano uno spazio vettoriale V ......... λk tali che v= i=1.. dato che v1 .. .. se k = n.. vk . . .. vk generano V . vk } non pu` essere una base e quindi per l’Osservazione posso trovare o un vettore vk+1 tale che {v1 .e. premetto la seguente osservazione Osservazione.k+1 λi vi = 0 per certi λi ∈ R.d... vk . vogliamo dimostrare λi = 0 per i = 1.k−1 ci vi . sia v ∈ V ... Se k < n allora {v1 . e se invece k < n ` sempre possibile trovare {vk+1 . infatti: supponiamo i=1..k−1 26 . . Per dimostrare la restante parte della tesi.. vk+1 } sono ancora indipendenti... Allora i rimanenti e formano ancora un insieme di generatori per V (infatti supponiamo ad esempio che sia vk combinazione lineare di v1 ... Se {v1 .. allora k ≤ n.. vk = V e scegliendo e vk+1 non contenuto in v1 . Teorema 71 Completamento di vettori indipendenti ad una base... . per il Teorema 68. Il fatto che k ≤ n segue dal Teorema 68.. esistono λ1 .. vk } ` una base di V (se non lo fosse otterrei un e insieme di k + 1 vettori indipendenti quindi.k−1 ci vi per certi ci . si avrebbe k + 1 ≤ n. Teorema 72 Estrazione di una base da vettori generatori Se v1 .. ..k λi vi si ottiene ci vi i=1. .. inoltre se k = n allora {v1 .. per il corollario a appena enunciato.. . Quindi per l’osservazione..... ..... vk } che ` combinazione lineare dei rimanenti.. . vk } in uno spazio vettoriale V di dimensione n. .. si ha λk+1 = 0 (altrimenti vk+1 sarebbe combinazione lineare dei precedenti) quindi rimane i=1.. cio` non sono indipendenti.. . k + 1... .Dato che due basi di uno stesso spazio vettoriale hanno la stessa cardinalit`.. vn } formano una base e di V . . . Q.. vn } tali che {v1 ... {v1 .... Continuando in questo modo aggiungiamo n − k vettori fino a che non troviamo una base. vk−1 : vk = i=1. .. . possiamo definire: a Definizione 70 Si dice dimensione di uo spazio vettoriale la cardinalit` di una sua base......k−1 sostituendo a vk l’espressione v= i=1.... vk+1 } sono ancora indipendenti. vk } non ` gi` una base.... k. esiste e a e un vettore dell’insieme {v1 . Dato un insieme di vettori linearmente indipendenti {v1 . .......k λi vi = 0 e siccome {v1 . Se {v1 .. o Dimostrazione. . per l’Osservazione 66.

. quindi coincide con {v1 . . .. Notazione 76 Sia Rk [x] l’insieme dei polinomi in x a coefficienti in R di grado minore o uguale a k. quindi v1 ..j }i=1. . Q.. vk } ` una base di V .d. Sempre per il Teorema 71.. . R) e si dimostra e anche facilmente che sono indipendenti...d.m.... vn } una base.e. R) e di Rk [x] ai..j la matrice m × n con il coefficiente i. j=1.....j quindi l’insieme {Ei. Essendo linearmente indipendenti in S sono anche linearmente indipendenti in V . k ≤ n.... vk }.j Ei.... vn sono vettori generatori di V .. . vk−1 . . si ha che v appartiene a S.. L’insieme {Ei. Osservazione 77 La dimensione di Rk [x] ` k + 1.e. e Ripetendo il procedimento sui rimanenti.d. .. x. cio` e {a0 + a1 x + .. Essa deve essere costituita da n elementi.. R). j=1..n ` un insiem di generatori per M (m × n. Q. vk−1 sono generatori per V ). alla fine si arriva ad estrarre una base da {v1 . vn }. 5.j }i=1. R) si ha e A= i=1.... vk } una base di S.. j=1..4 Osservazione 75 La dimensione di M (m × n.. .k−1 e quindi v ` combinazione lineare di v1 . vk e quindi. vk sono elementi di S e una combinazione lineare di elementi di S ` ancora un elemento di S (essendo S un e sottospazio vettoriale).e.. Q. Dimostrazione. se k = n allora {v1 . Proposizione 74 Sia V uno spazio vettoriale di dimensione n.. Teorema 73 Sia S un sottospazio vettoriale di dimensione k di uno spazio vettoriale V di dimensione n... allora formano una base. xk } ` una base di Rk [x]. . e Dimostrazione. v pu` e o essere scritto come combinazione lineare di v1 .. quindi...d. allora k ≤ n..m. .e.. L’insieme {1. Sia {v1 . .. dato che v1 . Q. e Dimostrazione..d... ... infatti se A ∈ M (m × n. j uguale a 1 e tutti gli altri nulli. quindi.. + ak xk | a0 .n ` una base di M (m × n. Dimostrazione Si pu` estrarre da {v1 .= (λi + λk ci )vi i=1.m.e....... Se k = n allora S = V . .. e 27 Q. Se v1 ..n Dimensione di M(m × n... per il Teorema 71. Sia Ei... se v ∈ V . R) ` mn.. (dato V ha o dimensione n). ak ∈ R} E’ uno spazio vettoriale con la usuale somma di polinomi e prodotto per uno scalare.

 1  = 0 2 4 2 0 2       3 0   = t  0  + s  1  | t. Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di colonne. A(n) e il sottospazio di Rn generato dalle righe di A A(1) . 2 . 6 Lo spazio generato dalle righe ` il seguente sottospazio di R4 : e           0 3 0 0 3  0   1   0   1   2             3 . ma in seguito dimostreremo che. A(m) Ovviamente questi due spazi non sono uguali. 1 ..5 Un esempio fondamentale: lo spazio generato dalle colonne di una matrice (range) e lo spazio generato dalle righe Sia A una matrice m × n a coefficienti in R. e Esempio... 2  = 1 −3 2 1 −3       3 0         1  0    + s   | t. . Ad essa si possono associare due spazi vettoriali: il sottospazio di Rm generato dalle colonne di A (che a volte viene chiamto “range di A”) A(1) . 1  =  0 . 2 . sorpendentemente. 4  =  3 .. la loro dimensione ` la stessa (e chiameremo tale numero rango della matrice)...5. s ∈ R   0 2   3 Quindi per esempio  3  appartiene a tale spazio. s ∈ R = t  2  3        −3 1   3  −1   Quindi per esempio   1  appartiene a tale spazio. 28 . −4 Osservazione 78 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni elementari di righe. . Sia 3 A= 0 0  0 3 1 2 2 4  −3 1  2 Lo spazio generato dalle colonne ` il seguente sottospazio di R3 : e             3 0 3 −3 3 0  0 .

in particolare studieremo la loro dimensione (detta rango). R). e Riprenderemo nel capitolo 5 lo studio dello spazio generato dalle colonne di una matrice e dello spazio generato dalle righe.Dimostrazione. Inoltre lo spazio generato dalle righe di AB ` contenuto nello spazio generato dalle righe di B. Allora lo spazio generato dalle colonne di AB ` contenuto nello spazio generato dalle colonne di e A. Tutto quello che ` stato detto in questo capitolo pu` essere enunciato sostituendo C a e o R. R) e B ∈ M (n × k.e. 29 . NOTA.d. Osservazione 79 Sia A ∈ M (m × n. Segue immediatamente dalla Proposizione 60. Q.

Si dice che f : V → W ` una funzione e lineare se e solo se valgono le seguenti propriet`: a a) f (v1 + v2 ) = f (v1 ) + f (v2 ) ∀v1 . quindi f −1 (0W ) = {0V }. Sia v ∈ Ker(f ).d. Sia f : V → W una funzione lineare. relazione fondamentale Definizione 80 Siano V e W due spazi vettoriali su R. cio` che e f (λv) = 0. e Supponiamo che Ker(f ) = {0V }. Siano v1 e v2 due elementi di Ker(f ). Allora f (0V ) = 0W . Relazione fondamentale.c.1 Applicazioni lineari Applicazioni lineari.6 6. Osservazione 84 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare. e e Dimostrazione. in particolare f −1 (0W ). cio` che f (v1 + v2 ) = 0. cio` se e e e solo se l’immagine inversa f −1 (w) di un qualsiasi elemento w di Im(f ) ` costituita solo da un e elemento. f (0V ) = f (0R 0V ) = 0R f (0V ) = 0W Q. f (λv) = λf (v) = λ0V = 0V .e. Si definisce nucleo (in inglese kernel) di f il seguente sottoinsieme di V : Ker(f ) = {v ∈ V | f (v) = 0} Si definisce immagine di f il seguente sottoinsieme di W : Im(f ) = {w ∈ W | ∃v ∈ V t. Allora f ` iniettiva se e solo se Ker(f ) = {0V }. pu` o contenere solo 0V .e. Siano V e W due spazi vettoriali su R con dim V < +∞. Allora dim Ker(f ) + dim Im(f ) = dim V 30 . devo dimostrare che λv ∈ Ker(f ). Teorema 85 . Dato che f ` lineare. Dato che f (v1 ) = f (v2 ) si ha che f (v1 ) − f (v2 ) = 0W e quindi. Voglio dimostrare che v1 + v2 ∈ Ker(f ). e si deve avere v1 − v2 = 0V . Quindi v1 − v2 ∈ Ker(f ). Dimostrazione. ∀λ ∈ R (omogeneit`) a Definizione 81 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare. Quindi v1 = v2 .d. immagine. quindi Ker(f ) = {0V }. quindi f (v1 ) = 0V e f (v2 ) = 0V . quindi f (v) = 0V e λ ∈ R. ma f −1 (0W ) ` Ker(f ). e Q. Ricordo che f ` iniettiva se e solo se f (v1 ) = f (v2 ) implica v1 = v2 . che contiene sicuramente 0V . Allora Ker(f ) ` un sottospazio vettoriale di V e Im(f ) ` un sottospazio vettoriale di W . v2 ∈ V (additivit`) a b) f (λv) = λf (v) ∀v ∈ V . Supponiamo che f sia iniettiva. Osservazione 83 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare. Voglio dimostrare che se v1 e v2 sono due elementi di V e f (v1 ) = f (v2 ) allora v1 = v2 .e. dato che f ` lineare. Q. nucleo . f (v1 − v2 ) = 0W . e Dimostrazione. f (v) = w} = {f (v)| v ∈ V } Osservazione 82 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare. Dato che Ker(f ) = {0V }. Dato che f ` lineare si ha che e e f (v1 + v2 ) = f (v1 ) + f (v2 ) = 0V + 0V = 0V .d.

n.d... Siano k = dim Ker(f ). Dimostrazione..n λi vi − µj vj = 0 j=1.n Pertanto w = f (v) = f ( i=1. le due espressioni coincidono. λn ∈ R tali che v = i=1. ... .... 31 ..k = λi f (vi ) i=k+1..... vn }. .... n = dim V ... . Dato che {v1 .e. Vogliamo dimostrare che dim Im(f ) = n − k.n λi g(vi ) ma dato che f (vi ) = g(vi ) i = 1.. • Dimostriamo adesso che f (vk+1 ). n come volevamo. .. g due funzioni lineari... .. n tali che λi f (vi ) = 0 i=k+1. vk . Voglio vedere che f (v) = g(v). a f( i=k+1...n f (vi )=0 per i=1.. Se f (vi ) = g(vi ) i = 1.. in particolare λi = 0 per i = k + 1.. Q.. Sia {v1 . ... .e..k µj vj da cui i=k+1....... • Dimostriamo anzitutto che f (vk+1 ).n λi vi appartiene a Ker(f ) e quindi si pu` scrivere come combinazione lineare di v1 . ........n λi vi .. f (vn ) sono linearmente indipendenti. Proposizione 86 Siano V e W due spazi vettoriali su R e sia {v1 . ... . n......... Dato che f ` lineare e f (v) = f ( i=1. Q..n Allora. k tali che λi vi = i=k+1....n λi vi ) = i=1........ vn } una base di V ..n λi vi ) f lineare = λi f (vi ) i=1.n λi vi ) = i=1. Sia w ∈ Im(f ).n come volevamo. otteniamo che tutti i coefficienti della combinazione lineare sopra sono nulli... vn sono linearmente indipendenti.. Siano λi ∈ R i = k + 1... .n λi vi ) = 0 o e quindi i=k+1. . ...... .. Siccome {v1 . Basta dimostrare che gli n − k vettori f (vk+1 ). esistono λ1 .. Pertanto esistono coefficienti reali µj j = 1...d..k Dato che v1 ... esistono coefficienti reali λi tali e che λi vi v= i=1... per la linearit` di f .. f (vn ) generano Im(f ). allora esiste v in V tale che w = f (v). allora f = g. Sia v un qualsiasi elemento di V ..n λi f (vi ) Analogamente g(v) = g( i=1.n j=1....... Quindi f (v) = g(v). Siano f..... .. vk } una base di Ker(f ).... e completiamola ad una base di V {v1 . f (vn ) formano una base di Im(f )...Dimostrazione.... vn } ` una e base di V . vn } ` una base di V .

R).6.e. matrici a) (additivit`) fA (x + y) = A(x + y) a = Ax + Ay = fA (x) + fA (y) b) (omogeneit`) fA (λx) = A(λx) a prop 4 prod.e. R) tale che f = fA . .. per come si ` e e e e definita A. Allora l’immagine di fA ` generata dalle colonne di e A. Osservazione 90 Sia A ∈ M (m × n. ` proprio f (ej ). Tutto quello che ` stato detto in questo capitolo pu` essere enunciato sostituendo C a e o R.. prop. Sia A la matrice che ha come colonne rispettivamente f (e1 ). R).d.... f (en ). + A(n) xn | x1 . matrici = λAx = λfA (x) Q. xn ∈ R} = A(1) ... Proposizione 89 Sia f : Rn → Rm lineare. Definisco l’applicazione lineare associata ad A l’applicazione definita nel modo seguente: fA (x) = Ax Osservazione 88 fA ` lineare..2 Applicazioni lineari associate a matrici fA : Rn → Rm Definizione 87 Sia A ∈ M (m×n. 2 prod. . che.. 32 . e Dimostrazione. Im(fA ) = {fA (x)| x ∈ Rn } = {Ax| x ∈ Rn } = {A(1) x1 + .. A(n) Q. 86 basta dimostrare che f (ej ) = fA (ej ) j = 1.. Dimostrazione. Voglio dimostrare che f = fA .d.e. Dimostrazione. n. e Q. Ma questo ` ovvio in quanto fA (ej ) ` Aej cio` la j-esima colonna di A. allora esiste A ∈ M (m × n.. NOTA.. ..d. Per la Prop..

R). R). R) ∀C ∈ M (m × 0 C m. d ∈ R si definisce il determinante di A nel modo det(A) = ad − bc Pi` in generale per n ≥ 2 si definisce il determinante di A ∈ M (n × n. 4) Il determinante ` zero sulle matrici con due righe uguali. allora det(A) = λdet(A). (Le propriet` 1 e 2 sono dette in breve “il determinante ` una funzione multilineare delle righe”. B ∈ M (n × n. inversa di una matrice Determinante Definizione 91 Sia A ∈ M (n × n.j det(Aˆ  ) ı.. 6) Il determinante ` zero sulle matrici con una riga nulla.... n}.. c. (k) (k) (i) (i) 2) Moltplicando una riga di una matrice per uno scalare λ. R). e 3) Il determinante di una matrice cambia di segno se si scambiano due righe della matrice. se A ` ottenuta da A scambiando due righe. Se n = 1 e quindi A = (a) con a ∈ R si definisce il determinante di A nel modo seguente: det(A) = a Se n = 2 e quindi A = seguente a c b d con a. e ˜e ˜ cio` se A ` ottenuta da A moltiplicando una riga di A per λ.1 Determinante. il determinante ` moltiplicato per λ.) a e e 33 . R). a e la propriet` 3 ` detta in breve “il determinante ` una funzione alternante delle righe”. 2 3 Esempio. . rango. e 5) Sommando ad una riga un multiplo di un’altra riga il determinante non cambia.n (−1)i+j ai. 8) Le regole 1.. det = −14 4 −1  2 1 0 2 det  −3 2 2  = 2 det 1 1 1 7 1(−23) + 0(−5) = 24 + 23 = 47 2 7 − 1 det −3 2 1 7 + 0 det −3 2 1 1 = 2 · 12 − Proposizione 92 Propriet` del determinante a 1) det(A) = det(A′ ) + det(A′′ ) se A(i) = A′ = A′′ ∀i = k e A(k) = A′ + A′′ . definiamo det(A) = j=1.ˆ dove Aˆ  ` la matrice ottenuta da A togliendo la riga i-esima e la colonna j-esima (sviluppo per ı.. e A B 11) det = det(A)det(C) ∀A ∈ M (n × n. spazi generati da righe e colonne... 9) det(AB) = det(A)det(B) ∀A.ˆ e l’i-esima riga)..7 7. R) nel modo seguente: u fissiamo i ∈ {1. R) ∀B ∈ M (n × m. 10) Il determinante di una matrice triangolare ` il prodotto degli elementi sulla diagonale. cio` e ˜ ˜e det(A) = det(A) per qualsiasi A ∈ M (n × n. Dimostrazione omessa... R). 6 valgono anche per le colonne. b. e 7) det(A) = det(tA) ∀A ∈ M (n × n.

j2 + . e Siano j1 .. . Quindi il rango per colonne non cambia facendo operazioni elementari di colonne.j1 + ..j1 = 0 essendo un pivot.j2 + λ2 A2. Siano λ1 ... e Dimostrazione.. Allora rkr (A) ≤ min{m. Sia k il numero degli scalini cio` delle righe non nulle. A(m) ) Si definisce rango per colonne di A la dimensione del sottospazio di Rm generato dalle colonne di A rkc (A) = dim( A(1) . Analogamente rkc (A) ≤ min{m.d.... + λk Ak.j1 = 0) da cui λ1 = 0 in quanto A1... . A(n) ) Osservazione 94 Sia A ∈ M (m × n. = λk = 0... Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di colonne. λk ∈ R tali che λ1 A(1) + . Dimostrazione.. . n} Osservazione 95 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni elementari di righe. quindi ha dimensione ≤ n..j1 = 0 (in quanto A2. ricavo λ1 A1.... generato e da m elementi (le righe di A). Considerando i j2 -esimi coefficienti dell’uguaglianza 1. Segue immediatamente dalla Proposizione 60. Quindi il rango per righe non cambia facendo operazioni elementari di righe.j2 = 0 (1) 34 ...j1 = 0 cio` e λ1 A1. n} in quanto rkr (A) ` la dimensione di un sottospazio di Rn . ricavo λ1 A1.. Proposizione 96 Sia A una matrice a scalini allora rkr (A) ` uguale al numero degli scalini.. Si definisce rango per righe di A la dimensione del sottospazio di Rn generato dalle righe di A rkr (A) = dim( A(1) ..2 Spazi generati da righe e colonne e rango Definizione 93 Sia A ∈ M (m × n. + λk Ak.j1 = . = Ak.. + λk A(k) = 0 Voglio dimostrare che λ1 = .e.. jk gli indici delle colonne dove compaiono i pivots. quindi ha dimensione ≤ m. Considerando i j1 -esimi coefficienti dell’uguaglianza 1..7.. R). Per dimostrare la tesi basta dimostrare che le prime k righe sono indipendenti.. Q. R).

xk in funzione di xk+1 ..       .       . xn ) . R).F ondam. = λk = 0..d. Segue immediatamente dall’Osservazione 90..e. Sia k = rkr (A) che ` uguale a rkr (A′ ). . P rop.. ...                  0 .e.            . Q. Dimostrazione..      ...   0      .   ... .. Per trovare tale insieme di soluzioni devo scrivere le variabili che corrispondono ai pivots in funzione di quelle che non corrispondono ai pivots. se A ` una matrice a scalini ottenuta da A con operazioni elementari di riga.j2 = 0 (in quanto λ1 = 0 e A3. .e. xn ∈ R = xk+1  1  + .. Modulo riordinare le variabili. R).97 Oss..          . Proposizione 97 Sia A ∈ M (m × n.               ..j2 = 0 essendo un pivot.     xn 0 1 ′ Ker(fA ) = {x ∈ Rn | Ax = 0} {x ∈ Rn | A′ x = 0} quindi ha dimensione n − k Q. Allora dim(Ker(fA )) = n − rkr (A) Dimostrazione. Ovviamente che.  n 1 k+1         .e..98 Relaz.. = rkc (A) = dim(Im(fA )) n − dimKer(fA ) = rkr (A).. xk = fk (xk+1 . xn : x1 = f1 (xk+1 .... = Ak. . 35 Q..   ... . Q. Proseguendo analogamente ricaviamo λ1 = . Osservazione 98 Sia A ∈ M (m × n. xn )   | xk+1 .   ..j2 = . xn ∈ R xk+1                .   .. xn ) Quindi l’insieme delle soluzioni ` e   f (x . . Teorema 99 Sia A ∈ M (m × n.d.. + xn  0 | xk+1 .. Allora dim(Im(fA )) = rkc (A)....d. Allora rkr (A) = rkc (A) Dimostrazione. ... posso supporre che le e variabili che corrispondono ai pivots siano le prime k: x1 .   ..cio` e λ2 A2.... ` uguale a e e quindi all’insieme delle soluzioni del sistema lineare omogeneo con matrice incompleta A′ . . x )     .... ..j2 = 0) da cui λ2 = 0 in quanto A2.   .... . .d.   fk (xk+1 . Sfruttando le equazioni scrivo x1 . . xk .          . R).   .

. R) ⇔ rk(A) = n ⇔ det(A) = 0 Teorema 101 Sia A ∈ M (n × n... Teorema 102 (Criterio dei minori orlati).. A(n) . Sia  1 0 2 A= 0 2 1  −1 0 0 36  . 7.5 Metodo per calcolare l’inversa di una matrice Sia A ∈ GL(n. dire questi due sottospazi sono uguali equivale a dire che le loro dimensioni sono uguali. . xn ∈ R tali che x1 A(1) + .... Allora rk(A) ` k se e e solo se esite una sottomatrice k × k con determinante diverso da 0 e tutte le sottomatrici (k + 1) × (k + 1) contenenti tale sottomatrice hanno determinante uguale a 0 Dimostrazione omessa.. .. Questo equivale a dire che e e A(1) . . ottenendo cos` una matrice n × 2n: (A|In ) ı • fare operazioni elementari di riga sulla matrice (A|In ) fino ad ottenere una matrice la cui prima parte ` In . quindi il rango di A ` 2. b .7... . Dimostrazione omessa... A(n) . R).3 Il teorema di Rouch´-Capelli e Teorema 100 Teorema di Rouch´-Capelli. Sia A ∈ M (m × n. A(n) ⊂ A(1) . e e La matrice B cos` trovata ` l’inversa di A. + xn A(n) = b cio` se e solo se b ` combinazione lineare di A(1) .. R) e sia b ∈ Rm . Sia A ∈ M (m × n. ... R). Q... e 7. Il sistema e lineare Ax = b ha soluzione se e solo se rk(A) = rk(A|b).. R). ı e Esempio.. Dimostrazione... cio` del tipo (In |B).   1 0 2 3 −1  −2 0 −4 −6 2   Esempio.. b Dato che si ha sempre A(1) .e.. Un metodo per calcolare l’inversa ` il seguente (omettiamo la dimostrazione): e • affiancare ad A a destra la matrice In .4 Relazione fra rango e determinante A ∈ GL(n.. Sia A =   2 1 2 −6 2  0 1 −2 −12 4 Esiste una sottomatrice 2 × 2 (per esempio quella formata dalle prime due colonne e la seconda e terza riga) con determinante diverso da 0 e tutte le sottomatrici 3 × 3 che la contengono hanno determinante uguale a 0. A(n) = A(1) . .. A(n) .d. Il sistema lineare Ax = b ha soluzione se e solo se esistono x1 .

Affiancando ad A la matrice I3 ottengo  1 0  0 2 −1 0 2 1 0 1 0 0 1 0 0 La matrice Faccio adesso operazioni elementari di riga. 37 .   1 0 2 1 0 0  0 2 1 0 1 0  0 0 2 1 0 1   1 0 0 0 0 −1  0 2 0 −1 1 −1  2 2 0 0 2 1 0 1  1 0 0 0 0 −1  0 1 0 −1 1 −1 4 2 4 1 1 0 0 1 0 2 2 0 1 B =  −4 1 2  0 0  1 III + I I − III 1 II − 2 III   1 2 II 1 2 III  0 0 1 2 ` l’inversa di A. e  −1 1 −4  1 2 NOTA. Tutto quello che ` stato detto in questo capitolo pu` essere enunciato sostituendo C a e o R.

Il polinomio caratteristico di A ` definito nel modo e seguente: pA (t) := det(A − tI) dove I la matrice identit` n × n. 38 .e. unito al vettore zero. diagonalizzabilit` a Definizione 103 Sia V uno spazio vettoriale su R e f : V → V una applicazione lineare. a Esempio. Sia 1 2 A= 2 1 0 0  2 1−t 0   0 1  1 Allora 1−t pA (t) = det  2 0 Lemma 105 Un numero reale λ ` un autovalore di A se e solo se ` una radice (reale) del e e polinomio caratteristico di A. R). Dimostrazione λ ` un autovalore di A ⇔ ∃v ∈ Rn −{0} tale che Av = λv ⇔ ∃v ∈ Rn −{0} tale e T hm. a Definizione 104 Sia A ∈ M (n × n. In tal caso si dice che λ ` un autovalore di f e (l’autovalore di f relativo a v). e 0  Per semplicit` tratteremo soprattutto il caso degli autovalori ed autovettori di una matrice. coincide con Ker(A − λI) e si dice autospazio di A relativo a λ.8 Autovettori e autovalori. Osservazione 106 L’insieme degli autovettori di A con autovalore λ. Autovettori ed autovalori di una matrice quadrata A sono per definizione autovalori ed autovettori di fA . Sia 1 2 A= 2 1 0 0   0 1  1  1 Il vettore  1  ` autovettore di A di autovalore 3.101  0 1  = (1 − t)[(1 − t)(1 − t) − 4] = (1 − t)(t2 − 2t − 3) 1−t che (A − λI)v = 0 ⇔ Ker(A − λI) = {0} ⇔ A − λI non ` iniettiva e ⇔ det(A − λI) = 0 Q.d. Un vettore v ∈ V non nullo si dice autovettore di f se esiste λ ∈ R tale che f (v) = λv (quindi se f manda v in un suo multiplo). Quindi v ∈ Rn − {0} ` un autovettore di A con autovalore λ se vale e Av = λv Esempio.

da cui C −1 AC = D. 39 . Se A ` diagonalizzabile allora esiste C invertibile tale che C −1 AC = D con D e diagonale. C). quindi. Dimostrazione. . Allora pA (t) = det(A − tI) = det(C −1 BC − tI) = det(C −1 (B − tI)C) = = det(C −1 )det(B − tI)det(C) = det(B − tI) = pB (t) Q. Allora vale AC (j) = λj C (j) per ogni j = 1.e. Tale equazione equivale a AC (j) = λj C (j) per ogni j = 1. Con dimostrazione del tutto analoga alla dimostrazione del Lemma 105.. Definizione 110 Una matrice quadrata A si dice diagonalizzabile se ` simile ad una matrice e diagonale. Osservazione 112 Se A ` simile ad una matrice D diagonale.. si ha AC = CD. n dove λj ` il j-esimo elemento e della diagonale di D. definiamo C la matrice ottenuta affiancando gli elementi di tale base. allora sulla diagonale di D ape paiono gli autovalori di A (infatti A e D hanno lo stesso polinomio caratteristico). Supponiamo che A e B siano simili. Definizione 108 Due matrici A e B si dicono simili se esiste C invertibile tale che A = C −1 BC Lemma 109 Due matrici simili hanno lo stesso polinomio caratteristico. quindi esiste C tale che A = C −1 BC.. Come abbiamo gi` detto. gran parte dell’algebra lineare che abbiamo enunciato per l’insieme dei a numeri reali R.Definizione 107 Sia A una matrice quadrata e sia λ un suo autovalore. a Dimostrazione omessa. . determinante. Viceversa se esiste una base di autovettori per A. i) Provare che la similitudine una relazione di equivalenza. La dimensione di Ker(A − λI) si dice molteplicit` geometrica di λ. Moltiplicando a sinistra per C si ottiene AC = CD.) In particolare ben definito il determinante di una matrice quadrata a coefficienti complessi e una matrice quadrata a coefficienti complessi invertibile se e solo se il suo determinante ` non e nullo.. si dimostra che λ ∈ C ` radice del polinomio caratteristico di A se e solo se esiste v ∈ Cn tale che Av = λv. Proposizione 113 Per qualsiasi autovalore si ha che la molteplicit` geometrica ` minore o uguale a e della molteplicit` algebrica. Un tale e v si dice autovettore (complesso) di A con autovalore (complesso) λ. Esercizi... pu` essere in modo del tutto analogo enunciato per l’insieme dei numeri complessi o C (spazi vettoriali su C. applicazioni lineari. M (m × n. .... Dimostrazione.. quindi le colonne di C formano la base richiesta di autovettori. rango. n. λn sulla diagonale...d. ii) Provare che se A ` una matrice 2 × 2 allora pA (t) = t2 − tr(A)t + det(A) e iii) Provare che gli autovalori di una matrice triangolare sono gli elementi sulla diagonale. Cn . chiamando D la matrice che ha λ1 . a La molteplicit` di λ come radice del polinomio caratteristico si dice molteplicit` algebrica di a a λ.. Teorema 111 Una matrice A diagonalizzabile se e solo se esiste una base di autovettori di A.

inoltre si calcola facilmente che la molteplicit` geometrica di −1 ` 1. quella di 8 ` 1. 2) Sia 1 B= 2 0   2 0 1 1  0 −1  0  = (−1 − t)[(1 − t)(1 − t) + 4] = (−1 − t)(t2 − 2t + 5) 1 −1 − t Allora pB (t) = (−1 − t)[(1 − t)(1 − t) − 4] = (−1 − t)(t2 − 2t − 3) = −(t − 3)(t + 1)2 Quindi tutte le radici complesse del polinomio caratteristico sono reali. quindi e a e B non ` diagonalizzabile. a Dimostrazione omessa. inoltre si calcola facilmente che la molteplicit` geometrica di 2 ` 2. 1) Sia 1 A= 2 0  −2 1−t 0   −2 0 1 1  0 −1 Allora 1−t pA (t) = det  2 0 Quindi non tutte le radici complesse del polinomio caratteristico sono reali. Esempi. quindi e a e C ` diagonalizzabile. Esse sono t = 3 e t = −1. Esse sono t = 2 e t = 8. e 3) Sia 3 C = 2 3  1 4 3  1 2  5 Allora pC (t) = −t3 + 12t2 − 36t + 32 = (2 − t)2 (8 − t) Quindi tutte le radici complesse del polinomio caratteristico sono reali. e 40 .Teorema 114 Criterio necessario e sufficiente di diagonalizzabilit`. ovviamente la molteplicit` a e e a geometrica di 3 ` 1. Quindi A non ` e diagonalizzabile. ovviamente la molteplicit` a e e a geometrica di 8 ` 1. quella di −1 ` 2. Ovviamente la molteplicit` algebrica di 2 ` 2. Ovviamente la molteplicit` algebrica di 3 ` 1. a Una matrice A ` diagonalizzabile se e solo se tutti le radici complesse del polinomio caratteristico e di A sono numeri reali e per ogni autovalore (reale) di A la molteplicit` geometrica uguale alla a molteplicit` algebrica.

Sign up to vote on this title
UsefulNot useful