ELENA RUBEI

Dispense di
ALGEBRA LINEARE,
c.d.l. in Informatica, Universit`a di Firenze,
http://web.math.unifi.it/users/rubei/didattica.html
Contents
1 Notazioni fondamentali in matematica 3
2 I numeri complessi 4
3 R
n
e le matrici 6
3.1 Definizione di R
n
e di matrici, somma e prodotto per uno scalare . . . . . . . . 6
3.2 Vari tipi di matrici, trasposta, traccia . . . . . . . . . . . . . . . . . . . . . . . . 8
3.3 Prodotto scalare standard e norma . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.4 Prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.5 Matrici invertibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4 Sistemi lineari 15
4.1 Forma matriciale dei sistemi lineari, sistemi lineari omogenei e non . . . . . . . . 15
4.2 Operazioni elementari di riga, matrici a scalini . . . . . . . . . . . . . . . . . . . 15
4.3 Metodo per risolvere un sistema lineare quando la sua matrice completa `e a scalini 17
4.4 Metodo per risolvere un qualsiasi sistema lineare . . . . . . . . . . . . . . . . . . 18
5 Spazi vettoriali 21
5.1 Definizione e prime propriet`a . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.3 Generatori, insiemi di vettori linearmente indipendenti, basi, dimensione . . . . . 24
5.4 Dimensione di M(m×n, R) e di R
k
[x] . . . . . . . . . . . . . . . . . . . . . . 27
5.5 Un esempio fondamentale: lo spazio generato dalle colonne di una matrice (range)
e lo spazio generato dalle righe . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
6 Applicazioni lineari 30
6.1 Applicazioni lineari, nucleo , immagine, relazione fondamentale . . . . . . . . . . 30
6.2 Applicazioni lineari associate a matrici . . . . . . . . . . . . . . . . . . . . . . . 32
7 Determinante, spazi generati da righe e colonne, rango, inversa di una matrice 33
7.1 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
7.2 Spazi generati da righe e colonne e rango . . . . . . . . . . . . . . . . . . . . . 34
7.3 Il teorema di Rouch´e-Capelli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.4 Relazione fra rango e determinante . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.5 Metodo per calcolare l’inversa di una matrice . . . . . . . . . . . . . . . . . . . 36
1
8 Autovettori e autovalori, diagonalizzabilit`a 38
Ordine di lettura consigliato : 3.1, 3.2, 5.1, 5.2, 3.3, 3.4, etc
2
1 Notazioni fondamentali in matematica
“∀” significa “per qualsiasi”
“∃” significa “esiste”
“⇒” significa “implica”
“⇔” significa “implica e `e implicato”, “se e solo se”
“∈” significa “appartiene”, “`e un elemento di”
“⊂” significa “`e incluso”
3
2 I numeri complessi
Come `e ben noto non tutte le equazioni polinomiali hanno soluzioni nei reali. Ad esempio
l’equazione
x
2
= −1
non ha soluzione nei reali, cio`e non esiste un numero reale x il cui quadrato `e −1.
L’insieme dei numeri complessi `e stato introdotto proprio per consentire di trovare soluzione a
tutte le equazione polinomiali, cio`e `e stato introdotto come un insieme “pi`u grande” dell’insieme
dei numeri reali, nel quale ogni equazione polinomiale ha soluzione. In altre parole per ottenere
l’insieme dei numeri complessi si aggiunge all’insieme dei numeri reali l’insieme di tutte le soluzioni
di equazioni polinomiali.
Informalmente si definisce C (insieme dei numeri complessi) nel modo seguente:
si definisce i (unit`a immaginaria) come un numero che gode della seguente propriet`a:
i
2
= −1
e si definisce:
C = {a + bi| a, b ∈ R}
Quindi un numero complesso `e un numero del tipo
z = a + bi
dove a e b sono due numeri reali e i `e l’unit`a immaginaria. Si dice che a `e la parte reale del
numero complesso a + bi e bi `e la parte immaginaria. In genere si scrive:
Re(z) = a
Im(z) = b (coefficiente della parte immaginaria).
La somma e il prodotto in C si definiscono nel modo seguente:
(a + bi) + (c + di) = a + b + (c + d)i
(a + bi) · (c + di) = ac −bd + (ad + bc)i
La definizione di prodotto pu` o sembrare strana e difficile da memorizzare, ma in realt`a si ricava
facilmente “facendo valere” le propriet`a distribuitiva e commutative e ricordando che i
2
= −1:
(a+bi)·(c+di) = a·(c+di)+bi·(c+di) = ac+adi+bci+bdi
2
= ac+adi+bci−bd = ac−bd+(ad+bc)i
Ovviamente si pu` o vedere l’insieme dei numeri reali contenuto nell’insieme dei numeri complessi:
a ∈ R si pu` o vedere come il numero complesso a + 0i.
Si definisce coniugato di un numero complesso z = a+bi il numero complesso a−bi e si denota
z:
z = a −bi
Si definisce modulo di un numero complesso z = a + bi il numero reale

a
2
+ b
2
e si denota
|z|:
|z| =

a
2
+ b
2
Se z ∈ R, allora il modulo coincide con il valore assoluto: infatti in tal caso, se si scrive z = a+bi,
si ha che b = 0 e quindi |z| =

a
2
+ b
2
=

a
2
= |a|.
4
Si dimostrano facilmente le seguenti propriet`a:
1) |z| = |z|
2) |z| = 0 se e solo se z = 0
3) |z · w| = |z||w|
4) z · z = |z|
2
5) z + w = z + w
6) z · w = z · w
Inoltre `e semplice dimostrare che valgono le propriet`a associativa e commutativa sia per la somma
che per il prodotto, esiste un elemento neutro per la somma (0 = 0 + 0i), esiste un elemento
neutro per il prodotto (1 = 1 + 0i), vale la propriet`a distributiva, esiste l’opposto per la somma
(cio`e, dato un qualsiasi numero complesso z = a+bi, esiste un numero complesso che sommato
a z d`a 0: esso sar`a −a − bi); infine per qualsiasi numero complesso z = a + bi diverso da 0,
esiste l’inverso, cio`e un numero complesso che moltiplicato per z d`a 1: esso sar`a
z
|z|
2
.
Pi`u formalmente si pu` o definire
C = {(a, b)| a, b ∈ R}
definendo la somma e il prodotto nel modo seguente:
(a, b) + (c, d) = (a + b, c + d)
(a, b) · (c, d) = (ac −bd, ad + bc)
L’insieme dei numeri complessi pu` o essere identificato con i punti del piano in cui `e stato fissato
un sistema di riferimento cartesiano, precisamente al numero complesso a+bi si fa corrispondere
il punto del piano di coordinate cartesiane (a, b). Il piano identificato con l’insieme dei numeri
complessi si chiama piano di Argand-Gauss.
(a,b)
a
b
Sia θ l’angolo formato dal semiasse positivo delle ascisse e il segmento che congiunge (0, 0) con
(a, b) tale che π < θ ≤ π e sia ρ la lunghezza del segmento che congiunge (0, 0) con (a, b),
allora si ha ovviamente:
z = a + bi = ρ(cos θ + isen θ)
(forma trigonometrica dei numeri complessi).
Supponiamo che z = a + bi = ρ(cos θ + isen θ) w = c + di = λ(cos η + isen η). Si pu` o
dimostrare facilmente che
z · w = (ρλ)[cos(θ + η) + isen(θ + η)]
Quindi in pratica moltiplicare per z = ρ(cos θ +isen θ) un numero complesso w significa molti-
plicare per ρ la lunghezza del segmento che unisce l’origine col punto del piano che rappresenta
w e ruotare tale segmento di θ.
5
3 R
n
e le matrici
3.1 Definizione di R
n
e di matrici, somma e prodotto per uno scalare
Definizione 1 Sia n un numero naturale ≥ 1. Si definisce
R
n
=

¸
¸
¸
x
1
.
.
.
xn
¸

| x
1
, ..., x
n
∈ R

Notazione 2 Sia x =

¸
¸
¸
x
1
.
.
.
xn
¸

∈ R
n
. L’elemento x
i
che compare al’i-esimo posto si definisce
i-esima componente di x.
Definizione 3 Sia n un numero naturale ≥ 1. Si definisce la somma fra due elementi di R
n
nel modo seguente:

¸
¸
¸
¸
¸
x
1
.
.
.
x
n
¸

+

¸
¸
¸
¸
¸
y
1
.
.
.
y
n
¸

=

¸
¸
¸
¸
¸
x
1
+ y
1
.
.
.
x
n
+ y
n
¸

(cio`e se x, y ∈ R
n
, si definisce x + y come l’elemento di R
n
tale che (x + y)
i
= x
i
+ y
i
∀i = 1, ..., n).
Esempio

¸
¸
¸
¸
¸
1
0
−2
−π
7
¸

+

¸
¸
¸
¸
¸
1
3
2
2
1
¸

=

¸
¸
¸
¸
¸
2
3
0
−π + 2
8
¸

Definizione 4 Sia n un numero naturale ≥ 1. Si definisce il prodotto fra un elemento di R
n
e uno scalare (cio`e un numero reale) nel modo seguente:
λ

¸
¸
¸
¸
¸
x
1
.
.
.
x
n
¸

=

¸
¸
¸
¸
¸
λx
1
.
.
.
λx
n
¸

(cio`e se x ∈ R
n
e λ ∈ R, si definisce λx come l’elemento di R
n
tale che (λx)
i
= λx
i
∀i = 1, ..., n).
Esempio
3

¸
¸
¸
¸
¸
1
0
−2
−π
7
¸

=

¸
¸
¸
¸
¸
3
0
−6
−3π
21
¸

6
Osservazione 5 Fissando un sistema cartesiano nel piano, si stabilisce un’ovvia bigezione fra
R
2
e il piano.
Analogamente fissando un sistema cartesiano nello spazio, si stabilisce un’ovvia bigezione fra R
3
e lo spazio.
Osservazione 6 “Regola del parallelogramma” Per ogni elemento

x
y

di R
2
consideriamo il
segmento orientato avente

0
0

come punto iniziale e

x
y

come punto finale. In tal modo
la somma di due elementi di R
2
pu` o essere interpretata geometricamente tramite la cosiddetta
regola del parallelogramma:
y
y’
x’
y+y’
x+x’
x
Definizione 7 Siano m, n due numeri naturali ≥ 1. Una matrice m× n `e una tabella con m
righe e n colonne. Si dice a coefficienti in R se tutti gli elementi sulla tabella sono numeri reali.
Notazione 8 L’elemento che sta sull’i-esima riga e j-esima colonna di una matrice A si denota
con a
i,j
o A
i,j
.
La riga i-esima si denota con A
(i)
.
La colonna j-esima si denota con A
(j)
.
Definizione 9 Siano m e n due numeri naturali ≥ 1. Si definisce
M(m×n, R) = {A| A matrice m×n a coefficienti in R}
Definizione 10 Siano m, n due numero naturale ≥ 1. Si definisce la somma fra due elementi
di M(m× n, R) nel modo seguente: siano A, B ∈ M(m× n, R), si definisce A + B come la
matrice m×n tale che
(A + B)
i,j
= A
i,j
+ B
i,j
∀i = 1, ..., m, j = 1, ..., n.
Esempio

¸
¸
¸
¸
¸
1 0 2
0 0 3
−2 1 −1
−π 4 5
7 0 1
¸

+

¸
¸
¸
¸
¸
1 3 2
3 1 0
2 0 −1
2 4 1
1 −6 −

2
¸

=

¸
¸
¸
¸
¸
2 3 4
3 1 3
0 1 −2
−π + 2 8 6
8 −6 1 −

2
¸

7
Definizione 11 Siano m, n due numero naturale ≥ 1. Si definisce il prodotto fra un elemento
di M(m×n, R) e uno scalare nel modo seguente: sia A ∈ M(m×n, R) e λ ∈ R; si definisce
λA come la matrice m×n tale che
(λA)
i,j
= λA
i,j
∀i = 1, ..., m, j = 1, ..., n.
Esempio
3

¸
¸
¸
¸
¸
1 0 2
0 0 3
−2 1 −1
−π 4 5
7 0 1
¸

=

¸
¸
¸
¸
¸
3 0 6
0 0 9
−6 3 −3
−3π 12 15
21 0 3
¸

Proposizione 12 Valgono le seguenti propriet`a:
1) (A +B) +C = A +(B + C) ∀A, B, C ∈ M(m×n, R) (propriet`a associativa della somma)
2) A + B = B + A ∀A, B ∈ M(m×n, R) (propriet`a commutativa della somma)
3) La matrice m×n con tutti i coefficienti nulli `e un elemento neutro per la somma in M(m×
n, R), cio`e 0
m×n
+ A = A + 0
m×n
= A ∀A ∈ M(m×n, R).
4) Per ogni A ∈ M(m×n, R) l’elemento (−1)A `e opposto di A per la somma in M(m×n, R),
cio`e A + (−1)A = (−1)A + A = 0
m×n
5) (λ + µ)A = λA + µA ∀λ, µ ∈ R ∀A ∈ M(m × n, R) (propriet`a distributiva rispetto alla
somma in R)
6) λ(A + B) = λA + λB ∀λ ∈ R ∀A, B ∈ M(m× n, R) (propriet`a distributiva rispetto alla
somma in M(m×n, R))
7) (λµ)A = λ(µA) ∀λ, µ ∈ R ∀A ∈ M(m×n, R)
8) 1A = A ∀A ∈ M(m×n, R).
Dimostrazione. Per esercizio.
Nel capitolo 3 vedremo che la proposizione sopra si pu` o enunciare brevemente dicendo che
M(m×n, R) `e uno spazio vettoriale su R.
In modo del tutto analogo a come si `e definito R
n
, le matrici a coefficienti in R e le operazioni
di somma e moltiplicazione per scalari, si possono definire C
n
, le matrici a coefficienti in C e le
operazioni di somma e moltiplicazione per scalari. Valgono per essi propriet`a del tutto anaologhe
a quelle enunciate per R.
3.2 Vari tipi di matrici, trasposta, traccia
Definizione 13 Sia n ∈ N n ≥ 1. Sia A ∈ M(n ×n, R). Si definisce diagonale (principale) di
A l’n-upla (a
1,1
, ...., a
n,n
).
Definizione 14 Sia n ∈ N n ≥ 1. Sia A ∈ M(n ×n, R). Si dice che A `e diagonale se
a
i,j
= 0
per i = j (cio`e se tutti gli elementi al di fuori della diagonale principale sono nulli).
8
Esempio

¸
¸
¸
3 0 0 0
0 1 0 0
0 0 −3 0
0 0 0 2
¸

Esempio (fondamentale) Si dice matrice identit`a n × n (e si denota con I
n
) la matrice n ×n
con tutti 1 sulla diagonale e 0 altrove. Per esempio
I
1
= (1)
I
2
=

1 0
0 1

I
3
=

¸
1 0 0
0 1 0
0 0 1
¸

Definizione 15 Sia n ∈ Nn ≥ 1. Sia A ∈ M(n×n, R). Si dice che A `e triangolare superiore
se
a
i,j
= 0
per i > j (cio`e se tutti gli elementi al di sotto della diagonale principale sono nulli).
Esempio

¸
¸
¸
¸
¸
1 1 1 6 1
0 1 2 6 −1
0 0 0 −3 4
0 0 0 −3 2
0 0 0 0 23
¸

Definizione 16 Sia n ∈ N n ≥ 1. Sia A ∈ M(n×n, R). Si dice che A `e triangolare inferiore
se
a
i,j
= 0
per i < j (cio`e se tutti gli elementi al di sopra della diagonale principale sono nulli).
Esempio

¸
¸
¸
¸
¸
3 0 0 0 0
0 1 0 0 0
π 1 2 0 0
0 2 2 2 0
0 4 0 3 0
¸

Definizione 17 Sia n ∈ N n ≥ 1. Sia A ∈ M(n ×n, R). Si dice che A `e simmetrica se
a
i,j
= a
j,i
∀i, j (cio`e se gli elementi simmetrici rispetto alla diagonale principale sono uguali).
Esempio

¸
¸
¸
4 1 0 7
1 0 2 6
0 2 9 −3
7 6 −3 8
¸

9
Definizione 18 Sia n ∈ N n ≥ 1. Sia A ∈ M(n ×n, R). Si dice che A `e antisimmetrica se
a
i,j
= −a
j,i
∀i, j ∈ {1, .., n} (cio`e se gli elementi simmetrici rispetto alla diagonale principale sono opposti).
Esempio

¸
¸
¸
0 1 0 −7
−1 0 2 6
0 −2 0 −3
7 −6 3 0
¸

Osservazione 19 Gli elementi sulla diagonale principale di una matrice antisimmetrica sono
nulli.
(Infatti a
i,i
= −a
i,i
∀i ∈ {1, ..., n}, pertanto 2a
i,i
= 0 e quindi a
i,i
= 0.)
Definizione 20 Siano m e n due numeri naturali ≥ 1. Sia A ∈ M(m × n, R). Si definisce
trasposta di A (che si indica con
t
A) la matrice n ×m cos`ı definita:
(
t
A)
i,j
= A
j,i
∀i ∈ 1, ..., n, j ∈ 1, ..., m.
Proposizione 21 Propriet`a della trasposta
1)
t
(
t
A) = A ∀A ∈ M(m×n, R).
2)
t
(A + B) =
t
A +
t
B ∀A, B ∈ M(m×n, R).
3)
t
(λA) = λ
t
A ∀λ ∈ R ∀A ∈ M(m×n, R).
Dimostrazione.
1) Per ogni i ∈ {1, ..., m} e per ogni j ∈ {1, ..., n} si ha
(
t
(
t
A))
i,j
= (
t
A)
j,i
= A
i,j
2) Per ogni i ∈ {1, ..., n} e per ogni j ∈ {1, ..., m} si ha
(
t
(A + B))
i,j
= (A + B)
j,i
= A
j,i
+ B
j,i
(
t
A +
t
B)
i,j
= (
t
A)
i,j
+ (
t
B)
i,j
= A
j,i
+ B
j,i
3) Per ogni i ∈ {1, ..., n} e per ogni j ∈ {1, ..., m} si ha
(
t
(λA))
i,j
= (λA)
j,i
= λA
j,i
= λ(
t
A)
i,j
Q.e.d.
Osservazione 22 Sia n ∈ N n ≥ 1. Sia A ∈ M(n ×n, R);
1) A `e simmetrica se e solo se A =
t
A
2) A `e antisimmetrica se e solo se A = −
t
A
Definizione 23 Si definisce traccia di una matrice quadrata la somma degli elementi della sua
diagonale.
10
3.3 Prodotto scalare standard e norma
Definizione 24 Sia n un numero naturale ≥ 1. Si definisce prodotto scalare standard fra due
elementi v e w di R
n
il numero reale
¸
i=1,...,n
v
i
w
i
Esso si indica con (v, w)
Esempio Siano
v =

¸
¸
¸
−1
31
2
9
¸

w =

¸
¸
¸
1
0
1
−1
¸

Allora (v, w) = −1 · 1 + 31 · 0 + 2 · 1 + 9 · (−1) = −8.
Proposizione 25 Propriet`a del prodotto scalare standard
1) Simmetria: (v, w) = (w, v) ∀v, w ∈ R
n
2) Bilinearit`a:
linearit`a nel primo argomento:
(λv, w) = λ(v, w) ∀λ ∈ R ∀v, w ∈ R
n
(v + w, u) = (v, u) + (w, u) ∀v, w, u ∈ R
n
linearit`a nel secondo argomento:
(v, λw) = λ(v, w) ∀λ ∈ R ∀v, w ∈ R
n
(v, w + u) = (v, w) + (v, u) ∀v, w, u ∈ R
n
3) Definita positivit`a:
(v, v) ≥ 0 ∀v ∈ R
n
(positivit`a); inoltre (v, v) = 0 se e solo se v = 0.
Dimostrazione.
1) (v, w) =
¸
i=1,...,n
v
i
w
i
=
¸
i=1,...,n
w
i
v
i
= (w, v)
2) λ(v, w) = λ
¸
i=1,...,n
v
i
w
i
(λv, w) =
¸
i=1,...,n
(λv)
i
w
i
=
¸
i=1,...,n
λv
i
w
i
= λ
¸
i=1,...,n
v
i
w
i
(v, λw) =
¸
i=1,...,n
v
i
(λw)
i
=
¸
i=1,...,n
v
i
λw
i
= λ
¸
i=1,...,n
v
i
w
i
(v + w, u) =
¸
i=1,...,n
(v + w)
i
u
i
=
¸
i=1,...,n
(v
i
+ w
i
)u
i
=
¸
i=1,...,n
(v
i
u
i
+ w
i
u
i
) =
¸
i=1,...,n
v
i
u
i
+
¸
i=1,...,n
w
i
u
i
= (v, u) + (w, u)
La linearit`a nel secondo argomento si dimostra in modo analogo oppure la possiamo derivare
dalla linearit`a nel secondo argomento e la simmetria.
3) (v, v) =
¸
i=1,...,n
v
i
v
i
=
¸
i=1,...,n
v
2
i
≥ 0;
inoltre (v, v) = 0 se e solo se
¸
i=1,...,n
(v
i
)
2
= 0 e questo `e vero se e solo se (v
i
)
2
= 0
∀i = 1, ..., n cio`e se e solo se v
i
= 0 ∀i = 1, ..., n.
Q.e.d.
Definizione 26 Sia v ∈ R
n
. Si definisce norma o lunghezza di v il numero reale

(v, v)
cio`e la radice quadrata del prodotto scalare di v con se stesso (che `e positivo per la propriet`a 3
del prodotto scalare, quindi ne posso considerare la radice quadrata), cio`e

¸
i=1,...,n
v
i
v
i
=

¸
i=1,...,n
(v
i
)
2
11
Esempio Sia
v =

¸
¸
¸
−1
3
2
2
¸

Allora |v| =

18.
Proposizione 27 Propriet`a della norma
1) |v| ≥ 0 ∀v ∈ R
n
; inoltre |v| = 0 se e solo se v = 0
2) |λv| = |λ||v| ∀λ, ∀v ∈ R
n
Dimostrazione.
1) Essendo la norma una radice quadrata `e ovviamente maggiore o uguale a 0. Inoltre ovviamente
|0| =

0 · 0 + ..... + 0 · 0 = 0; inoltre se v ∈ R
n
e |v| = 0 allora

¸
i=1,...,n
v
2
i
= 0, quindi
¸
i=1,...,n
v
2
i
= 0, quindi v
2
i
= 0 i = 1, ..., n, quindi v
i
= 0 i = 1, ..., n, cio`e v = 0.
2) |λv| =

(λv, λv) =

¸
i=1,...,n
(λv)
2
i
=

¸
i=1,...,n
(λv
i
)
2
=
=

¸
i=1,...,n
λ
2
v
2
i
=

λ
2
¸
i=1,...,n
v
2
i
= |λ|

¸
i=1,...,n
v
2
i
= |λ||v|
Q.e.d.
3.4 Prodotto di matrici
Definizione 28 Siano m, n, l tre numeri naturali ≥ 1. Sia A ∈ M(m×n, R) e B ∈ M(n×l, R).
Si definisce AB la matrice m×l cos`ı definita:
(AB)
i,j
=
¸
k=1,...,n
A
i,k
B
k,j
∀i = 1, ..., m, ∀j = 1, ...., l, o, equivalentemente,
(AB)
i,j
= (
t
A
(i)
, B
(j)
)
(prodotto scalare standard fra la trasposta della riga i-esima di A e la colonna j-esima di B)
∀i = 1, ..., m, ∀j = 1, ...., l.
Esempio

¸
1 0 3 2
11 2 0 2
−1 1 −1 1
¸

¸
¸
¸
1 0
11 20
0 2
−1 1
¸

=

¸
−1 8
31 42
9 19
¸

Osservazione 29 Il prodotto di matrici non gode della propriet`a commutativa.
Esempio

1 0
−1 2

1 10
3 −1

=

1 10
5 −12

1 10
3 −1

1 0
−1 2

=

−9 20
4 −2

12
Proposizione 30 Propriet`a del prodotto di matrici
1) (AB)C = A(BC) ∀A ∈ M(m×n, R), B ∈ M(n ×p, R), C ∈ M(p ×q, R).
2) A(B + C) = AB + AC ∀A ∈ M(m×n, R), B ∈ M(n ×p, R), C ∈ M(n ×p, R).
3) (A + B)C = AC + BC ∀A ∈ M(m×n, R), B ∈ M(m×n, R), C ∈ M(n ×p, R).
4) λ(AB) = (λA)B = A(λB) ∀A ∈ M(m×n, R), B ∈ M(n ×p, R), λ ∈ R
5) AI
n
= A e I
m
A ∀A ∈ M(m×n, R)
Dimostrazione.
Per dimostrare che due matrici sono uguali, basta ovviamente dimostrare che i coefficienti cor-
rispondenti sono uguali; quindi per provare un’uguaglianza di matrici, basta dimostrare che per
qualsiasi i, j, il coefficiente i, j del primo membro `e uguale al coefficiente i, j del secondo membro.
1) ((AB)C)
i,j
=
¸
k=1,...,p
(AB)
i,k
C
k,j
=
¸
k=1,...,p
[
¸
r=1,...,n
A
i,r
B
r,k
]C
k,j
=
=
¸
k=1,...,p
[
¸
r=1,...,n
A
i,r
B
r,k
C
k,j
] =
¸
k=1,...,p,r=1,...,n
A
i,r
B
r,k
C
k,j
(A(BC))
i,j
=
¸
r=1,...,n
A
i,r
(BC)
r,j
=
¸
r=1,...,n
A
i,r
¸
k=1,...,p
B
r,k
C
k,j
=
=
¸
r=1,...,n
¸
k=1,...,p
A
i,r
B
r,k
C
k,j
=
¸
r=1,...,n,k=1,...,p
A
i,r
B
r,k
C
k,j
2) (A(B + C))
i,j
=
¸
k=1,..,n
A
i,k
(B + C)
k,j
=
=
¸
k=1,..,n
A
i,k
(B
k,j
+ C
k,j
) =
¸
k=1,..,n
(A
i,k
B
k,j
+ A
i,k
C
k,j
) =
=
¸
k=1,..,n
A
i,k
B
k,j
+
¸
k=1,..,n
A
i,k
C
k,j
= (AB)
i,j
+ (AC)
i,j
=
= (AB + AC)
i,j
3) Analoga a 2).
4) (λ(AB))
i,j
= λ(AB)
i,j
= λ
¸
k=1,...,n
A
i,k
B
k,j
=
¸
k=1,...,n
λ(A
i,k
B
k,j
) =
¸
k=1,...,n
(λA
i,k
)B
k,j
=
¸
k=1,...,n
(λA)
i,k
B
k,j
= ((λA)B)
i,j
Analogamente la seconda uguaglianza.
5) (AI
n
)
i,j
=
¸
k=1,...,n
A
i,k
(I
n
)
k,j
=
¸
k=1,...,n
A
i,k
δ
k,j
= A
i,j
1 = A
i,j
dove δ
k,j
`e il cosidetto
simbolo di Kronecker, cos`ı definito
δ
k,j
=

0 se k = j
1 se k = j
Analogamente l’altra uguaglianza.
Q.e.d.
Proposizione 31
t
(AB) =
t
B
t
A ∀A ∈ M(m×k, R), B ∈ M(k ×n, R).
Dimostrazione.
(
t
(AB))
i,j
= (AB)
j,i
=
¸
t=1,...,k
A
j,t
B
t,i
(
t
B
t
A)
i,j
=
¸
t=1,...,k
(
t
B)
i,t
(
t
A)
t,j
=
¸
t=1,...,k
B
t,i
A
j,t
=
¸
t=1,...,k
A
j,t
B
t,i
Q.e.d.
3.5 Matrici invertibili
Definizione 32 Sia n ∈ N, n ≥ 1. Sia A ∈ M(n ×n, R). Si dice che A `e invertibile se esiste
B ∈ M(n ×n, R) tale che
AB = BA = I
n
13
Osservazione 33 (- Definizione.) Sia n ∈ N, n ≥ 1. Sia A ∈ M(n × n, R). Siano B, C ∈
M(n ×n, R) tali che AB = BA = I
n
= AC = CA. Allora B = C.
In altre parole se A `e invertibile esiste una e una sola matrice B tale che AB = BA = I
n
. Tale
matrice si dice l’inversa di A e si denota con A
−1
.
Dimostrazione.
Per ipotesi so che
AB = I
n
Moltiplico a sinistra entrambi i membri dell’uguaglianza per C, ottenendo cos`ı
C(AB) = CI
n
da cui
(CA)B = C
Dato che per ipotesi CA = I
n
, ottengo
I
n
B = C
e quindi
B = C
Q.e.d.
Notazione 34 GL(n, R) = {A ∈ M(n × n, R)| A invertibile}
Esempio. GL(1, R) = {(a)| a ∈ R−{0}}
Osservazione 35 Sia n ∈ N, n ≥ 1.
i) Siano A, B ∈ GL(n, R). Allora AB ∈ GL(n, R) e (AB)
−1
= B
−1
A
−1
ii) Se A ∈ GL(n, R) allora A
−1
∈ GL(n, R) e (A
−1
)
−1
= A
Esercizio.

a b
c d

`e invertibile se e solo se ad−bc = 0 e in tal caso l’inversa `e
1
ad−bc

d −b
−c a

.
NOTA. Tutto quello che `e stato detto nei paragrafi 3.1, 3.2, 3.4 e 3.5 pu` o essere enunciato
sostituendo C a R.
14
4 Sistemi lineari
4.1 Forma matriciale dei sistemi lineari, sistemi lineari omogenei e non
Definizione 36 Un sistema lineare `e un sistema di equazioni lineari cio`e un sistema di equazioni
i cui membri sono polinomi di grado ≤ 1 nelle incognite.
Osservazione 37 Un sistema lineare di m equazioni e n incognite x
1
, ..., x
n
pu` o essere scritto
nella forma
Ax = b
per una certa matrice A ∈ M(m×n, R) e un certo b ∈ R
m
, dove x =

¸
¸
¸
¸
x1
.
.
.
xn
¸

.
(Basta prendere, per ogni i, come coefficienti della i-esima riga di A i coefficienti di x
1
, ..., x
n
nella i-esima equazione del sistema e come b
i
il termine noto della i-esima equazione del sistema).
Definizione 38 La matrice A si dice matrice incompleta del sistema. La matrice m×(n + 1)
ottenuta affiancando (a destra) ad A l’m-upla b si chiama matrice completa del sistema e si
indica con A|b
Esempio Consideriamo il seguente sistema lineare nelle incognite x
1
, x
2
, x
3
, x
4
, x
5
.

2x
1
+ x
3
−6x
4
= 0
x
1
−x
4
−6x
5
= 5
x
2
−x
3
−x
4
= 3
La matrice incompleta A e b saranno
A =

¸
2 0 1 −6 0
1 0 0 −1 −6
0 1 −1 −1 0
¸

b =

¸
0
5
3
¸

La matrice completa A|b sar`a
A|b =

¸
2 0 1 −6 0 0
1 0 0 −1 −6 5
0 1 −1 −1 0 3
¸

Definizione 39 Un sistema lineare Ax = b si dice omogeneo se b = 0.
Vogliamo adesso illustrare un metodo sistematico per risolvere i sistemi lineari. Per fare ci` o
occorre premettere le nozioni di matrici a scalini e operazioni elementari di riga.
4.2 Operazioni elementari di riga, matrici a scalini
Definizione 40 Si definiscono operazioni elementari sulle righe di una matrice le seguenti
operazioni:
operazioni di tipo I: scambiare due righe
operazioni di tipo II: moltiplicare una riga per uno scalare non nullo
operazioni di tipo III: sommare ad una riga un multiplo di un’altra riga.
15
Definizione 41 Una matrice si dice a scalini (per righe) se soddisfa la seguente propriet`a:
se in una riga i primi k elementi sono nulli allora la riga successiva (se esiste) o `e tutta nulla o
almeno i primi k + 1 elementi sono nulli.
Definizione 42 Il primo elemento non nullo di ogni riga non nulla di una matrice a scalini si
dice pivot.
Esempi di matrici a scalini

¸
¸
¸
0 1 0 6 −1
0 0 2 6 −1
0 0 0 −3 4
0 0 0 0 12
¸

¸
¸
¸
¸
¸
3 1 0 9 1
0 1 0 6 −1
0 0 0 −3 4
0 0 0 0 2
0 0 0 0 0
¸

Esempi di matrici non a scalini

¸
¸
¸
0 1 0 6 −1
0 1 2 6 −1
0 2 0 −3 4
0 0 0 0 12
¸

¸
¸
¸
¸
¸
1 1 1 6 1
0 1 2 6 −1
0 2 0 −3 4
0 2 0 0 12
0 0 0 0 0
¸

Proposizione 43 Data una qualsiasi matrice, si pu` o ottenere da essa, con operazioni elementari
di riga di tipo I e III, una matrice a scalini.
Dimostrazione. Per induzione sul numero di righe della matrice.
Sia j l’indice della prima colonna non nulla. Con un scambio opportuno di righe possiamo fare
in modo che il primo elemento della j-esima colonna sia diverso da zero. Con operazioni di tipo
III possiamo fare in modo che tutti gli elementi dal secondo in poi della j-esima colonna siano
nulli. Ripetiamo il procedimento sulla matrice ottenuta togliendo la prima riga.
Q.e.d.
Esempio

¸
¸
¸
0 1 0 6 −1
0 1 2 6 −1
0 2 0 −3 4
0 0 0 10 12
¸

¸
¸
¸
0 1 0 6 −1
0 0 2 0 0
0 0 0 −15 6
0 0 0 10 12
¸

II −I
III −2I
16

¸
¸
¸
0 1 0 6 −1
0 0 2 0 0
0 0 0 −15 6
0 0 0 0 16
¸

IV +
2
3
III
4.3 Metodo per risolvere un sistema lineare quando la sua matrice com-
pleta `e a scalini
Si scrive la matrice completa del sistema e si scrivono le incognite sopra essa. Supponiamo
che non ci siano pivots nell’ultima colonna della matrice completa. Chiamiamo “incognite
corrispondenti ad un pivot” quelle che “stanno sopra un pivot” e “incognite non corrispondenti
ad un pivot” le altre.
Sfruttando le equazioni, partendo dall’ultima, si scrivono le incognite corrispondenti ai pivots in
funzione di quelle non corrispondenti ai pivots.
Esempio. Consideriamo il seguente sistema lineare

x + 2y + z −2w −u = 0
z −w −3u = 1
w + u = 2
Scriviamo la matrice associata e scriviamo le incognite sopra la matrice
x y z w u

¸
1 2 1 −2 −1 0
0 0 1 −1 −3 1
0 0 0 1 1 2
¸

Le variabili che corrispondono ai pivots sono x, z, w, quelle che non corrispondono ai pivots sono
y, u.
Voglio scrivere le variabili che corrispondono ai pivots in funzione delle variabili che non cor-
rispondono ai pivots.
Dall’ultima equazione w + u = 2 ricavo w in funzione di u (e quindi di y, u):
w = 2 −u
Dalla penultima equazione z −w −3u = 1 ricavo
z = w + 3u + 1
e, sostituendo l’espressione gi`a trovata di w in funzione di y, u, ricavo anche z in funzione di
y, u:
z = 2 −u + 3u + 1 = 3 + 2u
Dalla prima equazione ricavo
x = −2y −z + 2w + u
da cui sostituendo l’espressione gi`a trovate di w e z in funzione di y, u, ricavo anche x in funzione
di y, u:
x = −2y −3 −2u + 4 −2u + u = −2y −3u + 1
17
Quindi l’insieme delle soluzioni del sistema lineare `e

¸
¸
¸
¸
¸
−2y −3u + 1
y
3 + 2u
−u + 2
u
¸

| y, u ∈ R

che si pu` o anche scrivere

y

¸
¸
¸
¸
¸
−2
1
0
0
0
¸

+ u

¸
¸
¸
¸
¸
−3
0
2
−1
1
¸

+

¸
¸
¸
¸
¸
1
0
3
2
0
¸

| y, u ∈ R

4.4 Metodo per risolvere un qualsiasi sistema lineare
Osservazione 44 Facendo operazioni elementari di riga sulla matrice completa di un sistema
lineare non si altera l’insieme delle soluzioni.
Dimostrazione. Fare un’operazione elementare di riga di tipo I (scambio di due righe) sulla
matrice associata al sistema significa scambiare due equazioni del sistema e questo ovviamente
non altera l’insieme delle soluzioni.
Fare un’operazione elementare di riga di tipo III (moltiplicare una riga per uno scalre non nullo)
sulla matrice associata al sistema significa moltiplicare entrambi i membri di un’equazione del
sistema per uno scalare non nullo e questo ovviamente non altera l’insieme delle soluzioni.
Infine fare un’operazione elementare di riga di tipo II (sommare ad una riga un multiplo di
un’altra riga) sulla matrice associata al sistema significa sommare ad un’equazione un multiplo
di un’altra equazione (membro a membro) e questo non altera l’insieme delle soluzioni.
Q.e.d.
Vediamo adesso come si risolve un sistema lineare qualsiasi.
Anzi tutto si scrive la matrice completa associata al sistema. Facendo operazioni elementari di
riga, si riduce la matrice completa del sistema in forma a scalini. Si risolve il sistema lineare
associato alla matrice cos`ı ottenuta; l’insieme delle soluzioni `e uguale all’ insieme delle soluzioni
del sistema iniziale per l’Osservazione 44.
Esempio Consideriamo il sistema lineare

y + z −w −u = 1
x + y + z −3w −u = 0
2x + 2y + 3z −5w −u = −1
Scriviamo la matrice associata al sistema

¸
0 1 1 −1 −1 1
1 1 1 −3 −1 0
2 2 3 −5 −1 −1
¸

Riduciamo a scalini, facendo operazioni elementari di riga.

¸
1 1 1 −3 −1 0
0 1 1 −1 −1 1
2 2 3 −5 −1 −1
¸

II
I
18

¸
1 1 1 −3 −1 0
0 1 1 −1 −1 1
0 0 1 1 1 −1
¸

III −2I
Scriviamo le incognite sopra la matrice a scalini cos`ı ottenuta:
x y z w u

¸
1 1 1 −3 −1 0
0 1 1 −1 −1 1
0 0 1 1 1 −1
¸

Ricaviamo adesso le variabili che corrispondono ai pivots, cio`e x, y, z in funzione di quelle che
non corrispondono ai pivots, cio`e w, u. Dall’ultima equazione ricaviamo
z = −w −u −1
Dalla seconda equazione ricaviamo
y = −z + w + u + 1
da cui sostituendo
y = w + u + 1 + w + u + 1 = 2w + 2u + 2
Dalla prima equazione ricaviamo
x = −y −z + 3w + u
da cui sostituendo
x = −2w −2u −2 + w + u + 1 + 3w + u = −1 + 2w
Quindi l’insieme del soluzioni `e

¸
¸
¸
¸
¸
−1 + 2w
2u + 2w + 2
−u −w −1
w
u
¸

| w, u ∈ R

Osservazione 45 Un sistema lineare omogeneo ha sempre una soluzione: quella nulla.
(Infatti un sistema linare omogeneo si pu` o scrivere nella forma Ax = 0 e 0 `e una soluzione infatti
A0 = 0.)
Osservazione 46 Un sistema lineare omogeneo con pi`u incognite che equazioni ha una soluzione
non nulla.
Dimostrazione.
Quando riduco la matrice completa a scalini, il numero dei pivots `e ovviamente minore o uguale
al numero delle righe che `e uguale al numero delle equazioni del sistema, il quale per ipotesi
`e minore del numero dell incognite. Quindi il numero dei pivots `e minore del numero delle
incognite. Pertanto ci sono necessariamente delle variabili non corrispondenti a pivots, quindi
assegnando dei valori non nulli ad esse ottengo una soluzione non nulla.
Q.e.d.
19
Osservazione 47 Un sistema lineare ha soluzione se e solo se, riducendo a scalini con operazioni
elementari di riga la matrice completa, non ci sono pivots nell’ultima colonna.
Dimostrazione. Basta dimostrare che un sistema lineare la cui matrice completa `e a scalini ha
soluzioni se e solo se non ci sono pivots nell’ultima colonna.
Ma questo `e ovvio in quanto se c’`e un pivot nell’ultima colonna (chiamiamolo p) vuol dire che
nel sistema lineare c’`e l’equazione 0x
1
+ .... + 0x
n
= p, che ovviamente non ha soluzioni in
quanto p = 0. Viceversa se non ci sono pivots nell’ultima colonna allora trovo le soluzioni con il
metodo illustrato sopra.
Q.e.d.
Teorema 48 Teorema di struttura delle soluzioni di un sistema lineare
Sia A ∈ M(m×n, R) e sia b ∈ R
m
.
Supponiamo che il sistema Ax = b abbia una soluzione.
Sia x una soluzione del sistema lineare Ax = b.
Allora {x ∈ R
n
| Ax = b} = {x + y| y ∈ R
n
e Ay = 0}
Dimostrazione.
Sia S
1
:= {x ∈ R
n
| Ax = b} e S
2
:= {x + y| y ∈ R
n
e Ay = 0}.
Dimostriamo anzitutto che S
2
⊂ S
1
.
Sia y ∈ R
n
tale che Ay = 0. Voglio dimostrare che x + y ∈ S
1
cio`e che A(x + y) = b. Per la
propriet`a distributiva del prodotto di matrici A(x + y) = Ax + Ay = b + 0 = b.
Dimostriamo adesso che S
1
⊂ S
2
.
Sia x ∈ S
1
. Occorre dimostrare che esiste y ∈ R
n
tale che Ay = 0 e x = x + y. Definisco
y = x − x. Ovviamente Ay = 0, infatti Ay = A(x −x) = Ax −Ax = b −b = 0.
Q.e.d.
NOTA. Tutto quello che `e stato detto in questo capitolo pu` o essere enunciato sostituendo C a
R.
20
5 Spazi vettoriali
5.1 Definizione e prime propriet`a
Definizione 49 Sia V un insieme dotato di due operazioni, una (detta somma) + : V ×V → V ,
l’altra (detta prodotto per scalari) · : R×V → V .
Si dice che V `e uno spazio vettoriale su R se valgono le seguenti propriet`a:
1) (v + w) + u = v + (w + u) ∀v, w, u ∈ V (propriet`a associativa della somma)
2) v + w = w + v ∀v, w ∈ V (propriet`a commutativa della somma)
3) Esiste un elemento neutro per la somma, cio`e esiste un elemento z di V tale che z+v = v+z =
v ∀v ∈ V . (Si pu` o dimostrare che tale elemento `e necessariamente unico, vedere l’osservazione
immediatamente seguente questa definizione; lo denoteremo quindi 0
V
e lo chiameremo zero di
V .)
4) Per ogni v ∈ V esiste un opposto, cio`e un elemento v

∈ V tale che v + v

= v

+ v = 0
V
5) (λ + µ)v = λv + µv ∀λ, µ ∈ R ∀v ∈ V (propriet`a distributiva rispetto alla somma in R)
6) λ(v + w) = λv + λw ∀λ ∈ R ∀v, w ∈ V (propriet`a distributiva rispetto alla somma in V )
7) (λµ)v = λ(µv) ∀λ, µ ∈ R ∀v ∈ V
8) 1v = v ∀v ∈ V
Osservazione 50 In ogni spazio vettoriale V esiste un solo elemento neutro per la somma.
Dimostrazione.
Siano z e z

due elementi neutri per la somma di V
Si ha che z + z

= z in quanto z

`e elemento neutro per la somma.
Inoltre si ha che z + z

= z

in quanto z `e elemento neutro per la somma.
Quindi z = z

, in quanto sono entrambi uguali a z + z

.
Q.e.d.
Osservazione 51 In ogni spazio vettoriale V si ha che
0
R
v = 0
V
∀v ∈ V
Dimostrazione.
Si ha:
0
R
v = (0
R
+ 0
R
)v = 0
R
v + 0
R
v
(la prima uguaglianza segue dal fatto che 0
R
+ 0
R
= 0
R
, la seconda segue dalla propriet`a 5
degli spazi vettoriali, cio`e la propriet`a distributiva rispetto alla somma in R).
Sia w un opposto di 0
R
v (esite per la propriet`a 4 degli spazi vettoriali). Sommando w al primo
membro e all’ultimo membro della catena di uguaglianze sopra, si ottiene
0
R
v + w = (0
R
v + 0
R
v) + w
e quindi, applicando la definizione di opposto al primo membro e la propriet`a 1 di spazio vettoriale
cio`e la propriet`a associativa della somma al secondo membro, ottengo
0
V
= 0
R
v + (0
R
v + w)
e quindi, per definizione di opposto,
0
V
= 0
R
v + 0
V
21
da cui
0
V
= 0
R
v
Q.e.d.
Osservazione 52 Per qualsiasi v ∈ V l’elemento (−1)v `e un opposto di v.
Dimostrazione.
(−1)v + v = (−1)v + 1v = (−1 + 1)v = 0
R
v = 0
V
(la prima uguaglianza segue dalla propriet`a 8 degli spazi vettoriali, la seconda dalla propriet`a
distributiva rispetto alla somma in R, l’ultima dall’osservazione precedente).
Q.e.d.
Osservazione 53 Per qualsiasi v ∈ V , esiste un solo opposto di v (e quindi per l’osservazione
precedente `e (−1)v).
Dimostrazione.
Siano v

e v
′′
due opposti di v, quindi v

+ v = 0
V
e v
′′
+ v = 0
V
;
in particolare
v

+ v = v
′′
+ v
Sommando ad entrambi i membri un opposto, w, di v , si ottiene
(v

+ v) + w = (v
′′
+ v) + w
e quindi
v

+ (v + w) = v
′′
+ (v + w)
Pertanto
v

+ 0
V
= v
′′
+ 0
V
da cui v

= v
′′
. Q.e.d.
Esempio basilare. Sia n ∈ N, n, ≥ 1; ; l’insieme R
n
con le operazioni di somma e di prodotto
per uno scalare definite nel capitolo 1 `e uno spazio vettoriale.
Esempio basilare. Siano n, m ∈ N, n, m ≥ 1; l’insieme M(m×n, R) con le operazioni di somma
e di prodotto per uno scalare definite nel capitolo 1 `e uno spazio vettoriale.
Definizione 54 Gli elementi di uno spazio vettoriale si dicono vettori.
Definizione 55 Sia V uno spazio vettoriale. Siano v
1
, ..., v
k
∈ V e λ
1
, ..., λ
k
∈ R. Si definisce
combinazione lineare di v
1
, ..., v
k
con coefficienti λ
1
, ..., λ
k
il vettore
λ
1
v
1
+ ... + λ
k
v
k
22
5.2 Sottospazi vettoriali
Definizione 56 Sia V uno spazio vettoriale su R. Un sottospazio di V `e un sottoinsieme non
vuoto S di V tale che
• v + w ∈ S ∀v, w ∈ S (chiusura per la somma)
• λv ∈ S ∀λ ∈ R, ∀v ∈ S (chiusura per la moltiplicazione per scalari).
Esempio. L’insieme delle matrici simmetriche n×n `e un sottospazio vettoriale dell’insieme delle
matrici n × n, infatti la somma di due matrici simmetriche `e simmetrica e il prodotto fra uno
scalare e una matrice simmetrica `e ancora una matrice simmetrica.
Osservazione 57 Un sottospazio vettoriale S di uno spazio vettoriale V contiene 0
V
.
Dimostrazione.
Essendo un sottospazio, S `e non vuoto, quindi contiene un elemento v. Allora, per la propriet`a
di chiusura per la moltiplicazione per scalari, si deve avere che O
R
v ∈ S. Ma, per l’osservazione
51, si ha che O
R
v = 0
V
, quindi 0
V
∈ S.
Q.e.d.
Osservazione 58 Un sottospazio vettoriale S di uno spazio vettoriale V con le operazioni di
somma e di prodotto per scalari ereditate da V `e lui stesso uno spazio vettoriale.
Proposizione 59 Sia V uno spazio vettoriale; sia k un qualsiasi numero naturale positivo. Siano
v
1
, ..., v
k
∈ V . L’insieme delle combinazioni lineari di v
1
, ..., v
k
, cio`e

1
v
1
+ .... + λ
k
v
k
| λ
1
, ..., λ
k
∈ R}
`e un sottospazio vettoriale di V . (In genere `e denotato v
1
, ..., v
k
e si legge “span di v
1
, ...., v
k
”.)
Dimostrazione.
Sia S = {λ
1
v
1
+ .... + λ
k
v
k
| λ
1
, ..., λ
k
∈ R}.
Ovviamente S `e non vuoto.
• S `e chiuso per la somma, infatti sommando due elementi di S, λ
1
v
1
+ .... + λ
k
v
k
e µ
1
v
1
+
.... + µ
k
v
k
, si ottiene

1
v
1
+ .... + λ
k
v
k
) + (µ
1
v
1
+ .... + µ
k
v
k
)
che, per le propriet`a 1),2),5) degli spazi vettoriali, `e uguale a

1
+ µ
1
)v
1
+ .... + (λ
k
+ µ
k
)v
k
che `e un elemento di S.
• S `e chiuso per la moltiplicazione per scalari, infatti, moltiplicando un elemento di S, λ
1
v
1
+
.... + λ
k
v
k
, per uno scalare γ, si ottiene
γ(λ
1
v
1
+ .... + λ
k
v
k
)
che, per le propriet`a 6) e 7) degli spazi vettoriali, `e uguale a
(γλ
1
)v
1
+ .... + (γλ
k
)v
k
che `e un elemento di S.
Q.e.d.
23
Proposizione 60 Sia V uno spazio vettoriale; sia k un qualsiasi numero naturale positivo. Siano
v
1
, ..., v
k
∈ V .
1) v
1
, ..., v
i−1
, v
i
, v
i+1
, ..., v
j−1
, v
j
, v
j+1
, ...., v
k
= v
1
, ..., v
i−1
, v
j
, v
i+1
, ..., v
j−1
, v
i
, v
j+1
, ...., v
k

(cio`e il sottospazio non cambia cambiando l’ordine dei generatori)
2) v
1
, ..., v
i−1
, v
i
, v
i+1
, ..., v
k
= v
1
, ..., v
i−1
, λv
i
, v
i+1
, ...v
k
∀λ ∈ R−{0} (cio`e il sottospazio
non cambia se moltiplico un generatore per uno scalare non nullo)
3) v
1
, ..., v
i−1
, v
i
, v
i+1
, ..., v
j−1
, v
j
, v
j+1
, ...., v
k
= v
1
, ..., v
i−1
, v
i
+λv
j
, v
i+1
, ..., v
j−1
, v
j
, v
j+1
, ...., v
k

∀λ ∈ R (cio`e il sottospazio non cambia se ad un generatore sommo un multiplo di un altro gen-
eratore).
Dimostrazione. Per esercizio.
Proposizione 61 L’insieme delle soluzioni di un sistema lineare in n incognite `e un sottospazio
vettoriale di R
n
se e solo se il sistema lineare `e omogeneo.
Dimostrazione.
Scriviamo il nostro sistema lineare nella forma matriciale Ax = b.
Vogliamo dimostrare che S := {x ∈ R
n
| Ax = b} `e un sottospazio vettoriale se e solo se b = 0.
Se S `e un sottospazio vettoriale allora deve contenere 0 quindi A0 = b quindi b = 0.
Viceversa se b = 0, S = {x ∈ R
n
| Ax = 0} ed `e un sottospazio vettoriale infatti:
• `e non vuoto (infatti contiene 0, perch`e A0 = 0)
• `e chiuso per la somma, infatti se x e x

∈ S, quindi Ax = 0 e Ax

= 0, allora anche x+x

∈ S
perch`e A(x + x

) = Ax + Ax

= 0 + 0 = 0.
• `e chiuso per la moltiplicazione per scalari infatti se x ∈ S, quindi Ax = 0 e λ ∈ R allora anche
λx ∈ S perch`e A(λx) = λAx = λ0 = 0.
Q.e.d.
5.3 Generatori, insiemi di vettori linearmente indipendenti, basi, dimen-
sione
Definizione 62 Sia V uno spazio vettoriale. Si dice che un insieme di vettori v
1
, ..., v
k
`e un
insieme di vettori linearmente dipendenti se esistono λ
1
, ..., λ
k
∈ R non tutti nulli tali che
λ
1
v
1
+ ... + λ
k
v
k
= 0
Definizione 63 Sia V uno spazio vettoriale. Si dice che un insieme di vettori v
1
, ..., v
k
`e un
insieme di vettori linearmente indipendenti se l’unica loro combinazione lineare uguale a 0 `e
quella con tutti i coefficienti uguali a 0.
Definizione 64 Sia V uno spazio vettoriale. Un insieme di vettori di V si dice un insieme di
generatori per V se ogni elemento di V `e una loro combinazione lineare.
Osservazione 65 Un sottoinsieme di un insieme di vettori linearmente indipendenti `e ancora un
insieme di vettori linearmente indipendenti
Dimostrazione. L’affermazione `e ovvia, in quanto se avessi una combinazione lineare con coeffi-
cienti non tutti nulli del sottoinsieme di vettori, potrei facilmente trovare una combinazione con
coefficienti non tutti nulli dell’insieme di vettori (basta prendere gli stessi coefficienti per i vettori
del sottoinsieme e coefficienti nulli per gli altri vettori).
Q.e.d.
24
Osservazione 66 Se {v
1
, ..., v
k
} `e un insieme di vettori dipendenti di V allora esiste i ∈
{1, ..., k} tale che v
i
si pu` o scrivere come combinazione lineare di v
1
, ..., v
i
, v
i+1
, ..., v
k
.
Dimostrazione.
Dato che v
1
, ..., v
k
sono un insieme di vettori linearmenti dipendenti, esistono λ
1
, ..., λ
k
∈ R
non tutti nulli tali che
λ
1
v
1
+ .....λ
k
v
k
= 0
Supponiamo λ
i
= 0. Allora
v
i
= −
λ
1
λ
i
v
1
−........ −
λ
i−1
λ
1
v
i−1

λ
i+1
λ
1
v
i+1
− ........ −
λ
n
λ
i
v
n
Q.e.d.
Definizione 67 Sia V uno spazio vettoriale. Un insieme di vettori di V si dice una base di V
se `e un insieme di vettori linearmente indipendenti che genera V .
Teorema 68 Sia V uno spazio vettoriale.
Sia {v
1
, ..., v
k
} un insieme di vettori indipendenti di V .
Sia {w
1
, ..., w
s
} un insieme di generatori di V .
Allora k ≤ s.
Dimostrazione. Dato che {w
1
, ..., w
s
} `e un insieme di generatori di V , esistono λ
i,j
∈ R tali che
v
i
=
¸
j=1...s
λ
i,j
w
j
per i = 1, ..., k.
Consideriamo la combinazione lineare
¸
i=1,...,k
x
i
v
i
=
¸
i=1,...,k
x
i
¸
j=1,...,s
λ
i,j
w
j
=
¸
i=1,...,k
¸
j=1,...,s
x
i
λ
i,j
w
j
=
=
¸
j=1,...,s
¸
i=1,...,k
x
i
λ
i,j
w
j
=
¸
j=1,...,s
(
¸
i=1,...,k
x
i
λ
i,j
)w
j
Se per assurdo k > s allora il sistema lineare omogeneo nelle incognite x
i
dato dalle j equazioni:
¸
i=1,...,k
x
i
λ
i,j
= 0
per j = 1, ..., s ha una soluzione non nulla (x
1
, ..., x
k
) per l’osservazione 46.
Quindi si ottiene
¸
i=1,...k
x
i
v
i
= 0
contraddicendo l’ipotesi per cui {v
1
, ..., v
k
} `e un insieme di vettori indipendenti di V . Quindi
k ≤ s.
Q.e.d.
Corollario 69 Sia V uno spazio vettoriale.
Siano {v
1
, ..., v
k
} e {w
1
, ..., w
s
} due basi di V .
Allora k = s.
25
Dato che due basi di uno stesso spazio vettoriale hanno la stessa cardinalit`a, per il corollario
appena enunciato, possiamo definire:
Definizione 70 Si dice dimensione di uo spazio vettoriale la cardinalit`a di una sua base.
Teorema 71 Completamento di vettori indipendenti ad una base. Dato un insieme di
vettori linearmente indipendenti {v
1
, ..., v
k
} in uno spazio vettoriale V di dimensione n, allora
k ≤ n, inoltre
se k = n allora {v
1
, ..., v
k
} `e una base di V ,
se invece k < n `e sempre possibile trovare {v
k+1
, ..., v
n
} tali che {v
1
, ..., v
n
} formano una base
di V .
Dimostrazione.
Il fatto che k ≤ n segue dal Teorema 68.
Per dimostrare la restante parte della tesi, premetto la seguente osservazione
Osservazione. Se {v
1
, ..., v
k
} non `e una base di V allora ovviamente v
1
, ..., v
k
= V e scegliendo
v
k+1
non contenuto in v
1
, ..., v
k
si ottiene che {v
1
, ..., v
k
, v
k+1
} sono ancora indipendenti,
infatti:
supponiamo
¸
i=1,...,k+1
λ
i
v
i
= 0 per certi λ
i
∈ R; vogliamo dimostrare λ
i
= 0 per i =
1, ..., k +1; si ha λ
k+1
= 0 (altrimenti v
k+1
sarebbe combinazione lineare dei precedenti) quindi
rimane
¸
i=1,...,k
λ
i
v
i
= 0 e siccome {v
1
, ..., v
k
} sono indipendenti segue λ
i
= 0 per i = 1, ..., k.
Quindi per l’osservazione, se k = n, {v
1
, ..., v
k
} `e una base di V (se non lo fosse otterrei un
insieme di k + 1 vettori indipendenti quindi, per il Teorema 68, si avrebbe k + 1 ≤ n, che `e
assurdo).
Se k < n allora {v
1
, ..., v
k
} non pu` o essere una base e quindi per l’Osservazione posso trovare
un vettore v
k+1
tale che {v
1
, ..., v
k
, v
k+1
} sono ancora indipendenti.
Continuando in questo modo aggiungiamo n −k vettori fino a che non troviamo una base.
Q.e.d.
Teorema 72 Estrazione di una base da vettori generatori Se v
1
, ..., v
k
generano uno spazio
vettoriale V , si pu` o trovare un sottoinsieme di essi che forma una base di V .
Dimostrazione.
Se {v
1
, ..., v
k
} non `e gi`a una base, cio`e non sono indipendenti, per l’Osservazione 66, esiste
un vettore dell’insieme {v
1
, ..., v
k
} che `e combinazione lineare dei rimanenti. Allora i rimanenti
formano ancora un insieme di generatori per V
(infatti supponiamo ad esempio che sia v
k
combinazione lineare di v
1
, .., v
k−1
:
v
k
=
¸
i=1,...,k−1
c
i
v
i
per certi c
i
; sia v ∈ V ; dato che v
1
, ..., v
k
generano V , esistono λ
1
, ..., λ
k
tali che
v =
¸
i=1,...,k
λ
i
v
i
sostituendo a v
k
l’espressione
¸
i=1,...,k−1
c
i
v
i
, si ottiene
v =
¸
i=1,...,k−1
λ
i
v
i
+ λ
k
¸
i=1,...,k−1
c
i
v
i
26
=
¸
i=1,...,k−1

i
+ λ
k
c
i
)v
i
e quindi v `e combinazione lineare di v
1
, .., v
k−1
; quindi v
1
, .., v
k−1
sono generatori per V ).
Ripetendo il procedimento sui rimanenti, alla fine si arriva ad estrarre una base da {v
1
, ..., v
k
}.
Q.e.d.
Teorema 73 Sia S un sottospazio vettoriale di dimensione k di uno spazio vettoriale V di
dimensione n, allora k ≤ n.
Se k = n allora S = V .
Dimostrazione.
Sia {v
1
, ..., v
k
} una base di S. Essendo linearmente indipendenti in S sono anche linearmente
indipendenti in V , quindi, per il Teorema 71, k ≤ n.
Sempre per il Teorema 71, se k = n allora {v
1
, ..., v
k
} `e una base di V ; quindi, se v ∈ V , v pu` o
essere scritto come combinazione lineare di v
1
, ..., v
k
e quindi, dato che v
1
, ..., v
k
sono elementi
di S e una combinazione lineare di elementi di S `e ancora un elemento di S (essendo S un
sottospazio vettoriale), si ha che v appartiene a S.
Q.e.d.
Proposizione 74 Sia V uno spazio vettoriale di dimensione n. Se v
1
, .., v
n
sono vettori gener-
atori di V , allora formano una base.
Dimostrazione
Si pu` o estrarre da {v
1
, .., v
n
} una base. Essa deve essere costituita da n elementi, (dato V ha
dimensione n), quindi coincide con {v
1
, .., v
n
}.
Q.e.d.
5.4 Dimensione di M(m×n, R) e di R
k
[x]
Osservazione 75 La dimensione di M(m×n, R) `e mn.
Dimostrazione. Sia E
i,j
la matrice m×n con il coefficiente i, j uguale a 1 e tutti gli altri nulli.
L’insieme {E
i,j
}
i=1,...,m, j=1,...,n
`e una base di M(m×n, R), infatti se A ∈ M(m×n, R) si ha
A =
¸
i=1,...,m, j=1,...,n
a
i,j
E
i,j
quindi l’insieme {E
i,j
}
i=1,...,m, j=1,...,n
`e un insiem di generatori per M(m×n, R) e si dimostra
anche facilmente che sono indipendenti.
Q.e.d.
Notazione 76 Sia R
k
[x] l’insieme dei polinomi in x a coefficienti in R di grado minore o uguale
a k, cio`e
{a
0
+ a
1
x + .... + a
k
x
k
| a
0
, ..., a
k
∈ R}
E’ uno spazio vettoriale con la usuale somma di polinomi e prodotto per uno scalare.
Osservazione 77 La dimensione di R
k
[x] `e k + 1.
Dimostrazione.
L’insieme {1, x, ..., x
k
} `e una base di R
k
[x].
Q.e.d.
27
5.5 Un esempio fondamentale: lo spazio generato dalle colonne di una
matrice (range) e lo spazio generato dalle righe
Sia A una matrice m×n a coefficienti in R. Ad essa si possono associare due spazi vettoriali:
il sottospazio di R
m
generato dalle colonne di A (che a volte viene chiamto “range di A”)
A
(1)
, ..., A
(n)

e il sottospazio di R
n
generato dalle righe di A
A
(1)
, ..., A
(m)

Ovviamente questi due spazi non sono uguali, ma in seguito dimostreremo che, sorpendente-
mente, la loro dimensione `e la stessa (e chiameremo tale numero rango della matrice).
Esempio. Sia
A =

¸
3 0 3 −3
0 1 2 1
0 2 4 2
¸

Lo spazio generato dalle colonne `e il seguente sottospazio di R
3
:

¸
3
0
0
¸

,

¸
0
1
2
¸

,

¸
3
2
4
¸

,

¸
−3
1
2
¸

¸
=

¸
3
0
0
¸

,

¸
0
1
2
¸

¸
=
=

t

¸
3
0
0
¸

+ s

¸
0
1
2
¸

| t, s ∈ R

Quindi per esempio

¸
3
3
6
¸

appartiene a tale spazio.
Lo spazio generato dalle righe `e il seguente sottospazio di R
4
:

¸
¸
¸
3
0
3
−3
¸

,

¸
¸
¸
0
1
2
1
¸

,

¸
¸
¸
0
2
4
2
¸

¸
=

¸
¸
¸
3
0
3
−3
¸

,

¸
¸
¸
0
1
2
1
¸

¸
=
=

t

¸
¸
¸
3
0
3
−3
¸

+ s

¸
¸
¸
0
1
2
1
¸

| t, s ∈ R

Quindi per esempio

¸
¸
¸
3
−1
1
−4
¸

appartiene a tale spazio.
Osservazione 78 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni
elementari di righe.
Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di
colonne.
28
Dimostrazione. Segue immediatamente dalla Proposizione 60.
Q.e.d.
Osservazione 79 Sia A ∈ M(m×n, R) e B ∈ M(n ×k, R).
Allora lo spazio generato dalle colonne di AB `e contenuto nello spazio generato dalle colonne di
A.
Inoltre lo spazio generato dalle righe di AB `e contenuto nello spazio generato dalle righe di B.
Riprenderemo nel capitolo 5 lo studio dello spazio generato dalle colonne di una matrice e dello
spazio generato dalle righe; in particolare studieremo la loro dimensione (detta rango).
NOTA. Tutto quello che `e stato detto in questo capitolo pu` o essere enunciato sostituendo C a
R.
29
6 Applicazioni lineari
6.1 Applicazioni lineari, nucleo , immagine, relazione fondamentale
Definizione 80 Siano V e W due spazi vettoriali su R. Si dice che f : V → W `e una funzione
lineare se e solo se valgono le seguenti propriet`a:
a) f(v
1
+ v
2
) = f(v
1
) + f(v
2
) ∀v
1
, v
2
∈ V (additivit`a)
b) f(λv) = λf(v) ∀v ∈ V , ∀λ ∈ R (omogeneit`a)
Definizione 81 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.
Si definisce nucleo (in inglese kernel) di f il seguente sottoinsieme di V :
Ker(f) = {v ∈ V | f(v) = 0}
Si definisce immagine di f il seguente sottoinsieme di W:
Im(f) = {w ∈ W| ∃v ∈ V t.c. f(v) = w} = {f(v)| v ∈ V }
Osservazione 82 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.
Allora f(0
V
) = 0
W
.
Dimostrazione. f(0
V
) = f(0
R
0
V
) = 0
R
f(0
V
) = 0
W
Q.e.d.
Osservazione 83 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.
Allora Ker(f) `e un sottospazio vettoriale di V e Im(f) `e un sottospazio vettoriale di W.
Dimostrazione. Siano v
1
e v
2
due elementi di Ker(f), quindi f(v
1
) = 0
V
e f(v
2
) = 0
V
. Voglio
dimostrare che v
1
+ v
2
∈ Ker(f), cio`e che f(v
1
+ v
2
) = 0. Dato che f `e lineare si ha che
f(v
1
+ v
2
) = f(v
1
) + f(v
2
) = 0
V
+ 0
V
= 0
V
.
Sia v ∈ Ker(f), quindi f(v) = 0
V
e λ ∈ R, devo dimostrare che λv ∈ Ker(f), cio`e che
f(λv) = 0. Dato che f `e lineare, f(λv) = λf(v) = λ0
V
= 0
V
.
Q.e.d.
Osservazione 84 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.
Allora f `e iniettiva se e solo se Ker(f) = {0
V
}.
Dimostrazione. Ricordo che f `e iniettiva se e solo se f(v
1
) = f(v
2
) implica v
1
= v
2
, cio`e se e
solo se l’immagine inversa f
−1
(w) di un qualsiasi elemento w di Im(f) `e costituita solo da un
elemento.
Supponiamo che f sia iniettiva; in particolare f
−1
(0
W
), che contiene sicuramente 0
V
, pu` o
contenere solo 0
V
, quindi f
−1
(0
W
) = {0
V
}, ma f
−1
(0
W
) `e Ker(f), quindi Ker(f) = {0
V
}.
Supponiamo che Ker(f) = {0
V
}. Voglio dimostrare che se v
1
e v
2
sono due elementi di V e
f(v
1
) = f(v
2
) allora v
1
= v
2
. Dato che f(v
1
) = f(v
2
) si ha che f(v
1
) −f(v
2
) = 0
W
e quindi,
dato che f `e lineare, f(v
1
− v
2
) = 0
W
. Quindi v
1
− v
2
∈ Ker(f). Dato che Ker(f) = {0
V
},
si deve avere v
1
−v
2
= 0
V
. Quindi v
1
= v
2
.
Q.e.d.
Teorema 85 . Relazione fondamentale. Siano V e W due spazi vettoriali su R con dim V <
+∞. Sia f : V → W una funzione lineare. Allora
dim Ker(f) + dim Im(f) = dim V
30
Dimostrazione.
Siano k = dim Ker(f), n = dim V . Sia {v
1
, .., v
k
} una base di Ker(f), e completiamola ad
una base di V {v
1
, .., v
n
}. Vogliamo dimostrare che dim Im(f) = n −k. Basta dimostrare che
gli n −k vettori f(v
k+1
), .., f(v
n
) formano una base di Im(f).
• Dimostriamo anzitutto che f(v
k+1
), .., f(v
n
) generano Im(f). Sia w ∈ Im(f); allora esiste
v in V tale che w = f(v). Siccome {v
1
, .., v
n
} `e una base di V , esistono coefficienti reali λ
i
tali
che
v =
¸
i=1,...,n
λ
i
v
i
Pertanto
w = f(v) = f(
¸
i=1,...,n
λ
i
v
i
)
f lineare
=
¸
i=1,...,n
λ
i
f(v
i
)
f(vi)=0 per i=1,...,k
=
¸
i=k+1,...,n
λ
i
f(v
i
)
come volevamo.
• Dimostriamo adesso che f(v
k+1
), .., f(v
n
) sono linearmente indipendenti.
Siano λ
i
∈ R i = k + 1, ..., n tali che
¸
i=k+1,...,n
λ
i
f(v
i
) = 0
Allora, per la linearit`a di f,
f(
¸
i=k+1,...,n
λ
i
v
i
) = 0
e quindi
¸
i=k+1,...,n
λ
i
v
i
appartiene a Ker(f) e quindi si pu` o scrivere come combinazione
lineare di v
1
, .., v
k
. Pertanto esistono coefficienti reali µ
j
j = 1, ..., k tali che
¸
i=k+1,...,n
λ
i
v
i
=
¸
j=1,...,k
µ
j
v
j
da cui
¸
i=k+1,...,n
λ
i
v
i

¸
j=1,...,k
µ
j
v
j
= 0
Dato che v
1
, ...., v
n
sono linearmente indipendenti, otteniamo che tutti i coefficienti della com-
binazione lineare sopra sono nulli, in particolare λ
i
= 0 per i = k + 1, ..., n come volevamo.
Q.e.d.
Proposizione 86 Siano V e W due spazi vettoriali su R e sia {v
1
, .., v
n
} una base di V . Siano
f, g due funzioni lineari. Se f(v
i
) = g(v
i
) i = 1, ..., n, allora f = g.
Dimostrazione.
Sia v un qualsiasi elemento di V . Voglio vedere che f(v) = g(v). Dato che {v
1
, .., v
n
} `e una
base di V , esistono λ
1
, ..., λ
n
∈ R tali che v =
¸
i=1,...,n
λ
i
v
i
. Dato che f `e lineare
f(v) = f(
¸
i=1,...,n
λ
i
v
i
) =
¸
i=1,...,n
λ
i
f(v
i
)
Analogamente
g(v) = g(
¸
i=1,...,n
λ
i
v
i
) =
¸
i=1,...,n
λ
i
g(v
i
)
ma dato che f(v
i
) = g(v
i
) i = 1, ..., n, le due espressioni coincidono. Quindi f(v) = g(v).
Q.e.d.
31
6.2 Applicazioni lineari associate a matrici
Definizione 87 Sia A ∈ M(m×n, R). Definisco l’applicazione lineare associata ad A l’applicazione
f
A
: R
n
→R
m
definita nel modo seguente:
f
A
(x) = Ax
Osservazione 88 f
A
`e lineare.
Dimostrazione.
a) (additivit`a) f
A
(x + y) = A(x + y)
prop. 2 prod. matrici
= Ax + Ay = f
A
(x) + f
A
(y)
b) (omogeneit`a) f
A
(λx) = A(λx)
prop 4 prod. matrici
= λAx = λf
A
(x)
Q.e.d.
Proposizione 89 Sia f : R
n
→R
m
lineare; allora esiste A ∈ M(m×n, R) tale che f = f
A
.
Dimostrazione.
Sia A la matrice che ha come colonne rispettivamente f(e
1
),..., f(e
n
).
Voglio dimostrare che f = f
A
.
Per la Prop. 86 basta dimostrare che f(e
j
) = f
A
(e
j
) j = 1, ..., n.
Ma questo `e ovvio in quanto f
A
(e
j
) `e Ae
j
cio`e la j-esima colonna di A, che, per come si `e
definita A, `e proprio f(e
j
).
Q.e.d.
Osservazione 90 Sia A ∈ M(m× n, R). Allora l’immagine di f
A
`e generata dalle colonne di
A.
Dimostrazione.
Im(f
A
) = {f
A
(x)| x ∈ R
n
} = {Ax| x ∈ R
n
} = {A
(1)
x
1
+ ... + A
(n)
x
n
| x
1
, ..., x
n
∈ R} =
A
(1)
, ..., A
(n)

Q.e.d.
NOTA. Tutto quello che `e stato detto in questo capitolo pu` o essere enunciato sostituendo C a
R.
32
7 Determinante, spazi generati da righe e colonne, rango,
inversa di una matrice
7.1 Determinante
Definizione 91 Sia A ∈ M(n ×n, R).
Se n = 1 e quindi A = (a) con a ∈ R si definisce il determinante di A nel modo seguente:
det(A) = a
Se n = 2 e quindi A =

a b
c d

con a, b, c, d ∈ R si definisce il determinante di A nel modo
seguente
det(A) = ad −bc
Pi`u in generale per n ≥ 2 si definisce il determinante di A ∈ M(n ×n, R) nel modo seguente:
fissiamo i ∈ {1, ..., n}; definiamo
det(A) =
¸
j=1,...,n
(−1)
i+j
a
i,j
det(A
ˆı,ˆ
)
dove A
ˆı,ˆ
`e la matrice ottenuta da A togliendo la riga i-esima e la colonna j-esima (sviluppo per
l’i-esima riga).
Esempio. det

2 3
4 −1

= −14
det

¸
2 1 0
−3 2 2
1 1 7
¸

= 2 det

2 2
1 7

− 1 det

−3 2
1 7

+ 0 det

−3 2
1 1

= 2 · 12 −
1(−23) + 0(−5) = 24 + 23 = 47
Proposizione 92 Propriet`a del determinante
1) det(A) = det(A

) + det(A
′′
) se A
(i)
= A

(i)
= A
′′
(i)
∀i = k e A
(k)
= A

(k)
+ A
′′
(k)
.
2) Moltplicando una riga di una matrice per uno scalare λ, il determinante `e moltiplicato per λ,
cio`e se
˜
A `e ottenuta da A moltiplicando una riga di A per λ, allora det(
˜
A) = λdet(A).
3) Il determinante di una matrice cambia di segno se si scambiano due righe della matrice, cio`e
det(A) = det(
˜
A) per qualsiasi A ∈ M(n ×n, R), se
˜
A `e ottenuta da A scambiando due righe.
4) Il determinante `e zero sulle matrici con due righe uguali.
5) Sommando ad una riga un multiplo di un’altra riga il determinante non cambia.
6) Il determinante `e zero sulle matrici con una riga nulla.
7) det(A) = det(
t
A) ∀A ∈ M(n ×n, R).
8) Le regole 1,...., 6 valgono anche per le colonne.
9) det(AB) = det(A)det(B) ∀A, B ∈ M(n ×n, R).
10) Il determinante di una matrice triangolare `e il prodotto degli elementi sulla diagonale.
11) det

A B
0 C

= det(A)det(C) ∀A ∈ M(n × n, R) ∀B ∈ M(n × m, R) ∀C ∈ M(m×
m, R).
Dimostrazione omessa.
(Le propriet`a 1 e 2 sono dette in breve “il determinante `e una funzione multilineare delle righe”;
la propriet`a 3 `e detta in breve “il determinante `e una funzione alternante delle righe”.)
33
7.2 Spazi generati da righe e colonne e rango
Definizione 93 Sia A ∈ M(m× n, R). Si definisce rango per righe di A la dimensione del
sottospazio di R
n
generato dalle righe di A
rk
r
(A) = dim(A
(1)
, ..., A
(m)
)
Si definisce rango per colonne di A la dimensione del sottospazio di R
m
generato dalle colonne
di A
rk
c
(A) = dim(A
(1)
, ..., A
(n)
)
Osservazione 94 Sia A ∈ M(m×n, R). Allora
rk
r
(A) ≤ min{m, n}
in quanto rk
r
(A) `e la dimensione di un sottospazio di R
n
, quindi ha dimensione ≤ n, generato
da m elementi (le righe di A), quindi ha dimensione ≤ m. Analogamente
rk
c
(A) ≤ min{m, n}
Osservazione 95 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni
elementari di righe. Quindi il rango per righe non cambia facendo operazioni elementari di righe.
Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di
colonne. Quindi il rango per colonne non cambia facendo operazioni elementari di colonne.
Dimostrazione. Segue immediatamente dalla Proposizione 60.
Q.e.d.
Proposizione 96 Sia A una matrice a scalini allora rk
r
(A) `e uguale al numero degli scalini.
Dimostrazione.
Sia k il numero degli scalini cio`e delle righe non nulle.
Siano j
1
,..., j
k
gli indici delle colonne dove compaiono i pivots.
Per dimostrare la tesi basta dimostrare che le prime k righe sono indipendenti.
Siano λ
1
, ..., λ
k
∈ R tali che
λ
1
A
(1)
+ .... + λ
k
A
(k)
= 0 (1)
Voglio dimostrare che λ
1
= ... = λ
k
= 0.
Considerando i j
1
-esimi coefficienti dell’uguaglianza 1, ricavo
λ
1
A
1,j1
+ .... + λ
k
A
k,j1
= 0
cio`e
λ
1
A
1,j1
= 0
(in quanto A
2,j1
= .... = A
k,j1
= 0) da cui
λ
1
= 0
in quanto A
1,j1
= 0 essendo un pivot.
Considerando i j
2
-esimi coefficienti dell’uguaglianza 1, ricavo
λ
1
A
1,j2
+ λ
2
A
2,j2
+ .... + λ
k
A
k,j2
= 0
34
cio`e
λ
2
A
2,j2
= 0
(in quanto λ
1
= 0 e A
3,j2
= .... = A
k,j2
= 0) da cui
λ
2
= 0
in quanto A
2,j2
= 0 essendo un pivot.
Proseguendo analogamente ricaviamo λ
1
= ... = λ
k
= 0.
Q.e.d.
Proposizione 97 Sia A ∈ M(m×n, R). Allora
dim(Ker(f
A
)) = n −rk
r
(A)
Dimostrazione.
Ovviamente
Ker(f
A
) = {x ∈ R
n
| Ax = 0}
che, se A

`e una matrice a scalini ottenuta da A con operazioni elementari di riga, `e uguale a
{x ∈ R
n
| A

x = 0}
quindi all’insieme delle soluzioni del sistema lineare omogeneo con matrice incompleta A

.
Per trovare tale insieme di soluzioni devo scrivere le variabili che corrispondono ai pivots in
funzione di quelle che non corrispondono ai pivots.
Sia k = rk
r
(A) che `e uguale a rk
r
(A

). Modulo riordinare le variabili, posso supporre che le
variabili che corrispondono ai pivots siano le prime k: x
1
, ...., x
k
.
Sfruttando le equazioni scrivo x
1
, ...., x
k
in funzione di x
k+1
, ...., x
n
:
x
1
= f
1
(x
k+1
, ...., x
n
)
.
.
.
x
k
= f
k
(x
k+1
, ...., x
n
)
Quindi l’insieme delle soluzioni `e

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
f
1
(x
k+1
, ...., xn)
.
.
.
f
k
(x
k+1
, ...., xn)
x
k+1
.
.
.
xn
¸

| x
k+1
, ...., x
n
∈ R

=

x
k+1

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
.
.
.
.
.
1
0
.
.
0
¸

+ .... + x
n

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
.
.
.
.
.
0
.
.
0
1
¸

| x
k+1
, ...., x
n
∈ R

quindi ha dimensione n −k
Q.e.d.
Osservazione 98 Sia A ∈ M(m×n, R). Allora dim(Im(f
A
)) = rk
c
(A).
Dimostrazione.
Segue immediatamente dall’Osservazione 90.
Q.e.d.
Teorema 99 Sia A ∈ M(m×n, R). Allora rk
r
(A) = rk
c
(A)
Dimostrazione.
rk
c
(A)
Oss.98
= dim(Im(f
A
))
Relaz.Fondam.
= n −dimKer(f
A
)
Prop.97
= rk
r
(A).
Q.e.d.
35
7.3 Il teorema di Rouch´e-Capelli
Teorema 100 Teorema di Rouch´e-Capelli. Sia A ∈ M(m× n, R) e sia b ∈ R
m
. Il sistema
lineare Ax = b ha soluzione se e solo se rk(A) = rk(A|b).
Dimostrazione.
Il sistema lineare Ax = b ha soluzione se e solo se esistono x
1
, ..., x
n
∈ R tali che
x
1
A
(1)
+ .... + x
n
A
(n)
= b
cio`e se e solo se b `e combinazione lineare di A
(1)
, ...., A
(n)
. Questo equivale a dire che
A
(1)
, ...., A
(n)
= A
(1)
, ...., A
(n)
, b
Dato che si ha sempre A
(1)
, ...., A
(n)
⊂ A
(1)
, ...., A
(n)
, b, dire questi due sottospazi sono
uguali equivale a dire che le loro dimensioni sono uguali.
Q.e.d.
7.4 Relazione fra rango e determinante
Teorema 101 Sia A ∈ M(n ×n, R).
A ∈ GL(n, R) ⇔ rk(A) = n ⇔ det(A) = 0
Dimostrazione omessa.
Teorema 102 (Criterio dei minori orlati). Sia A ∈ M(m × n, R). Allora rk(A) `e k se
e solo se esite una sottomatrice k × k con determinante diverso da 0 e tutte le sottomatrici
(k + 1) ×(k + 1) contenenti tale sottomatrice hanno determinante uguale a 0
Dimostrazione omessa.
Esempio. Sia A =

¸
¸
¸
1 0 2 3 −1
−2 0 −4 −6 2
2 1 2 −6 2
0 1 −2 −12 4
¸

Esiste una sottomatrice 2×2 (per esempio quella formata dalle prime due colonne e la seconda e
terza riga) con determinante diverso da 0 e tutte le sottomatrici 3 ×3 che la contengono hanno
determinante uguale a 0; quindi il rango di A `e 2.
7.5 Metodo per calcolare l’inversa di una matrice
Sia A ∈ GL(n, R).
Un metodo per calcolare l’inversa `e il seguente (omettiamo la dimostrazione):
• affiancare ad A a destra la matrice I
n
, ottenendo cos`ı una matrice n ×2n: (A|I
n
)
• fare operazioni elementari di riga sulla matrice (A|I
n
) fino ad ottenere una matrice la cui prima
parte `e I
n
, cio`e del tipo (I
n
|B).
La matrice B cos`ı trovata `e l’inversa di A.
Esempio. Sia
A =

¸
1 0 2
0 2 1
−1 0 0
¸

36
Affiancando ad A la matrice I
3
ottengo

¸
1 0 2 1 0 0
0 2 1 0 1 0
−1 0 0 0 0 1
¸

Faccio adesso operazioni elementari di riga.

¸
1 0 2 1 0 0
0 2 1 0 1 0
0 0 2 1 0 1
¸

III + I

¸
1 0 0 0 0 −1
0 2 0 −
1
2
1 −
1
2
0 0 2 1 0 1
¸

I −III
II −
1
2
III

¸
1 0 0 0 0 −1
0 1 0 −
1
4
1
2

1
4
0 0 1
1
2
0
1
2
¸

1
2
II
1
2
III
La matrice
B =

¸
0 0 −1

1
4
1
2

1
4
1
2
0
1
2
¸

`e l’inversa di A.
NOTA. Tutto quello che `e stato detto in questo capitolo pu` o essere enunciato sostituendo C a
R.
37
8 Autovettori e autovalori, diagonalizzabilit`a
Definizione 103 Sia V uno spazio vettoriale su R e f : V → V una applicazione lineare. Un
vettore v ∈ V non nullo si dice autovettore di f se esiste λ ∈ R tale che
f(v) = λv
(quindi se f manda v in un suo multiplo). In tal caso si dice che λ `e un autovalore di f
(l’autovalore di f relativo a v).
Autovettori ed autovalori di una matrice quadrata A sono per definizione autovalori ed autovettori
di f
A
. Quindi v ∈ R
n
−{0} `e un autovettore di A con autovalore λ se vale
Av = λv
Esempio. Sia
A =

¸
1 2 0
2 1 1
0 0 1
¸

Il vettore

¸
1
1
0
¸

`e autovettore di A di autovalore 3.
Per semplicit`a tratteremo soprattutto il caso degli autovalori ed autovettori di una matrice.
Definizione 104 Sia A ∈ M(n ×n, R). Il polinomio caratteristico di A `e definito nel modo
seguente:
p
A
(t) := det(A −tI)
dove I la matrice identit`a n ×n.
Esempio. Sia
A =

¸
1 2 0
2 1 1
0 0 1
¸

Allora
p
A
(t) = det

¸
1 −t 2 0
2 1 −t 1
0 0 1 −t
¸

= (1 −t)[(1 −t)(1 −t) −4] = (1 −t)(t
2
−2t −3)
Lemma 105 Un numero reale λ `e un autovalore di A se e solo se `e una radice (reale) del
polinomio caratteristico di A.
Dimostrazione λ `e un autovalore di A ⇔∃v ∈ R
n
−{0} tale che Av = λv ⇔∃v ∈ R
n
−{0} tale
che (A−λI)v = 0 ⇔ Ker(A−λI) = {0} ⇔ A−λI non `e iniettiva
Thm.101
⇔ det(A−λI) = 0
Q.e.d.
Osservazione 106 L’insieme degli autovettori di A con autovalore λ, unito al vettore zero,
coincide con Ker(A−λI) e si dice autospazio di A relativo a λ.
38
Definizione 107 Sia A una matrice quadrata e sia λ un suo autovalore.
La dimensione di Ker(A −λI) si dice molteplicit`a geometrica di λ.
La molteplicit`a di λ come radice del polinomio caratteristico si dice molteplicit`a algebrica di
λ.
Definizione 108 Due matrici A e B si dicono simili se esiste C invertibile tale che
A = C
−1
BC
Lemma 109 Due matrici simili hanno lo stesso polinomio caratteristico.
Dimostrazione. Supponiamo che A e B siano simili, quindi esiste C tale che A = C
−1
BC.
Allora
p
A
(t) = det(A −tI) = det(C
−1
BC − tI) = det(C
−1
(B −tI)C) =
= det(C
−1
)det(B −tI)det(C) = det(B −tI) = p
B
(t)
Q.e.d.
Esercizi.
i) Provare che la similitudine una relazione di equivalenza.
ii) Provare che se A `e una matrice 2 ×2 allora p
A
(t) = t
2
−tr(A)t + det(A)
iii) Provare che gli autovalori di una matrice triangolare sono gli elementi sulla diagonale.
Definizione 110 Una matrice quadrata A si dice diagonalizzabile se `e simile ad una matrice
diagonale.
Teorema 111 Una matrice A diagonalizzabile se e solo se esiste una base di autovettori di A.
Dimostrazione. Se A `e diagonalizzabile allora esiste C invertibile tale che C
−1
AC = D con D
diagonale. Moltiplicando a sinistra per C si ottiene AC = CD.
Tale equazione equivale a AC
(j)
= λ
j
C
(j)
per ogni j = 1, ..., n dove λ
j
`e il j-esimo elemento
della diagonale di D; quindi le colonne di C formano la base richiesta di autovettori.
Viceversa se esiste una base di autovettori per A, definiamo C la matrice ottenuta affiancando
gli elementi di tale base. Allora vale AC
(j)
= λ
j
C
(j)
per ogni j = 1, ..., n; quindi, chiamando D
la matrice che ha λ
1
, ..., λ
n
sulla diagonale, si ha AC = CD, da cui C
−1
AC = D.
Osservazione 112 Se A `e simile ad una matrice D diagonale, allora sulla diagonale di D ap-
paiono gli autovalori di A (infatti A e D hanno lo stesso polinomio caratteristico).
Proposizione 113 Per qualsiasi autovalore si ha che la molteplicit`a geometrica `e minore o uguale
della molteplicit`a algebrica.
Dimostrazione omessa.
Come abbiamo gi`a detto, gran parte dell’algebra lineare che abbiamo enunciato per l’insieme dei
numeri reali R, pu` o essere in modo del tutto analogo enunciato per l’insieme dei numeri complessi
C (spazi vettoriali su C, C
n
, M(m×n, C), applicazioni lineari, determinante, rango.....)
In particolare ben definito il determinante di una matrice quadrata a coefficienti complessi e
una matrice quadrata a coefficienti complessi invertibile se e solo se il suo determinante `e non
nullo.
Con dimostrazione del tutto analoga alla dimostrazione del Lemma 105, si dimostra che λ ∈ C
`e radice del polinomio caratteristico di A se e solo se esiste v ∈ C
n
tale che Av = λv. Un tale
v si dice autovettore (complesso) di A con autovalore (complesso) λ.
39
Teorema 114 Criterio necessario e sufficiente di diagonalizzabilit`a.
Una matrice A `e diagonalizzabile se e solo se tutti le radici complesse del polinomio caratteristico
di A sono numeri reali e per ogni autovalore (reale) di A la molteplicit`a geometrica uguale alla
molteplicit`a algebrica.
Dimostrazione omessa.
Esempi.
1) Sia
A =

¸
1 −2 0
2 1 1
0 0 −1
¸

Allora
p
A
(t) = det

¸
1 −t −2 0
2 1 −t 1
0 0 −1 −t
¸

= (−1 −t)[(1 −t)(1 −t) +4] = (−1 −t)(t
2
−2t +5)
Quindi non tutte le radici complesse del polinomio caratteristico sono reali. Quindi A non `e
diagonalizzabile.
2) Sia
B =

¸
1 2 0
2 1 1
0 0 −1
¸

Allora
p
B
(t) = (−1 −t)[(1 −t)(1 −t) −4] = (−1 −t)(t
2
−2t −3) = −(t −3)(t + 1)
2
Quindi tutte le radici complesse del polinomio caratteristico sono reali. Esse sono t = 3 e t = −1.
Ovviamente la molteplicit`a algebrica di 3 `e 1, quella di −1 `e 2; ovviamente la molteplicit`a
geometrica di 3 `e 1, inoltre si calcola facilmente che la molteplicit`a geometrica di −1 `e 1; quindi
B non `e diagonalizzabile.
3) Sia
C =

¸
3 1 1
2 4 2
3 3 5
¸

Allora
p
C
(t) = −t
3
+ 12t
2
−36t + 32 = (2 −t)
2
(8 −t)
Quindi tutte le radici complesse del polinomio caratteristico sono reali. Esse sono t = 2 e
t = 8. Ovviamente la molteplicit`a algebrica di 2 `e 2, quella di 8 `e 1; ovviamente la molteplicit`a
geometrica di 8 `e 1, inoltre si calcola facilmente che la molteplicit`a geometrica di 2 `e 2; quindi
C `e diagonalizzabile.
40

8 Autovettori e autovalori, diagonalizzabilit` a

38

Ordine di lettura consigliato : 3.1, 3.2, 5.1, 5.2, 3.3, 3.4, etc

2

1

Notazioni fondamentali in matematica

“∀” significa “per qualsiasi”

“∃” significa “esiste”

“⇒” significa “implica”

“⇔” significa “implica e ` implicato”, “se e solo se” e

“∈” significa “appartiene”, “` un elemento di” e

“⊂” significa “` incluso” e

3

2

I numeri complessi

Come ` ben noto non tutte le equazioni polinomiali hanno soluzioni nei reali. Ad esempio e l’equazione x2 = −1 e non ha soluzione nei reali, cio` non esiste un numero reale x il cui quadrato ` −1. e L’insieme dei numeri complessi ` stato introdotto proprio per consentire di trovare soluzione a e tutte le equazione polinomiali, cio` ` stato introdotto come un insieme “pi` grande” dell’insieme ee u dei numeri reali, nel quale ogni equazione polinomiale ha soluzione. In altre parole per ottenere l’insieme dei numeri complessi si aggiunge all’insieme dei numeri reali l’insieme di tutte le soluzioni di equazioni polinomiali. Informalmente si definisce C (insieme dei numeri complessi) nel modo seguente: si definisce i (unit` immaginaria) come un numero che gode della seguente propriet`: a a i2 = −1 e si definisce: C = {a + bi| a, b ∈ R} Quindi un numero complesso ` un numero del tipo e z = a + bi dove a e b sono due numeri reali e i ` l’unit` immaginaria. Si dice che a ` la parte reale del e a e numero complesso a + bi e bi ` la parte immaginaria. In genere si scrive: e Re(z) = a Im(z) = b (coefficiente della parte immaginaria). La somma e il prodotto in C si definiscono nel modo seguente: (a + bi) + (c + di) = a + b + (c + d)i (a + bi) · (c + di) = ac − bd + (ad + bc)i La definizione di prodotto pu` sembrare strana e difficile da memorizzare, ma in realt` si ricava o a facilmente “facendo valere” le propriet` distribuitiva e commutative e ricordando che i2 = −1: a (a+bi)·(c+di) = a·(c+di)+bi·(c+di) = ac+adi+bci+bdi2 = ac+adi+bci−bd = ac−bd+(ad+bc)i Ovviamente si pu` vedere l’insieme dei numeri reali contenuto nell’insieme dei numeri complessi: o a ∈ R si pu` vedere come il numero complesso a + 0i. o Si definisce coniugato di un numero complesso z = a + bi il numero complesso a − bi e si denota z: z = a − bi Si definisce modulo di un numero complesso z = a + bi il numero reale |z|: |z| = a2 + b2 √ a2 + b2 e si denota

Se z ∈ R, allora il modulo coincide con il valore assoluto: infatti in tal caso, se si scrive z = a+bi, √ √ si ha che b = 0 e quindi |z| = a2 + b2 = a2 = |a|. 4

dato un qualsiasi numero complesso z = a + bi. esiste l’opposto per la somma a (cio`. Il piano identificato con l’insieme dei numeri complessi si chiama piano di Argand-Gauss. b) · (c. d) = (ac − bd. infine per qualsiasi numero complesso z = a + bi diverso da 0. b)| a. cio` un numero complesso che moltiplicato per z d` 1: esso sar` |z|2 . b). Si pu` o dimostrare facilmente che z · w = (ρλ)[cos(θ + η) + isen(θ + η)] Quindi in pratica moltiplicare per z = ρ(cos θ + isen θ) un numero complesso w significa moltiplicare per ρ la lunghezza del segmento che unisce l’origine col punto del piano che rappresenta w e ruotare tale segmento di θ. Supponiamo che z = a + bi = ρ(cos θ + isen θ) w = c + di = λ(cos η + isen η). vale la propriet` distributiva. a a esiste l’inverso. e a a z Pi` formalmente si pu` definire u o definendo la somma e il prodotto nel modo seguente: C = {(a. b ∈ R} Si dimostrano facilmente le seguenti propriet`: a 1) |z| = |z| 2) |z| = 0 se e solo se z = 0 3) |z · w| = |z||w| 4) z · z = |z|2 5) z + w = z + w 6) z · w = z · w (a. allora si ha ovviamente: z = a + bi = ρ(cos θ + isen θ) (forma trigonometrica dei numeri complessi). 0) con (a. esiste un elemento neutro per il prodotto (1 = 1 + 0i). esiste un numero complesso che sommato e a z d` 0: esso sar` −a − bi). ad + bc) L’insieme dei numeri complessi pu` essere identificato con i punti del piano in cui ` stato fissato o e un sistema di riferimento cartesiano. 0) con (a.Inoltre ` semplice dimostrare che valgono le propriet` associativa e commutativa sia per la somma e a che per il prodotto. d) = (a + b. esiste un elemento neutro per la somma (0 = 0 + 0i). b (a. b). precisamente al numero complesso a + bi si fa corrispondere il punto del piano di coordinate cartesiane (a. b) tale che π < θ ≤ π e sia ρ la lunghezza del segmento che congiunge (0. c + d) (a.b) a Sia θ l’angolo formato dal semiasse positivo delle ascisse e il segmento che congiunge (0. b) + (c. 5 .

n).   .   .       .. si definisce λx come l’elemento di Rn tale che (λx)i = λxi e ∀i = 1..  =  .     .1 Rn e le matrici Definizione di Rn e di matrici. xn yn Esempio       1 0 −2 −π 7      +      1 3 2 2 1 (cio` se x. Esempio   3    1 0 −2 −π 7      =     6  3 0 −6 −3π 21           =     . xn  i-esima componente di x. . . .   n  . L’elemento xi che compare al’i-esimo posto si definisce  Si definisce la somma fra due elementi di Rn   x1 + y1 ..  xn λxn (cio` se x ∈ Rn e λ ∈ R. ..      λ .3 3.   ∈ Rn . . + . xn ∈ R R =     . Si definisce il prodotto fra un elemento di Rn e uno scalare (cio` un numero reale) nel modo seguente: e     x1 λx1  . .   ..     xn  Notazione 2 Sia x =    x1 ..   . somma e prodotto per uno scalare Definizione 1 Sia n un numero naturale ≥ 1. | x1 . Si definisce     x1     . xn + yn       Definizione 3 Sia n un numero naturale ≥ 1. n). . nel modo seguente:    x1 y1  ..     .. y ∈ Rn .   2 3 0 −π + 2 8           =     Definizione 4 Sia n un numero naturale ≥ 1. si definisce x + y come l’elemento di Rn tale che (x + y)i = xi + yi e ∀i = 1..

Analogamente fissando un sistema cartesiano nello spazio.j . Una matrice m × n ` una tabella con m e righe e n colonne. Si definisce M (m × n. n due numero naturale ≥ 1. In tal modo 0 y 2 la somma di due elementi di R pu` essere interpretata geometricamente tramite la cosiddetta o regola del parallelogramma: x’ y’ x y x+x’ y+y’ Definizione 7 Siano m. j = 1. Esempio       1 0 −2 −π 7   0 2 0 3     1 −1  +    4 5   0 1 1 3 2 2 1 3 2 1 0 0 −1 4 1 √ −6 − 2 7      =      2 3 0 −π + 2 8 3 4 1 3 1 −2 8 6√ −6 1 − 2       . B ∈ M (m × n.j o Ai..j = Ai. n.. R). Osservazione 6 “Regola del parallelogramma” Per ogni elemento segmento orientato avente x y di R2 consideriamo il 0 x come punto iniziale e come punto finale. Si dice a coefficienti in R se tutti gli elementi sulla tabella sono numeri reali. m. si definisce A + B come la matrice m × n tale che (A + B)i. R) = {A| A matrice m × n a coeff icienti in R} Definizione 10 Siano m. Si definisce la somma fra due elementi di M (m × n.. Notazione 8 L’elemento che sta sull’i-esima riga e j-esima colonna di una matrice A si denota con ai.. Definizione 9 Siano m e n due numeri naturali ≥ 1. n due numeri naturali ≥ 1.j ∀i = 1. R) nel modo seguente: siano A. si stabilisce un’ovvia bigezione fra R3 e lo spazio. La riga i-esima si denota con A(i) .j + Bi. si stabilisce un’ovvia bigezione fra R2 e il piano. .Osservazione 5 Fissando un sistema cartesiano nel piano.. La colonna j-esima si denota con A(j) .. .

R) ` uno spazio vettoriale su R. trasposta. 3. R) (propriet` commutativa della somma) a 3) La matrice m × n con tutti i coefficienti nulli ` un elemento neutro per la somma in M (m × e n.. n due numero naturale ≥ 1. traccia Definizione 13 Sia n ∈ N n ≥ 1. B ∈ M (m × n.. B. .Definizione 11 Siano m... R) l’elemento (−1)A ` opposto di A per la somma in M (m × n. C ∈ M (m × n.. si possono definire Cn . Valgono per essi propriet` del tutto anaologhe a a quelle enunciate per R. R) 8) 1A = A ∀A ∈ M (m × n.n ). n. R)) 7) (λµ)A = λ(µA) ∀λ. Si definisce il prodotto fra un elemento di M (m × n.. B ∈ M (m × n. R).j ∀i = 1. .1 .j = λAi. Esempio   3    1 0 −2 −π 7   0 2 3 0 3   0   1 −1  =  −6   4 5   −3π 0 1 21  0 6 0 9   3 −3   12 15  0 3 Proposizione 12 Valgono le seguenti propriet`: a 1) (A + B) + C = A + (B + C) ∀A.j = 0 per i = j (cio` se tutti gli elementi al di fuori della diagonale principale sono nulli). R). e In modo del tutto analogo a come si ` definito Rn .. an.. µ ∈ R ∀A ∈ M (m × n. R) (propriet` associativa della somma) a 2) A + B = B + A ∀A. Dimostrazione. Si dice che A ` diagonale se e ai. Nel capitolo 3 vedremo che la proposizione sopra si pu` enunciare brevemente dicendo che o M (m × n. R). e 8 . R). e cio` A + (−1)A = (−1)A + A = 0m×n e 5) (λ + µ)A = λA + µA ∀λ. R) e uno scalare nel modo seguente: sia A ∈ M (m × n. le matrici a coefficienti in C e le operazioni di somma e moltiplicazione per scalari.. R) (propriet` distributiva rispetto alla a somma in R) 6) λ(A + B) = λA + λB ∀λ ∈ R ∀A. Per esercizio. j = 1. Sia A ∈ M (n × n. e 4) Per ogni A ∈ M (m × n. . Sia A ∈ M (n × n. R). Definizione 14 Sia n ∈ N n ≥ 1.. m. R). cio` 0m×n + A = A + 0m×n = A ∀A ∈ M (m × n.2 Vari tipi di matrici. si definisce λA come la matrice m × n tale che (λA)i. le matrici a coefficienti in R e le operazioni e di somma e moltiplicazione per scalari. µ ∈ R ∀A ∈ M (m × n. R) (propriet` distributiva rispetto alla a somma in M (m × n. Si definisce diagonale (principale) di A l’n-upla (a1. R) e λ ∈ R.

Sia A ∈ M (n×n. Sia A ∈ M (n × n. R).j = 0 per i > j (cio` se tutti gli elementi al di sotto della diagonale principale sono nulli). Si dice che A ` triangolare superiore e se ai.j = aj. R). e Esempio       3 0 π 0 0 0 1 1 2 4 0 0 2 2 0 0 0 0 2 3 0 0 0 0 0       Definizione 17 Sia n ∈ N n ≥ 1. e Esempio  4  1   0 7 1 0 2 6  0 7 2 6   9 −3  −3 8 9 .i ∀i.Esempio  3  0   0 0 0 1 0 0 0 0 −3 0  0 0   0  2 a Esempio (fondamentale) Si dice matrice identit` n × n (e si denota con In ) la matrice n × n con tutti 1 sulla diagonale e 0 altrove. Sia A ∈ M (n × n. Per esempio I1 = (1) I2 =  1 0 0 1  0 0  1 Definizione 15 Sia n ∈ N n ≥ 1. R). Si dice che A ` triangolare inferiore e se ai. Si dice che A ` simmetrica se e ai. j (cio` se gli elementi simmetrici rispetto alla diagonale principale sono uguali). e Esempio       1 0 0 0 0 1 1 0 0 0 1 2 0 0 0  6 1 6 −1   −3 4   −3 2  0 23 1 0 I3 =  0 1 0 0 Definizione 16 Sia n ∈ N n ≥ 1.j = 0 per i < j (cio` se tutti gli elementi al di sopra della diagonale principale sono nulli).

. m. R).i = Aj. m} si ha (t (A + B))i.j + (tB)i.j = (A + B)j.. 2) t (A + B) = tA + tB ∀A.... n} si ha (t (tA))i. R)..d. 1) A ` simmetrica se e solo se A = tA e 2) A ` antisimmetrica se e solo se A = −tA e Definizione 23 Si definisce traccia di una matrice quadrata la somma degli elementi della sua diagonale.i + Bj. R)..i (tA + tB)i.j = −aj.. Dimostrazione. . . e Esempio  0 1  −1 0   0 −2 7 −6  0 −7 2 6   0 −3  3 0 Osservazione 19 Gli elementi sulla diagonale principale di una matrice antisimmetrica sono nulli.i = 0.. . .Definizione 18 Sia n ∈ N n ≥ 1. Si dice che A ` antisimmetrica se e ai. Sia A ∈ M (n × n.j 2) Per ogni i ∈ {1. j ∈ 1. Si definisce trasposta di A (che si indica con tA) la matrice n × m cos` definita: ı (tA)i.e.j = (tA)j.. pertanto 2ai... B ∈ M (m × n. R). m} e per ogni j ∈ {1. Sia A ∈ M (m × n.. m} si ha (t (λA))i.i 3) Per ogni i ∈ {1.i = λ(tA)i. .i = λAj..i + Bj..j = Aj. . (Infatti ai. 10 .i ∀i ∈ {1...i ∀i...j = (tA)i. ..... Osservazione 22 Sia n ∈ N n ≥ 1.. . R). 1) Per ogni i ∈ {1.i = Ai..j Q. Sia A ∈ M (n × n. n} e per ogni j ∈ {1.. n} e per ogni j ∈ {1.j = Aj. j ∈ {1.. R). .i = 0 e quindi ai.) Definizione 20 Siano m e n due numeri naturali ≥ 1.i ∀i ∈ 1...i = −ai. .j = (λA)j. 3) t (λA) = λtA ∀λ ∈ R ∀A ∈ M (m × n. Proposizione 21 Propriet` della trasposta a 1) t (tA) = A ∀A ∈ M (m × n. n}. n} (cio` se gli elementi simmetrici rispetto alla diagonale principale sono opposti). n.

w) = −1 · 1 + 31 · 0 + 2 · 1 + 9 · (−1) = −8... w ∈ Rn 2) Bilinearit`: a linearit` nel primo argomento: a (λv.3 Prodotto scalare standard e norma Definizione 24 Sia n un numero naturale ≥ 1... quindi ne posso considerare la radice quadrata).n vi wi (λv.. u) + (w. w) Esempio Siano  −1  31   v=  2  9   1  0   w=  1  −1  Allora (v..... inoltre (v.. v) ∀v. w) = λ(v. e Q.n vi wi (v + w.n (vi ui + wi ui ) = i=1. u) i=1...n vi λwi = λ i=1. Si definisce prodotto scalare standard fra due elementi v e w di Rn il numero reale vi wi i=1. . v) cio` la radice quadrata del prodotto scalare di v con se stesso (che ` positivo per la propriet` 3 e e a del prodotto scalare....n Esso si indica con (v. λw) = λ(v.. w) ∀λ ∈ R ∀v. u ∈ Rn 3) Definita positivit`: a (v.n vi (λw)i = i=1.. .... a 2 3) (v.. cio` e vi vi = i=1... v) ≥ 0 ∀v ∈ Rn (positivit`). u) + (w. w) ∀λ ∈ R ∀v....n vi ≥ 0...e......n wi ui = (v. u) = (v.n (v + w)i ui = vi ui + i=1..... u) ∀v.......3...n λvi wi = λ i=1.n vi wi = i=1. λw) = i=1...n vi vi = i=1..... w ∈ Rn (v + w.. w) = i=1... Proposizione 25 Propriet` del prodotto scalare standard a 1) Simmetria: (v. Definizione 26 Sia v ∈ Rn . n cio` se e solo se vi = 0 ∀i = 1..n 11 . w. v) = i=1. w) + (v.n (vi + wi )ui = i=1. w) = i=1...... w ∈ Rn (v....... Si definisce norma o lunghezza di v il numero reale (v. u) ∀v.. a Dimostrazione. n. u ∈ Rn linearit` nel secondo argomento: a (v... v) = 0 se e solo se v = 0...n (vi )2 i=1.. v) 2) λ(v. 1) (v. w..n (vi ) = 0 e questo ` vero se e solo se (vi ) = 0 ∀i = 1. v) = 0 se e solo se i=1. w) = λ i=1. w) = (w.....n La linearit` nel secondo argomento si dimostra in modo analogo oppure la possiamo derivare a dalla linearit` nel secondo argomento e la simmetria..d..n (λv)i wi = i=1. 2 2 e inoltre (v.... w + u) = (v. u) = i=1.n wi vi = (w.n vi wi (v.....

Sia A ∈ M (m×n. l tre numeri naturali ≥ 1.. l... . m...... n.... ∀j = 1....4 Prodotto di matrici Definizione 28 Siano m. Esempio  1 0  11 2 −1 1   1 0 3 2 −1  11 20   =  31 0 2   0 2  −1 1 9 −1 1    8 42  19 a Osservazione 29 Il prodotto di matrici non gode della propriet` commutativa.n vi = 0. n. ∀v ∈ Rn Dimostrazione...n vi = |λ| = |λ||v| 3.. Esempio 1 0 −1 2 1 3 10 −1 1 3 10 −1 = = 1 10 5 −12 −9 20 4 −2 1 0 −1 2 12 .n Ai.... quindi 2 i=1. inoltre se v ∈ Rn e |v| = 0 allora i=1. Proposizione 27 Propriet` della norma a 1) |v| ≥ 0 ∀v ∈ Rn ...n (λv)i 2) |λv| = = (λv. Si definisce AB la matrice m × l cos` definita: ı (AB)i.. B(j) ) (prodotto scalare standard fra la trasposta della riga i-esima di A e la colonna j-esima di B) ∀i = 1. .n λ vi 2 i=1.. Inoltre ovviamente e √ 2 |0| = 0 · 0 + .n vi 2 = 0. quindi vi = 0 i = 1.k Bk... . + 0 · 0 = 0.. R)... equivalentemente. R) e B ∈ M (n×l.... 2 2 i=1...... . l.d. m.....Esempio Sia  −1  3   v=  2  2  Allora |v| = √ 18... (AB)i.j = (t A(i) . o.. n.n vi = Q. quindi vi = 0 i = 1.. ..n (λvi ) 2 i=1... ∀j = 1.. . cio` v = 0. 1) Essendo la norma una radice quadrata ` ovviamente maggiore o uguale a 0.. inoltre |v| = 0 se e solo se v = 0 2) |λv| = |λ||v| ∀λ...j = k=1. λv) = = λ2 = 2 i=1... e 2 i=1..j ∀i = 1.e..

..i Q. B ∈ M (n × p.. Sia A ∈ M (n × n..k (tB)i.k Ck.. 0 se k = j 1 se k = j Q. R).. quindi per provare un’uguaglianza di matrici.r Br..k (B + C)k... R). R).. R).j ] = k=1.n Ai...n Ai..j 1 = Ai. basta ovviamente dimostrare che i coefficienti corrispondenti sono uguali..n Ai.e.r Br.j = = k=1.t Bt. R).. R) tale che AB = BA = In 13 . 4) (λ(AB))i.j = k=1. B ∈ M (n × p. cos` definito ı k=1.. il coefficiente i.j k=1.j = t=1.p Ai.r=1...r Br. B ∈ M (m × n.n Ai... R).. R).k Ck..n..n Ai. 5) (AIn )i.k δk. B ∈ M (n × p.n Ai. λ ∈ R 5) AIn = A e Im A ∀A ∈ M (m × n.t = t=1.j = (AB)j.p.. C ∈ M (n × p..t Bt.j ) = = k=1....e.....n Ai...j = Analogamente l’altra uguaglianza... R)..p Br.i Aj... R).k Ck...k Bk.j + k=1.. basta dimostrare che per qualsiasi i.r (BC)r.....j + Ck.p r=1. B ∈ M (k × n....k Bk.d.j = (AB)i..k Bt.j = ((λA)B)i...j = λ k=1.j = Analogamente la seconda uguaglianza.k (Bk.k (In )k..k ]Ck... Dimostrazione.. C ∈ M (n × p.k Ck.j + Ai..k Aj.j + (AC)i. 3) (A + B)C = AC + BC ∀A ∈ M (m × n......j = Ai.j = k=1.j = = k=1.... Proposizione 31 t (AB) = tB tA ∀A ∈ M (m × k.j = k=1.r Br.j dove δk.i = t=1..t (tA)t. j..d..j = simbolo di Kronecker.k Ck.n Ai...n Ai.j = k=1.j 3) Analoga a 2).k Bk.j = λ(AB)i. Si dice che A ` invertibile se esiste e B ∈ M (n × n.j ) = k=1.p [ r=1. R)..j = k=1.. R)..n Ai.....j ) = k=1.n λ(Ai.Proposizione 30 Propriet` del prodotto di matrici a 1) (AB)C = A(BC) ∀A ∈ M (m × n. (t (AB))i....r Br.k )Bk.p [ r=1...n Ai. R).k=1. n ≥ 1. e 1) ((AB)C)i. 4) λ(AB) = (λA)B = A(λB) ∀A ∈ M (m × n..j r=1.. Per dimostrare che due matrici sono uguali..j = k=1.j ` il cosidetto e δk....j = t=1..k Ck. R) Dimostrazione..5 Matrici invertibili Definizione 32 Sia n ∈ N...j (A(BC))i.n (λA)i.j = = r=1.i (tB tA)i... j del secondo membro.. R). 3. R).k Ck.k Bk...r 2) (A(B + C))i...p (AB)i. j del primo membro ` uguale al coefficiente i.n (λAi.j = k=1...j = Ai.n (Ai.k Aj.k Ck......k Bk..n Ai... C ∈ M (p × q...n r=1. 2) A(B + C) = AB + AC ∀A ∈ M (m × n.j = = (AB + AC)i.

R). Per ipotesi so che AB = In Moltiplico a sinistra entrambi i membri dell’uguaglianza per C.1. Allora B = C. 14 .2. R) allora A−1 ∈ GL(n. B ∈ GL(n. a b c d ` invertibile se e solo se ad−bc = 0 e in tal caso l’inversa ` e e 1 ad−bc d −c −b a . ottengo In B = C e quindi B=C Q. 3. R) = {A ∈ M (n × n. R) = {(a)| a ∈ R − {0}} Osservazione 35 Sia n ∈ N. R) e (AB)−1 = B −1 A−1 ii) Se A ∈ GL(n. Tale e matrice si dice l’inversa di A e si denota con A−1 . 3. Siano B. C ∈ M (n × n. Sia A ∈ M (n × n. ottenendo cos` ı C(AB) = CIn da cui (CA)B = C Dato che per ipotesi CA = In . R)| A invertibile} Esempio. NOTA. n ≥ 1. Allora AB ∈ GL(n.) Sia n ∈ N. i) Siano A. R) tali che AB = BA = In = AC = CA.4 e 3. Tutto quello che ` stato detto nei paragrafi 3.5 pu` essere enunciato e o sostituendo C a R. R) e (A−1 )−1 = A Esercizio. GL(1. n ≥ 1.Definizione. R). In altre parole se A ` invertibile esiste una e una sola matrice B tale che AB = BA = In .d.e. Notazione 34 GL(n.Osservazione 33 (. Dimostrazione.

La matrice m × (n + 1) ottenuta affiancando (a destra) ad A l’m-upla b si chiama matrice completa del sistema e si indica con A|b Esempio Consideriamo il seguente sistema lineare nelle incognite x1 . sistemi lineari omogenei e non Definizione 36 Un sistema lineare ` un sistema di equazioni lineari cio` un sistema di equazioni e e i cui membri sono polinomi di grado ≤ 1 nelle incognite. .  1 −6 0 0 0 −1 −6 5  −1 −1 0 3 4... .  (Basta prendere..   2x1 + x3 − 6x4 = 0 x1 − x4 − 6x5 = 5  x2 − x3 − x4 = 3 La matrice incompleta A e b saranno   2 0 1 −6 0 A =  1 0 0 −1 −6  0 1 −1 −1 0 La matrice completa A|b sar` a 2 0 A|b =  1 0 0 1   0 b= 5  3  Definizione 39 Un sistema lineare Ax = b si dice omogeneo se b = 0.    per una certa matrice A ∈ M (m × n. x5 .. Vogliamo adesso illustrare un metodo sistematico per risolvere i sistemi lineari. 15 .4 4. x4 . matrici a scalini Definizione 40 Si definiscono operazioni elementari sulle righe di una matrice le seguenti operazioni: operazioni di tipo I: scambiare due righe operazioni di tipo II: moltiplicare una riga per uno scalare non nullo operazioni di tipo III: sommare ad una riga un multiplo di un’altra riga. x3 . xn pu` essere scritto o nella forma Ax = b   x1 xn  .  . . per ogni i.2 Operazioni elementari di riga..1 Sistemi lineari Forma matriciale dei sistemi lineari. xn nella i-esima equazione del sistema e come bi il termine noto della i-esima equazione del sistema). Per fare ci` o occorre premettere le nozioni di matrici a scalini e operazioni elementari di riga. R) e un certo b ∈ Rm . x2 .. dove x =  . Osservazione 37 Un sistema lineare di m equazioni e n incognite x1 . Definizione 38 La matrice A si dice matrice incompleta del sistema. come coefficienti della i-esima riga di A i coefficienti di x1 .

Ripetiamo il procedimento sulla matrice ottenuta togliendo la prima riga.e. Q. Con un scambio opportuno di righe possiamo fare in modo che il primo elemento della j-esima colonna sia diverso da zero. Dimostrazione. Con operazioni di tipo III possiamo fare in modo che tutti gli elementi dal secondo in poi della j-esima colonna siano nulli. Per induzione sul numero di righe della matrice. Esempio   0  0   0 0  6 −1 6 −1   −3 4  10 12  0 6 −1 2 0 0  II − I  0 −15 6  III − 2I 0 10 12 1 1 2 0 0 2 0 0 16 0 1  0 0   0 0 0 0 . una matrice a scalini.Definizione 41 Una matrice si dice a scalini (per righe) se soddisfa la seguente propriet`: a se in una riga i primi k elementi sono nulli allora la riga successiva (se esiste) o ` tutta nulla o e almeno i primi k + 1 elementi sono nulli. si pu` ottenere da essa. Sia j l’indice della prima colonna non nulla. Esempi di matrici a scalini  0  0   0 0  3  0   0   0 0  0  0   0 0  1  0   0   0 0 1 0 0 0 1 1 0 0 0 0 2 0 0 0 0 0 0 0  6 −1 6 −1   −3 4  0 12  9 1 6 −1   −3 4   0 2  0 0  6 −1 6 −1   −3 4  0 12  6 1 6 −1   −3 4   0 12  0 0 Esempi di matrici non a scalini 1 1 2 0 1 1 2 2 0 0 2 0 0 1 2 0 0 0 Proposizione 43 Data una qualsiasi matrice.d. con operazioni elementari o di riga di tipo I e III. Definizione 42 Il primo elemento non nullo di ogni riga non nulla di una matrice a scalini si dice pivot.

u: x = −2y − 3 − 2u + 4 − 2u + u = −2y − 3u + 1 17 . w. partendo dall’ultima. si scrivono le incognite corrispondenti ai pivots in funzione di quelle non corrispondenti ai pivots.3 Metodo per risolvere un sistema lineare quando la sua matrice completa ` a scalini e Si scrive la matrice completa del sistema e si scrivono le incognite sopra essa. u. ricavo anche z in funzione di a y. u): w =2−u Dalla penultima equazione z − w − 3u = 1 ricavo z = w + 3u + 1 e. u. z. ricavo anche x in funzione a di y. u. 0  0   0 0 1 0 0 0  0 6 −1 2 0 0   0 −15 6  2 IV + 3 III 0 0 16 4. quelle che non corrispondono ai pivots sono y. Supponiamo che non ci siano pivots nell’ultima colonna della matrice completa. Sfruttando le equazioni. Consideriamo il seguente sistema lineare   x + 2y + z − 2w − u = 0 z − w − 3u = 1  w+u=2 x y 1 2  0 0 0 0  z 1 1 0 Scriviamo la matrice associata e scriviamo le incognite sopra la matrice w u  −2 −1 0 −1 −3 1  1 1 2 Le variabili che corrispondono ai pivots sono x. Dall’ultima equazione w + u = 2 ricavo w in funzione di u (e quindi di y. Voglio scrivere le variabili che corrispondono ai pivots in funzione delle variabili che non corrispondono ai pivots. u: z = 2 − u + 3u + 1 = 3 + 2u Dalla prima equazione ricavo x = −2y − z + 2w + u da cui sostituendo l’espressione gi` trovate di w e z in funzione di y. Esempio. Chiamiamo “incognite corrispondenti ad un pivot” quelle che “stanno sopra un pivot” e “incognite non corrispondenti ad un pivot” le altre. sostituendo l’espressione gi` trovata di w in funzione di y.

Si risolve il sistema lineare associato alla matrice cos` ottenuta. u ∈ R                        +     Metodo per risolvere un qualsiasi sistema lineare Osservazione 44 Facendo operazioni elementari di riga sulla matrice completa di un sistema lineare non si altera l’insieme delle soluzioni.e.4 che si pu` anche scrivere o          y        Quindi l’insieme delle soluzioni del sistema lineare   −2y − 3u + 1    y   3 + 2u   −u + 2    u −2 1 0 0 0      +u      −3 0 2 −1 1  ` e     | y. Fare un’operazione elementare di riga di tipo III (moltiplicare una riga per uno scalre non nullo) sulla matrice associata al sistema significa moltiplicare entrambi i membri di un’equazione del sistema per uno scalare non nullo e questo ovviamente non altera l’insieme delle soluzioni. l’insieme delle soluzioni ` uguale all’ insieme delle soluzioni ı e del sistema iniziale per l’Osservazione 44. facendo operazioni elementari di  1 1 1 −3 −1  0 1 1 −1 −1 2 2 3 −5 −1 18 Scriviamo la matrice associata al sistema  0 1 1 −1  1 1 1 −3 2 2 3 −5 .  0 II 1  I −1 Riduciamo a scalini. Facendo operazioni elementari di riga. Dimostrazione. Fare un’operazione elementare di riga di tipo I (scambio di due righe) sulla matrice associata al sistema significa scambiare due equazioni del sistema e questo ovviamente non altera l’insieme delle soluzioni. Infine fare un’operazione elementare di riga di tipo II (sommare ad una riga un multiplo di un’altra riga) sulla matrice associata al sistema significa sommare ad un’equazione un multiplo di un’altra equazione (membro a membro) e questo non altera l’insieme delle soluzioni. Anzi tutto si scrive la matrice completa associata al sistema. si riduce la matrice completa del sistema in forma a scalini. Esempio Consideriamo il sistema lineare  y+z−w−u=1  x + y + z − 3w − u = 0  2x + 2y + 3z − 5w − u = −1  −1 1 −1 0  −1 −1 riga.d.4. Q. Vediamo adesso come si risolve un sistema lineare qualsiasi. u ∈ R         1 0 3 2 0     | y.

Dall’ultima equazione ricaviamo e z = −w − u − 1 Dalla seconda equazione ricaviamo y = −z + w + u + 1 da cui sostituendo y = w + u + 1 + w + u + 1 = 2w + 2u + 2 Dalla prima equazione ricaviamo x = −y − z + 3w + u da cui sostituendo x = −2w − 2u − 2 + w + u + 1 + 3w + u = −1 + 2w Quindi l’insieme del soluzioni ` e  −1 + 2w     2u + 2w + 2   −u − w − 1   w    u           | w. (Infatti un sistema linare omogeneo si pu` scrivere nella forma Ax = 0 e 0 ` una soluzione infatti o e A0 = 0. cio` x. 19 . cio` w.e. u. u ∈ R        Osservazione 45 Un sistema lineare omogeneo ha sempre una soluzione: quella nulla. il quale per ipotesi e ` minore del numero dell incognite. Quando riduco la matrice completa a scalini. Quindi il numero dei pivots ` minore del numero delle e e incognite. quindi assegnando dei valori non nulli ad esse ottengo una soluzione non nulla.d. Scriviamo le incognite sopra la matrice a scalini cos` ottenuta: ı  x 1  0 0 y z w 1 1 −3 1 1 −1 0 1 1 1 1  0 1 0 0 1 −3 1 −1 1 1  −1 0 −1 1  1 −1 III − 2I u  −1 0 −1 1  1 −1 Ricaviamo adesso le variabili che corrispondono ai pivots. Pertanto ci sono necessariamente delle variabili non corrispondenti a pivots. il numero dei pivots ` ovviamente minore o uguale e al numero delle righe che ` uguale al numero delle equazioni del sistema. Q. z in funzione di quelle che e non corrispondono ai pivots.) Osservazione 46 Un sistema lineare omogeneo con pi` incognite che equazioni ha una soluzione u non nulla. Dimostrazione. y.

infatti Ay = A(x − x) = Ax − Ax = b − b = 0. NOTA.e. + 0xn = p.d. 20 . Sia S1 := {x ∈ Rn | Ax = b} e S2 := {x + y| y ∈ Rn e Ay = 0}. Viceversa se non ci sono pivots nell’ultima colonna allora trovo le soluzioni con il metodo illustrato sopra. Per la e propriet` distributiva del prodotto di matrici A(x + y) = Ax + Ay = b + 0 = b. e Dimostrazione.Osservazione 47 Un sistema lineare ha soluzione se e solo se.. Definisco y = x − x. Ovviamente Ay = 0. Ma questo ` ovvio in quanto se c’` un pivot nell’ultima colonna (chiamiamolo p) vuol dire che e e nel sistema lineare c’` l’equazione 0x1 + . che ovviamente non ha soluzioni in e quanto p = 0. Teorema 48 Teorema di struttura delle soluzioni di un sistema lineare Sia A ∈ M (m × n. Supponiamo che il sistema Ax = b abbia una soluzione. Dimostriamo anzitutto che S2 ⊂ S1 . Q. Sia y ∈ Rn tale che Ay = 0. Q. a Dimostriamo adesso che S1 ⊂ S2 . Voglio dimostrare che x + y ∈ S1 cio` che A(x + y) = b. Sia x ∈ S1 ..d.. Tutto quello che ` stato detto in questo capitolo pu` essere enunciato sostituendo C a e o R. Basta dimostrare che un sistema lineare la cui matrice completa ` a scalini ha soluzioni se e solo se non ci sono pivots nell’ultima colonna.e. non ci sono pivots nell’ultima colonna. Sia x una soluzione del sistema lineare Ax = b. Occorre dimostrare che esiste y ∈ Rn tale che Ay = 0 e x = x + y. Allora {x ∈ Rn | Ax = b} = {x + y| y ∈ Rn e Ay = 0} Dimostrazione. riducendo a scalini con operazioni elementari di riga la matrice completa. R) e sia b ∈ Rm .

e. µ ∈ R ∀v ∈ V (propriet` distributiva rispetto alla somma in R) a 6) λ(v + w) = λv + λw ∀λ ∈ R ∀v. w ∈ V (propriet` distributiva rispetto alla somma in V ) a 7) (λµ)v = λ(µv) ∀λ. Dimostrazione. 0V = 0R v + 0V 21 .) 4) Per ogni v ∈ V esiste un opposto. w. cio` un elemento v ′ ∈ V tale che v + v ′ = v ′ + v = 0V e 5) (λ + µ)v = λv + µv ∀λ. Osservazione 51 In ogni spazio vettoriale V si ha che 0R v = 0V ∀v ∈ V Dimostrazione. Si ha: 0R v = (0R + 0R )v = 0R v + 0R v (la prima uguaglianza segue dal fatto che 0R + 0R = 0R . applicando la definizione di opposto al primo membro e la propriet` 1 di spazio vettoriale a cio` la propriet` associativa della somma al secondo membro. e Inoltre si ha che z + z ′ = z ′ in quanto z ` elemento neutro per la somma.d. ottengo e a 0V = 0R v + (0R v + w) e quindi. si ottiene 0R v + w = (0R v + 0R v) + w e quindi. una (detta somma) + : V ×V → V . µ ∈ R ∀v ∈ V 8) 1v = v ∀v ∈ V Osservazione 50 In ogni spazio vettoriale V esiste un solo elemento neutro per la somma. Siano z e z ′ due elementi neutri per la somma di V Si ha che z + z ′ = z in quanto z ′ ` elemento neutro per la somma. cio` la propriet` distributiva rispetto alla somma in R). Si dice che V ` uno spazio vettoriale su R se valgono le seguenti propriet`: e a 1) (v + w) + u = v + (w + u) ∀v. e Quindi z = z ′ . in quanto sono entrambi uguali a z + z ′ . Q. u ∈ V (propriet` associativa della somma) a 2) v + w = w + v ∀v. l’altra (detta prodotto per scalari) · : R × V → V . Sommando w al primo a membro e all’ultimo membro della catena di uguaglianze sopra. (Si pu` dimostrare che tale elemento ` necessariamente unico.1 Spazi vettoriali Definizione e prime propriet` a Definizione 49 Sia V un insieme dotato di due operazioni. e a Sia w un opposto di 0R v (esite per la propriet` 4 degli spazi vettoriali). w ∈ V (propriet` commutativa della somma) a 3) Esiste un elemento neutro per la somma. cio` esiste un elemento z di V tale che z+v = v+z = e v ∀v ∈ V . vedere l’osservazione o e immediatamente seguente questa definizione. la seconda segue dalla propriet` 5 a degli spazi vettoriali. lo denoteremo quindi 0V e lo chiameremo zero di V .5 5. per definizione di opposto.

... (−1)v + v = (−1)v + 1v = (−1 + 1)v = 0R v = 0V (la prima uguaglianza segue dalla propriet` 8 degli spazi vettoriali. + λk vk 22 . . Q.d.. Siano v ′ e v ′′ due opposti di v. l’ultima dall’osservazione precedente). Esempio basilare. Siano v1 . m ∈ N. e Dimostrazione. vk con coefficienti λ1 . Sia n ∈ N.da cui 0V = 0R v Q.. l’insieme Rn con le operazioni di somma e di prodotto per uno scalare definite nel capitolo 1 ` uno spazio vettoriale.e. Q. e Esempio basilare. .d.d. λk il vettore λ1 v1 + .. quindi v ′ + v = 0V e v ′′ + v = 0V . si ottiene (v ′ + v) + w = (v ′′ + v) + w e quindi v ′ + (v + w) = v ′′ + (v + w) Pertanto v ′ + 0V = v ′′ + 0V da cui v ′ = v ′′ . e Definizione 54 Gli elementi di uno spazio vettoriale si dicono vettori. w. λk ∈ R. di v .. l’insieme M (m×n.e.... n... . n. Osservazione 53 Per qualsiasi v ∈ V .. e Dimostrazione. m ≥ 1. la seconda dalla propriet` a a distributiva rispetto alla somma in R. Osservazione 52 Per qualsiasi v ∈ V l’elemento (−1)v ` un opposto di v.e. in particolare v ′ + v = v ′′ + v Sommando ad entrambi i membri un opposto. Siano n. . R) con le operazioni di somma e di prodotto per uno scalare definite nel capitolo 1 ` uno spazio vettoriale. esiste un solo opposto di v (e quindi per l’osservazione precedente ` (−1)v). Si definisce combinazione lineare di v1 . ≥ 1. .. vk ∈ V e λ1 . Definizione 55 Sia V uno spazio vettoriale.

Un sottospazio di V ` un sottoinsieme non e vuoto S di V tale che • v + w ∈ S ∀v.. + λk vk | λ1 . + λk vk e µ1 v1 + e .. + λk vk .. (In genere ` denotato v1 . Siano v1 ..2 Sottospazi vettoriali Definizione 56 Sia V uno spazio vettoriale su R.. Dimostrazione. S ` non vuoto..... + (γλk )vk che ` un elemento di S. Osservazione 58 Un sottospazio vettoriale S di uno spazio vettoriale V con le operazioni di somma e di prodotto per scalari ereditate da V ` lui stesso uno spazio vettoriale.. e Proposizione 59 Sia V uno spazio vettoriale... vk ”.... per le propriet` 6) e 7) degli spazi vettoriali. ` uguale a a e (γλ1 )v1 + . . + λk vk ) + (µ1 v1 + .. infatti sommando due elementi di S... + λk vk | λ1 . per uno scalare γ. cio` e {λ1 v1 + . Essendo un sottospazio..e. .... + µk vk .. λk ∈ R}. e Q.... per la propriet` e a di chiusura per la moltiplicazione per scalari. si ha che OR v = 0V . e • S ` chiuso per la moltiplicazione per scalari. λ1 v1 + e .. per le propriet` 1). ∀v ∈ S (chiusura per la moltiplicazione per scalari).. ` uguale a a e (λ1 + µ1 )v1 + .. . λ1 v1 + . si ottiene (λ1 v1 + .. Ma.. si ottiene γ(λ1 v1 + .d... 23 .. Ovviamente S ` non vuoto.) e e Dimostrazione. infatti. e Osservazione 57 Un sottospazio vettoriale S di uno spazio vettoriale V contiene 0V .e. vk ∈ V . + µk vk ) che. e • S ` chiuso per la somma. L’insieme delle combinazioni lineari di v1 . per l’osservazione 51. sia k un qualsiasi numero naturale positivo.. + (λk + µk )vk che ` un elemento di S. Q.... infatti la somma di due matrici simmetriche ` simmetrica e il prodotto fra uno e scalare e una matrice simmetrica ` ancora una matrice simmetrica. quindi 0V ∈ S. vk . Sia S = {λ1 v1 + . L’insieme delle matrici simmetriche n × n ` un sottospazio vettoriale dell’insieme delle e matrici n × n.....d.. + λk vk ) che. w ∈ S (chiusura per la somma) • λv ∈ S ∀λ ∈ R. .. si deve avere che OR v ∈ S. Esempio. .5.5) degli spazi vettoriali...2). vk e si legge “span di v1 . moltiplicando un elemento di S.. λk ∈ R} ` un sottospazio vettoriale di V .. Allora. .. quindi contiene un elemento v.

. dimensione Definizione 62 Sia V uno spazio vettoriale. basi. potrei facilmente trovare una combinazione con coefficienti non tutti nulli dell’insieme di vettori (basta prendere gli stessi coefficienti per i vettori del sottoinsieme e coefficienti nulli per gli altri vettori). . vi+1 . vi+1 .... vi . Proposizione 61 L’insieme delle soluzioni di un sistema lineare in n incognite ` un sottospazio e vettoriale di Rn se e solo se il sistema lineare ` omogeneo. vk ∀λ ∈ R (cio` il sottospazio non cambia se ad un generatore sommo un multiplo di un altro gene eratore). .. vj+1 .. infatti se x e x′ ∈ S. vi−1 . 24 . quindi Ax = 0 e λ ∈ R allora anche e λx ∈ S perch` A(λx) = λAx = λ0 = 0.. vj . vj+1 .. λk ∈ R non tutti nulli tali che λ1 v1 + ... . insiemi di vettori linearmente indipendenti.. λvi . Un insieme di vettori di V si dice un insieme di generatori per V se ogni elemento di V ` una loro combinazione lineare.. . vj .. . Vogliamo dimostrare che S := {x ∈ Rn | Ax = b} ` un sottospazio vettoriale se e solo se b = 0.. Q. vk = v1 . vi−1 . L’affermazione ` ovvia.. S = {x ∈ Rn | Ax = 0} ed ` un sottospazio vettoriale infatti: e • ` non vuoto (infatti contiene 0. . e Se S ` un sottospazio vettoriale allora deve contenere 0 quindi A0 = b quindi b = 0. vk = v1 .. vj−1 . 5. vi . perch` A0 = 0) e e e • ` chiuso per la somma...... vj−1 . vi+1 . vi ... ... Siano v1 .. . vj−1 . e Q. vi−1 . vi−1 .vk ∀λ ∈ R − {0} (cio` il sottospazio e non cambia se moltiplico un generatore per uno scalare non nullo) 3) v1 .. . e • ` chiuso per la moltiplicazione per scalari infatti se x ∈ S... Si dice che un insieme di vettori v1 . vi−1 .. .d.. vj+1 ..... vj−1 . vi+1 . .. Si dice che un insieme di vettori v1 .. vj . .. Dimostrazione.3 Generatori. vk (cio` il sottospazio non cambia cambiando l’ordine dei generatori) e 2) v1 . .. vi . Per esercizio.... vi+1 .. 1) v1 .e. . e Dimostrazione.. Definizione 64 Sia V uno spazio vettoriale.... e Osservazione 65 Un sottoinsieme di un insieme di vettori linearmente indipendenti ` ancora un e insieme di vettori linearmente indipendenti Dimostrazione. vk ` un e insieme di vettori linearmente dipendenti se esistono λ1 . vj+1 . vi +λvj ..e. in quanto se avessi una combinazione lineare con coeffie cienti non tutti nulli del sottoinsieme di vettori. vj ... vi+1 ...d. vi−1 . + λk vk = 0 Definizione 63 Sia V uno spazio vettoriale.. quindi Ax = 0 e Ax′ = 0.. vk = v1 ... vk ` un e insieme di vettori linearmente indipendenti se l’unica loro combinazione lineare uguale a 0 ` e quella con tutti i coefficienti uguali a 0. e Viceversa se b = 0. .. .Proposizione 60 Sia V uno spazio vettoriale... . . vk ∈ V .. .. allora anche x + x′ ∈ S perch` A(x + x′ ) = Ax + Ax′ = 0 + 0 = 0. Scriviamo il nostro sistema lineare nella forma matriciale Ax = b..... sia k un qualsiasi numero naturale positivo. .

.. k. ... 25 . Corollario 69 Sia V uno spazio vettoriale. esistono λi. ........... .s i=1.. Sia {v1 ..k xi λi. ws } ` un insieme di generatori di V .λk vk = 0 Supponiamo λi = 0. Quindi si ottiene xi vi = 0 i=1. vk } ` un insieme di vettori indipendenti di V .. Consideriamo la combinazione lineare xi vi = i=1.. .k xi λi.k xi j=1..e... .k contraddicendo l’ipotesi per cui {v1 ..d.j ∈ R tali che vi = j=1...... vi .s λi. Allora vi = − λ1 λi−1 λi+1 λn v1 − . Un insieme di vettori di V si dice una base di V se ` un insieme di vettori linearmente indipendenti che genera V ..... ..j wj = i=1... ws } un insieme di generatori di V . s ha una soluzione non nulla (x1 .. λk ∈ R non tutti nulli tali che λ1 v1 + .... Dato che v1 ... .s xi λi...s λi...... Definizione 67 Sia V uno spazio vettoriale. e Dimostrazione.......... Allora k = s... o Dimostrazione. xk ) per l’osservazione 46. k} tale che vi si pu` scrivere come combinazione lineare di v1 .... . vk sono un insieme di vettori linearmenti dipendenti.k j=1......... vi+1 .d. .. e Teorema 68 Sia V uno spazio vettoriale.... Allora k ≤ s.k per j = 1... − vi−1 − vi+1 − .j wj = ( j=1.k i=1.. Quindi e k ≤ s.... ws } due basi di V . vk } ` un insieme di vettori dipendenti di V allora esiste i ∈ e {1......j )wj Se per assurdo k > s allora il sistema lineare omogeneo nelle incognite xi dato dalle j equazioni: xi λi... − vn λi λ1 λ1 λi Q. esistono λ1 ..j wj = = j=1..........Osservazione 66 Se {v1 .. .. Dato che {w1 .j wj per i = 1... . vk . Q...j = 0 i=1...s i=1. .. Siano {v1 .. .. Sia {w1 . vk } un insieme di vettori indipendenti di V . . . vk } e {w1 ..e.

........ Dimostrazione...k λi vi si ottiene ci vi i=1.. allora k ≤ n.. . . .. vk+1 } sono ancora indipendenti.. vk+1 } sono ancora indipendenti... premetto la seguente osservazione Osservazione.... .k+1 λi vi = 0 per certi λi ∈ R.. k........ vk } in uno spazio vettoriale V di dimensione n.... esistono λ1 . Se {v1 . per il Teorema 68.k−1 ci vi .....k−1 ci vi per certi ci . vk−1 : vk = i=1. {v1 . .. vogliamo dimostrare λi = 0 per i = 1.. se k = n.. infatti: supponiamo i=1. vk } non pu` essere una base e quindi per l’Osservazione posso trovare o un vettore vk+1 tale che {v1 .k−1 sostituendo a vk l’espressione v= i=1. sia v ∈ V . . inoltre se k = n allora {v1 . .. Teorema 72 Estrazione di una base da vettori generatori Se v1 .. vk } ` una base di V . per il corollario a appena enunciato. esiste e a e un vettore dell’insieme {v1 .. Teorema 71 Completamento di vettori indipendenti ad una base... . . cio` non sono indipendenti....... . . si avrebbe k + 1 ≤ n. vk si ottiene che {v1 .. vk } che ` combinazione lineare dei rimanenti.. vk . vk ... dato che v1 .. si ha λk+1 = 0 (altrimenti vk+1 sarebbe combinazione lineare dei precedenti) quindi rimane i=1... vk generano uno spazio vettoriale V . o Dimostrazione...... vk generano V . si pu` trovare un sottoinsieme di essi che forma una base di V . possiamo definire: a Definizione 70 Si dice dimensione di uo spazio vettoriale la cardinalit` di una sua base.. λk tali che v= i=1. vk } non ` una base di V allora ovviamente v1 . Per dimostrare la restante parte della tesi. Se k < n allora {v1 .. Q. per l’Osservazione 66. vk = V e scegliendo e vk+1 non contenuto in v1 .. Se {v1 .k−1 26 .d. vk } ` una base di V (se non lo fosse otterrei un e insieme di k + 1 vettori indipendenti quindi... Il fatto che k ≤ n segue dal Teorema 68. e se invece k < n ` sempre possibile trovare {vk+1 . . . ... λi vi + λk i=1.k λi vi = 0 e siccome {v1 .. Dato un insieme di vettori linearmente indipendenti {v1 .. .. che ` e assurdo).. vn } tali che {v1 . vn } formano una base e di V ... Continuando in questo modo aggiungiamo n − k vettori fino a che non troviamo una base.. . vk } non ` gi` una base. Allora i rimanenti e formano ancora un insieme di generatori per V (infatti supponiamo ad esempio che sia vk combinazione lineare di v1 ... vk } sono indipendenti segue λi = 0 per i = 1. ....... Quindi per l’osservazione. . ...e..Dato che due basi di uno stesso spazio vettoriale hanno la stessa cardinalit`.... k + 1.

m. Dimostrazione... j=1. vk } una base di S. Notazione 76 Sia Rk [x] l’insieme dei polinomi in x a coefficienti in R di grado minore o uguale a k.. 5. j uguale a 1 e tutti gli altri nulli.k−1 e quindi v ` combinazione lineare di v1 . Sia {v1 ..e. k ≤ n.j Ei.. se v ∈ V ....d. . j=1. Q.. quindi v1 .. vn }.. e Ripetendo il procedimento sui rimanenti. e Dimostrazione.. + ak xk | a0 . R) ` mn..d.... ak ∈ R} E’ uno spazio vettoriale con la usuale somma di polinomi e prodotto per uno scalare... L’insieme {1... .. (dato V ha o dimensione n).. Essendo linearmente indipendenti in S sono anche linearmente indipendenti in V .. Q. R) e di Rk [x] ai. .. vk−1 sono generatori per V ).e.. Q. ..= (λi + λk ci )vi i=1.. . j=1.d. R)... si ha che v appartiene a S. v pu` e o essere scritto come combinazione lineare di v1 .e.n Dimensione di M(m × n.j }i=1. x. vn sono vettori generatori di V .j la matrice m × n con il coefficiente i.. R) e si dimostra e anche facilmente che sono indipendenti. vk sono elementi di S e una combinazione lineare di elementi di S ` ancora un elemento di S (essendo S un e sottospazio vettoriale). .. Se k = n allora S = V ..n ` una base di M (m × n.. vk−1 . vn } una base... . Q.. quindi. alla fine si arriva ad estrarre una base da {v1 .. e Dimostrazione. Teorema 73 Sia S un sottospazio vettoriale di dimensione k di uno spazio vettoriale V di dimensione n. ..... quindi. Essa deve essere costituita da n elementi.d. se k = n allora {v1 . allora k ≤ n.j quindi l’insieme {Ei.. vk } ` una base di V ... vk e quindi. Sempre per il Teorema 71.. .e. Proposizione 74 Sia V uno spazio vettoriale di dimensione n.. Se v1 . . .. Sia Ei. infatti se A ∈ M (m × n. dato che v1 ... cio` e {a0 + a1 x + . xk } ` una base di Rk [x]....e..j }i=1.d.. Dimostrazione Si pu` estrarre da {v1 .. L’insieme {Ei. . ..m.m. allora formano una base..n ` un insiem di generatori per M (m × n. Osservazione 77 La dimensione di Rk [x] ` k + 1. e 27 Q. R) si ha e A= i=1.4 Osservazione 75 La dimensione di M (m × n. vk }.... per il Teorema 71... quindi coincide con {v1 .

 1  =  0 . A(n) e il sottospazio di Rn generato dalle righe di A A(1) . 2  = 1 −3 2 1 −3       3 0         1  0    + s   | t.... s ∈ R   0 2   3 Quindi per esempio  3  appartiene a tale spazio. 1 ... 2 . Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di colonne.5 Un esempio fondamentale: lo spazio generato dalle colonne di una matrice (range) e lo spazio generato dalle righe Sia A una matrice m × n a coefficienti in R. Ad essa si possono associare due spazi vettoriali: il sottospazio di Rm generato dalle colonne di A (che a volte viene chiamto “range di A”) A(1) . 4  =  3 . sorpendentemente. 1  = 0 2 4 2 0 2       3 0   = t  0  + s  1  | t. 28 . −4 Osservazione 78 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni elementari di righe. 2 . e Esempio. . 6 Lo spazio generato dalle righe ` il seguente sottospazio di R4 : e           0 3 0 0 3  0   1   0   1   2             3 . Sia 3 A= 0 0  0 3 1 2 2 4  −3 1  2 Lo spazio generato dalle colonne ` il seguente sottospazio di R3 : e             3 0 3 −3 3 0  0 . A(m) Ovviamente questi due spazi non sono uguali. ma in seguito dimostreremo che. s ∈ R = t  2  3        −3 1   3  −1   Quindi per esempio   1  appartiene a tale spazio. la loro dimensione ` la stessa (e chiameremo tale numero rango della matrice).5.. .

Inoltre lo spazio generato dalle righe di AB ` contenuto nello spazio generato dalle righe di B. e Riprenderemo nel capitolo 5 lo studio dello spazio generato dalle colonne di una matrice e dello spazio generato dalle righe.Dimostrazione. Q.e. Segue immediatamente dalla Proposizione 60. R). Osservazione 79 Sia A ∈ M (m × n. 29 . in particolare studieremo la loro dimensione (detta rango). Allora lo spazio generato dalle colonne di AB ` contenuto nello spazio generato dalle colonne di e A. R) e B ∈ M (n × k.d. NOTA. Tutto quello che ` stato detto in questo capitolo pu` essere enunciato sostituendo C a e o R.

Sia v ∈ Ker(f ). quindi f −1 (0W ) = {0V }. Dato che Ker(f ) = {0V }. Dato che f ` lineare.e. Si dice che f : V → W ` una funzione e lineare se e solo se valgono le seguenti propriet`: a a) f (v1 + v2 ) = f (v1 ) + f (v2 ) ∀v1 .1 Applicazioni lineari Applicazioni lineari. Sia f : V → W una funzione lineare. Si definisce nucleo (in inglese kernel) di f il seguente sottoinsieme di V : Ker(f ) = {v ∈ V | f (v) = 0} Si definisce immagine di f il seguente sottoinsieme di W : Im(f ) = {w ∈ W | ∃v ∈ V t.d. Osservazione 83 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare. e Dimostrazione. e si deve avere v1 − v2 = 0V . devo dimostrare che λv ∈ Ker(f ). cio` se e e e solo se l’immagine inversa f −1 (w) di un qualsiasi elemento w di Im(f ) ` costituita solo da un e elemento. cio` che e f (λv) = 0. Allora f ` iniettiva se e solo se Ker(f ) = {0V }. Supponiamo che f sia iniettiva. Dato che f ` lineare si ha che e e f (v1 + v2 ) = f (v1 ) + f (v2 ) = 0V + 0V = 0V . Voglio dimostrare che se v1 e v2 sono due elementi di V e f (v1 ) = f (v2 ) allora v1 = v2 .6 6. f (v) = w} = {f (v)| v ∈ V } Osservazione 82 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare. ∀λ ∈ R (omogeneit`) a Definizione 81 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare. Quindi v1 = v2 . Dimostrazione. v2 ∈ V (additivit`) a b) f (λv) = λf (v) ∀v ∈ V . quindi f (v1 ) = 0V e f (v2 ) = 0V .e. e Q. cio` che f (v1 + v2 ) = 0. Dato che f (v1 ) = f (v2 ) si ha che f (v1 ) − f (v2 ) = 0W e quindi. e e Dimostrazione. Osservazione 84 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare. quindi Ker(f ) = {0V }. Siano v1 e v2 due elementi di Ker(f ). nucleo . Siano V e W due spazi vettoriali su R con dim V < +∞. Ricordo che f ` iniettiva se e solo se f (v1 ) = f (v2 ) implica v1 = v2 . f (v1 − v2 ) = 0W .e. relazione fondamentale Definizione 80 Siano V e W due spazi vettoriali su R. Relazione fondamentale. che contiene sicuramente 0V . f (0V ) = f (0R 0V ) = 0R f (0V ) = 0W Q. quindi f (v) = 0V e λ ∈ R. Quindi v1 − v2 ∈ Ker(f ). immagine. Allora Ker(f ) ` un sottospazio vettoriale di V e Im(f ) ` un sottospazio vettoriale di W .d.c. pu` o contenere solo 0V . Allora f (0V ) = 0W . f (λv) = λf (v) = λ0V = 0V . Allora dim Ker(f ) + dim Im(f ) = dim V 30 . ma f −1 (0W ) ` Ker(f ). Voglio dimostrare che v1 + v2 ∈ Ker(f ). dato che f ` lineare. Q.d. in particolare f −1 (0W ). Teorema 85 . e Supponiamo che Ker(f ) = {0V }.

.... in particolare λi = 0 per i = k + 1. otteniamo che tutti i coefficienti della combinazione lineare sopra sono nulli... ... .. esistono λ1 ... vk ...... • Dimostriamo adesso che f (vk+1 ). esistono coefficienti reali λi tali e che λi vi v= i=1.. f (vn ) formano una base di Im(f ).n λi vi ) = i=1.. . le due espressioni coincidono. vn } ` una e base di V . . 31 .. Pertanto esistono coefficienti reali µj j = 1. Siccome {v1 ......... vk } una base di Ker(f ). Siano k = dim Ker(f ). k tali che λi vi = i=k+1. λn ∈ R tali che v = i=1..... .k = λi f (vi ) i=k+1. Siano f. • Dimostriamo anzitutto che f (vk+1 ). Q. vn }........ . Q. ... allora f = g.. Dato che f ` lineare e f (v) = f ( i=1. Sia v un qualsiasi elemento di V .. .. ........ .k µj vj da cui i=k+1...n λi vi ) = 0 o e quindi i=k+1.n λi vi ) = i=1....k Dato che v1 . Proposizione 86 Siano V e W due spazi vettoriali su R e sia {v1 . Voglio vedere che f (v) = g(v)....... vn } una base di V ... n tali che λi f (vi ) = 0 i=k+1.. vn } ` una base di V ...... a f( i=k+1..... . . n come volevamo. Sia w ∈ Im(f )... Quindi f (v) = g(v).d..Dimostrazione.e.. Basta dimostrare che gli n − k vettori f (vk+1 ).e. ...n λi vi − µj vj = 0 j=1.. per la linearit` di f .n Allora. allora esiste v in V tale che w = f (v).n come volevamo.d.n λi vi appartiene a Ker(f ) e quindi si pu` scrivere come combinazione lineare di v1 ..... n. Se f (vi ) = g(vi ) i = 1.... vn sono linearmente indipendenti.. Dato che {v1 .n λi vi ... n.. Vogliamo dimostrare che dim Im(f ) = n − k.... Siano λi ∈ R i = k + 1. ..... g due funzioni lineari. Sia {v1 .n f (vi )=0 per i=1..n j=1. f (vn ) generano Im(f ).n λi g(vi ) ma dato che f (vi ) = g(vi ) i = 1....n Pertanto w = f (v) = f ( i=1.n λi f (vi ) Analogamente g(v) = g( i=1....n λi vi ) f lineare = λi f (vi ) i=1. Dimostrazione. e completiamola ad una base di V {v1 .. ... f (vn ) sono linearmente indipendenti. n = dim V . .

matrici a) (additivit`) fA (x + y) = A(x + y) a = Ax + Ay = fA (x) + fA (y) b) (omogeneit`) fA (λx) = A(λx) a prop 4 prod.. Tutto quello che ` stato detto in questo capitolo pu` essere enunciato sostituendo C a e o R. R).d.. .6.. Voglio dimostrare che f = fA . prop. Sia A la matrice che ha come colonne rispettivamente f (e1 ). ` proprio f (ej ). R).. . .e. Dimostrazione... A(n) Q. matrici = λAx = λfA (x) Q.. 2 prod... f (en ). xn ∈ R} = A(1) . Osservazione 90 Sia A ∈ M (m × n.. Ma questo ` ovvio in quanto fA (ej ) ` Aej cio` la j-esima colonna di A. Proposizione 89 Sia f : Rn → Rm lineare.. 86 basta dimostrare che f (ej ) = fA (ej ) j = 1. Im(fA ) = {fA (x)| x ∈ Rn } = {Ax| x ∈ Rn } = {A(1) x1 + ..d. n. Definisco l’applicazione lineare associata ad A l’applicazione definita nel modo seguente: fA (x) = Ax Osservazione 88 fA ` lineare. allora esiste A ∈ M (m × n. che. e Q. R) tale che f = fA . Allora l’immagine di fA ` generata dalle colonne di e A.. 32 . per come si ` e e e e definita A. NOTA.e.2 Applicazioni lineari associate a matrici fA : Rn → Rm Definizione 87 Sia A ∈ M (m×n. e Dimostrazione. + A(n) xn | x1 . Dimostrazione.e.d. Per la Prop...

6) Il determinante ` zero sulle matrici con una riga nulla... (Le propriet` 1 e 2 sono dette in breve “il determinante ` una funzione multilineare delle righe”. 9) det(AB) = det(A)det(B) ∀A.ˆ dove Aˆ  ` la matrice ottenuta da A togliendo la riga i-esima e la colonna j-esima (sviluppo per ı. R). R). 4) Il determinante ` zero sulle matrici con due righe uguali. inversa di una matrice Determinante Definizione 91 Sia A ∈ M (n × n. il determinante ` moltiplicato per λ. b.. cio` e ˜ ˜e det(A) = det(A) per qualsiasi A ∈ M (n × n. e 3) Il determinante di una matrice cambia di segno se si scambiano due righe della matrice. 2 3 Esempio. (k) (k) (i) (i) 2) Moltplicando una riga di una matrice per uno scalare λ. B ∈ M (n × n. Se n = 1 e quindi A = (a) con a ∈ R si definisce il determinante di A nel modo seguente: det(A) = a Se n = 2 e quindi A = seguente a c b d con a. c.1 Determinante. e 5) Sommando ad una riga un multiplo di un’altra riga il determinante non cambia. a e la propriet` 3 ` detta in breve “il determinante ` una funzione alternante delle righe”.. e 7) det(A) = det(tA) ∀A ∈ M (n × n.) a e e 33 . Dimostrazione omessa. e ˜e ˜ cio` se A ` ottenuta da A moltiplicando una riga di A per λ. spazi generati da righe e colonne.j det(Aˆ  ) ı. R). 10) Il determinante di una matrice triangolare ` il prodotto degli elementi sulla diagonale. R). R) ∀B ∈ M (n × m..7 7.... e A B 11) det = det(A)det(C) ∀A ∈ M (n × n.. definiamo det(A) = j=1. 8) Le regole 1. R) ∀C ∈ M (m × 0 C m.ˆ e l’i-esima riga). se A ` ottenuta da A scambiando due righe. det = −14 4 −1  2 1 0 2 det  −3 2 2  = 2 det 1 1 1 7 1(−23) + 0(−5) = 24 + 23 = 47 2 7 − 1 det −3 2 1 7 + 0 det −3 2 1 1 = 2 · 12 − Proposizione 92 Propriet` del determinante a 1) det(A) = det(A′ ) + det(A′′ ) se A(i) = A′ = A′′ ∀i = k e A(k) = A′ + A′′ . 6 valgono anche per le colonne. rango.. . R). n}.. d ∈ R si definisce il determinante di A nel modo det(A) = ad − bc Pi` in generale per n ≥ 2 si definisce il determinante di A ∈ M (n × n..n (−1)i+j ai. R) nel modo seguente: u fissiamo i ∈ {1. allora det(A) = λdet(A).

Si definisce rango per righe di A la dimensione del sottospazio di Rn generato dalle righe di A rkr (A) = dim( A(1) . Analogamente rkc (A) ≤ min{m.2 Spazi generati da righe e colonne e rango Definizione 93 Sia A ∈ M (m × n. Quindi il rango per colonne non cambia facendo operazioni elementari di colonne. = λk = 0.j1 = 0 essendo un pivot....d. λk ∈ R tali che λ1 A(1) + . n} Osservazione 95 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni elementari di righe.j2 = 0 (1) 34 . R). Quindi il rango per righe non cambia facendo operazioni elementari di righe.j2 + λ2 A2. generato e da m elementi (le righe di A). Considerando i j2 -esimi coefficienti dell’uguaglianza 1. A(n) ) Osservazione 94 Sia A ∈ M (m × n... Allora rkr (A) ≤ min{m.. .. n} in quanto rkr (A) ` la dimensione di un sottospazio di Rn .. . quindi ha dimensione ≤ n. A(m) ) Si definisce rango per colonne di A la dimensione del sottospazio di Rm generato dalle colonne di A rkc (A) = dim( A(1) . Per dimostrare la tesi basta dimostrare che le prime k righe sono indipendenti.7.. Segue immediatamente dalla Proposizione 60. + λk A(k) = 0 Voglio dimostrare che λ1 = ....e. ricavo λ1 A1..j1 = 0 (in quanto A2.j2 + .....j1 = 0 cio` e λ1 A1.. quindi ha dimensione ≤ m... e Dimostrazione. .j1 = . Siano λ1 . Dimostrazione.j1 = 0) da cui λ1 = 0 in quanto A1. Q. Considerando i j1 -esimi coefficienti dell’uguaglianza 1. Proposizione 96 Sia A una matrice a scalini allora rkr (A) ` uguale al numero degli scalini... e Siano j1 . = Ak.j1 + . + λk Ak. ricavo λ1 A1. jk gli indici delle colonne dove compaiono i pivots... R).. + λk Ak. Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di colonne. Sia k il numero degli scalini cio` delle righe non nulle...

Sfruttando le equazioni scrivo x1 .. x )     . Allora dim(Im(fA )) = rkc (A)..d. = λk = 0. . Segue immediatamente dall’Osservazione 90. xn ∈ R = xk+1  1  + . Q. R)...   .F ondam.. Allora rkr (A) = rkc (A) Dimostrazione.   .. = Ak..... .. . Teorema 99 Sia A ∈ M (m × n.cio` e λ2 A2.. xn ∈ R xk+1                . Ovviamente che.. Osservazione 98 Sia A ∈ M (m × n. . xn : x1 = f1 (xk+1 ..97 Oss.j2 = 0 (in quanto λ1 = 0 e A3. Proposizione 97 Sia A ∈ M (m × n..d. xn )   | xk+1 .e.d.. Allora dim(Ker(fA )) = n − rkr (A) Dimostrazione... P rop.. xk .e...                  0 .e... . xn ) Quindi l’insieme delle soluzioni ` e   f (x ..      .d..       . R)... ` uguale a e e quindi all’insieme delle soluzioni del sistema lineare omogeneo con matrice incompleta A′ . + xn  0 | xk+1 ..   .... . .   .e. se A ` una matrice a scalini ottenuta da A con operazioni elementari di riga.          . xk = fk (xk+1 .. Modulo riordinare le variabili.. Per trovare tale insieme di soluzioni devo scrivere le variabili che corrispondono ai pivots in funzione di quelle che non corrispondono ai pivots. .j2 = .. ..       . .j2 = 0 essendo un pivot. Proseguendo analogamente ricaviamo λ1 = ..     xn 0 1 ′ Ker(fA ) = {x ∈ Rn | Ax = 0} {x ∈ Rn | A′ x = 0} quindi ha dimensione n − k Q.            . = rkc (A) = dim(Im(fA )) n − dimKer(fA ) = rkr (A). .   fk (xk+1 .. posso supporre che le e variabili che corrispondono ai pivots siano le prime k: x1 . Dimostrazione.               .   ..          . R)... ... xn ) . xk in funzione di xk+1 . Sia k = rkr (A) che ` uguale a rkr (A′ ).   .   0      .j2 = 0) da cui λ2 = 0 in quanto A2.  n 1 k+1         .98 Relaz. 35 Q.   . Q... .

cio` del tipo (In |B). Il sistema e lineare Ax = b ha soluzione se e solo se rk(A) = rk(A|b).. . R). Teorema 102 (Criterio dei minori orlati). e e La matrice B cos` trovata ` l’inversa di A. Un metodo per calcolare l’inversa ` il seguente (omettiamo la dimostrazione): e • affiancare ad A a destra la matrice In . Dimostrazione.3 Il teorema di Rouch´-Capelli e Teorema 100 Teorema di Rouch´-Capelli. Il sistema lineare Ax = b ha soluzione se e solo se esistono x1 . A(n) ⊂ A(1) . A(n) ...e... R) ⇔ rk(A) = n ⇔ det(A) = 0 Teorema 101 Sia A ∈ M (n × n. . b Dato che si ha sempre A(1) . e 7. xn ∈ R tali che x1 A(1) + . Dimostrazione omessa.   1 0 2 3 −1  −2 0 −4 −6 2   Esempio. quindi il rango di A ` 2. dire questi due sottospazi sono uguali equivale a dire che le loro dimensioni sono uguali. + xn A(n) = b cio` se e solo se b ` combinazione lineare di A(1) .d. 7... Q.. Sia A ∈ M (m × n..4 Relazione fra rango e determinante A ∈ GL(n. Sia A ∈ M (m × n. .7... R). A(n) = A(1) . A(n) .. R) e sia b ∈ Rm .. Questo equivale a dire che e e A(1) .. R)... .. Sia A =   2 1 2 −6 2  0 1 −2 −12 4 Esiste una sottomatrice 2 × 2 (per esempio quella formata dalle prime due colonne e la seconda e terza riga) con determinante diverso da 0 e tutte le sottomatrici 3 × 3 che la contengono hanno determinante uguale a 0. . Allora rk(A) ` k se e e solo se esite una sottomatrice k × k con determinante diverso da 0 e tutte le sottomatrici (k + 1) × (k + 1) contenenti tale sottomatrice hanno determinante uguale a 0 Dimostrazione omessa..5 Metodo per calcolare l’inversa di una matrice Sia A ∈ GL(n... ... A(n) . Sia  1 0 2 A= 0 2 1  −1 0 0 36  ... b .. ottenendo cos` una matrice n × 2n: (A|In ) ı • fare operazioni elementari di riga sulla matrice (A|In ) fino ad ottenere una matrice la cui prima parte ` In .. ı e Esempio.

Tutto quello che ` stato detto in questo capitolo pu` essere enunciato sostituendo C a e o R. e  −1 1 −4  1 2 NOTA.Affiancando ad A la matrice I3 ottengo  1 0  0 2 −1 0 2 1 0 1 0 0 1 0 0 La matrice Faccio adesso operazioni elementari di riga. 37 .   1 0 2 1 0 0  0 2 1 0 1 0  0 0 2 1 0 1   1 0 0 0 0 −1  0 2 0 −1 1 −1  2 2 0 0 2 1 0 1  1 0 0 0 0 −1  0 1 0 −1 1 −1 4 2 4 1 1 0 0 1 0 2 2 0 1 B =  −4 1 2  0 0  1 III + I I − III 1 II − 2 III   1 2 II 1 2 III  0 0 1 2 ` l’inversa di A.

d. unito al vettore zero. Un vettore v ∈ V non nullo si dice autovettore di f se esiste λ ∈ R tale che f (v) = λv (quindi se f manda v in un suo multiplo). 38 .e. Autovettori ed autovalori di una matrice quadrata A sono per definizione autovalori ed autovettori di fA . Quindi v ∈ Rn − {0} ` un autovettore di A con autovalore λ se vale e Av = λv Esempio.101  0 1  = (1 − t)[(1 − t)(1 − t) − 4] = (1 − t)(t2 − 2t − 3) 1−t che (A − λI)v = 0 ⇔ Ker(A − λI) = {0} ⇔ A − λI non ` iniettiva e ⇔ det(A − λI) = 0 Q. Sia 1 2 A= 2 1 0 0   0 1  1  1 Il vettore  1  ` autovettore di A di autovalore 3. Sia 1 2 A= 2 1 0 0  2 1−t 0   0 1  1 Allora 1−t pA (t) = det  2 0 Lemma 105 Un numero reale λ ` un autovalore di A se e solo se ` una radice (reale) del e e polinomio caratteristico di A. Osservazione 106 L’insieme degli autovettori di A con autovalore λ. Dimostrazione λ ` un autovalore di A ⇔ ∃v ∈ Rn −{0} tale che Av = λv ⇔ ∃v ∈ Rn −{0} tale e T hm. diagonalizzabilit` a Definizione 103 Sia V uno spazio vettoriale su R e f : V → V una applicazione lineare. R). Il polinomio caratteristico di A ` definito nel modo e seguente: pA (t) := det(A − tI) dove I la matrice identit` n × n. a Esempio. e 0  Per semplicit` tratteremo soprattutto il caso degli autovalori ed autovettori di una matrice. a Definizione 104 Sia A ∈ M (n × n. coincide con Ker(A − λI) e si dice autospazio di A relativo a λ.8 Autovettori e autovalori. In tal caso si dice che λ ` un autovalore di f e (l’autovalore di f relativo a v).

quindi le colonne di C formano la base richiesta di autovettori. Definizione 110 Una matrice quadrata A si dice diagonalizzabile se ` simile ad una matrice e diagonale. chiamando D la matrice che ha λ1 . . ii) Provare che se A ` una matrice 2 × 2 allora pA (t) = t2 − tr(A)t + det(A) e iii) Provare che gli autovalori di una matrice triangolare sono gli elementi sulla diagonale... pu` essere in modo del tutto analogo enunciato per l’insieme dei numeri complessi o C (spazi vettoriali su C. Moltiplicando a sinistra per C si ottiene AC = CD. Allora pA (t) = det(A − tI) = det(C −1 BC − tI) = det(C −1 (B − tI)C) = = det(C −1 )det(B − tI)det(C) = det(B − tI) = pB (t) Q.e. applicazioni lineari. n. i) Provare che la similitudine una relazione di equivalenza. M (m × n.) In particolare ben definito il determinante di una matrice quadrata a coefficienti complessi e una matrice quadrata a coefficienti complessi invertibile se e solo se il suo determinante ` non e nullo. da cui C −1 AC = D. definiamo C la matrice ottenuta affiancando gli elementi di tale base. Con dimostrazione del tutto analoga alla dimostrazione del Lemma 105... a Dimostrazione omessa. Osservazione 112 Se A ` simile ad una matrice D diagonale.. rango. . 39 . Supponiamo che A e B siano simili. quindi esiste C tale che A = C −1 BC. si ha AC = CD. determinante.. C). . Definizione 108 Due matrici A e B si dicono simili se esiste C invertibile tale che A = C −1 BC Lemma 109 Due matrici simili hanno lo stesso polinomio caratteristico. Tale equazione equivale a AC (j) = λj C (j) per ogni j = 1. Teorema 111 Una matrice A diagonalizzabile se e solo se esiste una base di autovettori di A. Allora vale AC (j) = λj C (j) per ogni j = 1. a La molteplicit` di λ come radice del polinomio caratteristico si dice molteplicit` algebrica di a a λ. Dimostrazione. si dimostra che λ ∈ C ` radice del polinomio caratteristico di A se e solo se esiste v ∈ Cn tale che Av = λv. λn sulla diagonale. Viceversa se esiste una base di autovettori per A.d... allora sulla diagonale di D ape paiono gli autovalori di A (infatti A e D hanno lo stesso polinomio caratteristico).. n dove λj ` il j-esimo elemento e della diagonale di D. gran parte dell’algebra lineare che abbiamo enunciato per l’insieme dei a numeri reali R.. Dimostrazione.Definizione 107 Sia A una matrice quadrata e sia λ un suo autovalore. Proposizione 113 Per qualsiasi autovalore si ha che la molteplicit` geometrica ` minore o uguale a e della molteplicit` algebrica. Cn . Un tale e v si dice autovettore (complesso) di A con autovalore (complesso) λ. Se A ` diagonalizzabile allora esiste C invertibile tale che C −1 AC = D con D e diagonale. quindi. Come abbiamo gi` detto.. La dimensione di Ker(A − λI) si dice molteplicit` geometrica di λ. Esercizi...

inoltre si calcola facilmente che la molteplicit` geometrica di −1 ` 1. quindi e a e B non ` diagonalizzabile. quella di −1 ` 2. quella di 8 ` 1. quindi e a e C ` diagonalizzabile. Esse sono t = 3 e t = −1. Quindi A non ` e diagonalizzabile. e 40 . Esempi. inoltre si calcola facilmente che la molteplicit` geometrica di 2 ` 2. 1) Sia 1 A= 2 0  −2 1−t 0   −2 0 1 1  0 −1 Allora 1−t pA (t) = det  2 0 Quindi non tutte le radici complesse del polinomio caratteristico sono reali. e 3) Sia 3 C = 2 3  1 4 3  1 2  5 Allora pC (t) = −t3 + 12t2 − 36t + 32 = (2 − t)2 (8 − t) Quindi tutte le radici complesse del polinomio caratteristico sono reali.Teorema 114 Criterio necessario e sufficiente di diagonalizzabilit`. ovviamente la molteplicit` a e e a geometrica di 3 ` 1. Ovviamente la molteplicit` algebrica di 2 ` 2. Esse sono t = 2 e t = 8. 2) Sia 1 B= 2 0   2 0 1 1  0 −1  0  = (−1 − t)[(1 − t)(1 − t) + 4] = (−1 − t)(t2 − 2t + 5) 1 −1 − t Allora pB (t) = (−1 − t)[(1 − t)(1 − t) − 4] = (−1 − t)(t2 − 2t − 3) = −(t − 3)(t + 1)2 Quindi tutte le radici complesse del polinomio caratteristico sono reali. a Dimostrazione omessa. a Una matrice A ` diagonalizzabile se e solo se tutti le radici complesse del polinomio caratteristico e di A sono numeri reali e per ogni autovalore (reale) di A la molteplicit` geometrica uguale alla a molteplicit` algebrica. ovviamente la molteplicit` a e e a geometrica di 8 ` 1. Ovviamente la molteplicit` algebrica di 3 ` 1.

Sign up to vote on this title
UsefulNot useful