You are on page 1of 13

Elementi di algebra matriciale

Per matrice m × n si intende una tabella di mn numeri disposti in m


righe ed n colonne. Tale matrice si suole indicare con A. Se aij è
l’elemento della riga i-esima e della colonna j-esima, allora
 a11 a12 K a1n 
 
a a22 K a 2n 
Slide 1 (1) A =  21
 M M M
 
 am1 am 2 K amn 

Per abbreviare la notazione si scrive anche A = (aij). In questo caso si


suppone che i vari da 1 a m e j vari da 1 a n.
Se accade che m = n si dice che A è quadrata. Gli elementi aij della
matrice che considereremo da qui in avanti saranno numeri reali.

Si chiama trasposta di una matrice A di dimensioni m × n la matrice


AT oppure A’ di dimensioni n × m le cui righe sono le colonne di A:
 a11 a21 K am1 
 
a a22 K am 2 
(2) AT =  12
Slide 2  M M M
 
 a1n a2 n K amn 

La matrice A è detta simmetrica se AT = A.


Le matrici simmetriche sono necessariamente quadrate.
Si osservi che (AT)T\= A per qualunque matrice A.
Molto spesso si deve considerare un vettore n-dimensionale x come
una matrice n × 1 avente n righe ed 1 colonna:
 x1 
 
x
(3) x= 2
Slide 3  M
 
 xn 
In quanto tale, x è chiamato vettore colonna. xT ha una riga ed n
colonne per cui è chiamato vettore riga:
(4) xT = ( x1 , x2 ,..., xn )

Per matrici m × n è definita la somma (o differenza): A ± B = C = (cij).


Ogni elemento cij = aij + bij
La conformabilità per la somma delle due matrici richiede che esse
Slide 4
siano dello stesso ordine.
La somma è associativa e commutativa.
Esempio
Gran parte dell’utilità delle matrici dipende dalla seguente definizione
di moltiplicazione fra matrici, che permette di combinare due
matrici, ottenendone una sola, e in modo da preservare le relazioni
lineari.
Se A = (aij) è una matrice m × n e B = (bij) è una matrice n × p, allora
il prodotto AB è la matrice C = (cij) di dimensione m × p i cui elementi
sono dati da:
n

Slide 5 cij = ∑ aik bkj , i = 1, …, m, j = 1,…, p


k =1

Due matrici A e B sono conformabili se è possibile il prodotto AB, ossia


se sono di opportuna dimensione. Se la prima è m × n e la seconda è
p × n esse non sono conformabili.
La moltiplicazione matriciale è associativa, infatti: A(BC) = (AB)C. La
moltiplicazione matriciale non è commutativa. Inoltre, può sorgere un
problema di conformabilità, che impedisce che la moltiplicazione sia
commutativa.

La matrice identità n × n è la matrice:


1 0 K 0
0 1 K 0
(11) I=
M M O M
0 0 K 1
Slide 6
Ovviamente, I commuta con ogni matrice n × n: IA = AI = A.
AB = IAB = AIB = ABI →
A0nn = 0mn = 0mmA →
Moltiplicazione con scalare
Moltiplicazione di matrici scomposte.
Se due matrici A e B sono opportunamente scomposte, la loro
moltiplicazione può aver luogo come se le submatrici fossero elementi di
una matrice, nel modo seguente:

A 11 | A12  B11 | B12   A11B11 + A12 B21 | A11 B12 + A12 B22 
AB =  − − − − − −   − − − − − −  =  − − − − − − − − − − − − − − − − − − − − 
    
A 21 | A 22  B 21 | B 22   A21B11 + A22 B21 | A21 B12 + A22 B22 

purchè le submatrici come A11 e B11 siano appropriatamente conformabili.


Questo risultato è generalmente vero e la moltiplicazione delle matrici per
Slid blocchi può essere interpretata come un’estensione della regola di
e7 moltiplicazione ordinaria.
Ciò si può illustrare mostrando che:

B 1 
[ A1 M A 2 ]  L  = A1B1 + A 2B 2
B 2 

Gli ordini di A1, A2, B1 e B2 devono essere, rispettivamente: 1xp; 1x(n-p); lx1;
(n-l)x1.
Nella slide seguente mostriamo gli ordini delle submatrici di A (mxn) e B
(nxs) quando si voglia ottenere il prodotto AB usando le scomposizioni
prima evidenziate delle 2 matrici.

A ∈ ¡ m× n B∈ ¡ n× s

n s
p n–p q s–q

l A 11 | A12  B 11 | B12 
p
− − − − − −  − − − − − − 
m
m–     n–
A 21 | A 22  B 21 | B 22 
l p

Sli
l× p p×q ( m −l) × p ( n − p) ×( s − q)
de A11 ∈ ¡ B11 ∈ ¡ A21 ∈ ¡ B 21 ∈ ¡

8 A12 ∈ ¡ l ×( n− p ) B12 ∈ ¡ p×( s − q ) A22 ∈ ¡ ( m −l )× ( n− p ) B 22 ∈ ¡ ( n − p )×( s − q )


Nel matrice prodotto risultante è evidenziato qui di seguito che gli elementi
della prima riga sono il prodotto di submatrici conformabili.
 A 11B 11 + A 12B 21 A 11B 12 + A 12B 22 
 
 
(l × p ) × ( p × q) [ l ( n − p ) ] × (n − p )( s − q ) (l × p) [ p ( s − q) ] l ( n − p) [ ( n − p )( s − q ) ] 
 
 
 A 21B 11 + A 22B 21 A 21B 12 + A 22B 22 
 
Proprietà delle MX trasposte
(A + B)T = A T + BT; (AB)T = BTA T ; (A T)T = A ; I T = I
Se A T = A, A è una matrice simmetrica, ossia aij = aji.
Se A ∈ ¡ n× n
, x’Ax è uno scalare (forma quadratica) nelle variabili x.
La matrice A può essere sempre scritta in modo che A = A’. Una simile
Slide 9
matrice può servire per assegnare dei pesi alle variabili che
compongono il vettore x, elevate al quadrato.
(Interpretare x’Ix.)
y’Az è detta forma bilineare ed è anch’essa uno scalare. La matrice
A può servire per dare dei pesi alle combinazioni (prodotti) delle
variabili che compongono i due vettori,

Determinante e matrice inversa


In generale è possibile definire il determinante det(A) per una
qualunque matrice quadrata. Per un matrice quadrata di dimensione n
× n si indica il suo determinante come:
a11 a12 K a1n
a a22 K a 2n
Slide 10 (5) det(A ) = 21
M M M
an1 an 2 K ann

Non cercheremo di dare una definizione formale di determinante, ma


noteremo che un determinante n × n può essere sviluppato nei minori
secondo qualunque sua riga o colonna, e quindi può essere espresso
come somma di multipli di determinanti (n – 1) × (n – 1)
Continuando questo processo possiamo alla fine ricondurci al calcolo
di (forse parecchi) determinanti 2 × 2 o 3 × 3, di cui ora daremo la
definizione.
Il determinante di una matrice A di dimensioni 2 × 2 risulta essere così
definito:
Slide 11 a b
(6) = ad – bc
c d

Analogamente, un determinante 3 × 3 risulta essere così definito:


a b c
(7) d e f = aei + bfg + cdh – gec – hfa – idb
g h i

Si osservi ora che possiamo ricondurci al calcolo interattivo di


determinanti di ordine 2 raccogliendo a fattor comune gli elementi
della prima riga:
a b c
(8) d e f = a(ei – fh) – b(di – fg)+ c(dh – eg)
g h i

Slide 12 e f d f d e
(9) =a −b +c
h i g i g h

I determinanti 2 × 2 così ottenuti vengono chiamati minori del


determinante 3 × 3. Questo processo è chiamato sviluppo del
determinante 3 × 3 nei minori secondo la prima riga.
Lo sviluppo dei minori può essere effettuato secondo qualunque riga o
colonna.
Si noti che compare un segno “–“ in ogni termine il cui minore è
ottenuto eliminando la riga i-esima e la colonna j-esima, quando i + j è
un numero dispari. Ad esempio possiamo sviluppare il determinante
precedente in minori lungo la seconda colonna nel modo seguente:
Slide 13 a b c
d f a c a c
(10) d e f = −b +e −h
g i g i d f
g h i

Naturalmente questo valore coincide con quello ottenuto in


precedenza.

Per i determinanti è possibile enunciare le seguenti proprietà:


• se due righe di un determinante si scambiano fra loro, il
determinante cambia di segno;
• se due righe di un determinante sono uguali il determinante ha
valore nullo;
Slide 14 • se un multiplo di una riga è sommato a un'altra riga, il determinante
rimane inalterato.
Se A e B sono due matrici n × n allora det(AT) = det(A). Inoltre det(AB)
= det(A) det(B).
Si dice che la matrice quadrata A è singolare se det(A) = 0. Se det(A)
≠ 0 si dice che A è non singolare.
L'inversa di una matrice quadrata A non singolare è una matrice
–1
quadrata non singolare A che soddisfa:
(12) AA –1
=A –1
=I
Ogni matrice quadrata non singolare A ha un’inversa A–1 unica.
Inoltre l’inversa soddisfa
1
(13) det(A -1 ) =
det(A )
Slide 15 (14) (A–1)T = (AT) –1
Indichiamo ora il modo per calcolare l’inversa di una MX A.
I passi sono i seguenti:
1. si calcolano i cofattori Ars di ogni elemento ars di A.
2. si dispongano tali cofattori in una MX.
3. si ottenga la trasposta di questa matrice.
–1
4. la A si ottiene dividendo la Mx di cui al punto precedente per il det

Slide 16 Il cofattore di ars in A è indicato con Ars, un determinante di ordine (n


– 1) ottenuto da A di ordine n eliminando la resima riga e la sesima
colonna e applicandovi il segno (–1)r + s. Vi sono tanti cofattori quanti
sono gli elementi e possono essere disposti in una matrice [Ars] di
ordine n × n. Si scriva la trasposta di questa matrice, detta matrice
aggiunta di A:
 A11 A21 ... An1 
A A22 ... An 2 
[ Ars ]' =  12
 ... ... ... ... 
 
 A1n A2 n ... Ann 

La matrice inversa si forma dividendo ogni elemento in [Ars]’ per il


valore del determinante A, dato che A ≠ 0. Questa matrice è indicata
con A –1.
Definizione:
 A11 A21 ... An1 
 ... An 2 
−1  Ars  1  A12 A22
A = = , (| A |≠ 0)
 | A |  | A |  ... ... ... ... 
 
 A1n A2 n ... Ann 

E’ necessario che A sia quadrata e che A ≠ 0.

Proprietà dell’inversa.
A –1B ≠ B A –1

(A –1) –1
=A
(A B) –1 = B–1 A –1

–1
(A’ ) = (A–1)’

Operazioni elementari e rango


Operazione elementare: scambio di righe (o colonne); somma del
multiplo h di una riga ad altra riga; prodotto di k per una riga.
Matrice equivalente. A ottenuta da B per una sequenza di
Slide 17 operazioni elementari.
Propositi ed esempi
Rango: submatrici; submatrici quadrate;
ρ(A) = r, dove r è l’ordine massimo delle submatrici per le quali si ha Δ
≠ 0.
Trasformazioni lineari
Una funzione F il cui dominio è lo spazio m-dimensionale ¡ m e la cui
immagine è contenuta nello spazio n-dimensionale ¡ n
è chiamata
trasformazione lineare da ¡ m a ¡ n
se soddisfa la condizione
Slide 18 F(λ x + µ y) = λ F(x) + µ F(y)
per tutti i punti x e y di ¡ m
e tutti i numeri reali λ e µ . A tale
trasformazione lineare F corrisponde una matrice F di dimensione n ×
m tale che, per tutti x ∈ ¡ m , si abbia:
F(x) = F x,

ovvero, espresso in termini delle componenti di x,


 x1 
 
x
(15) F ( x1 , x2 ,..., xm ) = F  2 
 M
 
 xn 

Slide 19 Si dice che F è una rappresentazione matriciale della trasformazione


lineare F.
Se m = n, per cui F trasforma ¡ m
in se stesso, allora F è una matrice
quadrata.
In questo caso F è non singolare se e solo se F è biunivoca e ha l’intero
¡ m
come immagine.
La composizione di trasformazioni lineari è ancora una trasformazione
lineare e quindi avrà una rappresentazione matriciale.
La motivazione reale su cui si basa la definizione di moltiplicazione
matriciale è che la rappresentazione matriciale di una composizione di
trasformazioni lineari è il prodotto delle matrici individuali che
rappresentano le trasformazioni della composizione.

Slide 20 Se F è una trasformazione lineare da ¡ m


a ¡ n , rappresentata dalla
matrice F di dimensione n × m, e se G è una trasformazione lineare da

¡ n
a ¡ p , rappresentata dalla matrice G di dimensione p × n, allora la
composizione G o F(x1, x2,…, xm) = G(F(x1, x2,…, xm)) è essa stessa una
trasformazione lineare da ¡ m
a ¡ p , rappresentata dalla matrice GF di
dimensione p × m.
Risulta cioè: G(F(x)) = GFx

Equazioni lineari
Un sistema di n equazioni lineari in n incognite:
a11 x1 + a12 x2 + ... + a1n xn = b1
a21 x1 + a22 x2 + ... + a2n xn = b2
(16)
Slide 21 M
an1 x1 + an 2 x2 + ... + ann x n = bn
può essere scritto in modo compatto come una singola equazione
matriciale
Ax = b,
dove
 a11 a12 K a1n   x1   b1 
     
a a22 K a 2n  x2   b2 
(17) A =  21 , x =  , b =
 M M M  M  M
     
 an1 an 2 K ann   xn   bn 
Slide 22
Confrontiamo l’equazione Ax = b con l’equazione ax = b per una sola
incognita x. ax = b ha l’unica soluzione x = a–1b purchè a ≠ 0.
Analogamente il sistema lineare Ax = b ha un’unica soluzione data da
Ax = b
a condizione che A sia non singolare.

Per vedere questo, si moltiplicano a sinistra per A–1 entrambi i membri


dell'equazione Ax = b.
Se A è singolare, allora il sistema Ax = b può avere o può non avere
una soluzione, a seconda del vettore b, e se una soluzione esiste,
allora non sarà unica.
Consideriamo il caso b = 0 (vettore nullo).
Allora qualunque vettore x perpendicolare a tutte le righe di A
Slide 23 soddisferà il sistema. Siccome le righe di A giacciono in uno spazio di
dimensione minore di n (poiché il det(A) = 0) vi sarà almeno una retta
di tali vettori x. Quindi la soluzione di Ax = 0 non è unica se A è
singolare. Lo stesso deve valere per il sistema ATy = 0: esisteranno
vettori y non nulli che soddisfano l'equazione se A è singolare. Ma
allora, se il sistema Ax = b ha qualche soluzione x, dobbiamo avere:
(y ⋅ b) = yTb = yTAx = (xTATy)T = (xT0) T = (0)
Quindi Ax = b può avere soluzioni solo per quei vettori b che sono
perpendicolari a ogni soluzione y di ATy = 0.
Enunciamo ora, per concludere questo capitolo, un risultato di una
certa importanza nella risoluzione dei sistemi lineari di n equazioni in
n incognite.
Regola di Cramer. Sia A una matrice non singolare n × n. Allora la
Slide 24 soluzione x del sistema lineare
Ax = b
ha componenti date da
det(A 1 ) det(A 2 ) det(A n )
x1 = , x2 = , …, xn =
det(A ) det(A ) det(A )
dove Aj è la matrice A in cui la j-esima colonna è stata sostituita dal
vettore colonna b.

Differenziazione di vettori, forme quadratiche e bilineari.


Se il vettore y dipende dal vettore x attraverso la forma y = Ax, esso
può essere derivato rispetto ad x e la derivata è proprio la matrice A,
detta matrice jacobiana o jacobiano.
Anche le forma quadratiche (x’Ax) e bilineari (y’Bz) possono essere
Slide 25
derivate (nel caso delle forme quadratiche). La formula della
derivazione sfrutta la proprietà che A = AT e sono:
∂ ( x 'Ax ) ∂ ( y 'Bz )
= 2A x ; = Bz ; ∂ ( y 'Bz ) = B' y ,
∂x ∂y ' ∂z
in termini di vettori colonna.