Professional Documents
Culture Documents
NAPOLI 1
ENTE REGIONALE PER IL DIRITTO ALLO STUDIO UNIVERSITARIO
APPUNTI DI GEOMETRIA
APPUNTI DI GEOMETRIA
PAOLA BIONDI PIA MARIA LO RE
Prefazione
Questi appunti sono destinati al corso di Geometria per la laurea triennale in Fisica, in Informatica o in Ingegneria. Editi per la prima volta nellanno accademico 2002/2003, sono stati ora ampliati per adeguarli ai nuovi programmi. Essi non sono pensati come testo di riferimento, bens come supporto alle lezioni svolte in aula e guida per lo studente che dovr integrarli con la consultazione dei testi consigliati e con il colloquio diretto con i docenti.
INDICE
Capitolo I 1. 2. 3. Matrici Sistemi lineari MATRICI E SISTEMI LINEARI 1 2 7
Vettori numerici
Capitolo II - SPAZI VETTORIALI 1. 2. 3. 4. 5. 6. 7. 8. Operazioni interne ed esterne ad un insieme Spazi vettoriali su R Sottospazi Sottospazio generato da un sistema di vettori Dipendenza e indipendenza lineare Basi e dimensione Cambiamenti di riferimento Esercizi sulla determinazione di basi 16 18 24 30 33 36 45 48
Capitolo III - DETERMINANTI, RANGO DI UNA MATRICE E MATRICI INVERTIBILI 1. 2. 3. 4. 5. Determinante di una matrice quadrata Propriet dei determinanti Rango di una matrice Matrici invertibili Regola di Cramer 52 55 58 64 65
3. 4.
75 79
Capitolo V - DIAGONALIZZAZIONE DI ENDOMORFISMI E MATRICI 1. 2. 3. Definizioni e prime propriet Diagonalizzazione di un endomorfismo Diagonalizzazione di una matrice 86 88 97
Capitolo VI - GEOMETRIA ANALITICA NEL PIANO E NELLO SPAZIO 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. Dipendenza lineare in V e V Prodotto scalare standard in V e V Riferimenti ortonormali in V e V Riferimento cartesiano ortogonale monometrico nel piano Cambiamenti di riferimento Rappresentazione della retta Coseni direttori di una retta orientata Intersezione di due rette e condizioni di parallelismo Ortogonalit tra rette Distanza tra insiemi nel piano Punto medio e asse di un segmento Circonferenza Riferimento cartesiano ortogonale monometrico nello spazio Cambiamenti di riferimento Prodotto vettoriale in V Rappresentazione del piano Parallelismo e ortogonalit tra piani Rappresentazione della retta 100 102 103 104 106 107 112 113 115 116 117 117 121 123 123 124 128 131
Coseni direttori di una retta orientata Fasci di piani Parallelismo e ortogonalit tra rette Parallelismo e ortogonalit tra una retta e un piano Punto medio di un segmento Distanza tra insiemi nello spazio Sfera e circonferenza Coni, cilindri e superfici di rotazione
Capitolo VII - SPAZI VETTORIALI EUCLIDEI E DIAGONALIZZAZIONE ORTOGONALE 1. Prodotti scalari euclidei 2. Propriet di uno spazio vettoriale euclideo 3. Riferimenti ortonormali e matrici ortogonali 4. Complemento ortogonale 5. Endomorfismi simmetrici e loro diagonalizzazione ortogonale 6. Diagonalizzazione ortogonale di una matrice reale simmetrica Capitolo VIII - CONICHE 1. Generalit sulle curve algebriche piane 2. Ellisse, iperbole e parabola 3. Studio di una conica 4. Esercizi sulle coniche 180 182 189 195 156 159 166 170 173 177
CAPITOLO I MATRICI E SISTEMI LINEARI 1. VETTORI NUMERICI Indichiamo con R l'insieme dei numeri reali. L'insieme R dotato delle usuali operazioni di addizione e moltiplicazione sar detto campo reale. Il campo reale sar indicato ancora con R . Consideriamo il prodotto cartesiano di R n volte per se stesso, cio linsieme
R n delle n-ple ordinate di numeri reali. Un elemento di tale insieme sar detto
vettore numerico di ordine n sul campo R . Presi due vettori numerici a = (a1, , an) e b = (b1, , bn) di R n, diremo somma di a e b il vettore numerico a + b = ( a1 + b1, , an + bn ) . Preso un vettore numerico a = (a1, , an) ed un numero reale h, diremo prodotto di h per a il vettore numerico h a = (ha1, , han). Presi due vettori numerici a = (a1, , an) e b = (b1, , bn) di R n, diremo prodotto scalare standard di a e b, il numero reale a b = a1b1 + + anbn. E' facile verificare che il prodotto scalare standard cos definito soddisfa le seguenti propriet : a , b, c R n e h, k R simmetria : a b = b a, a (h b + k c ) = h ( a b ) + k ( a c) . Esso inoltre definito positivo, cio : a R n, a a 0 e aa=0
bilinearit : ( h a + k b ) c = h ( a c ) + k ( b c) ,
a = ( 0, 0,,0 ). 1
2. MATRICI Siano m ed n due interi positivi. Si dice matrice di tipo [m, n] ( o matrice m n) sullinsieme R dei numeri reali ogni tabella del tipo
(2.1)
! a11 # # a 21 # # #a " m1
con aij R , per ogni i {1, , m} e per ogni j {1, , n}. Scriveremo in forma abbreviata (aij)
i {1, , m}, j {1, , n}
( o semplicemente
(aij) ). Linsieme delle matrici di tipo [m, n] su R sar indicato nel seguito con
R m,n.
Sia A la matrice (2.1). Il vettore numerico ai = (ai1, ai2 , , ain ) detto la i-ma riga di A e il vettore numerico aj = (a1j, a2j , , amj ) detto la j-ma colonna di A. Lelemento aij detto elemento di posto (i, j) di A. Si dice trasposta di A, e si indica con At o con At, la matrice di tipo [n, m] ottenuta da A scambiando le righe con le colonne. ESEMPI 2.1. Considerate le matrici
si ha :
!1 # #0 At = # # -1 # "4
! 5 1$ &. e Bt = # " 7 2%
Se m = n , la matrice si dice quadrata di ordine n. In tal caso la n-pla ordinata (a11, a22 , , ann ) detta diagonale principale di A, mentre la n-pla ordinata (a1n, a2
n-1
quadrata A si dice simmetrica se coincide con la sua trasposta, cio se aij = aji per ogni i, j = 1, ..., n, essendo n lordine di A. Siano A = (aij) e B = (bij) due matrici di tipo [m, n] su R . Si dice somma di A e B, e si indica con A + B, la matrice (aij + bij) R m,n. Se h un numero reale e A = (aij) R ( haij ) R m,n. Siano A R m,n e B R n,q. Si dice prodotto (righe per colonne) di A per B, e si indica con AB, la matrice di tipo [m, q] che ha per elemento di posto (i, j) il prodotto scalare standard della i-ma riga di A per la j-ma colonna di B : AB = ( ai bj ) R m,q. E facile provare che (AB)t = BtAt. ESEMPI
m,n
2.2.
Considerate le matrici
! a1 b1 # AB = # a 2 b1 # # a b1 " 3
Il prodotto righe per colonne tra matrici ora definito gode delle seguenti propriet : (2.2) A( B + C) = AB + AC , A R m,n e B, C R n,q ; 3
(A + B )C = AC + BC , A, B R m,n e C R n,q . (2.3) (2.4) A(hB) = h (AB) = (hA)B , A R m,n , B R n,q e h R . A(BC) = (AB)C, A R m,n , B R n,q e C R q,s . Una matrice si dice a gradini se il numero degli zeri che precedono il primo elemento diverso da zero in ogni riga aumenta di riga in riga, fino ad avere eventuali righe costituite da soli zeri. Il primo elemento diverso da zero in ciascuna riga detto pivot. Osserviamo esplicitamente che in una matrice a gradini priva di righe nulle, il numero delle righe non supera il numero delle colonne. ESEMPI
2.3.
Le
matrici
0 -3 1 2 0 0 4 1 0 0 0 0 0 0 0 0
sono a gradini.
I pivot della matrice A sono 1, 2, 2 ; quelli della matrice B sono -3 e 4 ; quelli di C sono 1, 7, 4.
Si
dicono
operazioni
elementari
(di
riga)
sulla
matrice
! a11 # # a 21 # # #a " m1
E2 : moltiplicazione di una riga per un numero reale h non nullo (h ai ai); E3 : sostituzione di una riga con il vettore numerico ottenuto sommando la riga stessa con unaltra riga (ai + aj aj). La combinazione delle operazioni E2 ed E3 operazione : sostituzione di una riga con il vettore numerico ottenuto sommando la riga stessa con unaltra moltiplicata per un numero reale h non nullo (h ai + aj aj). Ogni matrice ottenuta da una matrice A mediante operazioni elementari (di riga) si dice equivalente (per righe) ad A. Si vede facilmente che : Proposizione 2.1. equivalente. ESEMPI 2.4. Determiniamo una matrice a gradini equivalente alla matrice Per ogni matrice esiste una matrice a gradini ad essa d luogo alla seguente
!1 - 1 # A = #2 1 # " -3 2
0 1 1
! 1 -1 0 2 $ # & L'operazione -2a1 + a2 a2 d luogo alla matrice B = # 0 3 1 - 5& da cui, # & " -3 2 1 - 2% !1 # mediante l'operazione 3b1 + b3 b3 si ottiene la matrice C = # 0 # "0 -1 0 2$ & 3 1 -5&. & -1 1 4%
Da C mediante l'operazione
1 c2 + c3 c3 3
! #1 # #0 # # #0 "
-1 0 3 1 4 0 3
2.5.
Determiniamo
!0 # #0 A=# #1 #1 "
2 -1 2 5 $ & 2 0 1 0& &. 1 0 1 2& 1 1 - 1 0& % !1 # #0 B = # #0 #1 " 1 0 1 2 0 1 2 -1 2 1 1 -1 2$ & 0& & 5& 0& %
L'operazione
a1 a3
- b1 + b4 b4 , la matrice
!1 # #0 C = # #0 #0 " !1 # #0 D= # #0 #0 "
- c2 + c3 c3 fornisce la matrice
2$ & 0& & da cui, mediante l'operazione d3 + d4 d4 , si ottiene la 0 - 1 1 5& 0 1 - 2 - 2& % !1 # #0 # #0 #0 " 1 0 2 0 0 -1 0 0 1 1 1 -1 2$ & 0& &. 5& 3& %
6
matrice a gradini
3. SISTEMI LINEARI Si dice equazione lineare sul campo reale R nelle incognite x1, x2, , xn ogni equazione del tipo (3.1) con a1 , a2, , an, b R . Per ogni i = 1, 2, , n, ai detto coefficiente dellincognita xi ; b prende il nome di termine noto dellequazione. Consideriamo ora m (m 1) equazioni lineari su R nelle incognite x1, x2, , xn , ovvero, come si suol dire, un sistema lineare su R di m equazioni nelle n incognite x1, x2, , xn : (3.2) a1 x1 + a2 x2 + + an xn = b,
!a 11 x1 + a12 x 2 + + a 1n xn = b1 # " . # $a m1 x1 + a m2 x 2 + + a mn xn = bm
Si dice soluzione del sistema (3.2) ogni n-pla ordinata (y1, y2, , yn) di
!a 11 y1 + a12 y2 + + a 1n yn = b1 # " . # $a m1 y1 + a m2 y 2 + + a mn yn = bm
Se (y1, y2, , yn) una soluzione del sistema (3.2), yi detto il valore che
lincognita xi assume nella soluzione (y1, y2, , yn). Un sistema si dice compatibile se ammette almeno una soluzione, incompatibile in caso contrario. Un sistema compatibile che ammette una sola soluzione detto determinato. Un sistema compatibile che non sia determinato detto indeterminato.
A =
a12 a 1n b1 $ & a 22 a 2n b 2 & & detta matrice completa del sistema. Se tale matrice a & a m2 a mn bm & %
gradini, il sistema detto a gradini. Due sistemi lineari nelle stesse incognite si dicono equivalenti se hanno lo stesso insieme di soluzioni. Proviamo che: Proposizione 3.1.
lineare. Ogni sistema S la cui matrice completa equivalente alla matrice completa di S equivalente ad S. Dimostrazione. Le operazioni elementari E1, E2, E3 (cfr. Par. 2) sulle righe della matrice completa del sistema S corrispondono in modo ovvio ad analoghe operazioni sulle equazioni del sistema. Se S stato ottenuto da S mediante lo scambio di due equazioni, ovvio che S equivalente ad S. Supponiamo ora S ottenuto da S moltiplicando una equazione, ad es. la prima, per un numero reale h 0. Poich le equazioni a11 x1 + a12 x2 + + a1n xn = b1 e ha11 x1 + ha12 x2 + + ha1n xn = hb1 hanno le stesse soluzioni, S ed S sono equivalenti.
Supponiamo infine S ottenuto da S sostituendo ad un'equazione la somma dell'equazione stessa e di un'altra, ad esempio sostituendo alla prima equazione la somma della prima e della seconda . Se (y1, y2, ,yn) soluzione di S, allora (y1, y2, ,yn) anche soluzione dellequazione (a11+ a21) x1 + (a12+ a22) x2 + + (a1n+ a2n) xn = b1 + b2 e dunque del sistema S. Viceversa, se (y1, y2, ,yn) soluzione di S, allora (y1, y2, ,yn) anche soluzione dell'equazione a11 x1 + a12 x2 + + a1n xn = b1 ottenuta facendo la differenza tra la prima e la seconda equazione di S. I sistemi S ed S sono dunque equivalenti. Dalle Proposizioni 2.1 e 3.1 segue subito che : Proposizione 3.2. Per ogni sistema lineare esiste un sistema a gradini ad esso equivalente. Dato un sistema lineare, si pone il problema di determinarne le eventuali soluzioni. Consideriamo in primo luogo il caso di un sistema costituito da una sola equazione, sia essa (3.4) Se a1 x1 + a2 x2 + + an xn = b. Sia n = 1. Lequazione (3.4) allora del tipo a x = b. a = b = 0, ogni numero reale soluzione dellequazione e in tal caso
lequazione si dice identica. Se a = 0 e b 0, lequazione non ammette soluzioni ovvero incompatibile (linsieme delle soluzioni vuoto). Se a 0, lequazione ammette una e una sola soluzione ( determinata) e tale soluzione il numero a-1 b. Sia ora n 2. Se a1 = a2 = = an = b = 0, ogni elemento di R n soluzione dellequazione (3.4) che in tal caso detta identica. Se a1 = a2 = = an = 0 e b 0, lequazione (3.4) 9
non ammette soluzioni ed dunque incompatibile. Se almeno uno dei coefficienti delle incognite diverso da zero, sia esso a1, scriviamo lequazione nella forma (3.5) a1 x1 = b - a2 x2 - - an xn . Dire che (y1, y2, ,yn) R n soluzione di (3.4) (cio di (3.5)) significa dire che y1 soluzione dellequazione (3.6) a1 x1 = b - a2 y2 - - an yn nellincognita x1 e tale equazione determinata, essendo a1 0. Ne segue che, comunque si scelgono n-1 numeri reali h2, , hn, esiste una e una sola soluzione dellequazione (3.5), ovvero della (3.4), in cui, per ogni i= 2, , n, lincognita xi assume il valore hi. E facile rendersi conto che, facendo variare h2, , hn in R, otteniamo con il procedimento precedente tutte le soluzioni dellequazione (3.4). Consideriamo ora un sistema lineare S con almeno due equazioni. Per la Proposizione 3.2 esiste un sistema a gradini equivalente ad S. Per determinare le (eventuali) soluzioni di S basta allora saper determinare le (eventuali) soluzioni di un sistema a gradini. Occupiamoci dunque dei sistemi a gradini. Sia S un sistema a gradini. Se la matrice completa ha righe nulle, le corrispondenti equazioni si possono eliminare in quanto sono identiche. Indichiamo con p ( m) il numero delle equazioni ottenute eliminando da S le eventuali equazioni identiche (tale numero coincide ovviamente col numero dei pivot della matrice completa). Se la matrice incompleta del nuovo sistema S ha una riga nulla, il sistema S incompatibile in quanto la corrispondente equazione incompatibile. Osserviamo che in questo caso il numero dei pivot della matrice incompleta di uno inferiore al numero dei pivot della matrice completa. Supponiamo dunque che la matrice incompleta di S non abbia righe nulle. Si possono presentare i seguenti due casi : (i) p = n ; (ii) p < n .
10
con aii 0 per ogni i = 1, , n. Dire che (y1, y2, ,yn) soluzione del sistema significa dire che : yn soluzione dellequazione y1 soluzione dellequazione a11 x1 + a12 y2 + + a1n yn = b1. Ciascuna di queste n equazioni in una sola incognita ammette una ed una sola soluzione. Ne segue che il sistema ammette una ad una sola soluzione che si ottiene risolvendo le equazioni del sistema cominciando dallultima e sostituendo di volta in volta i valori trovati nelle equazioni precedenti. Caso (ii). In ciascuna equazione portiamo a secondo membro i termini contenenti le incognite, dette variabili libere, i cui coefficienti non compaiono tra i pivot della matrice incompleta del sistema. Per semplicit, supponiamo che tali incognite siano xp+1, , xn. Il sistema si presenta allora nella forma :
!a 11 x1 + # # # " # # # $ + a 1p x p = b1 - a 1 p+1 x p+1 - - a1 n x n
ann xn = bn
11
Comunque si scelgono n-p elementi hp+1, , hn in R , per il caso (i) esiste una ed una sola soluzione del sistema in cui le variabili libere xp+1, , xn assumono rispettivamente i valori hp+1, , hn . Il sistema dato ammette quindi infinite soluzioni che dipendono da n-p parametri e tali soluzioni possono essere determinate nel modo visto. ESEMPI 3.1.
!x1 - x 2 + x3 = 1 # S : "x1 + x 2 = 4 . # # $2x1 + 2x 2 + 2x3 = 9
! 1 - 1 1 1$ # & essa equivalente # 0 2 - 1 3& . Ne segue che un sistema a gradini equivalente ad # & " 0 0 2 1%
S
!x1 - x 2 + x3 = 1 # " 2x2 - x 3 = 3 . Tale sistema determinato e la sua soluzione # # 2x3 = 1 $
3.2.
12
! 2 1 0 0 1$ # & La matrice completa di tale sistema # 1 1 1 - 1 2& . Una matrice a gradini ad # & " 1 0 - 1 1 1% !1 1 1 - 1 2 $ # & essa equivalente # 0 1 2 - 2 3& e quindi un sistema a gradini equivalente ad S # & "0 0 0 0 2 %
!x1 + x 2 + x3 - x 4 = 2 # " x2 + 2x 3 - 2x4 = 3 , che risulta incompatibile. # # 0x4 = 2 $ !2x1 - x2 + x3 - x 4 = 1 # S : "x 3 + x 4 = 1 # # $ x3 = -2
3.3.
! 2 -1 1 -1 1$ # & La matrice completa di tale sistema # 0 0 1 1 1& . Una matrice a gradini # & " 0 0 1 0 - 2% ! 2 -1 1 -1 1$ # & ad essa equivalente # 0 0 1 1 1& e quindi un sistema a gradini equivalente # & " 0 0 0 1 3%
!2x1 - x2 + x3 - x 4 = 1 # ad S " x3 + x 4 = 1 . Le incognite che hanno i pivot come # # x4 = 3 $
coefficienti sono x1, x3 e x4; ne segue che la x2 lunica incognita a cui si pu attribuire un valore arbitrario h. Scritto allora il sistema nella forma
!2x1 + x3 - x 4 = 1 + x 2 # " si ha che linsieme delle soluzioni del sistema x3 + x 4 = 1 # # x4 = 3 $
{(h/2 + 3, h, -2, 3) , h R } . 13
3.4.
Un sistema lineare S si dice omogeneo se tutte le sue equazioni hanno il termine noto uguale a zero. Sia S un sistema omogeneo in n incognite. Poich la n-pla (0, 0, , 0) evidentemente una soluzione di S, allora S sicuramente compatibile. soluzione eventualit: (i) banale; (ii) S indeterminato ed ammette quindi infinite soluzioni. 14 S determinato e in questo caso lunica soluzione di S ovviamente quella (0, 0, , 0) detta precedentemente visto, si La soluzione nulla o banale di S. Per quanto
Utilizzando il prodotto (righe per colonne) tra matrici, introdurremo ora per i sistemi lineari una notazione matriciale che risulter molto utile nel seguito. A tal
! b1 $ # & # b2 & # & proposito, considerato il sistema (3.2), poniamo B = # . & . Dire che (y1, y2, ,yn) # & #. & # & " b m%
soluzione del sistema (3.2) significa che valgono le uguaglianze espresse dalla (3.3); tali uguaglianze equivalgono alla seguente uguaglianza tra matrici :
! y1 $ # & # y 2& # & AY = B, avendo posto Y = # . & . Appare perci naturale scrivere il sistema (3.2) # & #. & # & " y n%
nella forma (3.7) AX = B ,
! x1 $ # & # x 2& # & dove X denota una matrice incognita # . & . # & #. & # & " x n%
Se il sistema (3.2) omogeneo, la (3.7) diventa AX = 0 , avendo indicato con 0 la matrice di tipo [m, 1] che ha tutti gli elementi uguali a zero. 15
16
1. OPERAZIONI INTERNE ED ESTERNE AD UN INSIEME Sia S un insieme non vuoto. Si definisce operazione interna ad S ogni applicazione : SS S. Sia (a, b) S S. Limmagine mediante di (a, b) si indica di solito con a b. ESEMPI 1.1. Le ordinarie operazioni di addizione e moltiplicazione tra numeri naturali sono operazioni interne allinsieme N 0 dei numeri naturali. Analogamente, le ordinarie operazioni di addizione e moltiplicazione tra numeri interi, razionali o reali, sono operazioni interne agli insiemi Z , Q o R ( dei numeri interi, razionali o reali).
1. 2. Sia S un insieme non vuoto. Indicato con P(S) linsieme delle parti di S, le applicazioni : (X, Y) P(S) P(S) X Y P(S) : (X, Y) P(S) P(S) X Y P(S) sono operazioni interne a P(S). ^ : (m, n) N N mn N una operazione interna
1.3. Lapplicazione
allinsieme N = N 0 \ {0}. 16
1.4. Sia O un punto dello spazio della geometria elementare. Indichiamo con SO linsieme dei segmenti orientati dello spazio di primo estremo il punto O. Se OA ed OB sono due elementi di SO, chiamiamo somma di OA ed OB il segmento OC, dove il punto C il secondo estremo del segmento di primo estremo A equipollente ad OB ( cio della stessa misura di OB rispetto ad una fissata unit e, se non nullo, parallelo e concorde ad OB). Lapplicazione + : (OA, OB) SO SO OC = OA + OB SO una
Siano T ed S due insiemi non vuoti. Si definisce operazione esterna tra T ed S ogni applicazione
o
: T S S.
O
1.5. Considerati gli insiemi Z ed R , lapplicazione (a, b) Z R a b R una operazione esterna tra Z ed R . 1.6. Sia h un numero reale ed OA un elemento di SO. Se h = 0 oppure OA il segmento nullo OO, chiamiamo prodotto di h per OA il segmento OB = OO. Se h 0 ed OA OO, chiamiamo prodotto di h per OA il segmento OB contenuto nella retta per O ed A, avente misura uguale alla misura di OA moltiplicata per il valore assoluto di h e concorde o discorde ad OA a seconda che sia h > 0 oppure h < 0. Lapplicazione una operazione esterna tra R ed SO . 17
o
2. SPAZI VETTORIALI SU R
Sia V un insieme non vuoto, + una operazione interna a V e operazione esterna tra R e V. Si dice che la terna (V, +,
o
una
) uno
spazio
vettoriale sul campo reale R se sono verificate le seguenti propriet : (2.1) associativa di + : per ogni v, w, z V, (v + w) + z = v + (w + z); (2.2) esistenza dellelemento neutro rispetto a + : esiste v0 V tale che v + v0 = v = v0 + v , per ogni v V; (2.3) esistenza dellopposto rispetto a + : per ogni v V esiste v V tale che v + v = v0 = v + v; (2.4) commutativa di + : per ogni v, w V, v + w = w + v; (2.5) per ogni h, k R e per ogni v V, (h k ) o v = h o ( k o v); (2.6) per ogni v V, 1 o v = v; (2.7) distributiva di
o
rispetto all'addizione in R : per ogni h, k R e per ogni rispetto a + in V : per ogni h R e per ogni v, w V ,
v V, (h + k) o v = h o v + k o v; (2.8) distributiva di
o
h o ( v + w ) = h o v + h o w. Se (V, +,
o
vettori e gli elementi di R si dicono scalari. Loperazione + detta addizione tra vettori e loperazione o detta moltiplicazione di uno scalare per un vettore. Se v e w sono due vettori, il vettore v + w detto somma di v e w. Se h uno scalare e v un vettore, il vettore h o v detto prodotto di h per v e sar denotato dora in poi semplicemente con hv. Proposizione 2.1. Sia (V, +, o ) uno spazio vettoriale su R . Si ha : 18
(i) esiste in V un unico elemento neutro rispetto a + ; (ii) per ogni v V, esiste in V un unico opposto di v rispetto a + . Dimostrazione. (i) Siano v0 e w0 elementi neutri rispetto a + . Per la (2.2) si ha : v0 = v0 + w0 = w0. (ii) Sia v V e siano v e v opposti di v rispetto a +. Per le (2.2) e (2.1) si ha : v = v + v0 = v + ( v + v) = (v + v) + v = v0 + v = v. Lelemento neutro rispetto a + in uno spazio vettoriale si dice vettore nullo e si indica con 0V o semplicemente con 0 quando non c possibilit di equivoco. Per ogni vettore v di V, lopposto di v si indica con v ; evidentemente, 0 = 0. Nel seguito, dati due vettori v e w, scriveremo v w invece di v + (w).
ESEMPI DI SPAZI VETTORIALI SU R 2.1. Spazio vettoriale numerico di ordine n su R : E facile verificare che linsieme R
n
loperazione + che a due vettori numerici a = (a1, , an) e b = (b1, , bn) associa il vettore numerico a + b = ( a1 + b1, , an + bn ) e loperazione
o
che ad un
numero reale h e ad un vettore numerico a = (a1, , an) associa il vettore numerico ha = (ha1, , han) (cfr. Cap. I, Par. 1) uno spazio vettoriale su R . Il vettore nullo di tale spazio la n-pla ( 0, 0, , 0) e, per ogni vettore a = (a1, , an) , lopposto di a il vettore a = (-a1, , -an). Sia n = 1. Osserviamo che R operazioni + e
o
1
moltiplicazione tra numeri reali. Il campo dei numeri reali dunque spazio vettoriale su se stesso. 19
2.2.
Cap. I, Par. 2). Consideriamo loperazione + che a due matrici A = (aij) e B = (bij) di R m,n associa la matrice A + B = ( aij + bij) R m,n e loperazione o che ad un numero reale h e ad una matrice A = (aij) R m,n associa la matrice hA = (haij) R
m,n
m,n
, +,
) uno spazio
vettoriale su R in cui il vettore nullo la matrice con tutti gli elementi uguali a 0, detta matrice nulla (di tipo [m, n]); per ogni matrice A = (aij), lopposta la matrice - A = ( - aij ). 2.3. Spazio vettoriale dei vettori geometrici applicati in un punto : Sia O un punto dello spazio della geometria elementare. Si dimostra (utilizzando i teoremi della geometria elementare) che linsieme SO dei segmenti orientati dello spazio di primo estremo O con le operazioni + e
o
definite come
negli Esempi 1.4 e 1.6 uno spazio vettoriale su R che indicheremo con VO. Gli elementi di tale spazio vettoriale saranno anche detti vettori geometrici applicati in O. Il vettore nullo di SO il segmento nullo OO e, per ogni vettore non nullo OA, lopposto di OA il vettore OA, dove il punto A appartiene alla retta per O ed A, ha la stessa misura di OA (rispetto ad una fissata unit) e verso opposto a quello di OA. 2.4. Spazio vettoriale dei vettori geometrici liberi ( o vettori liberi ordinari) : Indichiamo con S linsieme dei segmenti orientati dello spazio della geometria elementare. Se AB S, si dice vettore geometrico libero (o vettore 20
AB, dei
segmenti orientati dello spazio equipollenti ad AB (cfr. Esempio 1.4). Evidentemente, se CD AB, risulta CD = AB. Osserviamo esplicitamente che linsieme dei segmenti nulli dello spazio un vettore geometrico libero, detto vettore libero nullo, che indicheremo con 0. Sia a = AB un vettore geometrico libero ed O un punto. Lunico segmento orientato OP tale che OP = a detto vettore AB applicato in O o rappresentante di AB in O. Siano a e b due vettori liberi. Fissato un punto O dello spazio, siano OP ed OQ i rappresentanti in O dei vettori a e b e sia OR = OP + OQ. Si prova (utilizzando i teoremi della geometria elementare) che, se O un punto distinto da O e OP e OQ sono i rappresentanti in O di a e b, il segmento OR = OP + OQ equipollente ad OR. Ne segue che i vettori liberi OR ed OR coincidono. Il vettore libero OR = OR sar detto somma di a e b e sar indicato con a+b. Sia a un vettore libero ed h un numero reale. Fissato un punto O dello spazio, sia OP il rappresentante di a in O e sia OQ = h OP. Se O un punto distinto da O ed OP il rappresentante di a in O, il segmento OQ = h OP risulta equipollente ad OQ, per cui OQ = OQ. Il vettore libero OQ = OQ sar detto prodotto di h per a e sar indicato con h a. Si verifica che linsieme dei vettori liberi dello spazio con loperazione + che a due vettori liberi a e b associa il vettore libero a + b e loperazione o che ad un numero reale h e ad un vettore libero a associa il vettore libero h a uno spazio vettoriale su R . Indicheremo con V tale spazio vettoriale. Il vettore nullo di V coincide ovviamente con 0.
21
2.5.
Spazio vettoriale dei vettori geometrici liberi di un piano : Sia un piano ed S linsieme dei segmenti orientati contenuti in . Se
AB S, si dice vettore geometrico libero (o vettore libero ordinario) di individuato da AB linsieme, che indicheremo con AB, dei segmenti orientati del piano equipollenti ad AB. Definiamo la somma di due vettori liberi di e il prodotto di un numero reale per un vettore libero di analogamente a quanto fatto nellEsempio 2.4 per i vettori liberi dello spazio. Linsieme S con le due
operazioni cos definite uno spazio vettoriale su R . Indicheremo tale spazio con
V .
2.6. Spazio vettoriale dei polinomi in x a coefficienti reali. Indichiamo con R [x] linsieme dei polinomi nella indeterminata x a coefficienti reali. Linsieme R [x], con le ordinarie operazioni di addizione tra polinomi e moltiplicazione di un numero reale per un polinomio, uno spazio vettoriale sul campo reale R . Il vettore nullo di tale spazio vettoriale il polinomio in x avente tutti i coefficienti uguali a zero ( polinomio nullo). Nel seguito scriveremo di solito semplicemente V in luogo di (V, +, non menzioneremo il campo R . )e
Proviamo ora alcune propriet di uno spazio vettoriale V . Per ogni v, w, z V e per ogni h R , si ha : I. v+w= z v=zw.
22
Dimostrazione. v + w = z
(v + w) w = z w (per la (2.1) )
II.
III.
hv=0
h = 0 oppure v = 0. Sia
Dimostrazione. Se h = 0 oppure v = 0, dalla II segue che h v = 0. (per la (2.5) e per la II ) (h-1 h) v = 0 1 v = 0 (per la (2.6) ) v = 0. IV. h (- v) = - hv = (- h) v .
Dimostrazione. Per provare che h (- v) lopposto di h v, basta provare che h (- v) + h v = 0. Si ha : h (- v ) + h v = (per la (2.8) ) h (- v + v ) = h 0 = (per la II) 0. In maniera analoga si prova che (-h) v = - hv. In particolare, dalla IV segue che : Se v1, v2, , vt sono t (-1) v = - v ( 3) e ( -h) (- v) = h v . di V, il vettore e sar
vettori
(((v1 + v2)+v3)+)+vt
indicato semplicemente con v1 + v2 + + vt. Usando la propriet (2.1), si pu provare che tale somma si pu calcolare raggruppando arbitrariamente gli elementi 23
vi. Si pu inoltre provare, sfruttando la propriet (2.4), che v1 + v2 + + vt coincide con la somma degli stessi vettori presi in un qualunque altro ordine. Diciamo infine che la propriet distributiva (2.8) si pu estendere alla somma di pi vettori : h (v1 + v2 + + vt) = h v1 + h v2 + + h vt . Chiudiamo il presente paragrafo dando la seguente definizione : se h1, h2, , ht R , il vettore v = h1v1 + h2v2 + + htvt lineare dei vettori v1, v2, , vt sono proporzionali. detto combinazione
se v e w sono vettori non nulli tali che v = h w (e quindi w = h-1v), si dir che v e w
3. SOTTOSPAZI Sia (V, +, ) uno spazio vettoriale. Un sottoinsieme non vuoto H di V si dice
stabile ( o chiuso) rispetto alladdizione se (3.1) per ogni v, w H, si ha v + w H; si dice stabile ( o chiuso) rispetto alla moltiplicazione per uno scalare se (3.2) per ogni h R e per ogni v H, si ha h v H. Osserviamo che, se H un sottoinsieme stabile rispetto a + e applicazioni (3.3) + : (v, w) H H v + w H e
o o
, allora le
: (h, v) R H h v H
sono rispettivamente una operazione interna definita in H ed una operazione esterna tra R ed H. 24
Sia H un sottoinsieme stabile rispetto a + e o . Diremo che H sottospazio (vettoriale) di V se H esso stesso spazio vettoriale rispetto alle operazioni (3.3). Proposizione 3.1. Ogni sottoinsieme H di V stabile rispetto alle due operazioni di V un sottospazio. Dimostrazione. Le propriet (2.1), (2.4), (2.5), (2.6), (2.7) e (2.8) sono ovviamente verificate. Consideriamo un vettore v di H. Per la (3.2), 0 v H. Daltra parte, per la II del Paragrafo 2, 0 v = 0, e quindi 0 H. Inoltre, per la (3.2) e per la IV del Paragrafo 2, per ogni v H, (-1) v = v H. Resta cos provato che valgono anche le (2.2) e (2.3) e dunque H uno spazio vettoriale rispetto alle operazioni (3.3). ESEMPI 3.1. In ogni spazio vettoriale V, i sottoinsiemi {0} e V sono evidentemente sottospazi di V, detti sottospazi banali. 3.2. Nello spazio vettoriale numerico R 3, consideriamo i sottoinsiemi : H1 = { (x, y, z) R 3 : y = 0 } = { (x, 0, z) , con x, z R }; H2 = { (x, y, z) ) R 3 : x + y + z = 0 }; H3 = { ( x, y, z) R 3 : x 0 }. Come facilmente si verifica, H1 e H2 sono sottoinsiemi stabili di R 3, e dunque sono sottospazi di R 3. Il sottoinsieme H3 stabile rispetto alloperazione di addizione (come subito si verifica). Proviamo che H3 non stabile rispetto alla moltiplicazione per un numero reale, e quindi non sottospazio di R3. Moltiplicando infatti un numero reale h < 0 per un vettore (x, y, z) di H3 avente x 0, si ottiene il vettore (hx, hy, hz) che non in H3, dato che risulta h x < 0.
25
3.3. Nello spazio vettoriale numerico R 2, consideriamo i sottoinsiemi : H1 = { (x, y) R 2 : y = x2 }; H2 = { (0, 0), (1, 1), (-1, -1) }; H3 = { (x, -x) , con x R }. I sottoinsiemi H1 e H2 non sono stabili rispetto a nessuna delle due operazioni di R 2 e dunque non sono sottospazi (infatti, ad esempio, (2, 4) e (3, 9) sono in H1, mentre (2, 4) + (3, 9) = (5, 13) H1 e 5(2, 4) = (10, 20) H1 . Analogamente, (1, 1) + (1, 1) = (2, 2) H2 e 2(1, 1) = (2, 2) H2) . E facile invece provare che H3 sottospazio di R 2. 3.4. Nello spazio vettoriale R [x] dei polinomi in x a coefficienti reali (cfr. Esempio 2.6), consideriamo il sottoinsieme R 2[x] costituito dai polinomi di grado al pi 2 e dal polinomio nullo, cio R 2[x] = { a0 + a1 x + a2 x2 , con
a0 , a1 , a2 R }. Siano a0 + a1x + a2x2 e b0 + b1x + b2x2 due elementi di R 2[x] . Si ha : ( a0 + a1 x + a2 x2 ) + (b0 + b1 x + b2 x2) = ( a0 + b0) + (a1 + b1)x + (a2 + b2) x2 e tale polinomio, se non nullo, ha grado al pi due. Il sottoinsieme R 2[x] dunque stabile rispetto alloperazione di addizione in R [x]. Analogamente si prova la stabilit di R 2[x] rispetto alloperazione di moltiplicazione per un
numero reale, e dunque R 2[x] un sottospazio di R [x] . Pi in generale, si prova che, per ogni intero positivo n, il sottoinsieme
26
3.5. Consideriamo lo spazio vettoriale VO dei vettori geometrici applicati nel punto O (cfr. Esempio 2.3). Detta r una retta per O e un piano per O, siano H1 ed H2 i seguenti sottoinsiemi : H1 = { OP VO : P r } , H2 = { OP VO : P }.
Per come stata definita loperazione di addizione in VO , la somma di due vettori di H1 un segmento di origine O contenuto in r e la somma di due vettori di H2 un segmento di origine O contenuto nel piano . Ne segue che H1 ed H2 sono sottoinsiemi di VO stabili rispetto alloperazione di addizione in VO . Analogamente si prova la stabilit di H1 ed H2 rispetto alloperazione di moltiplicazione di un numero reale per un vettore. I sottoinsiemi H1 ed H2 sono dunque entrambi sottospazi di VO. Considerata una retta s per O distinta da r, poniamo : H3 = { OP VO : P s }. Come si visto per H1, anche H3 un sottospazio di VO . Consideriamo ora il sottoinsieme : H = H1 H3 = { OP VO : P r s} . Il sottoinsieme H ovviamente stabile rispetto alloperazione di moltiplicazione di un numero reale per un vettore, mentre non stabile rispetto alladdizione in quanto, se consideriamo un vettore OP non nullo in H1 e un vettore OQ non nullo in H2, il vettore OR = OP + OQ non appartiene ad H dato che il punto R non si trova evidentemente n in r n in s. Ne segue che H non sottospazio di VO.
Osservazione 3.1. Sia W un sottospazio vettoriale di V. Se v1, v2, , vs sono vettori di W, dalla (3.1) segue che il vettore v1 + v2 + + vs appartiene a W. Se h1, h2, , hs sono numeri reali, dalle (3.1) e (3.2) segue che la combinazione lineare h1v1 + h2v2 + + hsvs appartiene a W. 27
Proviamo ora che : Proposizione 3.2. Se H e W sono due sottospazi di V, allora H W un sottospazio di V. Dimostrazione. Poich 0 H e 0 W, allora H W non vuoto. Siano ora v e w due vettori di H W. Poich v, w H, allora v + w H, in quanto H un sottospazio. Analogamente, poich v, w W, allora v + w W. Si ha quindi che v + w H W. Sia ora h R e v H W. Poich sia H che W sono sottospazi, allora il vettore hv appartiene sia ad H che a W, e quindi hv H W. Il sottoinsieme H W dunque stabile rispetto ad entrambe le operazioni di V e quindi un sottospazio di V. La propriet espressa dalla Proposizione 3.2 si pu estendere ad un insieme qualunque di sottospazi di uno spazio vettoriale. Vale dunque la seguente Proposizione 3.3. Lintersezione di un numero qualunque di sottospazi di V un sottospazio di V. Siano H e W sottospazi di V. Non vero in generale che H W sottospazio di V (cfr. Esempio 3.5). Si pone allora il problema di determinare il pi piccolo sottospazio (rispetto allinclusione) che contiene H W. A tale proposito, considerato il sottoinsieme H + W = { v + w : v H e w W }, si ha che :
28
Proposizione 3.4. Se H e W sono sottospazi di V, il sottoinsieme H + W un sottospazio di V ed il pi piccolo (rispetto allinclusione) sottospazio di V che contiene H W. Dimostrazione. Poich H e W sono non vuoti, allora H + W non vuoto. Proviamo per prima cosa che H + W stabile rispetto alladdizione. Siano v + w e v + w due elementi di H + W. Applicando le propriet (2.1) e (2.4) si ha : (v + w) + (v + w) = (v + v) + (w + w). Poich H e W sono sottospazi, v + v H e w + w W. Ne segue che (v + w) + (v + w) H + W. Analogamente si prova la stabilit di H + W rispetto alla moltiplicazione per un numero reale. Il sottoinsieme H + W dunque sottospazio di V. Sia ora v un vettore di H. Poich v = v + 0 e 0 W, allora v H + W. Si ha quindi che H H + W. Analogamente si prova che W H + W , e dunque HW H+W. Se Z un sottospazio di V che contiene H W , allora, per ogni v H e per ogni w W, v + w Z e quindi H + W Z. Ogni sottospazio contenente sia H che W contiene allora H + W. Ci significa che H + W il pi piccolo sottospazio di V che contiene H W. Lasserto cos completamente provato. Il sottospazio H + W detto (sottospazio) somma di H e W. Siano H1, H2, , Ht t sottospazi di V. Posto H1 + H2 + + Ht = {v1 + v2 + + vt : vi Hi per ogni i = 1, , t}, H1 + H2 + + Ht H1 H2 Ht. H1, H2, , Ht . La somma H1 + H2 + + Ht dei sottospazi H1, H2, , Ht si dice diretta se ognuno dei sottospazi interseca nel solo vettore nullo la somma dei rimanenti. In 29 si pu dimostrare che il pi piccolo sottospazio di V contenente
particolare, se t = 2, ci significa che H1 H2 = {0}. Per indicare che una somma diretta si usa il simbolo H1 H2 Ht . Due sottospazi H1 e H2 di V si dicono supplementari se H1 H2 = V.
4. SOTTOSPAZIO GENERATO DA UN SISTEMA DI VETTORI Sia V uno spazio vettoriale. Si dice sistema di vettori di ordine t ( 1) di V ogni t-pla { v1, v2, , vt } di vettori di V non necessariamente distinti. Siano S = { v1, v2, , vt } ed S' = { w1, w2, , ws } due sistemi di vettori di V. Si dice che S contenuto in S', e si scrive S S', se, per ogni vi S, si ha che vi S' e inoltre vi compare in S' almeno tante volte quante compare in S. Sia S = { v1, v2, , vt } un sistema di vettori di V e sia v un vettore di V. Si dice che v dipende (linearmente) da S, o che v dipende dai vettori v1, v2, , vt , se v si pu ottenere come combinazione lineare di v dipende da S h1, h2, , ht R : v1, v2, , vt mediante opportuni scalari. Si ha cio che : v = h1v1 + h2v2 + + htvt.
Proposizione 4.1 Sia S = { v1, v2, , vt } un sistema di vettori di V. Si ha : (i) 0 dipende da S; (ii) per ogni vi S, vi dipende da S; (iii) se T un sistema di vettori che contiene S, allora ogni vettore che dipende da S dipende anche da T. Dimostrazione. (i) Poich 0 = 0v1 + 0v2 + + 0vt , allora 0 dipende da S. (ii) Poich vi = 0v1 + + 0vi-1 + 1 vi + 0vi+1 + + 0vt , allora vi dipende da S. (iii) Sia T = { v1, v2, , vt , w1, , wh }. Se v = h1v1 + h2v2 + + htvt , allora si ha v = h1v1 + h2v2 + + htvt + 0w1 + + 0wh e dunque v dipende anche da T. 30
Sia S = { v1, v2, , vt } un sistema di vettori di V. Indichiamo con L(S) o con L(v1, v2, , vt ) l'insieme delle combinazioni lineari dei vettori di S; poniamo cio L(S) = L(v1, v2, , vt ) = { h1v1 + h2v2 + + htvt , al variare di h1, h2, , ht in R }.
Proposizione 4.2. L(S) il pi piccolo (rispetto allinclusione) sottospazio di V che contiene i vettori di S. Dimostrazione. Cominciamo col provare che L(S) un sottospazio di V. Per la (i) della Proposizione 4.1, 0 L(S) e dunque L(S) non vuoto. Siano due elementi di L(S). Si ha (h1+ k1) v1 + (h2+ k2) v2 +
+ (ht+ kt) vt L(S) e dunque L(S) stabile rispetto alladdizione. Analogamente si prova la stabilit di L(S) rispetto alla moltiplicazione per un numero reale. L(S) dunque un sottospazio che, per la (ii) dalla Proposizione 4.1, contiene i vettori di S. Sia ora W un sottospazio di V che contiene i vettori di S. Per lOsservazione 3.1 tutti i vettori di L(S) appartengono a W e quindi L(S) W. Il sottospazio L(S) detto sottospazio generato da S (o dai vettori v1, v2, , vt ). Osservazione 4.1. E facile rendersi conto che, se W e H sono sottospazi di V ed W = L(S) ed H = L(T), allora W + H = L(S T). Siano S e T due sistemi di vettori di V. Si dice che S e T sono equivalenti se L(S) = L(T), cio se S e T generano lo stesso sottospazio di V. Si verifica facilmente che : 31
Proposizione 4.3 . Siano S e T due sistemi di vettori di V. S e T sono equivalenti ogni vettore di S dipende da T ed ogni vettore di T dipende da S. Proposizione 4.4 . Se A R m,n e B una matrice equivalente (per righe) ad A, detti S e T i sistemi di vettori di R n costituiti rispettivamente dalle righe di A e di B, si ha che S e T sono equivalenti, cio L(S) = L(T) . La nozione di sottospazio generato da un sistema di vettori si estende ad un qualunque sottoinsieme X non vuoto di V. Precisamente, si definisce sottospazio generato da X, e lo si denota con L(X), il pi piccolo sottospazio di V che contiene X. Si prova che L(X) linsieme di tutte le combinazioni lineari ottenute mediante vettori appartenenti a X.
32
5. DIPENDENZA E INDIPENDENZA LINEARE Sia V uno spazio vettoriale e sia S = { v1, v2, , vt } un sistema di vettori di V. Si dice che S (linearmente) dipendente o legato se esistono t scalari non tutti nulli h1, h2, , ht tali che h1v1 + h2v2 + + htvt = 0 . Si dice che S (linearmente) indipendente o libero se S non dipendente, cio se 0v1 + 0v2 + + + 0vt lunica combinazione lineare dei vettori di S che sia uguale al vettore nullo. Dire quindi che S linearmente indipendente significa dire che : h1v1 + h2v2 + + htvt = 0 h1 = h2 = = ht = 0 . Se un sistema S = { v1, v2, , vt } dipendente ( indipendente), diremo che i vettori v1, v2, , vt sono dipendenti ( indipendenti). Osservazione 5.1. E immediato verificare che, se S un sistema di vettori di V che contiene il vettore nullo oppure due vettori proporzionali, dipendente. Proviamo che : Proposizione 5.1 . Sia S = { v1, v2, , vt }, t 2, un sistema di vettori di V. (i) S dipendente esiste in S un vettore che dipende dai rimanenti ; (ii) S indipendente nessuno dei vettori di S dipende dai rimanenti. Dimostrazione. (i) Sia S dipendente. Esistono allora t scalari h1, h2, , ht non tutti nulli tali che h1v1 + h2v2 + + htvt = 0 . Supponiamo che sia h1 0 (analogamente si procede negli altri casi). Si ha : v1 = (h1)1h2v2 (h1)1htvt e dunque v1 dipende da v2, , vt . 33 allora S
Viceversa, supponiamo che in S uno dei vettori, diciamo v1 , dipende dai rimanenti. Esistono quindi degli scalari h2, , ht tali che v1 = h2v2 + + htvt. Si ha allora : 1 v1 h2v2 htvt = 0 e dunque S dipendente. (ii) Segue banalmente dalla (i). Osserviamo che dalla (i) della Proposizione precedente segue in particolare che un sistema costituito da due vettori non nulli dipendente se, e solo se, i due vettori sono proporzionali.
ESEMPI 5.1. Sia S = { v } . Se v = 0 , allora per l Osservazione 5.1 S dipendente. Se invece v 0, allora S indipendente in quanto h v = 0 , con v 0, implica h = 0, per la Propriet III degli spazi vettoriali (cfr. Paragrafo 2). 5.2. Nello spazio vettoriale numerico R vettori : S1 = { (1, 0, 0), (1, 2, 0), (3, 4, 5) }, S2 = { (2, -1, 0), (4, 3, 1), (2, 4, 1) }, S3 = { ( -1, 1, 1), (0, 1, 0), (1, 1, -1) }, S4 = {(2, -2, 3), (-4, 4, -6) }, S5 = { (3, 1, 1), (3, 1, 2) } . S1 indipendente in quanto da h1(1, 0, 0) + h2(1, 2, 0) + h3(3, 4, 5) = (0, 0, 0) si
!h 1 + h 2 + 3h 3 = 0 # ottiene : (h1 + h2 + 3h3, 2h2 + 4h3, 5h3) = ( 0, 0, 0), da cui " 2h2 + 4h3 = 0 e # # 5h3 = 0 $
3
tale sistema lineare nelle incognite h1, h2, h3 ha come unica soluzione (0, 0, 0). Il sistema S2 dipendente per la Proposizione 5.1 in quanto risulta (4, 3, 1) = (2, -1, 0) + (2, 4, 1). 34
e tale sistema
lineare ha come soluzioni tutte e sole le terne (h3, -2h3, h3), al variare di h3 in R . S4 dipendente poich (-4, 4, -6) = -2 (2, -2, 3) mentre S5 indipendente poich i due vettori che lo compongono non sono proporzionali. 5.3. Nello spazio vettoriale VO dei vettori geometrici dello spazio applicati in un punto O (cfr. Esempio 2.3), si verifica facilmente che due vettori sono dipendenti se, e solo se, giacciono su una stessa retta, mentre tre vettori sono dipendenti se, e solo se, giacciono su uno stesso piano. Osservazione 5.2. Si verifica facilmente che : Se S= { v1, v2, , vt } T = { v1, v2, , vt , w1, , ws } sono due sistemi di vettori di V, allora : (i) Se S dipendente, T dipendente. (ii) Se T indipendente, S indipendente. Si ha infatti : (i) Poich S dipendente, esistono t scalari h1, h2, , ht non tutti nulli tali che h1v1 + h2v2 + + htvt = 0. Ne segue che h1v1 + h2v2 + + htvt + 0 w1 + + 0 ws = 0 e dunque T dipendente. (ii) Segue immediatamente dalla (i). Proviamo ora che :
35
Proposizione 5.2. Se S= { v1, v2, , vt } un sistema indipendente, ogni vettore che dipende da S vi dipende in unico modo. Dimostrazione. Sia v un vettore che dipende da S. Vogliamo provare che v si pu scrivere in unico modo come combinazione lineare dei vettori di S. v = h1v1 + h2v2 + + htvt = Se k1v1 + k2v2 + + ktvt , si ha (h1 k1) v1 +
(h2 k2) v2 + + (ht kt) vt = 0. Poich S indipendente, h1 k1 = h2 k2 = = ht kt = 0, da cui hi = ki , per ogni i = 1, , t. Proposizione 5.3. Se S= { v1, v2, , vt } un sistema indipendente e v un vettore di V che non dipende da S, allora il sistema S { v } = { v1, v2, , vt , v } indipendente. Dimostrazione. Sia h1v1 + h2v2 + + htvt + h v = 0. Si deve provare che h1 = h2 = = ht = h = 0. Se fosse h 0, si avrebbe v = -h-1h1v1 - h-1 h2v2 - - h-1htvt e quindi v dipenderebbe da S, contro lipotesi. E dunque h = 0. Luguaglianza h1v1 + h2v2 + + htvt + h v = 0 Lasserto cos provato. Dalla Proposizione 5.3 segue immediatamente il seguente : Corollario 5.4. Se S= { v1, v2, , vt } un sistema indipendente e v un vettore di V tale che S { v } = { v1, v2, , vt , v } dipendente, allora v dipende da S. si pu allora scrivere nel seguente modo : h1v1 + h2v2 + + htvt = 0. Essendo S indipendente, si ha h1 = h2 = = ht = 0.
6. BASI E DIMENSIONE Sia V uno spazio vettoriale. Si dice che V finitamente generabile se esiste un sistema S = {v1, v2, , vt } di vettori di V tale che V = L(S), cio tale che ogni 36
vettore di V si pu scrivere come combinazione lineare dei vettori di S. In tal caso si dice che S un sistema di generatori di V o che i vettori v1, v2, , vt generano V. ESEMPI 6.1. Lo spazio vettoriale numerico R
n
finitamente generabile
in quanto
n
{(1, 0, , 0), (0, 1,,0), , ( 0, , 0, 1)} un sistema di vettori di R genera : per ogni (a1, a2, , an) R
n
che lo
a1(1, 0, , 0) + a2 (0, 1, , 0) + + an (0, , 0, 1). 6.2. Consideriamo i seguenti sistemi di vettori di R 2 : S = { (1, 0), (2, 0) } ,
2
T = { (1, 0), (1, 1) }, Z = { (1, 0), (0, 1), ( 2, -1) } . Il sistema S non genera R , in quanto esiste in R
2
in quanto, per
ogni (a, b) di R 2, si ha : (a, b) = (a b) (1, 0) + b (1, 1). E facile verificare che il sistema Z genera R 2 (cfr. Esempio 6.1 e Proposizione 4.1 (iii) ). 6.3. Consideriamo i seguenti sistemi di vettori di R
3
(0, 0, - 1), (0, 0, 0) }, T = { (1, 0, 1), (0, 0, 1), (5, 0, 3) } , Z = { (1, 0, 0), (0, 1, 0) } . E facile verificare che S genera R 3, mentre T e Z non lo generano. 6.4. Lo spazio vettoriale VO dei vettori geometrici dello spazio applicati in un punto O (cfr. Esempio 2.3) finitamente generabile in quanto, come facilmente si prova, ogni sistema costituito da tre vettori non complanari genera VO .
37
6.5. Lo spazio vettoriale R [x] dei polinomi in x a coefficienti reali (cfr. Esempio 2.6) non finitamente generabile. Considerato infatti un sistema S di vettori non tutti nulli di R [x] , sia M il massimo dei gradi dei polinomi in S. Un polinomio di grado maggiore di M non pu essere scritto come combinazione lineare dei polinomi di S. Ne segue che nessun sistema di vettori di R [x] pu generare R [x] . 6.6. Lo spazio vettoriale R 2[x] = { a0 + a1 x + a2 x2 , con a0 , a1 , a2 R } (cfr. Esempio 3.4) finitamente generabile, in quanto il sistema di vettori S = {1, x, x2} genera R 2[x] : per ogni polinomio a0 + a1 x + a2 x2 R 2[x] , a0 + a1 x + a2 x2 combinazione lineare dei polinomi 1, x ed x2 mediante gli
scalari a0, a1 ed a2 . Si dice base di V ogni sistema indipendente di generatori di V. Proposizione 6.1. Ogni spazio vettoriale V finitamente generabile e non ridotto al solo vettore nullo ammette basi. Dimostrazione. Sia S = { v1, v2, , vt } un sistema di generatori di V. Se S indipendente, allora S una base di V. Supponiamo ora S dipendente. Per la Proposizione 5.1 esiste in S un vettore, diciamo v1, che dipende dai rimanenti. Si ha quindi (6. 1) v1 = k2 v2 + k3 v3 + + kt vt , con k2, k3 , , kt R .
Posto S = S \ { v1 } = { v2, , vt }, proviamo che S genera V. Sia v V. Poich S genera V, esistono t scalari, h1, , ht , tali che (6. 2) v = h1v1 + h2v2 + + htvt . Dalle (6.1) e (6.2) segue che v = h1( k2 v2 + k3 v3 + + kt vt ) + h2v2 + + htvt = (h1 k2 + h2 ) v2 + + (h1 kt + ht ) vt L(S) . Si ha cos V = L(S). 38
Se S indipendente, S una base di V. In caso contrario, esiste in S un vettore che dipende dai rimanenti. Ripetendo il ragionamento precedente, troviamo in S un sistema S che genera ancora V. Se S indipendente, esso una base di V, altrimenti si procede in maniera analoga a quanto prima fatto. Poich V non ridotto al solo vettore nullo, dopo al pi t 1 passi, si ottiene una base di V. Da quanto visto nel corso della dimostrazione della Proposizione 6.1 segue il Corollario 6.2. Sia V uno spazio vettoriale finitamente generabile e non ridotto al vettore nullo. Ogni sistema di generatori di V contiene almeno una base di V. ESEMPI 6.7. Nello spazio vettoriale numerico R n consideriamo il sistema di vettori B = { (1, 0, , 0), (0, 1, , 0), , ( 0, , 0, 1) }. Per lEsempio 6.1, B genera R n . Poich inoltre, come facilmente si verifica, B indipendente, allora B una base di
S = { (1, 0, 0),
(0, 2, 0), (0, 0, - 1), (0, 0, 0) } e T = { (1, 1, 1), (0, 1, 2), (0, 0, -1) } . Entrambi i sistemi S e T , ma solo T una base di R
3
in quanto T
39
indipendente, mentre S non lo . Osserviamo che in S contenuta la base { (1, 0, 0), (0, 2, 0), (0, 0, - 1) } di R 3. 6.10. Nello spazio vettoriale VO dei vettori geometrici dello spazio applicati in un punto O (cfr. Esempio 2.3) consideriamo un sistema S costituito da tre vettori non complanari. Per gli Esempi 5.3 e 6.4, S una base di VO . 6.11. Nello spazio vettoriale R 2[x] = { a0 + a1 x + a2 x2 , con a0 , a1 , a2 R } consideriamo il sistema di vettori S = { 1, x, x2 } . Per lEsempio 6.6, S genera
h0 1 + h1 x + a2 x2 = 0 =
an R } (cfr. Esempio 3.4) consideriamo il sistema di vettori S = { 1, x, , xn }. Si verifica facilmente che S una base di R n[x] , detta base naturale di R n[x]. 6.13. Nello spazio vettoriale R m, n delle matrici di tipo [m, n] su R (cfr.Esempio 2.2), i vettori
costituiscono una base, come facilmente si prova. Tale base detta detta base naturale di R m, n. 40
Lemma 6.3. (di Steinitz)1. Siano S = { v1, v2, , vh } e T = { w1, w2, , wk } due sistemi di vettori di uno spazio vettoriale. Se T indipendente ed contenuto in L(S), allora k h. Teorema 6.4. Sia V uno spazio vettoriale finitamente generabile e non ridotto al solo vettore nullo. Tutte le basi di V hanno lo stesso ordine (ovvero lo stesso numero di vettori). Dimostrazione. Siano B1 = {v1, v2, , vn} e B2 = {w1, w2, , wm} due basi di V. I sistemi di vettori B1 e B2 sono dunque indipendenti ed L(B1) = L(B2) = V. Poich B2 un sistema indipendente contenuto in V = L(B1), per il Lemma 6.3 si ha che m n. Analogamente, poich B1 un sistema indipendente contenuto in V = L(B2), allora, sempre per il Lemma 6.3, n m. Ne segue che n = m. Sia V uno spazio vettoriale finitamente generabile. Se V non si riduce al solo vettore nullo, per il Teorema 6.4 tutte le basi di V hanno lo stesso ordine n 1. L'intero n detto la dimensione di V. Se V= {0}, si attribuisce a V dimensione zero. Ad ogni spazio vettoriale non finitamente generabile si attribuisce dimensione infinita. Per indicare che n la dimensione di V, scriveremo dimV = n. Uno spazio vettoriale di dimensione finita n sar di solito indicato con Vn. Dagli Esempi 6.7, 6.10, 6.12 e 6.13 segue che : dim R n = n, dim VO = 3, dim R n[x] = n+1, dim R m, n = m n .
41
Alcune propriet di uno spazio vettoriale di dimensione n sono contenute nella seguente Proposizione 6.5. Se V {0} ha dimensione n, si ha: (i) (ii) (iii) l'ordine di ogni sistema indipendente di vettori di V al pi n; ogni sistema indipendente di ordine n una base di V; ogni sistema di generatori di V di ordine n una base di V.
Dimostrazione. Sia B una base di V ed S un sistema indipendente. Poich S L(B) = V, dal Lemma di Steinitz segue la (i). Proviamo ora la (ii). Sia S un sistema indipendente costituito da n vettori. Per provare che S una base di V, basta provare che S genera V. Se, per assurdo, fosse L(S) V, esisterebbe almeno un vettore w V \ L(S). Per la Proposizione 5.3, il sistema S {w} sarebbe allora indipendente, contro la (i). Proviamo infine la (iii). Sia S un sistema di generatori di V costituito da n vettori. Per il Corollario 6.2, esiste almeno una base B di V contenuta in S. Poich S e B hanno entrambi ordine n, allora necessariamente S = B. Proposizione 6.6 (completamento di un sistema indipendente in una base). Se S = { v1, v2, , vt } un sistema indipendente di uno spazio vettoriale Vn , esiste una base di Vn che contiene S. Dimostrazione . Per la (i) della Proposizione 6.5, t n. Se t = n , per la (ii) della Proposizione 6.5, S una base di Vn . Se t < n, per il Teorema 6.4, S non una base di Vn e dunque L(S) Vn. Sia vt+1 Vn \ L(S). Per la Proposizione 5.3, il sistema S = S {vt+1} indipendente. Se t+1 = n , S una base di Vn che contiene S. Se t+1 < n, ripetendo il ragionamento precedente, si ottiene un sistema S di ordine t+2 che indipendente
42
e contiene S. Procedendo in tal modo, dopo n t passi si ottiene un sistema indipendente di ordine n, cio una base di Vn, che contiene S. Si prova che : Proposizione 6.7. Sia W un sottospazio di uno spazio vettoriale Vn . (i) (ii) W finitamente generabile e dimW n; dim W = n W = Vn . Dalla Proposizione 6.7 segue immediatamente la seguente Proposizione 6.8. Siano W e Z due sottospazi di uno spazio vettoriale Vn . (i) (ii) W Z dimW dimZ; W Z e dimW = dimZ W = Z. Proviamo che : Teorema 6.9 (relazione di Grassmann). Siano W e H due sottospazi di uno spazio vettoriale Vn. Si ha : dim W + dim H = dim ( W H) + dim ( W + H). Dimostrazione. Basta provare che dim (W + H ) = dimW + dim H dim (W H). Osserviamo subito che, se uno dei due sottospazi W e H formato dal solo vettore nullo, allora lasserto vero. Sia dunque W { 0 } e H { 0 }. Supponiamo in primo luogo che W H { 0 }. Sia Bi = { v1, v2, , vi } una base di W H. Completiamo Bi in una base Bw = { v1, v2, , vi , wi+1 , , ws } di W (cfr. Proposizione 6.6) . Analogamente, completiamo Bi in una base 43
BH = { v1, v2, , vi, zi+1 , , zt } di H. Consideriamo ora il sistema B = { v1, v2, , vi, wi+1 , , ws, zi+1 , , zt } di vettori di W + H. Tale sistema ha ordine dimW + dim H dim(W H). Per provare lasserto basta mostrare che B una base di W + H. Cominciamo a provare che B genera W + H. Sia v + z W + H. Poich v W, v combinazione lineare dei vettori di BW; poich z H, allora z combinazione lineare dei vettori di BH. Ne segue che v + z combinazione lineare dei vettori di B e dunque B genera W + H. Proviamo ora che B indipendente. Sia (6.3) h1 v1 +, hi vi + hi+1 wi+1 + +hs ws + ki+1 zi+1 ++kt zt = 0. h1v1 ++ hivi + hi+1wi+1 + +hsws = Poich h1v1 + + hivi + hi+1wi+1 + +hsws appartiene ad H, allora il vettore appartiene a Da tale relazione segue che ( ki+1zi+1 ++ktzt ) . W e ki+1zi+1 ++ktzt
ki+1zi+1 ++ktzt
appartiene a W H. Esso dunque combinazione lineare dei vettori di Bi; si ha quindi ki+1zi+1 ++ktzt = k1v1 + + kivi , per opportuni scalari k1, , ki. Ne segue che ki+1zi+1 ++ktzt k1v1 kivi = 0 . Poich { v1, v2, .., vi, zi+1, .., zt} indipendente, essendo una base di H, gli scalari ki sono tutti nulli; in particolare ki+1 = ... = kt = 0. Sostituendo tali valori nella (6.3), si ottiene : h1 v1 ++ hi vi + hi+1 wi+1 + +hs ws = 0, da cui h1 = = hs = 0, essendo {v1, v2, , vi , wi+1 , , ws} una base di W. Abbiamo cos provato che B indipendente. Possiamo concludere che B una base di W + H. Supponiamo ora che W H = { 0 }. Considerata una base BW = {w1 , , ws} di W e una base BH = {z1 , , zt} di H, un ragionamento analogo a quello usato nel caso precedente permette di provare che B = { w1 , , ws, z1 , , zt } una base di W + H. Lasserto cos completamente provato.
44
7.
CAMBIAMENTI DI RIFERIMENTO Sia Vn {0}. Una base ordinata di Vn detta anche riferimento di Vn. Se
n >1, ogni base di Vn d luogo a vari riferimenti; ad esempio, dalla base naturale { (1, 0, 0), (0, 1, 0), (0, 0, 1) } di R 3 si ottengono i seguenti 6 riferimenti : ( (1, 0, 0), (0, 1, 0), (0, 0, 1) ), ( (0, 1, 0), (1, 0, 0), (0, 0, 1) ), ( (0, 0, 1), (1, 0, 0), (0, 1, 0) ), ( (1, 0, 0), (0, 0, 1), (0, 1, 0 ) ), ( (0, 1, 0), (0, 0, 1), (1, 0, 0) ),
n
Diremo riferimento naturale dello spazio vettoriale numerico R riferimento ( (1, 0, , 0), (0, 1, , 0), , ( 0, , 0, 1) ).
Sia R = ( e1, e2, , en ) un riferimento dello spazio vettoriale Vn. Dalla definizione di base e dalla Proposizione 5.2 segue che, per ogni v Vn, esiste una e una sola n-pla ordinata (h1, ,hn) R n tale che v = h1e1 + h2e2 + + hnen.
Gli scalari h1, ,hn sono detti le componenti di v in R. Siano R = ( e1, e2, , en ) ed R' = ( e1', e2', , en' ) due riferimenti dello spazio vettoriale Vn. Indichiamo con (b11 , b21 , , bn1) la n-pla ordinata delle componenti di e1 nel riferimento R', con (b12 , b22 , , bn2) la n-pla ordinata delle componenti di e2 nel riferimento R', e cos via fino ad en , la cui n-pla ordinata delle componenti nel riferimento R' sar indicata con (b1n , b2n , , bnn). Sia ora v Vn. Dette x1, x2, , xn le componenti di v in R ed x1', x2', , xn' le componenti di v in R', si ha : 45
(7.1)
b11 x1 + b21 x1 + b n1 x1 +
! b11 b12 b1n $ # & # b 21 b22 b2n & & , X' = Posto B = # # & #b b b & " n1 n2 nn %
equivalgono all'unica relazione matriciale (7.2) X' = BX .
La matrice B detta matrice di passaggio da R ad R'. ESEMPI 7.1 Considerati i riferimenti R = ((1, 4, 1), (1, 5, 0), (2, 5, -1)) ed R' = ((1, 0, -1), (0, 2, 1), (2, 3, -2)) di R 3, determiniamo le formule di passaggio da R ad R'. Poich (1, 4, 1) = (1, 0, -1) + 2(0, 2, 1) + 0(2, 3, -2) (1, 5, 0) = -(1, 0, -1) + (0, 2, 1) + (2, 3, -2) (2, 5, -1) = 0(1, 0, -1) + (0, 2, 1) + (2, 3, -2), le formule richieste sono
46
(7.3)
conoscere, mediante le (7.3), le componenti dello stesso vettore nel riferimento R'. Ad esempio, le componenti in R' del vettore - 4(2, 5, -1) sono : (-3, 2, 7) = 1(1, 0, -1) + 4(0, 2, 1) - 2 (2, 3, -2). (-3, 2, 7) = 3(1, 4, 1) + 2(1, 5, 0) x1' = 3 - 2 = 1, x2' = 6 + 2 - 4 = 4, x3' = 2 - 4 = -2; infatti
47
8. 8.1. 6.6).
ESERCIZI SULLA DETERMINAZIONE DI BASI Determinare una base di R 3 contenente il vettore v1 = (1, 0, 2) (cfr. Prop.
Un vettore che non dipende da v1 , ad esempio, il vettore v2 = (1, 1, 0). Il sottospazio H = L ( (1, 0, 2), (1, 1, 0) ) ha dimensione due e quindi non contiene tutti e tre i vettori della base naturale di R 3. Si vede facilmente, ad esempio, che (1, 0, 0) H; il sistema { (1, 0, 2), (1, 1, 0), (1, 0, 0) } dunque indipendente e costituisce quindi una base di R 3. Determinare una base di R
4
8.2.
v2 = (0, 1, 3, 0). Il sottospazio H = L ( (2, -1, 0, 0), (0, 1, 3, 0) ) ha dimensione due e quindi non contiene tutti e quattro i vettori della base naturale di R 4. Si vede facilmente, ad esempio, che (1, 0, 0, 0) H. Il sistema T = { (2, -1, 0, 0), (0, 1, 3, 0), (1, 0, 0, 0) } dunque indipendente. Il sottospazio K = L (T) ha dimensione tre e pertanto non contiene tutti e quattro i vettori della base naturale di R 4 . Il vettore (0, 0, 0, 1) non in K e dunque il sistema {(2, -1, 0, 0), (0, 1, 3, 0), (1, 0, 0, 0), (0, 0, 0, 1)} indipendente, per cui esso una base di R 4.
8.3.
(3, -2, -1, 4), (-2, 4, 6, 0)) di R 4 (cfr. Corollario 6.2). Poich il vettore (-2, 4, 6, 0) dipende dai rimanenti (infatti (-2, 4, 6, 0) = 2(-1, 2, 3, 0)), allora H = L((1, 0, 1, 2), (-1, 2, 3, 0), (3, -2 ,-1, 4)). Poich (3, -2, -1, 4) dipende dai vettori (1, 0, 1, 2) e (-1, 2, 3, 0) (infatti (3, -2, -1, 4) = 2(1, 0, 1, 2) - (-1, 2, 3, 0)), allora H = L((1, 0, 1, 2), (-1, 2, 3, 0)). I vettori 48
(1, 0, 1, 2) e (-1, 2, 3 ,0), che generano H, sono indipendenti e costituiscono perci una base di H. Ne segue che dimH = 2. Osserviamo che, avendo H dimensione due, due qualsiasi vettori indipendenti appartenenti ad H ne costituiscono una base. Ne segue, ad esempio, che anche i sistemi {(1, 0, 1, 2), (3, -2, -1, 4)}, {(1, 0, 1, 2), (-2, 4, 6, 0)},{(-1, 2, 3, 0),(3, -2, -1, 4 )} sono basi di H. Un altro metodo per determinare una base di H il seguente: (i) Scriviamo i vettori (1, 0, 1, 2), (-1, 2, 3, 0), (3, -2, -1, 4) e (-2, 4, 6, 0) come righe di una matrice:
!1 # #0 B=# #0 #0 "
0 2 0 0
1 4 0 0
Per la Proposizione 4.4, H = L((1, 0, 1, 2), (0, 2, 4, 2)). Poich i vettori (1, 0, 1, 2) e (0, 2, 4, 2) sono indipendenti, essi costituiscono una base di H. La dimensione di H dunque uguale al numero dei pivot della matrice B. Osservazione 8.1. Poich si prova che le righe non nulle di una matrice a gradini sono indipendenti, il metodo su indicato permette di determinare sempre la dimensione e una base di un sottospazio di R
n
generatori. Osserviamo esplicitamente che da quanto detto segue che due matrici a 49
gradini equivalenti ad una stessa matrice hanno lo stesso numero di pivot. In particolare, due matrici a gradini equivalenti hanno lo stesso numero di pivot. 8.4. Sia S un sistema lineare omogeneo (su R ) in n incognite. E' facile provare
Sia ora S a gradini. Usando le stesse notazioni del Paragrafo 3 del Capitolo I, diciamo p il numero delle equazioni non identiche di S. Se S ammette solo la soluzione banale ( il caso in cui p = n), allora H = {0} e dimH = 0. Se, invece, S ammette infinite soluzioni (in tal caso p < n), allora si prova che il numero n-p delle variabili libere coincide con la dimensione di H. Dette, per semplicit, xp+1,,xn tali variabili, una base di H costituita dalle n-p soluzioni di S ottenute attribuendo di volta in volta ad una sola delle xp+1,,xn il valore 1 e alle restanti il valore 0. Esempi:
!x1 + x 2 - x3 = 0 # S=" . # x2 - 2x 3 = 0 $
con x3 R }. Poich esiste una sola variabile libera, la x3, allora dimH = 1. Una base di H {(-1, 2, 1)}.
! #x1 + 2x 2 - x 4 = 0 S = " # x2 + x 4 = 0 $
{(3x4, -x4, x3, x4), con (x3, x4) R 2}. Poich le variabili libere sono due, allora dimH = 2. Una base di H {(0, 0, 1, 0), (3, -1, 0, 1)}. 50
8.5.
a {# "0
a - b$ & , con a, b R 2a %
} di
R 2,2.
! a a - b$ !a a $ ! 0 - b$ !1 1 $ ! 0 -1$ # & = # & + # & = a# & + b# &. " 0 2a % " 0 2a % " 0 0% " 0 2% " 0 0% Ogni elemento di W dunque combinazione lineare delle due matrici ! 1 1 $ ! 0 - 1$ # &e# & che, ovviamente, appartengono a W. Ne segue che W = " 0 2% " 0 0 % ! 1 1 $ ! 0 - 1$ ! 1 1 $ ! 0 - 1$ &, # & ). &e# & L( # Essendo inoltre le due matrici # " 0 2% " 0 0 % " 0 2% " 0 0 % indipendenti, esse costituiscono una base di W.
Si pu scrivere
51
1. DETERMINANTE DI UNA MATRICE QUADRATA Sia A una matrice quadrata di ordine n. Vogliamo associare ad A un numero reale che chiameremo determinante di A e indicheremo con det A. Se n =1, ovvero A = ( a ), con a R , si pone : (1.1) det A = det ( a ) = a.
Il determinante delle matrici quadrate di ordine n 2 si definisce, come tra breve vedremo, a partire dal determinante delle matrici quadrate di ordine n-1. Noto allora il determinante delle matrici di ordine 1, sar possibile definire il determinante delle matrici di ordine 2; una volta definito il determinante delle matrici di ordine 2, si potr definire il determinante delle matrici di ordine 3, e cos via. Sia A una matrice quadrata di ordine n 2. Per ogni elemento aij di A, si dice matrice complementare di aij, e si indica con A(i,j), la matrice quadrata di ordine n-1 che si ottiene da A cancellando la riga i-ma e la colonna j-ma. Si dice complemento algebrico dell'elemento aij, e si indica con Aij, il determinante della matrice A(i,j) preso col proprio segno o col segno opposto a seconda che i + j pari o dispari. E' dunque Aij = (-1)i+j det A(i,j). Si prova che la somma dei prodotti degli elementi di una riga o colonna di A per i rispettivi complementi algebrici non varia al variare della riga o della colonna considerata; si ha cio : (1.2) a11 A11 + a12 A12 + = + a1nA1n = a21 A21 + a22 A22 + + a2nA2n = = an1 An1 + an2 An2 + + annAnn = a11 A11 + a21 A21 + + an1An1 = 52
Il numero reale definito dalla (1.2) detto determinante di A. Osserviamo esplicitamente che, se una riga (o una colonna) di A costituita da tutti zeri, allora il determinante di A zero.
! a11 a12 $ Dalla (1.2) segue subito che, se n = 2, ovvero A = # #a a & & , det A = " 21 22 %
a11a22 a12a21.
! a11 a12 a 1n $ # & # a 21 a 22 a 2n & & , il determinante di A si denota anche con i Se n 2 ed A = # # & #a a a & " n1 n2 nn % a11 a12 a 1n a 21 a 22 a 2n simboli |A| e . a n1 a n2 a nn
1.2.
1.3.
A12, A22 , B11 , B22 , B23 e B32 . A12 = - det ( 2 ) = -2; A22 = det ( 6 ) = 6.
53
B11 = - 2; B32 = -
1 0 -1 4
= - ( 4 + 0 ) = -4.
1.4.
! 2 1 - 3$ # & Calcoliamo il determinante della matrice A = # 0 1 1 & utilizzando una # & "4 3 5 %
1 1 0 1 + 1 (3 5 4 5 1 -3 3 5
-3
det A = 0 (-
) +1
2 -3 2 1 + 1 (4 5 4 3
) = 0 + 1 ( 22 ) + 1 (- 2) = 20.
2 1 3 0 1 -3 0 $ & 0 1 2 & &. 0 2 -3 & 4 1 1 & %
1.5.
Poich, per calcolare il determinante di A, possiamo scegliere arbitrariamente una riga o una colonna di A (si dice in tal caso che si sviluppa il determinante secondo tale riga o colonna), chiaro che conviene scegliere una riga o una colonna in cui compare il maggior numero di zeri; scegliamo dunque la seconda colonna. Si ha : det A =
1 1 2 2 -3 0 1 2 1 1 - 3 2 - 3 + 4 1 1 2 = - (+ 3 -3 3 2 0 1 1 3 2 -3 = -172.
) + 4 (2
1 2 1 2 +3 2 -3 3 -3
54
2. PROPRIETA' DEI DETERMINANTI Vediamo ora alcune propriet dei determinanti. D'ora in avanti A indicher una matrice quadrata di ordine n. Si ha : (2.1) (2.2) segno; (2.3) (2.4) (2.5) se due righe (o due colonne) di A coincidono, allora det A = 0; detta A' la matrice ottenuta da A moltiplicando una riga (o una colonna) se si aggiunge ad una riga di A un'altra riga moltiplicata per un numero det A = det At ; se si scambiano due righe (o due colonne) di A, il determinante cambia
per un numero reale h, si ha : det A' = h det A; reale, il determinante non cambia; analogamente, se si aggiunge ad una colonna di A un'altra colonna moltiplicata per un numero reale, il determinante non cambia; (2.6) se una riga di A dipende dalle rimanenti, ovvero le righe di A sono dipendenti, allora det A = 0; analogamente, se una colonna di A dipende dalle rimanenti, ovvero le colonne di A sono dipendenti, allora det A = 0. (2.7) se B una matrice quadrata di ordine n, det (AB) = det A det B.
ESEMPI 2.1.
1 0 -2 1 3 1 3 2 0 = 0 2 4 = -22 . 1 4 -1 -2 0 -1
55
1 0 -2
2.2.
3 2
1 0 -2
-2 0 1
3 2 0 =- 1 1 4 -1 1 1 0 -2 1 0 -2 =0. 1 4 -1
0 -2 ; 4 -1
3 2 0 =- 0 2 3 . 1 4 -1 -1 4 1
2.3.
2.4.
! 1 0 - 2$ # & Sia A = # 3 2 0 & . Moltiplicando la seconda colonna di A per -2, si # & " 1 4 -1 %
. Per la propriet (2.4), det A' = (-2) det A =
! 0 1 - 2$ # & Sia ora B = # 8 4 - 4 & . Poich (8, 4, -4) = 4(2, 1, -1), si ha che # & "2 1 0 % 0 1 -2 4 2 1 - 1 = 4 (-2) = -8. 2 1 0
2.5.
det B =
! 1 0 - 2$ # & Sia A = # 3 2 0 & . Aggiungendo alla terza colonna di A la prima # & " 1 3 -1 % !1 0 - 2 + 2$ & # 2 0+6& = # 3 & # 3 -1 + 2 % "1 0 0$ & 2 6 & . & 3 1 %
56
Per la propriet (2.5), det A = det A' . Sviluppando det A' secondo la prima riga, si ha che det A' = 1
2 6 3 1
2.6.
1 2 3 3
2 1 3 1
la somma delle prime due, dalla propriet (2.6) segue che tale determinante uguale a zero. Nell'Esempio 2.5 abbiamo visto come si pu semplificare il calcolo del determinante di una matrice A : se infatti una riga (o colonna) di A ha almeno due elementi diversi da zero, utilizzando la propriet (2.5) possibile, senza alterare il determinante, sostituirla con un'altra avente un maggior numero di zeri.
57
3. RANGO DI UNA MATRICE Sia A una matrice ( su R ) di tipo [m, n]. Ricordiamo che le righe di A sono elementi dello spazio vettoriale numerico R n e le colonne di A sono elementi dello spazio vettoriale numerico R m. Si definisce rango di riga di A la dimensione del sottospazio di R n generato dalle righe di A e rango di colonna di A la dimensione del sottospazio di R m generato dalle colonne di A. Se A la matrice nulla, evidente che il rango di riga di A e il rango di colonna di A sono entrambi zero. Sia ora A una matrice non nulla. Per quanto visto nel Paragrafo 8 del Capitolo II, per determinare il rango di riga di A basta determinare una matrice a gradini B equivalente per righe ad A; il numero dei pivot di B infatti la dimensione del sottospazio di R n generato dalle righe di A. Il rango di colonna di A coincide ovviamente col rango di riga della matrice trasposta di A. Nel corso del presente paragrafo vedremo che anche per una matrice non nulla il rango di riga coincide col rango di colonna. Fissate h righe ed h colonne di A ( 0 < h m, n), cancelliamo nella matrice A le m-h righe distinte dalle righe fissate e le n-h colonne distinte dalle colonne fissate; otteniamo cos una matrice quadrata di ordine h il cui determinante detto minore di ordine h di A individuato dalle righe e dalle colonne fissate. Se gli indici delle righe fissate sono i1, i2, , ih e gli indici delle colonne fissate sono j1, j2, , jh, il minore sar indicato con |A|(i1, i2, , ih; j1, j2, , jh). Osserviamo esplicitamente che i minori di ordine 1 di A sono tutti e soli gli elementi di A.
58
ESEMPI
3.1.
minore di ordine 3 di A individuato dalla prima, seconda e quarta riga e dalla seconda, quarta e quinta colonna, cio |A|(1,2,4; 2,4,5). Cancelliamo allora nella matrice A la terza riga, la prima colonna e la terza colonna. Otteniamo cos la
! 2 0 -1$ ! 2 0 -1$ # & # & matrice # 4 - 2 3 & . E' allora |A|(1,2,4; 2,4,5) = det # 4 - 2 3 & = -16. # & # & " -5 1 4 % " -5 1 4 %
Determiniamo ora il minore di ordine 2 di A individuato dalla prima e quarta riga e dalla prima e seconda colonna, cio |A|(1,4; 1,2). Cancellando in A la seconda e la
! 1 2$ & . Ne terza riga e le colonne terza, quarta e quinta, otteniamo la matrice # " 0 - 5% ! 1 2$ & = -5. segue che |A|(1,4; 1,2) = det # " 0 - 5%
Un minore si dice di ordine massimo se il suo ordine coincide col minimo tra m ed n. Sia |A|(i1, i2, , ih; j1, j2, , jh) un minore di ordine h < m,n. Fissata una riga ai e una colonna aj di A, con i i1, i2, , ih e j j1, j2, , jh , il minore |A|(i1, i2, , ih, i ; j1, j2, , jh, j) detto orlato di |A|(i1, i2, , ih; j1, j2, , jh) mediante la riga ai e la colonna aj .
59
possiede i
due soli
orlati
|A|(1,2,4,3;2,4,5,1)
2 4 |A|(1,2,4,3 ; 2,4,5,3) = 1 -5
5 0 -1 9 -2 3 . 6 2 5 2 1 4
Il minore |A|(1,4; 1,2) possiede invece 6 orlati. E' ad esempio |A|(1,4,2 ; 1,2,4) =
1 2 0 7 4 -2 0 -5 1
1 2 -1
e |A|(1,4,3 ; 1,2,5) = -2
1 5 . 0 -5 4
Un minore |A|(i1, i2, , ih; j1, j2, , jh) si dice fondamentale nei seguenti casi: (3.1) (3.2) |A|(i1, i2, , ih; j1, j2, , jh) 0 ed |A|(i1, i2, , ih; j1, j2, , jh) di ordine |A|(i1, i2, , ih; j1, j2, , jh) 0, h < m, n e tutti gli orlati di massimo ( cio h = m o h = n ); |A|(i1, i2, , ih; j1, j2, , jh) sono uguali a zero. Se A la matrice nulla, evidente che essa non possiede minori fondamentali. Supponiamo ora A non nulla e diamo un metodo per determinare un suo minore fondamentale. Considerato un elemento a di A diverso da zero, esso un minore non nullo di ordine 1. Se tutti i suoi eventuali orlati sono uguali a zero, allora a un minore fondamentale di A. Se, invece, esiste un orlato di a diverso da zero, diciamolo b, il minore a non fondamentale. Consideriamo allora b. Esso un minore di ordine 2 non nullo. Se tutti gli eventuali orlati di b sono uguali a zero, 60
b un minore fondamentale di A. In caso contrario, detto c un orlato di b diverso da zero, si procede analogamente a come fatto prima. Essendo le righe e le colonne di A in numero finito, il procedimento su descritto avr termine con la determinazione di un minore fondamentale di A. Osserviamo esplicitamente che una matrice non nulla non ammette in generale un unico minore fondamentale. ESEMPI 3.3. Determiniamo un minore fondamentale per ognuna delle seguenti matrici :
1 2 1 0
3 6 2 1
Consideriamo la matrice A. Fissiamo in A un elemento diverso da zero, sia esso a11 = |A|(1;1) = 1 ed orliamolo mediante la seconda riga e la seconda colonna. Otteniamo il minore |A|(1,2; 1,2) = mediante la seconda riga
|A|(1,2; 1,3) =
1 0 = 5 0. 1 5
1 1
colonna. Poich risulta |A|(1,2,3; 1,3,2) = 1 1
minore | A|(1,2; 1,3) diverso da zero e tutti i suoi orlati sono uguali a zero, allora |A|(1,2; 1,3) un minore fondamentale di A. Lasciamo al lettore il compito di determinare almeno un altro minore fondamentale di A. Consideriamo ora la matrice B. Fissiamo in B un elemento diverso da zero, sia esso b12 = |B|(1;2) = 1. Poich, come facile verificare, gli orlati di |B|(1;2) mediante la seconda riga e tutte le possibili colonne sono uguali a zero, andiamo a considerare l'orlato di |B|(1;2) mediante la terza riga e la prima colonna, ovvero |B|(1,3; 2,1) =
[m,
n].
Se
|A|(i1, i2, , ih; j1, j2, , jh) un suo minore fondamentale, allora le righe di indici i1, i2, , ih sono una base del sottospazio di R n generato dalle righe di A e le colonne di indici j1, j2, , jh sono una base del sottospazio di R m generato dalle colonne di A.
62
Immediate conseguenze del Teorema degli orlati sono contenute nel seguente Corollario 3.2. Sia A una matrice non nulla di tipo [m, n]. Si ha: (i) se h l'ordine di un minore fondamentale di A, allora h la dimensione del sottospazio di R sottospazio di R
m n
(ii) tutti i minori fondamentali di A hanno lo stesso ordine. Unaltra importante conseguenza del Teorema 3.1 la seguente : Proposizione 3.3. Se A una matrice quadrata di ordine n , allora | A | 0 se, e solo se, le righe (le colonne) di A sono indipendenti. Dimostrazione. Se |A| 0, dalla Propriet (2.6) segue che le righe (le colonne) di A sono indipendenti. Viceversa, se le righe (le colonne) di A sono indipendenti, esse costituiscono una base del sottospazio di R n da esse generato. Tale sottospazio ha dunque dimensione n (e quindi coincide con R n). Dal Corollario 3.2 segue che n l'ordine dei minori fondamentali di A. Poich l'unico minore di ordine n di A |A|, allora |A| 0. La (i) del Corollario 3.2 permette di affermare che, per ogni matrice A, il rango di riga coincide col rango di colonna. Tale intero detto rango (o caratteristica) di A e sar indicato con r(A). Evidentemente, il rango di una matrice non nulla coincide con l'ordine di un suo minore fondamentale ed anche col numero dei pivot di una qualunque matrice a gradini ad essa equivalente.
63
4. MATRICI INVERTIBILI Consideriamo l'insieme R n,n delle matrici quadrate di ordine n. La matrice
!1 # #0 In = # # #0 "
0 0$ & 1 0& & detta matrice identica (o unitaria) di ordine n. Si ha : & 0 1& %
A In = A = In A, per ogni A R n,n. Sia A R n,n. Si dice che A invertibile se esiste una matrice B R n,n, detta inversa di A, tale che AB = In = BA. Si prova che ogni matrice invertibile A ammette un'unica matrice inversa, che viene denotata con A-1. Evidentemente, In invertibile e coincide con la propria inversa e inoltre per ogni matrice invertibile A, la matrice A-1 anchessa invertibile e la sua inversa coincide con A. Valgono le seguenti proposizioni. Proposizione 4.1. Sia A R n,n. La matrice A invertibile se, e solo se, |A| 0. In
tal caso
! A11 A21 An1 $ # & # A A A & 1 12 22 n2 # &. A-1 = A # & #A A A & " 1n 2n nn %
Proposizione 4.2. Siano A,B R n,n. Se AB = In, allora A e B sono invertibili e sono luna linversa dellaltra. Dimostrazione. Per la (2.7), |A| |B| = |AB| = | In | = 1. Ne segue che |A| e |B| sono entrambi diversi da zero e dunque A e B sono invertibili. Moltiplicando a destra
64
! 0 2 1$ ! 1 2$ # & & e B = # -3 1 0& . Poich |A| = 3 0 e 4.1. Consideriamo le matrici A = # " 0 3% # & " 1 0 0%
|B| = -1 0, allora A e B sono invertibili. Determiniamo ora l'inversa per ciascuna delle matrici A e B. Si ha : A11 = 3, A12 = 0,
2$ - & 3& . 1& & 3%
A21 = -2,
Poich
B11 = 0, B12 = 0, B13 = -1, B21 = 0, B22 = -1, B23 = 2, B31 = -1, B32 = -3,
! 0 0 -1$ ! 0 0 1 $ # & # & B33 = 6, allora B-1 = -1 # 0 -1 - 3& = # 0 1 3 & . # & # & " -1 2 6% " 1 - 2 - 6%
!a 11 x1 + a12 x 2 + + a 1n xn = b1 # " # $a n1 x1 + a n2 x 2 + + a nn xn = b n
e sia A la matrice dei coefficienti delle incognite del sistema S. Si prova che : 65
yi =
Ai , A
essendo Ai la matrice ottenuta da A sostituendo la i-esima colonna con la colonna dei termini noti. Proposizione 5.2. Se |A| = 0 e il sistema S compatibile, allora esso ammette infinite soluzioni che si possono determinare col metodo di riduzione a gradini. Nell'ipotesi della Proposizione 5.1, il sistema S detto sistema di Cramer e la regola indicata per determinarne l'unica soluzione detta regola di Cramer. Osserviamo esplicitamente che dalla Proposizione 5.1 segue
immediatamente il seguente Corollario 5.3 . Se il sistema S ammette infinite soluzioni, allora |A| = 0 . ESEMPI 5.1. Determiniamo l'unica soluzione del seguente sistema di Cramer :
!2x1 - x2 + x3 = 3 # S = "x1 + x 2 = 0 . # # $x 2 - x 3 = 1
3 1 0 0 =4 1 -1
1. DEFINIZIONE E PRIME PROPRIETA' Siano V e V' due spazi vettoriali. Un'applicazione f : V V' si dice lineare se sono verificate le seguenti due propriet: (1.1) (1.2) v, w V, f( v + w ) = f(v) + f(w); h R e v V, f( hv ) = h f(v).
Siano v = (x, y) e w = (x', y') due vettori di R 2 . E' v + w = (x+x', y+y') e quindi si ha: f(v + w ) = f(x+x', y+y') = (x+x', x+x'+y+y', y+y'). Poich f(v) + f(w) = f(x, y) + f(x', y') = (x, x+y, y) + (x', x'+ y', y') = (x+x', x+y+x'+y', y+y'), allora f( v + w ) = f(v) + f(w) e la (1.1) cos verificata. Sia ora h un numero reale e sia v = (x, y) un elemento di R 2. E' hv = h(x, y) = (hx, hy) e quindi si ha: f(hv) = f(hx, hy) = (hx, hx+hy, hy). Poich hf(v) = h(x, x+y, y) = (hx, h(x+y), hy) = (hx, hx+hy, hy), allora f(hv) = h f(v) e la (1.2) anch'essa verificata. L'applicazione f dunque lineare. Proviamo che l'applicazione f : (x, y) R 2 (x, 0) R 2 lineare.
1.2.
Siano v = (x, y) e w = (x', y') due vettori di R2 . E' v + w = (x+x', y+y') e quindi si ha: f( v + w ) = f(x+x', y+y') = (x +x', 0). Poich f(v) + f(w) = (x, 0) + (x', 0) = (x + x', 0), allora la (1.1) verificata. 67
Sia ora h un numero reale e sia v = (x, y) un elemento di R 2. E' hv = h(x, y) = (hx, hy) e quindi si ha: f( hv ) = (hx, 0). Poich h f(v) = h(x, 0) = (hx, 0), anche la (1.2) verificata. L'applicazione f dunque lineare. 1.3. Proviamo che l'applicazione f : (x, y , z) R 3 (2x -1, x-3z ) R 2 non
lineare. Siano v = (x, y, z) e w = (x', y', z') due vettori di R 3 . E' v + w = (x+x', y+y', z+z') e quindi si ha: f(v + w) = (2(x+x')-1, x+x'-3(z+z')) = (2x+2x'-1, x+x'-3z-3z'). Risulta f(v) + f(w) = (2x-1, x-3z) + (2x'-1, x'-3z') = (2x+2x'-2, x-3z+x'-3z'). Si ha quindi f(v + w) f(v) + f(w), per cui la (1.1) non verificata. L'applicazione f non dunque lineare. 1.4. Sia V uno spazio vettoriale. Indichiamo con idV l'applicazione identica di V, ovvero l'applicazione di V in s che associa ad ogni vettore di V se stesso: idV : v V v V. Si verifica immmediatamente che idV lineare. 1.5. Siano V e V' due spazi vettoriali. Si dice applicazione nulla di V in V' f : v V 0V' V'. Si verifica immmediatamente che f lineare.
68
1.6.
Sia A R m,n. Identificando, per ogni n, il vettore numerico (x1 , x2,, xn)
! x1 $ # & # x 2& # & con la matrice colonna X = # . & R # & #. & # & " x n%
n,1
, consideriamo l'applicazione
FA : X R n AX R m. Usando le propriet del prodotto righe per colonne tra matrici ( cfr. Cap.I, Par.2), facile provare che FA lineare. 1.7. Si prova facilmente che le seguenti applicazioni sono lineari:
! 2x f : (x, y, z) R 3 # "x - z
y + z$ & R 2,2 ; y %
g : ax2 + bx + c R 2[x] 2ax + b R 1[x] ; h : ( x, y , z) R 3 (2x +y-5z, x-3z , x-y) R 3 , mentre le seguenti altre non lo sono: p : (x, y) R 2 ( x2, x - y, 0) R 3 ;
Un'applicazione lineare detta anche trasformazione lineare oppure omomorfismo. Proposizione 1.1. Sia f : V V' un'applicazione lineare. Si ha: (i) h, k R e v, w V, f (hv + kw) = h f(v) + k f(w); (ii) f (0V) = 0V' . Dimostrazione. Si ha: f(hv + kw) = ( per la (1.1)) f(hv) + f(kw) = ( per la (1.2)) h f(v) + k f(w). E' cos provata la (i). 69
Poich 0V = 0 0V , dalla (1.2) segue che f (0V) = f (0 0V) = 0 f(0V) = 0V' . Si ha cos la (ii). La (i) della Proposizione 1.1 si estende ad una qualunque combinazione lineare di vettori di V. Si ha cio : (1.3) h1, h2,, ht R e v1, v2,, vt V, f(h1v1 + h2v2 + + htvt ) = h1f(v1) + h2f(v2) + + htf(vt). Proposizione 1.2 . Sia f : V V' un'applicazione lineare. Si ha: (i) Se S = { v1, , vt } V un sistema linearmente dipendente, allora il sistema f(S) = { f(v1), , f(vt) } V linearmente dipendente (f conserva la dipendenza lineare) ; (ii) se v L(S) , allora f(v) L(f(S)). Dimostrazione. (i) Per ipotesi esistono t scalari h1, h2,, ht non tutti nulli tali che h1v1 + h2v2 + + htvt = 0V . Applicando la f ad entrambi i membri si ottiene : f(h1v1 + h2v2 + + htvt ) = f(0V) = (per la (ii) della Proposizione 1.1) 0V' . Ne segue, per la (1.3), che h1f(v1) + h2f(v2) + + htf(vt) = 0V'. Poich gli scalari h1, h2,, ht non sono tutti nulli, i vettori f(v1), , f(vt) sono dipendenti. (ii) Segue immediatamente dalla (1.3). D'ora in avanti indicheremo con 0 sia il vettore nullo di V che quello di V'; il lettore capir dal contesto a quale dei due vettori nulli ci si riferisce. Proposizione 1.3. Sia f : V V' un'applicazione lineare. Per ogni sottospazio W di V, f(W) un sottospazio di V'. Inoltre, se W = L(v1, v2, , vt), risulta f(W) = L (f(v1), f(v2), , f(vt)). 70
Dimostrazione. Essendo W , f(W) . Cominciamo a provare che f(W) stabile rispetto alle operazioni di V'. Siano v', w' f(W). Esistono allora
v, w W tali che v' = f(v) e w' = f(w). Poich f lineare, v' + w' = f(v) + f(w) = f( v + w ); inoltre, essendo W un sottospazio di V, v + w W. Il vettore v' + w' dunque immagine mediante f di un vettore di W; da ci v' + w' f(W). Sia ora h R e v' f(W). Diciamo v un vettore di W tale che f(v) = v'. Essendo f lineare, hv' = hf(v) = f(hv); essendo W un sottospazio di V, hv W. Ne segue che hv' f(W). Il sottoinsieme f(W) di V' dunque stabile rispetto alle operazioni di V'. Per la Proposizione 3.1 del Capitolo II, f(W) un sottospazio di V'. Sia ora W generato da v1, v2, , vt . I vettori f(v1), , f(vt) sono in f(W) e quindi anche tutte le loro combinazioni lineari sono in f(W) (cfr. Osservazione 3.1 del Cap. II). E' dunque L(f(v1), , f(vt)) f(W). Per ogni vettore v f(W), esiste un vettore v W tale che v = f(v). Poich v W = L(v1, v2, , vt), dalla (ii) della Proposizione 1.2 segue che v L(f(v1), , f(vt)). Si ha cos che f(W) L(f(v1), , f(vt)). Dalla doppia inclusione segue f(W) = L(f(v1), , f(vt)). Lasserto cos completamente provato.
2. NUCLEO E IMMAGINE Sia f : V V' un'applicazione lineare. Poniamo: Ker f = {v V : f(v) = 0} e Im f = f(V) = { f(v) : v V }.
Evidentemente Ker f V e Im f V'. Proviamo che : Proposizione 2.1. Ker f un sottospazio di V e Im f un sottospazio di V'. Dimostrazione. Per la Proposizione 1.3, Im f un sottospazio di V'. 71
Per provare che Ker f un sottospazio di V, cominciamo con l'osservare che, per la Proposizione 1.1, 0 Ker f e quindi Ker f . Siano v, w Ker f. Proviamo che v + w Ker f. Poich f lineare, f(v + w) = f(v) + f(w). Essendo d'altra parte f(v) = f(w) = 0, allora f(v + w) = 0 e dunque v + w Ker f. Siano ora h R e v Ker f. Poich f lineare e f(v) = 0, si ha che f(hv) = hf(v) = h0 = 0. E' dunque hv Ker f. Per la Proposizione 3.1 del Capitolo II, Ker f un sottospazio di V. I sottospazi Ker f e Im f sono detti rispettivamente nucleo e immagine dell'applicazione f. Proposizione 2.2. Se V finitamente generabile e B = { e1, e2, , en } una base di V, allora Im f = L(f(e1), f(e2), , f(en)). Dimostrazione. Poich per ipotesi V = L(e1, e2, , en), lasserto segue subito dalla Proposizione 1.3. ESEMPI 2.1. Determiniamo nucleo e immagine dell'applicazione lineare dell'Esempio 1.1. Ker f = {(x,y) R 2 : (x, x+y, y) = (0, 0, 0)} = {(x, y) R 2 : x = 0, x+y = 0, y = 0} = {(x, y) R 2 : x = 0, y = 0} = {(0, 0)} = {0}. Per la Proposizione 2.2, Im f = L(f(1, 0), f(0, 1)) = L((1, 1, 0), (0, 1, 1)). 2.2. Determiniamo nucleo e immagine dell'applicazione lineare dell'Esempio 1.2. Ker f = {(x, y) R 2 : (x, 0) = (0,0)} = {(x, y) R 2 : x = 0 } = {(0, y), con y R } = L((0, 1)). Per la Proposizione 2.2, Im f = L(f(1, 0), f(0, 1)) = L((1, 0), (0, 0)) = L((1, 0)). 2.3. Determiniamo nucleo e immagine dell'applicazione lineare dell'Esempio 1.4. 72
Ker idV = {v V : v = 0} = {0}. Evidentemente, Im idV = V. 2.4. Determiniamo nucleo e immagine dell'applicazione lineare dell'Esempio 1.5. E' facile rendersi conto che Ker f = V ed Im f = {0}. 2.5. Determiniamo nucleo e immagine dell'applicazione lineare dell'Esempio 1.6. Ker FA = { X R n : AX = 0 } (qui 0 indica la matrice nulla di tipo [m, 1] ). Ker FA dunque il sottospazio di R n costituito dalle soluzioni del sistema omogeneo in n incognite AX = 0.
!1 $ # & # 0& # & Poniamo ora : X1 = # . & , X2 = #. & # & # & " 0%
! 0$ # & # 0& # & # . & . Per la Proposizione 2.2, Im FA = #. & # & # & "1 %
L(FA(X1), FA(X2),, FA(Xn)). Poich FA(X1) coincide con la prima colonna della matrice A, FA(X2) coincide con la seconda colonna di A , e cos via fino ad FA(Xn) che coincide con l'n-ma colonna di A, allora Im FA il sottospazio di R m generato dalle colonne di A. Proposizione 2.3. Si ha : (i) f suriettiva Im f = V' ; (ii) f iniettiva Ker f = {0}. Dimostrazione. La (i) non altro che la definizione di suriettivit. Proviamo allora la (ii). Sia dunque f iniettiva. Se v 0 un vettore di V, allora f(v) f(0) = 0 e quindi v Ker f. Ne segue che Ker f = {0}. Viceversa, supponiamo Ker f = {0}. Se v e w sono due vettori distinti di V, proviamo che f(v) f(w). Supponiamo, per assurdo, f(v) = f(w). Si ha 73
f(v) - f(w) = 0 da cui, per la linearit di f, f(v - w) = 0. Il vettore v - w appartiene dunque a Ker f. Essendo Ker f = {0}, v - w = 0, cio v = w, un assurdo essendo v w. L'asserto cos completamente provato. Proposizione 2.4. Sia S = {v1, , vt} V f : V V' un'applicazione lineare iniettiva. Se un sistema indipendente, allora il sistema
f(S) = { f(v1), , f(vt) } V indipendente (f conserva l'indipendenza lineare). Dimostrazione. Sia h1f(v1) + h2f(v2 ) + + htf(vt) = 0. Proviamo che tutti gli scalari sono uguali a zero. Poich f lineare, h1f(v1) + h2f(v2 ) + + htf(vt) = f(h1v1 + h1v1 + h2v2 + + h2v2 + + htvt ) = 0 = f(0). Ne segue, essendo f iniettiva, che
htvt = 0. Poich v1, , vt sono indipendenti, allora h1 = . = ht = 0. Concludiamo il presente paragrafo provando il seguente Teorema 2.5. Sia f : Vn V' un'applicazione lineare. Si ha : dim Ker f + dim Im f = n. Dimostrazione. Se Ker f = Vn, lasserto vero per quanto osservato nellesempio 2.4. Se Ker f = {0}, per la Proposizione 2.3 f iniettiva. Dalle Proposizioni 2.2 e 2.4 segue allora che ogni base di Vn si trasforma mediante f in un sistema indipendente di generatori di Im f, cio in una base di Im f. Ne segue che dim Im f = n, cio lasserto. Sia ora Ker f Vn e Ker f {0} . Detta Bker = { v1, , vt } una base di Ker f , completiamo Bker in una base B = { v1, , vt , vt+1, , vn } di Vn. Per la Proposizione 2.2, Im f = L(f(v1), , f(vt) , f(vt+1), , f(vn) ) = L ( f(vt+1), , f(vn) ), essendo f(v1) = = f(vt) = 0. Proviamo ora che i vettori f(vt+1), , f(vn), che generano Im f, sono indipendenti. Sia ht+1 f(vt+1) + + hn f(vn) = 0. Dalla ht+1vt+1 + + hnvn 74 linearit di f segue che f(ht+ vt+1+ + hnvn ) = 0. Il vettore
appartiene quindi a Ker f; esso allora combinazione lineare dei vettori di Bker. Si ha pertanto ht+1vt+1 + + hnvn = k1v1 ++ ktvt per opportuni scalari k1, , kt , da cui ht+1vt+1 + + hnvn k1v1 ktvt = 0. Essendo v1, , vt , vt+1, , vn indipendenti, tutti gli scalari sono nulli; in particolare ht+1 = = hn = 0, per cui il sistema {f(vt+1), , f(vn)} indipendente e dunque una base di Im f . Ne segue che dim Im f = n t = n dim Ker f, cio lasserto.
3. ISOMORFISMI Un'applicazione lineare f : V V' detta isomorfismo se essa biettiva (ovvero iniettiva e suriettiva). E' facile provare che, se f : V V' isomorfismo, anche l'applicazione inversa f -1 : V' V un isomorfismo. Due spazi vettoriali si dicono isomorfi se esiste un isomorfismo tra essi. ESEMPI 3.1. Sia V uno spazio vettoriale. L'applicazione identica idV di V lineare, iniettiva e suriettiva. Essa dunque un isomorfismo. un
! a b$ ! 0 0$ & R 2,2 : (a, b, c, d) = (0, 0, 0, 0) } = { # & } = {0}. Per la Ker f = { # " c d% " 0 0%
Proposizione 2.3, f iniettiva. Osserviamo ora che, essendo dim R dim Ker f = 0, dal Teorema 2.5 segue che
2,2
= 4 e
dim Im f = 4 = dim R 4 e dunque, per la Proposizione 6.7 del Cap. II, Im f = R 4, per cui la f suriettiva. L'applicazione f allora un isomorfismo. 75
3.3. Consideriamo lomomorfismo f : (x, y, z) R 3 (2x+y-z, y+z, 3z) R 3. Per la Proposizione 2.2, Im f = L(f(1, 0, 0), f(0, 1, 0), f(0, 0, 1)) = L((2, 0, 0), (1, 1, 0), (-1, 1, 3)). Poich i tre vettori che generano Im f sono indipendenti, si ha che dim Im f = 3 = dim R 3 ; da ci segue che Im f = R 3 e quindi f suriettiva.
Dal Teorema 2.5 segue allora che dim Ker f = 0, per cui Ker f = {0}. La f quindi anche iniettiva, per cui essa un isomorfismo. 3.4. Isomorfismo coordinato associato ad un riferimento. Sia Vn uno spazio vettoriale ed R = (e1, e2, , en) un suo riferimento. Consideriamo l'applicazione cR di Vn in R n che ad ogni vettore v Vn associa la n-pla ordinata delle sue componenti in R : cR : v = h1e1 + h2e2 + + hnen Vn (h1, h2, , hn) R n. Si prova immmediatamente che l'applicazione cR lineare. Determiniamo il nucleo e l'immagine di cR. Si ha : Ker cR = { v Vn : cR(v) = (0, 0, , 0)} = {0}; Im cR = L(cR(e1), cR(e2),, cR(en)) = L((1, 0,,0), (0, 1,,0),,(0, 0,, 1)) = R n. Da ci segue che l'applicazione cR sia iniettiva che suriettiva e quindi che essa un isomorfismo tra Vn ed R n. Tale isomorfismo detto isomorfismo coordinato associato al riferimento R (o anche coordinazione di Vn associata ad R). Dall'Esempio 3.4 segue che : Osservazione 3.1. Ogni spazio vettoriale (su R ) di dimensione n isomorfo a R n.
(ii) per ogni sistema SW di generatori di un sottospazio W di Vn , f(SW) un sistema di generatori del sottospazio f(W) di Vm; (iii) per ogni base BW di un sottospazio W di Vn , f(BW) una base del sottospazio f(W) di Vm; (iv) per ogni sottospazio W di Vn , dim W = dim f(W); (v) per ogni base B di Vn , f(B) una base di Vm e n = dim Vn = dim Vm= m. Dimostrazione. La (i) segue immediatamente dalle Proposizioni 1.2 e 2.4, essendo f una applicazione lineare iniettiva. La (ii) vera per la Proposizione 1.3. Per provare la (iii), consideriamo una base BW = {v1, , vt} di W. Per la (ii), f(BW) = {f(v1), f(v2 ), , f(vt)} genera f(W); inoltre, per la (i), i vettori f(v1), f(v2 ), , f(vt) sono indipendenti. Si ha allora che f(BW) una base di f(W). Le (iv) e (v) seguono immediatamente dalla (iii). Poich, per ogni isomorfismo f, anche f1 un isomorfismo, dalla Proposizione 3.1 segue che lo studio di uno spazio vettoriale (dipendenza e indipendenza lineare, sottospazi e loro dimensione, basi) pu essere fatto utilizzando uno spazio vettoriale ad esso isomorfo. In particolare, poich ogni spazio vettoriale di dimensione n isomorfo a R n (cfr. Osservazione 3.1), allora R n costituisce un modello (comodo da utilizzare) di ogni spazio vettoriale Vn . ESEMPI 3.5. Nello spazio vettoriale R 3[x] sia H = L(x3+2x, x-1, 2x3+3x+1, x2+3x-2).
Determiniamo una base e la dimensione del sottospazio H. Consideriamo il riferimento R = (x3, x2, x, 1) di R 3[x] e la coordinazione ad esso associata: cR : ax3 + bx2 + cx + d R 3[x] (a, b, c, d) R 4. 77
L'immagine di H mediante l'isomorfismo cR il sottospazio H' = L((1, 0, 2, 0), (0, 0,1, -1), (2, 0, 3, 1), (0,1 ,3, -2)) di R 4. Ricordando che l'applicazione inversa di cR anch'essa un isomorfismo, per determinare una base di H baster determinare una base di H' ( cfr. Proposizione 3.1 ). Scriviamo allora i vettori che generano H'
0 0 0 1 0 1 0 0
2 0$ & 1 - 1& & ; determiniamo poi una matrice a gradini 3 1& 3 - 2& % 2 0$ & 3 - 2& & . Per l'Osservazione 8.1 del Capitolo II, 1 - 1& 0 0& %
cR-1(0,1, 3, -2) = x2 + 3x 2 e
le righe non nulle della matrice A costituiscono una base di H'. Ne segue che i polinomi cR-1(1, 0, 2, 0) = x3 + 2x , cR-1(0, 0, 1, -1) = x -1 costituiscono una base di H che ha quindi dimensione 3. 3.6. Nello spazio vettoriale R2,2 consideriamo il sistema di vettori S =
! 2 1$ ! 0 1$ ! 4 1 $ &, # &, # & }. Determiniamo la dimensione del sottospazio L(S). {# " 0 1% " 1 3% " -1 -1%
Considerato il riferimento naturale R di R 2,2 , sia cR l'isomorfismo coordinato ad esso associato:
e quindi
(cfr. Proposizione 3.1). Poich, come facile verificare, dimW = 2, allora dimL( S) = 2. 78
4. MATRICI E APPLICAZIONI LINEARI Siano Vn e Vm' due spazi vettoriali. Proviamo che: Proposizione 4.1. Un'applicazione lineare f : Vn Vm' determinata quando sono noti i corrispondenti dei vettori di una base. Dimostrazione. Sia B = {e1, e2, , en} una base di Vn. Vogliamo provare che la conoscenza dei vettori f(e1) , f(e2 ) , , f(en) sufficiente per conoscere il corrispondente in f di ogni vettore di Vn. Sia dunque v = h1e1 + h2e2 + + hnen Vn. Poich f lineare, dalla (1.3) segue che f(v) = h1f(e1) + h2f(e2 ) + + hnf(en) e dunque f(v) determinato. Sia f : Vn Vm' un'applicazione lineare e siano R = (e1, e2, , en) ed R' = (e1', e2', , em') due riferimenti rispettivamente di Vn e Vm'. Sia inoltre f(e1) = a11 e1' + a21 e2' + + am1 em' , f(e2) = a12 e1' + a22 e2' + + am2 em' , , f(en) = a1n e1' + a2n e2' + + amn em' . Per la Proposizione 4.1, il corrispondente f(v) di un vettore v di Vn noto non appena si conoscono i corrispondenti in f dei vettori e1, e2, , en. Ne segue che per conoscere f(v) basta conoscere gli scalari aij ( i = 1,,m ; j = 1,,n). Costruiamo con tali scalari una matrice A ponendo nella prima colonna le componenti in R' di f(e1), nella seconda quelle di f(e2), e cos via fino alla colonna n-esima in cui poniamo le componenti in R' di f(en). E' dunque
permette di determinare completamente la f. In particolare, per la Proposizione 2.2, possibile determinare Imf a partire dalla matrice A. Se Vm' = Vn , l'applicazione lineare f di Vn in s detta endomorfismo di Vn. In tal caso, se anche R' = R, parleremo semplicemente di matrice associata ad f nel riferimento R. ESEMPI 4.1. Consideriamo lomomorfismo f : (x, y) R 2 (2x - 3y, -x + y, 0) R 3. Considerato il riferimento R = ((1, 1), (2, -1)) di R 2 e il riferimento R' = ((0, 1, 1), (1, 0, 1), (0, 0, 1)) di R 3, determiniamo la matrice A associata ad f nei riferimenti R ed R'. Si ha : f(1, 1) = (-1, 0, 0) = 0(0, 1, 1) -1(1, 0, 1) + 1(0, 0, 1), f(2, -1) = (7, -3, 0) = -3(0, 1, 1) + 7(1, 0, 1) - 4(0, 0, 1).
4.2.
naturale sia in R
riferimenti. Si ha : f(1, 0) = (2, -1, 0) = 2(1, 0, 0) - 1(0, 1, 0) + 0(0, 0, 1), f(0, 1) = (-3, 1 ,0) = -3(1, 0 ,0) + 1(0, 1, 0) + 0(0, 0, 1),
80
4.3.
! 1 2 0$ &. ((1, 0, 0), (1, 1, 0), (1, 1, 1)) ed R' = ((0, 2), (-1, 1)) dalla matrice A = # " 3 1 1%
Determiniamo f(1, 0, -1) . Dalla definizione di matrice associata ad f in R ed R' segue che: f(1, 0, 0) = 1(0, 2) + 3(-1, 1) = (-3, 5), f(1, 1, 0) = 2(0, 2) + 1(-1, 1) = (-1, 5), f(1, 1, 1) = 0(0, 2) + 1(-1, 1) = (-1, 1). Poich inoltre (1, 0, -1) = 1(1, 0, 0) +1(1, 1, 0) - 1(1, 1, 1), allora si ha: f(1, 0, -1) = 1f(1, 0, 0) +1f(1, 1, 0) - 1f(1, 1, 1) = 1(-3, 5) + 1(-1, 5) -1(-1, 1) = (-3, 9). Determiniamo ora f(2, -1, -2). Poich risulta (2, -1, -2) = 3(1, 0, 0) +1(1, 1 , 0) 2(1, 1, 1), allora si ha: f(2, -1, -2) = 3f(1, 0, 0) +1f(1, 1, 0) - 2f(1, 1, 1) = 3(-3, 5) + 1(-1, 5) -2(-1, 1) = (-8, 18). Determiniamo infine f(x, y, z), per ogni (x, y, z) R 3. Poich (x, y, z) = (x-y) (1, 0, 0) + (y-z) (1, 1, 0) + z (1, 1, 1), si ha: f(x, y, z) = (x-y) (-3,5) + (y-z) (-1,5) + z (-1,1) = (-3x + 2y, 5x - 4z). 4.4. Sia f : R
2
! 1 2$ & . Determiniamo Imf. R = ((0, 1), (1, 1)) dalla matrice A = # " 3 1%
Dalla definizione di matrice associata ad f in R segue che f(0, 1) = 1(0, 1) + 3(1, 1) = (3, 4); f(1, 1) = 2(0, 1) + 1(1, 1) = (1, 3). Per la Proposizione 2.2 allora Imf = L((3, 4), (1, 3)) = R 2. 81
! x1 $ # & # x 2& # & (x1 , x2,, xn) R n con la matrice colonna X = # . & R n,1 cos come stato fatto # & #. & # & " x n%
nell'Esempio 1.6.
Osservazione 4.1. Sia A R m,n. Consideriamo l'applicazione lineare FA : X R n AX R m. E' facile verificare che la matrice associata ad FA nei riferimenti naturali di R n ed R m proprio A.
Enunciamo dimostrazione.
ora
un'importante
proposizione di
cui
omettiamo
la
riferimento di Vn ed R un riferimento di Vm'. Detta X la matrice colonna delle componenti in R di un vettore v Vn ed X la matrice colonna delle componenti di f(v) in R', si ha: (i) se A R
m,n
X = AX, v Vn ; (ii) se A R m,n una matrice tale che, v Vn , matrice associata ad f nei riferimenti R ed R'. X = AX , allora A la
82
Osservazione 4.2. Sia f : Vn Vm' un'applicazione lineare. Fissato un riferimento R in Vn e un riferimento R' in Vm', diciamo A la matrice associata ad f nei riferimenti R ed R'. Dalla Proposizione precedente segue che : v Ker f AX = 0, avendo indicato con X la matrice colonna delle componenti di v in R. ESEMPI 4.5. Sia f : R
3
R = ( (1, 0, 1), (1, 1, 0), (0, 1, 1) ) ed R = ( (0, 5), (-1, 1) ) dalla matrice
!x + 2y + 4z = 0 " avente A come matrice dei coefficienti. Un sistema a gradini #2x + 3y + z = 0 !x + 2y + 4z = 0 ad esso equivalente il sistema " il cui insieme delle soluzioni - y - 7z = 0 #
{(10z, -7z, z), z R } = L (( 10, -7, 1)) . Poich le soluzioni del sistema S sono tutte e sole le componenti in R dei vettori del nucleo di f, allora Ker f = {10z (1, 0, 1) 7z (1, 1, 0) + z (0, 1, 1) , z R } = {(3z, -6z, 11z), z R } = L ((3, -6, 11)). Osserviamo che avremmo potuto ottenere la base {(3, -6, 11)} di Ker f a partire dalla base {(10, -7, 1)} dello spazio delle soluzioni del sistema S utilizzando lisomorfismo coordinato di R 3 associato al riferimento R. Si ha infatti (3, -6, 11) = 10(1, 0, 1) 7(1, 1, 0) + (0, 1, 1).
83
! 3 -12 $ & . Determiniamo Ker f . R =((1, 0), (0, 1)) dalla matrice A = # " 6 - 24% !3x - 12y = 0 Risolviamo il sistema omogeneo S = " avente A come matrice dei #6x - 24y = 0
coefficienti. Tale sistema ovviamente equivalente allunica equazione 3x 12y = 0 il cui insieme delle soluzioni {(4y, y), y R } = L (( 4,1)) . Le soluzioni del sistema S sono tutte e sole le componenti dei vettori del nucleo di f. Poich una base dello spazio delle soluzioni di S {(4, 1)}, allora una base di Ker f 4 (1, 0) + 1 (0, 1) = (4, 1). Ne segue che Ker f = L (( 4,1)). Sia ora f un endomorfismo dello spazio vettoriale Vn di dimensione n 1. Detti R = (e1, e2, , en) ed R' = (e'1, e'2, , e'n) due riferimenti di Vn, vogliamo determinare la relazione che sussiste tra le matrici A ed A associate ad f rispettivamente in R e in R. A tale scopo, premettiamo la seguente Proposizione 4.3. La matrice B di passaggio da R' ad R invertibile. Dimostrazione. Ricordiamo (cfr. Capitolo II, Paragrafo 7) che le colonne di B sono i vettori numerici delle componenti in R dei vettori e'1, e'2, , e'n. Poich e'1, e'2, , e'n sono indipendenti, per l'isomorfismo coordinato associato ad R le colonne di B sono indipendenti. Ne segue, per la Proposizione 3.3 del Capitolo III, che | B | 0. Per la Proposizione 4.1 del Capitolo III, B invertibile. Si prova inoltre che Proposizione 4.4. Se B la matrice di passaggio da R' ad R, allora B-1 la matrice di passaggio da R ad R. 84
Siano A e A due matrici quadrate di ordine n. Si dice che A simile ad A se esiste una matrice invertibile P di ordine n tale che P-1 A P = A. Osserviamo che: ogni matrice quadrata A simile a se stessa ( detto n lordine di A, basta se A simile ad A, allora A simile ad A ( infatti, se P-1 A P = A, allora scegliere come matrice P la matrice identica In ); A = P A P-1). Si pu inoltre provare che - se A simile ad A ed A simile ad A , allora A simile ad A. Per quanto detto, la relazione di similitudine tra matrici quadrate dello stesso ordine una relazione di equivalenza. Siamo ora in grado di provare che : Proposizione 4.5. Sia f un endomorfismo di Vn e siano R ed R due riferimenti di Vn. Detta A la matrice associata ad f in R ed A la matrice associata ad f in R', allora A ed A sono simili. Precisamente, passaggio da R' ad R. Dimostrazione. Sia v Vn. Indichiamo con X la matrice colonna delle componenti di v in R e con X la matrice colonna delle componenti di v in R; analogamente, indichiamo con Y ed Y le matrici colonna delle componenti di f(v) rispettivamente in R ed R. Essendo B la matrice di passaggio da R ad R, per la (7.2) del Capitolo II si ha : (4.1) X = BX , Y = BY. Per la (i) della Proposizione 4.2 Y = AX da cui, per la (4.1), BY = A( BX) = ABX. Moltiplicando a sinistra per B-1 entrambi i membri di questultima relazione, si ha : B-1 (BY) = B-1 (ABX) cio (B-1B)Y = (B-1AB)X da cui, essendo B-1B = In , si ha Y= (B-1AB) X. Per la (ii) della Proposizione 4.2 allora A = B-1AB. 85 A' = B-1 A B , dove B la matrice di
1.
Sia
a 1n $ & a 2n & & una matrice quadrata reale di ordine n. Il & a nn & %
t ottenuto calcolando formalmente il
polinomio
nellindeterminata
a12 a 22 - t a n2
detto
polinomio caratteristico di A. Proposizione 1.1. Matrici simili hanno lo stesso polinomio caratteristico. Dimostrazione. Siano A ed A due matrici simili. Risulta allora A = P-1AP, con P matrice invertibile di ordine n. Si ha : | A tIn| , essendo | P-1| | P | = 1. Lequazione det(A tIn) = 0 detta equazione caratteristica di A. Si verifica facilmente che essa unequazione algebrica di grado n avente come termine noto | A | . | A t In | = | P-1AP t In | = | P-1AP t P-1P | = | P-1AP P-1 (t In)P | = | P-1(A tIn)P | = | P-1| | A tIn| | P | =
86
f : Vn Vn un
endomorfismo. Se A la matrice associata ad f in un riferimento R, il polinomio caratteristico di A detto anche polinomio caratteristico di f. La definizione ben posta in quanto non dipende dal riferimento R considerato (infatti, se A la matrice associata ad f in un riferimento R, essa simile ad A per la Proposizione 4.5 del Cap. IV e dunque ha lo stesso polinomio caratteristico di A per la Proposizione 1.1). Lequazione det(A tIn) = 0 detta equazione caratteristica di f. Lendomorfismo f detto diagonalizzabile se esiste un riferimento R di Vn tale che la matrice associata ad f in R una matrice diagonale, cio una matrice quadrata in cui tutti gli elementi non appartenenti alla diagonale principale sono uguali a zero. Una matrice quadrata A detta diagonalizzabile se simile ad una matrice diagonale. Proviamo che : Proposizione 1.2. Se f un endomorfismo diagonalizzabile di Vn , allora ogni matrice associata ad f diagonalizzabile. Dimostrazione. Sia A la matrice associata ad f in un riferimento R. Poich f diagonalizzabile, esiste un riferimento R tale che la matrice associata ad f in R una matrice diagonale D. Dalla Proposizione 4.5 del Capitolo IV segue che D = B-1 A B , dove B la matrice di passaggio da R ad R. La matrice A dunque diagonalizzabile.
87
Si prova che il risultato espresso dalla Proposizione 1.2 si pu invertire. Vale pertanto la seguente Proposizione 1.3. Se f un endomorfismo di Vn ed A la matrice associata ad f in un fissato riferimento, allora f diagonalizzabile se, e solo se, lo A. La Proposizione 1.3 mostra che il problema della diagonalizzazione di un endomorfismo strettamente collegato a quello della diagonalizzazione di una matrice.
2. DIAGONALIZZAZIONE DI UN ENDOMORFISMO In questo paragrafo Vn denoter uno spazio vettoriale di dimensione n 1 ed f un suo endomorfismo. Un vettore v Vn detto autovettore di f di autovalore h R se v 0 e f(v) = h v. Proviamo che : Proposizione 2.1. Sia v un autovettore di f. Esiste un solo h R tale che h autovalore di v. Dimostrazione. Se f(v) = h v = k v , allora h v k v = 0 , da cui (h k) v = 0. Essendo v 0, ne segue h = k. Proposizione 2.2. Lendomorfismo f diagonalizzabile se, e solo se, esiste una base di Vn formata da autovettori di f. Dimostrazione. Sia f diagonalizzabile. Esiste quindi un riferimento R = (e1, e2, , en) di Vn tale che la matrice associata ad f in R una matrice diagonale 88
! d1 # #0 D =# # #0 "
0 0$ & d2 0 & & . Per definizione di matrice associata, le colonne di D sono, & 0 dn & %
nellordine, le componenti in R dei vettori f(e1), f(e2), , f(en). Si ha allora : f(e1) = d1e1 + 0 e2 + + 0 en = d1e1 , f(e2) = 0 e1 + d2e2 + + 0 en = d2e2 , f(en) = 0 e1 + 0 e2 + + dnen = dnen . I vettori e1, e2, , en sono dunque autovettori di f di autovalore, rispettivamente, d1, d2 , , dn. Viceversa, sia R = (e1, e2, , en) un riferimento di Vn formato da autovettori di f. Si ha allora, per ogni i = 1, , n, f(ei) = hiei, essendo hi
Vediamo ora come determinare gli autovalori e gli autovettori di un endomorfismo. A tale proposito sussiste la seguente Proposizione 2.3. Sia R un riferimento di Vn e sia A = (aij) la matrice associata ad f in R. Gli autovalori di f sono tutte e sole le soluzioni reali dellequazione caratteristica di f. Le componenti in R degli autovettori di f aventi un fissato autovalore h sono le soluzioni non banali del sistema omogeneo (A h In) X = 0.
89
! z1 $ # & # z2 & autovalore h, se, e solo se, v 0 e f(v) = h v. Denotiamo con Z = # & la # & #z & " n%
matrice delle componenti di v in R. Essendo AZ la matrice delle componenti di f(v) in R (cfr. Proposizione 4.2 del Capitolo IV) ed hZ la matrice delle componenti di hv in R, allora v autovettore di autovalore h, se, e solo se A Z = h Z. Poich AZ= hZ
AZhZ=0
A Z h In Z = 0
(A h In) Z = 0
Ne segue che il
sistema omogeneo S non ammette solo la soluzione banale; esso ammette quindi infinite soluzioni e dunque, per il Corollario 5.3 del Capitolo III, det(A h In) = 0. Si ha dunque che h una radice reale dellequazione det(A t In) = 0, equazione caratteristica di f. Viceversa, se h una radice reale dellequazione det(A t In) = 0, cio se det(A h In) = 0, allora il sistema omogeneo S ammette, per la Proposizione 5.2 del Capitolo III, una soluzione non banale Z. Poich (A h In) Z = 0 equivale a AZ = h Z , allora Z la matrice delle componenti in R di un autovettore avente h come autovalore. Lasserto cos completamente provato. 90
Sia h un autovalore di f. Linsieme V(h) = { v Vn : f(v) = h v } , formato dagli autovettori di f di autovalore h e dal vettore nullo, detto autospazio di f relativo allautovalore h. Proposizione 2.4. Si ha : (i) Per ogni autovalore h di f, dim V(h) 1; (ii) per ogni autovalore h di f, V(h) isomorfo allo spazio delle soluzioni del sistema omogeneo (A h In) X = 0, essendo A la matrice associata ad f in un riferimento R; (iii) autospazi distinti si intersecano nel solo vettore nullo. Dimostrazione. (i) Per sua stessa definizione V(h) non vuoto. Siano ora v e w in V(h). Il vettore v + w V(h) in quanto f(v + w) = f(v) + f(w) = h v + h w = h (v + w). Analogamente si prova che, per ogni k R e per ogni v V(h), k v V(h). L'autospazio V(h) dunque un sottospazio. Poich in V(h) esistono vettori non nulli (gli autovettori di autovalore h), V(h) {0}, per cui dim V(h) 1. (ii) Sia W lo spazio delle soluzioni del sistema omogeneo (A h In) X = 0. Tenendo conto della Proposizione 2.3, immediato verificare che l'applicazione che ad ogni vettore v V(h) associa la n-pla delle sue componenti in R un isomorfismo tra V(h) e W. (iii) Siano V(h) e V(k) due autospazi di f, con h k. Se v V(h) V(k), v necessariamente il vettore nullo, altrimenti sarebbe un autovettore relativo a due autovalori distinti, contro la Proposizione 2.1. Osserviamo esplicitamente che, se 0 un autovalore di f, allora il suo autospazio, essendo formato dai vettori v tali che f(v) = 0v = 0, coincide con Ker f. 91 l'autospazio V(h) sottospazio di Vn e
Proviamo ora che : Proposizione 2.5. Se v e w sono autovettori relativi ad autovalori distinti, allora v e w sono indipendenti. Dimostrazione. Diciamo h e k gli autovalori di v e w, rispettivamente. Se v e w fossero dipendenti, essi, in quanto vettori non nulli, sarebbero proporzionali. Esisterebbe dunque un numero reale a 0 tale che v = a w. Il vettore v 0 apparterrebbe dunque a V(h) V(k), contro la (iii) della Proposizione 2.4. La proposizione precedente si estende ad un numero qualunque di autovettori aventi autovalori a due a due distinti. Vale cio la seguente Proposizione 2.6. Se v1, v2, , vt sono autovettori relativi ad autovalori a due a
due distinti, allora v1, v2, , vt sono indipendenti. Dalla Proposizione 2.6 segue subito il seguente : Corollario 2.7 . Se lequazione caratteristica di f ha n radici reali e distinte, allora f diagonalizzabile. Dimostrazione. Poich lequazione caratteristica ha n radici reali e distinte, possibile determinare n autovettori relativi ad autovalori a due a due distinti. Essi, per la Proposizione 2.6, sono indipendenti e formano quindi una base di Vn. Per la Proposizione 2.2, f diagonalizzabile. Osserviamo esplicitamente che la condizione espressa dal Corollario 2.7 solo sufficiente ma non necessaria per la diagonalizzabilit, cio f pu essere diagonalizzabile anche se i suoi autovalori non sono tutti distinti.
92
Ricordiamo ora che, data unequazione algebrica p(x) = 0 di grado n a coefficienti reali, essa nel campo complesso C ha n radici. Se una sua radice, p() = 0 e il polinomio p(x) risulta divisibile per (x ). Si dice che ha molteplicit m se p(x) divisibile per (x )m ma non per ( x )m+1. La
somma delle molteplicit delle radici di p(x) = 0 n; ne segue che la somma delle molteplicit delle radici reali di p(x) = 0 al pi n ed esattamente n nel caso in cui le radici di p(x) = 0 sono tutte reali. Dato un autovalore h di f, la sua molteplicit come radice dellequazione caratteristica detta molteplicit algebrica di h ed indicata con ma(h). La dimensione dellautospazio V(h) detta molteplicit geometrica di h ed indicata con mg(h). Si prova che : Proposizione 2.8. Per ogni autovalore h , si ha mg(h) ma(h). Proposizione 2.9. Se h un autovalore di molteplicit algebrica 1, allora anche la sua molteplicit geometrica 1. Dimostrazione. Per la Proposizione 2.8, mg(h) ma(h) = 1. Daltra parte, per la (i) della Proposizione 2.4, si ha mg(h) = dim V(h) 1. Ne segue che mg(h) = 1. Teorema 2.10. L endomorfismo f diagonalizzabile se, e solo se, il suo polinomio caratteristico ha tutte le radici nel campo reale e per ciascuna di esse la molteplicit algebrica uguale a quella geometrica.
93
Proposizione 2.11. Sia f diagonalizzabile e siano V(h1), V(h2),, V(ht) gli autospazi relativi agli autovalori distinti di f. Detta Bi una base di V(hi), per i = 1, , t, allora una base di Vn formata da autovettori data da B1 B2 Bt . ESEMPI 2.1. Studiamo la diagonalizzabilit del seguente endomorfismo di R 2 : f : (x, y) R 2 (x + 2y, x 2y) R 2.
1- t 2 -1 -2- t
(1 t )( 2 t ) + 2 = t2 + t . Le radici dellequazione caratteristica sono dunque 1 e 0. Per il Corollario 2.7, f diagonalizzabile. Lautospazio V(-1) lo spazio delle soluzioni del sistema omogeneo (A + I2) X = 0, cio del sistema
94
: A =
- t -1
1 -t 0 = 0 0 1- t
( 1 t )(t2 + 1). Le radici di tale polinomio non sono tutte reali. Per il Teorema 2.10, f non diagonalizzabile. 2.3. Studiamo la diagonalizzabilit del seguente endomorfismo di R 3 : f : (x, y, z) R 3 (3x, 3z, 3y ) R 3. Scriviamo la matrice A associata ad f nel riferimento naturale di R
3
3-t 0 0 0 -t 3 = 0 3 -t
(3 t ) ( t2 9 ). Le radici dellequazione caratteristica sono dunque 3 e 3, con ma(-3) = 1 e ma(3) = 2. Per la Proposizione 2.9, mg(-3) = ma(-3) = 1. Per determinare la molteplicit geometrica dellautovalore 3, consideriamo lautospazio V(3) che coincide con lo spazio delle soluzioni del sistema omogeneo
95
Lautospazio V(-3) lo spazio delle soluzioni del sistema omogeneo (A + 3I3)X = 0, cio del sistema
{(0, -y, y), y R }. Una base di V(-3) quindi {(0, -1, 1)}. Una base di R 3 costituita da autovettori di f allora {(1, 0, 0), (0, 1, 1), (0, -1, 1)}. 2.4. Studiamo la diagonalizzabilit del seguente endomorfismo di R 4 : f : (x, y, z, t) R 4 (x + 2y, y t, z 3t, t ) R 4. Scriviamo la matrice A associata ad f nel riferimento naturale di R4 :
!1 # #0 A= # #0 #0 "
2 1 0 0
Lequazione caratteristica di f ha dunque la sola radice 1, con ma(1) = 4. Per determinare la molteplicit geometrica dellautovalore 1, consideriamo lautospazio V(1) che coincide con lo spazio delle soluzioni del sistema omogeneo
!2y = 0 # (A I4) X = 0, cio del sistema "- t = 0 . Si ha dunque : mg(1) = dim V(1) = 2 # $-3t = 0
ma(1) = 4. Per il Teorema 2.10, f non diagonalizzabile.
96
3.
DIAGONALIZZAZIONE DI UNA MATRICE In questo paragrafo A denoter una matrice quadrata di ordine n sul campo
reale. Cos come nellEsempio 1.6 del Capitolo IV, identificheremo il vettore
Ricordiamo che A detta diagonalizzabile se simile ad una matrice diagonale. Poich A la matrice
n
associata
riferimento
naturale
allendomorfismo
FA : X R
A X R
Cap. IV), allora dalla Proposizione 1.3 segue che diagonalizzare A equivale a diagonalizzare lendomorfismo FA di R n. Tutte le definizioni e le proposizioni enunciate per gli endomorfismi si trasformano in maniera naturale in analoghe definizioni e proposizioni relative alle matrici quadrate. Si ha in particolare : Un vettore numerico Y R n se Y 0 e A Y = h Y. Sia h un autovalore di A. Linsieme V(h) = {X R formato dagli autovettori di A di autovalore autospazio di A relativo allautovalore h. La matrice A diagonalizzabile se, e solo se, il suo polinomio caratteristico ha tutte le radici nel campo reale e per ciascuna di esse la molteplicit algebrica uguale a quella geometrica. Inoltre, da quanto detto nei paragrafi precedenti segue che : h
n
: A X = h X},
97
Se A diagonalizzabile, una matrice invertibile P che realizza la diagonalizzazione di A (cio tale che P-1AP una matrice diagonale D) si ottiene scegliendo come colonne n autovettori, Y1 , Y2 , , Yn, di A che formano una base di R n . Gli elementi della diagonale principale della matrice D simile ad A sono, nellordine, gli autovalori di Y1 , Y2 , , Yn . ESEMPI
! 2 3 0$ # & 3.1. Studiamo la diagonalizzabilit della matrice A = # 2 1 0& . # & " 0 0 4% 2-t 3 0 Il polinomio caratteristico di A 2 1- t 0 = (4 t ) ( t2 3t 4 ). Le radici 0 0 4-t
dellequazione caratteristica sono dunque 1 e 4, con ma(-1) = 1 e ma(4) = 2. Si ha allora : mg(-1) = ma(-1) = 1. Per determinare la molteplicit geometrica dellautovalore 4, consideriamo lautospazio V(4) che coincide con lo spazio delle
!-2x + 3y = 0 soluzioni del sistema omogeneo (A - 4I3) X = 0, cio del sistema " . # 2x - 3y = 0
Tale sistema equivalente allequazione 2x 3y = 0. Ne segue che dimV(4) = 2 e dunque mg(4) = ma(4) = 2. La matrice A dunque diagonalizzabile. Per determinare una matrice invertibile P che realizzi la diagonalizzazione di A, occorre determinare una base di R 3 costituita da autovettori di A e quindi una base di ciascun autospazio di A. Per quanto visto, V(4) = {(3y / 2, y, z) , y, z R } . Una base di V(4) dunque {(3, 2, 0), (0, 0, 1)}.
98
Lautospazio V(-1)
Si ha dunque : V(-1) =
{(x, -x, 0), x R } e una sua base {(1, -1, 0)}. Una base di R 3 costituita da autovettori di A allora {(3, 2, 0), (0, 0, 1), (1, -1, 0)} e quindi una matrice invertibile P tale che
99
CAPITOLO VI GEOMETRIA ANALITICA NEL PIANO E NELLO SPAZIO Mantenendo le notazioni del Capitolo II, nel corso del presente capitolo indicheremo con V lo spazio vettoriale dei vettori (geometrici) liberi dello spazio e con V lo spazio vettoriale dei vettori (geometrici) liberi di un piano . Se A e B sono due punti distinti, la retta passante per A e B sar detta retta AB.
1. DIPENDENZA LINEARE IN V E V Siano a = AB e b = CD due vettori liberi non nulli di V ( di V). Si dice che a e b sono paralleli, e si scrive a || b, se i segmenti AB e CD sono paralleli. La definizione ben posta perch non dipende dai rappresentanti scelti per a e b. Considerato un punto O dello spazio (del piano ), diciamo OA ed OB i rappresentanti rispettivamente di a e b in O. Si ha : a e b sono dipendenti
a e b sono proporzionali
OA e OB sono OA e OB sono
proporzionali paralleli
a || b.
Poich si conviene che il vettore libero nullo dello spazio (del piano ) parallelo ad ogni vettore libero dello spazio (del piano ), allora possiamo affermare che (1.1) a, b in V ( in V), a e b sono dipendenti
a || b. 100
Siano ora a, b e c tre vettori dipendenti di V, O un punto dello spazio ed OA, OB ed OC i rappresentanti rispettivamente di a, b e c in O. Poich a, b e c sono dipendenti, uno tra essi, diciamo a, dipende dagli altri due. Esistono dunque h e k in R tali che a = h b + k c. Ci equivale a dire che OA = h OB + k OC. Se i punti O, B e C non sono allineati (esiste quindi uno ed un sol piano per essi), dall'uguaglianza OA = h OB + k OC segue che A appartiene al piano per O, B e C. Se esiste invece una retta per O, B e C, da OA = h OB + k OC segue che anche A appartiene a tale retta. Poich per una retta dello spazio passano infiniti piani, possiamo in ogni caso concludere che i segmenti OA, OB ed OC sono contenuti in uno stesso piano. Si ha dunque : a, b e c dipendenti
complanari. Poich evidentemente vale anche l'implicazione inversa della precedente, possiamo concludere che, per ogni a, b e c in V, (1.2) a, b e c sono dipendenti sono complanari. Si verifica facilmente che due vettori indipendenti di V generano V e dunque ne costituiscono una base; analogamente, tre vettori indipendenti di V generano V e ne costituiscono quindi una base. Gli spazi vettoriali V e V hanno dunque dimensione due e tre, rispettivamente.
101
2.
PRODOTTO SCALARE STANDARD IN V E V Dora in avanti supporremo fissata un' unit di misura u per i segmenti.
Parleremo talvolta semplicemente di lunghezza di un segmento, sottintendendo che tale lunghezza rispetto all'unit di misura u. Sia v un vettore libero dello spazio (o di un piano). Si dice modulo (o lunghezza) di v rispetto ad u, e lo si indica con |v|, la lunghezza (rispetto ad u) comune ai segmenti che costituiscono v. Siano ora v e w due vettori liberi non nulli dello spazio (o di un piano). Fissato un punto O dello spazio (del piano), siano OP ed OQ i rappresentanti rispettivamente di v e w in O. Diciamo angolo di v e w, e lo indichiamo con vw , la misura in radianti dell' angolo convesso formato dalle semirette di origine O contenenti P e Q rispettivamente. Si verifica che la definizione indipendente dal punto O scelto. Presi due vettori liberi v e w , vogliamo associare ad essi un numero reale, che diremo prodotto scalare standard di v e w (associato allunit u fissata) e indicheremo con v w (oppure con su(v ,w)). Se v = 0 , oppure w = 0 , poniamo v w = 0 . Se v e w sono entrambi non nulli poniamo : (2.1) v w = | v | | w | cos vw . E' facile verificare che il prodotto scalare standard cos definito soddisfa le seguenti propriet : u , v , w V ( V ) e h, k R simmetria : bilinearit : uv=vu ( h u + k v ) w = h ( u w ) + k ( v w), u ( h v + k w ) = h ( u v ) + k ( u w) . 102
v = 0.
Osserviamo esplicitamente che, per ogni v V ( V ) si ha : (2.2) | v | = v v . Un vettore di lunghezza unitaria detto versore. Chiameremo versore di una retta orientata il versore parallelo e concorde alla retta stessa. Siano a = AB e b = CD due vettori liberi non nulli di V ( V ). Si dice che a e b sono ortogonali, e si scrive a b, se i segmenti AB e CD sono ortogonali. La definizione ben posta perch non dipende dai rappresentanti scelti per a e b. Considerato un punto O dello spazio (del piano ), diciamo OA ed OB i rappresentanti rispettivamente di a e b in O. Si ha : a b
OA OB
= ab = / 2 cos = 0 a b = 0.
Poich si conviene che il vettore libero nullo dello spazio (del piano ) ortogonale ad ogni vettore libero dello spazio (del piano ), allora possiamo affermare che (2.3) a, b in V ( V ), a b
a b = 0.
3. RIFERIMENTI ORTONORMALI IN V ( V ) Si dice riferimento ortonormale di V (di V) ogni riferimento formato da versori a due a due ortogonali.
103
Proposizione 3.1. Sia R = (v, w) un riferimento ortonormale di V . Se a, b V , dette (a1, a2) e (b1, b2) rispettivamente le componenti di a e b in R, si ha : a b = a1b1 + a2b2 = (a1, a2) (b1, b2). Dimostrazione. Poich a = a1 v + a2 w prodotto scalare segue che e b = b1 v + b2 w, dalla bilinearit del da cui, tenendo conto a b = ( a1 v + a2 w ) ( b1 v + b2 w ) =
a1 b1 (v v) + a1 b2 (v w) + a2 b1 (w v) + a2 b2 (w w) che v v = w w = 1 e v w = w v = 0, si ha lasserto.
Proposizione 3.2. Sia R = (v, w, u) un riferimento ortonormale di V. Se a, b V, dette (a1, a2 , a3 ) e (b1, b2 , b3 ) rispettivamente le componenti di a e b in R, si ha : a b = a1b1 + a2b2 + a3b3 = (a1, a2, a3) (b1, b2, b3). La dimostrazione della Proposizione 3.2 analoga a quella della Proposizione 3.1. Sia a V ( V ). Dette a1, a2 e a3 ( a1 e a2 ) le componenti di a in un riferimento ortonormale di V ( V ), dalla (2.2) e dalla Proposizione 3.2 (3.1) segue che : (3.1) | a | = a 12 + a 2 2 + a 3 2 ( | a | = a 12 + a 2 2 ).
4.
PIANO Sia un piano. Si dice riferimento cartesiano ortogonale monometrico del piano una coppia R = ( O, Rv = ( ex , ey )), dove O un punto di , detto origine, ed Rv = ( ex , ey ) un riferimento ortonormale di V . Siano U ed U i due punti tali 104
che
OU = ex
ed
riferimento. Le rette OU e OU sono dette assi coordinati e, precisamente, asse x ed asse y ; tali rette si considerano orientate concordemente ai vettori ex ed ey , che sono i versori degli assi. Preso un punto P del piano, consideriamo il vettore libero OP. Dette x ed y le componenti di OP in Rv, i numeri reali x ed y sono detti coordinate cartesiane di P nel riferimento R; x si dice ascissa di P ed y ordinata. Scriveremo P(x, y) per intendere che le coordinate di P sono x ed y. Dire quindi che P ha coordinate x ed y significa che OP = x ex + y ey. Per determinare x ed y occorre dunque considerare i punti P' e P" ottenuti proiettando ortogonalmente il punto P sulle rette x ed y ; si ha : | x | = | OP'| , | y | = | OP''| , da cui x = | x | e y = | y | , a seconda che i vettori OP' ed OP'' siano concordi o discordi con ex ed ey rispettivamente . L'applicazione costruita. Si vede subito che risulta O(0, 0), U(1,0) e U(0,1) . P (x ,y) R
2
Proposizione 4.1 . Considerati i punti A(x1, y1) e B(x2, y2), le componenti in Rv del vettore AB sono x2 x1 ed y2 y1. Dimostrazione. Per come stata definita laddizione in V , OA + AB = OB , da cui (4.1) AB = OB OA .
Per lisomorfismo coordinato associato al riferimento Rv, le relazioni che valgono tra i vettori valgono anche tra le loro componenti in Rv. Poich le componenti di 105
OA sono (x1, y1) e quelle di OB sono (x2, y2), allora, dette ax ed componenti di AB , per la (4.1) si ha :
ay
le
ax = x2 x1 , ay = y2 y1 . Dora in avanti scriveremo v(vx, vy) per intendere che le componenti del vettore v in Rv sono vx e vy. Siano v(vx , vy) e w (wx , wy ) due vettori non nulli. Dalle (2.1) e (3.1) e dalla Proposizione 3.1 segue che : (4.2) cos vw =
v w = (vx wx + vy wy ) / | v || w |
vx 2 + vy 2 . w x 2 + wy 2
ex e (0, 1) le
cos ve y = vy /
vx 2 + vy 2
5. CAMBIAMENTI DI RIFERIMENTO
Siano R = ( O, Rv = ( ex , ey )) ed R = ( O, Rv = ( ex, ey )) due riferimenti cartesiani ortogonali monometrici di un piano. Vogliamo determinare le formule di trasformazione delle coordinate di un punto nel passaggio da R ad R . Diciamo B = (bij) la matrice di passaggio da Rv ad Rv (cfr. Capitolo II, Paragrafo 7) . Sia P un punto del piano. Indichiamo con (x, y) le coordinate di P in R , con (x , y) le coordinate di P in R e con ( c1 , c2 ) le coordinate di O in R. 106
Le componenti del vettore OP in Rv sono (x, y); per la Proposizione 4.1, le componenti di OP in Rv sono ( x c1 , y c2 ). Per le (7.1) del Capitolo II si ha allora :
! #x' - c1 = b11 x + b12 y " , # $y' - c 2 = b 21 x + b 22 y !x' = b11 x + b12 y + c 1 # " . # $y' = b 21 x + b22 y + c 2
da cui
(5.1)
Dora in avanti indicher un piano ed R = (O, Rv = ( ex , ey )) un fissato riferimento cartesiano ortogonale monometrico di . Rappresentare che : un punto P appartiene ad X S. Sia r una retta di . in R un insieme X di punti del piano significa
107
Proposizione 6.1. La retta r rappresentata in R da un sistema parametrico del tipo reale. Dimostrazione. Sia A(xo, yo) un punto della retta r e sia v(l, m) un vettore libero non nullo parallelo ad r . Detto P(x, y) il generico punto del piano, si ha : (6.1) P r
AP || v
(per la (1.1))
AP e v sono dipendenti.
lisomorfismo coordinato associato ad Rv, la dipendenza dei vettori AP e v equivale alla dipendenza dei vettori numerici (x xo, y yo) e (l, m). Dalla (6.1) segue allora che P r
t R :
tR:
x xo = l t e y yo = m t
! #x = x 0 + l t " #y = y 0 + m t . $ !x = x 0 + l t # " # $y = y 0 + m t
(con t parametro reale) rappresenta
Il sistema parametrico
dunque la retta r nel riferimento R. E evidente che ogni sistema parametrico a coefficienti reali del tipo
108
Proposizione 6.2. La retta r rappresentata in R da un'equazione del tipo ax + by + c = 0 , con a, b, c R ed (a, b) (0, 0) (rappresentazione ordinaria o cartesiana di r). Dimostrazione. Sia A(xo, yo) un punto della retta r e sia v(l, m) della Proposizione 6.1, detto P(x, y) il generico punto del piano, si ha : P r e un vettore libero non nullo parallelo ad r . Per quanto visto nel corso della dimostrazione
AP || v
AP e v sono dipendenti
(x xo, y yo)
! x - x0 det # # l "
y - y0 $ & = 0 m & %
ax + by + c = 0 e si ha lasserto. Osserviamo che, essendo entrambi nulli. Si pu provare che : Proposizione 6.3. Ogni equazione del tipo ax + by + c = 0 , con a, b e c reali e (a, b) (0, 0) rappresenta una retta del piano parallela al vettore v(-b , a). Inoltre, due equazioni di primo grado in x e y rappresentano la stessa retta se, e solo se, esse sono proporzionali. Un vettore non nullo v(l, m) parallelo alla retta r detto vettore direzione di r. Le componenti (l, m) di v sono dette numeri (o parametri) direttori di r. In 109 v 0, si ha che l ed m, e quindi a e b, non sono
particolare, essendo ex un vettore non nullo parallelo allasse x, le componenti (1, 0) di ex sono una coppia di numeri direttori dellasse x; analogamente si prova che (0,1) una coppia di numeri direttori dellasse y. Proposizione 6.4. I numeri direttori di r sono definiti a meno di un fattore di proporzionalit diverso da zero. Dimostrazione. Se v(l, m) un vettore non nullo parallelo ad r, (l, m) una coppia di numeri direttori di r. Sia (l', m') (0, 0). Si ha: (l', m') una coppia di numeri direttori di r v' e v sono dipendenti
v'(l', m') || r
v' || v
! #x = x1 + (x 2 - x1 ) t " . # $y = y1 + (y 2 - y1 ) t
110
! x - x1 det # #x - x " 2 1
rappresenta dunque la retta r. Osserviamo che , se y2 y1 0 e x2 x1 0 , lequazione precedente si pu scrivere nella forma
x - x1 y - y1 = x2 - x 1 y2 - y1
ESEMPI 6.1. Rappresentiamo la retta r passante per il punto A(-2, 1) e parallela al vettore v (4, 3) .
x+2 y-1 = 0. 4 3
x -1 y + 2 = 0. -1 4
Poich appartengono allasse x tutti e soli i punti che hanno ordinata zero, allora l'asse x rappresentato dallequazione y = 0; analogamente, ci si rende subito conto che lequazione x = 0 rappresenta l'asse y. 111
Sia r la retta rappresentata dall' equazione ax + by + c = 0. Evidentemente, r passa per lorigine se, e solo se, c = 0. Se b 0 , lequazione ax + by + c = 0 pu essere esplicitata rispetto alla y , ottenendo y = -
a c a x - . Posto m = b b b
7. COSENI DIRETTORI DI UNA RETTA ORIENTATA Sia r una retta di e sia ax + by + c = 0 un'equazione che rappresenta r nel riferimento R. Supponiamo ora r orientata. Ricordiamo che (-b , a) sono le componenti di un vettore v 0 parallelo ad r . La misura xr dell'angolo convesso formato dall'asse x e dalla retta r coincide con e x v o con e x (-v) a seconda che v sia concorde o discorde con r . Utilizzando le (4.3) si ha allora : cos xr = cos e x v = b / a 2 + b2 ; analogamente, cos yr = cos e y v = a / a 2 + b2 ( nelle formule precedenti da prendersi il segno superiore o inferiore a seconda che v sia concorde o discorde con r ) . I coseni su scritti vengono detti coseni direttori della retta r.
112
8.
INTERSEZIONE DI DUE RETTE E CONDIZIONI DI PARALLELISMO Ricordiamo che due rette r ed r di un piano sono parallele se
coincidono oppure non hanno punti in comune. Se r = r, diremo che esse sono impropriamente parallele; se invece r r = , propriamente parallele. Se (l, m) una coppia di numeri direttori di r ed (l', m') una coppia di numeri direttori di r', si ha: r || r diremo che esse sono
(per l'isomorfismo coordinato associato ad Rv) (l, m) ed (l', m') sono dipendenti
(l, m) ed (l', m') sono proporzionali. Poich ogni rappresentazione di una retta fornisce in particolare una coppia
di numeri direttori della retta stessa, allora, comunque siano rappresentate le rette r ed r', possibile ricavare una condizione analitica di parallelismo tra esse. Facciamo qualche esempio: - se la retta r rappresentata dallequazione ax + by + c = 0 e la retta r rappresentata dall'equazione ax + by + c = 0, allora, ricordando che (-b, a) una coppia di numeri direttori di r e (-b', a') una coppia di numeri direttori di r', si ha: r || r
proporzionali; in particolare, essendo (1, 0) una coppia di numeri direttori dellasse x e (0, 1) una coppia di numeri direttori dellasse y, si ha : r || asse x r || asse y
a=0 b = 0; 113
- se le rette r ed r non sono parallele allasse y e sono rappresentate in forma esplicita da y = mx + p e y = mx + p, allora r || r
m = m.
Siano r ed r rappresentate rispettivamente dalle equazioni ax + by + c = 0 e ax + by + c = 0. Se (a, b) ed (a, b) sono proporzionali, le rette sono parallele. Si possono allora presentare due casi : (a, b, c) ed (a, b, c) sono proporzionali oppure (a, b, c) ed (a, b, c) non sono proporzionali. Dalla Proposizione 6.3 segue che nel primo caso r ed r coincidono (impropriamente parallele), mentre nel secondo caso r ed r sono distinte (propriamente parallele). Supponiamo ora (a, b) ed (a, b) non proporzionali. In tal caso le rette r ed r non sono parallele; esse hanno dunque un sol punto in comune, le cui coordinate
!ax + by + c = 0 sono ovviamente lunica soluzione del sistema lineare " . #a' x + b' y + c' = 0
Consideriamo un punto A(x1, y1). Una coppia di numeri direttori della retta per A parallela all'asse x (1, 0); ne segue che tale retta rappresentata dallequazione y - y1 = 0, ovvero da y = y1 . Analogamente, la retta per A parallela allasse y rappresentata dall' equazione x = x1 .
114
9.
ORTOGONALITA TRA RETTE Considerate due rette r ed r di , sia (l, m) una coppia di numeri direttori
v (l, m) v(l, m)
(per la (2.3)) v v = 0 l l + m m = 0.
(per la
Ne segue che, comunque siano rappresentate le rette r ed r', possibile ricavare una condizione analitica di ortogonalit tra esse. Facciamo qualche esempio: - se la retta r rappresentata dallequazione ax + by + c = 0 e la retta r rappresentata dall'equazione ax + by + c = 0, allora, ricordando che (-b, a) una coppia di numeri direttori di r e (-b', a') una coppia di numeri direttori di r', si ha: r r
(-b) (-b) + a a = 0
a a + b b = 0;
l l + m m = 0;
!
se le rette r ed r non sono parallele n allasse x n allasse y e sono rappresentate in forma esplicita da y = mx + p e y = mx + p , allora m ed m sono entrambi non nulli e si ha : r r
m = 1/ m.
115
Sia r la retta rappresentata dallequazione ax + by + c = 0. Il vettore v(-b, a) parallelo ad r. Poich il vettore v(a, b) ortogonale a v, si ha che tale vettore anche ortogonale ad r. La coppia (a, b) dunque una coppia di numeri direttori di ogni retta ortogonale ad r.
10. DISTANZA TRA INSIEMI NEL PIANO Siano A(x1, y1 ) e B(x2, y2 ) due punti di . Diciamo distanza tra A e B, e la indichiamo con d(A,B), il modulo Proposizione 4.1 si ha allora : d(A,B) = |AB | =
(x 2 - x1 )2 + (y2 - y1 )2 .
del vettore
Dati due insiemi S e T di punti del piano , diciamo distanza tra S e T e la indichiamo con d(S,T), lestremo inferiore dellinsieme numerico { d(P, Q) : P S, Q T } ; poniamo cio d(S, T) = inf { d(P, Q) : P S, Q T }. Se r una retta ed A un punto del piano, si ha : d(A, r) = d(A, H) , ad r . Se (x1, y1) sono le coordinate di A ed r rappresentata dallequazione ax + by + c = 0 , si prova che : d(A, r) = | ax1 + by1 + c | / a 2 +b2 . dove H lintersezione con r della retta per A ortogonale
d(r, s) =
propriamente parallele. 11. PUNTO MEDIO E ASSE DI UN SEGMENTO Siano A(x1, y1) e B(x2, y2) due punti distinti di . Detto M(xM, yM) il
punto medio del segmento di estremi A e B, risulta AM = MB. Per l'isomorfismo coordinato associato ad Rv si ha che ( xM x1 , yM y1 ) = ( x2 xM , y2 yM ), da cui si ricava :
! x + x2 x = 1 # # M 2 " . y1 + y2 # y = # $ M 2
Lasse del segmento AB linsieme dei punti P del piano tali che d(A, P) = d(B, P). Ne segue che P(x, y) asse di AB (x x2)2 + (y y1)2
d2(A,P) = d2(B,P)
(x x1)2 + (y y1)2 =
E facile verificare che lasse del segmento AB coincide con la retta perpendicolare alla retta AB passante per il punto medio del segmento AB .
12. CIRCONFERENZA Fissato un punto C e un numero reale r > 0, la circonferenza di centro C e raggio r linsieme C dei punti del piano aventi distanza r da C. Dette (xo, yo) le coordinate di C, si ha : 117
P(x, y) C
d(C,P) = r
d2(C,P) = r2
(x xo)2 + (y yo)2 = r2 .
Lequazione (12.1) (x xo)2 + (y yo)2 = r2 Sviluppando la (12.1) e ponendo a = 2xo , b = 2yo e c = xo2 + yo2 r2, la (12.1) diventa (12.2) x2 + y2 + ax + by + c = 0. Osserviamo che i numeri reali a, b e c che compaiono nella (12.2) sono legati dalla relazione a2 + b2 4c > 0 ; inoltre ogni equazione che si ottiene dalla (12.2) moltiplicandola per un numero reale non nullo rappresenta ancora la circonferenza C. Viceversa, data unequazione del tipo Ax2 + Ay2 + Bx + Cy + D = 0, con A, B, C, D numeri reali e A 0, questa si pu scrivere, dividendo per A, nella forma (12.2). Sommando a entrambi i membri
(x + a2 b2 , la (12.2) diventa + 4 4
a 2 b a2 b2 ) + (y + )2 = + - c 2 2 4 4
a b , - ) e il raggio di C 2 2
a2 b2 + 4 4
- c .
ESEMPI 12.1. Rappresentiamo la circonferenza C di centro C(2, -1) e raggio r = 3. Per la (12.1) unequazione che rappresenta la circonferenza C
12.3. Lequazione x2 + y2 + 4x 2y + 7 = 0 non rappresenta una circonferenza in quanto 4 + 1 7 = 2 < 0. Ricordiamo che esiste una ed una sola circonferenza passante per tre punti non allineati. Ricordiamo inoltre che il numero di punti che una retta r ha in comune con una circonferenza C 0, 1 oppure 2 (ed r detta, rispettivamente, esterna, tangente o secante la circonferenza) a seconda che la sua distanza dal centro di C maggiore, uguale o minore del raggio; lunica retta tangente a C in un suo punto P la retta ortogonale alla congiungente P con il centro di C .
ESEMPI 12.4. Assegnati i punti A(1 ,1 ) , B(2 , 1) e C(1 , 1 ), che non sono allineati in quanto AB(1,0) non proporzionale ad AC(0,2), rappresentiamo la circonferenza passante essi. La circonferenza richiesta ha equazione del tipo x2 + y2 + ax + by + c = 0, con a, b e c opportuni. Per determinare a, b e c, imponiamo che le coordinate dei punti assegnati soddisfino tale equazione. Si ottiene il seguente sistema lineare nelle
119
2 2 , ). 2 2 2 , 2 2 ). 2
La circonferenza assegnata ha centro nell origine e raggio 1 , per cui la retta r la retta per P ortogonale al vettore OP ( Si ha quindi che r
! #x = # " # y = # $
2 - t 2 2 + t 2
o, equivalentemente,
dallequazione x + y - 2 = 0
120
13. RIFERIMENTO CARTESIANO ORTOGONALE MONOMETRICO NELLO SPAZIO Si dice riferimento cartesiano ortogonale monometrico dello spazio una coppia R = ( O , Rv = (ex, ey, ez) ) , dove O un punto , detto origine, e Rv = (ex, ey, ez) un riferimento ortonormale dello spazio vettoriale V dei vettori liberi dello spazio. Siano U, U' ed U'' i tre punti tali che OU = ex , OU' = ey, OU'' = ez . I punti U , U' ed U'' sono detti punti unitari del riferimento. Le rette OU , OU' ed OU'' sono dette assi coordinati e, precisamente, asse x , asse y ed asse z. Tali rette si considerano orientate concordemente ai vettori ex, ey, ez, che sono i versori degli assi . I tre piani che contengono a due a due gli assi coordinati sono detti piani coordinati . Preso un punto P dello spazio, consideriamo il vettore libero OP. Dette x, y e z le componenti di OP in Rv , i numeri reali x, y e z sono detti coordinate cartesiane di P nel riferimento R; x si dice ascissa di P, y ordinata e z quota. Analogamente a quanto fatto nel piano, scriveremo P(x, y, z) per intendere che le coordinate di P sono x, y e z. Dire che P ha coordinate x, y e z significa quindi che OP = x ex + y ey + z ez. Per determinare x, y e z occorre dunque considerare il punto P' ottenuto proiettando ortogonalmente il punto P sull'asse x (cio il punto comune allasse x e al piano per P ortogonale all'asse x ) , il punto P'' proiezione ortogonale di P sullasse y e il punto P''' proiezione ortogonale di P sull'asse z; si ha : | x | = | OP'| , | y | = | OP''| , | z | = | OP'''| , da cui x = | x | , y = | y | e z = | z | , a seconda che i vettori OP' , OP'' e OP''' siano concordi o discordi con ex , ey ed ez, rispettivamente . L'applicazione che ad ogni punto dello spazio associa la terna ordinata delle sue coordinate in R biettiva , per come stata costruita. 121
Si vede subito che risulta O(0, 0, 0), U(1,0, 0) U(0,1, 0) e U(0, 0, 1). Proviamo che : Proposizione 13.1 . Considerati i punti A(x1, y1, z1) e B(x2 y2, z2), le componenti in Rv del vettore AB sono x2 x1 , y2 y1 e z2 z1.
Per lisomorfismo coordinato associato al riferimento Rv , le relazioni che valgono tra i vettori valgono anche tra le loro componenti in Rv. Poich le componenti di OA sono (x1 , y1 , z1) e quelle di OB sono (x2, y2, z2) , dette ax , ay ed az le componenti di AB , per la (13.1) si ha : ax = x2 x1 ; ay = y2 y1 ; az = z2 z1. Dora in avanti parleremo semplicemente di riferimento cartesiano dello spazio sottintendendo che esso ortogonale monometrico. Scriveremo v(vx, vy, vz) per intendere che le componenti del vettore v in Rv sono vx , vy e vz. Siano v (vx, vy, vz) e w (wx, wy, wz) due vettori non nulli. Dalle (2.1) e (3.1) e dalla Proposizione 3.2 segue che : (13.2) cos vw =
v w = | v || w |
(vx wx + vy wy + vz wz) /
vx + v y + v z . w x + wy + w z .
(13.3)
cos ve x = vx /
vx + v y + v z
, cos ve y = vy /
vx + v y + v z ,
122
cos ve z = vz /
vx 2 + v y 2 + v z 2 .
14. CAMBIAMENTI DI RIFERIMENTO Siano R = ( O , Rv = (ex, ey, ez) ) ed R = ( O, Rv = (ex, ey, ez)) due riferimenti cartesiani dello spazio. Analogamente al caso del piano, si prova che, dette (x, y, z) e (x, y, z) le coordinate di un punto P rispettivamente in R ed R, si ha : (14.1)
!x' = b11x + b12 y + b13z + c1 # "y' = b 21x + b22 y + b 23z + c 2 , # # $z' = b31x + b32 y + b 33z + c 3
dove B = ( bij) la matrice di passaggio da Rv ad Rv e (c1, c2, c3) sono le coordinate di O in R. Le (14.1) sono le formule di passaggio dal riferimento R al riferimento R.
Sia R = ( O , Rv = (ex, ey, ez) ) un riferimento cartesiano dello spazio. Dati due vettori v = vx ex + vy ey + vz ez e w = wx ex + wy ey + wz ez , diremo prodotto vettoriale di v per w , e lo indicheremo con v w , il vettore v w = ( vy wz vz wy ) ex - ( vx wz vz wx ) ey+ ( vx wy vy wx ) ez. Le componenti in Rv di v w sono quindi i determinanti :
vy vz wy wz
, -
vx vz , wx wz
vx
vy
wx wy
. 123
Si prova facilmente, tenendo conto delle propriet del prodotto scalare standard tra vettori liberi, che : (15.1) (v w)v = 0 e (v w)w = 0,
per cui il vettore v w ortogonale sia a v che a w . Si ha inoltre: (15.2) (15.3) (15.4) v w=0
v e w sono dipendenti ,
v w= - wv, ex ey = ez , ey ez = ex , ez ex = ey.
D'ora in avanti R = ( O , Rv = (ex, ey, ez) ) indicher un fissato riferimento cartesiano dello spazio. Rappresentare che : un punto P appartiene ad X S. Sia un piano. Proposizione 16.1 . Il piano rappresentato nel riferimento R da un sistema
!x = x 0 + l s + l' t # parametrico a coefficienti reali del tipo "y = y 0 + m s + m' t , con (l, m, n) ed # # $z = z0 + n s + n' t
in
R un insieme
Dimostrazione. Sia A(x0, y0, z0) un punto di e siano v(l, m, n) e v(l, m, n), due vettori liberi indipendenti paralleli al piano . Detto P(x, y, z) il generico punto dello spazio, si ha : P
(per la
dipende
rappresenta dunque il piano nel riferimento R. E' evidente che ogni sistema parametrico a coefficienti reali del tipo
!x = x 0 + l s + l' t # "y = y 0 + m s + m' t con (l, m, n) ed (l', m', n') indipendenti ed s e t # # $z = z0 + n s + n' t
parametri reali, rappresenta un piano; precisamente, il piano passante per il punto di coordinate (x0, y0, z0) e parallelo ai vettori di componenti (l, m, n) ed (l, m, n) rispettivamente.
125
Proposizione 16.2. Il piano rappresentato nel riferimento R da unequazione del tipo ax + by + cz + d = 0 , con a , b, c, d numeri reali e (a, b, c) (0, 0, 0) (rappresentazione ordinaria o cartesiana di ). Inoltre il vettore w(a, b, c) ortogonale a . Dimostrazione. Sia A(x0, y0, z0) un punto di e siano v(l, m, n) e v(l, m, n) due vettori liberi indipendenti paralleli al piano . Detto P(x, y, z) il generico punto dello spazio, si ha : P
AP, v e
(x x0, y y0, z z0), (l, m, n) e (l, m, n) sono (per la Proposizione 3.3 del Capitolo III)
z - z0 n n' m m'
x - x0 l l'
y - y0
riga si ottiene : (m n m n) (x x0) + (l n l n) (y y0) + (l m l m) (z z0) = 0. Per quanto visto, lequazione (m n m n) (x x0) + (l n l n) (y y0) + (l m l m) (z z0) = 0 a = m n m n , lequazione diventa rappresenta il piano nel riferimento R. Ponendo Osserviamo infine che, detto w il b = l n l n , c = l m lm e il termine noto uguale a d, ax + by + cz + d = 0.
vettore di componenti (a, b, c), dalla definizione di prodotto vettoriale segue w = v v. Essendo v e v linearmente indipendenti, dalla (15.2) segue che w non nullo; inoltre, per la (15.1), w ortogonale sia a v che a v, e dunque ortogonale al piano . Si ha cos lasserto. Si pu provare che : 126
Proposizione 16.3.
del
tipo
ax + by + cz + d = 0, con (a, b, c) (0, 0, 0) rappresenta un piano ortogonale al vettore di componenti (a, b, c). Inoltre due equazioni di primo grado in x, y, z rappresentano lo stesso piano se , e solo se, esse sono proporzionali. ESEMPI 16.1. Rappresentiamo il piano passante per A(4, 3, -2) e parallelo ai vettori v(1, -1, 0) e v'(2, 1, 3).
16.2. Rappresentiamo il piano passante per i punti A(1, 0, 1), B(2, 0, 0) e C(2, 1, 3). I vettori AB (1, 0, -1) e AC (1, 1, 2) sono indipendenti ed entrambi
x - 1 ottenuta da 1 1
y z - 1 0 -1 1 2
= 0.
127
Si verifica facilmente che : x = 0 un'equazione del piano yz (piano per gli assi y e z); y = 0 un'equazione del piano xz (piano per gli assi x e z); z = 0 un'equazione del piano xy (piano per gli assi x e y).
17.
PARALLELISMO E ORTOGONALITA TRA PIANI Siano e ' due piani. Ricordiamo che e si dicono paralleli
( || ) se non hanno punti in comune (propriamente paralleli) oppure coincidono (impropriamente paralleli). Evidentemente, detto w un vettore non nullo ortogonale a e w un vettore non nullo ortogonale a , si ha : (17.1) ||
w || w.
I piani e si dicono ortogonali se, detto w un vettore non nullo ortogonale a e w un vettore non nullo ortogonale a , tali vettori risultano ortogonali. E' dunque : (17.2)
w w.
Supponiamo che e siano rappresentati in R rispettivamente dalle equazioni ax + by + cz + d = 0 non nullo ortogonale a . Dalla (17.1) segue allora che : (17.3) || e ax + by + cz + d = 0. Per la Proposizione 16.3, w(a, b, c) un vettore non nullo ortogonale a e w'(a, b, c) un vettore
w || w
(a, b, c) e
Se || , ovvero (a, b, c) e (a, b, c) sono proporzionali, si possono presentare due casi: (a, b, c, d) e (a, b, c, d') sono proporzionali oppure non lo 128
sono. Dalla Proposizione 16.3 segue che nel primo caso = ( e impropriamente paralleli), mentre nel secondo caso ' ( e propriamente paralleli). Sia un piano parallelo a . Unequazione che rappresenta del tipo hax + hby + hcz + d = 0 , con h 0 . Dividendo per h, si ottiene ax + by + cz + d/h = 0. Ne segue che ogni piano parallelo a pu essere rappresentato da unequazione del tipo ax + by + cz + k = 0.
Per quanto riguarda lortogonalit tra piani, dalla (17.2) segue che:
w w
(per la (2.3))
w w = 0
(per la
Proposizione 3.2) a a + b b + c c = 0. Ricordiamo che, assegnato un punto A ed un piano , i piani per A ortogonali a sono tutti e soli i piani che contengono la retta per A ortogonale a . ESEMPI 17.1. I piani e ' rappresentati rispettivamente dalle equazioni x - 4y + 3z + 6 = 0 e 2x - 8y + 6z + 1 = 0 sono propriamente paralleli in quanto (1, -4, 3) e (2, -8, 6) sono proporzionali, mentre (1, -4, 3, 6) e (2, -8, 6, 1) non lo sono. 17.2. Consideriamo i piani , ' e " rappresentati rispettivamente dalle equazioni x - 4y + 3z + 6 = 0, x+y+z-2=0 e 2x + y - 4z = 0. I piani e ' sono ortogonali in quanto (1, -4, 3) (1, 1, 1) = 1 -4 + 3 = 0. I piani e " non sono ortogonali in quanto (1, -4, 3) (2, 1, -4) 0. 17.3. Sia il piano rappresentato dall'equazione 2x + 3y - 5z + 1 = 0. 129
Rappresentiamo
(i) il piano per A(4, 2, 3) parallelo a ; (ii) due piani per l'origine ortogonali a ; (i) Ogni piano parallelo a pu essere rappresentato da un'equazione del tipo 2x + 3y - 5z + k = 0, con k R . Se vogliamo che un tale piano passi per A, dobbiamo imporre che le coordinate di A siano una soluzione di tale equazione; deve essere cio 2(4) + 3(2) - 5(3) + k = 0, da cui k = 1. Un'equazione del piano richiesto allora 2x + 3y - 5z + 1 = 0. (ii) Un piano per l'origine ha equazione del tipo ax + by + cz = 0. Un tale piano ortogonale a se, e solo se, le equazioni 5x + 2z = 0 ortogonali a . 2a + 3b - 5c = 0. Due soluzioni (non nulle) dell'equazione 2a + 3b - 5c = 0 sono, ad esempio, (5, 0, 2) e (1, 1, 1). Ne segue che e x + y + z = 0 rappresentano due piani per l'origine
130
18. RAPPRESENTAZIONE DELLA RETTA Sia r una retta. Proposizione 18.1. La retta r rappresentata in R da un sistema del tipo
!a x + b y + c z + d = 0 (18.1) " , con (a, b, c) , (a, b, c) (0, 0, 0) e non #a' x + b' y + c' z + d' = 0
proporzionali. Viceversa, ogni sistema del tipo (18.1) rappresenta una retta. Dimostrazione. Siano e due piani distinti contenenti r. Poich r = , allora, se e sono rappresentati in R rispettivamente dalle equazioni e ax + by + cz + d' = 0, il sistema ax + by + cz + d = 0
!x - y + z + 11 = 0 " #x - 2y + 19 = 0
!x - y + z + 11 = 0 " #y + z - 8 = 0
rappresentano la stessa retta in quanto equivalenti. Gli assi coordinati si possono ovviamente rappresentare cos : 131
Per individuare una retta r occorre conoscere due piani distinti che la contengono oppure un suo punto e un vettore non nullo ad essa parallelo. Se conosciamo due piani distinti per r, abbiamo gi osservato che r si pu rappresentare in forma ordinaria con un sistema del tipo (18.1). Proviamo ora che : Proposizione 18.2. La retta r rappresentata in R da un sistema parametrico a coefficienti reali del tipo (18.2)
!x = x1 + lt # "y = y1 + mt , con t parametro reale e (l, m, n) (0, 0, 0). # # $z = z1 + nt
Dimostrazione. Sia A(x1, y1, z1) un punto di r e v( l, m, n ) un vettore non nullo parallelo ad r. Si ha : P(x, y, z) r
AP || v e
AP
( x x1 , y y1 , z z1 )
( l , m , n ) =
t R : ( x x1 , y y1 , z z1 )
!x = x1 + lt # t R : "y = y1 + mt . # # $z = z1 + nt
132
la retta r nel riferimento R. E evidente che, viceversa, ogni sistema parametrico del tipo (18.2) rappresenta una retta : la retta passante per il punto A(x1, y1, z1) e parallela al vettore v( l, m, n ). Come nel caso del piano, si definiscono numeri ( o parametri ) direttori di una retta r le componenti di un vettore non nullo parallelo ad r (detto vettore direzione di r). Ovviamente, come nel caso del piano, i numeri direttori di r sono definiti a meno di un fattore di proporzionalit non nullo. Se la retta r rappresentata in forma parametrica, una terna di numeri direttori di r data dai coefficienti del parametro. Sia ora r rappresentata in forma ordinaria da un sistema del tipo (18.1). Considerati i vettori v(a, b, c) e v(a, b, c), si pu provare che una terna di numeri direttori di r data dalle componenti del vettore v v, prodotto vettoriale di v e v. Si ha quindi che una terna di numeri direttori di r (l, m, n), con l=
n=
a b . a' b'
Se A e B sono punti distinti di r , il vettore AB un vettore non nullo parallelo ad r e quindi una terna di numeri direttori di r data dalle componenti del vettore AB.
133
ESEMPI 18.1. Determiniamo una rappresentazione parametrica della retta r rappresentata dal sistema :
!x - y + 2z = 2 " . #2x + 3y - z = 4
Il punto A(2, 0, 0) appartiene ad r (in quanto (2, 0, 0) una soluzione del sistema che rappresenta r). Poich
-1
3 -1
= - 5,
2 -1
=5
1 -1 2 3
= 5,
!x = 3 + t # "y = 5 + 4t . # $z = -1 - t
Una
rappresentazione ordinaria di r si pu ottenere eliminando il parametro t dalle equazioni precedenti : si ricava t da una delle equazioni e si sostituisce nelle altre due, ottenendo in tal modo due equazioni che rappresentano due piani distinti passanti per r. Ricavando ad esempio t dalla prima equazione, si ha : t = x 3;
134
che
19. COSENI DIRETTORI DI UNA RETTA ORIENTATA Sia r una retta orientata e v un vettore non nullo parallelo ad r. La misura
20. FASCI DI PIANI Sia r una retta. Diremo fascio proprio di piani di asse r linsieme dei piani passanti per r . Se r rappresentata da un sistema del tipo (18.1), si prova che un piano appartiene al fascio di asse r se, e solo se, rappresentato da una equazione del tipo :
135
(20.1) h (ax + by + cz + d ) + k (ax + by + cz + d) = 0 , con h , k R e (h, k) (0, 0). Se risulta h 0 , la (20.1) si pu scrivere, dividendo per h e ponendo k / h = t , nella forma : (20.2) ax + by + cz + d + t (ax + by + cz + d) = 0 . La (20.2) rappresenta tutti i piani del fascio di asse r tranne , ovviamente, quello che si ottiene relativamente alle coppie (0, k) , cio il piano di equazione ax + by + cz + d = 0. ESEMPI 20.1. Rappresentiamo il piano passante per la retta r rappresentata da e per il punto A(1, -2, -2).
!x - 2y + z + 1 = 0 " #2x + y - z - 3 = 0
Il piano appartiene al fascio di piani di asse r e non coincide con il piano di equazione 2x + y z 3 = 0, in quanto (1, -2, -2) non soluzione di tale equazione. Ne segue che pu essere rappresentato da unequazione del tipo x 2y + z + 1 + t (2x + y z 3) = 0, con t R . Imponendo il passaggio per il punto A si ottiene 4 + t(-1) = 0, da cui t = 4. Unequazione che rappresenta dunque 9x + 2y 3z 11 = 0.
21. PARALLELISMO E ORTOGONALITA TRA RETTE Siano r ed r due rette. Ricordiamo che r ed r' sono parallele se, e solo se, esse coincidono (impropriamente parallele) oppure sono complanari (cio esiste un piano che le contiene) e non hanno punti in comune (propriamente parallele).
136
Detti v(l, m, n) e v(l, m, n) due vettori non nulli paralleli rispettivamente ad r e ad r', si ha : r || r
v || v
sono dipendenti
v v
(per la (2.3)) v v = 0
(per la Proposizione
ortogonali ad r sono tutte e sole le rette per A contenute nel piano per A ortogonale ad r. ESEMPI 21.1. Consideriamo le rette r, r ed r rappresentate rispettivamente da :
!x = 2 + t # r : "y = - t , # $z = 1 + 2t
!x + y - 2 = 0 r : " , #x - y - z - 1 = 0
Le tre rette sono a due a due parallele in quanto una terna di numeri direttori di r (1, -1, 2) , una terna di numeri direttori di r (-1, 1, -2) (componenti del vettore v(1, 1, 0) v(1, -1, -1) ) e una terna di numeri direttori di r (-2, 2, -4) ( componenti del vettore w(0, 2, 1) w(2, 0, -1) ) e tali terne sono a due a due proporzionali. Si ha inoltre che r ed r sono impropriamente parallele, cio coincidono, dato che passano entrambe per il punto A(2, 0, 1). Le rette r ed r sono invece
137
incompatibile,
21.2. Rappresentiamo la retta r per il punto A(5, 1, -3) parallela alla retta
!x = t # r : "y = 1 + 2t . # $z = -t
Possiamo scegliere come numeri direttori di r la terna (1, 2, -1) di numeri direttori
!x = 2 - t # r : "y = 2t , # $z = -1 + 3t
!x = 1 + 2t # r : "y = -3 + t , # $z = 4
!x = 1 - t # r : "y = 1 + 2t . # $z = 2 + t
Le rette r ed r sono ortogonali in quanto (-1, 2, 3) (2, 1, 0) = 0, r ed r sono ortogonali in quanto (2, 1, 0) (-1, 2, 1) = 0, mentre r ed r non sono ortogonali essendo (-1, 2, 3) (-1, 2, 1) = 8 0.
138
!x = 2t # e "y = t # $z = 6t
sono
22. PARALLELISMO E ORTOGONALITA TRA UNA RETTA E UN PIANO Siano r una retta e un piano. Ricordiamo che r e sono paralleli se, e solo se, r contenuta in ( impropriamente paralleli) oppure r e non hanno punti in comune ( propriamente paralleli). Se v 0 un vettore parallelo ad r e w 0 un vettore ortogonale a , si ha : r || Sia
r oppure r =
ortogonale a w.
Proposizione 16.3, il vettore w(a, b, c) un vettore non nullo ortogonale a . Dette allora (l, m, n) le componenti di v, si ha : r ||
v ortogonale a w
(per la (2.3)) v w = 0
(per la
Proposizione 3.2) a l + b m + c n = 0 . Per quanto riguarda la condizione di ortogonalit tra una retta ed un piano, possiamo dire, mantenendo le stesse notazioni, che 139
v parallelo a w
v e w sono dipendenti
(l, m, n) e (a, b, c) sono proporzionali. ESEMPI 22.1. Il piano rappresentato dallequazione 2x - y - 3z + 5 = 0 e la retta r
ed 2 ( 1 ) 1 ( -1 ) 3 ( 1 ) = 0.
2x + z 4 = 0, determiniamo la retta r per A ortogonale a . Poich la terna (2, 0, 1) dei coefficienti delle incognite nellequazione che rappresenta una terna di numeri direttori di ogni retta ortogonale a , allora una
140
Poich una terna di numeri direttori di r (1, 1, 3), ogni piano ortogonale ad r pu essere rappresentato da un equazione del tipo x + y + 3z + d = 0. Imponendo il passaggio per A si ottiene 2 + 1 + d = 0 , da cui d = 1. Ne segue che lequazione x + y + 3z + 1 = 0 rappresenta . 22.5. Consideriamo il punto A(1, -2, 3) e la retta r rappresentata da
" $x + y - 1 = 0 # . Poich A r, esiste una ed una sola retta s per A ortogonale $ %3x - z = 0
ed incidente r. Rappresentiamo tale retta. La retta s contenuta sia nel piano per A ortogonale ad r che nel piano per A e per r. Essendo (1, -1, 3) una terna di numeri direttori di r, il piano pu essere rappresentato da unequazione del tipo x y + 3z + d = 0; imponendo il passaggio per A si ottiene d = 12, da cui x y + 2z 12 = 0 rappresenta . Il piano , che appartiene al fascio di piani di asse r, coincide con il piano di equazione 3x z = 0 poich tale piano, che contiene r, contiene anche A in quanto le coordinate di A sono una soluzione dellequazione 3x z = 0. Il sistema
"x - y + 3z - 12 = 0 $ # $ %3x - z = 0
23. PUNTO MEDIO DI UN SEGMENTO Siano A(x1, y1, z1) e B(x2, y2, z2) due punti. Con un ragionamento analogo a quello usato nel caso del piano (cfr. Paragrafo 11), si prova che le coordinate ( xM, yM, zM ) del punto medio M del segmento di estremi A e B sono:
141
! x + x2 #x M = 1 2 # # y + y2 "y M = 1 . # 2 # #z M = z1 + z 2 # $ 2
24. DISTANZA TRA INSIEMI NELLO SPAZIO Siano A(x1, y1, z1) e B(x2, y2, z2) due punti. La distanza d(A, B) tra A e B , per definizione, il modulo del vettore AB. Per la (3.1) e la Proposizione 13.1 si ha : d ( A, B ) = | AB | =
(x 2 - x1 )2 + (y2 - y1 )2 + (z 2 - z1 )2 .
Siano S e T due insiemi di punti dello spazio. Cos come nel caso del piano, diciamo distanza tra S e T, e la indichiamo con d(S, T), lestremo inferiore dell'insieme numerico {d( P, Q ), con P S e Q T}; poniamo cio: d(S, T) = inf { d ( P, Q ) : P S e Q T}. Distanza punto piano Siano A un punto e un piano. Considerata la retta per A ortogonale a e detto H il punto d'intersezione di tale retta con , si ha : d(A, ) = d(A, H). Se (x1, y1, z1) sono le coordinate di A e ax + by + cz + d = 0 un'equazione che rappresenta , risulta : d ( A, ) = | ax1 + by1 + cz1 + d | / a 2 + b2 + c 2 . Distanza punto retta Siano A un punto ed r una retta. Detto il piano per A ortogonale ad r e detto H il punto d'intersezione di con r, si ha : 142
d ( A , r ) = d( A, H ). Distanza tra due rette Siano r ed s due rette. Se r ed s sono incidenti , allora , chiaramente, d ( r, s ) = 0 . Se r ed s sono parallele , si ha : d ( r , s ) = d ( P , s ) , per ogni P r . Supponiamo infine r ed s sghembe. Ricordiamo che due rette si dicono sghembe se esse non sono complanari (cio non esiste nessun piano che le contiene entrambe), ovvero non sono n incidenti n parallele. In tal caso la distanza tra r ed s sar la minima tra le lunghezze dei vettori PQ , al variare del punto P su r e del punto Q su s; essa si ottiene quando PQ ortogonale sia ad r che ad s. Distanza retta - piano Siano r una retta e un piano. Se r e hanno intersezione non vuota ( cio hanno un sol punto in comune oppure r contenuta in ), allora, ovviamente, d( r, ) = 0. Se r e sono propriamente paralleli, allora d( r, ) = d( P, ), per ogni P r. Distanza tra due piani Siano e ' due piani. Se e ' hanno intersezione non vuota (cio si intersecano in una retta o coincidono), allora, ovviamente, d( , ' ) = 0. Se e ' sono propriamente paralleli, allora d( , ' ) = d( P, ' ), per ogni P .
143
ESEMPI 24.1. Determiniamo la distanza del punto A(1, 3, -1) dal piano rappresentato dall'equazione 2x - y + z - 4 = 0. Si ha : d(A, ) = | 2 - 3 - 1 - 4 | /
(2)2 + (-1)2 + (1)2 =| -6 | / 6 = 6 .
!x = -1+ 2t # "y = -2 + t # $z = 1- t
i) Verifichiamo che r ed s sono sghembe; ii) determiniamo la distanza tra r ed s. i) Una terna di numeri direttori di r ( 2, 1, -1) e una terna di numeri direttori di s ( 0, -1, 1). Poich tali terne non sono proporzionali, allora r ed s non sono parallele. Determiniamo ora una rappresentazione ordinaria per ciascuna delle due rette. 144
Ricavando, ad esempio, t dalla seconda equazione del sistema che rappresenta r e sostituendo nelle altre due equazioni, si ottiene il sistema
!x - 2y - 3 = 0 " #y + z + 1= 0
che
145
25. SFERA E CIRCONFERENZA Fissato un punto C dello spazio e un numero reale r > 0, la sfera di centro C e raggio r linsieme S dei punti dello spazio aventi distanza r da C. Dette (xo, yo, zo) le coordinate di C, si ha : P(x, y, z) S r2 . Lequazione (25.1) (x xo)2 + (y yo)2 + (z zo)2 = r2 rappresenta dunque la sfera S. Sviluppando la (25.1) e ponendo d = xo2 + yo2 + zo2 r2 , la (25.1) diventa (25.2) x2 + y2 + z2 + ax + by + cz + d = 0. Osserviamo che i numeri reali a, b, c e d che compaiono nella (25.2) sono legati dalla relazione a2 + b2 + c2 4d > 0 ; inoltre ogni equazione che si ottiene dalla (25.2) moltiplicandola per un numero reale non nullo rappresenta ancora la sfera S. Viceversa, data unequazione del tipo Ax2 + Ay2 + Az2 + Bx + Cy + Dz + E = 0, con A, B, C, D, E numeri reali e A 0, questa si pu scrivere, dividendo per A,
a2 b2 c2 nella forma (25.2). Sommando a entrambi i membri , la (25.2) + + 4 4 4
d(C,P) = r d (C,P) = r (x x )
2 2 o
+ (y yo)2 + (zzo)2 =
diventa (x +
a 2 b c a ) + (y + )2 + (z + )2 = 2 2 2 4
b2 c2 + - d 4 4
e dunque
a2 b2 c2 + + -d . 4 4 4
ESEMPI 25.1. Rappresentiamo la sfera S di centro C(0, 4, - 3) e raggio r = 2. Per la (25.1) unequazione che rappresenta la sfera S x2 + (y 4)2 + (z + 3)2 = 4, cio x2 + y2 + z2 8y + 6z + 21 = 0.
25.2. Lequazione x2 + y2 + z2 2x + 3y + 4z 2 = 0 pu essere scritta nella forma (x 1)2 + (y + 3/2)2 + (z + 2)2 = 1 + di centro C(1, 3/2, 2) e raggio r = 1 +
9 37 + 4+2 = 4 2
25.3. Lequazione x2 + y2 + z2 + x 6y + 4z + 30 = 0 non rappresenta una sfera in quanto 1 + 36 + 16 120 = 67 < 0. Ricordiamo che esiste una ed una sola sfera passante per quattro punti non complanari. Ricordiamo inoltre che lintersezione di un piano con una sfera S linsieme vuoto ( esterno ad S), costituita da un unico punto ( tangente ad S) oppure una circonferenza ( secante S ) a seconda che la distanza di dal centro di S maggiore, uguale o minore del raggio di S; se P un punto di S, esiste uno e un sol piano tangente ad S in P ed esso il piano ortogonale alla retta per P e per il centro di S. 147
Sia S una sfera, C il suo centro ed r il suo raggio. Se un piano che interseca S in una circonferenza , allora il centro C di il punto di
avente il solo punto P in comune con ) lintersezione di con il piano tangente ad S in P. Se S rappresentata dallequazione (25.2) e rappresentato
(25.3)
Ne segue che ogni circonferenza dello spazio si pu rappresentare con un sistema del tipo (25.3) in quanto essa si pu sempre ottenere come intersezione di una sfera con un piano. Viceversa, un sistema del tipo (25.3) rappresenta una circonferenza se, e solo se, la prima equazione rappresenta una sfera e la seconda equazione rappresenta un piano avente dal centro della sfera distanza minore del raggio. ESEMPI 25.4. Considerata la sfera S di equazione x2 + y2 + z2 4y = 0, i) rappresentiamo il piano tangente ad S nellorigine. Il centro di S C(0, 2, 0). Il piano il piano per lorigine ortogonale alla retta OC, cio al vettore OC(0, 2, 0); unequazione che rappresenta dunque y = 0. ii) determiniamo la posizione rispetto ad S del piano rappresentato dall'equazione z 2 = 0. 148
Poich il raggio r di S 2 e d(C, ) = 2, allora tangente ad S. Il punto di tangenza il punto T(0, 2, 2) ottenuto intersecando con la retta passante per C
iv) rappresentiamo la retta tangente alla circonferenza nel suo punto P(2, 2, 0). Poich il piano tangente ad S in P rappresentato dallequazione x 2 = 0, allora
25.5.
A(2, 0, 0), B(0, 0, 3) e C(0, 1, 3) . La circonferenza si pu ottenere come intersezione del piano per A, B e C con una delle infinite sfere passanti per i tre punti dati. Il piano rappresentato dallequazione 3x + 2z 6 = 0. Una sfera per i tre punti A, B e C ha unequazione del tipo x2 + y2 + z2 + ax + by + cz + d = 0, con (a, b, c, d) soluzione del sistema
149
le infinite sfere passanti per A, B e C, ne scegliamo una imponendo il passaggio per un punto non complanare con A, B e C (cio non appartenente al piano ), ad
!2a + d = -4 # #3c + d = -9 esempio per lorigine. Otteniamo cos il sistema " #b + 3c + d = -10 # $d = 0
unica soluzione (-2, -1, -3, 0).
che ha come
26. CONI, CILINDRI E SUPERFICI DI ROTAZIONE Fissati nello spazio un insieme non vuoto D e un punto V D, si dice cono di vertice V e direttice D (o anche cono che proietta D dal punto V) linsieme C dei punti dello spazio appartenenti alle rette ( dette generatrici ) che congiungono V con i punti di D. Per rappresentare C basta dunque rappresentare le rette VP, al variare di P su D. ESEMPI 26.1. Rappresentiamo il cono C di vertice il punto V(0, 0, 7) e direttice la
"x2 + y2 + z 2 - 1 = 0 circonferenza : # . $z = 0
150
!
cio
% x = 1 + (" - 1)t ' parametricamente dal sistema : & y = 1 + (# - 1) t . Poich P(, , ) 'z = $ t (
% x = 1 + (" - 1)t ' y = 1 + (# - 1) t ' %" 2 = # ' ! , C rappresentato parametricamente dal sistema &z = $ t & '$ = 0 ' 2 '# = $ ' (" = 0
!
!
151
con , , , t parametri reali. Eliminando i parametri si ottiene lequazione (y x)2 z (1 x) = 0, cio x2 + y2 2xy + xz z = 0.
Fissati nello spazio un insieme non vuoto D e una retta g, si dice cilindro di direttice D e generatrici parallele a g linsieme C dei punti dello spazio appartenenti alle rette per i punti di D parallele a g. Per rappresentare C basta dunque rappresentare tali rette, al variare di P su D. ESEMPI
e generatrici
! Poich una terna di numeri direttori della retta g (1, -1, 1), allora la retta per il
%x = " + t ' ! punto P(, , ) parallela a g rappresentata da & y = # - t . Ne segue che una 'z = $ + t (
%x = " + t ' y =# - t ' ' ! rappresentazione parametrica del cilindro &z = $ + t , con , , e t parametri '"# = 1 ' ' ($ = 0
reali. Eliminando i parametri si ottiene lequazione (x z) (y + z) = 1, che rappresenta in forma ordinaria il cilindro C. ! 26.4. Rappresentiamo il cilindro C di direttrice la circonferenza 152
%" 2 + # 2 + $ 2 - 2" = 0 ' 5# + $ + 1 = 0 ' ' , con , , e t parametri reali. Eliminando i parametri &x = " + t 'y = # ' ' (z = $ - t
Fissati nello spazio un insieme non vuoto X e una retta a, facciamo ruotare X intorno ad a. Nella rotazione, ogni punto P di X che non appartiene ad a descrive la circonferenza appartenente al piano per P ortogonale ad a di centro il punto H = a e raggio d(P, H); se P X a, si pu dire (con abuso di linguaggio) che P descrive una circonferenza di raggio zero. Ne segue che linsieme ottenuto facendo ruotare X intorno ad a lunione di tali circonferenze e dunque per rappresentarlo basta rappresentare queste circonferenze. Fissato un punto C su a, ciascuna di queste circonferenze si pu ottenere come intersezione del piano per P ortogonale ad a con la sfera di centro C e raggio d(C, P). Se X una curva piana (cfr. Cap. VIII, Par.1), allora linsieme detto superficie di rotazione di generatrice X e asse a.
153
nella rotazione intorno allasse x si pu rappresentare come intersezione del piano di equazione x = (piano per P ortogonale allasse x) con la sfera di equazione x2 + y2 + z2 = 2 + 2 + 2 (sfera di centro lorigine e raggio d(O, P)). Poich
dal sistema !
Eliminando i parametri si ottiene lequazione 5x2 y2 z2 10x + 5 = 0 che rappresenta in forma ordinaria. ! 26.6. Rappresentiamo la superficie ottenuta facendo ruotare la curva :
rotazione intorno ad a si pu rappresentare come intersezione del piano di ! equazione x + y = 0 (piano per P ortogonale ad a) con la sfera di equazione x2 + y2 + z2 = 2 + 2 + 2 (sfera di centro lorigine e raggio d(O, P)).
154
dal sistema
%"# = 1 ' '$ = 0 , con , e parametri reali. & 'x + y - " - # = 0 2 2 2 2 2 2 ' (x + y + z = " + # + $
155
1. PRODOTTI SCALARI EUCLIDEI Sia V uno spazio vettoriale sul campo reale R . Un prodotto scalare euclideo in V unapplicazione s : V x V R che verifica le seguenti propriet : v , w, z V e h, k R (1.1) s(v, w) = s(w, v), (1.2) s(h v + k w, z) = h s( v, z) + k s( w, z) , s(v, h w + k z ) = h s( v, w ) + k s( v, z) . (1.3) v V, s(v, v) 0 e s(v, v) = 0
v = 0.
Le propriet (1.1), (1.2), (1.3) si possono esprimere dicendo che s simmetrica, bilineare e definita positiva. ESEMPI 1.1. Lapplicazione : R n R n R definita ponendo (x1, x2, . . . , xn)
( y1, y2, . . .,yn) = x1y1 + x2y2 +. . . + xnyn un prodotto scalare euclideo in R n (prodotto scalare standard (cfr. Cap. I, Par. 1)). Osserviamo che, ponendo
156
" y1 % $ ' $ y2 ' $ . ' e identificando la matrice Xt Y con lunico elemento da cui $ ' . $ $ ' ' # yn &
1.2.
f : ( (x, y), (x, y) ) R 2 R 2 2xx + 4yy R g : ( (x, y), (x, y) ) R 2 R 2 xx yy R . Si verifica facilmente che f e g sono entrambe bilineari e simmetriche. La f anche definita positiva in quanto, per ogni (x, y) in R 2, risulta f((x, y), (x, y)) = 2x2 + 4y2 0 e 2x2 + 4y2 = 0 se, e solo se, (x, y) = (0, 0). Poich invece g((x, y), (x, y)) = x2 y2 e x2 y2 < 0, x, y con |x| < |y|, allora la g non definita positiva. Possiamo dire allora che f un prodotto scalare euclideo in R 2 mentre g non lo . Lapplicazione s di R 2[x] R 2[x] in R definita ponendo s(ax2+bx+c,
1.4.
ax2+bx+c) = aa+ bb+ cc , come si verifica facilmente, un prodotto scalare euclideo nello spazio vettoriale R 2[x] . Analogamente si definisce un prodotto scalare euclideo in R n[x].
157
1.5. Lapplicazione s di R
2,2
2,2
"" a b% " a' b'%% in R definita ponendo s $$ ',$ '' = ## c d& # c' d'&&
"a b
i, j = 1
ij ij
a22, ..., a2n, ..., an1, an2, ..., ann) (b11, b12, ..., b1n, b21, b22, ..., b2n, ..., bn1, bn2, ..., bnn), 2 dalle propriet del prodotto scalare standard in R n segue che s un prodotto ! scalare euclideo in R n,n.
!
Sia V uno spazio vettoriale sul campo reale. Se s : V V R un prodotto scalare euclideo in V, la coppia (V, s) detta spazio vettoriale euclideo e, per ogni v, w V, il numero reale s(v, w) detto prodotto scalare dei vettori v e w. Osserviamo che, se W un sottospazio di V, la restrizione di s a W W un prodotto scalare euclideo in W; con tale restrizione, W esso stesso uno spazio vettoriale euclideo. Chiudiamo questo paragrafo osservando che dalla bilinearit di s segue subito che 158
(1.4)
2. PROPRIETA DI UNO SPAZIO VETTORIALE EUCLIDEO Sia (V, s) uno spazio vettoriale euclideo. Proviamo subito che (2.1) v V, s(v, 0 ) = 0 = s (0, v).
Per la simmetria e la bilinearit di s, si ha che s(0, v) = s(v, 0 ) = s(v, 0v) = 0 s(v, v) = 0 . Sia v V. Per la (1.3), s(v, v) 0; il numero reale
(o lunghezza) di v e sar indicato con il simbolo |v|. Ovviamente, |v| 0; inoltre |v| = 0 se, e solo se, v = 0. E anche immediato verificare che : h R , | hv | = ! |h| |v|. Diremo versore un vettore di lunghezza 1. Se v un vettore non nullo, il vettore
assume sempre lo stesso segno, allora il suo discriminante minore o uguale a zero, e dunque (s(v, w))2 s(v, v) s(w, w) = |v|2 |w|2, da cui segue la (i). (ii) Si ha : |v + w| 2 = s(v+w, v+w) = s(v, v) + 2s(v, w) + s(w, w) = |v|2+ 2s(v, w) + |w|2 (per la (i)) |v|2+ 2|v| |w| + |w|2= (|v| + |w|)2 , da cui segue la (ii). Dati due vettori non nulli v e w, dalla disuguaglianza di Cauchy-Schwarz segue
| s(v, w) | s( v, w) 1, cio -1 1. Si definisce angolo tra i due vettori v e w, |v| |w| |v| |w|
e si indica con vw, lunico numero reale [0, ] tale che cos =
s( v, w) . Si |v| |w|
ha allora vw =! /2 se, e solo se, cos vw = 0, cio s(v, w) = 0. E! allora naturale definire ortogonali due vettori v e w tali che s(v, w) = 0. Dalla ! (2.1) segue che il vettore nullo ortogonale ad ogni vettore. Per indicare che v e w ! ! sono ortogonali useremo il simbolo v w. Un sistema di vettori a due a due ortogonali si dice ortogonale. Proviamo che: Proposizione 2.2. Sia S = { v1, v2, , vt } un sistema ortogonale di vettori di V. (i) h1, h2, , ht R , il sistema S = { h1v1, h2v2,, htvt } ortogonale; (ii) se vi 0 per ogni i { 1, 2, ...., t }, il sistema S indipendente. Dimostrazione. (i) Siano i, j { 1, 2, ...., t }, con ij. Dalla bilinearit di s segue che s(hivi, hjvj) = hihj s(vi, vj) = 0. Il sistema S dunque ortogonale. (ii) Sia h1v1+ h2v2++ htvt = 0. Per ogni i {1, 2, ...., t}, s(h1v1+ h2v2++ htvt, vi) = s(0, vi) = 0. Per la (1.4) si ha allora che
h1 s(v1, vi) + .....+ hi s(vi, vi) +....+ ht s(vt, vi) = 0. Essendo il sistema S ortogonale, s(vi, vj) = 0 per ogni ij e dunque la precedente uguaglianza diventa hi s(vi, vi) = 0.
160
Ne segue hi = 0, essendo s(vi, vi) 0 in quanto per ipotesi vi 0. Si cos provato che hi = 0 per ogni i {1, 2, ..., t}; dunque S indipendente. Proposizione 2.3 (ortogonalizzazione di Gram-Schmidt). Sia W un sottospazio di V. Se W ha dimensione finita t > 0, esiste in W una base ortogonale. Dimostrazione. Sia B = {v1, v2, v3,, vt} una base di W. Utilizzando B, costruiremo una base ortogonale di W. Poniamo w1 = v1 ed osserviamo che, per ogni h R , il vettore v2 hw1 non nullo (in quanto v2 e v1 = w1 sono indipendenti) ed appartiene a W. Proviamo ora che esiste un valore di h per cui v2 hw1 ortogonale a w1. Poich s(v2 hw1, w1) = s(v2, w1) h s(w1 , w1) ed s(w1, w1) 0 (in quanto w1 = v1 non nullo), allora s(v2 hw1, w1) = 0 se, e solo se, h = s(v2, w1) / s(w1, w1). Il vettore w2 = v2
s(v 2 , w1 ) w1 s(w1, w1 )
dunque un vettore di W non nullo ed ortogonale a v1. Consideriamo ora il vettore v3 ed osserviamo che, per ogni h1, h2 R , il vettore ! v3 h1w1 h2w2 non nullo (in quanto v3 L(v1, v2) = L (w1, w2) ) ed appartiene a W. Poich s(v3 h1w1 h2w2, w1) = s(v3, w1) h1s(w1, w1) h2 s(w2, w1) = s(v3, w1) h1s(w1 , w1) ed s(w1, w1) 0, allora s(v3 h1w1 h2w2, w1) = 0 se, e solo se, h1 = s(v3, w1) / s(w1, w1). Analogamente, s(v3 h1w1 h2w2, w2) = 0 se, e solo se, h2 = s(v3, w2) / s(w2, w2). Ne segue che il vettore w3 = v3
s(v 3 , w1 ) s(v 3 , w2 ) w1 w2 s(w1, w1 ) s(w2 , w2 )
un vettore di W non nullo ed ortogonale sia a w1 che a w2. Cos continuando si riesce a determinare in W un sistema B = {w1, w2, w3,, wt} ! ! di t vettori non nulli a due a due ortogonali :
161
w1 = v1, w2 = v2
s(v 2 , w1 ) w1, s(w1, w1 ) s(v t , w1 ) s(v t , w2 ) s(v t , wt -1 ) w1 w2 . . . . wt-1. s(w1, w1 ) s(w2 , w2 ) s(wt -1, wt -1 )
. . . . . . . . . . . . . . . . . . . . . . . . . . . .. w !t = vt
Per la (ii) della Proposizione 2.2, B una base ortogonale di W. Lasserto cos provato. !
! !
Un sistema di vettori S = {v1, v2,, vt} di V detto ortonormale se costituito da versori a due a due ortogonali, cio se
Proposizione 2.4. Sia W un sottospazio di V. Se W ha dimensione finita t > 0, ! esiste in W una base ortonormale. Dimostrazione. Per la Proposizione 2.3 esiste in W una base ortogonale B = {w1, w2,, wt}. Dividendo ogni vettore di B per il suo modulo, si ottiene, per la (i) della Proposizione 2.2, una base ortonormale di W. ESEMPI 2.1. La base naturale di R
n
standard in R n. La base naturale di R n[x] una base ortonormale rispetto al prodotto scalare euclideo definito nellEsempio 1.4. Analogamente, la base naturale di R
n,n
nellEsempio 1.6.
162
2.2. Nello spazio vettoriale euclideo R 4 con il prodotto scalare standard, troviamo una base ortonormale del sottospazio (-2, 3, 1, 0)). Applicando il procedimento di Gram-Schmidt alla base v2 = (2, 0, 0, 2), v3 = (-2, 3, 1, 0)} di W, si ha : w1 = (1, 1, 0, 2); w2 = v2
s(v 2 , w1 ) w1 s(w1, w1 )
W =
= (2, 0, 0, 2)
(-2,3,1,0) (1,1,0,2) (-2,3,1,0) (1,-1,0,0) (1, 1, 0, 2) (1,-1, 0, 0) = (1,1,0,2) (1,1,0,2) (1,-1,0,0) (1,-1,0,0) ! ! (1/3, 1/3, 1, - 1/3).
(-2, 3, 1, 0)
La base B = {(1, 1, 0, 2), (1, -1, 0, 0), (1/3, 1/3, 1, - 1/3)} di W cos determinata ! ! ortogonale. Calcoliamo ora la lunghezza di ciascuno dei vettori di B. Si ha : |(1, 1, 0, 2)| =
! ! ! ! ! ! ! ! 3 2.3. Nello spazio vettoriale euclideo R con il prodotto scalare standard, troviamo
una base ortogonale contenente il vettore v = (2, 1, -3). Metodo 1. Si completa {v} in una base di R Gram-Schmidt. Metodo 2. Si determina un vettore w 0 ortogonale a v e successivamente un vettore z 0 ortogonale sia a v che a w : 163
3
Un vettore (x, y, z) ortogonale a v se, e solo se, (x, y, z) (2, 1, -3) = 2x + y 3z = 0. Scegliamo w = (1, -2, 0). Un vettore (x, y, z) ortogonale sia a v che a w se, e solo se, (x, y, z) (2, 1, -3) = 2x + y 3z = 0 e (x, y, z) (1, -2, 0) = x 2y = 0 cio se, e solo se, esso
! 2.4. Nello spazio vettoriale euclideo (R 3, s), con s definito ponendo s((x, y, z),
(x, y, z)) = xx+ 2yy+ 4zz+ 2yz+ 2zy, determiniamo una base ortonormale del sottospazio W = { (x, y, z) R 3 : x y + z = 0 }. Poich W ha dimensione 2, basta trovare in W due versori ortogonali. Scegliamo in W un vettore non nullo, ad esempio w = (1, 1, 0). Determiniamo ora in W un vettore z 0 ortogonale a w. Un vettore (x, y, z) appartiene a W se, e solo se, x y + z = 0 ed ortogonale a w se, e solo se, s((x, y, z), (1, 1, 0)) = x + 2y + 2z = 0; ne segue che i vettori di W ortogonali a w sono tutte e sole le soluzioni del
"x - y + z = 0 sistema # . $ x + 2y + 2z = 0
Scelto z = (4, 1, -3), otteniamo la base ortogonale {(1, 1, 0), (4, 1, -3)} di W. Poich |(1, 1, 0)| = s((1, 1, 0), (1, 1, 0))
s((4,1,-3), (4,1,-3)) =
! ! ! ! ! ! 2.5. Nello spazio vettoriale euclideo (R 2[x], s), dove s definito ponendo
s(ax2+bx+c, ax2+bx+c) = aa+bb+cc (cfr. Esempio 1.4), si determini una base ortogonale contenente il vettore p1(x) = 1+x. Poich dim(R 2[x]) = 3, basta
determinare due vettori non nulli p2(x) e p3(x) ortogonali tra loro ed entrambi 164
ortogonali a p1(x). Un vettore a+bx+cx2 ortogonale a p1(x) se, e solo se, s(a+bx+cx2, 1+x) = a+b = 0. Scegliamo p2(x) = 1-x. Poich un vettore a+bx+cx2 ortogonale a p1(x) se, e solo se, a+b = 0 ed ortogonale a p2(x) se, e solo se, s(a+bx+cx2, 1-x) = a-b = 0, allora un vettore a+bx+cx2 ortogonale ad entrambi i
"a + b = 0 vettori p1(x) e p2(x) se, e solo se, (a, b, c) soluzione del sistema # . $a - b = 0
Scelto p3(x) = x2, otteniamo la base ortogonale {1+x, 1-x, x2}.
165
3. RIFERIMENTI ORTONORMALI E MATRICI ORTOGONALI Sia (Vn, s) uno spazio vettoriale euclideo di dimensione n > 0. Considerato un riferimento R = ( e1, e2, . .., en), la matrice simmetrica di ordine n
"s(e1, e1 ) s(e1, e 2 ) . . . s(e1, e n ) % $ ' s(e 2 , e1 ) s(e 2 , e 2 ) . . . s(e 2 , e n ) ' $ G = (s(ei, ej) ) = $. . . . . . ' $ ' #s(e n , e1 ) s(e n , e 2 ) . . . s(e n , e n )&
detta matrice di Gram associata ad s nel riferimento R. ! ESEMPI 3.1. Determiniamo la matrice di Gram associata, nel riferimento naturale di
!
166
Siano v, w Vn. Dette (x1, x2, . . . , xn) e ( y1, y2, . . .,yn) le n-uple delle componenti di v e w in R, si ha s(v, w) = s(x1e1+ x2e2++ xnen, y1e1+ y2e2++ ynen) = (per la bilinearit di s) x1 y1 s(e1, e1) + x1y2 s(e1, e2) +.....+ x1yn s(e1, en) + x2y1 s(e2, e1) + ......+ xnyn s(en, en). E dunque
n
(3.1)
s(v, w) =
"x y
i i, j = 1
s(e i , e j ) = Xt G Y,
" x1 % " y1 % $ ' $ ' $ x2 ' $ y2 ' ! essendo X = $ . ' e Y = $ . ' . $ ' $ ' . ' . $ $ $ ' $ ' ' # xn & # yn &
Per la Proposizione 2.4 esistono in Vn riferimenti ortonormali. In questo paragrafo vedremo lutilit di tali riferimenti. ! ! Proposizione 3.1. Sia R = (e1, e2, ..., en ) un riferimento ortonormale di Vn. Si ha : (i) per ogni vettore v di Vn, le componenti di v in R sono i numeri reali s(v, e1), s(v, e2), ..., s(v, en) (detti coefficienti di Fourier di v in R); (ii) per ogni v, w Vn, s(v, w) coincide con il prodotto scalare standard delle n-uple delle loro componenti in R. Dimostrazione. (i) Sia v = x1e1+ x2e2++ xnen. Per ogni i = 1, 2, ..., n, s(v, ei) = s(x1e1+ x2e2++ xnen, ei) = x1 s(e1, ei) + .... + xi s(ei, ei) +.....+ xn s(en, ei) = xi (essendo R ortonormale). (ii) Siano v = x1e1+ x2e2++ xnen e w = y1e1+ y2e2++ ynen. Per la (3.1) s(v, w) =
n
n
i j
"x y
i, j = 1
"x y
i i=1
167
La (ii) si poteva anche provare osservando che, essendo R ortonormale, la matrice di Gram associata ad s in R coincide con la matrice identica In e dunque, per la (3.1), s(v, w) = Xt Y. Introduciamo ora le matrici ortogonali, strettamente legate ai riferimenti ortonormali. Una matrice quadrata A detta ortogonale se invertibile e la sua inversa coincide con la sua trasposta. Proposizione 3.2. Sia A una matrice quadrata reale di ordine n. Le seguenti affermazioni sono equivalenti : (i) A ortogonale; (ii) A At = In ; (iii) At A = In ; (iv) le righe di A costituiscono una base ortonormale di R n con il prodotto scalare standard; (v) le colonne di A costituiscono una base ortonormale di R scalare standard. Dimostrazione. Dalla (i) segue la (ii) per definizione di matrice ortogonale. Per la Proposizione 4.2 del Cap. III, dalla (ii) segue che A invertibile ed A-1 = At, cio la (i). La (i) e la (ii) sono dunque equivalenti. In modo analogo si prova lequivalenza delle (i) e (iii). Proviamo ora che (ii) e (iv) sono equivalenti. Poich le colonne di At coincidono con le righe di A, lelemento di posto (i, j) di A At ai aj. Luguaglianza A At = In equivale dunque a dire che ai aj = 1 se i = j ed ai aj = 0 se i j, cio la (iv). In modo analogo si prova lequivalenza delle (iii) e (v). Lasserto cos completamente provato. 168
n
con il prodotto
ESEMPI 3.3. Per ogni intero positivo n, la matrice identica In una matrice ortogonale.
" $ B = $ $ $ # 2% ' 2 ' 2' ' 2 &
2 2 2 2
!
!
Proposizione 3.3. La matrice di passaggio tra due riferimenti ortonormali ortogonale. Dimostrazione. Siano R = ( e1, e2, . .., en) ed R = ( e1, e2, . .., en) due riferimenti
Ricordiamo che, per ogni i = 1,...,n, la colonna bi = (b1i, b2i, ..., bni) la n-upla delle componenti di ei nel riferimento R. Per ogni i, j = 1, ..., n, bi bj = (per la (ii) della ! #1 , se i = j Proposizione 3.1 applicata ad R) s(ei, ej) = (essendo R ortonormale) $ . %0 , se i " j Per la (v) della Proposizione 3.2, la matrice B ortogonale.
169
4. COMPLEMENTO ORTOGONALE Sia (V, s) uno spazio vettoriale euclideo. Per ogni sottoinsieme non vuoto X di V, poniamo X " = { v V : v w , w X }. Il sottoinsieme X " detto complemento ortogonale di X.
! Proviamo che !
Proposizione 4.1. (i) Per ogni sottoinsieme non vuoto X di V, X " un sottospazio; (ii) se W un sottospazio, W W " = { 0 };
" (iii) se W un sottospazio ed {e1, e2, ..., e! t } una sua base, W =
"
Dimostrazione. (i) Cominciamo con losservare che X " non vuoto ! in quanto ad esso appartiene almeno il vettore nullo. Siano u, v X " . Poich, per ogni w X, ! s(u+v, w) = s(u, w) + s(v, w) = 0, allora u+ v ortogonale a w e dunque appartiene ! ad X " . Sia ora h R e v X " . Poich, per !ogni w X, s(hv, w) = h s(v, w) = 0, allora il vettore hv X " . Abbiamo cos provato che X " un sottospazio.
!
(ii) Sia v W W " . Poich v W " , v ortogonale ad ogni vettore di W e dunque ! anche a se stesso. Essendo s definito positivo, ! ! da s(v, v) = 0 segue che v = 0.
" W (iii) Evidentemente, ! ! { e1, e2, ..., et } . Sia ora v { e1, e2, ..., et } e
"
"
w W. Essendo {e1, e2, ..., et } una base di W, risulta w = h1e1 + h2e2 + ... + htet per opportuni . Poich s(v, w) = s(v, h1e1 + h2e2 + ... + htet) = ! scalari h1, h2, ... , ht! ! h1 s(v, e1) + h2 (v, e2) + ... + ht s(v, et) = 0, allora v ortogonale a w. Si ha cos che v W " e quindi { e1, e2, ..., et } W " . Dalla doppia inclusione segue lasserto.
"
170
Proposizione 4.2. Sia (Vn , s) uno spazio vettoriale euclideo di dimensione n e sia W un suo sottospazio. Il sottospazio W e il suo complemento ortogonale sono supplementari, cio Vn = W W " . Dimostrazione. Lasserto ovvio se W = { 0 } o W = Vn. Sia ora W non banale e sia t la sua dimensione. ! Per la Proposizione 2.3, esiste in W una base ortogonale BW = {e1, e2, ..., et }. Completiamo BW in una base ortogonale B = {e1, e2, ..., et , et+1, ..., en} di Vn (cfr. Proposizione 6.6 del Cap. II e la dimostrazione della Proposizione 2.3). Proviamo che {et+1, ..., en} una base di W " . Cominciamo ad osservare che ciascuno dei vettori et+1, ..., en ortogonale a tutti i vettori e1, e2, ..., et e quindi, per
" " la (iii) della Proposizione 4.1, appartiene ! a W . Sia ora v W . Essendo v in Vn,
v = h1e1 + ... + htet + ht+1et+1+ ... + hnen per opportuni scalari h1, h2, ... , hn. Consideriamo il prodotto scalare di v per e1. Si ha che 0 = s(v, e1) = ! ! s(h1e1 + ...+ htet + ht+1et+1+ ... + hnen, e1) = h1 s(e1, e1) + ... + ht s(et, e1) + ht+1 s(et+1, e1) +. ... + hn s(en, e1) = (essendo B ortogonale) h1 s(e1, e1). Ne segue h1 = 0, essendo s(e1, e1) 0. Analogamente si prova che anche gli scalari h2, ..., ht sono uguali a 0 e quindi il vettore v risulta combinazione lineare di et+1, ..., en . Il sistema {et+1, ..., en} dunque un sistema di generatori di W " ; poich ovviamente costituito da vettori indipendenti, esso una sua base. Essendo B una base di Vn, allora W + W " = Vn ; dalla (ii) della Proposizione !4.1 segue lasserto. Osserviamo esplicitamente che dalla Proposizione 4.2 segue che dim W " ! = n dim W.
!
171
ESEMPI 4.1. Nello spazio vettoriale euclideo costituito da R standard, determiniamo il complemento
3
ortogonale
W = L ((2, -1, 0), (0, 0, 1)). Si ha : W " = {(x, y, z) R 3 : (x, y, z ) (2, -1, 0) = 0 = (x, y, z ) (0, 0, 1)} = {(x, y, z) R 3 : 2x y = 0 = z} = {(x, 2x, 0), x R } = L((1, 2, 0)).
!
4.2. Nello spazio vettoriale euclideo (R 3, s), con s definito ponendo s((x, y, z), (x, y, z)) = xx+ 2yy+ 4zz+ 2yz+ 2zy (cfr. Esempio 2.4), determiniamo il complemento ortogonale del sottospazio W = L (1, 2, -1)).
W " = {(x, y, z) R 3 : s((x, y, z), (1, 2, -1)) = x + 4y 4z 2y + 4z = 0} =
172
5.
ORTOGONALE Sia (Vn, s) uno spazio vettoriale euclideo di dimensione n > 0. Un endomorfismo f di Vn si dice ortogonalmente diagonalizzabile se esiste un riferimento ortonormale R tale che la matrice associata ad f in R diagonale, cio se esiste un riferimento ortonormale formato da autovettori di f. In questo paragrafo caratterizzeremo tali endomorfismi. A tale scopo introduciamo gli endomorfismi simmetrici. Un endomorfismo f di Vn si dice simmetrico se (5.1) v, w V, s(v, f(w)) = s(f(v), w).
Proposizione 5.1. Sia f un endomorfismo di Vn . (i) Se f simmetrico ed R un riferimento ortonormale di Vn, la matrice MR(f) associata ad f in R simmetrica; (ii) se esiste un riferimento ortonormale R di Vn tale che la matrice MR(f) associata ad f in R simmetrica, f simmetrico. Dimostrazione. (i) Sia R = (e1, e2, ..., en). Poniamo MR(f) = A = (aij). Ricordiamo (cfr. Cap. IV, Par. 4) che, per ogni i, j = 1, ..., n, aij la componente di posto i di f(ej) nel riferimento R. Poich R ortonormale, dalla (i) della Proposizione 3.1 segue che aij = s(f(ej), ei). Per la simmetria di f, allora aij = s(f(ej), ei) = s(ej, f(ei)) = aji e quindi A simmetrica. (ii) Sia R = (e1, e2, ..., en ). Poniamo MR(f) = A = (aij). Se v e w sono due vettori e X ed Y sono rispettivamente i vettori colonna delle loro componenti in R, allora AX e AY sono rispettivamente i vettori colonna delle componenti in R di f(v) ed f(w) ( cfr. Cap.IV, Proposizione 4.2). Per la (ii) della Proposizione 3.1, si ha s(v, f(w)) =
173
Xt (AY) = (Xt A)Y = (essendo A simmetrica) (XtAt)Y = (AX)t Y = s(f(v), w) e quindi f simmetrico. Si prova che : Proposizione 5.2. Se f un endomorfismo simmetrico di Vn, il suo polinomio caratteristico ammette n radici reali. Proposizione 5.3. Un endomorfismo f di Vn ortogonalmente diagonalizzabile se, e solo se, simmetrico. Dimostrazione. Sia f ortogonalmente diagonalizzabile e sia R un riferimento ortonormale tale che la matrice associata ad f in R una matrice diagonale. Poich una matrice diagonale anche simmetrica, dalla (ii) della Proposizione 5.1 segue che f simmetrico. Viceversa, sia f simmetrico. Per provare che esiste in Vn un riferimento ortonormale formato da autovettori di f, ragioneremo per induzione sulla dimensione n di Vn. Cominciamo a provare lasserto per n = 1. Sia v 0 un vettore di V1. Poich {v} una base di V1 ed f(v) V1, allora f(v) = hv per un opportuno h R ; ne segue che v un autovettore di f e dunque ortonormale di autovettori di V1. Supponiamo ora vero lasserto per la dimensione n1 (n 2) e lo proviamo per la ! dimensione n. Sia dunque f un endomorfismo simmetrico di Vn e sia h un suo autovalore, che esiste per la Proposizione 5.2. Detto w un autovettore di autovalore h, sia W = L(w). Proviamo ora che f ( W " ) W " . Sia v W " . Poich s(w, f(v)) = (essendo f simmetrico) s(f(w), v) = s(hw, v) = hs(w, v) = 0, allora f(v) ortogonale
W " per a w e dunque appartiene a ! Proposizione 4.1. Lapplicazione, !la (ii) della! 174 !
che qui indichiamo con fW " , che a v W " associa f(v) W " ovviamente lineare e dunque un endomorfismo di W " . Poich evidentemente fW " anche
! lipotesi di induzione ! simmetrico, possiamo applicare al sottospazio W " che, per la !
Proposizione 4.2 , ha dimensione n1. Esiste dunque un riferimento ortonormale ! ! " (e1, e2, ..., en-1) di W formato da autovettori di fW " . Poich ogni autovettore di ! fW " ovviamente anche autovettore di f, allora, per la Proposizione 4.2, (
!
!
Lasserto cos completamente provato. La proposizione precedente ci assicura che un endomorfismo simmetrico f di Vn ortogonalmente diagonalizzabile. Allo scopo di determinare un riferimento ortonormale di autovettori di f, cominciamo a provare la seguente Proposizione 5.4. Sia f un endomorfismo simmetrico di Vn. Se v e w sono autovettori relativi a due autovalori distinti h e k, allora v e w sono ortogonali. Dimostrazione. Poich s(v, f(w)) = s(v, kw) = k s(v, w) ed s(f(v), w) = s(hv, w) = h s(v, w), dalla simmetria di f segue che k s(v, w) = h s(v, w) , da cui (k h) s(v, w) = 0. Essendo h k, risulta allora s(v, w) = 0, cio v e w sono ortogonali. Diamo ora un metodo per determinare una base ortonormale formata da autovettori di un endomorfismo simmetrico f di Vn: Indichiamo con h1, h2, ..., ht gli autovalori distinti di f e con V(h1), V(h2), ..., V(ht) i relativi autospazi. Per la Proposizione 2.3, possibile determinare in ciascun autospazio V(hi) una base ortonormale Bi. Per la Proposizione 2.11 del Cap. V, 175
B1 B2 ... Bt una base di Vn formata da autovettori; tale base ortonormale per la Proposizione 5.4. ESEMPI 5.1. Sia f lendomorfismo dello spazio vettoriale euclideo R 2 (con il prodotto scalare standard) definito ponendo f(x, y) = (x+2y, 2x+4y). (a) Verifichiamo che f simmetrico; (b) determiniamo una base ortonormale di R 2 formata da autovettori di f. (a) Metodo 1. Siano (x, y), (x, y) R 2. Si ha : (x, y) f(x, y) = (x, y) (x+2y, 2x+4y) = x(x+2y) + y(2x+4y) = x(x+2y) + y(2x+4y) = f(x, y) (x, y), e dunque f simmetrico. Metodo 2. Poich il riferimento naturale di R
2
scalare standard, per la (ii) della Proposizione 5.1 basta verificare che la matrice A associata ad f in tale riferimento simmetrica. ovviamente simmetrica. (b) Il polinomio caratteristico di f p(t) = t2 5t , le cui radici sono 0 e 5. Una ! base ortonormale dellautospazio V(0) {(-2/ 5 , 1/ 5 )} e una base ortonormale dellautospazio V(5) {(1/ 5 , 2/ 5 )}. Ne segue che {(-2/ 5 , 1/ 5 ), Si ha
! ! ! 5.2. Sia f lendomorfismo dello spazio vettoriale euclideo R ! scalare standard) definito ponendo f(x, y, z) = (3x+z, 2y, x+3z).
(a) Verifichiamo che f simmetrico;
! (con il prodotto
" 3 0 1% $ ' (a) La matrice associata ad f nel riferimento naturale $0 2 0' ; essendo tale $ ' #1 0 3 &
matrice simmetrica, f simmetrico. (b) Il polinomio caratteristico di f p(t) = (2 t) (t2 6t + 8), le cui radici sono 2, ! con molteplicit algebrica 2, e 4 con molteplicit algebrica 1. Una base ortonormale di V(2) {(0, 1, 0), (1/ 2 , 0, -1/ 2 )} e una base ortonormale di V(4) {(1/ 2 , 0, 1/ 2 )}. Ne segue che {(0, 1, 0), (1/ 2 , 0, -1/ 2 ), (1/ 2 , 0, 1/ 2 )}
3 una base ortonormale da autovettori di f. ! di R formata !
6. DIAGONALIZZAZIONE ORTOGONALE DI UNA MATRICE REALE SIMMETRICA Una matrice quadrata A di ordine n sul campo reale R detta
ortogonalmente diagonalizzabile se esiste una matrice ortogonale P tale che PtAP (= P-1AP) una matrice diagonale. Una matrice A ortogonalmente diagonalizzabile dunque una matrice diagonalizzabile mediante una matrice ortogonale P (matrice che diagonalizza A). Cos come nel Paragrafo 3 del Cap. V, una matrice quadrata reale A di ordine n sar vista come matrice associata nel riferimento naturale R di R endomorfismo FA : X R
n n
all
AX R n; inoltre si penser R
dotato del
prodotto scalare standard. Proposizione 6.1. Una matrice simmetrica reale ortogonalmente
diagonalizzabile. 177
Dimostrazione. Sia A una matrice simmetrica reale di ordine n. Poich A la matrice associata allendomorfismo FA nel riferimento naturale R e tale riferimento ortonormale, dalla (ii) della Proposizione 5.1 segue che FA un endomorfismo simmetrico. Per la Proposizione 5.3, esiste un riferimento ortonormale R di R
n
formato da autovettori di FA. Diciamo D la matrice (diagonale) associata ad FA in R. Per la Proposizione 4.5 del Cap. IV, D = P-1AP, dove P la matrice di passaggio da R a R. Poich, per la Proposizione 3.3, P una matrice ortogonale, allora D = P-1AP = PtAP e lasserto provato. Si prova che il risultato espresso dalla Proposizione 6.1 si pu invertire. Vale pertanto la seguente Proposizione 6.2. Una matrice quadrata sul campo reale ortogonalmente diagonalizzabile se, e solo se, essa simmetrica. ESEMPI
"5 3 % 6.1. Assegnata la matrice simmetrica reale A = $ ' , determiniamo una matrice # 3 5&
diagonale simile ad A e una matrice ortogonale che diagonalizzi A. Il polinomio caratteristico di A p(t) = t2 10t + 16, le cui radici sono 2 ed 8, ! entrambe con molteplicit algebrica 1. Una base ortonormale di V(2) {(1/ 2 , 1/ 2 )} e una base ortonormale di V(8) {(1/ 2 , 1/ 2 )}. Ne segue che {(1/ 2 , 1/ 2 ), (1/ 2 , 1/ 2 )} una base ortonormale di R
2
formata da
1 2 1 2
178
!
{(0, 1/ 2 ,
formata da autovettori di A e
! ! quindi la matrice
" $1 $ P = $0 $ $ $0 #
0 1 2 1 2
179
1. GENERALITA SULLE CURVE ALGEBRICHE PIANE Nel presente capitolo studieremo alcuni luoghi geometrici notevoli di un piano in cui supporremo fissata una unit di misura u per le lunghezze. Si definisce curva algebrica di ordine n del piano l insieme dei punti di rappresentato in un riferimento da unequazione algebrica di grado n, cio da unequazione f(x, y) = 0, dove f(x, y) un polinomio di grado n nelle indeterminate x e y a coefficienti reali. La definizione ben posta in quanto dalle formule di trasformazione delle coordinate di un punto nel passaggio da un riferimento ad un altro (cfr. Cap. VI, Par.5 ) si deduce che lo stesso insieme di punti rappresentato in ogni altro riferimento ancora da unequazione algebrica di grado n. Le rette sono curve algebriche di ordine 1. Le curve algebriche di ordine 2 sono dette coniche. ESEMPI DI CONICHE 1.1. Una circonferenza (cfr. Cap. VI, Par. 12). 1.2. Lunione di due rette (distinte o coincidenti). Siano infatti r ed r due rette rappresentate in un riferimento rispettivamente dalle equazioni ax + by + c = 0 e ax + by + c = 0. Detto P(x0, y0) un punto del piano, si ha :
180
P(x0, y0) r r P(x0, y0) r oppure P(x0, y0) r ax0 + by0 + c = 0 oppure ax0 + by0 + c = 0 (ax0 + by0 + c) (ax0 + by0 + c) = 0. Lequazione (ax + by + c) (ax + by + c) = 0, che algebrica di secondo grado, rappresenta dunque linsieme r r. 1.3. Un punto. Sia infatti A e siano x0 ed y0 le coordinate di A in un riferimento R. Lequazione (x x0)2 + (y y0)2 = 0 algebrica di secondo grado ed A lunico punto le cui coordinate in R costituiscono una soluzione di tale equazione. 1.4. Il vuoto. Esso infatti rappresentato da ogni equazione algebrica di secondo grado a coefficienti reali che non abbia soluzioni (reali), ad esempio x2 + y2 + 1 = 0 oppure x2 + y2 + 2xy + 1 = 0. Nel seguito troveremo altri esempi di coniche. Prima di concludere questo paragrafo, introduciamo la nozione di simmetria (rispetto ad un punto e rispetto ad una retta) che sar utile per studiare alcune propriet della coniche. Sia C un punto del piano. Si dice simmetrico del punto P rispetto a C il punto P tale che C punto medio del segmento PP. Si dice che C centro di simmetria per un insieme X di punti del piano (oppure che X simmetrico rispetto a C) se, per ogni P in X, il simmetrico di P rispetto a C appartiene ancora ad X. ESEMPI 1.5. Il centro di una circonferenza centro di simmetria per essa. 1.6. Ogni punto di una retta centro di simmetria per la retta stessa. 181
Sia a una retta. Si dice simmetrico del punto P rispetto ad a il punto P tale che H punto medio del segmento PP, dove H il punto di intersezione di a con la retta per P ortogonale ad a. Si dice che a asse di simmetria (ortogonale) per un insieme X di punti del piano (oppure che X simmetrico rispetto ad a) se, per ogni P in X, il simmetrico di P rispetto ad a appartiene ancora ad X. ESEMPI 1.7. Ogni retta passante per il centro di una circonferenza asse di simmetria per la circonferenza stessa. 1.8. Siano r ed s due rette ortogonali. Ciascuna di esse asse di simmetria per laltra. Osserviamo che, fissato un riferimento R, il simmetrico del punto P(x, y) rispetto allorigine il punto P(-x, -y), il simmetrico di P rispetto allasse x il punto P(x, -y) e il simmetrico di P rispetto allasse y il punto P(-x, y). Ne segue che, se un insieme X simmetrico sia rispetto allasse x che rispetto allasse y, allora X simmetrico rispetto allorigine. 2. ELLISSE, IPERBOLE E PARABOLA - Ellisse Siano F ed F due punti. Indicata con 2c la loro distanza, fissiamo un numero reale a > c. Si definisce ellisse di fuochi F ed F e semiasse maggiore a il luogo E dei punti P del piano tali che d(P, F) + d(P, F) = 2a. Se F = F, E la circonferenza di centro F e raggio a. Dora in poi supporremo F F. Fissiamo il riferimento R = (O, Rv = (ex, ey)), dove O il punto medio del segmento FF, ex 182
il versore parallelo e concorde al vettore libero FF ed ey un versore ortogonale ad ex. In tale riferimento le coordinate di F ed F sono rispettivamente (-c, 0) e (c, 0). Detto P(x, y) il generico punto del piano, si ha : P(x, y) E d(P, F) + d(P, F) = 2a
(x + c) 2 + y 2 + (x - c) 2 + y 2 = 2a
nelle indeterminate x e y rappresenta dunque lellisse E nel riferimento fissato. Dalla (2.1) ! si deduce che sia la retta che congiunge i fuochi, sia lasse del segmento FF sono assi di simmetria per E; ne segue che il punto medio di FF centro di simmetria per E. Per studiare landamento di E (cfr. fig. 1) basta allora esaminare la parte di E contenuta nel primo quadrante, rappresentata dalla funzione
y =
b 2 a - x 2 con 0 x a. a
Figura 1 183
Il riferimento R e ciascuno dei riferimenti ottenuti da esso cambiando il verso ad uno o ad entrambi gli assi (riferimenti in cui lellisse E rappresentata ancora dallequazione (2.1)) detto riferimento canonico per lellisse. Analogamente, sono detti riferimenti canonici i quattro riferimenti ottenuti dai precedenti scambiando lasse x con lasse y, riferimenti in cui lequazione di E diventa (2.2) Ogni equazione che
x2 y2 + 2 = 1. b2 a
equazione canonica dellellisse. ! - Iperbole Siano ora F ed F due punti distinti. Indicata con 2c la loro distanza, fissiamo un numero reale a, con 0 < a < c. Si definisce iperbole di fuochi F ed F e semiasse focale a il luogo I dei punti P del piano tali che | d(P, F) d(P, F) | = 2a. Fissiamo il riferimento R = (O, Rv = (ex, ey)), dove O il punto medio del segmento FF, ex il versore parallelo e concorde al vettore libero FF ed ey un versore ortogonale ad ex. In tale riferimento le coordinate di F ed F sono rispettivamente (-c, 0) e (c, 0). Detto P(x, y) il generico punto del piano, si ha : P(x, y) I | d(P, F) d(P, F) | = 2a | (x + c) 2 + y 2 2a (razionalizzando) (c2 a2)x2 a2y2 = a2(c2 a2)
(x - c) 2 + y 2 | =
(ponendo
Lequazione
184
(2.3)
x2 y2 - 2 = 1 a2 b
nelle indeterminate x e y rappresenta dunque liperbole I nel riferimento fissato. Dalla (2.3) si deduce che sia la retta che congiunge i fuochi, sia lasse del ! segmento FF sono assi di simmetria per I; ne segue che il punto medio di FF centro di simmetria per I. Per studiare landamento di I (cfr. fig. 2) basta allora prendere in esame la parte di I contenuta nel primo quadrante, rappresentata dalla funzione
y =
b b x e y = x ). a a
Figura 2 Il riferimento R e ciascuno dei riferimenti ottenuti da esso cambiando il verso ad uno o ad entrambi gli assi (riferimenti in cui liperbole I rappresentata ancora dallequazione (2.3)) detto riferimento canonico per liperbole. 185
Analogamente, sono detti riferimenti canonici i quattro riferimenti ottenuti dai precedenti scambiando lasse x con lasse y, riferimenti in cui lequazione di I diventa (2.4)
" x2 y2 + = 1. b2 a2
Ogni equazione che rappresenta I in un riferimento canonico detta ! equazione canonica delliperbole. -Parabola Siano d una retta ed F un punto non appartenente a d. Si definisce
parabola di fuoco F e direttice d il luogo P dei punti P del piano tali che d(P, F) = d (P, d ). Indichiamo con p la distanza di F da d. Detto H il punto di intersezione con d della retta per F ortogonale a d, fissiamo il riferimento R = (O, Rv = (ex, ey)), dove O il punto medio del segmento HF, ex il versore parallelo e concorde al vettore libero HF ed ey un versore ortogonale ad ex. In tale
p riferimento le coordinate di F sono ( , 0) e d rappresentata dallequazione 2 p . Detto P(x, y) il generico punto del piano, si ha : 2 ! p P(x, y) P d(P, F) = d(P, d ) (x - ) 2 + y 2 = 2
x=-
x+
p 2
186
nelle indeterminate x e y rappresenta dunque la parabola P nel riferimento fissato. Dalla (2.5) si deduce che la retta per F ortogonale a d asse di simmetria per P e che per studiare landamento di P (cfr. fig. 3) basta considerare la parte di P contenuta nel primo quadrante, rappresentata dalla funzione x 0.
! y = 2px , con
d
Figura 3 Il riferimento R e ciascuno dei riferimenti da esso ottenuti cambiando il verso ad uno o ad entrambi gli assi detto riferimento canonico per la parabola. Analogamente, sono detti riferimenti canonici quelli ottenuti dai precedenti scambiando lasse x con lasse y.
187
Ogni equazione che rappresenta P in un riferimento canonico detta equazione canonica della parabola. Poich ellisse, iperbole e parabola sono rappresentate da equazioni algebriche di secondo grado a coefficienti reali, esse sono coniche.
188
3. STUDIO DI UNA CONICA Come abbiamo visto nei paragrafi 1 e 2, esistono vari tipi di coniche : linsieme vuoto, un punto, lunione di due rette (distinte o coincidenti), la circonferenza, lellisse, liperbole e la parabola. Lo scopo del presente paragrafo quello di mostrare che ogni conica necessariamente di uno di questi tipi.
Sia C una conica. Fissato un riferimento R = (O, Rv = (ex, ey)), sia (3.1) ax2 + by2 + cxy + dx + ey + g = 0 unequazione che rappresenta C in R. Ogni equazione proporzionale alla (3.1) mediante un coefficiente h 0 rappresenta ovviamente la stessa conica. Posto a11 = a, a12 = a21 = lequazione (3.1) diventa a11x2 + a22y2 + 2a12xy + 2a13x + 2a23y + a33 = 0. ! ! ! La matrice A = (aij), 1 i, j 3, detta matrice di C in R (associata allequazione (3.2) (3.2)). Vediamo ora due forme matriciali in cui si pu scrivere lequazione di una conica, ciascuna delle quali ci sar utile per studiare alcune propriet della conica stessa.
Forma 1. (3.3)
" x% $ ' Ponendo X1 = $ y' , lequazione (3.2) si scrive cos : $ ' #1 &
X1t A X1 = 0.
!
189
" x = b11x' + b12 y' + c1 Sia ora R un altro riferimento e siano # le formule di $ y = b 21x' + b 22 y' + c 2
passaggio da R a R che, in forma matriciale, diventano (3.4) X = B X + C, ! " x'% "c1 % X = $ ' e C = $ ' . Osserviamo che, per la # y'& #c 2 &
" x'% $ ' Proposizione 3.3 del Cap. VII, la matrice B ortogonale. Ponendo X'1 = $ y'' e $ ' ! ! ! ! #1 & "b11 b12 c1 % $ ' B1 = $b 21 b 22 c 2 ' , la (3.4) equivalente a $ ' #0 0 1 &
(3.5) X1 = B1 X'1 .
!
t Applicando la (3.5), la (3.3) diventa (B1 X'1 )t A B1 X'1 = ( X'1 )t (B 1 A B1) X'1 = 0 ! t t t e dunque la matrice A di C in R B 1 A B1. Poich |B 1 A B1| = |B 1 | |A| | B1| =
| B1|2 |A| , ne segue, essendo | B1| = | B| e | B|2 = 1 (essendo B ortogonale), che ! ! ! ! ! (3.6) | A| = | A| . ! ! ! Forma 2.
"a11 a12 % " x% Ponendo M = $ ' , N = ( 2a13 2a23) e X = $ ' , lequazione #a 21 a 22 & # y&
(3.2) si scrive cos : (3.7) Xt M X + N X + a33 = 0. ! ! Osserviamo che la somma dei termini di secondo grado nella (3.2), cio
a11x2 + a22y2 + 2a12xy, uguale a Xt M X e che |M| = A33, complemento algebrico dellelemento a33 della matrice A.
190
Sia ora R un altro riferimento e siano le (3.4) le formule di passaggio da R a R. Applicando tali formule, la (3.7) diventa (B X + C)t M (B X + C) + N (B X + C) + a33 = 0. In tale equazione, che rappresenta C in R, la somma dei termini di secondo grado (X)t (Bt M B ) X. Ne segue che (3.8) A33 = | Bt M B | = | B |2 A33 = A33 . Si dimostra inoltre che, se A33 > 0 e a11|A| 0, allora anche a11|A| diverso da 0 ed concorde con a11|A|. Vogliamo ora determinare un opportuno riferimento (riferimento canonico) in cui lequazione della conica diventa particolarmente semplice (equazione canonica). Per far questo fissiamo lattenzione sullequazione della conica nella forma (3.7). Poich la matrice M una matrice simmetrica reale, esiste una matrice ortogonale P tale che Pt M P una matrice diagonale D avente sulla diagonale principale gli autovalori di M (cfr. Cap. VII, Par. 6). Osserviamo subito che, poich M non la matrice nulla, i suoi autovalori non possono essere entrambi uguali a zero (infatti in tal caso D sarebbe la matrice nulla e da Pt M P = P-1 M P = D =
(ex, ey)) avente la stessa origine di R e in cui i versori ex ed ey sono i vettori ! liberi le cui componenti in Rv sono le colonne della matrice P. Evidentemente, X = P X sono le formule di passaggio da R ad R. Nel riferimento R, lequazione della conica diventa (X)t D X + (NP) X + a33 = 0. Detti h1 e h2 gli autovalori di M, tale equazione si scrive : (3. 9) h1x2 + h2y2 + n1x + n2y + a33 = 0, 191 dove n1x + n2y = (NP) X.
Distinguiamo due casi. 1 caso : h1 e h2 entrambi diversi da 0. Effettuiamo ora un nuovo cambio di riferimento; precisamente, per ogni scelta di , R , scegliamo il riferimento R = (O, Rv = (ex, ey)) dove O il punto di
$ x' = x"+ " coordinate (, ) in R. Le formule di passaggio da R ad R sono % . & y' = y"+ #
Applicando tali formule alla (3.9), lequazione della conica in R diventa: h1x2 + h2y2 + (2h1 +n1)x + (2h2 + n2)y + h12 + h22 + n1 + n2 + a33 = 0. ! Poich h1 e h2 sono entrambi diversi da 0, possibile scegliere e in modo tale che nellequazione precedente i coefficienti di x e y siano entrambi uguali a 0 (basta porre = conica diventa (3.10)
! ! avendo indicato con p il termine noto. Esaminiamo ora le varie possibilit che n1 n e = - 2 ). Con questa scelta di e , lequazione della 2h1 2h 2
h1x2 + h2y2 + p = 0,
possono presentarsi per i coefficienti della (3.10). (i) h1e h2 concordi e p = 0 (|A| = 0 e A33 > 0). Poich (0, 0) lunica soluzione della (3.10), allora C coincide con lorigine del riferimento. (ii) h1e h2 discordi e p = 0 (|A| = 0 e A33 < 0). Poich il polinomio a primo membro della (3.10) si scompone nel prodotto di due fattori di primo grado (a coefficienti reali), allora C lunione di due rette (non parallele) (cfr. Esempio 1.2). (iii) h1, h2 e p concordi (|A| 0, A33 > 0 e h1|A| > 0). Poich nessun punto del piano ha coordinate soddisfacenti lequazione (3.10), allora C = . (iv) h1, h2 concordi, ma discordi con p (|A| 0, A33 > 0 e h1|A| < 0). Dividendo la (3.10) per p si ottiene
x"2 y"2 + a2 b2
= 1, avendo posto -
h1 1 = 2 p a
192
(v) h1 e h2 discordi e p 0 (|A| 0 e A33 < 0). Supponiamo p concorde con h1 ! (analogamente si ragiona nellaltro caso). Dividendo la (3.10) per p si ottiene
h 1 x"2 y"2 = 1, avendo posto - 1 = 2 2 2 p a a b
e -
h2 1 = - 2 . Per la (2.3), C p b
uniperbole.
!
2 caso. h1 oppure h2 uguale a 0. ! ! ! ! Per fissare le idee supponiamo h1 = 0 (analogamente si ragiona nellaltro caso). Effettuiamo ora un nuovo cambio di riferimento; precisamente, per ogni scelta di
$ x' = x"+ " , R , scegliamo il riferimento R tale che % sono le formule di & y' = y"+ #
passaggio da R ad R. Applicando tali formule alla (3.9), lequazione della conica in R diventa h2y2 + n1x + (2h2 + n2)y + h22 + n1 + n2 + a33 = 0. Poich h2 ! diverso da 0, possibile scegliere in modo tale che nellequazione precedente il coefficiente di y sia uguale a 0 (basta porre = lequazione della conica diventa (3.11)
" n2 %2 n h2y + n1x + h2 $+ n1 - n2 2 + a33 = 0. '! 2h 2 # 2h 2 &
2
Esaminiamo ora le varie possibilit che possono presentarsi per i coefficienti della (3.11).
! ! (i) n1 = 0 (|A| = 0 e A33 = 0). La (3.11) diventa h2y2 + p = 0, avendo indicato con
p il termine noto. (a) Se p = 0, C coincide con lasse delle ascisse (contato due volte); (b) se p 0 e h2 e p sono concordi, allora C = ; 193
(c) se p 0 e h2 e p sono discordi, allora C lunione di due rette parallele allasse delle ascisse. (ii) n1 0 (|A| 0 e A33 = 0). In tal caso possibile scegliere in modo da annullare il termine noto nella (3.11) che diventa dunque h2y2 + n1x = 0. Per la (2.5), C una parabola. Le considerazioni fin qui svolte comportano che per stabilire di che tipo la conica C rappresentata in un riferimento R dallequazione (3.2) basta conoscere |A|,
"a11 a12 % a11|A| e A33= h1h2, essendo h1 e h2 gli autovalori della matrice M = $ '. #a 21 a 22 &
Precisamente : - Se |A| = 0, la conica, se non vuota, un punto oppure lunione di due ! rette, dette le componenenti della conica. In questultimo caso il polinomio al primo membro della (3.2) si pu scomporre nel prodotto di due polinomi di primo grado che, uguagliati a zero, danno le equazioni delle due componenti della conica (cfr. Esempio 1.2). - Se invece |A| 0, si ha :
" % A < 0 % % 33 # A33 = 0 % %A > 0 33 % $ iperbole parabola . "a11 | A | > 0 insieme vuoto # $a11 | A | < 0 ellisse
|A| 0
Sia C . Se C un punto oppure lunione di due rette, essa detta degenere; in caso contrario, essa detta non degenere. Osserviamo esplicitamente ! che una conica non degenere necessariamente unellisse, uniperbole o una parabola. 194
4.
"1 1 0 % $ ' Scriviamo la matrice A associata a C in R : A = $1 1 0 ' . Essendo |A| = 0 e $ ' #0 0 3&
A33 = 0, C, se non vuota, degenere ed lunione di due rette propriamente o impropriamente parallele (cfr. Par.3, 2 caso, (i)) . Poich daltra parte si vede ! subito che x2 + y2 + 2xy + 3 = (x + y)2 + ( 3 )2 e nessuna coppia di numeri reali annulla questo polinomio, C necessariamente vuota. 4.1. x2 + y2 + 2xy - 3 = 0.
"1 1 0 % $ ' Scriviamo la matrice A associata a C in R : A = $1 1 0 ' . Essendo |A| = 0 e $ ' #0 0 - 3&
A33 = 0, allora C, se non vuota, degenere ed lunione di due rette propriamente o impropriamente parallele (cfr. Par.3, 2 caso, (i)) . Poich daltra parte si vede ! 2 2 subito che x + y + 2xy - 3 = (x + y)2 - ( 3 )2 = (x + y + 3 ) (x + y - 3 ), allora C lunione delle due rette propriamente parallele di equazione, rispettivamente, x + y +
3 =0 e x+y!
3 = 0. !
4.1. x2 + y2 + 2xy = 0. ! ! Si vede subito che x2 + y2 + 2xy = (x + y)2 e quindi C lunione delle due rette impropriamente parallele di equazione x + y = 0. 195
Daltra parte, |A| = 0 e A33 = 0 e quindi C una delle coniche esaminate nel Par.3, 2 caso, (i). Osservazione 4.1. Il 2 caso (i) del Paragrafo 3, caso in cui |A| = 0 e A33 = 0, si presenta solo se lequazione della conica del tipo (mx + ny)2 + q = 0, come negli esempi 4.1, 4.1 e 4.1. La conica rispettivamente vuota o unione di due rette propriamente o impropriamente parallele a seconda che sia q > 0, q < 0 o q = 0. 4.2. Poich x2 + y2 4y + 4 = 0. x2 + y2 4y + 4 = 0 si pu scrivere x2 + (y 2)2 = 0 e tale equazione
ammette (0, 2) come unica soluzione, allora C coincide con il punto P(0, 2) e quindi degenere.
4.3.
4xy + 8x y 2 = 0 !
2 0 1 2
A33 < 0, allora C degenere ed lunione di due rette non parallele (cfr. Par.3, 1 caso, (ii)). Poich 4 xy + 8x y 2 = (4x 1 ) (y + 2), allora le due componenti ! della conica sono le due rette di equazione 4x 1 = 0 e y + 2 = 0.
196
4.3.
2x2 xy + 3x 2y 2 = 0.
1 2 0 -1 3% 2' ' -1' . Essendo |A| = 0 ' ' -2 ' &
e A33 < 0, allora C degenere ed lunione di due rette non parallele (cfr. Par.3, 1 caso, (ii)). Poich 2x2 xy + 3x 2y 2 = (x + 2 ) ( 2x y 1), allora le due ! componenti della conica sono le due rette di equazione x + 2 = 0 e 2x y 1 = 0. Osservazione 4.2. Sia |A| = 0 e A33 < 0 (1 caso (ii) del Paragrafo 3). Diamo un metodo per scomporre il polinomio a primo membro della (3.2) nel caso in cui almeno uno dei coefficienti di x2 e y2 diverso da zero. Sia a11 0 (analogamente si procede se a22 0). Ordinando il polinomio secondo le potenze decrescenti della x, esso diventa a11x2 + 2(a12 y + a13) x + a22 y2 + 2 a23 y + a33 e, considerandolo come polinomio nella sola indeterminata x, esso si scompone cos : a11(x x1 ) ( x x2), avendo indicato con x1 e x2 le sue radici. 4.4. x2 + 4y2 + 2x + 7 = 0.
"1 0 1 % $ ' Scriviamo la matrice A associata a C in R : A = $0 4 0' . Poich |A| = 24 0, $ ' #1 0 7 &
A33 = 4 > 0 e a11|A| = 24 > 0, allora C = . Notiamo che per capire che C = bastava osservare che x2 + 4y2 + 2x + 7 = ! (x + 1)2 + (2y)2 + 6 e che nessuna coppia di numeri reali annulla questo polinomio.
197
4.5.
" 1% 1 $2 2' $ ' Scriviamo la matrice A associata a C in R : A = $1 2 -1' . Poich |A| = $1 ' $ -1 - 3 ' #2 &
25 0, A33 = 3 > 0 e a11 |A| = - 25 < 0, allora C non degenere ed una ellisse 2 ! (cfr. Par. 3). Vogliamo ora determinare unequazione canonica dellellisse C. A tale
-
"2 1% reale M = $ ' . Una matrice ortogonale che diagonalizza M la matrice #1 2&
" $$ P= !$ $ # 1 2 1 2 1 % ' 2' e la matrice diagonale Pt M P 1 ' ' 2&
Nel riferimento R tale che X = P X sono le formule di passaggio da R ad R, ! lequazione della conica diventa (continuando a indicare le indeterminate con x e y, anzich con x e y) x2 + 3y2 3 2 2 xy 3 = 0. 2 2
$ x = x' + " Detto R, un riferimento tale che % sono le formule di passaggio da R, & y = y' + # ! ! ad R, lequazione di C in R,
x2 + 3y2 + (2 3 2 2 3 2 ! + (6 )x )y + 2 + 32 2 2 2 2 3 = 0 2
(continuando a indicare le indeterminate con x e y). E possibile determinare e in modo tale che R, sia un riferimento canonico (cfr. Par. 3, 1 caso); basta porre ! ! ! ! 25 3 2 2 = e= . Unequazione canonica di C dunque x2 + 3y2 = 0. 6 4 12 198
! !
4.6.
2x2 + 2 3 xy 2x 1 = 0.
3 0 0 -1% ' 0 ' . Poich |A| = ' -1' &
3 0, A33 = - 3 < 0, allora C non degenere ed uniperbole (cfr. Par. 3). Vogliamo ora determinare unequazione canonica delliperbole C. Una matrice ! " 3 1% - ' $ "2 % 3 2' $ 2 ' ortogonale che diagonalizza la matrice M = $ e $ ' la matrice P = $ ' 1 3 3 0 # & $ ' # 2 2 &
lequazione della conica diventa 3x2 - y2 - 3 x + y 1 = 0. ! $ x = x' + " Detto R, un riferimento tale che % sono le formule di passaggio da R, & y = y' + # ! ad R, lequazione di C in R, 3x2 - y2 + (6 - 3 )x + (-2 + 1)y + 32 - 2 - 3 + 1 = 0. E possibile ! determinare e in modo tale che R, sia un riferimento canonico (cfr. Par. 3,
199
4.7.
4x2 + y2 4xy + 2y = 0.
e A33 = 0, allora C una parabola (cfr. Par. 3). Vogliamo ora determinarne unequazione canonica. Una matrice ortogonale che diagonalizza la matrice ! " 1 2 % $ ' # 4 - 2& 5 5' M = % e la matrice diagonale Pt M P ( la matrice P = $ " 2 1 2 1 $ ' $ ' $ ' # 5 5&
4 5 2 5 x+ y = 0. 5 5 4 5 x = 0. 5
Per quanto visto nel Paragrafo 3, 2 caso (ii), esiste un riferimento canonico per C in cui lequazione della parabola ! 5y2 + !
200