You are on page 1of 683

Algebra Lineare e Geometria Analitica

Volume I
E. Abbena, A.M. Fino, G.M. Gianella
21 giugno 2010
2
3
Prefazione
Con lattivazione delle lauree triennali, i corsi universitari hanno subito una notevole ri-
duzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che
trae origine dalle lezioni di Geometria e Algebra Lineare I che gli Autori hanno tenuto
al primo anno del Corso di Laurea in Fisica presso lUniversit` a di Torino, costituisce ora
un testo completo che pu` o essere anche utilizzato nelle Facolt` a di Ingegneria, come pure
nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e
nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale.
Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte
teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni,
per lo pi ` u tratti dai testi desame. La suddivisione in capitoli del secondo volume si
riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.
Il testo ` e di facile lettura e con spiegazioni chiare e ampiamente dettagliate, un po di-
verso per stile ed impostazione dagli usuali testi universitari del settore, al ne di soste-
nere ed incoraggiare gli Studenti nel delicato passaggio dalla scuola secondaria superiore
allUniversit` a.
In quasi tutti i capitoli del primo volume ` e stato inserito un paragrafo dal titolo Per
saperne di pi` u non solo per soddisfare la curiosit` a del Lettore ma con il preciso obiettivo
di offrire degli orientamenti verso ulteriori sviluppi della materia che gli Studenti avranno
occasione di incontrare sia in altri corsi di base sia nei numerosi corsi a scelta delle Lauree
Triennali e Magistrali.
Gli Autori avranno pienamente raggiunto il loro scopo se, attraverso la lettura del libro,
saranno riusciti a trasmettere il proprio entusiasmo per lo studio di una materia di base
per la maggior parte delle discipline scientiche, rendendola appassionante.
La gure inserite nel testo sono tutte realizzate con il programma di calcolo simbolico
Mathematica, versione 7. Alcuni esercizi proposti sono particolarmente adatti ad essere
risolti con Mathematica o con Maple.
Per suggerimenti, osservazioni e chiarimenti si invita contattare gli Autori agli indirizzi
e-mail: elsa.abbena@unito.it, annamaria.no@unito.it, gianmario.gianella@unito.it.
4
II di copertina: Ringraziamenti
Grazie ai Colleghi di Geometria del Dipartimento di Matematica dellUniversit` a di Torino
per il loro prezioso contributo.
Grazie al Prof. S.M. Salamon per tanti utili suggerimenti e per la realizzazione di molti
graci. Grazie ai Proff. Sergio Console, Federica Galluzzi, Sergio Garbiero e Mario
Valenzano per aver letto il manoscritto.
Un ringraziamento particolare agli Studenti del Corso di Studi in Fisica dellUniver-
sit` a di Torino, la loro partecipazione attiva e il loro entusiasmo hanno motivato questa
esperienza.
5
IV di copertina
Gli autori
Elsa Abbena, professore associato di Geometria presso la Facolt` a di Scienze Matematiche
Fisiche e Naturali dellUniversit` a di Torino, svolge la sua attivit` a di ricerca su argomenti
di geometria differenziale. Ha tenuto innumerevoli corsi di algebra e di geometria dei
primi anni della Laurea Triennale presso vari corsi di Laurea.
Anna Fino, professore associato di Geometria presso la Facolt` a di Scienze Matematiche
Fisiche e Naturali dellUniversit` a di Torino, svolge la sua attivit` a di ricerca su argomenti
di geometria differenziale e complessa. Ha tenuto per vari anni un corso di geometria e
algebra lineare presso il corso di Laurea in Fisica.
Gian Mario Gianella, professore associato di Geometria presso la Facolt` a di Scienze
Matematiche Fisiche e Naturali dellUniversit` a di Torino, svolge la sua attivit` a di ricerca
su argomenti di topologia generale ed algebrica. Si occupa inoltre della teoria dei gra e
pi ` u recentemente della teoria dei numeri. Ha tenuto innumerevoli corsi di geometria dei
primi anni della Laurea Triennale presso vari corsi di Laurea.
Lopera
Con lattivazione delle lauree triennali, i corsi universitari hanno subito una notevole ri-
duzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che
trae origine dalle lezioni di Geometria e Algebra Lineare I che gli Autori hanno tenuto
al primo anno del Corso di Laurea in Fisica presso lUniversit` a di Torino, costituisce ora
un testo completo che pu` o essere anche utilizzato nelle Facolt` a di Ingegneria, come pure
nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e
nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale.
Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte
teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni,
per lo pi ` u tratti dai testi desame. La suddivisione in capitoli del secondo volume si
riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.
6
Indice
1 Sistemi Lineari 15
1.1 Equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.1 Sistemi lineari omogenei . . . . . . . . . . . . . . . . . . . . . . 29
2 Matrici e Determinanti 33
2.1 Somma di matrici e prodotto per un numero reale . . . . . . . . . . . . . 33
2.2 Il prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2.1 I sistemi lineari in notazione matriciale . . . . . . . . . . . . . . 40
2.3 La matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4 La trasposta di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5 Matrici quadrate di tipo particolare . . . . . . . . . . . . . . . . . . . . . 43
2.6 Le equazioni matriciali . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.6.1 Calcolo della matrice inversa, primo metodo . . . . . . . . . . . 49
2.7 La traccia di una matrice quadrata . . . . . . . . . . . . . . . . . . . . . 54
2.8 Il determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.8.1 I Teoremi di Laplace
Unaltra denizione di rango . . . . . . . . . . . . . . . . . . . . 63
2.8.2 Calcolo della matrice inversa, secondo metodo . . . . . . . . . . 67
2.8.3 Il Teorema di Cramer . . . . . . . . . . . . . . . . . . . . . . . . 69
2.9 Per saperne di pi` u . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3 Calcolo Vettoriale 75
3.1 Denizione di vettore . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.2 Somma di vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.3 Il prodotto di un numero reale per un vettore . . . . . . . . . . . . . . . . 82
3.4 Dipendenza lineare e basi . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7
8 INDICE
3.5 Il cambiamento di base in V
3
. . . . . . . . . . . . . . . . . . . . . . . . 97
3.6 Angolo tra due vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.7 Operazioni non lineari tra vettori . . . . . . . . . . . . . . . . . . . . . . 101
3.7.1 Il prodotto scalare di due vettori . . . . . . . . . . . . . . . . . . 101
3.7.2 Il prodotto vettoriale di due vettori . . . . . . . . . . . . . . . . . 113
3.7.3 Il prodotto misto di tre vettori . . . . . . . . . . . . . . . . . . . 120
3.8 Cambiamenti di basi ortonormali in V
3
e in V
2
. . . . . . . . . . . . . . 124
3.9 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 129
3.10 Per saperne di pi` u . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
3.10.1 Unaltra denizione di vettore . . . . . . . . . . . . . . . . . . . 131
3.10.2 Ulteriori propriet` a delle operazioni tra vettori . . . . . . . . . . . 132
4 Spazi Vettoriali e Sottospazi Vettoriali 135
4.1 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.2.1 Denizione ed esempi . . . . . . . . . . . . . . . . . . . . . . . 139
4.2.2 Intersezione e somma di sottospazi vettoriali . . . . . . . . . . . 143
4.3 Generatori, basi e dimensione . . . . . . . . . . . . . . . . . . . . . . . . 149
4.3.1 Base di uno spazio vettoriale . . . . . . . . . . . . . . . . . . . . 149
4.3.2 Basi e somma diretta . . . . . . . . . . . . . . . . . . . . . . . . 162
4.3.3 Rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . . 166
4.3.4 Il cambiamento di base . . . . . . . . . . . . . . . . . . . . . . . 175
4.3.5 Iperpiani vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . 178
4.4 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 179
4.5 Per saperne di pi` u . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
4.5.1 Equazioni vettoriali e teorema del rango . . . . . . . . . . . . . . 187
4.5.2 Equivalenza tra le due denizioni di rango di una matrice . . . . . 193
4.5.3 Spazi vettoriali complessi,
matrici hermitiane e antihermitiane . . . . . . . . . . . . . . . . 194
5 Spazi Vettoriali Euclidei 201
5.1 Denizione di prodotto scalare . . . . . . . . . . . . . . . . . . . . . . . 201
5.2 Norma di un vettore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
5.3 Basi ortonormali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
5.4 Il complemento ortogonale . . . . . . . . . . . . . . . . . . . . . . . . . 218
5.5 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 223
INDICE 9
5.5.1 Per saperne di pi ` u . . . . . . . . . . . . . . . . . . . . . . . . . 225
5.5.2 Spazi vettoriali hermitiani . . . . . . . . . . . . . . . . . . . . . 225
6 Applicazioni Lineari 233
6.1 Matrice associata ad unapplicazione lineare
Equazioni di unapplicazione lineare . . . . . . . . . . . . . . . . . . . . 236
6.2 Cambiamenti di base e applicazioni lineari . . . . . . . . . . . . . . . . . 244
6.3 Immagine e controimmagine di sottospazi vettoriali . . . . . . . . . . . . 246
6.4 Operazioni tra applicazioni lineari . . . . . . . . . . . . . . . . . . . . . 258
6.5 Sottospazi vettoriali invarianti . . . . . . . . . . . . . . . . . . . . . . . 263
6.6 Applicazione lineare aggiunta.
Endomorsmi autoaggiunti . . . . . . . . . . . . . . . . . . . . . . . . . 265
6.7 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 268
6.8 Per saperne di pi` u . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
6.8.1 Forme lineari dualit` a . . . . . . . . . . . . . . . . . . . . . . . 272
6.8.2 Cambiamento di base in V

. . . . . . . . . . . . . . . . . . . . 276
6.8.3 Spazio vettoriale biduale . . . . . . . . . . . . . . . . . . . . . . 277
6.8.4 Dualit` a nel caso degli spazi vettoriali euclidei . . . . . . . . . . . 280
6.8.5 Trasposta di unapplicazione lineare . . . . . . . . . . . . . . . . 282
6.8.6 Endomorsmi autoaggiunti e matrici hermitiane . . . . . . . . . 286
6.8.7 Isometrie, similitudini, trasformazioni unitarie . . . . . . . . . . 287
7 Diagonalizzazione 295
7.1 Autovalori e autovettori di un endomorsmo . . . . . . . . . . . . . . . . 295
7.2 Determinazione degli autovalori e degli autospazi . . . . . . . . . . . . . 299
7.3 Endomorsmi semplici e matrici diagonalizzabili . . . . . . . . . . . . . 306
7.4 Il teorema spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
7.5 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 314
7.6 Per saperne di pi` u . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
7.6.1 Diagonalizzazione simultanea . . . . . . . . . . . . . . . . . . . 319
7.6.2 Il Teorema di CayleyHamilton . . . . . . . . . . . . . . . . . . 325
7.6.3 Teorema spettrale e endomorsmi autoaggiunti.
Caso complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
7.6.4 Autovalori delle isometrie, similitudini,
trasformazioni unitarie . . . . . . . . . . . . . . . . . . . . . . . 331
10 INDICE
8 Forme Bilineari e Forme Quadratiche 333
8.1 Forme bilineari simmetriche . . . . . . . . . . . . . . . . . . . . . . . . 333
8.1.1 Matrice associata ad una forma bilineare simmetrica . . . . . . . 336
8.2 Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
8.3 Nucleo e vettori isotropi . . . . . . . . . . . . . . . . . . . . . . . . . . 344
8.4 Classicazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355
8.5 Forme canoniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
8.6 Il Teorema di Sylvester e la segnatura di una forma quadratica . . . . . . 365
8.7 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 369
8.8 Per saperne di pi` u . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376
8.8.1 Lo spazio vettoriale delle forme bilineari simmetriche . . . . . . 376
8.8.2 Il determinante come forma p-lineare . . . . . . . . . . . . . . . 377
8.8.3 Legame con gli endomorsmi autoaggiunti . . . . . . . . . . . . 382
8.8.4 Relazione con lo spazio vettoriale duale . . . . . . . . . . . . . . 383
8.8.5 Cenni sugli spazi vettoriali pseudo-Euclidei . . . . . . . . . . . . 384
8.8.6 Altri metodi di classicazione di una forma quadratica . . . . . . 385
9 Geometria Analitica nel Piano 391
9.1 Il riferimento cartesiano, generalit` a . . . . . . . . . . . . . . . . . . . . 391
9.1.1 Distanza tra due punti . . . . . . . . . . . . . . . . . . . . . . . 394
9.1.2 Punto medio di un segmento . . . . . . . . . . . . . . . . . . . . 394
9.1.3 Baricentro di un triangolo . . . . . . . . . . . . . . . . . . . . . 394
9.2 Luoghi geometrici del piano . . . . . . . . . . . . . . . . . . . . . . . . 395
9.3 Riferimento polare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398
9.4 Traslazione degli assi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400
9.5 Simmetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403
9.5.1 Curva simmetrica rispetto allasse delle ordinate . . . . . . . . . 403
9.5.2 Curva simmetrica rispetto allasse delle ascisse . . . . . . . . . . 404
9.5.3 Curva simmetrica rispetto allorigine . . . . . . . . . . . . . . . 404
9.6 Retta nel piano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406
9.6.1 Retta per un punto parallela ad un vettore . . . . . . . . . . . . . 406
9.6.2 Retta per un punto ortogonale ad un vettore . . . . . . . . . . . . 408
9.6.3 Retta per due punti distinti . . . . . . . . . . . . . . . . . . . . . 410
9.6.4 Rette particolari . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
9.6.5 Il coefciente angolare ed il suo legame con a, b, c . . . . . . . . 413
INDICE 11
9.7 Parallelismo, ortogonalit` a, angoli e distanze . . . . . . . . . . . . . . . . 414
9.7.1 Condizione di parallelismo tra rette . . . . . . . . . . . . . . . . 414
9.7.2 Condizione di perpendicolarit` a tra rette . . . . . . . . . . . . . . 415
9.7.3 Angolo tra due rette . . . . . . . . . . . . . . . . . . . . . . . . 417
9.7.4 Posizione reciproca di due rette nel piano . . . . . . . . . . . . . 417
9.7.5 Distanza di un punto da una retta . . . . . . . . . . . . . . . . . . 420
9.8 Fasci di rette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
9.9 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 424
9.10 Per saperne di pi` u . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427
9.10.1 Rette immaginarie . . . . . . . . . . . . . . . . . . . . . . . . . 427
10 Riduzione a Forma Canonica delle Coniche 431
10.1 La circonferenza nel piano . . . . . . . . . . . . . . . . . . . . . . . . . 431
10.1.1 Posizione reciproca tra una retta e una circonferenza . . . . . . . 432
10.1.2 Retta tangente ad una circonferenza in un suo punto . . . . . . . 436
10.1.3 Posizione reciproca di due circonferenze
Circonferenza per tre punti . . . . . . . . . . . . . . . . . . . . . 437
10.1.4 Fasci di circonferenze . . . . . . . . . . . . . . . . . . . . . . . 440
10.2 Le coniche: denizione e propriet` a focali . . . . . . . . . . . . . . . . . 445
10.2.1 Lellisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 445
10.2.2 Liperbole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451
10.2.3 Iperbole riferita agli asintoti . . . . . . . . . . . . . . . . . . . . 459
10.2.4 La parabola . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463
10.2.5 Coniche e traslazioni . . . . . . . . . . . . . . . . . . . . . . . . 468
10.3 Le coniche: luoghi geometrici di punti . . . . . . . . . . . . . . . . . . . 472
10.4 Le coniche: equazioni di secondo grado,
riduzione delle coniche in forma canonica . . . . . . . . . . . . . . . . . 479
10.5 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 495
10.6 Per saperne di pi` u . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 498
10.6.1 Potenza di un punto rispetto ad una circonferenza . . . . . . . . . 498
10.6.2 Equazioni parametriche delle coniche . . . . . . . . . . . . . . . 498
10.6.3 Le coniche in forma polare . . . . . . . . . . . . . . . . . . . . . 500
11 Geometria Analitica nello Spazio 503
11.1 Il riferimento cartesiano nello spazio . . . . . . . . . . . . . . . . . . . . 503
11.1.1 Distanza tra due punti . . . . . . . . . . . . . . . . . . . . . . . 505
12 INDICE
11.1.2 Punto medio di un segmento . . . . . . . . . . . . . . . . . . . . 505
11.1.3 Baricentro di un triangolo e di un tetraedro . . . . . . . . . . . . 505
11.1.4 Area di un triangolo e volume di un tetraedro . . . . . . . . . . . 506
11.2 Rappresentazione di un piano nello spazio . . . . . . . . . . . . . . . . . 506
11.2.1 Piano per un punto ortogonale ad un vettore . . . . . . . . . . . . 506
11.2.2 Piano per un punto parallelo a due vettori . . . . . . . . . . . . . 508
11.2.3 Piano per tre punti non allineati . . . . . . . . . . . . . . . . . . 511
11.3 Rappresentazione della retta nello spazio . . . . . . . . . . . . . . . . . . 513
11.3.1 Retta per un punto parallela ad un vettore . . . . . . . . . . . . . 513
11.3.2 Retta per due punti distinti . . . . . . . . . . . . . . . . . . . . . 516
11.3.3 Posizione reciproca di due piani
Retta come intersezione di due piani . . . . . . . . . . . . . . . . 518
11.4 Posizioni reciproche tra rette e piani . . . . . . . . . . . . . . . . . . . . 520
11.4.1 Posizione reciproca di tre piani . . . . . . . . . . . . . . . . . . . 520
11.4.2 Posizione reciproca tra retta e piano . . . . . . . . . . . . . . . . 523
11.4.3 Posizione reciproca di due rette nello spazio . . . . . . . . . . . . 525
11.5 Fasci di piani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 527
11.6 Distanze e angoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 530
11.6.1 Distanza di un punto da un piano . . . . . . . . . . . . . . . . . . 531
11.6.2 Distanza di un punto da una retta . . . . . . . . . . . . . . . . . . 532
11.6.3 Minima distanza tra due rette sghembe
Perpendicolare comune a due rette sghembe . . . . . . . . . . . . 534
11.6.4 Angolo tra due rette . . . . . . . . . . . . . . . . . . . . . . . . 537
11.6.5 Angolo tra retta e piano . . . . . . . . . . . . . . . . . . . . . . . 537
11.6.6 Angolo tra due piani . . . . . . . . . . . . . . . . . . . . . . . . 537
11.7 Sfera e posizione reciproca con rette e piani . . . . . . . . . . . . . . . . 540
11.7.1 Sfera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 540
11.7.2 Posizione reciproca tra piano e sfera . . . . . . . . . . . . . . . . 542
11.7.3 Posizione reciproca tra retta e sfera . . . . . . . . . . . . . . . . 544
11.8 La circonferenza nello spazio . . . . . . . . . . . . . . . . . . . . . . . . 548
11.9 Posizione reciproca tra due sfere
Fasci di sfere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 553
11.10Coordinate polari sferiche . . . . . . . . . . . . . . . . . . . . . . . . . . 563
11.11Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 566
11.12Per saperne di pi` u . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575
INDICE 13
11.12.1 Baricentro geometrico di punti . . . . . . . . . . . . . . . . . . . 575
11.12.2 Potenza di un punto rispetto ad una sfera . . . . . . . . . . . . . 579
11.12.3 Sfere in dimensione 4 . . . . . . . . . . . . . . . . . . . . . . . 580
12 Coni, Cilindri, Superci di Rotazione e Quadriche 585
12.1 Cenni sulla rappresentazione di curve e superci . . . . . . . . . . . . . . 585
12.2 Il cono . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 587
12.2.1 Cono tangente ad una sfera . . . . . . . . . . . . . . . . . . . . . 596
12.2.2 Proiezione di una curva da un punto su un piano . . . . . . . . . 598
12.3 Il cilindro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 600
12.3.1 Cilindri con assi paralleli agli assi coordinati . . . . . . . . . . . 603
12.3.2 Cilindro circoscritto ad una sfera . . . . . . . . . . . . . . . . . . 607
12.3.3 Proiezione di una curva su un piano secondo una direzione assegnata610
12.3.4 Coordinate cilindriche . . . . . . . . . . . . . . . . . . . . . . . 611
12.4 Supercie di rotazione . . . . . . . . . . . . . . . . . . . . . . . . . . . 612
12.5 Supercie rigate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 626
12.6 Quadriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 629
12.6.1 Piano tangente ad una quadrica e cenni al piano tangente ad una
supercie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 642
12.6.2 Quadriche rigate . . . . . . . . . . . . . . . . . . . . . . . . . . 644
12.6.3 Il paraboloide iperbolico . . . . . . . . . . . . . . . . . . . . . . 645
12.6.4 Liperboloide ad una falda . . . . . . . . . . . . . . . . . . . . . 646
12.7 Esercizi svolti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 658
Indice analitico 675
14 INDICE
Capitolo 1
Sistemi Lineari
In questo capitolo si introducono le nozioni di sistema lineare, di matrici associate ad un
sistema lineare e si enuncia il Teorema di Rouch eCapelli i cui dettagli e la dimostrazione
sono rimandate al Paragrafo 4.3. In tutto il testo, salvo indicazione contraria, il campo dei
numeri su cui sono introdotte le denizioni, su cui sono dimostrati i teoremi e risolti gli
esercizi ` e il campo dei numeri reali R.
1.1 Equazioni lineari
Denizione 1.1 Unequazione lineare nelle incognite x
1
, x
2
, . . . , x
n
` e unespressione del
tipo:
a
1
x
1
+ a
2
x
2
+ . . . + a
n
x
n
= b, (1.1)
dove i numeri reali a
i
, i = 1, 2, . . . , n, sono detti coefcienti e il numero reale b prende
il nome di termine noto. Lequazione si dice lineare in quanto ogni incognita x
i
compare
a primo grado.
Denizione 1.2 Una soluzione dellequazione lineare (1.1) ` e una n-upla di numeri reali:
(x
0
1
, x
0
2
, . . . , x
0
n
)
che, sostituita alle incognite (x
1
, x
2
, . . . , x
n
), verica lequazione, cio` e:
a
1
x
0
1
+ a
2
x
0
2
+ . . . + a
n
x
0
n
= b.
Risolvere unequazione signica determinarne tutte le soluzioni.
15
16 Sistemi Lineari
Esempio 1.1 Lequazione lineare nelle incognite x
1
, x
2
, x
3
, x
4
:
2x
1
+ 3x
2
x
3
+ 4x
4
= 5
ammette innite soluzioni, che dipendono da 3 parametri reali, date da:

x
1
= t
1
x
2
= t
2
x
3
= 5 + 2t
1
+ 3t
2
+ 4t
3
x
4
= t
3
, t
1
, t
2
, t
3
R;
oppure, equivalentemente, linsieme delle soluzioni o ` e dato da:
o = (x
1
, x
2
, x
3
, x
4
) = (t
1
, t
2
, 5 + 2t
1
+ 3t
2
+ 4t
3
, t
3
) [ t
1
, t
2
, t
3
R.
Si osservi che, risolvendo lequazione rispetto ad unaltra incognita, si ottiene lo stesso
insieme di soluzioni (solo rappresentato in modo diverso).
Denizione 1.3 Lequazione lineare (1.1) si dice omogenea se il termine noto b ` e nullo.
`
E chiaro che unequazione lineare ` e omogenea se e solo se ammette la soluzione nulla,
cio` e la soluzione formata da tutti zeri (0, 0, . . . , 0) ma, in generale, unequazione lineare
omogenea pu` o ammettere anche soluzioni non nulle, come nellesempio seguente.
Esempio 1.2 Lequazione lineare omogenea nelle incognite x, y:
2x 3y = 0
ammette innite soluzioni che dipendono da unincognita libera, date da:
(x, y) =

t,
2
3
t

, t R.
Si osservi che la soluzione nulla (0, 0) si ottiene ponendo t = 0.
1.2 Sistemi lineari
Un sistema lineare di m equazioni in n incognite x
1
, x
2
, . . . , x
n
` e un insieme di equazioni
lineari del tipo:

a
11
x
1
+ a
12
x
2
+ . . . . . . + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ . . . . . . + a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+ a
m2
x
2
+ . . . . . . + a
mn
x
n
= b
m
, a
ij
R, b
i
R.
(1.2)
Capitolo 1 17
I coefcienti a
ij
, i = 1, 2, . . . , m, j = 1, 2, . . . , n, sono dotati di due indici per agevolare
il riconoscimento della loro posizione nel sistema lineare. Il primo indice (indice di riga),
in questo caso i, indica il numero dellequazione in cui il coefciente compare, il secondo
indice (indice di colonna), in questo caso j , stabilisce il numero dellincognita di cui a
ij
` e il coefciente. Per esempio a
23
` e il coefciente della terza incognita nella seconda
equazione. I termini noti b
i
, i = 1, 2, . . . , m, hanno solo unindice essendo unicamente
riferiti al numero dellequazione in cui compaiono. Il sistema considerato ` e lineare in
quanto ogni equazione che lo compone ` e lineare. Analogamente al caso delle equazioni,
un sistema lineare si dice omogeneo se tutte le sue equazioni hanno termine noto nullo,
cio` e se b
i
= 0, per ogni i = 1, 2, . . . , m.
Anche in questo caso vale la:
Denizione 1.4 Una soluzione di un sistema lineare di m equazioni in n incognite ` e una
n-upla di numeri reali:
(x
0
1
, x
0
2
, . . . , x
0
n
)
che, sostituita ordinatamente alle incognite, verica tutte le equazioni del sistema, cio` e:

a
11
x
0
1
+ a
12
x
0
2
+ . . . . . . + a
1n
x
0
n
= b
1
a
21
x
0
1
+ a
22
x
0
2
+ . . . . . . + a
2n
x
0
n
= b
2
.
.
.
a
m1
x
0
1
+ a
m2
x
0
2
+ . . . . . . + a
mn
x
0
n
= b
m
.
Risolvere un sistema lineare signica determinarne tutte le soluzioni.
`
E chiaro che ogni sistema lineare ` e omogeneo se e solo se ammette la soluzione nulla
(0, 0, . . . , 0), formata da tutti zeri.
Denizione 1.5 Un sistema lineare si dice compatibile se ammette soluzioni, altrimenti
` e incompatibile.
Vi sono metodi diversi per risolvere i sistemi lineari, in questo testo si dar` a ampio spazio
al metodo di riduzione di Gauss in quanto pi` u veloce (anche dal punto di vista computa-
zionale). Lidea di base del metodo di Gauss ` e quella di trasformare il sistema lineare di
partenza in un altro sistema lineare ad esso equivalente ma molto pi` u semplice, tenendo
conto che:
Denizione 1.6 Due sistemi lineari si dicono equivalenti se ammettono le stesse soluzio-
ni.
18 Sistemi Lineari
Prima di iniziare la trattazione teorica si consideri il seguente esempio.
Esempio 1.3 Risolvere il seguente sistema lineare di due equazioni in due incognite
usando il metodo di riduzione:

x + y = 4
2x 3y = 7.
Il sistema lineare dato ` e equivalente a:

x + y = 4
2(x + y) (2x 3y) = 2 4 7,
ossia:

x + y = 4
5y = 1
che ammette come unica soluzione (19/5, 1/5).
Il metodo usato per risolvere lesempio precedente segue dal:
Teorema 1.1 Eseguendo un numero nito di volte le tre operazioni sotto elencate:
1. scambiare tra loro due equazioni,
2. moltiplicare unequazione per un numero reale diverso da zero,
3. sostituire ad unequazione la somma di se stessa con unaltra equazione moltipli-
cata per un qualsiasi numero reale,
si ottiene un sistema lineare equivalente a quello di partenza.
Dimostrazione
`
E ovvio che scambiando tra loro due equazioni si ottiene un sistema
lineare equivalente a (1.2).
Per la seconda operazione, si dimostra che il sistema lineare (1.2) ` e equivalente al siste-
ma lineare che si ottiene sostituendo alla prima equazione se stessa moltiplicata per un
numero reale = 0. Si osservi che se tale sostituzione avviene per la i-esima equazione
` e sufciente operare con la prima operazione per ricondursi al caso in esame. In altri
termini si prova che (1.2) ` e equivalente al sistema lineare:

(a
11
x
1
+ a
12
x
2
+ . . . . . . + a
1n
x
n
) = b
1
a
21
x
1
+ a
22
x
2
+ . . . . . . + a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+ a
m2
x
2
+ . . . . . . + a
mn
x
n
= b
m
, = 0.
(1.3)
Per la dimostrazione si deve procedere in due passi.
Capitolo 1 19
1. Ipotesi: (x
0
1
, x
0
2
, . . . , x
0
n
) ` e soluzione di (1.2).
Tesi: (x
0
1
, x
0
2
, . . . , x
0
n
) ` e soluzione di (1.3).
2. Ipotesi: (x
0
1
, x
0
2
, . . . , x
0
n
) ` e soluzione di (1.3).
Tesi: (x
0
1
, x
0
2
, . . . , x
0
n
) ` e soluzione di (1.2).
1. La dimostrazione ` e ovvia e vale per ogni numero reale = 0.
2.
`
E sufciente dimostrare la tesi per la prima equazione di (1.2). Per ipotesi si ha:
(a
11
x
0
1
+ a
12
x
0
2
+ . . . . . . + a
1n
x
0
n
) = b
1
,
essendo = 0 si possono dividere ambo i membri dellidentit` a precedente per ,
da cui segue la tesi.
Per dimostrare lequivalenza nel caso delloperazione 3. si procede allo stesso modo.
Esempio 1.4 I due sistemi lineari seguenti non sono equivalenti:

x + y = 4
2x 3y = 7,

x + y = 4
0(2x 3y) + 2(x + y) = 0 7 + 2 4.
Infatti non ` e consentito sostituire alla seconda equazione il prodotto di se stessa per il
numero 0, anche se si mantiene inalterata la prima equazione.
Si osservi che le operazioni descritte nel Teorema 1.1 agiscono linearmente solo sui coef-
cienti del sistema lineare e non sulle incognite. Ci` o suggerisce di sostituire ad un sistema
lineare una tabella dei coefcienti e dei temini noti ed operare solo su questa. Viene
illustrato ora questo procedimento mediante lEsempio 1.3.
Al sistema lineare:

x + y = 4
2x 3y = 7
si associa la tabella:

1 1
2 3

4
7

(1.4)
con le due righe:
R
1
=

1 1 [ 4

, R
2
=

2 3 [ 7

20 Sistemi Lineari
e le tre colonne:
C
1
=

1
2

, C
2
=

1
3

, C
3
=

4
7

.
Successivamente si opera su di essa sostituendo alla seconda riga R
2
se stessa a cui si
sottrae il prodotto di due volte la prima, cio` e R
2
R
2
2R
1
, ottenendo cos`:

1 1
0 5

4
1

,
che corrisponde al sistema lineare ridotto:

x + y = 4
5y = 1.
Bench e la denizione intuitiva di sistema lineare ridotto sia evidente, si enuncer` a la
denizione formale pi ` u avanti.
La tabella (1.4) prende il nome di matrice completa del sistema lineare, o matrice dei
coefcienti e termini noti. Il tratto verticale prima dellultima sua colonna intende solo
distinguere i coefcienti del sistema lineare dai termini noti. Il termine matrice indica, in
generale, una tabella di numeri, a prescindere dalluso relativo ai sistemi lineari. La trat-
tazione generale delle matrici ` e rimandata al capitolo successivo, introducendo ora solo
alcune nozioni elementari.
`
E evidente che il numero delle righe della matrice completa
associata ad un sistema lineare coincide con il numero delle equazioni del sistema lineare,
il numero delle colonne ` e pari al numero delle incognite aumentato di una unit` a, che corri-
sponde alla colonna formata dai termini noti. Le operazioni di riduzione che permettono
di trasformare un sistema lineare in un sistema lineare ridotto ad esso equivalente (cfr.
Teor. 1.1) si traducono sulle righe della matrice in modo ovvio e si possono riassumere,
rispettivamente con le seguenti notazioni:
1. R
i
R
j
;
2. R
i
R
i
, = 0;
3. R
i
R
i
+ R
j
, R, i = j,
dove R
i
e R
j
indicano rispettivamente la iesima riga e la j esima riga.
In generale, al sistema lineare (1.2) si associano due matrici, una matrice A di m righe e
n colonne:
A =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn

(1.5)
Capitolo 1 21
detta matrice dei coefcienti, e una matrice (A[B) di m righe e n + 1 colonne:
(A[B) =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn

b
1
b
2
.
.
.
b
m

detta matrice completa.


Esempio 1.5 Nel sistema lineare seguente formato da tre equazioni in tre incognite:

x + y + 2z = 9
2x + 4y 3z = 1
3x + 6y 5z = 0
la matrice completa (formata da tre righe e quattro colonne) ` e:

1 1 2
2 4 3
3 6 5

9
1
0

.
Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:

R
2
R
2
2R
1
R
3
R
3
3R
1

1 1 2
0 2 7
0 3 11

9
17
27


R
3
2R
3
3R
2

1 1 2
0 2 7
0 0 1

9
17
3

,
da cui si perviene al sistema lineare:

x + y + 2z = 9
2y 7z = 17
z = 3,
che ammette una sola soluzione:

x = 1
y = 2
z = 3.
Esempio 1.6 Nel sistema lineare seguente formato da tre equazioni in tre incognite:

x
1
+ x
2
x
3
= 1
2x
1
+ 2x
2
+ x
3
= 0
x
1
+ x
2
+ 2x
3
= 1
22 Sistemi Lineari
la matrice completa ` e:

1 1 1
2 2 1
1 1 2

1
0
1

.
Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:

R
2
R
2
2R
1
R
3
R
3
R
1

1 1 1
0 0 3
0 0 3

1
2
2


R
3
R
3
R
2

1 1 1
0 0 3
0 0 0

1
2
0

,
da cui si perviene al sistema lineare:

x
1
+ x
2
x
3
= 1
3x
3
= 2,
che ammette innite soluzioni che dipendono da unincognita libera x
2
, per maggiore
chiarezza si pone x
2
uguale ad un parametro t che quindi pu` o assumere ogni valore reale:

x
1
=
1
3
t
x
2
= t
x
3
=
2
3
, t R.
Esempio 1.7 Nel sistema lineare seguente formato da tre equazioni in tre incognite:

x
1
+ x
2
= 1
2x
1
+ x
2
+ 3x
3
= 2
x
1
+ 2x
2
+ 3x
3
= 1
la matrice completa ` e:

1 1 0
2 1 3
1 2 3

1
2
1

.
Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:

R
2
R
2
+ 2R
1
R
3
R
3
+ R
1

1 1 0
0 3 3
0 3 3

1
0
2

R
2
(1/3)R
2
R
3
R
3
R
2

1 1 0
0 1 1
0 0 0

1
0
2

Capitolo 1 23
da cui si perviene al sistema lineare:

x
1
+ x
2
= 1
x
2
+ x
3
= 0
0 = 2
che ` e chiaramente incompatibile.
Gli esempi studiati impongono la denizione formale della matrice associata allultimo
sistema lineare che si ottiene, ossia della matrice associata ad un sistema lineare ridotto
equivalente a quello di partenza.
Denizione 1.7 Una matrice si dice ridotta per righe se in ogni sua riga non nulla esiste
un elemento non nullo al di sotto del quale vi sono tutti zeri.
Esempio 1.8 La matrice:

1 2 0
1 0 1
1 0 0

` e ridotta per righe, mentre la matrice

1 2 1
1 0 0
1 1 1

non lo ` e.
Segue, in modo naturale, la denizione annunciata di sistema lineare ridotto.
Denizione 1.8 Un sistema lineare si dice ridotto se la matrice dei coefcienti ad esso
associata ` e ridotta per righe.
Osservazione 1.1 Se la matrice dei coefcienti associata ad un sistema lineare ` e ridotta
per righe ma non lo ` e la matrice completa, ` e sufciente operare sulla colonna dei termini
noti per pervenire ad una matrice completa ridotta per righe, per esempio:
(A[B) =

1 2 3
0 1 2
0 0 0
0 0 0

1
2
3
4

R
4
4R
3
3R
4

1 2 3
0 1 2
0 0 0
0 0 0

1
2
3
0

.
24 Sistemi Lineari
Invece, la matrice completa di un sistema lineare pu` o essere ridotta per righe senza che
necessariamente il sistema lineare associato sia ridotto; per esempio la matrice completa:
(A[B) =

1 2 3
7 6 5
9 8 0

4
0
0

` e una matrice ridotta per righe, ma il sistema lineare associato non ` e ridotto perch e la
matrice dei coefcienti non ` e ridotta per righe.
Risolvere un sistema lineare con il metodo di riduzione consiste nel pervenire, mediante
le operazioni consentite, ad una matrice dei coefcienti ridotta per righe. Dai teoremi che
seguono e anche dallOsservazione 1.1, sar` a chiaro che tra tutte le matrici complete ridotte
per righe, si dovranno considerare solo quelle in cui anche la matrice dei coefcienti ` e
ridotta per righe. Si possono allora presentare queste possibilit` a:
a. quella illustrata nellEsempio 1.5, ovvero il numero delle righe non nulle della ma-
trice completa ridotta per righe ` e uguale al numero delle righe non nulle della ma-
trice dei coefcienti ridotta per righe ed ` e uguale al numero delle incognite, quindi
lultima riga non nulla della matrice dei coefcienti contiene soltanto un numero
non nullo, allora il sistema lineare ridotto associato ` e compatibile e ha una sola
soluzione.
b. Quella illustrata nellEsempio 1.6, ovvero il numero delle righe non nulle della
matrice completa ridotta per righe ` e uguale al numero delle righe non nulle della
matrice dei coefcienti ed ` e minore del numero delle incognite; lultima riga non
nulla della matrice dei coefcienti contiene almeno un numero non nullo; allora il
sistema lineare ridotto ` e compatibile e ammette innite soluzioni che dipendono da
almeno unincognita libera.
c. Quella illustrata nellEsempio 1.7, ovvero il numero delle righe non nulle della
matrice completa ridotta per righe ` e maggiore (di una unit` a) del numero delle righe
non nulle della matrice dei coefcienti ridotta per righe e pertanto il sistema lineare
ridotto associato ` e incompatibile.
Le denizioni seguenti (che avranno un ruolo cruciale in tutto il testo) permettono, in
modo elementare, di distinguere le situazioni prima esposte.
Denizione 1.9 Si dice rango di una matrice ridotta per righe il numero delle righe non
nulle.
Capitolo 1 25
Denizione 1.10 Si dice rango di una matrice il rango di una qualsiasi matrice ridotta
per righe da essa ottenuta.
Osservazione 1.2 In base alla precedente denizione il rango della matrice formata da
tutti zeri ` e 0.
In letteratura, le notazioni pi` u comuni per indicare il rango di una matrice sono rank(A) =
rg(A) = r(A) = rk(A) = (A). Si user` a la notazione rank(A).
Osservazione 1.3
`
E evidente che afnch` e la Denizione 1.10 abbia senso ` e necessario
dimostrare che, qualunque sia il processo di riduzione per righe usato, le varie matrici
ridotte ottenute hanno lo stesso rango. In realt` a, la Denizione 1.10 esprime il metodo di
calcolo del rango di una matrice. Per dimostrare laffermazione appena citata ` e necessario
enunciare unaltra denizione di rango di una matrice e ci ` o sar` a fatto nel Paragrafo 4.3
dopo aver introdotto nozioni adesso premature.
I tre esempi prima elencati possono essere riscritti, in termini della nozione di rango, nel
modo seguente:
a. rank(A) = rank(A[B) = 3; il rango delle due matrici ` e uguale e coincide con il
numero delle incognite;
b. rank(A) = rank(A[B) = 2; il rango delle due matrici ` e uguale ma ` e inferiore di
una unit` a al numero delle incognite;
c. rank(A) = 3, rank(A[B) = 4; i due ranghi sono diversi, il sistema lineare ` e
incompatibile.
Si ` e cos` quasi dimostrato il famoso:
Teorema 1.2 Teorema di Rouch eCapelli Un sistema lineare in n incognite ` e com-
patibile se e solo se il rango della matrice dei coefcienti A coincide con il rango della
matrice completa (A[B). In particolare, se rank(A) = rank(A[B) = n, il sistema li-
neare ha ununica soluzione. Se rank(A) = rank(A[B) = k < n, il sistema lineare
ammette innite soluzioni che dipendono da n k incognite libere.
Si osservi, infatti, che il Teorema di Rouch eCapelli ` e banalmente dimostrato solo nel
caso dei sistemi lineari ridotti; per completare la dimostrazione ` e necessario, come gi` a os-
servato, enunciare unaltra denizione di rango di una matrice e provare che le operazioni
di riduzione per righe di una matrice non ne alterano il rango (cfr. Teor. 4.21).
26 Sistemi Lineari
Osservazione 1.4 Si osservi che un sistema lineare omogeneo ` e sempre compatibile, per-
ci ` o ` e solo interessante capire se ammetta una sola soluzione (quella nulla) o innite solu-
zioni e ci ` o dipende interamente dal rango della matrice dei coefcienti. Per la risoluzione
di un sistema lineare omogeneo ` e sufciente ridurre per righe la matrice dei coefcienti
(questo caso sar` a esaminato in dettaglio nel Paragrafo 1.2.1).
Osservazione 1.5 Mentre segue dalla Denizione 1.10 che, per una matrice A con m
righe e n colonne, rank(A) m, si dimostrer` a formalmente che il rango della matrice
dei coefcienti di un sistema lineare ` e un numero inferiore o uguale al minore tra il numero
delle equazioni e il numero delle incognite, cio` e rank(A) m e rank(A) n.
Osservazione 1.6 Al pi ` u il rango della matrice completa differisce di una unit` a dal rango
della matrice dei coefcienti, cio` e rank(A[B) rank(A) + 1.
Esempio 1.9 Metodo di riduzione di GaussJordan Per determinare le soluzioni
di un sistema lineare si pu` o procedere in modo leggermente diverso da quando si ` e visto
nora. Quando si perviene alla matrice completa ridotta per righe, anzich e scrivere il si-
stema lineare ridotto associato si pu` o, in modo equivalente, procedere allo stesso calcolo
mediante unulteriore riduzione della matrice completa allo scopo di pervenire alla lettura
nellultima colonna (quella dei termini noti) delle soluzioni del sistema lineare. Questo
metodo, detto anche metodo di riduzione di GaussJordan, per differenziarlo dal metodo
di riduzione di Gauss introdotto in precedenza, ` e molto efcace quando si ha una sola so-
luzione, ma pu` o presentare alcune difcolt` a di calcolo negli altri casi. Viene ora illustrato
con un esempio e precisamente partendo dallultimo passaggio di riduzione nellEsempio
1.5. La matrice dei coefcienti ha, in questo caso, lo stesso numero di righe e di colon-
ne. Pertanto ha senso considerare la sua diagonale principale, cio` e linsieme formato da
tutti gli elementi a
ii
, i = 1, 2, 3 (tale nozione sar` a ripresa e riformulata con maggiore
propriet` a di linguaggio nellEsempio 2.6). Quando la matrice dei coefcienti ` e ridotta
per righe si inizia con il far comparire 1 sulla sua diagonale principale e poi, partendo
dallultima riga e risalendo verso la prima, si annullano i termini della matrice sopra la
diagonale principale.

1 1 2
0 2 7
0 0 1

9
17
3

R
2
(1/2)R
2
R
3
R
3

1 1 2 9
0 1
7
2

17
2
0 0 1 3

R
2
R
2
+ (7/2)R
3
R
1
R
1
2R
3

1 1 0
0 1 0
0 0 1

3
2
3

R
1
R
1
R
2

1 0 0
0 1 0
0 0 1

1
2
3

.
Capitolo 1 27
Si osservi che sullultima colonna, si legge, in ordine, proprio la soluzione del sistema li-
neare dato. Si presti molta attenzione allordine con cui compaiono i valori delle incognite
nellultima colonna, che dipende dal metodo di riduzione seguito.
Esercizio 1.1 Discutere e risolvere, al variare del parametro a R, il seguente sistema
lineare di tre equazioni in tre incognite:

x + 2y 3z = 4
3x y + 5z = 2
4x + y + (a
2
14)z = a + 2.
Soluzione Si procede con la riduzione per righe della matrice completa (A[B), ripor-
tando solo i passaggi essenziali.
(A[B) =

1 2 3
3 1 5
4 1 a
2
14

4
2
a + 2

R
2
R
2
3R
1
R
3
R
3
4R
1

1 2 3
0 7 14
0 7 a
2
2

4
10
a 14


R
3
R
3
R
2

1 2 3
0 7 14
0 0 a
2
16

4
10
a 4

.
La matrice dei coefcienti A ` e ridotta per righe, quindi si presentano i seguenti casi:
1. rank(A) = 3 se e solo se a
2
16 = 0 ossia se e solo se a / 4, 4;
2. rank(A) = 2 se e solo se a = 4 oppure a = 4.
Per determinare le soluzioni del sistema lineare si devono considerare tre casi:
1. a / 4, 4, poich e rank(A) = 3 anche rank(A[B) = 3. Il sistema lineare ` e
compatibile e ammette una sola soluzione, che si determina o a partire dal sistema
lineare ridotto associato, oppure procedendo allulteriore riduzione della matrice
completa prima ottenuta nel modo seguente:

R
3

1
a
2
16
R
3

1 2 3 4
0 7 14 10
0 0 1
a 4
(a + 4)(a 4)

R
2

1
7
R
2
28 Sistemi Lineari

1 2 3 4
0 1 2
10
7
0 0 1
1
a + 4

R
2
R
2
+ 2R
3
R
1
R
1
+ 3R
3

1 2 0
4a + 19
a + 4
0 1 0
10a + 54
7(a + 4)
0 0 1
1
a + 4

R
1
R
1
2R
2

1 0 0
8a + 25
7(a + 4)
0 1 0
10a + 54
7(a + 4)
0 0 1
1
a + 4

.
In questo modo si leggono, ordinatamente in colonna, i valori delle tre incognite.
2. a = 4, sostituendo tale valore di a nellultimo passaggio di riduzione della
matrice completa (A[B) si ha:

1 2 3
0 7 14
0 0 0

4
10
8

da cui segue che rank(A) = 2 mentre rank(A[B) = 3, il sistema lineare ` e quindi


incompatibile.
3. a = 4, sostituendo tale valore di a nellultimo passaggio di riduzione della matrice
completa (A[B) si ha:

1 2 3 4
0 7 14 10
0 0 0 0

R
2

1
7
R
2

1 2 3 4
0 1 2
10
7
0 0 0 0

,
Capitolo 1 29
da cui segue che rank(A) = rank(A[B) = 2 (2 < 3, con 3 numero delle
incognite) il sistema lineare ` e, quindi, compatibile e ammette innite soluzioni:

x =
8
7
t
y =
10
7
+ 2t
z = t, t R.
Osservazione 1.7 Le soluzioni del sistema lineare precedente possono essere riscritte nel
modo seguente:
(x, y, z) =

8
7
t,
10
7
+ 2t, t

8
7
,
10
7
, 0

+ t(1, 2, 1), t R,
mettendo cos` meglio in evidenza la dipendenza dallincognita libera z = t. Si osservi
inoltre che sostituendo a t un particolare valore si ottiene una soluzione particolare del
sistema lineare.
1.2.1 Sistemi lineari omogenei
Si ricordi che un sistema lineare omogeneo ` e un sistema lineare avente tutti i termini noti
uguali a zero, cio` e del tipo:

a
11
x
1
+ a
12
x
2
+ . . . . . . + a
1n
x
n
= 0
a
21
x
1
+ a
22
x
2
+ . . . . . . + a
2n
x
n
= 0
.
.
.
a
m1
x
1
+ a
m2
x
2
+ . . . . . . + a
mn
x
n
= 0, a
ij
R,
(1.6)
la cui matrice dei coefcienti A coincide con (1.5) e quella completa (A[B) ` e:
(A[B) =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn

0
0
.
.
.
0

;
quindi il rango della matrice dei coefcienti A coincide con il rango della matrice comple-
ta (A[B). Infatti, come si ` e gi` a osservato, un sistema lineare omogeneo ammette sempre
almeno la soluzione nulla.
`
E molto interessante distinguere il caso in cui si ha una sola
soluzione da quello con innite soluzioni:
30 Sistemi Lineari
1. se il rango di A coincide con il numero delle incognite, allora esiste solo la solu-
zione (0, 0, . . . , 0);
2. se il rango di A ` e un numero k strettamente minore del numero delle incognite n,
allora esistono innite soluzioni che dipendono da n k incognite libere.
Esempio 1.10 Il seguente sistema lineare omogeneo di quattro equazioni in cinque inco-
gnite:

x
3
+ x
4
+ x
5
= 0
x
1
x
2
+ 2x
3
3x
4
+ x
5
= 0
x
1
+ x
2
2x
3
x
5
= 0
2x
1
+ 2x
2
x
3
+ x
5
= 0
ha come matrice dei coefcienti:
A =

0 0 1 1 1
1 1 2 3 1
1 1 2 0 1
2 2 1 0 1

.
Procedendo alla sua riduzione per righe (si osservi che ` e inutile ridurre per righe la matrice
completa) si ha:

R
3
R
1
R
2
R
3

1 1 2 0 1
0 0 1 1 1
1 1 2 3 1
2 2 1 0 1

R
3
R
3
+ R
1
R
4
R
4
2R
1

1 1 2 0 1
0 0 1 1 1
0 0 0 3 0
0 0 3 0 3

R
3
(1/3)R
3
R
4
(1/3)R
4

1 1 2 0 1
0 0 1 1 1
0 0 0 1 0
0 0 1 0 1

R
4
R
4
R
2

1 1 2 0 1
0 0 1 1 1
0 0 0 1 0
0 0 0 1 0

.
Si deduce che rank(A)=3, esistono, quindi, innite soluzioni che dipendono da 53=2
incognite libere. Il sistema lineare ridotto associato ` e:

x
1
+ x
2
2x
3
x
5
= 0
x
3
+ x
4
+ x
5
= 0
x
4
= 0
(1.7)
Capitolo 1 31
le cui soluzioni sono:

x
1
= t
1
t
2
x
2
= t
2
x
3
= t
1
x
4
= 0
x
5
= t
1
, t
1
, t
2
R.
Osservazione 1.8 Linsieme delle soluzioni del sistema lineare precedente si pu` o scrivere
come:

(x
1
, x
2
, x
3
, x
4
, x
5
) = (t
1
t
2
, t
2
, t
1
, 0, t
1
)
= t
1
(1, 0, 1, 0, 1) + t
2
(1, 1, 0, 0, 0) [ t
1
, t
2
R

.
Il seguente teorema mette in relazione le soluzioni di un sistema lineare compatibile qual-
siasi (1.2) con il sistema lineare omogeneo (1.6), che ha la stessa matrice dei coefcienti.
Tale sistema lineare (1.6) ` e anche detto il sistema lineare omogeneo associato a (1.2).
Teorema 1.3 Una generica soluzione di un sistema lineare compatibile (1.2) si ottiene
aggiungendo una (qualsiasi) soluzione particolare di (1.2) ad una generica soluzione del
sistema lineare omogeneo associato (1.6).
Dimostrazione Sia (x

1
, x

2
, . . . , x

n
) una soluzione particolare di (1.2) e (x
1
, x
2
, . . . , x
n
)
una soluzione generica del sistema lineare omogeneo associato (1.6), allora si verica
immediatamente che (x
1
+ x

1
, x
2
+ x

2
, . . . , x
n
+ x

n
) ` e ancora una soluzione di (1.2).
Viceversa, se (x

1
, x

2
, . . . , x

n
) e (x

1
, x

2
, . . . , x

n
) sono due soluzioni qualsiasi di (1.2),
delle quali (x

1
, x

2
, . . . , x

n
) sia quella generale e (x

1
, x

2
, . . . , x

n
) sia una soluzione par-
ticolare, allora ` e facile vericare che (x

1
x

1
, x

2
x

2
, . . . , x

n
x

n
) ` e soluzione del
sistema lineare omogeneo associato (1.6).
Esempio 1.11 Si consideri il sistema lineare:

x
1
+ x
2
2x
3
x
5
= 5
x
3
+ x
4
+ x
5
= 4
x
4
= 3
(1.8)
che ha come sistema lineare omogeneo associato (1.7). Linsieme delle sue soluzioni ` e:

(x
1
, x
2
, x
3
, x
4
, x
5
) = (7 t
1
t
2
, t
2
, 1 t
1
, 3, t
1
)
= (7, 0, 1, 3, 0) + t
1
(1, 0, 1, 0, 1) + t
2
(1, 1, 0, 0, 0) [ t
1
, t
2
R

.
32 Sistemi Lineari
Si osservi che (7, 0, 1, 3, 0) ` e una soluzione particolare del sistema lineare dato, mentre:
t
1
(1, 0, 1, 0, 1) + t
2
(1, 1, 0, 0, 0),
al variare di t
1
e t
2
in R, ` e la generica soluzione del sistema lineare omogeneo (1.7)
associato.
Analogamente, si verichi per esercizio che il sistema lineare seguente:

x
1
+ x
2
2x
3
x
5
= 1
x
3
+ x
4
+ x
5
= 2
x
4
= 1,
che ha la stessa matrice dei coefcienti di (1.8) ma diversa matrice completa, ha come
insieme di soluzioni:

(x
1
, x
2
, x
3
, x
4
, x
5
) = (7 t
1
t
2
, t
2
, 3 t
1
, 1, t
1
)
= (7, 0, 3, 1, 0) + t
1
(1, 0, 1, 0, 1) + t
2
(1, 1, 0, 0, 0) [ t
1
, t
2
R

.
Capitolo 2
Matrici e Determinanti
Scopo di questo capitolo ` e quello di formalizzare il concetto di matrice gi` a introdotto
nel precedente capitolo e studiare le propriet` a essenziali dellinsieme delle matrici che
costituisce un valido esempio di spazio vettoriale, struttura algebrica che sar` a denita nel
Capitolo 4.
2.1 Somma di matrici e prodotto per un numero reale
Denizione 2.1 Una matrice di m righe e di n colonne, ad elementi reali, ` e una tabella
del tipo:
A =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn

, (2.1)
con a
ij
R, i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Per convenzione le matrici vengono indicate con le lettere maiuscole dellalfabeto e lin-
sieme della matrici di m righe ed n colonne sar` a indicato con R
m,n
o, talvolta, con

R
(m, n). In forma sintetica la matrice (2.1) si pu` o anche scrivere come:
A = (a
ij
), 1 i m, 1 j n,
e a
ij
` e lelemento della matrice A di posto (i, j).
Esempio 2.1 I numeri reali possono essere considerati come matrici di una riga ed una
colonna, cio` e come elementi di R
1,1
. Quindi R ` e effettivamente uguale a R
1,1
.
33
34 Matrici e Determinanti
Esempio 2.2 Le matrici che hanno lo stesso numero di righe e di colonne si dicono
quadrate e tale numero si dice ordine della matrice. Per esempio:
A =

1 2
3 4

` e una matrice quadrata di ordine 2.


Esempio 2.3 Le matrici con una riga e n colonne si dicono matrici riga. Per esempio:
A =

1 2 3 4

R
1,4
` e una matrice riga.
Esempio 2.4 Le matrici con m righe e una colonna si dicono matrici colonna. Per
esempio:
A =

1
2
3
4

R
4,1
` e una matrice colonna.
Osservazione 2.1 Si osservi che, alla luce dei due esempi precedenti, gli elementi del
prodotto cartesiano:
R
n
= (x
1
, x
2
, . . . , x
n
) [ x
i
R, i = 1, 2, . . . , n
possono essere visti come matrici riga o colonna. Quindi R
n
pu` o essere identicato sia
con R
1,n
sia con R
n,1
.
Esempio 2.5 La matrice (a
ij
) R
m,n
, con tutti gli elementi a
ij
= 0, si dice matrice
nulla e si indica con O, da non confondersi con il numero 0 R.
`
E evidente che la
matrice nulla ` e lunica matrice ad avere rango zero.
Esempio 2.6 Nel caso di una matrice quadrata A = (a
ij
) di ordine n, tutti gli elementi
del tipo a
ii
, al variare di i da 1 a n, costituiscono la diagonale principale. Rivestiranno
in seguito molta importanza le matrici diagonali, vale a dire le matrici quadrate aventi
elementi tutti nulli al di fuori della diagonale principale cio` e a
ij
= 0 se i = j . Linsieme
delle matrici diagonali di ordine n sar` a indicato con:
T(R
n,n
) =

a
11
0 . . . 0
0 a
22
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . a
nn

[ a
ii
R, i = 1, 2, . . . , n

. (2.2)
Capitolo 2 35
Esempio 2.7 Casi particolari dellesempio precedente sono la matrice unit` a I R
n,n
,
ossia la matrice diagonale avente tutti 1 sulla diagonale principale:
I =

1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1

e la matrice quadrata nulla O R


n,n
, intendendosi come tale la matrice quadrata avente
tutti gli elementi uguali a 0.
La denizione che segue stabilisce la relazione di uguaglianza tra matrici.
Denizione 2.2 Due matrici A = (a
ij
) e B = (b
ij
) sono uguali se:
1. hanno lo stesso numero di righe e di colonne, cio` e A e B appartengono entrambe
allo stesso insieme R
m,n
,
2. gli elementi di posto uguale coincidono, cio` e:
a
ij
= b
ij
, i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Si introducono ora le denizioni di somma di matrici e di prodotto di un numero reale per
una matrice sullinsieme R
m,n
.
Denizione 2.3 Si denisce somma delle due matrici A = (a
ij
), B = (b
ij
), entrambe
appartenenti a R
m,n
, la matrice A + B R
m,n
data da:
A + B = (a
ij
+ b
ij
).
Esempio 2.8 Date le matrici:
A =

1 2
3 4

, B =

0 5
2 7

la loro somma ` e la matrice:


A + B =

1 7
1 11

.
Se A e B non appartengono allo stesso insieme R
m,n
, non ` e possibile denire la loro
somma. Ad esempio non ` e denita la somma della matrice A con la matrice:
C =

0 3 2
1 5 6

.
36 Matrici e Determinanti
Teorema 2.1 Per loperazione di somma di matrici denita sullinsieme R
m,n
valgono
le propriet` a di seguito elencate:
1. A + B = B + A, A, B R
m,n
(propriet` a commutativa).
2. A + (B + C) = (A + B) + C, A, B, C R
m,n
(propriet` a associativa).
3. O + A = A + O = A, A R
m,n
(esistenza dellelemento neutro).
4. A + (A) = O, A R
m,n
(esistenza dellopposto).
Dimostrazione
`
E lasciata per esercizio ed ` e la naturale conseguenza del fatto che la
somma di numeri reali soddisfa le stesse propriet` a. Lelemento neutro per la somma di
matrici ` e la matrice nulla O R
m,n
introdotta nellEsempio 2.5, lopposto della matrice
A=(a
ij
) R
m,n
` e la matrice A R
m,n
cos` denita A = (a
ij
).
Osservazione 2.2 Un insieme con unoperazione che verichi le propriet` a del teorema
precedente si dice gruppo commutativo o semplicemente gruppo se soddisfa solo le pro-
priet` a 2., 3., 4. Pertanto (R
m,n
, +) con loperazione di somma di matrici ha la struttura di
gruppo commutativo.
Denizione 2.4 Si denisce prodotto di un numero reale per una matrice A = (a
ij
) di
R
m,n
la matrice che si ottiene moltiplicando ogni elemento di A per il numero reale ,
ossia:
A = (a
ij
),
quindi A ` e ancora una matrice di R
m,n
.
A volte si usa il termine scalare per indicare il numero reale e il prodotto di un numero
reale per una matrice ` e anche detto quindi prodotto di uno scalare per una matrice.
Esempio 2.9 Se:
A =

1 2
3 4

,
il prodotto 3A ` e la matrice:
3A =

3 6
9 12

.
Lopposto della matrice A ` e dunque A = (1)A. Inoltre 0A = O, dove O indica la
matrice nulla.
Teorema 2.2 Per il prodotto di un numero reale per una matrice valgono le seguenti
propriet` a che mettono in relazione la somma di matrici con la somma e il prodotto di
numeri reali:
Capitolo 2 37
1. (A + B) = A + B, R, A, B R
m,n
;
2. ( + )A = A + A, , R, A R
m,n
;
3. ()A = (A), , R, A R
m,n
;
4. 1A = A, A R
m,n
.
Dimostrazione Si tratta di un semplice esercizio.
Osservazione 2.3 Linsieme delle matrici R
m,n
, considerato congiuntamente con le ope-
razioni di somma e di prodotto per numeri reali, ciascuna delle quali dotate delle quattro
propriet` a prima enunciate, d` a luogo ad una struttura algebrica che ` e un esempio di spazio
vettoriale.
Gli spazi vettoriali, che costituiscono la base dellalgebra lineare, saranno studiati in mo-
do intensivo a partire dal Capitolo 4. Si ` e preferito, per ragioni didattiche, anteporre la
descrizione degli esempi pi` u facili di spazi vettoriali alla loro stessa denizione. Que-
sto ` e il caso di R
m,n
e nel prossimo capitolo la stessa idea sar` a applicata allinsieme dei
vettori ordinari dello spazio in modo da permettere al Lettore di prendere condenza con
nozioni, a volte troppo teoriche rispetto alle conoscenze acquisite nella scuola seconda-
ria superiore e di dare la possibilit` a di affrontare pi` u agevolmente lo studio dei capitoli
successivi.
2.2 Il prodotto di matrici
La denizione di prodotto di matrici, oggetto di questo paragrafo, trova una sua giustica-
zione, per esempio, nella rappresentazione mediante matrici dei movimenti in uno spazio
vettoriale e nella loro composizione, problematiche che saranno trattate diffusamente nel
Capitolo 6.
A prescindere da argomenti pi` u sosticati, si introduce questa nuova operazione tra ma-
trici che, anche se a prima vista appare singolare, ` e comunque dotata di interessanti
propriet` a, che rendono plausibile la seguente:
Denizione 2.5 Il prodotto della matrice A = (a
ij
) di R
m,n
con la matrice B = (b
ij
) di
R
n,p
` e la matrice C = (c
ij
) di R
m,p
i cui elementi sono dati da:
c
ij
= a
i1
b
1j
+ a
i2
b
2j
+ . . . + a
in
b
nj
=
n

k=1
a
ik
b
kj
. (2.3)
38 Matrici e Determinanti
Si possono quindi solo moltiplicare matrici di tipo particolare, ossia il primo fattore deve
avere il numero di colonne pari al numero delle righe del secondo fattore. La matrice
prodotto avr` a il numero di righe del primo fattore e il numero di colonne del secondo
fattore. Da questa denizione segue che il prodotto di due matrici non ` e commutativo. A
titolo di esempio, si calcoli il prodotto delle matrici:
A =

1 2 3
4 5 6

, B =

1 1 2 3
0 1 2 4
3 5 7 9

,
e si ricavino i primi due elementi della matrice C = (c
ij
) = AB R
2,4
:
c
11
si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi
della prima colonna di B: c
11
= 1 1 + 2 0 + 3 3 = 10.
c
12
si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi
della seconda colonna di B: c
12
= 1 (1) + 2 1 + 3 5 = 16 e cos` via.
La matrice C ` e dunque:
C =

10 16 27 38
22 31 60 86

.
Per la sua particolare denizione, questo tipo di prodotto di matrici prende il nome di
prodotto righe per colonne.
Osservazione 2.4
`
E chiaro che il prodotto di due matrici quadrate dello stesso ordine ` e
ancora una matrice quadrata dello stesso ordine, ma anche in questo caso non vale in
generale la propriet` a commutativa, per esempio date:
A =

1 2
3 4

, B =

0 1
2 3

si ha:
AB =

4 7
8 15

mentre:
BA =

3 4
11 16

.
Nel caso delle matrici quadrate di ordine 1 il prodotto ` e ovviamente commutativo perch e
coincide con il prodotto di numeri reali. Anche nel caso delle matrici diagonali il prodotto
` e commutativo, come si osserver` a nel Paragrafo 2.5.
Capitolo 2 39
Osservazione 2.5 Il prodotto di matrici ha singolari particolarit` a. Per esempio:
AB =

1 2
1 2

2 2
1 1

0 0
0 0

= O R
2,2
,
in assoluto contrasto con il solito prodotto di numeri reali in cui se ab = 0 allora ne-
cessariamente o a = 0 o b = 0. Ovviamente se O R
m,n
` e la matrice nulla e
A R
n,p
, B R
k,m
allora:
OA = O R
m,p
e BO = O R
k,n
.
Esempio 2.10 Si osservi che, date:
A =

1 2 3 4

R
1,4
, B =

1
2
3
4

R
4,1
,
allora:
AB = (30) R
1,1
,
mentre:
BA =

1 2 3 4
2 4 6 8
3 6 9 12
4 8 12 16

R
4,4
.
Teorema 2.3 Per il prodotto di matrici valgono le seguenti propriet` a:
1. (AB)C = A(BC), A R
m,n
, B R
n,k
, C R
k,p
(propriet` a associativa);
2. A(B + C) = AB + AC, A R
p,m
, B, C R
m,n
e
(X + Y )Z = XZ + Y Z, X, Y R
m,n
, Z R
n,k
(propriet` a distributive
del prodotto rispetto alla somma. Si osservi la necessit` a di enunciare entrambe le
propriet` a per la mancanza della propriet` a commutativa del prodotto);
3. (A)B = (AB) = A(B), R, A R
m,n
, B R
n,k
;
4. AI = IA = A, A R
n,n
(le due uguaglianze occorrono solo nel caso del-
le matrici quadrate; la matrice unit` a I R
n,n
` e lelemento neutro rispetto al
prodotto).
40 Matrici e Determinanti
Dimostrazione
`
E lasciata per esercizio nei casi pi ` u semplici, per gli altri si rimanda al
Paragrafo 2.9.
`
E valido il seguente teorema che permette di confrontare il rango del prodotto di n matrici
moltiplicabili tra di loro con il rango di ciascuna di esse, per la dimostrazione si rimanda
al Paragrafo 4.5.
Teorema 2.4 Siano A
1
, A
2
, . . . , A
n
matrici moltiplicabili tra di loro, allora:
rank(A
1
A
2
A
n
) minrank(A
1
), rank(A
2
), . . . , rank(A
n
), (2.4)
quindi, in particolare, il rango del prodotto di matrici ` e minore o uguale del rango di
ciascun fattore.
Osservazione 2.6
`
E chiaro, anche se pu` o sorprendere, che ` e necessario porre il segno di
disuguaglianza in (2.4), come si pu` o per esempio notare dal fatto che:

0 1
0 0

0 1
0 0

0 0
0 0

,
infatti anche se i due fattori hanno rango 1 il loro prodotto ha rango 0.
2.2.1 I sistemi lineari in notazione matriciale
Usando la denizione di prodotto di matrici, si pu` o scrivere in modo compatto un generico
sistema lineare di m equazioni in n incognite del tipo (1.2). Siano:
A =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn

R
m,n
la matrice dei coefcienti,
X =

x
1
x
2
.
.
.
x
n

R
n,1
la matrice colonna delle incognite e:
B =

b
1
b
2
.
.
.
b
m

R
m,1
Capitolo 2 41
la matrice colonna dei termini noti, allora il sistema lineare (1.2) si pu` o scrivere, in
notazione matriciale, come:
AX = B.
2.3 La matrice inversa
Avendo introdotto il prodotto di matrici (che generalizza il prodotto di numeri reali) ap-
pare naturale introdurre il concetto di inversa di una matrice quadrata; a differenza del
caso dei numeri ` e necessario prestare particolare attenzione alla denizione in quanto il
prodotto di matrici non ` e commutativo.
Denizione 2.6 Sia A R
n,n
una matrice quadrata di ordine n. A si dice invertibile se
esiste una matrice X R
n,n
tale che:
AX = XA = I, (2.5)
dove I indica la matrice unit` a di ordine n.
Teorema 2.5 Se A R
n,n
` e invertibile, allora la matrice X, denita in (2.5), ` e unica.
Dimostrazione Si supponga per assurdo che esistano due matrici diverse X, X

R
n,n
che vericano la (2.5). Allora:
X

= IX

= (XA)X

= X(AX

) = XI = X
che ` e assurdo. Si osservi che, nella dimostrazione, si ` e usata la propriet` a associativa del
prodotto di matrici.
La matrice X cos` denita si dice matrice inversa di A e si indica con A
1
.
Per la matrice inversa valgono le seguenti propriet` a la cui dimostrazione ` e lasciata per
esercizio.
Teorema 2.6 1. (AB)
1
= B
1
A
1
, con A, B R
n,n
matrici invertibili.
2. (A
1
)
1
= A, con A R
n,n
matrice invertibile.
Osservazione 2.7 Segue dal punto 1. e dalle propriet` a del prodotto di matrici che lin-
sieme:
GL(n, R) = A R
n,n
[ A ` e invertibile
` e un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2).
42 Matrici e Determinanti
Nei paragra successivi si affronter` a il problema di calcolare linversa di una matrice, di
conseguenza, si tratter` a di capire, innanzi tutto, quando una matrice quadrata ` e invertibile.
Si consiglia, prima di continuare la lettura, di svolgere il seguente:
Esercizio 2.1 Determinare le condizioni afnch e la matrice:
A =

a
11
a
12
a
21
a
22

sia invertibile e, in questi casi, calcolare A


1
.
Si osservi che per risolvere lesercizio si deve discutere e risolvere il sistema lineare
AX = I :

a
11
a
12
a
21
a
22

x
11
x
12
x
21
x
22

1 0
0 1

di quattro equazioni nelle quattro incognite x


11
, x
12
, x
21
, x
22
, che sono gli elementi della
matrice X.
2.4 La trasposta di una matrice
Denizione 2.7 Data una matrice A R
m,n
si denisce trasposta di A, e la si indica con
t
A la matrice di R
n,m
che si ottiene scambiando le righe con le colonne della matrice A,
in simboli se A = (a
ij
) allora
t
A = (b
ij
) con b
ij
= a
ji
, i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Esempio 2.11 Se:
A =

1 2 3
4 5 6

allora:
t
A =

1 4
2 5
3 6

.
Se:
A =

1 2 3 4

allora:
t
A =

1
2
3
4

.
Capitolo 2 43
Osservazione 2.8 1. Si osservi che se una matrice ` e quadrata, allora anche la sua
trasposta ` e una matrice quadrata dello stesso ordine, ma, in generale, diversa dalla
matrice di partenza, per esempio:
A =

1 2
1 0

,
t
A =

1 1
2 0

.
2. Se una matrice ` e diagonale (cfr. Es. 2.6) allora la sua trasposta coincide con la
matrice stessa.
Per la trasposta di una matrice valgono le seguenti propriet` a la cui dimostrazione ` e lasciata
per esercizio e si pu` o leggere nel Paragrafo 2.9.
Teorema 2.7 1.
t
(A + B) =
t
A +
t
B, A, B R
m,n
.
2.
t
(A) =
t
A, A R
m,n
, R.
3.
t
(AB) =
t
B
t
A, A R
m,n
, B R
n,k
.
4. Se A R
n,n
` e una matrice invertibile, allora (
t
A)
1
=
t
(A
1
).
2.5 Matrici quadrate di tipo particolare
1. Linsieme delle matrici matrici triangolari superiori di R
n,n
denito da:
T (R
n,n
) =

a
11
a
12
. . . . . . . . . a
1n
0 a
22
. . . . . . . . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . a
kk
. . . a
kn
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 0 . . . a
nn

[ a
ij
R

; (2.6)
si tratta delle matrici quadrate che hanno tutti gli elementi nulli al di sotto della
diagonale principale, vale a dire se A = (a
ij
) con i, j = 1, 2, . . . , n, allora a
ij
= 0
se i > j .
`
E facile osservare che la somma di due matrici triangolari superiori ` e
ancora una matrice triangolare superiore, lo stesso vale per il prodotto di un numero
reale per una matrice triangolare superiore. Molto pi ` u sorprendente ` e il fatto che il
prodotto di due matrici triangolari superiori, entrambe dello stesso ordine, ` e ancora
una matrice triangolare superiore. Si supponga, infatti, di determinare la matrice
C = (c
ij
) R
n,n
prodotto delle matrici triangolari superiori A = (a
ij
) R
n,n
e
44 Matrici e Determinanti
B = (b
ij
) R
n,n
. Per semplicit` a si calcola ora solo lelemento c
21
della matrice
prodotto C = AB, lasciando il calcolo in generale per esercizio. Da (2.3) si ha:
c
21
= a
21
b
11
+ a
22
b
21
+ . . . a
2n
b
n1
= 0b
11
+ a
22
0 + . . . + a
2n
0 = 0,
in quanto a
ij
= 0 e b
ij
= 0 se i > j .
Si possono denire in modo analogo le matrici triangolari inferiori, con propriet` a
simili a quelle descritte nel caso delle matrici triangolari superiori. Come ` e gi` a stato
osservato nel Capitolo 1, il calcolo del rango di una matrice triangolare superiore ` e
molto semplice.
2. Linsieme delle matrici diagonali T(R
n,n
) introdotte nellEsempio 2.6. La carat-
teristica principale di tali matrici ` e la loro analogia con il campo dei numeri reali,
infatti il prodotto di due matrici diagonali ` e ancora una matrice diagonale, avente
ordinatamente sulla diagonale principale il prodotto degli elementi corrispondenti
delle due matrici date. Le matrici diagonali sono, ovviamente, sia matrici triangola-
ri superiori sia matrici triangolari inferiori. Quindi una matrice diagonale ` e ridotta
per righe, di conseguenza, il suo rango ` e pari al numero degli elementi non nulli
della diagonale principale. Nel caso di rango massimo, la matrice diagonale ` e in-
vertibile e la sua inversa ha sulla diagonale principale ordinatamente gli inversi dei
corrispettivi elementi della matrice data, ossia se:
A =

a
11
0
0 a
22

, con a
11
= 0, a
22
= 0, allora A
1
=

a
1
11
0
0 a
1
22

,
la verica di queste affermazioni ` e lasciata per esercizio.
3. Linsieme delle matrici simmetriche di R
n,n
denito da:
o(R
n,n
) = A R
n,n
[ A =
t
A; (2.7)
scrivendo esplicitamente la denizione si ottiene che una matrice simmetrica ` e del
tipo:
A =

a
11
a
12
. . . a
1n
a
12
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
1n
a
2n
. . . a
nn

;
in altri termini, una matrice A = (a
ij
) R
n,n
` e simmetrica se e solo se:
a
ij
= a
ji
, i, j = 1, 2, . . . , n,
Capitolo 2 45
e ci ` o giustica la sua denominazione.
Per esercizio si calcoli la somma di due matrici simmetriche, il prodotto di una
matrice simmetrica per un numero reale e la trasposta di una matrice simmetrica e si
stabilisca se si ottiene ancora una matrice simmetrica. Si osservi, in particolare, che
il prodotto di due matrici simmetriche non ` e, in generale, una matrice simmetrica.
Per esempio:
A =

1 1
1 2

, B =

3 1
1 1

, AB =

2 2
1 3

.
Per esercizio si individuino le condizioni necessarie e sufcienti afnch e il prodotto
di due matrici simmetriche sia ancora una matrice simmetrica. Invece, se A ` e
una matrice simmetrica invertibile, la sua inversa ` e ancora una matrice simmetrica,
(cfr. Teor. 2.7, punto 4.). Le matrici diagonali sono ovviamente simmetriche e
una matrice triangolare superiore o inferiore ` e simmetrica se e solo se ` e diagonale.
Le matrici simmetriche saranno di importanza fondamentale sia nella teoria della
diagonalizzazione di una matrice (cfr. Cap. 7) sia nella teoria delle forme bilineari
simmetriche (cfr. Cap. 8).
4. Linsieme delle matrici antisimmetriche di R
n,n
denito da:
/(R
n,n
) = A R
n,n
[ A =
t
A; (2.8)
scrivendo esplicitamente la denizione si ottiene che una matrice antisimmetrica ` e
del tipo:
A =

0 a
12
. . . a
1n
a
12
0 . . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
1n
a
2n
. . . 0

;
in altri termini, una matrice A = (a
ij
) R
n,n
` e antisimmetrica se e solo se:
a
ij
= a
ji
, i, j = 1, 2, . . . , n,
quindi, in particolare, a
ii
= 0, i = 1, 2, . . . , n. Per esercizio si calcoli la somma
di due matrici antisimmetriche, il prodotto di una matrice antisimmetrica per un
numero reale, il prodotto di due matrici antisimmetriche, la trasposta di una matrice
antisimmetrica e si stabilisca se si ottiene ancora una matrice antisimmetrica.
5. Linsieme delle matrici ortogonali di R
n,n
denito da:
O(n) = A R
n,n
[
t
AA = I, (2.9)
46 Matrici e Determinanti
con I matrice unit` a di ordine n. Usando il fatto che, in modo equivalente alla de-
nizione, A ` e ortogonale se A
t
A = I , si verichi per esercizio che ogni matrice
ortogonale A ` e invertibile, con inversa A
1
=
t
A. Si verichi inoltre che la traspo-
sta e linversa di una matrice ortogonale sono matrici ortogonali e che il prodotto
di due matrici ortogonali ` e ortogonale. Si stabilisca se la somma di due matrici
ortogonali ` e una matrice ortogonale e se il prodotto di una matrice ortogonale per
un numero reale ` e una matrice ortogonale. Le matrici ortogonali saranno di impor-
tanza fondamentale nella trattazione degli spazi vettoriali euclidei (cfr. Cap. 5) e le
loro propriet` a saranno dimostrate nel Teorema 5.7.
2.6 Le equazioni matriciali
Per equazione matriciale si intende unequazione la cui incognita ` e una matrice. Se si
escludono gli esempi banali di equazioni lineari (ogni numero reale pu` o essere considerato
come una matrice), come gi` a studiato nel Paragrafo 2.2.1, risolvendo un generico sistema
lineare, si ha un esempio di equazione matriciale AX = B con A in R
m,n
, X in R
n,1
,
B in R
m,1
, dove X ` e la matrice incognita e A e B sono note. In questo paragrafo verr` a
preso in esame lo studio di unequazione del tipo:
AX = B (2.10)
con A R
m,n
, X R
n,p
, B R
m,p
. Lincognita X = (x
ij
) dellequazione matriciale
` e, quindi, una matrice con n righe e p colonne. In totale, si devono determinare gli np
elementi x
ij
di X.
Si osservi che, se si ` e in grado di risolvere lequazione (2.10), si ` e anche in grado di
risolvere unequazione matriciale del tipo:
Y C = D (2.11)
con incognita Y, infatti operando con la trasposta su ambo i membri di (2.11) si ha:
t
C
t
Y =
t
D,
cio` e ci si riconduce ad unequazione matriciale del tipo (2.10), avendo cura di notare che
lincognita della nuova equazione sar` a
t
Y.
Scrivendo esplicitamente (2.10) si ottiene un sistema lineare di mp equazioni con np
incognite. Infatti posto:
A =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn

R
m,n
, X =

x
11
x
12
. . . x
1p
x
21
x
22
. . . x
2p
.
.
.
.
.
.
.
.
.
x
n1
x
n2
. . . x
np

R
n,p
,
Capitolo 2 47
B =

b
11
b
12
. . . b
1p
b
21
b
22
. . . b
2p
.
.
.
.
.
.
.
.
.
b
m1
b
m2
. . . b
mp

R
m,p
,
la prima riga del prodotto AX = B corrisponde al seguente sistema lineare di p righe e
np incognite x
ij
:

a
11
x
11
+ a
12
x
21
+ . . . + a
1n
x
n1
= b
11
a
11
x
12
+ a
12
x
22
+ . . . + a
1n
x
n2
= b
12
.
.
.
a
11
x
1p
+ a
12
x
2p
+ . . . + a
1n
x
np
= b
1p
.
(2.12)
In totale, da AX = B si hanno, quindi, mp equazioni in quanto A ha m righe. Mettendo
in evidenza le righe di X e di B nel modo seguente:
X=

x
11
x
12
. . . x
1p
x
21
x
22
. . . x
2p
.
.
.
.
.
.
.
.
.
x
n1
x
n2
. . . x
np

X
1
X
2
.
.
.
X
n

, B=

b
11
b
12
. . . b
1p
b
21
b
22
. . . b
2p
.
.
.
.
.
.
.
.
.
b
m1
b
m2
. . . b
mp

B
1
B
2
.
.
.
B
m

,
il sistema lineare (2.12) si pu` o scrivere come:
a
11
X
1
+ a
12
X
2
+ . . . + a
1n
X
n
= B
1
.
Ripetendo lo stesso calcolo per le altre righe di AX = B si ottiene che lequazione
matriciale (2.10) equivale al sistema lineare di equazioni matriciali:

a
11
X
1
+ a
12
X
2
+ . . . + a
1n
X
n
= B
1
a
21
X
1
+ a
22
X
2
+ . . . + a
2n
X
n
= B
2
.
.
.
a
m1
X
1
+ a
m2
X
2
+ . . . + a
mn
X
n
= B
m
,
con incognite le righe X
1
, X
2
, . . . , X
n
della matrice X e termini noti le righe B
1
, B
2
, . . . ,
B
n
della matrice B. Si noti, quindi, che il sistema lineare ottenuto ` e dello stesso tipo dei
sistemi lineari trattati nel Capitolo 1, con la differenza che le incognite sono le righe della
matrice, ossia sono elementi di R
p
al posto di essere numeri reali.
Per il Teorema di Rouch eCapelli (cfr. Teor. 1.2), essendo tale sistema equivalente ad
un sistema lineare di mp equazioni in np incognite, esso ammette soluzioni se e so-
lo se il rango della matrice dei coefcienti A e il rango della matrice completa (A[B)
48 Matrici e Determinanti
coincidono. Si procede, pertanto, alla riduzione per righe della matrice completa:
(A[B) =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn

b
11
b
12
. . . b
1p
b
21
b
22
. . . b
2p
.
.
.
.
.
.
.
.
.
b
m1
b
m2
. . . b
mp

.
Si distinguono tre casi:
1. rank(A) = rank(A[B): non esistono soluzioni;
2. rank(A) = rank(A[B) = n numero delle incognite: esiste una sola soluzione;
3. rank(A) = rank(A[B) = k < n: esistono innite soluzioni che dipendono da
n k elementi di R
p
.
Esempio 2.12 Per determinare le soluzioni dellequazione matriciale AX = B, con:
A =

2 3 1
1 0 1
0 3 1

, B =

1 2 2
0 1 1
1 0 4

,
si procede con la riduzione per righe della matrice completa (A[B), per esempio nel
modo seguente:
(A[B) =

2 3 1
1 0 1
0 3 1

1 2 2
0 1 1
1 0 4


R
2
2R
2
R
1

2 3 1
0 3 1
0 3 1

1 2 2
1 0 4
1 0 4

,
da cui si deduce che rank(A) = rank(A[B) = 2, si ottengono cos` innite soluzioni che
dipendono da un elemento qualsiasi (a, b, c) di R
3
. Ponendo:
X =

X
1
X
2
X
3

R
3,3
la matrice (A[B) ridotta per righe d` a luogo al sistema lineare ridotto:

2X
1
+ 3X
2
+ X
3
= (1, 2, 2)
3X
2
+ X
3
= (1, 0, 4)
le cui soluzioni sono:

X
1
= (3a + 1, 3b + 1, 3c + 3)
X
2
= (a, b, c)
X
3
= (3a 1, 3b, 3c 4), (a, b, c) R
3
Capitolo 2 49
e, quindi:
X =

3a + 1 3b + 1 3c + 3
a b c
3a 1 3b 3c 4

, (a, b, c) R
3
.
Esempio 2.13 Per determinare le soluzioni dellequazione matriciale XA = B, con:
A =

1 0 1
1 1 0
1 0 0

, B =

1 1 0
0 1 1

,
si osserva che da XA = B, calcolando la trasposta delle matrici del primo e del secondo
membro, si ha
t
A
t
X =
t
B, pertanto ci si riconduce ad unequazione matriciale dello
stesso tipo di quella studiata nellesempio precedente. Ponendo:
t
X = Y =

Y
1
Y
2
Y
3

R
3,2
segue che lequazione
t
AY =
t
B ` e equivalente al sistema lineare:

Y
1
+ Y
2
+ Y
3
= (1, 0)
Y
2
= (1, 1)
Y
1
= (0, 1),
che ha come unica soluzione:
Y
1
= (0, 1), Y
2
= (1, 1), Y
3
= (2, 0)
e, quindi:
X =

0 1 2
1 1 0

.
2.6.1 Calcolo della matrice inversa, primo metodo
Come immediata conseguenza del paragrafo precedente si procede al calcolo delleven-
tuale matrice inversa di una matrice quadrata A = (a
ij
) R
n,n
risolvendo lequazione
matriciale:
AX = I.
Si deve, quindi, ridurre per righe la matrice completa:
(A[ I) =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn

1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1

.
50 Matrici e Determinanti
`
E evidente che rank(A[ I) = n perch e la matrice (A[ I) ` e ridotta per righe in quanto I
` e ridotta per righe e rank(I) = n. Di conseguenza si ha limportante:
Teorema 2.8 Una matrice quadrata A R
n,n
` e invertibile se e solo se rank(A) = n.
Dimostrazione Se esiste linversa A
1
di A allora lequazione matriciale AX = I ha
ununica soluzione e, quindi, dal Teorema di Rouch eCapelli segue rank(A) = n.
Il viceversa non pu` o essere dimostrato a questo punto del corso, si rimanda al Paragrafo
4.3 per la dimostrazione. Infatti se rank(A) = n allora esiste una sola matrice X R
n,n
tale che AX = I (per il Teorema di Rouch eCapelli, cfr. Teor. 1.2), ma per dimostrare
che anche XA = I e dedurre quindi che X = A
1
si deve risolvere lequazione ma-
triciale
t
A
t
X = I . Pertanto ` e necessario dimostrare che anche
t
A ha lo stesso rango di
A, e ci ` o sar` a oggetto del Teorema 4.19. Infatti se esistono due matrici X e Y, entrambe
appartenti a R
n,n
, tali che AX = I e Y A = I allora segue X = Y infatti:
Y = Y I = Y (AX) = (Y A)X = IX = X.
Da rank(A) = n si ha che esiste una sola matrice X tale che AX = I . Da rank(
t
A) = n
segue che esiste una sola matrice Z R
n,n
tale che Z
t
A = I. Considerando la trasposta
delle matrici a primo e a secondo membro dellultima uguaglianza si ha
t
ZA = I, quindi,
dallosservazione precedente si ottiene
t
Z = X = A
1
.
Segue un esempio di calcolo della matrice inversa di una matrice invertibile A mediante
la risoluzione dellequazione matriciale AX = I. Un secondo metodo sar` a spiegato nel
Paragrafo 2.8.2.
Esercizio 2.2 Supponendo che esista, determinare linversa della matrice:
A =

0 0 2 0
1 0 0 1
0 1 3 0
2 1 5 3

.
Soluzione Si procede alla riduzione per righe della matrice (A[ I), il calcolo del rango
di A ` e contenuto in questo procedimento:

0 0 2 0 1 0 0 0
1 0 0 1 0 1 0 0
0 1 3 0 0 0 1 0
2 1 5 3 0 0 0 1

R
1
R
3
R
2
R
1

1 0 0 1 0 1 0 0
0 1 3 0 0 0 1 0
0 0 2 0 1 0 0 0
2 1 5 3 0 0 0 1

Capitolo 2 51

R
2
R
2
R
3
(1/2)R
3
R
4
R
4
2R
1

1 0 0 1 0 1 0 0
0 1 3 0 0 0 1 0
0 0 1 0
1
2
0 0 0
0 1 5 5 0 2 0 1

R
4
R
4
R
2

1 0 0 1 0 1 0 0
0 1 3 0 0 0 1 0
0 0 1 0
1
2
0 0 0
0 0 8 5 0 2 1 1

R
4
R
4
8R
3

1 0 0 1 0 1 0 0
0 1 3 0 0 0 1 0
0 0 1 0
1
2
0 0 0
0 0 0 5 4 2 1 1

.
A questo punto dellesercizio si deduce che rank(A) = 4, pertanto la matrice A ` e inver-
tibile. Per calcolare direttamente linversa conviene procedere riducendo ulteriormente
lultima matrice ottenuta, come descritto nellEsempio 1.9 del Capitolo 1. Dallultimo
passaggio segue:

R
4
(1/5)R
4

1 0 0 1 0 1 0 0
0 1 3 0 0 0 1 0
0 0 1 0
1
2
0 0 0
0 0 0 1
4
5
2
5

1
5

1
5

52 Matrici e Determinanti

R
1
R
1
R
4
R
2
R
2
+ 3R
3

1 0 0 0
4
5
3
5
1
5
1
5
0 1 0 0
3
2
0 1 0
0 0 1 0
1
2
0 0 0
0 0 0 1
4
5
2
5

1
5

1
5

.
Si legge cos` nellultimo passaggio, a destra, lespressione di A
1
, infatti le operazioni di
riduzione che iniziano dalla matrice completa (A[I), essendo rank(A)=rank(A[I)=n,
non possono far altro che portare a (I [ A
1
). In altri termini, moltiplicando a sinistra per
A
1
lequazione matriciale AX = I si ottiene IX = A
1
.
Esercizio 2.3 Data la matrice:
A =

1 3 1 2
h 0 0 0
1 1 0 0
0 0 0 h

, h R,
stabilire per quali valori di h esiste la sua inversa. Determinare esplicitamente A
1
quando possibile.
Soluzione Si procede, come nellesercizio precedente, alla riduzione per righe della
matrice completa (A[ I).

1 3 1 2
h 0 0 0
1 1 0 0
0 0 0 h

1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1

R
2
R
2
hR
1
R
3
R
3
R
1

1 3 1 2
0 3h h 2h
0 2 1 2
0 0 0 h

1 0 0 0
h 1 0 0
1 0 1 0
0 0 0 1

R
2
R
3

1 3 1 2
0 2 1 2
0 3h h 2h
0 0 0 h

1 0 0 0
1 0 1 0
h 1 0 0
0 0 0 1

R
3
2R
3
3hR
2
Capitolo 2 53

1 3 1 2
0 2 1 2
0 0 h 2h
0 0 0 h

1 0 0 0
1 0 1 0
h 2 3h 0
0 0 0 1

,
a questo punto si deduce che rank(A) = 4 se e solo se h = 0, quindi solo in questo caso
esiste A
1
. Si assume perci` o h = 0 e si procede con la riduzione per ottenere la matrice
inversa:

R
2
(1/2)R
2
R
3
(1/h)R
3
R
4
(1/h)R
4

1 3 1 2 1 0 0 0
0 1
1
2
1
1
2
0
1
2
0
0 0 1 2 1
2
h
3 0
0 0 0 1 0 0 0
1
h

R
3
R
3
2R
4
R
2
R
2
+ R
4
R
1
R
1
2R
4

1 3 1 0 1 0 0
2
h
0 1
1
2
0
1
2
0
1
2
1
h
0 0 1 0 1
2
h
3
2
h
0 0 0 1 0 0 0
1
h

R
2
R
2
+ (1/2)R
3
R
1
R
1
R
3

1 3 0 0 0
2
h
3 0
0 1 0 0 0
1
h
1 0
0 0 1 0 1
2
h
3
2
h
0 0 0 1 0 0 0
1
h

,
54 Matrici e Determinanti

R
1
R
1
+ 3R
2

1 0 0 0 0
1
h
0 0
0 1 0 0 0
1
h
1 0
0 0 1 0 1
2
h
3
2
h
0 0 0 1 0 0 0
1
h

,
A
1
si legge a destra nellultimo passaggio di riduzione.
Il teorema che segue ` e un corollario del Teorema 2.4, lo stesso risultato si otterr` a, con
metodi diversi, nel Capitolo 7.
Teorema 2.9 1. Se A R
m,n
e Q R
n,n
` e una matrice invertibile, allora:
rank(AQ) = rank(A).
2. Se A R
m,n
e P R
m,m
` e una matrice invertibile, allora:
rank(PA) = rank(A).
3. Se A una matrice quadrata di ordine n e P una matrice invertibile di ordine n,
allora:
rank(A) = rank(P
1
AP).
Dimostrazione
`
E sufciente dimostrare 1., lo stesso metodo si pu` o applicare a 2. e da
1. e 2. segue immediatamente 3. Il primo punto segue dal Teorema 2.4 e da:
rank(AQ) rank(A) = rank(A(QQ
1
)) = rank((AQ)Q
1
) rank(AQ),
da cui la tesi.
2.7 La traccia di una matrice quadrata
Denizione 2.8 Sia A una matrice quadrata, di ordine n, ad elementi reali. Si denisce
traccia di A, e si indica con tr(A) la somma degli elementi della sua diagonale principale.
Se A = (a
ij
) allora:
tr(A) = a
11
+ a
22
+ . . . + a
nn
=
n

i=1
a
ii
.
Capitolo 2 55
Si ha il seguente:
Teorema 2.10 La traccia di una matrice quadrata gode delle seguenti propriet` a:
1. tr(A + B) = tr(A) + tr(B),
2. tr(A) = tr(A),
3. tr(AB) = tr(BA),
4. tr(
t
A) = tr(A),
per ogni A, B R
n,n
, per ogni R.
Dimostrazione
`
E quasi un esercizio ed ` e riportata nel Paragrafo 2.9.
Come immediata conseguenza del punto 3. del teorema precedente, si ottiene:
tr(P
1
AP) = tr(A), (2.13)
per ogni A R
n,n
e per ogni matrice invertibile P di R
n,n
, propriet` a che sar` a molto
importante nel Capitolo 7.
Osservazione 2.9 Ovviamente la traccia della matrice quadrata nulla ` e uguale a zero,
cos` come ` e uguale a zero la traccia di una matrice antisimmetrica.
2.8 Il determinante
Scopo di questo paragrafo ` e quello di associare ad ogni matrice quadrata un particolare
numero reale detto determinante della matrice in modo da dimostrare il seguente:
Teorema 2.11 Una matrice quadrata A ` e invertibile se e solo se il suo determinante non
` e uguale a zero.
Si introdurr` a la denizione di determinante in modo sperimentale senza troppo rigore
matematico; per una discussione precisa e per la dimostrazione di tutte le propriet` a si
rimanda al Paragrafo 8.8.
Il determinante di una matrice quadrata ` e una funzione:
det : R
n,n
R, A det(A)
che verica queste prime propriet` a.
56 Matrici e Determinanti
1. Se a ` e un numero reale, quindi identicabile con la matrice quadrata A = (a) di
ordine 1, allora det(A) = a.
2. Se A =

a
11
a
12
a
21
a
22

, allora det(A) = a
11
a
22
a
12
a
21
.
Il determinante di una matrice quadrata ` e anche spesso indicato con due tratti verticali che
sostituiscono le parentesi tonde della matrice. Nel caso della matrice A di ordine 2 si ha:

a
11
a
12
a
21
a
22

= a
11
a
22
a
12
a
21
.
Osservando con attenzione lo sviluppo del determinante nel caso della matrice quadrata
di ordine 2, si nota che compaiono due addendi, ciascuno dei quali ` e il prodotto di due
fattori il cui primo indice corrisponde alla sequenza (1, 2) e il secondo indice corrisponde
alle due permutazioni di (1, 2): (1, 2) e (2, 1). La prima permutazione (pari) impone
il segno positivo alladdendo a
11
a
22
, la seconda permutazione (dispari) impone il segno
negativo alladdendo a
12
a
21
.
Si pu` o cos` indovinare la regola per calcolare il determinante di una matrice quadrata
qualsiasi. A questo scopo, si controlli ancora lo sviluppo del determinante nel caso delle
matrici di ordine 3. Lesempio che segue riassume, nel caso particolare dellordine 3,
la teoria dei determinanti delle matrici di ordine n che verr` a successivamente esposta. Si
consiglia di studiarlo con grande attenzione e farne riferimento per dimostrare le propriet` a
generali dei determinanti che verranno man mano elencate.
Esempio 2.14
`
E noto dal calcolo combinatorio che le permutazioni dei numeri 1, 2, 3
sono 3! = 6, tre di esse sono pari e sono dette permutazioni circolari, ossia: (1, 2, 3),
(3, 1, 2), (2, 3, 1) e tre sono dispari: (1, 3, 2), (3, 2, 1), (2, 1, 3). Pi` u precisamente, se a
partire dalla terna (1, 2, 3) si perviene alla terna (2, 1, 3) si ` e effettuato uno scambio che
comporta un segno negativo associato alla permutazione (2, 1, 3), effettuati due scambi si
ha segno positivo e cos` via. Per meglio visualizzare le permutazioni e contare il numero
degli scambi intermedi in modo da ottenere il segno della permutazione nale ` e utile la
classica notazione del calcolo combinatorio:
1 2 3

(1) = 2 (2) = 1 (3) = 3,
dove indica una permutazione di 1, 2, 3 e non ` e altro che una funzione biiettiva dallin-
sieme 1, 2, 3 in s e.
Capitolo 2 57
Parafrasando lo sviluppo del determinante di una matrice quadrata di ordine 2, si indo-
vina lo sviluppo del determinante di una matrice quadrata di ordine 3, ponendo:

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

= a
11
a
22
a
33
+ a
13
a
21
a
32
+ a
12
a
23
a
31
a
11
a
23
a
32
a
13
a
22
a
31
a
12
a
21
a
33
=

()a
1(1)
a
2(2)
a
3(3)
,
dove indica una qualsiasi permutazione dei numeri 1, 2, 3 e () il suo segno. Si
osserva che, per costruzione, ogni addendo a
1(1)
a
2(2)
a
3(3)
contiene un elemento ap-
partenente a ciascuna riga e a ciascuna colonna della matrice A. In altri termini in ogni
addendo non esistono due elementi appartenenti ad una stessa riga o ad una stessa colonna
di A, perch e ` e una biiezione.
Si pu` o, quindi, enunciare la denizione di determinante di una matrice quadrata di ordine
n.
Denizione 2.9 Il determinante di una matrice quadrata A = (a
ij
) di ordine n ` e dato
da:
det(A) =

()a
1(1)
a
2(2)
. . . a
n(n)
, (2.14)
dove indica una qualsiasi permutazione dei numeri 1, 2, . . . , n e () ` e il suo segno.
Osservazione 2.10 Come gi` a osservato nellEsempio 2.14, in ogni addendo della som-
ma (2.14) non esistono due elementi appartenenti o alla stessa riga o alla stessa colonna
della matrice A, inoltre ogni addendo di (2.14) ` e il prodotto di n elementi della matrice
quadrata A appartenenti ad ogni riga e ad ogni colonna di A.
Dalla Denizione 2.9 si deducono le seguenti propriet` a.
Teorema 2.12 1. Sia A una matrice quadrata di ordine n avente una riga (oppure
una colonna) formata da tutti 0, allora det(A) = 0.
2. Per ogni matrice quadrata A, det(A) = det(
t
A).
3. Se A = (a
ij
) R
n,n
` e una matrice triangolare superiore allora:
det(A) = a
11
a
22
. . . a
nn
,
la stessa propriet` a vale nel caso di una matrice triangolare inferiore.
58 Matrici e Determinanti
Dimostrazione 1.
`
E ovvia conseguenza della Denizione 2.9 e dellOsservazione
2.10.
2. Si consideri il caso del determinante di una matrice quadrata A di ordine 2, il caso
generale ` e una generalizzazione di questo ragionamento. Come gi` a osservato:
det(A) = a
11
a
22
a
12
a
21
,
mentre:
det(
t
A) =

a
11
a
21
a
12
a
22

= a
11
a
22
a
21
a
12
= a
11
a
22
a
12
a
21
= det(A);
infatti il determinante della matrice trasposta si ottiene semplicemente applicando
la propriet` a commutativa del prodotto ad ogni addendo della somma precedente.
3. Si dimostra per semplicit` a la propriet` a solo nel caso di A R
4,4
, lasciando al
Lettore per esercizio la dimostrazione nel caso generale. Sia:
A =

a
11
a
12
a
13
a
14
0 a
22
a
23
a
24
0 0 a
33
a
34
0 0 0 a
44

,
dalla denizione di determinante (2.14) si ha:
det(A) =

()a
1(1)
a
2(2)
a
3(3)
a
4(4)
.
Se a
44
= 0 lultima riga ` e formata da tutti zeri e pertanto det(A) = 0, da cui la tesi.
Se a
44
= 0, lunico elemento non nullo dellultima riga ` e a
44
, quindi la formula
precedente si riduce a:
det(A) =

()a
1(1)
a
2(2)
a
3(3)
a
44
, (2.15)
con permutazione dei numeri 1, 2, 3. Di nuovo, lunico elemento non nullo di
tale somma, appartenente alla terza riga, ` e a
33
, quindi (2.15) si riduce a:
det(A) =

()a
1(1)
a
2(2)
a
33
a
44
con permutazione dei numeri 1, 2. Procedendo allo stesso modo si perviene alla
tesi.
Capitolo 2 59
`
E di importanza fondamentale il teorema che segue.
Teorema 2.13 Sia A una matrice quadrata di ordine n ridotta per righe, allora:
rank(A) = n det(A) = 0
e, in modo equivalente:
rank(A) < n det(A) = 0.
Dimostrazione La dimostrazione ` e ovvia se la matrice ridotta per righe ` e triangolare
superiore. In questo caso il determinante ` e dato dal prodotto degli elementi della diagona-
le principale, come osservato nel Teorema 2.12. Rimane da dimostrare che ogni matrice
ridotta per righe pu` o essere trasformata in una matrice triangolare superiore mediante
lapplicazione delle tre operazioni di riduzione sulle righe (senza variarne il rango). An-
che questo fatto ` e ovvio, ma per maggiore chiarezza sul tipo di procedimento da seguire
si rimanda allesercizio seguente che illustra, in un caso particolare, la procedura.
Esercizio 2.4 Si riconduca a forma triangolare superiore la matrice:
A =

1 2 3 4
1 2 0 3
5 0 0 2
1 0 0 0

ridotta per righe e il cui rango ` e 4.


Soluzione Si procede con lapplicazione delle tre operazioni di riduzione alla matrice
A nel modo seguente:

1 2 3 4
1 2 0 3
5 0 0 2
1 0 0 0

R
2
R
2
R
1
R
3
R
3
5R
1
R
4
R
4
R
1

1 2 3 4
0 0 3 1
0 19 15 18
0 2 3 4

R
2
R
2
R
3
R
3
R
4
R
4
R
2
R
3

1 2 3 4
0 19 15 18
0 0 3 1
0 2 3 4

R
4
19R
4
2R
2

1 2 3 4
0 19 15 18
0 0 3 1
0 0 27 40

R
4
3R
4
27R
3

1 2 3 4
0 19 15 18
0 0 3 1
0 0 0 93

,
60 Matrici e Determinanti
ottenendo cos` una matrice triangolare superiore che ha, ovviamente, ancora rango 4.
Osservazione 2.11 Dal punto 2. del Teorema 2.12 segue che ogni propriet` a relativa al
calcolo del determinante dimostrata per le righe di una matrice quadrata ` e anche valida
per le colonne.
Il teorema che segue permette di estendere il risultato precedente ad una matrice quadrata
qualsiasi.
Teorema 2.14 1. Se si moltiplicano tutti gli elementi di una riga (o colonna) di una
matrice quadrata A per un numero reale , allora il determinante di A viene
moltiplicato per .
2. Se si scambiano tra di loro due righe (o due colonne) di una matrice quadrata A,
allora il determinante di A cambia di segno.
3. Una matrice quadrata con due righe (o due colonne) uguali ha determinante nullo.
4. Una matrice quadrata con due righe (o due colonne) proporzionali ha determinante
nullo.
5. Se alla riga R
i
di una matrice quadrata A si sostituisce la particolare combinazio-
ne lineare R
i
+R
j
(dove R
j
indica una riga parallela a R
i
, i = j ) il determinante
di A non cambia, analoga propriet` a vale per le colonne.
Dimostrazione 1.
`
E ovvio dalla denizione di determinante.
2.
`
E conseguenza della denizione di determinante e del fatto che lo scambio di due
righe comporta il cambiamento di segno di ciascuna permutazione. Per esempio,
nel caso della matrice quadrata di ordine 2 si ha:

a
11
a
12
a
21
a
22

= a
11
a
22
a
12
a
21
,
invece:

a
21
a
22
a
11
a
12

= a
21
a
12
a
22
a
11
= a
11
a
22
+ a
12
a
21
.
3. Segue dalla propriet` a precedente, infatti scambiando due righe (colonne) uguali
di una matrice quadrata A si ottiene la stessa matrice, se prima dello scambio
det(A) = a, dopo lo scambio det(A) = a (per la propriet` a precedente), ma
poich e la matrice non cambia allora a = a, da cui la tesi.
Capitolo 2 61
4. Segue da 1. e da 3.
5. Si calcoli il determinante di una matrice quadrata di ordine n mettendo in evidenza
le sue righe e loperazione richiesta R
i
R
i
+ R
j
, i = j :

R
1
.
.
.
R
i
+ R
j
.
.
.
R
j
.
.
.
R
n

R
1
.
.
.
R
i
.
.
.
R
j
.
.
.
R
n

R
1
.
.
.
R
j
.
.
.
R
j
.
.
.
R
n

.
Luguaglianza precedente ` e una evidente conseguenza della denizione di determi-
nante, quindi la tesi segue dalla terza propriet` a.
Come ovvia conseguenza dei Teoremi 2.13 e 2.14 si ha:
Teorema 2.15 Sia A una matrice quadrata di ordine n allora:
rank(A) = n det(A) = 0
e, in modo equivalente:
rank(A) < n det(A) = 0.
Esercizio 2.5 Calcolare il determinante della seguente matrice, riducendola a forma trian-
golare superiore:
A =

1 1 2 1
3 1 1 2
2 2 2 1
1 0 1 1

.
Soluzione Per esempio si pu` o procedere come segue:
62 Matrici e Determinanti

1 1 2 1
3 1 1 2
2 2 2 1
1 0 1 1

C
1
C
2

1 1 2 1
1 3 1 2
2 2 2 1
0 1 1 1

R
2
R
2
+ R
1
R
3
R
3
+ 2R
1

1 1 2 1
0 4 3 3
0 4 2 3
0 1 1 1

R
3
R
3
R
2
R
4
R
4
(1/4)R
2

1 1 2 1
0 4 3 3
0 0 1 0
0 0
1
4

7
4

R
3
R
3
R
4
4R
4

1
4

1 1 2 1
0 4 3 3
0 0 1 0
0 0 1 7

R
4
R
4
R
3

1
4

1 1 2 1
0 4 3 3
0 0 1 0
0 0 0 7

= 7.
Il teorema che segue stabilisce importanti propriet` a del determinante in relazione al pro-
dotto di una matrice per uno scalare e al prodotto di matrici.
Teorema 2.16 1. det(A) =
n
det(A), A R
n,n
, R;
2. Teorema di Binet: det(AB) = det(A) det(B), A, B R
n,n
;
3. Se A ` e una matrice invertibile, allora det(A
1
) = det(A)
1
.
Dimostrazione 1.
`
E ovvia dalla Denizione 2.4 di prodotto di un numero reale
per una matrice e dalla Denizione 2.9 di determinante.
2. Si tratta di una propriet` a sorprendente e di difcile dimostrazione.
`
E vera nel caso
di matrici triangolari superiori, ricordando che il prodotto di due matrici triangolari
superiori ` e ancora una matrice dello stesso tipo e che il determinante di una matrice
triangolare superiore ` e il prodotto degli elementi della diagonale principale (analo-
gamente ` e anche vero nel caso delle matrici triangolari inferiori). Nel Capitolo 7 si
dimostrer` a questa propriet` a nel caso di matrici quadrate con particolari propriet` a (le
matrici diagonalizzabili), ma solo nel Paragrafo 8.8 si arriver` a ad una dimostrazione
nel caso generale.
3.
`
E una conseguenza del Teorema di Binet applicato a AA
1
= I con I matrice
unit` a. Si ha det(A) det(A
1
) = det(I) = 1 da cui la tesi.
Osservazione 2.12 1. Si deduce, dalla propriet` a 3. del teorema precedente, che:
Capitolo 2 63
se A R
n,n
` e invertibile, allora det(A) = 0;
nel paragrafo che segue si dimostrer` a anche il viceversa.
2. In generale, se A, B sono matrici di R
n,n
:
det(A + B) = det(A) + det(B).
Infatti si considerino le matrici:
A =

1 2
3 4

, B =

1 2
4 5

per le quali det(A) = 2, det(B) = 13, ma:


A + B =

2 0
7 9

e det(A + B) = 18.
Esercizio 2.6 Dimostrare che se A ` e una matrice antisimmetrica di ordine dispari, allora
det(A) = 0.
2.8.1 I Teoremi di Laplace
Unaltra denizione di rango
Esempio 2.15 Si consideri lo sviluppo del determinante di una matrice di ordine 3 de-
scritto nellEsempio 2.14 e lo si trasformi applicando le propriet` a commutativa e distribu-
tiva del prodotto rispetto alla somma di numeri reali nel modo seguente:
64 Matrici e Determinanti

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

= a
11
a
22
a
33
+ a
13
a
21
a
32
+ a
12
a
23
a
31
a
11
a
23
a
32
a
13
a
22
a
31
a
12
a
21
a
33
= a
11
(a
22
a
33
a
23
a
32
) a
12
(a
21
a
33
a
23
a
31
)
+a
13
(a
21
a
32
a
22
a
31
)
= a
11

a
22
a
23
a
32
a
33

a
12

a
21
a
23
a
31
a
33

+ a
13

a
21
a
22
a
31
a
32

= a
31

a
12
a
13
a
22
a
23

a
32

a
11
a
13
a
21
a
23

+ a
33

a
11
a
12
a
21
a
22

= a
12

a
21
a
23
a
31
a
33

+ a
22

a
11
a
13
a
31
a
33

a
32

a
11
a
13
a
21
a
23

.
Lespressione precedente permette di indovinare una regola di calcolo del determinante
per le matrici di ordine qualsiasi. Per fare ci` o ` e necessario introdurre alcune denizioni.
Denizione 2.10 Sia A = (a
ij
) R
n,n
; si denisce minore dellelemento a
ij
il determi-
nante M
ij
della matrice di ordine n 1 che si ottiene da A togliendo li-esima riga e la
j -esima colonna.
La denizione precedente si estende in modo naturale alla seguente:
Denizione 2.11 Un minore di ordine k, (k < m, k < n, k = 0) di una matrice A
di R
m,n
` e il determinante di una qualsiasi sottomatrice quadrata B di ordine k che si
ottiene da A togliendo mk righe e n k colonne.
Esempio 2.16 Data la matrice:
A =

1 2 3 4
5 6 7 8
9 10 11 12
1 2 3 4

,
il minore M
12
` e:
M
12
=

5 7 8
9 11 12
1 3 4

= 64.
Capitolo 2 65
Un minore di ordine 2 della matrice A ` e:

1 2
5 6

= 4,
infatti ` e il determinante della matrice quadrata di ordine 2 ottenuta togliendo la terza e la
quarta riga e la terza e la quarta colonna della matrice A. A partire dalla matrice A quanti
minori di ordine 2 si trovano?
`
E evidente invece che i minori di ordine 1 di A sono 16 e
sono gli elementi di A.
Denizione 2.12 Sia A = (a
ij
) R
n,n
; si denisce cofattore o complemento algebrico
dellelemento a
ij
il numero A
ij
denito da:
A
ij
= (1)
i+j
M
ij
.
Esempio 2.17 NellEsempio 2.16 il cofattore dellelemento a
12
` e A
12
= M
12
= 64.
LEsempio 2.15 suggerisce il seguente importante teorema per il calcolo del determinante
di una matrice quadrata di ordine qualsiasi.
Teorema 2.17 Primo Teorema di Laplace Il determinante di una matrice quadrata
A = (a
ij
) R
n,n
` e dato da:
det(A) =
n

k=1
a
ik
A
ik
=
n

h=1
a
hj
A
hj
, (2.16)
per ogni i = 1, 2, . . . , n, j = 1, 2, . . . , n. In altri termini, il determinante della matri-
ce quadrata A si ottiene moltiplicando gli elementi di una riga ssata (nella formula
precedente ` e la i-esima) per i rispettivi cofattori, inoltre il valore ottenuto non dipende
dalla riga scelta. Lultimo membro di (2.16) afferma che tale propriet` a vale anche per la
j -esima colonna.
Dimostrazione
`
E un calcolo che segue da (2.14), allo stesso modo con cui ` e stato
condotto nellEsempio 2.15.
Esempio 2.18 Per calcolare il determinante della matrice, oggetto dellEsercizio 2.5, si
pu` o usare il Primo Teorema di Laplace 2.17. La presenza del numero 0 al posto (4, 2) di
tale matrice suggerisce di sviluppare il determinante rispetto alla seconda colonna oppure
66 Matrici e Determinanti
rispetto alla quarta riga. Si riportano di seguito esplicitamente entrambi i calcoli:
det(A) =

3 1 2
2 2 1
1 1 1

1 2 1
2 2 1
1 1 1

1 2 1
3 1 2
1 1 1

2 1
1 1

2 1
1 1

+ 2

2 2
1 1

2 1
1 1

2 1
1 1

2 2
1 1

1 2
1 1

3 2
1 1

3 1
1 1

1 2 1
1 1 2
2 2 1

1 1 1
3 1 2
2 2 1

1 1 2
3 1 1
2 2 2

,
si lascia la conclusione dei calcoli al Lettore, osservando per` o che la determinazione dello
stesso determinante condotta nellEsercizio 2.5 ` e stata molto pi` u agevole.
Teorema 2.18 Secondo Teorema di Laplace In una matrice quadrata A = (a
ij
) di
R
n,n
la somma dei prodotti degli elementi di una riga (o colonna) per i cofattori di una
riga (o una colonna) parallela ` e zero, in formule:
n

k=1
a
ik
A
jk
=
n

h=1
a
hi
A
hj
= 0, i = j. (2.17)
Dimostrazione
`
E evidente conseguenza del Teorema 2.14, secondo punto, infatti (2.17)
si pu` o interpretare come lo sviluppo del determinante di un matrice in cui, nel primo ca-
so, la riga j -esima coincide con la riga i-esima e nel secondo caso, la colonna j -esima
coincide con la colonna i-esima.
Utilizzando la nozione di determinante e di minore si pu` o enunciare una seconda deni-
zione di rango di una matrice A R
m,n
, equivalente a quella gi` a introdotta (cfr. Def.
1.10). La dimostrazione dellequivalenza tra le due denizioni di rango ` e rimandata al
Paragrafo 4.5.
Denizione 2.13 Il rango di una matrice A R
m,n
` e pari al massimo ordine di un
minore non nullo di A.
Capitolo 2 67
Esempio 2.19 Si consideri la matrice:
A =

1 2 1 2
2 4 2 4
0 1 0 1

che ha evidentemente rango 2 se si procede al calcolo del suo rango riducendola per righe.
Considerando, invece, la Denizione 2.13 di rango si vede subito che ogni minore di A
di ordine 3 ` e uguale a zero, infatti ogni matrice quadrata di ordine 3 estratta da A ha due
righe proporzionali. Invece:

2 4
0 1

= 2
da cui segue che rank(A) = 2 in quanto esiste un minore di ordine 2 di A non nullo.
2.8.2 Calcolo della matrice inversa, secondo metodo
In questo paragrafo si introdurr` a un altro metodo di calcolo della matrice inversa A
1
di
una matrice data A, facendo uso della nozione di determinante. Per questo scopo si inizia
con la denizione di una matrice particolare associata ad una qualsiasi matrice quadrata.
Denizione 2.14 Data A R
n,n
, si consideri la matrice B = (A
ij
) R
n,n
avente
ordinatamente come elementi i cofattori di A, la trasposta di tale matrice prende il nome
di aggiunta di A e si indica con adj(A).
Esempio 2.20 Data:
A =

1 2 3
1 2 5
0 1 2

la sua aggiunta ` e:
adj(A) =

1 1 4
2 2 8
1 1 4

.
Teorema 2.19 Sia A una matrice quadrata di ordine n, se det(A) = 0 allora esiste
linversa di A e:
A
1
=
1
det(A)
adj(A).
Dimostrazione Sia:
B = (b
ij
) =
1
det(A)
adj(A),
68 Matrici e Determinanti
il teorema ` e dimostrato se AB = (c
ij
) = I , in altri termini se c
ij
=
ij
, dove
ij
` e il
simbolo di Kronecker, ossia
ii
= 1 e
ij
= 0, i = j . Si calcola:
c
ii
=
n

k=1
a
ik
b
ki
=
1
det(A)
n

k=1
a
ik
A
ik
=
1
det(A)
det(A) = 1;
la precedente uguaglianza segue dal Primo Teorema di Laplace 2.17. Se i = j si ha
invece:
c
ij
=
n

k=1
a
ik
b
kj
=
1
det(A)
n

k=1
a
ik
A
jk
= 0,
per il Secondo Teorema di Laplace 2.18.
Osservazione 2.13 Il teorema precedente, insieme con il Teorema 2.16 e il Teorema 2.13
permettono di concludere che, nel caso di una matrice quadrata A R
n,n
:
A
1
det(A) = 0 rank(A) = n.
Esempio 2.21
`
E agevole applicare il metodo di calcolo della matrice inversa appena
introdotto nel caso di una matrice quadrata di ordine 2, infatti se:
A =

a
11
a
12
a
21
a
22

e det(A) = 0 allora:
A
1
=
1
det(A)

a
22
a
12
a
21
a
11

.
Esempio 2.22 Considerata la matrice A dellEsercizio 2.2, se ne determini linversa
usando il procedimento descritto. Si tratta di calcolare i cofattori di tutti gli elementi
della matrice, ossia 16 determinanti di matrici quadrate di ordine 3 e, quindi, la matrice
aggiunta. Si ottiene:
A
1
=
1
det(A)
adj(A) =
1
10

8 6 2 2
15 0 10 0
5 0 0 0
8 4 2 2

.
Osservazione 2.14 Dalla denizione di aggiunta di una matrice quadrata A di ordine n,
segue:
A adj(A) = det(A)I, (2.18)
dove I indica la matrice unit` a di R
n,n
. Si osservi che la formula (2.18) vale per ogni
matrice A, anche se non ` e invertibile.
Capitolo 2 69
2.8.3 Il Teorema di Cramer
`
E conseguenza del paragrafo precedente un metodo di calcolo che permette di risolvere
i sistemi lineari compatibili che hanno il numero delle equazioni pari al numero delle
incognite, cio` e del tipo:

a
11
x
1
+ a
12
x
2
+ . . . . . . + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ . . . . . . + a
2n
x
n
= b
2
.
.
.
a
n1
x
1
+ a
n2
x
2
+ . . . . . . + a
nn
x
n
= b
n
.
(2.19)
La matrice dei coefcienti A = (a
ij
) R
n,n
` e quadrata. Se det(A) = 0 segue dal
Teorema di Rouch eCapelli 1.2 che il sistema lineare (2.19) ` e compatibile. In notazione
matriciale (cfr. Par. 2.2.1) il sistema lineare (2.19) equivale a:
AX = B, (2.20)
dove X R
n,1
` e la matrice delle incognite e B R
n,1
` e la matrice colonna dei termini
noti. Poich e det(A) = 0, A ` e invertibile e quindi ` e possibile moltiplicare a sinistra ambo
i membri di (2.20) per A
1
, ottenendo cos`:
X = A
1
B.
Dal Teorema 2.19, sostituendo lespressione di A
1
, si ha:
X =

x
1
x
2
.
.
.
x
n

=
1
det(A)

A
11
A
21
. . . A
n1
A
12
A
22
. . . A
n2
.
.
.
.
.
.
.
.
.
.
.
.
A
1n
A
2n
. . . A
nn

b
1
b
2
.
.
.
b
n

da cui, uguagliando, si ricava:


x
1
=
1
det(A)

b
1
a
12
. . . a
1n
b
2
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
b
n
a
n2
. . . a
nn

.
In generale si ha:
x
i
=
1
det(A)

a
11
a
12
. . . b
1
. . . a
1n
a
21
a
22
. . . b
2
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . b
n
. . . a
nn

, i = 1, 2, . . . , n, (2.21)
70 Matrici e Determinanti
dove li-esima colonna coincide con quella dei termini noti.
Teorema 2.20 Teorema di Cramer In un sistema lineare del tipo (2.19) di n equa-
zioni in n incognite la cui matrice A dei coefcienti ha determinante diverso da zero la
i-esima incognita si ottiene dalla formula (2.21).
Esempio 2.23 Dato il sistema lineare:

2x
1
x
2
+ x
3
= 0
3x
1
+ 2x
2
5x
3
= 1
x
1
+ 3x
2
2x
3
= 4,
il determinante della matrice A dei coefcienti ` e dato da:
det(A) =

2 1 1
3 2 5
1 3 2

= 28 = 0.
Quindi esiste una sola soluzione che pu` o essere determinata usando il Teorema di Cramer
nel modo seguente:
x
1
=
1
28

0 1 1
1 2 5
4 3 2

, x
2
=
1
28

2 0 1
3 1 5
1 4 2

, x
3
=
1
28

2 1 0
3 2 1
1 3 4

.
Osservazione 2.15 Si osservi che ad ogni sistema lineare compatibile ` e applicabile il
Teorema di Cramer. Sia, infatti, AX = B un sistema lineare compatibile con A in R
m,n
,
X in R
n,1
, B in R
m,1
e sia r = rank(A[B) = rank(A). Riducendo eventualmente per
righe la matrice completa iniziale (A[B) e scambiando opportunamente le righe si pu` o
ottenere una nuova matrice:
(A

[B

) =

11
a

12
. . . a

1n
.
.
.
.
.
.
.
.
.
a

r1
a

r2
. . . a

rn
.
.
.
.
.
.
.
.
.
a

m1
a

m2
. . . a

mn

1
.
.
.
b

r
.
.
.
b

tale che le prime r righe di A

formino una matrice di rango r. Equivalentemente non


` e restrittivo supporre che dalle prime r righe di A

sia possibile estrarre una matrice


quadrata C di ordine r e di rango r. Infatti, se cos` non fosse si avrebbe rank(A) =
rank(A

) r 1, perch e ogni matrice quadrata di ordine r estratta da A

avrebbe
Capitolo 2 71
determinante nullo (cfr. Def. 2.13). Portando a secondo membro le colonne di A

diverse
da quelle di C si ottiene la matrice completa (C [B

) di un nuovo sistema lineare con r


incognite e con det(C) = 0, equivalente a quello di partenza. Questultima affermazione
` e vera perch e le operazioni di riduzione per righe trasformano il sistema lineare in un altro
ad esso equivalente e dal fatto che il rango di C sia r segue che il sistema lineare ammette
innite soluzioni che dipendono da n r incognite libere che sono, con questo metodo,
proprio quelle portate a secondo membro (cfr. Cap.1). In questo modo, utilizzando il
Teorema di Cramer si possono esprimere le r incognite in funzione delle rimanenti nr
incognite libere. Segue un esempio di ci` o che ` e stato appena osservato.
Esempio 2.24 Si consideri il sistema lineare:

x + 3y + z = 1
x + 2y z = 0,
(2.22)
osservato che il rango della matrice dei coefcienti:
A =

1 3 1
1 2 1

` e 2 e assunta z come incognita libera, in questo caso la matrice C citata nellosservazione


precedente ` e:
C =

1 3
1 2

.
Il sistema lineare (2.22) si pu` o scrivere:

x + 3y = z 1
x + 2y = z.
(2.23)
Ma a (2.23) ` e applicabile il Teorema di Cramer perch e:

1 3
1 2

= 5.
La soluzione ` e:
x =

z1 3
z 2

5
= z
2
5
, y =

1 z1
1 z

5
=
1
5
, z R.
72 Matrici e Determinanti
2.9 Per saperne di pi ` u
In questo paragrafo sono riportate le dimostrazioni di alcune propriet` a che nel paragrafo
precedente sono state lasciate al Lettore per esercizio.
Esercizio 2.7 Si dimostri che:
(AB)C = A(BC), A R
m,n
, B R
n,p
, C R
p,l
.
Soluzione Siano A = (a
ij
) R
m,n
, B = (b
ij
) R
n,p
, C = (c
ij
) R
p,l
.
Allora AB = (d
ij
) R
m,p
e:
d
ij
=
n

k=1
a
ik
b
kj
.
Quindi (AB)C = (e
ij
) R
m,l
, con:
e
ij
=
p

h=1
d
ih
c
hj
=
p

h=1

k=1
a
ik
b
kh

c
hj
=
p

h=1
n

k=1
a
ik
b
kh
c
hj
che ` e lespressione del generico elemento della matrice a primo membro. Per il secondo
membro si ha BC = (f
ij
) R
n,l
, con:
f
ij
=
p

h=1
b
ih
c
hj
e A(BC) = (g
ij
) R
m,l
, dove:
g
ij
=
n

k=1
a
ik
f
kj
=
n

k=1
a
ik

h=1
b
kh
c
hj

=
n

k=1
p

h=1
a
ik
b
kh
c
hj
,
da cui segue la tesi.
Esercizio 2.8 Si dimostri che:
t
(AB) =
t
B
t
A, A R
n,p
, B R
p,m
.
Soluzione Date la matrici A = (a
ij
) R
n,p
e B = (b
ij
) R
p,m
, il loro prodotto ` e la
matrice C = AB = (c
ij
) R
n,m
, dove:
c
ij
=
p

k=1
a
ik
b
kj
.
Capitolo 2 73
La matrice a primo membro
t
(AB) = (d
ij
) di R
m,n
ha elementi del tipo:
d
ij
= c
ji
=
p

k=1
a
jk
b
ki
.
La matrice
t
A = (e
ij
) di R
p,n
ha elementi del tipo e
ij
= a
ji
. La matrice
t
B = (f
ij
)
di R
m,p
ha elementi del tipo f
ij
= b
ji
. La matrice prodotto
t
B
t
A = (g
ij
) di R
m,n
ha
elementi del tipo:
g
ij
=
p

k=1
f
ik
e
kj
=
p

k=1
b
ki
a
jk
=
p

k=1
a
jk
b
ki
,
da cui segue la tesi.
Esercizio 2.9 Si dimostri che:
(
t
A)
1
=
t
(A
1
),
per ogni matrice invertibile A R
n,n
.
Soluzione Si tratta di dimostrare che
t
(A
1
) ` e linversa di
t
A, infatti:
t
(A
1
)
t
A =
t
(A A
1
) =
t
I = I.
Esercizio 2.10 Si dimostri che:
tr(AB) = tr(BA), A, B R
n,n
.
Soluzione Date le matrici A = (a
ij
) R
n,n
e B = (b
ij
) R
n,n
, gli elementi della
diagonale principale del prodotto AB sono:
c
ii
=
n

h=1
a
ih
b
hi
,
quindi:
tr(AB) =
n

l=1
c
ll
=
n

h,l=1
a
lh
b
hl
. (2.24)
Siano d
ii
gli elementi della diagonale principale del prodotto BA, si ha:
d
ii
=
n

k=1
b
ik
a
ki
,
la traccia di BA diventa:
tr(BA) =
n

m=1
d
mm
=
n

m,k=1
b
mk
a
km
da cui, confrontando con (2.24), segue la tesi.
74 Matrici e Determinanti
Capitolo 3
Calcolo Vettoriale
Il calcolo vettoriale elementare ` e largomento di base per lo studio dellalgebra lineare e
della geometria analitica nel piano e nello spazio, inoltre si rivela uno strumento prezioso
per la matematica applicata e la sica in particolare.
In questo capitolo si assumono note le principali nozioni di geometria euclidea del piano
e dello spazio, cos` come sono solitamente trattate nel primo biennio della scuola secon-
daria superiore. Vale a dire si assume che il Lettore abbia familiarit` a con i concetti di:
punto, retta, piano e le loro reciproche posizioni, nonch e le loro principali propriet` a. Sa-
ranno, pertanto, usate le notazioni tradizionali, indicando, quindi, con le lettere maiuscole
dellalfabeto A, B, . . . , i punti, con le lettere minuscole r, s, . . . , le rette e con le lettere
minuscole dellalfabeto greco , , . . . , i piani. Lo spazio, inteso come spazio afne di
punti, sar` a indicato con S
3
, il piano (inteso come spazio ambiente) con S
2
, la retta (intesa
come spazio ambiente) con S
1
. I numeri che compaiono a pedice esprimono le dimen-
sioni di questi spazi, tale concetto sar` a spiegato in dettaglio nel testo. Per il momento
si raccomanda di non pensare al signicato formale dei termini che sono stati usati, ma
di limitarsi a richiamare le nozioni elementari impartite nelle scuole secondarie su questi
spazi. Man mano che si proceder` a con lo studio dellalgebra lineare, si preciseranno in
modo corretto le terminologie comunemente usate. Si assumono, inoltre, noti i primi ru-
dimenti di trigonometria, quali, ad esempio, le denizioni delle funzioni trigonometriche
elementari e le loro principali propriet` a.
3.1 Denizione di vettore
Denizione 3.1 Si consideri un segmento AB appartenente ad una retta r dello spazio
ambiente S
3
. Ad AB si associa la direzione, quella della retta r, il verso, ad esempio,
quello da A verso B e la lunghezza indicata con |AB| e detta norma o lunghezza di AB.
Un segmento di questo tipo si dice segmento orientato e sar` a indicato con la simbologia
75
76 Calcolo Vettoriale

AB. La totalit` a di tutti i segmenti orientati aventi la stessa direzione, lo stesso verso e la
stessa lunghezza di AB, prende il nome di vettore x e sar` a generalmente indicato con le
lettere minuscole in grassetto.
Riassumendo, ad ogni vettore x si associano tre entit` a:

direzione di x
verso di x
norma di x indicata con |x|.
Per denizione, la norma di ogni vettore ` e un numero reale positivo, eventualmente nullo.
Se il vettore x ` e individuato dai punti A e B dello spazio, per indicarlo si potranno usare,
indifferentemente, le seguenti notazioni: x,

AB, B A, [AB]. Inoltre

AB ` e detto un
rappresentante del vettore x; per abbreviare si scriver` a:
x =

AB.
Segue dalla denizione che lo stesso vettore x ammette inniti rappresentanti, per esem-
pio la coppia di punti C, D dello spazio tali che i segmenti AB e CD siano paralleli,
abbiano la stessa lunghezza e lo stesso verso, cio` e x =

AB =

CD.
Se A = B, il segmento ottenuto, che ha come rappresentante A e anche un qualsiasi
punto dello spazio, si indica con o e prende il nome di vettore nullo. Il vettore nullo o ` e
lunico vettore di norma uguale a zero ed ha direzione e verso indeterminati.
Se |x| = 1, x si dice versore. Sar` a molto utile il concetto di versore in quanto permetter` a
di individuare agevolmente lunit` a di misura.
Se si ssa un punto O nello spazio S
3
e si identica, di conseguenza, ogni vettore x con il
punto P dato da x =

OP allora lo spazio S
3
coincide con linsieme dei vettori dello spa-
zio che si indica con V
3
, analogamente, S
2
(ssato il punto O) si identica con linsieme
dei vettori V
2
di un piano e S
1
con linsieme dei vettori V
1
di una retta. Il signicato dei
numeri 1, 2, 3 in V
1
, V
2
, V
3
sar` a discusso ampiamente in questo capitolo. Si osservi inol-
tre che, se non viene ssato il punto O, V
1
si pu` o interpretare geometricamente come una
qualsiasi retta dello spazio di direzione uguale a quella dei suoi vettori, V
2
invece si pu` o
visualizzare geometricamente come un qualsiasi piano dello spazio parallelo ai vettori ad
esso appartenenti. I vettori per cui non ` e indicato il punto di applicazione prendono anche
il nome di vettori liberi. V
1
e V
2
vengono, rispettivamente, chiamati retta vettoriale e
piano vettoriale.
Nel Paragrafo 3.10 viene data una formulazione pi ` u rigorosa della Denizione 3.1; per
quello che segue, per` o, ` e sufciente che il Lettore abbia unidea intuitiva di questo con-
cetto.
Capitolo 3 77
Nei due paragra successivi si introdurranno alcune operazioni tra vettori, iniziando dalla
somma di vettori e dal prodotto di un numero reale per un vettore.
`
E molto importante
osservare che queste operazioni (ovviamente con una denizione diversa da quella che
sar` a di seguito presentata) sono gi` a state introdotte nellinsieme delle matrici, nel capitolo
precedente. Sar` a sorprendente notare che per le operazioni tra vettori saranno valide le
stesse propriet` a dimostrate per le analoghe operazioni tra matrici. Il capitolo successivo
sar` a dedicato allo studio assiomatico degli insiemi su cui ` e possibile denire operazioni
di questo tipo e che daranno luogo alla nozione di spazio vettoriale di cui linsieme delle
matrici R
m,n
e gli insiemi dei vettori V
3
, V
2
, V
1
sono esempi.
3.2 Somma di vettori
Denizione 3.2 La somma in V
3
` e loperazione:
+ : V
3
V
3
V
3
, (x, y) x +y,
dove il vettore x + y ` e cos` denito: ssato un punto O di S
3
, siano

OA e

OB due
segmenti orientati rappresentanti di x e y, rispettivamente, allora x + y =

OC, dove

OC ` e il segmento orientato che si determina con la regola del parallelogramma, illustrata


nella Figura 3.1.
x
y xy
O A
B
C
Figura 3.1: Somma di due vettori
Osservazione 3.1 1. La denizione di somma di vettori ` e ben data. Vale a dire, facen-
do riferimento alle notazioni della Denizione 3.2, se si cambiano i rappresentanti
di x e di y, allora il nuovo rappresentante di x + y, ottenuto con la regola del
78 Calcolo Vettoriale
parallegramma, ha la stessa direzione, lo stesso verso e la stessa norma di

OC. La
situazione geometrica ` e illustrata nella Figura 3.2, la dimostrazione di questa af-
fermazione, che segue in modo elementare dalle propriet` a dei parallelogrammi, ` e
lasciata al Lettore.
2. Per denizione x + y ` e complanare a x e a y, dove con il temine complanare si
indicano i vettori che ammettono rappresentanti appartenenti allo stesso piano. Di
conseguenza loperazione di somma di vettori ` e ben denita anche in V
2
e anche in
V
1
. Infatti se x e y sono paralleli, ossia se ammettono rappresentanti appartenenti
alla stessa retta, o, equivalentemente, se hanno la stessa direzione, allora la loro
somma x + y ` e ancora un vettore parallelo ad x e a y, la cui norma ` e pari alla
somma delle norme di x e di y se essi sono concordi (ossia se hanno lo stesso
verso), in caso contrario, ossia se i vettori sono discordi, la norma di x + y ` e la
differenza delle norme di x e y. Il verso di x + y ` e concorde con il verso del
vettore addendo di norma maggiore. Levidente situazione geometrica ` e illustrata
nella Figura 3.3. Questo fatto si esprime anche dicendo che V
2
e V
1
sono chiusi
rispetto alloperazione di somma di vettori.
3. Il punto C ` e il simmetrico di O rispetto al punto medio del segmento AB, (cfr.
Fig. 3.1).
4. Per ogni vettore x (non nullo) esiste lopposto x, che ` e il vettore parallelo ad x
avente la stessa norma di x ma verso opposto. Quindi:
x + (x) = o.
Si osservi, inoltre, che anche il vettore nullo o ammette lopposto, che coincide con
il vettore nullo stesso.
Teorema 3.1 Per la somma di vettori in V
3
valgono le seguenti propriet` a:
1. x +y = y +x, x, y V
3
(propriet` a commutativa);
2. (x +y) +z = x + (y +z), x, y, z V
3
(propriet` a associativa);
3. o V
3
[ x +o = x, x V
3
(esistenza dellelemento neutro);
4. x V
3
, x V
3
[ x + (x) = o (esistenza dellopposto).
Inoltre:
5.

|x| |y|

|x +y| |x| +|y|, x, y V


3
.
Capitolo 3 79
x
y
xy
O
A
C
B
x
y
xy
O' A'
C'
B'
Figura 3.2: La somma di due vettori non dipende dai loro rappresentanti
x y
xy
x
y
xy
Figura 3.3: Somma di due vettori paralleli
80 Calcolo Vettoriale
Dimostrazione La dimostrazione segue dalla denizione di somma di vettori e dalle
propriet` a dei parallelogrammi ed ` e lasciata al Lettore. Lelemento neutro ` e il vettore nullo
o e lopposto del vettore x coincide con il vettore x prima denito. Si osservi che le
due uguaglianze in 5. possono valere solo se i vettori x e y sono paralleli.
Osservazione 3.2 1. Dati due vettori x e y la loro somma x + y si pu` o ottenere
mediante la regola della poligonale, cio` e scelti due segmenti orientati consecutivi
x =

AB, y =

BC, risulta x +y =

AC.
2. La propriet` a associativa permette di estendere la denizione di somma di vettori a
n addendi. Dati, quindi, i vettori x
1
, x
2
, . . . , x
n
, la loro somma x
1
+x
2
+. . . +x
n
si pu` o rappresentare agevolmente, tenendo conto dellosservazione precedente, con
il segmento che chiude la poligonale ottenuta dai segmenti posti consecutivamen-
te, che rappresentano i vettori addendi. La situazione geometrica ` e illustrata nella
Figura 3.4.
3.
`
E molto importante osservare che le propriet` a della somma di vettori coincidono
con le propriet` a della somma di numeri reali, in questo caso il vettore nullo ` e il
numero 0. In un certo senso, questo ` e un motivo che autorizza la denominazione
somma alloperazione tra vettori appena introdotta. Dal punto di vista sperimen-
tale, invece, la denizione di somma di vettori ` e giusticata dal comportamento
sico della composizione di due forze applicate nello stesso punto.
4. Il teorema precedente, ha permesso di denire la differenza di due vettori, ossia:
x y = x + (y).
La Figura 3.5 illustra come la differenza di due vettori non paralleli sia rappresenta-
ta dalla diagonale del parallelogramma che non rappresenta la loro somma. Si lascia
per esercizio la rappresentazione graca della differenza di due vettori paralleli.
5. Dato un qualsiasi vettore x e due direzioni non parallele tra di loro ma complanari
con x, esistono e sono unici due vettori x
1
ed x
2
in quelle direzioni, tali che:
x = x
1
+x
2
.
Loperazione prende il nome di decomposizione di un vettore lungo due direzioni
assegnate.
6. Si osservi che (V
3
, +) con loperazione di somma di vettori ha la struttura di
gruppo commutativo (cfr. Oss. 2.2).
Capitolo 3 81
x
1
x
2
x
3
x
4
x
1
x
2
x
3
x
4
Figura 3.4: Somma di quattro vettori
x
y
y xy
Figura 3.5: Differenza di due vettori
82 Calcolo Vettoriale
3.3 Il prodotto di un numero reale per un vettore
Loperazione che sta per essere denita trova giusticazione nel mondo in cui si vive, in
quanto formalizza il risultato che si ottiene quando una forza viene raddoppiata o molti-
plicata per un numero reale qualsiasi. Daltra parte, questa operazione ` e in un certo senso
singolare dal punto di vista algebrico perch e gli elementi che concorrono alla sua de-
nizione appartengono ad insiemi diversi. Inoltre, si pu` o considerare come loperazione
analoga al prodotto di un numero reale per una matrice introdotto nella Denizione 2.4.
Denizione 3.3 Il prodotto di un numero reale per un vettore x V
3
` e loperazione:
R V
3
V
3
, (, x) x,
dove il vettore x (detto anche prodotto dello scalare per x) ` e denito nel modo
seguente:
1. se = 0 o x = o, allora x = o.
2. Se = 0 e x = o si pone x = y, dove:
la direzione di y coincide con la direzione di x;
il verso di y ` e concorde con quello di x se > 0, discorde se < 0;
|y| = [[|x|, dove [[ indica il valore assoluto del numero reale .
Osservazione 3.3 Dalla denizione segue che x = o se e solo se = 0 oppure x = o.
Per la dimostrazione si veda lEsercizio 4.23.
Sono valide le seguenti propriet` a la cui dimostrazione ` e lasciata per esercizio.
Teorema 3.2 1. (x +y) = x + y, R, x, y V
3
;
2. ( + )x = x + x, , R, x V
3
;
3. (x) = ()x, , R, x V
3
;
4. 1 x = x, x V
3
.
Osservazione 3.4 Linsieme V
3
con le operazioni di somma di vettori e le relative quattro
propriet` a e di prodotto di un numero reale per un vettore e le relative quattro propriet` a,
` e un esempio di spazio vettoriale su R. La denizione assiomatica di spazio vettoriale ` e
rimandata al capitolo successivo. Allo stesso modo, anche V
2
e V
1
sono esempi di spazi
vettoriali. In realt` a, V
2
e V
1
sono esempi di sottospazi vettoriali di V
3
perch e sono chiusi
Capitolo 3 83
rispetto alle operazioni di somma e di prodotto per numeri reali, vale a dire per ogni x e
y in V
2
e per ogni R si ha che x+y V
2
e x V
2
(analogamente per V
1
). Inoltre,
in un certo senso (considerando le rette vettoriali di direzione indeterminata appartenenti
ad un piano vettoriale qualsiasi) si pu` o pensare che V
1
V
2
V
3
.
Seguono alcune denizioni e propriet` a di tipo teorico, che saranno riprese in modo com-
pleto nel capitolo successivo. Si ` e deciso di inserire in questo contesto ci ` o che segue,
anche se i risultati che si ottengono saranno conseguenza della teoria pi ` u generale degli
spazi vettoriali, e saranno, quindi, dedotti nel Capitolo 4, in quanto solo in V
3
` e pos-
sibile rappresentare gracamente le nozioni man mano introdotte, aiutando cos` la loro
comprensione.
Denizione 3.4 Dati k vettori v
1
, v
2
, . . . , v
k
di V
3
, si dice che un vettore x V
3
` e
combinazione lineare di v
1
, v
2
, . . . , v
k
se esistono k numeri reali x
1
, x
2
, . . . , x
k
tali che:
x = x
1
v
1
+ x
2
v
2
+ . . . + x
k
v
k
.
I numeri reali x
1
, x
2
, . . . , x
k
si dicono coefcienti della combinazione lineare.
Mediante la nozione di combinazione lineare di vettori si possono riformulare, in modo
pi ` u accurato dal punto di vista algebrico, le nozioni, gi` a introdotte in modo geometrica-
mente intuitivo, di retta vettoriale e di piano vettoriale.
Denizione 3.5 Dato un vettore x = o, la retta vettoriale generata da x ` e linsieme:
L(x) = x [ R.
Dati due vettori x e y non paralleli il piano vettoriale generato da x e da y ` e linsieme:
L(x, y) = x + y [ , R.
Osservazione 3.5 Segue in modo evidente dalla denizione che L(x, y) = L(y, x). Non
ci si deve infatti far trarre in inganno dalla presenza nella scrittura delle parentesi tonde,
usualmente usate per indicare che ` e importante lordine dei vettori; ` e una convenzione
usare questa notazione anche se non ` e corretta.
Scopo del prossimo paragrafo ` e mettere in relazione le nozioni algebriche e geometriche
enunciate nelle denizioni precedenti.
84 Calcolo Vettoriale
3.4 Dipendenza lineare e basi
Dalla Denizione 3.5 segue che il parallelismo e la complanarit` a tra vettori possono essere
letti in termini delle loro combinazioni lineari. Per differenziare ulteriormente le due
diverse situazioni geometriche ` e necessario introdurre la seguente denizione.
Denizione 3.6 Dati k vettori v
1
, v
2
, . . . , v
k
di V
3
, essi si dicono linearmente indipen-
denti se lunica loro combinazione lineare uguale al vettore nullo ` e quella con coefcienti
tutti nulli, vale a dire:
x
1
v
1
+ x
2
v
2
+ . . . + x
k
v
k
= o = x
1
= x
2
= . . . = x
k
= 0. (3.1)
Linsieme v
1
, v
2
, . . . , v
k
di vettori linearmente indipendenti si dice libero.
Di conseguenza k vettori v
1
, v
2
, . . . , v
k
di V
3
si dicono linearmente dipendenti se esiste
almeno una loro combinazione lineare uguale al vettore nullo a coefcienti non tutti nulli,
cio` e se si ha:
x
1
v
1
+ x
2
v
2
+ . . . + x
k
v
k
= o
con almeno uno tra i coefcienti x
1
, x
2
, . . . , x
k
non nullo.
Osservazione 3.6 1. Si osservi che in (3.1) vale anche limplicazione opposta.
2. Linsieme x ` e libero se e solo se x = o.
Prima di proporre alcuni esempi conviene enunciare il teorema che segue, molto facile,
ma utile per riconoscere vettori linearmente dipendenti o linearmente indipendenti. Per la
dimostrazione si rimanda al Paragrafo 4.3.
Teorema 3.3 I vettori v
1
, v
2
, . . . , v
k
di V
3
sono linearmente dipendenti se e solo se
almeno uno di essi si pu` o esprimere come combinazione lineare dei rimanenti.
Esempio 3.1 1. Se x = 2y, allora x + y = o con = 1, = 2. Pertanto i
vettori x e y sono linearmente dipendenti.
2. Il vettore nullo o ` e linearmente dipendente con ogni altro vettore x in quanto:
o + 0x = o,
per ogni R, quindi anche per valori non nulli di . In particolare, linsieme
contenente solo il vettore nullo o non ` e libero.
Capitolo 3 85
3. Gli elementi di L(x) sono tutti linearmente dipendenti tra di loro, ma la stessa
propriet` a non vale per L(x, y), si vedr` a infatti nel Teorema 3.4 che due vettori non
paralleli sono linearmente indipendenti, anche se il risultato si ottiene in modo quasi
banale da considerazioni geometriche elementari.
Il teorema che segue conclude lo studio del parallelismo e della complanarit` a tra vettori
mediante la dipendenza lineare.
Teorema 3.4 1. Due vettori x e y di V
3
sono linearmente dipendenti se e solo se
sono paralleli, ossia se e solo se appartengono alla stessa retta vettoriale.
2. Tre vettori x, y e z di V
3
sono linearmente dipendenti se e solo se sono complanari,
ossia se e solo se appartengono allo stesso piano vettoriale.
3. Quattro vettori di V
3
sono sempre linearmente dipendenti.
Segue subito dal teorema appena enunciato che:
1. Il numero massimo di vettori linearmente indipendenti in una retta vettoriale
V
1
` e 1.
2. Il numero massimo di vettori linearmente indipendenti in un piano vettoriale
V
2
` e 2.
3. Il numero massimo di vettori linearmente indipendenti nello spazio vettoriale
V
3
` e 3.
Ecco, nalmente, una prima denizione algebrica del numero che si legge a pedice!
Dimostrazione 1. Si supponga che x e y siano paralleli. Se entrambi i vettori sono
il vettore nullo, o uno solo dei due ` e il vettore nullo, allora sono linearmente dipen-
denti. Si supponga ora che entrambi i vettori non siano nulli. Dalla Denizione 3.3
si ha che esiste un numero reale per cui x = y il cui
valore assoluto ` e dato da:
[[ =
|x|
|y|
e il segno di ` e positivo se x e y hanno verso concorde, altrimenti ` e negativo.
Dal Teorema 3.3 segue che i vettori x e y sono linearmente dipendenti. Viceversa,
se x e y sono linearmente dipendenti si perviene alla tesi applicando di nuovo il
Teorema 3.3.
86 Calcolo Vettoriale
x
y
z
O
A
B
H
K
C
Figura 3.6: Complanarit` a di tre vettori
v
1
v
2
v
3
x
A
B
C
O
D
H
Figura 3.7: Dipendenza lineare di quattro vettori
Capitolo 3 87
2. Si inizia a dimostrare che se i vettori x, y, z sono complanari, allora sono linear-
mente dipendenti. Si esamina solo il caso in cui x e y sono linearmente indipen-
denti, lasciando per esercizio gli altri casi. A tale scopo si considerino tre segmenti
orientati che li rappresentano, aventi tutti lestremo O in comune (la situazione
geometrica ` e descritta nella Figura 3.6) si ha:

OA = x,

OB = y,

OC = z.
Essendo i tre vettori complanari, i punti O, A, B, C appartengono allo stesso piano.
Si decomponga il vettore z lungo le direzioni di x e di y (cfr. Oss. 3.2, punto 4.),
individuando i punti H sulla retta OA e K sulla retta OB; si ottiene:

OC =

OH +

OK, (3.2)
ma

OH ` e il rappresentante di un vettore parallelo a x e

OK ` e il rappresentante di
un vettore parallelo a y. La relazione (3.2) equivale alla dipendenza lineare dei tre
vettori dati. Il viceversa ` e lasciato per esercizio.
3. Siano v
1
, v
2
, v
3
, x quattro vettori di V
3
. Si supponga che v
1
, v
2
, v
3
non siano com-
planari, quindi siano linearmente indipendenti, lasciando per esercizio tutti gli altri
casi particolari, da cui si perviene agevolmente alla tesi. Facendo riferimento alla
Figura 3.7, si indichino con

OA = v
1
,

OB = v
2
,

OC = v
3
,

OD = x i rap-
presentanti dei quattro vettori dati, aventi tutti un estremo in O. I punti O, A, B, C
non sono complanari, mentre i punti O, A, B individuano un piano . Si supponga,
inoltre, che D non appartenga a (in caso contrario il teorema sarebbe dimostra-
to). Si tracci dal punto D la parallela alla retta OC che incontra il piano in H.
Per costruzione:

OD =

OH +

HD. (3.3)
Decomponendo il vettore

OH nelle direzioni dei vettori v
1
e v
2
, si individuano tre
numeri reali x
1
, x
2
, x
3
che permettono di riscrivere la (3.3) come:
x = x
1
v
1
+ x
2
v
2
+ x
3
v
3
, (3.4)
e, quindi, segue la tesi.
La decomposizione di un generico vettore nello spazio, rispetto a tre vettori linearmente
indipendenti assegnati, ottenuta per costruzione nella dimostrazione dellultimo punto del
teorema precedente, ` e in realt` a unica, come afferma il:
Teorema 3.5 In V
3
, dati tre vettori linearmente indipendenti v
1
, v
2
, v
3
, ogni vettore x
di V
3
si scrive in modo unico come combinazione lineare dei tre vettori dati.
88 Calcolo Vettoriale
Dimostrazione
`
E sufciente dimostrare lunicit` a della decomposizione (3.4). Si sup-
ponga che esistano altri numeri reali y
1
, y
2
, y
3
tali che:
(x
1
, x
2
, x
3
) = (y
1
, y
2
, y
3
)
e per cui:
x = y
1
v
1
+ y
2
v
2
+ y
3
v
3
. (3.5)
Uguagliando (3.4) e (3.5) segue:
o = (x
1
y
1
)v
1
+ (x
2
y
2
)v
2
+ (x
3
y
3
)v
3
.
Poich e v
1
, v
2
, v
3
sono linearmente indipendenti, si ha x
1
= y
1
, x
2
= y
2
, x
3
= y
3
.
Il teorema che segue riformula i risultati precedenti nei casi particolari di V
2
e di V
1
.
Teorema 3.6 1. Dati due vettori linearmente indipendenti v
1
, v
2
di un piano vetto-
riale V
2
, ogni vettore x di V
2
determina in modo unico la coppia di numeri reali
(x
1
, x
2
) tale che:
x = x
1
v
1
+ x
2
v
2
. (3.6)
2. Dato un vettore v
1
non nullo in una retta vettoriale V
1
, ogni vettore x V
1
determina in modo unico il numero reale x
1
tale che:
x = x
1
v
1
. (3.7)
Segue, in modo evidente, che la posizione di un vettore nello spazio vettoriale V
3
` e indi-
viduata dalla scelta di tre vettori linearmente indipendenti, in modo analogo per un piano
vettoriale V
2
` e sufciente scegliere due vettori linearmente indipendenti per individuare
tutti i vettori di V
2
e nel caso di una retta vettoriale V
1
` e sufciente scegliere un qualsiasi
vettore non nullo per determinare tutti gli altri vettori. Questa considerazione permette di
denire in modo inequivocabile i concetti fondamentali di base e di dimensione, infatti:
Denizione 3.7 1. Si dice base di V
3
una qualsiasi terna ordinata di vettori linear-
mente indipendenti. Si dice dimensione di V
3
il numero dei vettori di una base e si
indica con dim(V
3
) = 3.
2. Si dice base di un piano vettoriale V
2
una qualsiasi coppia ordinata di vettori li-
nearmente indipendenti di V
2
. Si dice dimensione di V
2
il numero dei vettori di una
base e si indica con dim(V
2
) = 2.
3. Si dice base di una retta vettoriale V
1
un suo qualsiasi vettore non nullo. Si dice
dimensione di V
1
il numero dei vettori di una base e si indica con dim(V
1
) = 1.
Capitolo 3 89
Una base di V
3
verr` a indicata con la notazione B = (v
1
, v
2
, v
3
). In questo caso lordine
con cui si scrivono i vettori ` e importante perch e determina lordine con cui si scrivono
i coefcienti (x
1
, x
2
, x
3
) della combinazione lineare (3.4). In modo analogo una base
di un piano vettoriale V
2
sar` a B

= (v
1
, v
2
) e una base di una retta vettoriale V
1
sar` a
B

= (v
1
).
Osservazione 3.7 In V
3
, in V
2
e in V
1
esistono innite basi ma il numero dei vettori che
le compongono ` e sempre pari alla dimensione dei rispettivi spazi vettoriali.
Osservazione 3.8 Dati tre vettori complanari (non paralleli) v
1
, v
2
, v
3
si ha che ogni vet-
tore x appartenente al piano vettoriale individuato da v
1
, v
2
, v
3
, si decompone in inniti
modi diversi rispetto ai tre vettori dati. Per esempio ` e sufciente scegliere una direzione
arbitraria individuata da un vettore a come combinazione lineare di v
1
, v
2
e decomporre
x rispetto alle direzioni individuate da v
3
e a; oppure decomporre x rispetto ad una di-
rezione arbitraria b ottenuta come combinazione lineare di v
2
e v
3
e cos` via (cfr. Oss.
3.2 punto 5.). La situazione geometrica ` e descritta nella Figura 3.8 in cui si ` e posto, per
esempio, a = v
1
+v
2
e x = a+v
3
ed inoltre si ` e posto b = v
2
+v
3
e x = b+v
1
,
dove , , , sono opportuni numeri reali.
v
1
v
2
v
3
x
a
b
Figura 3.8: Decomposizione di un vettore rispetto a tre direzioni complanari
90 Calcolo Vettoriale
Dai Teoremi 3.5 e 3.6 segue la:
Denizione 3.8 Fissata una base B = (v
1
, v
2
, v
3
) di V
3
, per ogni vettore x di V
3
gli
elementi dellunica terna ordinata di numeri reali (x
1
, x
2
, x
3
) denita da (3.4) sono detti
le componenti di x rispetto alla base B. In modo analogo la formula (3.6) denisce
le componenti di un generico vettore x del piano vettoriale V
2
rispetto alla base B

=
(v
1
, v
2
) di V
2
e la formula (3.7) denisce la componente di un generico vettore x di una
retta vettoriale V
1
rispetto alla base B

= (v
1
).
Osservazione 3.9 Nel caso di V
3
, ssata una base B = (v
1
, v
2
, v
3
), si ` e denita una
corrispondenza biunivoca tra V
3
e R
3
che associa ad ogni vettore x le sue componenti.
Spesso si scrive, con un abuso di notazione:
x = (x
1
, x
2
, x
3
)
o, in forma matriciale, con:
x =

x
1
x
2
x
3

.
Si vedr` a, infatti, in seguito, come sia pi ` u conveniente nei calcoli utilizzare una matrice
colonna di R
3,1
per indicare le componenti di un vettore di V
3
, che ` e preferibile chiamare
X per distinguerla dal vettore x:
X =

x
1
x
2
x
3

.
Analoghe considerazioni valgono per i casi particolari di V
2
e di V
1
.
Il teorema che segue, la cui dimostrazione ` e un facile esercizio, permette di calcola-
re la somma di due vettori e il prodotto di un numero reale per un vettore mediante le
componenti.
Teorema 3.7 In V
3
, dati i vettori x = x
1
v
1
+ x
2
v
2
+ x
3
v
3
, y = y
1
v
1
+ y
2
v
2
+ y
3
v
3
,
scritti rispetto alla base B = (v
1
, v
2
, v
3
), si ha:
x +y = (x
1
+ y
1
)v
1
+ (x
2
+ y
2
)v
2
+ (x
3
+ y
3
)v
3
,
x = (x
1
)v
1
+ (x
2
)v
2
+ (x
3
)v
3
,
con R; cio` e le componenti della somma di due vettori si ottengono semplicemente
sommando le rispettive componenti, mentre le componenti del vettore x si ottengono
Capitolo 3 91
moltiplicando per ogni componente di x. In notazione matriciale, al vettore x + y si
associa la matrice colonna delle sue componenti rispetto alla base B:
X + Y =

x
1
+ y
1
x
2
+ y
2
x
3
+ y
3

.
Al vettore x si associa la matrice colonna delle sue componenti rispetto alla base B:
X =

x
1
x
2
x
3

.
Analoghe affermazioni valgono anche nel caso di un piano vettoriale V
2
e di una retta
vettoriale V
1
.
Osservazione 3.10 1. Il vettore nullo o ` e lunico vettore di V
3
avente componenti
tutte nulle o = (0, 0, 0), rispetto ad una qualsiasi base di V
3
.
2. I vettori di una base B = (v
1
, v
2
, v
3
) di V
3
hanno componenti, rispetto alla stessa
base B:
v
1
= (1, 0, 0), v
2
= (0, 1, 0), v
3
= (0, 0, 1).
3. Dal teorema precedente e dalla notazione matriciale usata per le componenti di un
vettore segue lassoluta concordanza tra le denizioni di somma di matrici e di
prodotto di un numero reale per una matrice, introdotte nel capitolo precedente e la
somma di vettori in componenti e il prodotto di un numero reale per un vettore, in
componenti denite in questo capitolo.
Gli esempi che seguono sono volti ad individuare la dipendenza o indipendenza lineare
dei vettori mediante le loro componenti. Si far` a uso delle nozioni di rango di una matrice
e del Teorema di Rouch eCapelli introdotti nei Capitoli 2 e 1 per la risoluzione dei sistemi
lineari.
Esempio 3.2 1. In V
3
, ssata una base B = (v
1
, v
2
, v
3
), si considerino i vettori non
nulli:
x = x
1
v
1
+ x
2
v
2
+ x
3
v
3
, y = y
1
v
1
+ y
2
v
2
+ y
3
v
3
.
Dal Teorema 3.4 segue che x ` e parallelo a y se e solo se x e y sono linearmente
dipendenti, ossia se e solo se ` e possibile determinare un numero reale tale che:
y = x.
92 Calcolo Vettoriale
Scrivendo questa relazione mediante le componenti dei due vettori segue:

y
1
= x
1
y
2
= x
2
y
3
= x
3
e, in termini matriciali, equivale a richiedere che:
rank

x
1
x
2
x
3
y
1
y
2
y
3

1.
Per esempio i vettori x = (1, 2, 3) e y = (2, 4, 6) sono paralleli, mentre i vettori
x e z = (1, 0, 3) non lo sono. Il rango della matrice:

x
1
x
2
x
3
y
1
y
2
y
3

` e pari a 1 anche nel caso in cui uno solo dei vettori x e y sia diverso dal vettore
nullo. Il rango di questa matrice ` e 0 se e solo se x = y = o.
2. Dal Teorema 3.4 si ha che tre vettori x, y, z sono complanari se e solo se sono
linearmente dipendenti, ossia per esempio se esistono i numeri reali e per cui:
z = x + y. (3.8)
Fissata una base B = (v
1
, v
2
, v
3
) di V
3
, si indichino con:
x = (x
1
, x
2
, x
3
), y = (y
1
, y
2
, y
3
), z = (z
1
, z
2
, z
3
)
le componenti dei tre vettori dati. La relazione (3.8), scritta rispetto a queste
componenti, equivale al sistema lineare:

z
1
= x
1
+ y
1
z
2
= x
2
+ y
2
z
3
= x
3
+ y
3
e in termini matriciali equivale a:
rank

x
1
x
2
x
3
y
1
y
2
y
3
z
1
z
2
z
3

2.
Infatti se i vettori x e y non sono paralleli allora il rango della matrice su scritta ` e
proprio 2, invece se i vettori x e y sono paralleli, allora anche il vettore z ` e ad essi
parallelo e il rango della matrice vale 1. Il rango ` e 0 se e solo se x = y = z = o.
Capitolo 3 93
Esercizio 3.1 In V
3
, rispetto ad una base B = (v
1
, v
2
, v
3
), sono dati i vettori:
a = (1, 3, 1), b = (4, 1, 0), c = (2, 5, 2),
come sono posizionati questi tre vettori nello spazio vettoriale V
3
?
Soluzione Si consideri la matrice A, quadrata di ordine tre, le cui righe sono date dalle
componenti dei tre vettori:
A =

1 3 1
4 1 0
2 5 2

,
riducendo A per righe si ha:
A =

1 3 1
4 1 0
2 5 2


R
3
R
3
+ 2R
1

1 3 1
4 1 0
4 1 0

.
Quindi rank(A) = 2 e ci ` o implica che i tre vettori sono complanari (infatti sono linear-
mente dipendenti). Poich e i vettori a e b non sono paralleli (infatti sono linearmente
indipendenti in quanto le loro componenti non sono proporzionali), devono esistere due
numeri reali e tali che:
c = a + b.
Questa relazione vettoriale, scritta mediante le componenti dei tre vettori, equivale al
sistema lineare:

+ 4 = 2
3 + = 5
= 2
la cui soluzione ` e ( = 2, = 1), e perci ` o c = 2a +b.
Gli esempi precedenti, riletti in termini di indipendenza lineare di vettori, possono essere
riassunti nel seguente teorema.
Teorema 3.8 Sia B = (v
1
, v
2
, v
3
) una base di V
3
, si considerino vettori:
x = (x
1
, x
2
, x
3
), y = (y
1
, y
2
, y
3
), z = (z
1
, z
2
, z
3
)
scritti in componenti rispetto alla base B.
1. Un vettore non nullo x in V
3
` e linearmente indipendente se e solo se, indicata con
A la matrice avente come unica riga le componenti di x:
A =

x
1
x
2
x
3

si ha rank(A) = 1. Equivalentemente x = o se e solo se rank(A) = 0.


94 Calcolo Vettoriale
2. Due vettori x e y di V
3
sono linearmente indipendenti se e solo se, indicata con A
la matrice avente come righe le componenti dei due vettori:
A =

x
1
x
2
x
3
y
1
y
2
y
3

,
si ha rank(A) = 2. Equivalentemente, i vettori x e y (entrambi non nulli) sono
linearmente dipendenti, vale a dire sono paralleli, se e solo se rank(A) = 1. Se
x = y = o, allora rank(A) = 0 e viceversa.
3. Tre vettori x, y, z sono linearmente indipendenti in V
3
(vale a dire formano una
base di V
3
) se e solo se, indicata con A la matrice quadrata avente come righe le
componenti dei tre vettori:
A =

x
1
x
2
x
3
y
1
y
2
y
3
z
1
z
2
z
3

, (3.9)
si ha:
rank(A) = 3 A
1
det(A) = 0.
Equivalentemente, i vettori x, y, z sono linearmente dipendenti se e solo se:
rank(A) < 3.
Se rank(A) = 2 allora due dei tre vettori dati sono linearmente indipendenti e il
terzo vettore appartiene al piano vettoriale individuato dai primi due. Se invece
rank(A) = 1 i tre vettori (non contemporaneamente tutti uguali al vettore nullo)
sono paralleli. Il caso rank(A) = 0 corrisponde a x = y = z = o.
Dimostrazione La dimostrazione segue dallEsempio 3.2. In alternativa, per dimostra-
re lultimo punto si pu` o anche procedere esplicitando, mediante le componenti dei vettori,
la relazione:

1
x +
2
y +
3
z = o,
con
1
,
2

3
R, che equivale al sistema lineare omogeneo:

1
x
1
+
2
y
1
+
3
z
1
= 0

1
x
2
+
2
y
2
+
3
z
2
= 0

1
x
3
+
2
y
3
+
3
z
3
= 0.
Afnch e i tre vettori dati siano linearmente indipendenti, tale sistema lineare omogeneo
deve ammettere la sola soluzione nulla. Questo accade se e solo se:
Capitolo 3 95
rank

x
1
y
1
z
1
x
2
y
2
z
2
x
3
y
3
z
3

= 3.
Si osservi che la matrice ottenuta ` e la trasposta della matrice A in (3.9). Si dovr` a attende-
re la dimostrazione del Teorema 4.19 per assicurare lequivalenza dei due procedimenti
seguiti per pervenire alla tesi. Il risultato, in realt` a, ` e intuitivamente accettabile, tenendo
conto che det(A) = det(
t
A).
Esercizio 3.2 In V
3
, rispetto ad una base B = (v
1
, v
2
, v
3
), sono dati i vettori:
u
1
= (1, 0, h), u
2
= (2, 1, 1), u
3
= (h, 1, 1),
stabilire per quali valori di h R essi formano una base di V
3
.
Soluzione I tre vettori dati formano una base di V
3
se e solo se sono linearmente
indipendenti, ossia se la matrice A :
A =

1 0 h
2 1 1
h 1 1

ha det(A) = 0. Poich e det(A) = h(2 + h) si ha che i vettori u


1
, u
2
, u
3
formano una
base di V
3
se e solo se h / 2, 0.
Esercizio 3.3 In V
3
, rispetto ad una base B = (v
1
, v
2
, v
3
), sono dati i vettori:
u = v
1
v
2
+ 3v
3
, v = 2v
1
+v
2
v
3
, w = v
1
+ 2v
2
+v
3
,
dimostrare che costituiscono una base di V
3
.
Soluzione Si tratta di dimostrare che il rango della matrice:
A =

1 1 3
2 1 1
1 2 1

` e 3. Riducendola per righe si ha:


A =

1 1 3
2 1 1
1 2 1

R
2
R
2
+ R
1
R
3
R
3
+ 2R
1

1 1 3
3 0 2
3 0 7

R
3
R
3
R
2

1 1 3
3 0 2
0 0 5

,
96 Calcolo Vettoriale
da cui la tesi.
Esercizio 3.4 In V
3
, rispetto ad una base B = (v
1
, v
2
, v
3
), sono dati i vettori:
u = 2v
1
+v
2
v
3
, v = v
1
+v
3
, w = v
1
+v
2
2v
3
.
Vericare che u, v, w sono linearmente dipendenti ed esprimerne uno di essi come com-
binazione lineare dei rimanenti.
Soluzione Si consideri la combinazione lineare dei vettori u, v, w a coefcienti reali
, e e la si ponga uguale al vettore nullo:
u + v + w = o.
Sostituendo nella combinazione lineare lespressione dei vettori scritta rispetto alla base
B, si ha:
(2v
1
+v
2
v
3
) + (v
1
+v
3
) + (v
1
+v
2
2v
3
)
= (2 + + )v
1
+ ( + )v
2
+ ( + 2)v
3
= o.
Si ` e cos` ottenuta una combinazione lineare dei vettori della base B che ` e uguale al vettore
nullo. Ma i vettori della base B sono linearmente indipendenti, quindi tutti i coefcienti
di tale combinazione lineare devono essere nulli, ossia:

2 + + = 0
+ = 0
+ 2 = 0.
Il sistema lineare omogeneo cos` ottenuto ha matrice dei coefcienti:
C =

2 1 1
1 0 1
1 1 2

.
Riducendo C per righe si ha:
C =

2 1 1
1 0 1
1 1 2


R
3
R
3
R
1

2 1 1
1 0 1
3 0 3

R
3
R
3
+ 3R
2

2 1 1
1 0 1
0 0 0

,
ossia rank(C) = 2. Il sistema lineare omogeneo ammette, quindi, innite soluzioni date
da (, , ), R. I vettori u, v, w sono perci` o linearmente dipendenti e quindi,
posto per esempio = 1, si ottiene u = v + w. Come gi` a osservato nella dimostrazione
del Teorema 3.8, si noti che la matrice C ha come colonne le componenti dei vettori
u, v, w.
Capitolo 3 97
3.5 Il cambiamento di base in V
3
Il problema del cambiamento di base in V
3
consiste nel determinare la relazione che
intercorre tra le componenti di un qualsiasi vettore scritto rispetto a due basi diverse,
precedentemente assegnate.
Siano date due basi B = (v
1
, v
2
, v
3
) e B

= (v

1
, v

2
, v

3
) di V
3
. Ogni vettore x V
3
si
scrive in componenti, rispetto alla due basi, nella forma:
x = x
1
v
1
+ x
2
v
2
+ x
3
v
3
= x

1
v

1
+ x

2
v

2
+ x

3
v

3
. (3.10)
Usando la notazione matriciale introdotta nel paragrafo precedente, si indichino con:
X =

x
1
x
2
x
3

, X

1
x

2
x

(3.11)
le matrici colonna delle componenti di x rispetto alle due basi assegnate. La base B

` e
nota quando sono note le componenti dei suoi vettori rispetto alla base B, ossia:

1
= p
11
v
1
+ p
21
v
2
+ p
31
v
3
v

2
= p
12
v
1
+ p
22
v
2
+ p
32
v
3
v

3
= p
13
v
1
+ p
23
v
2
+ p
33
v
3
.
(3.12)
In altri termini, la base B

` e nota quando ` e assegnata la matrice:


P =

p
11
p
12
p
13
p
21
p
22
p
23
p
31
p
32
p
33

.
P ` e invertibile perch e le sue colonne sono le componenti di vettori linearmente indipen-
denti. La matrice P prende il nome di matrice del cambiamento di base da B a B

ed ` e
spesso anche indicata come P = M
B,B

proprio per mettere maggiormente in evidenza


la sua interpretazione geometrica. La scelta di porre in colonna, anzich e in riga, le com-
ponenti dei vettori della base B

rende i calcoli pi ` u agevoli. Le equazioni (3.12) in forma


matriciale diventano:

1
v

2
v

=
t
P

v
1
v
2
v
3

.
Sostituendo questa espressione in (3.10) si ha:
x =

x
1
x
2
x
3

v
1
v
2
v
3

1
x

2
x

1
v

2
v

1
x

2
x

t
P

v
1
v
2
v
3

.
98 Calcolo Vettoriale
Dal Teorema 3.5 segue:

x
1
x
2
x
3

1
x

2
x

t
P,
da cui, considerando la trasposta di ambo i membri:

x
1
x
2
x
3

= P

1
x

2
x

.
Usando le notazioni di (3.11) si ottiene:
X = PX

,
che sono le relazioni richieste e che prendono il nome di equazioni del cambiamento di
base da B a B

.
Osservazione 3.11 1.
`
E chiaro che se si esprimono i vettori della base B in compo-
nenti rispetto alla base B

si ottiene la matrice inversa P


1
, infatti le equazioni del
cambiamento di base da B

a B sono X

= P
1
X.
2. Si pu` o trattare in modo analogo il problema del cambiamento di base nel caso del
piano vettoriale V
2
. La matrice del cambiamento di base sar` a una matrice invertibile
di ordine 2.
3. Nel caso della retta vettoriale V
1
ogni numero reale non nullo esprime la compo-
nente del vettore della base B

= (v

1
) rispetto alla base B = (v
1
). Se per esempio
v

1
= 2v
1
, allora P =

, mentre le equazioni del cambiamento di base si


riducono allunica equazione: x
1
= 2x

1
o x

1
= 1/2 x
1
. Infatti:
x = x
1
v
1
= x

1
v

1
=

1
2
x
1

2v
1
.
Esercizio 3.5 In V
3
, rispetto ad una base B = (v
1
, v
2
, v
3
), sono dati i vettori:
u = 2v
1
+v
2
+v
3
, v = v
1
+ 2v
2
+v
3
,
w = v
1
v
2
2v
3
, z = v
1
2v
2
+v
3
.
Vericare che B

= (u, v, w) ` e una base di V


3
e trovare le componenti di z rispetto alla
base B

.
Capitolo 3 99
Soluzione Si inizia con il calcolo del rango della matrice P le cui colonne sono,
rispettivamente, le componenti dei vettori u, v, w.
P =

2 1 1
1 2 1
1 1 2

R
2
R
2
+ 2R
1
R
3
R
3
+ R
1

2 1 1
5 0 1
3 0 1


R
3
R
3
+ R
2

2 1 1
5 0 1
8 0 0

.
Allora rank(P) = 3, quindi i vettori u, v, w sono linearmente indipendenti. La matrice
P ` e pertanto la matrice del cambiamento di base dalla base B alla base B

. Si devono
determinare le componenti (x

1
, x

2
, x

3
) del vettore z rispetto alla base B

, ossia:
z = x

1
u + x

2
v + x

3
w.
Si tratta di risolvere lequazione matriciale X = PX

, dove:
X =

1
2
1

, X

1
x

2
x

,
che corrisponde al sistema lineare che esprime le equazioni del cambiamento di base da
B a B

2x

1
x

2
+ x

3
= 1
x

1
+ 2x

2
x

3
= 2
x

1
+ x

2
2x

3
= 1.
Riducendo per righe la matrice completa si ha:

2 1 1 1
1 2 1 2
1 1 2 1

R
2
R
2
+ 2R
1
R
3
R
3
+ R
1

2 1 1 1
5 0 1 4
3 0 1 0


R
3
R
3
+ R
2

2 1 1 1
5 0 1 4
8 0 0 4


R
3
(1/4)R
3

2 1 1 1
5 0 1 4
2 0 0 1


R
1
R
1
R
2

3 1 0 3
5 0 1 4
2 0 0 1

R
1
2R
1
+ 3R
3
R
2
2R
2
5R
3

0 2 0 3
0 0 2 3
2 0 0 1

.
100 Calcolo Vettoriale
Si perviene alla soluzione:

1
=
1
2
x

2
=
3
2
x

3
=
3
2
.
Allora:
z =
1
2
u
3
2
v
3
2
w.
3.6 Angolo tra due vettori
Nei paragra precedenti si sono considerati solo il parallelismo e la complanarit` a di vettori
ma non langolo che questi formano; per esempio non ` e stata trattata lortogonalit` a tra
vettori. Per prendere in considerazione questaspetto geometrico ` e necessario introdurre
la nozione precisa di angolo tra due vettori nel modo seguente.
Denizione 3.9 In V
3
, considerati due vettori non nulli x =

OA, y =

OB, scelti i
rispettivi rappresentanti con lestremo O in comune, si denisce angolo xy tra i due
vettori x e y langolo convesso = xy di vertice O e compreso tra i segmenti OA,
OB. Di conseguenza 0 . La situazione geometrica ` e illustrata nella Figura 3.9.
Inoltre:
Se = 0 o se = i vettori x e y si dicono paralleli.
Se =

2
i vettori x e y si dicono ortogonali (o perpendicolari).
Langolo tra il vettore nullo o e un qualunque altro vettore pu` o assumere qualsiasi
valore, vale a dire il vettore nullo si pu` o considerare parallelo e ortogonale ad ogni
altro vettore.
Si osservi che se = 0 i due vettori x e y hanno verso concorde, mentre se =
il verso ` e discorde. Nel Paragrafo 3.7.2 si dimostrer` a che la denizione geometrica di
parallelismo di due vettori, intendendosi come tali due vettori che formano un angolo
= 0 o = , coincide con la dipendenza lineare dei due vettori.
Capitolo 3 101
O A
B

x
y
Figura 3.9: Angolo tra due vettori
3.7 Operazioni non lineari tra vettori
In questo paragrafo saranno introdotte tre particolari operazioni tra vettori di V
3
che
coinvolgono la nozione di angolo, e precisamente:
1. il prodotto scalare tra due vettori (che a due vettori associa un numero reale);
2. il prodotto vettoriale o esterno tra due vettori (che a due vettori associa un vettore);
3. il prodotto misto tra tre vettori (che a tre vettori associa un numero reale).
Esse sono dette non lineari perch e prevedono operazioni con le componenti dei vettori
che non saranno di primo grado.
3.7.1 Il prodotto scalare di due vettori
In questo paragrafo ` e introdotta una particolare operazione tra due vettori mediante la
quale sar` a possibile calcolare la norma di ogni vettore e individuare langolo tra essi
formato. Inoltre, la sua particolare espressione permetter` a di estenderla anche al caso
di spazi vettoriali di dimensione superiore a tre, ma questo argomento sar` a trattato nel
Capitolo 5.
Denizione 3.10 Il prodotto scalare x y di due vettori x e y in V
3
in V
3
` e la funzione:
: V
3
V
3
R
102 Calcolo Vettoriale
cos` denita:
x y = |x||y| cos( xy). (3.13)
Osservazione 3.12 1. La denizione di prodotto scalare di due vettori, appena intro-
dotta, coinvolge la lunghezza dei due vettori dati e langolo da essi formato, quindi
pu` o essere ripetuta, allo stesso modo, per i vettori di un piano vettoriale V
2
. Vale a
dire:
: V
2
V
2
R, x y = |x||y| cos( xy).
2. Per denizione, il risultato del prodotto scalare di due vettori pu` o essere un numero
reale qualsiasi il cui segno ` e esclusivamente legato allampiezza dellangolo tra i
due vettori. Precisamente se x e y sono due vettori entrambi non nulli si ha:
a. 0 <

2
se e solo se x y > 0;
b.

2
< se e solo se x y < 0;
c. se =

2
allora x y = 0.
Se, invece, uno almeno dei due vettori x e y ` e il vettore nullo, allora x y = 0.
3. Da (3.13), ponendo x = y, si ottiene la formula che permette di calcolare la norma
del vettore x:
|x| =

x x.
4. Da (3.13) segue lespressione del coseno dellangolo tra due vettori non nulli x e
y, in funzione del valore del loro prodotto scalare e delle loro norme:
cos( xy) =
x y
|x||y|
.
Il teorema che segue, la cui dimostrazione ` e una semplice conseguenza delle osservazioni
precedenti, ` e per` o estremamente importante perch e esprime una condizione equivalente
allortogonalit` a di due vettori.
Teorema 3.9 Due vettori di V
3
sono ortogonali se e solo se il loro prodotto scalare ` e
uguale a zero, in formule:
x y x y = 0, x, y V
3
.
Si procede ora con lo studio dellinterpretazione geometrica del numero reale che esprime
il prodotto scalare tra due vettori, nel caso in cui questo non sia uguale a zero.
Capitolo 3 103
O
A
B
x
y
p
H
Figura 3.10: Vettore proiezione ortogonale di y su x con x y > 0
O
A
B
x
y
p
H
Figura 3.11: Vettore proiezione ortogonale di y su x con x y < 0
104 Calcolo Vettoriale
Teorema 3.10 Signicato geometrico del prodotto scalare Il prodotto scalare di
due vettori di V
3
` e il prodotto della lunghezza di uno dei due vettori per la proiezione
ortogonale con segno dellaltro vettore sul primo.
Dimostrazione Segue da teoremi elementari di trigonometria. Dati due vettori x e y
non nulli e non ortogonali (in caso contrario il prodotto scalare si annulla) ` e necessario
distinguere due casi:
a. = xy <

2
,
b. = xy >

2
.
In entrambi i casi, considerando i vettori x e y rappresentati mediante segmenti orientati
aventi un estremo in comune, ossia ponendo x =

OA e y =

OB si ha:
x y = |x| OH, (3.14)
dove H ` e la proiezione ortogonale di B sulla retta OA. Pertanto il prodotto scalare di
x e di y coincide con il prodotto della norma di x per la proiezione ortogonale di y su
x. Nel primo caso OH ` e proprio la lunghezza del segmento proiezione ortogonale di
OB sulla retta OA, nel secondo caso OA ` e lopposto di tale lunghezza. La situazione
geometrica ` e illustrata nelle Figure 3.10 e 3.11. Da notare che i ruoli dei vettori x e y
possono essere scambiati, nel senso che il loro prodotto scalare ` e anche pari alla norma di
y per la proiezione ortogonale, con segno, di x su y.
Teorema 3.11 Vettore proiezione ortogonale Dati due vettori x e y non nulli, il
vettore proiezione ortogonale di y su x ` e:
p =
x y
|x|
2
x. (3.15)
Il vettore proiezione ortogonale di x su y ` e:
p

=
x y
|y|
2
y.
Il vettore proiezione ortogonale di y su x ` e, quindi, un vettore parallelo a x, mentre il
vettore proiezione ortogonale di x su y ` e un vettore parallelo a y.
Dimostrazione
`
E una facile conseguenza del teorema precedente. Innanzi tutto ` e evi-
dente che x e y sono ortogonali se e solo se p = p

= o. Se x e y non sono ortogonali,


Capitolo 3 105
allora la lunghezza (con segno) della proiezione ortogonale di x su y si ricava da (3.14)
ed ` e:
OH =
x y
|x|
,
che coincide con la norma, con segno, del vettore p. Tenendo conto che, per costruzione,
p ` e parallelo a x si ha la tesi. La situazione geometrica ` e illustrata nelle Figure 3.10 e
3.11. Il vettore p

si ottiene in modo analogo a p scambiando i ruoli di x e di y.


Rimane da determinare lespressione del prodotto scalare tra due vettori usando le loro
componenti, rispetto ad una base di V
3
ssata, ma per fare ci ` o ` e necessario ricavare le
propriet` a del prodotto scalare in relazione alla somma di vettori e al prodotto di un numero
reale per un vettore.
Teorema 3.12 Il prodotto scalare tra due vettori gode delle seguenti propriet` a:
1. x y = y x, x, y V
3
,
2. x (y
1
+y
2
) = x y
1
+x y
2
, x, y
1
, y
2
V
3
,
3. (x y) = (x) y = x (y), R, x, y V
3
.
Dimostrazione 1.
`
E conseguenza immediata della denizione di prodotto scalare.
2. La dimostrazione si evince dalle Figure 3.12 e 3.13. In entrambi i casi sono rap-
presentati i vettori con i punti indicati, in particolare y
1
=

AB e y
2
=

BC, quindi
y
1
+y
2
=

AC. Dal Teorema 3.10 segue:


x y
1
= |x| AH, x y
2
= |x| HK, x (y
1
+y
2
) = |x| AK,
tenendo conto del segno legato alle lunghezze delle proiezioni ortogonali, si pervie-
ne alla tesi.
3. Occorre distinguere tre casi:
a. = 0;
b. > 0;
c. < 0.
I primi due casi sono molto semplici e vengono lasciati per esercizio.
Se < 0 si ha:
(x)y = |(x)||y| cos(

(x)y) = [[|x||y| cos(

(x)y) = [[|x||y| cos( xy),


in quanto, essendo < 0, langolo formato dai vettori x e y ` e supplementare
dellangolo formato dai vettori x e y.
106 Calcolo Vettoriale
A H K
B
C
y
1
y
2
y
1

y
2
x
Figura 3.12: x (y
1
+y
2
)
A
H
K
B
C
y
1
y
2
y
1

y
2
x
Figura 3.13: x (y
1
+y
2
)
Capitolo 3 107
Sia B = (v
1
, v
2
, v
3
) una base di V
3
. Dati i vettori:
x = x
1
v
1
+ x
2
v
2
+ x
3
v
3
, y = y
1
v
1
+ y
2
v
2
+ y
3
v
3
di V
3
, tenendo conto delle propriet` a dimostrate nel Teorema 3.12, il calcolo del loro
prodotto scalare mediante le componenti, rispetto a B, risulta essere:
x y =
3

i,j=1
x
i
y
j
v
i
v
j
da cui segue che il valore di x y dipende dai prodotti scalari tra i vettori della base B.
In altri termini, per calcolare il prodotto scalare tra due vettori ` e necessario conoscere, in
modo preciso, langolo formato tra i vettori della base che si sta usando e la loro norma.
Per rendere pi ` u agevoli i calcoli si impone, pertanto, la scelta di particolari basi in cui
siano noti a priori le lunghezze dei vettori che le compongono e gli angoli tra di essi.
Denizione 3.11 1. Una base B = (v
1
, v
2
, v
3
) di V
3
si dice ortogonale se v
i
v
j
= 0
per ogni i, j = 1, 2, 3.
2. Una base B = (i, j, k) di V
3
si dice ortonormale se:
a. i j = i k = j k = 0,
b. |i| = |j| = |k| = 1,
ossia i vettori della base B sono versori a due a due ortogonali.
3. Una base B = (i, j) di un piano vettoriale V
2
si dice ortonormale se:
a. i j = 0,
b. |i| = |j| = 1,
ossia i vettori della base B sono versori ortogonali.
4. Una base B = (i) di una retta vettoriale V
1
si dice ortonormale se |i| = 1, ossia
se ` e formata da un versore.
Osservazione 3.13 1. Una base ortonormale ` e, quindi, una base ortogonale i cui vet-
tori sono anche versori.
2.
`
E evidente che sia nello spazio vettoriale V
3
sia in ogni piano vettoriale V
2
sia in
ogni retta vettoriale V
1
esistono innite basi ortonormali.
108 Calcolo Vettoriale
3. Le basi ortonormali nello spazio vettoriale V
3
possono essere schematizzate nei
due graci rappresentati nella Figura 3.14. Si osservi che la denizione di base
ortonormale in V
3
non permette di distinguere tra le due situazioni geometriche,
per questo si dovr` a attendere il concetto di prodotto vettoriale, denito nel Paragrafo
3.7.2.
4. Le basi ortonormali in un piano vetttoriale V
2
possono essere schematizzate nei
due graci rappresentati nella Figura 3.15. Si osservi che, anche in questo caso,
la denizione di base ortonormale in V
2
non permette di distinguere tra le due
situazioni geometriche.
i
j
k
i
j
k
Figura 3.14: Basi ortonormali in V
3
i
j
j
i
Figura 3.15: Basi ortonormali in V
2
Capitolo 3 109
Usando la denizione di base ortonormale ` e possibile semplicare il calcolo del prodotto
scalare tra due vettori, come risulta dal teorema seguente.
Teorema 3.13 Prodotto scalare in componenti Sia B = (i, j, k) una base ortonor-
male di V
3
e siano:
x = x
1
i + x
2
j + x
3
k, y = y
1
i + y
2
j + y
3
k
due vettori di V
3
le cui componenti possono essere rappresentate dalle matrici colonne:
X =

x
1
x
2
x
3

, Y =

y
1
y
2
y
3

.
Il prodotto scalare tra i vettori x e y ` e dato da:
x y = x
1
y
1
+ x
2
y
2
+ x
3
y
3
=
t
X Y.
La norma del vettore x ` e:
|x| =

x
2
1
+ x
2
2
+ x
2
3
=

t
XX.
Il coseno dellangolo formato dai vettori x e y ` e:
cos( xy) =
x
1
y
1
+ x
2
y
2
+ x
3
y
3

x
2
1
+ x
2
2
+ x
2
3

y
2
1
+ y
2
2
+ y
2
3
=
t
XY

t
XX

t
Y Y
.
Dimostrazione La dimostrazione segue in modo evidente dalle propriet` a del prodotto
scalare e dalla denizione di base ortonormale.
Osservazione 3.14 1. Si pu` o ripetere il Teorema 3.13 nel caso particolare di un pia-
no vettoriale V
2
. Precisamente, se B = (i, j) ` e una base ortonormale di un piano
vettoriale V
2
e x = x
1
i + x
2
j e y = y
1
i + y
2
j sono due vettori di V
2
, allora:
x y = x
1
y
1
+ x
2
y
2
,
|x| =

x
2
1
+ x
2
2
,
cos( xy) =
x
1
y
1
+ x
2
y
2

x
2
1
+ x
2
2

y
2
1
+ y
2
2
.
110 Calcolo Vettoriale
2. In V
3
, dati una base ortonormale B = (i, j, k) e un vettore x = x
1
i + x
2
j + x
3
k si
ha:
i x = x
1
, j x = x
2
, k x = x
3
.
Tenendo conto del signicato geometrico del prodotto scalare, ne segue che le com-
ponenti di un vettore, rispetto ad una base ortonormale, coincidono con le lunghezze
(con segno) delle proiezioni ortogonali del vettore lungo le rette vettoriali individua-
te dai vettori della base. La situazione geometrica ` e illustrata nella Figura 3.16. In
formule si ha:
x = (x i)i + (x j)j + (x k)k.
Calcolando, invece, il coseno degli angoli formati dal vettore x con i vettori della
base ortonormale B si ha:
cos(

ix) =
x
1
|x|
, cos(

jx) =
x
2
|x|
, cos(

kx) =
x
3
|x|
.
I coseni appena determinati sono a volte indicati con il temine coseni direttori del
vettore x per sottolineare che la direzione di x ` e individuata dagli angoli formati da
x con i tre vettori della base. Dallespressione dei coseni direttori appena ricavata
segue:
cos
2
(

ix) + cos
2
(

jx) + cos
2
(

kx) = 1. (3.16)
3. Il punto precedente si pu` o ripetere, in modo totalmente analogo, nel caso di un
piano vettoriale V
2
, riferito ad una base ortonormale B = (i, j). In particolare la
formula (3.16) si riduce a:
cos
2
(

ix) + cos
2
(

jx) = 1,
che coincide con la ben nota relazione di trigonometria piana sin
2
+cos
2
= 1
valida per un angolo qualsiasi. La situazione geometrica ` e illustrata nella Figura
3.17.
Esercizio 3.6 In V
3
, rispetto ad una base ortonormale B = (i, j, k) sono dati i vettori
u = (2, 1, 3) e v = (0, 2, 3), determinare il vettore x simmetrico di u rispetto a v.
Soluzione Indicato con p il vettore proiezione ortogonale di u su v, il vettore x,
simmetrico di u rispetto a v, ` e tale che:
x +u = 2p.
Dallespressione del vettore proiezione ortogonale (3.15) si ha:
p =
u v
|v|
2
v =
11
13
(0, 2, 3),
Capitolo 3 111
i
j
k
x
x
2
x
1
x
3
Figura 3.16: Componenti di x rispetto a B = (i, j, k)
i
j
x
x
1
x
2
Figura 3.17: Componenti di x rispetto a B = (i, j)
112 Calcolo Vettoriale
quindi:
x = 2p u =

2,
31
13
,
27
13

.
Esercizio 3.7 1. In V
3
, riferito ad una base ortonormale B = (i, j, k), i vettori:
a = (1, 2, 0), b = (0, 1, 1)
possono rappresentare i lati di un rettangolo?
2. Determinare i vettori v paralleli alle altezze del parallelogramma individuato da a
e da b.
Soluzione 1. I vettori a e b possono rappresentare i lati di un rettangolo se e
solo se sono ortogonali, ma a b = 2, quindi a e b possono rappresentano i
lati di un parallelogramma non rettangolo.
2. Si determina il vettore h rappresentato nella Figura 3.18 e si lascia al Lettore il
calcolo degli altri vettori che risolvono il problema. Per costruzione, se p indica il
vettore proiezione ortogonale di b su a si ha:
p +h = b.
Da (3.15) segue:
p =
b a
|a|
2
a =
2
5
(1, 2, 0)
da cui:
h = b p =

2
5
,
1
5
, 1

.
a
p
b
h
Figura 3.18: Esercizio 3.7
Capitolo 3 113
3.7.2 Il prodotto vettoriale di due vettori
Il prodotto vettoriale di due vettori, oggetto di questo paragrafo, ` e unoperazione parti-
colare tra due vettori che, a differenza del prodotto scalare, pu` o essere solo denita sullo
spazio vettoriale V
3
. Esistono opportune generalizzazioni di questa operazione a spazi
vettoriali di dimensione maggiore di 3, ma solo in alcuni casi particolari. Lo studio di
queste generalizzazioni non ` e immediato e richiede nozioni inserite spesso in corsi pi ` u
avanzati. In realt` a la denizione del prodotto vettoriale ` e estremamente importante per
descrivere in Fisica la rotazione dei corpi e il momento angolare.
Denizione 3.12 Il prodotto vettoriale (o esterno) ` e una funzione:
: V
3
V
3
V
3
, (x, y) x y.
Il vettore x y (che si legge x vettoriale y o x esterno y) ` e cos` denito:
a. la norma di x y ` e |x y| = |x| |y| sin( xy),
b. la direzione di x y ` e ortogonale al piano vettoriale individuato da x e da y,
c. il verso di x y rispetta la cosiddetta regola della mano destra, ossia ponendo
lindice della mano destra parallelamente a x, il medio parallelamente a y, la
direzione assunta naturalmente dal pollice coincide con il verso di x y.
x
y
xy
Figura 3.19: Il prodotto vettoriale di x e di y
114 Calcolo Vettoriale
La situazione geometrica ` e rappresentata nella Figura 3.19.
Osservazione 3.15 La denizione di prodotto vettoriale di due vettori x e y ` e ancora
valida se entrambi i vettori o uno solo dei due ` e il vettore nullo. Infatti si ha subito che,
in questo caso, |x y| = 0, rendendo di conseguenza non rilevanti le denizioni di
direzione e verso.
Come si pu` o immediatamente dedurre dalla denizione di prodotto vettoriale e dallos-
servazione precedente, il prodotto vettoriale di due vettori ha norma pari a zero non solo
nel caso in cui uno dei due vettori sia il vettore nullo o entrambi i vettori siano il vettore
nullo, infatti vale il seguente teorema la cui dimostrazione ` e conseguenza evidente della
denizione di prodotto vettoriale.
Teorema 3.14 Due vettori x, y di V
3
sono paralleli se e solo se il loro prodotto vettoriale
` e uguale al vettore nullo; in formule:
x | y x y = o.
x
y
A B
C
H
Figura 3.20: Signicato geometrico di |x y|
Nel caso in cui il prodotto vettoriale di due vettori non sia il vettore nullo, la sua norma
assume uninteressante signicato geometrico. Si ha:
Teorema 3.15 Signicato geometrico della norma del prodotto vettoriale La nor-
ma del prodotto vettoriale di due vettori ` e pari al doppio dellarea del triangolo indi-
viduato da due segmenti orientati, rappresentanti dei vettori dati, aventi un estremo in
comune.
Capitolo 3 115
Dimostrazione Siano

AB e

AC rappresentanti dei vettori x e y rispettivamente. Con
riferimento alla Figura 3.20 e tenendo conto che:
|x y| = |

AB||

AC| sin(

BAC)
si ha la tesi.
Tramite il prodotto vettoriale di due vettori ` e possibile calcolare il vettore proiezione orto-
gonale di un vettore qualsiasi di V
3
su un piano vettoriale, precisamente si ha il seguente
teorema.
Teorema 3.16 Vettore proiezione ortogonale su un piano vettoriale Dati due vetto-
ri u, v di V
3
linearmente indipendenti, il vettore p proiezione ortogonale di un generico
vettore x di V
3
sul piano vettoriale individuato da u e da v ` e dato da:
p = x
x (u v)
|u v|
2
(u v).
Dimostrazione Siano

AB,

AC i segmenti orientati rappresentanti dei vettori u e v
rispettivamente. Sia

AD rappresentante del vettore x. Dalla Figura 3.21 segue che
x = p + q. Ma il vettore q non ` e altro che il vettore proiezione ortogonale di x su
u v. La tesi ` e conseguenza, quindi, del Teorema 3.11.
Osservazione 3.16 Se in un piano vettoriale si considera una base ortogonale, non ` e ne-
cessario usare la nozione di prodotto vettoriale di due vettori per determinare il vettore
proiezione ortogonale di ogni vettore di V
3
su tale piano. Siano, infatti, a e b due vettori
ortogonali, ossia a b = 0. La proiezione ortogonale p di un generico vettore x di V
3
sul piano vettoriale individuato da a e da b ` e data da:
p =
x a
|a|
2
a +
x b
|b|
2
b.
La formula appena citata ` e facile conseguenza del Teorema 3.11, ma ` e di grande impor-
tanza, perch e si potr` a facilmente estendere a spazi vettoriali di dimensione superiore a 3
(cfr. Teor. 5.5).
Teorema 3.17 Il prodotto vettoriale tra due vettori gode delle seguenti propriet` a:
1. x y = y x, x, y V
3
,
2. (x) y = x (y) = (x y), x, y V
3
, R,
3. x (y +z) = x y +x z, x, y, z V
3
.
116 Calcolo Vettoriale
A B
C
D
H
u
p
v
q
x
uv
Figura 3.21: Vettore proiezione ortogonale su un piano vettoriale
Capitolo 3 117
Dimostrazione 1.
`
E ovvia conseguenza della denizione di prodotto vettoriale.
2. Occorre distinguere tre casi:
a. = 0;
b. > 0;
c. < 0.
I primi due casi sono molto semplici e vengono lasciati per esercizio.
Se < 0 si deve dimostrare per esempio che:
(x) y = (x y), x, y V
3
.
Trattandosi di unuguaglianza tra due vettori ` e necessario dimostrare che i vettori
a primo e a secondo membro abbiano la stessa lunghezza, la stessa direzione e lo
stesso verso. Per la lunghezza si ha:
|(x) y| = |(x)| |y| sin(

(x)y) = [[|x| |y| sin( xy) = [[|x y|.


Le veriche riguardanti luguaglianza della direzione e del verso sono lasciate per
esercizio.
3. La dimostrazione di questa propriet` a ` e proposta nellEsercizio 3.10.
Allo scopo di determinare lespressione del prodotto vettoriale in funzione delle compo-
nenti dei due vettori ` e necessario, come per il calcolo del prodotto scalare, ssare una
base ortonormale di V
3
, ma ` e anche fondamentale, in questo caso, distinguere tra le due
possibili congurazioni di basi ortonormali schematizzate nella Figura 3.14. Nel primo
caso si osserva che i j = k, nel secondo caso, invece, i j = k. Si impone, quindi,
la necessit` a di riscrivere la Denizione 3.11 nel modo seguente.
Denizione 3.13 1. Un base ortogonale B = (v
1
, v
2
, v
3
)di V
3
si dice positiva se:
v
1
v
2
v
3
> 0.
2. Un base ortogonale B = (v
1
, v
2
, v
3
) di V
3
si dice negativa se:
v
1
v
2
v
3
< 0.
3. Una base ortonormale B = (i, j, k) di V
3
si dice positiva se:
i j = k,
cio` e se:
i j k = 1.
118 Calcolo Vettoriale
4. Una base ortonormale B = (i, j, k) di V
3
si dice negativa se:
i j = k,
cio` e se:
i j k = 1.
Osservazione 3.17 Si osservi che la Denizione 3.13 pu` o essere enunciata anche nel
caso di una base qualsiasi, non necessariamente ortogonale o ortonormale.
Fissando una base ortonormale positiva ` e possibile ricavare in modo agevole lespressione
del prodotto vettoriale di due vettori in componenti, come risulta dal seguente teorema.
Teorema 3.18 Prodotto vettoriale in componenti Sia B = (i, j, k) una base orto-
normale positiva di V
3
e siano:
x = x
1
i + x
2
j + x
3
k, y = y
1
i + y
2
j + y
3
k
due vettori di V
3
. Il prodotto vettoriale dei vettori x e y ` e dato da:
x y =

x
2
x
3
y
2
y
3

x
1
x
3
y
1
y
3

j +

x
1
x
2
y
1
y
2

k. (3.17)
Dimostrazione Essendo B = (i, j, k) una base ortonormale positiva si ha:
i j = k, k i = j, j k = i,
j i = k, i k = j, k j = i.
Inoltre dal Teorema 3.14 segue:
i i = j j = k k = o.
Tenendo conto delle uguaglianze appena trascritte e applicando le propriet` a del prodotto
vettoriale enunciate nel Teorema 3.17 si perviene facilmente alla tesi.
Osservazione 3.18 1. Si osservi che la formula (3.17) potrebbe essere scritta come
segue:
x y =

i j k
x
1
x
2
x
3
y
1
y
2
y
3

, (3.18)
anche se lespressione a secondo membro ` e priva di signicato matematico, in quan-
to si indica il calcolo del determinante di un oggetto che non ` e una matrice. Daltra
parte ` e molto pi ` u facile ricordare (3.18) anzich e (3.17).
Capitolo 3 119
2. Si osservi che dal Teorema 3.14 e dalla formula (3.17) segue che, ssata una base
ortonormale positiva B = (i, j, k), due vettori:
x = x
1
i + x
2
j + x
3
k, y = y
1
i + y
2
j + y
3
k
sono paralleli se e solo se:

x
2
x
3
y
2
y
3

x
1
x
3
y
1
y
3

x
1
x
2
y
1
y
2

= 0.
Ci ` o equivale a richiedere che le componenti dei due vettori siano a due a due pro-
porzionali, ossia che i due vettori x e y siano linearmente dipendenti. A maggior
precisione si osservi che la condizione di dipendenza lineare letta sulle componenti
di due vettori ` e stata a suo tempo ricavata rispetto ad una base qualsiasi di V
3
e non
solamente rispetto ad una base ortonormale positiva. Infatti la dipendenza lineare
equivale al parallelismo di due vettori anche in dimensione superiore a 3, come sar` a
dimostrato nel Teorema 5.3.
Esercizio 3.8 Nel spazio vettoriale V
3
, rispetto ad una base B = (i, j, k) ortonormale
positiva, sono dati i vettori:
a = (2, 1, 1), b = (0, 1, 1).
Determinare tutti i vettori x di V
3
tali che la loro proiezione ortogonale sul piano vetto-
riale generato da a e da b sia il vettore a +b.
Soluzione I vettori richiesti sono dati da:
x = (a +b) + a b, R,
dove:
a b =

i j k
2 1 1
0 1 1

1 1
1 1

2 1
0 1

j +

2 1
0 1

k = 2j + 2k.
Di conseguenza:
x = (a +b) + a b = (2, 2 2, 2 + 2), R.
120 Calcolo Vettoriale
3.7.3 Il prodotto misto di tre vettori
Loperazione tra vettori che segue, e che ` e anche lultima proposta, non ` e nuova ma ` e
denita tramite le operazioni di prodotto scalare e di prodotto vettoriale.
Denizione 3.14 Il prodotto misto di tre vettori nello spazio vettoriale V
3
` e la funzione:
V
3
V
3
V
3
R
cos` denita:
(x, y, z) x y z.
`
E chiaro dalla denizione appena scritta che le operazioni di prodotto vettoriale e di
prodotto scalare sono da eseguirsi nellordine indicato.
Il numero reale che si ottiene dal prodotto misto di tre vettori linearmente indipendenti
dello spazio vettoriale V
3
ha un importante signicato geometrico, come si evince dal
teorema che segue.
A
D
C
B
H
x
y
z
xy
Figura 3.22: Signicato geometrico del prodotto misto di tre vettori
Capitolo 3 121
Teorema 3.19 Signicato geometrico del prodotto misto Il prodotto misto di tre
vettori non complanari di V
3
` e pari a 6 volte il volume, con segno, del tetraedro indivi-
duato da tre segmenti orientati, rappresentanti dei tre vettori dati, e aventi un estremo in
comune.
Dimostrazione Siano

AB,

AC,

AD tre segmenti orientati rappresentanti dei vettori


x, y, z rispettivamente. Se, per ipotesi, i tre vettori considerati sono linearmente indi-
pendenti, si pu` o supporre che il punto D non appartenga al piano individuato dai punti
A, B, C. La situazione geometrica ` e rappresentata nella Figura 3.22. Dalla denizione di
prodotto scalare si ha:
(x y) z = |x y||z| cos(

(x y)z) = |x y|AH, (3.19)
dove con AH si indica la lunghezza con segno della proiezione ortogonale del vettore
z su x y. Come ` e noto, il segno della lunghezza della proiezione ortogonale dipende
dallampiezza dallangolo che il vettore z forma con il vettore x y, ossia se questo
angolo ` e acuto il segno ` e positivo (situazione geometrica descritta nella Figura 3.22), se
langolo ` e ottuso il segno ` e negativo. Non si considera il caso dellangolo retto perch e,
se cos` fosse, il vettore z sarebbe complanare ai vettori x e y. Ricordando il signicato
geometrico della norma del prodotto vettoriale di due vettori (cfr. Teor. 3.15) la formula
(3.19) diventa:
(x y) z = 2/
ABC
AH = 61
ABCD
,
dove /
ABC
indica larea del triangolo ABC e 1
ABCD
il volume (con segno) del tetraedro
ABCD.
Osservazione 3.19 1. Dalla prima propriet` a del prodotto vettoriale del Teorema 3.17
e dalla prima propriet` a del prodotto scalare del Teorema 3.12 si ottengono le se-
guenti propriet` a del prodotto misto di tre vettori:
x y z = z x y (3.20)
x y z = y x z. (3.21)
2. Si osservi che il segno del prodotto misto di tre vettori x, y, z dipende dallordine
in cui sono considerati i tre vettori come si deduce da (3.21), mentre il valore as-
soluto del prodotto misto dei tre vettori non cambia, qualunque sia lordine in cui i
vettori sono considerati, infatti la medesima terna di vettori, qualunque sia lordine,
individua lo stesso tetraedro.
Nel caso in cui tre vettori di V
3
siano complanari allora vale il seguente teorema la cui
dimostrazione ` e una facile conseguenza delle denizioni e delle propriet` a del prodotto
vettoriale e del prodotto scalare ed ` e lasciata al Lettore.
122 Calcolo Vettoriale
Teorema 3.20 Tre vettori di V
3
sono complanari se e solo se il loro prodotto misto si
annulla.
Il teorema che segue permette di calcolare il prodotto misto mediante le componen-
ti dei vettori e, di conseguenza, di controllare mediante il calcolo in componenti, che
lannullarsi del prodotto misto di tre vettori equivale alla loro dipendenza lineare.
Teorema 3.21 Prodotto misto in componenti Sia B = (i, j, k) una base ortonor-
male positiva di V
3
e siano:
x = x
1
i + x
2
j + x
3
k, y = y
1
i + y
2
j + y
3
k, z = z
1
i + z
2
j + z
3
k
tre vettori di V
3
. Il prodotto misto di x, y, z ` e dato da:
x y z =

x
1
x
2
x
3
y
1
y
2
y
3
z
1
z
2
z
3

.
Dimostrazione Dalle espressioni del prodotto vettoriale e del prodotto scalare in com-
ponenti si ha:
x y z =

x
2
x
3
y
2
y
3

x
1
x
3
y
1
y
3

j +

x
1
x
2
y
1
y
2

(z
1
i + z
2
j + z
3
k)
=

x
2
x
3
y
2
y
3

z
1

x
1
x
3
y
1
y
3

z
2
+

x
1
x
2
y
1
y
2

z
3
,
dal Primo Teorema di Laplace (cfr. Teor. 2.17) segue la tesi.
Dal Teorema appena dimostrato e da tutte le propriet` a del calcolo del determinante di
una matrice quadrata di ordine 3, dimostrate nel Paragrafo 2.8 valgono le seguenti pro-
priet` a del prodotto misto, alcune delle quali sono gi` a state ottenute in precedenza e la cui
dimostrazione ` e lasciata al Lettore per esercizio.
Teorema 3.22 Per il prodotto misto di tre vettori valgono le seguenti propriet` a:
1. x y z = x y z, x, y, z V
3
;
2. x y z = z x y = y z x, x, y, z V
3
;
3. x y z = 0 se e solo se i vettori x, y, z sono complanari.
Capitolo 3 123
Osservazione 3.20 La propriet` a 1. del Teorema 3.22 pu` o essere dimostrata, in generale,
indipendentemente dallespressione in componenti dei tre vettori x, y, z.
`
E facile dimo-
strare che, in valore assoluto, il primo membro di 1. coincide con il secondo membro,
in quanto i tre vettori individuano lo stesso tetraedro, pertanto, in valore assoluto, la pro-
priet` a non esprime altro che il volume di questo tetraedro. Si perviene alluguaglianza dei
segni dei due membri se si osserva che il segno del prodotto misto della terna di vettori
x, y, z ` e invariante per le loro permutazioni circolari. La dimostrazione completa si pu` o
leggere, per esempio, in [6].
Esercizio 3.9 Nello spazio vettoriale V
3
, rispetto ad una base B = (i, j, k), ortonormale
positiva, sono dati i vettori:
a = (1, 0, 1), b = (2, 1, 0), c = (h, k, 2), h, k R.
Assegnati ad h e a k i valori per cui c ` e parallelo al vettore ab, calcolare le componenti
del vettore x di norma

3, complanare ad a e a b e tale che il volume (con segno) del
tetraedro di spigoli a, c, x sia uguale a 2.
Soluzione Si ricava facilmente che ab = i 2j +k, quindi c ` e parallelo a ab se
e solo se h = 2 e k = 4, da cui c = (2, 4, 2). Sia x = x
1
i +x
2
j +x
3
k. x ` e complanare
ad a e a b se e solo se x a b = 0 ossia, in componenti, se e solo se:

x
1
x
2
x
3
1 0 1
2 1 0

= 0. (3.22)
Il volume con segno del tetraedro individuato dalla terna ordinata dei vettori a, c, x ` e
uguale a 2 se e solo se a c x = 12, che, in componenti, equivale a:

1 0 1
2 4 2
x
1
x
2
x
3

= 12. (3.23)
La norma del vettore x ` e pari a

3 se e solo se:
x
2
1
+ x
2
2
+ x
3
3
= 3. (3.24)
Risolvendo il sistema formato dalle equazioni (3.22), (3.23) e (3.24) si ha x = (1, 1, 1).
Esercizio 3.10 Usando il prodotto misto di tre vettori, si dimostri la propriet` a distributiva
del prodotto vettoriale rispetto alla somma di vettori:
x (y +z) = x y +x z, x, y, z V
3
. (3.25)
124 Calcolo Vettoriale
Soluzione Dimostrare la propriet` a (3.25) equivale a provare che:
a [x (y +z)] = a (x y +x z), x, y, z, a V
3
, (3.26)
ovvero a dimostrare che la proiezione ortogonale del vettore a primo membro su un gene-
rico vettore a di V
3
coincide con la proiezione ortogonale del vettore a secondo membro
sullo stesso vettore a di V
3
.
`
E chiaro che ci ` o ` e vero solo perch e il vettore a pu` o variare
tra tutti i vettori di V
3
, questa affermazione ` e palesemente falsa, in caso contrario. Per
vericare (3.26) ` e sufciente procedere applicando ripetutamente le varie propriet` a del
prodotto misto, del prodotto vettoriale e del prodotto scalare di vettori, precisamente si
ha:
a [x (y +z)] = (a x) (y +z)
= (a x) y + (a x) z
= a x y +a x z
= a (x y +x z).
3.8 Cambiamenti di basi ortonormali in V
3
e in V
2
Il teorema che segue permette di caratterizzare le matrici del cambiamento di base tra due
basi ortonormali e precisamente:
Teorema 3.23 Siano B = (i, j, k) e B

= (i

, j

, k

) due basi di V
3
e sia P la matrice del
cambiamento di base da B a B

allora B e B

sono due basi ortonormali se e solo se:


t
PP = I, (3.27)
dove I indica la matrice unit` a di ordine 3.
Dimostrazione Sia P = (p
ij
) la matrice del cambiamento di base ottenuta come
descritto nel Paragrafo 3.5, vale a dire:

= p
11
i + p
21
j + p
31
k
j

= p
12
i + p
22
j + p
32
k
k

= p
13
i + p
23
j + p
33
k.
(3.28)
Se sia B sia B

sono entrambe basi ortonormali allora:


|i|
2
= |j|
2
= |k|
2
= |i

|
2
= |j

|
2
= |k

|
2
= 1
i j = i k = j k = i

= i

= j

= 0.
(3.29)
Capitolo 3 125
Le precedenti relazioni, scritte in componenti, equivalgono alle seguenti equazioni:
|i

|
2
= p
2
11
+ p
2
21
+ p
2
31
= 1,
|j

|
2
= p
2
12
+ p
2
22
+ p
2
32
= 1,
|k

|
2
= p
2
13
+ p
2
23
+ p
2
33
= 1,
i

= j

= p
11
p
12
+ p
21
p
22
+ p
31
p
32
= 0,
i

= k

= p
11
p
13
+ p
21
p
23
+ p
31
p
33
= 0,
j

= k

= p
12
p
13
+ p
22
p
23
+ p
32
p
33
= 0,
(3.30)
che equivalgono alluguaglianza, elemento per elemento, delle matrici:
t
PP =

= I.
Il viceversa si ottiene in modo analogo.
Osservazione 3.21 1. Si ricordi che le matrici P per cui vale la (3.27) prendono il
nome di matrici ortogonali (cfr. Par. 2.5), il Teorema 3.23 ne giustica questa
particolare denominazione. Allora il Teorema 3.23 afferma che le matrici ortogo-
nali caratterizzano il cambiamento di base tra basi ortonormali. Si osservi anche
che le colonne di una matrice ortogonale di ordine 3 sono i vettori di una base
ortonormale.
2. Applicando il Teorema di Binet (cfr. Teor. 2.16) a (3.27) si ha:
det(
t
PP) = det(
t
P) det(P) = (det(P))
2
= det(I) = 1,
quindi:
det(P) = 1.
Si perviene allo stesso risultato ricordando lespressione in componenti del prodotto
misto di tre vettori, infatti:
det(P) = i

= 1.
Allora il cambiamento di base tra due basi ortonormali positive ` e caratterizza-
to da una matrice ortogonale con determinante uguale a 1, in caso contrario il
determinante della matrice ortogonale ` e 1.
126 Calcolo Vettoriale
3. Si osservi che ` e fondamentale richiedere nel Teorema 3.23 che entrambe le basi B e
B

siano basi ortonormali, infatti le relazioni (3.30) non sarebbero valide se B non
fosse una base ortonormale (cfr. Teor. 3.13), anche se B

fosse ortonormale.
4. Il Teorema 3.23 ` e valido anche nel caso del cambiamento di base tra due ba-
si ortonormali in ogni piano vettoriale V
2
, si studier` a di seguito linterpretazione
geometrica in questo caso particolare.
5. Il Teorema 3.23 propone unaltra interpretazione del prodotto righe per colonne di
matrici quadrate di ordine 3 e di ordine 2; infatti il prodotto di una riga per una
colonna pu` o essere considerato come il prodotto scalare tra la riga e la colonna se
i proprii elementi si interpretano come le componenti di un vettore rispetto ad una
base ortonormale.

i
j
i'
j'
Figura 3.23: Cambiamento di basi ortonormali in V
2
, primo caso
Si consideri ora il caso particolare del cambiamento di base tra basi ortonormali in un
piano vettoriale V
2
con lo scopo di determinare gli elementi della matrice ortogonale
P = (p
ij
) R
2,2
che lo regola. Date due basi ortonormali B = (i, j) e B

= (i

, j

)
la seconda base si pu` o ottenere dalla prima in uno dei modi rappresentati nelle Figure
3.23, 3.24, 3.25. Si osservi che le prime due gure sono in realt` a dello stesso tipo e
corrispondono ad una rotazione che la base B compie per sovrapporsi alla base B

, invece
nella terza gura la base B deve effettuare un movimento di riessione (non interno al
piano vettoriale V
2
) per sovrapporsi alla base B

.
Capitolo 3 127

i
j
i'
j'
Figura 3.24: Cambiamento di basi ortonormali in V
2
, secondo caso

i
j
i'
j'
Figura 3.25: Cambiamento di basi ortonormali in V
2
, terzo caso
128 Calcolo Vettoriale
Nel primo caso (cfr. Fig. 3.23) si ha:

= cos i + sin j
j

= cos

+

2

i + sin

+

2

j = sin i + cos j,
quindi la matrice del cambiamento di base da B a B

` e:
P =

cos sin
sin cos

. (3.31)
Si osservi che det(P) = 1. In questo contesto, per mettere in evidenza la dipendenza
della matrice P dallangolo , ` e preferibile usare la notazione:
P = R[].
Nel secondo caso (cfr. Fig. 3.24), con un procedimento analogo a quello appena descritto,
si ottiene:
R[] =

cos sin
sin cos

, (3.32)
anche in questo caso det(R[]) = 1. Si osservi che la matrice (3.32) corrisponde alla
matrice (3.31) in cui al posto di si considera langolo .
Nel terzo caso (cfr. Fig. 3.25) si ha:
P =

cos sin
sin cos

. (3.33)
invece, in questo caso det(P) = 1.
Si conclude, quindi, in modo totalmente coerente con ci` o che si ` e ottenuto nel caso dello
spazio vettoriale V
3
, che il cambiamento di base tra due basi ortonormali positive nel
piano vettoriale si ottiene mediante una matrice ortogonale con determinante pari a 1 e,
in caso contrario tramite una matrice ortogonale con determinante pari a 1.
Esercizio 3.11 Si dimostri che gli elementi di O(2), ovvero le matrici ortogonali di or-
dine 2, sono necessariamente o di tipo (3.31) o di tipo (3.33). Inoltre, si provi che
O(1) = 1, 1.
Esercizio 3.12 In un piano vettoriale V
2
, a partire da B = (i, j), base ortonormale po-
sitiva, si consideri il cambiamento di base ottenuto mediante una rotazione di angolo
1
Capitolo 3 129
che conduce alla base ortonormale positiva B

= (i

, j

) mediante la matrice ortogonale


R[
1
]. A partire dalla base ortonormale positiva B

= (i

, j

) si consideri la rotazione di
angolo
2
che conduce alla base ortonormale positiva B

= (i

, j

) mediante la matrice
ortogonale R[
2
]. Si dimostri che la matrice del cambiamento di base dalla base ortonor-
male positiva B = (i, j) alla base ortonormale positiva B

= (i

, j

), corrispondente alla
rotazione di angolo
1
+
2
, ` e la matrice prodotto R[
1
]R[
2
]. Si ripeta lo stesso esercizio
dove, al posto delle rotazioni, si considerano riessioni.
3.9 Esercizi di riepilogo svolti
Esercizio 3.13 Nello spazio vettoriale V
3
si considerino i vettori x e y tali che:
|x| = 5, |y| = 7, |x +y| = 10.
Determinare |x y|.
Soluzione Applicando la denizione e le propriet` a del prodotto scalare si ha:
|x +y|
2
= (x +y) (x +y) = |x|
2
+ 2x y +|y|
2
,
daltra parte:
|x y|
2
= (x y) (x y) = |x|
2
2x y +|y|
2
e quindi:
|x +y|
2
+|x y|
2
= 2 (|x|
2
+|y|
2
)
da cui:
|x y|
2
= 2(25 + 49) 100 = 48.
Esercizio 3.14 Siano u, v, w vettori linearmente indipendenti di V
3
. Dimostrare che se
z ` e un vettore di V
3
ortogonale a ciascuno di essi allora z = o.
Soluzione Osservato che (u, v, w) ` e una base di V
3
` e sufciente dimostrare che se z ` e
ortogonale ad un generico vettore:
x = u + v + w
di V
3
, con , , R, allora z = o. Infatti si ha:
z x = z (u + v + w) = z u + z v + z w = 0,
in quanto, per ipotesi, z u = z v = z w = 0. In particolare z z = |z|
2
= 0, quindi
z = o.
130 Calcolo Vettoriale
Esercizio 3.15 Dimostrare che, se i vettori a, b, c di V
3
sono non nulli e a due a due
ortogonali, anche i vettori:
a b, b c, c a
sono non nulli e a due a due ortogonali.
Soluzione Per denizione di prodotto vettoriale di due vettori, a b ` e ortogonale sia
ad a sia a b, quindi ` e parallelo a c, da cui:
a b = c,
dove ` e un numero reale non nullo. Analogamente si ha b c = a e c a = b
con = 0, = 0. Pertanto a b, b c, c a sono non nulli e a due a due ortogonali
essendo paralleli a vettori non nulli, a due a due ortogonali.
Esercizio 3.16 In V
3
, dimostrare che, se i vettori a b, b c, c a sono linearmente
indipendenti anche i vettori a, b e c sono linearmente indipendenti.
Soluzione Se i vettori a, b, c fossero linearmente dipendenti essi sarebbero complanari
e quindi i vettori a b, b c, c a, per denizione di prodotto vettoriale, sarebbero
paralleli che ` e assurdo.
Esercizio 3.17 In V
3
, rispetto ad una base ortonormale positiva B = (i, j, k), sono dati i
vettori:
a = (h, 3h, 1), b = (0, 3, h), c = (1, 1, h), h R.
1. Determinare i valori di h per cui a, b, c non formano una base di V
3
.
2. Determinare dei valori di h per cui esistono dei vettori x = (x
1
, x
2
, x
3
) tali che:
x a = b
e calcolarne le componenti.
Soluzione 1. I vettori a, b, c non formano una base di V
3
se sono linearmente dipen-
denti, ossia se la matrice:
A =

h 3h 1
0 3 h
1 1 h

le cui righe sono date dalle componenti dei vettori a, b, c ha determinante uguale
a zero. Si ha che det(A) = h
2
3, quindi i valori di h richiesti sono h =

3.
Capitolo 3 131
2. Da x a = b si ha:

i j k
x
1
x
2
x
3
h 3h 1

= 3j + hk.
Uguagliando ordinatamente le componenti del vettore a primo membro a quelle del
vettore a secondo membro si perviene al sistema lineare:

x
2
3hx
3
= 0
x
1
hx
3
= 3
3hx
1
+ hx
2
= h,
che non ammette soluzioni se h = 0; invece se h = 0 i vettori x = (3, 0, t), per
ogni t R, vericano luguaglianza richiesta.
3.10 Per saperne di pi ` u
3.10.1 Unaltra denizione di vettore
In questo paragrafo viene introdotta una denizione di vettore pi` u rigorosa, che si basa
sul concetto di relazione di equivalenza e di classi di equivalenza.
Denizione 3.15 Due segmenti orientati AB e CD dello spazio S
3
sono detti equipol-
lenti se i punti medi dei segmenti AD e BC coincidono. La situazione geometrica ` e
illustrata nella Figura 3.26.
A B
C D
M
Figura 3.26: Segmenti orientati equipollenti
Per indicare che i segmenti orientati AB e CD sono equipollenti si user` a la notazione
AB CD.
132 Calcolo Vettoriale
Teorema 3.24 La relazione di equipollenza ` e una relazione di equivalenza.
Dimostrazione
`
E sufciente vericare che sono valide le seguenti propriet` a:
1. la propriet` a riessiva: AB AB, per ogni coppia di punti A e B;
2. la propriet` a simmetrica: se dati i segmenti orientati AB e CD per cui AB CD
allora CD AB;
3. la propriet` a transitiva: se dati i segmenti orientati AB, CD ed EF tali che
AB CD e CD EF allora AB EF .
La dimostrazione segue dalla denizione di equipollenza ed ` e lasciata per esercizio.
Di conseguenza, linsieme dei segmenti orientati dello spazio viene suddiviso nelle classi
di equivalenza determinate dalla relazione di equipollenza, dette classi di equipollenza,
ogni classe contiene tutti e soli i segmenti orientati equipollenti ad un segmento dato e
pu` o essere rappresentata da un qualsiasi segmento che ad essa appartiene.
Allora si ha:
Denizione 3.16 Le classi di equipollenza dello spazio S
3
sono dette vettori.
`
E chiaro che la denizione intuitiva di vettore introdotta allinizio di questo capitolo
coincide con la denizione pi` u rigorosa di vettore appena enunciata.
3.10.2 Ulteriori propriet` a delle operazioni tra vettori
In questo paragrafo verranno riassunte alcune propriet` a delle operazioni tra vettori stu-
diate in questo capitolo e non introdotte in precedenza, che anche se hanno conseguenze
importanti nello studio approfondito di argomenti di geometria e di sica, possono essere
omesse ad una prima lettura.
Teorema 3.25 Sono valide le seguenti propriet` a per il prodotto vettoriale e scalare tra
vettori:
1. (x y) z = (x z) y (y z) x, x, y, z V
3
;
2. (x y) (z w) = (w x y) z (z x y) w, x, y, z, w V
3
;
3. (x y) (z w) = (x z)(y w) (x w)(y.z), x, y, z, w V
3
;
4. (x y) z + (y z) x + (z x) y = o, x, y, z V
3
.
Capitolo 3 133
Dimostrazione 1. Si supponga che x, y, z siano vettori di V
3
non complanari, negli
altri casi si lascia per esercizio la dimostrazione dellidentit` a 1. Il vettore
(x y) z ` e ortogonale al vettore x y e quindi appartiene al piano vettoriale
individuato da x e da y. Esistono pertanto due numeri reali , tali che:
(x y) z = x + y. (3.34)
Se si moltiplicano ambo i membri di (3.34) scalarmente per z, si ottiene a primo
membro:
(x y) z z = (x y) z z = 0
e a secondo membro:
x z + y z = 0,
da cui segue che ` e possibile determinare un numero reale per cui:
= (y z), = (x z).
Lidentit` a 1. ` e dimostrata se si verica che non dipende dalla scelta dei vettori
x, y, z. Supposto per assurdo che dipenda, ad esempio, da z, si ponga:
(x y) z = (z)[(x z)y (y z)x]. (3.35)
Scelto un vettore arbitrario a di V
3
, moltiplicando scalarmente ambo i membri di
(3.35) per a, si ha:
(z a) (y x) = (z)[(x z)(y a) (y z)(x a)]. (3.36)
Scambiando nellidentit` a (3.36) i vettori z e a si ottiene:
(z)[(x z)(y a) (y z)(x a)] = (a)[(x z)(y a) (y z)(x a)].
Quindi si deduce che (a) = (z). In modo analogo si dimostra che non dipende
dai vettori x e w.
2. Segue da 1.sostituendo a z il vettore z w e scambiando i ruoli di x e y con z e
w, rispettivamente.
3. Segue da 1. moltiplicando scalarmente ambo i membri per w.
4. Segue da 1. in modo immediato.
134 Calcolo Vettoriale
Osservazione 3.22 1. Siano x, y, z vettori di V
3
non complanari. Lidentit` a 1. del
Teorema 3.25 prende il nome di doppio prodotto vettoriale ed esprime il fatto che
il vettore (x y) z appartiene al piano vettoriale individuato dai vettori x e y.
`
E evidente da questa identit` a che non vale, in generale, la propriet` a associativa del
prodotto vettoriale, infatti:
(x y) z = x (y z),
in quanto il vettore x (y z) appartiene al piano vettoriale individuato da y e da
z che, in generale, non coincide con il piano vettoriale individuato da x e da y.
2. Se nellidentit` a 3. del Teorema 3.25 si pone x = z e y = w si ha:
|x y|
2
= |x|
2
|y|
2
(x y)
2
.
La relazione appena ottenuta ` e nota come identit` a di Lagrange.
`
E di grande im-
portanza nello studio delle propriet` a delle superci nello spazio, (cfr. per esem-
pio [10]), in quanto esprime la norma del prodotto vettoriale di due vettori solo
in termini del loro prodotto scalare.
`
E anche doveroso osservare che lidentit` a di
Lagrange ha una dimostrazione elementare (che viene lasciata per esercizio) senza
necessariamente considerare la dimostrazione dellidentit` a 3.
3. La relazione 4. del Teorema 3.25 prende il nome di identit` a di Jacobi e riveste
unimportanza notevole nello studio delle algebre di Lie. Per maggiori approfondi-
menti sullargomento si vedano per esempio [2] o [12].
Capitolo 4
Spazi Vettoriali e Sottospazi Vettoriali
4.1 Spazi vettoriali
In questo paragrafo viene introdotta la denizione di spazio vettoriale, concetto su cui
si basa lalgebra lineare. Nel testo si studieranno, salvo avviso contrario, solo gli spazi
vettoriali costruiti sul campo dei numeri reali, cio` e solo spazi vettoriali reali. Cenni sugli
spazi vettoriali complessi sono stati inseriti nei paragra Per saperne di pi` u.
La denizione di spazio vettoriale trae origine dal ben noto esempio dellinsieme dei vet-
tori V
3
nello spazio tridimensionale ordinario, trattato nel capitolo precedente. Si intende
introdurre tale concetto in modo astratto con il duplice scopo di dimostrare teoremi dalle
conseguenze fondamentali nel caso dello spazio vettoriale ordinario V
3
e di estendere tali
nozioni a spazi vettoriali di dimensione superiore a tre.
Denizione 4.1 Un insieme V si dice spazio vettoriale sul campo dei numeri reali R o
spazio vettoriale reale se sono denite su V le due operazioni seguenti:
A. la somma:
+ : V V V, (x, y) x +y
rispetto alla quale V ha la struttura di gruppo commutativo, ossia valgono le propriet` a:
1. x +y = y +x, x, y V (propriet` a commutativa);
2. (x +y) +z = x + (y +z), x, y, z V (propriet` a associativa);
3. o V [ x +o = x, x V (esistenza dellelemento neutro);
4. x V x V [ x + (x) = o (esistenza dellopposto);
135
136 Spazi Vettoriali e Sottospazi Vettoriali
B. il prodotto per numeri reali:
R V V, (, x) x
per cui valgono le seguenti propriet` a:
1. (x +y) = x + y, x, y V, R;
2. ( + )x = x + x, x V, , R;
3. ()x = (x), x V, , R;
4. 1 x = x, x V .
Gli elementi di V prendono il nome di vettori e saranno, in generale, indicati con le
lettere minuscole in grassetto. Gli elementi di R prendono il nome di scalari, quindi il
prodotto di un numero reale per un vettore ` e spesso anche detto prodotto di uno scalare
per un vettore. Lelemento neutro o di V viene detto vettore nullo.
Osservazione 4.1 Si pu` o introdurre una denizione analoga di spazio vettoriale ma co-
struito su un qualsiasi campo, per esempio sul campo dei numeri razionali Q o dei numeri
complessi C. Nel caso della denizione su C, lo spazio vettoriale si dice anche spazio
vettoriale complesso.
Osservazione 4.2
`
E chiaro che il campo dei numeri reali R ` e un esempio evidente di
spazio vettoriale su R rispetto alle usuali operazioni di somma e di prodotto, come del
resto si otterrr` a come caso particolare dellEsempio 4.3, ma R ` e anche un esempio di
spazio vettoriale sul campo dei numeri razionali Q.
Osservazione 4.3 Si osservi che le propriet` a B.1. e B.2., a differenza di quanto accade
per (R, +, ) con lusuale somma e prodotto di numeri reali, non possono essere chiama-
te propriet` a distributive del prodotto rispetto alla somma, in quanto esse coinvolgono ele-
menti appartenenti ad insiemi diversi. Analogamente, la propriet` a B.3. non ` e la propriet` a
associativa.
Verranno descritti di seguito gli esempi ritenuti pi ` u signicativi, si rimanda al Paragrafo
4.5 per ulteriori esempi ed esercizi.
Esempio 4.1 Si inizia con gli esempi che hanno dato il nome alla struttura di spazio
vettoriale appena denita. Gli insiemi dei vettori di una retta vettoriale V
1
, di un piano
vettoriale V
2
e dello spazio vettoriale ordinario V
3
sono esempi di spazi vettoriali su R,
rispetto alle operazioni di somma di vettori e di prodotto di un numero reale per un vettore
denite nel Capitolo 3.
Capitolo 4 137
Esempio 4.2 Gli insiemi delle matrici R
m,n
di m righe e n colonne, ad elementi reali,
deniti nel Capitolo 2, sono esempi di spazi vettoriali reali rispetto alle operazioni di
somma di matrici e di prodotto per un numero reale di una matrice l` a denite.
Esempio 4.3 Lesempio fondamentale:
R
n
= (x
1
, x
2
, . . . , x
n
) [ x
i
R, i = 1, 2, . . . , n
` e un caso particolare dellesempio precedente ma, visto il ruolo fondamentale che avr` a in
tutto il testo, verr` a trattato a parte.
La somma di due n-uple (x
1
, x
2
, . . . , x
n
) e (y
1
, y
2
, . . . , y
n
) di R
n
` e denita come:
(x
1
, x
2
, . . . , x
n
) + (y
1
, y
2
, . . . , y
n
) = (x
1
+ y
1
, x
2
+ y
2
, . . . , x
n
+ y
n
).
Il vettore nullo di R
n
` e dato dalla n-upla (0, 0,. . ., 0) e lopposto del vettore (x
1
, x
2
,. . ., x
n
)
` e il vettore (x
1
, x
2
, . . . , x
n
). Il prodotto di un numero reale per un elemento
(x
1
, x
2
, . . . , x
n
) di R
n
` e denito da:
(x
1
, x
2
, . . . , x
n
) = (x
1
, x
2
, . . . , x
n
).
Esempio 4.4 Il campo dei numeri razionali Q ` e un esempio di spazio vettoriale su Q
(ma non su R), analogamente il campo dei numeri complessi C ha la struttura di spazio
vettoriale su se stesso e anche su R. Si lascia per esercizio la spiegazione dettagliata di
tali affermazioni.
Esempio 4.5 Linsieme delle funzioni reali di variabile reale T(R) = f : R R ` e
un esempio di spazio vettoriale su R, dove la somma di due elementi f e g di T(R) ` e
denita da:
(f + g)(x) = f(x) + g(x), x R
e il prodotto per un numero reale di una funzione f T(R) ` e:
(f)(x) = (f(x)), x R.
Si verica facilmente che il vettore nullo ` e la funzione nulla O, denita da O(x) = 0,
con x R, lopposto di f ` e la funzione f denita in modo evidente:
(f)(x) = f(x), x R.
Pi ` u in generale, anche linsieme delle funzioni T(1, V ) = F : 1 V da un insieme
1 qualsiasi ad uno spazio vettoriale reale V ha la struttura di spazio vettoriale su R in
cui la somma di funzioni ed il prodotto per un numero reale di una funzione sono denite
come nel caso di T(R) ma considerando le operazioni dello spazio vettoriale V.
138 Spazi Vettoriali e Sottospazi Vettoriali
Esempio 4.6 Sia R[x] linsieme dei polinomi nella variabile x a coefcienti reali, ossia:
R[x] = a
0
+ a
1
x + . . . + a
n
x
n
[ n N, a
i
R, i = 0, 1, . . . , n,
(N = 0, 1, 2, . . . indica linsieme dei numeri naturali). Le usuali operazioni di somma
di polinomi e di prodotto per un numero reale di un polinomio conferiscono a R[x] la
struttura di spazio vettoriale reale. Il vettore nullo ` e dato dal numero reale 0 e lopposto
del polinomio p(x) = a
0
+ a
1
x + a
2
x
2
+ . . . + a
n
x
n
` e il polinomio:
p(x) = a
0
a
1
x a
2
x
2
. . . a
n
x
n
.
Vale il seguente teorema, il cui enunciato ` e naturalmente intuibile.
Teorema 4.1 In uno spazio vettoriale reale V si ha:
1. il vettore nullo o ` e unico;
2. per ogni vettore x V lopposto x ` e unico;
3. se per x, y, z V si ha x +y = x +z, allora y = z;
4. x = o (con R e x V ) = 0 oppure x = o;
5. (1)x = x, per ogni x V.
Dimostrazione La dimostrazione, quasi un esercizio, si pu` o leggere nel Paragrafo
4.5.
Osservazione 4.4 Linsieme o formato dal solo vettore nullo ` e un esempio di spazio
vettoriale reale. Si osservi che ` e lunico spazio vettoriale sul campo reale con un numero
nito di elementi.
4.2 Sottospazi vettoriali
La nozione di sottospazio vettoriale di uno spazio vettoriale reale, oggetto di questo para-
grafo, intende estendere il concetto, gi` a considerato nel capitolo precedente, degli insiemi
dei vettori di una retta vettoriale V
1
e di un piano vettoriale V
2
visti come sottoinsiemi
dello spazio vettoriale V
3
.
Capitolo 4 139
4.2.1 Denizione ed esempi
Denizione 4.2 Sia V uno spazio vettoriale reale, un sottoinsieme J V ` e un sotto-
spazio vettoriale di V se J ` e uno spazio vettoriale rispetto alle stesse operazioni di V,
ossia se ` e chiuso rispetto alle operazioni di somma e di prodotto per scalari denite in V,
vale a dire:
x, y J = x +y J,
R, x J = x J,
che equivale a:
, R, x, y J = x + y J.
Osservazione 4.5 Segue dalla Denizione 4.2 e dalla propriet` a 4. del Teorema 4.1 che
il vettore nullo o di uno spazio vettoriale V deve necessariamente appartenere ad ogni
sottospazio vettoriale J di V.
Esempio 4.7 Ogni spazio vettoriale V ammette almeno due sottospazi vettoriali: V e
o. Essi coincidono se e solo se V = o. Tali sottospazi vettoriali si dicono improprii.
Esempio 4.8 Linsieme dei vettori ordinari di ogni piano vettoriale V
2
` e un sottospazio
vettoriale dellinsieme dei vettori dello spazio V
3
. Linsieme dei vettori di una retta vet-
toriale V
1
` e un sottospazio vettoriale del piano vettoriale V
2
che la contiene e ogni retta
vettoriale ` e un sottospazio vettoriale di V
3
.
Esempio 4.9 Si osservi che, nonostante Q sia un sottoinsieme di R, linsieme dei numeri
razionali Q (spazio vettoriale su Q) non ` e un sottospazio vettoriale dello spazio vettoriale
reale R, in quanto su Q non ` e denito lo stesso prodotto di R. Infatti, il prodotto di un
numero reale per un numero razionale non ` e necessariamente razionale.
Esempio 4.10 Sia a R e f
a
: R R la funzione denita da: f
a
(x) = ax; linsieme:
J = f
a
T(R) [ a R
` e un sottospazio vettoriale dello spazio vettoriale reale T(R), introdotto nellEsempio
4.5. Infatti se f
a
, f
b
J, allora per ogni , R, si ha che f
a
+ f
b
J, poich e
f
a
+ f
b
= f
a+b
. La verica ` e lasciata al Lettore per esercizio.
140 Spazi Vettoriali e Sottospazi Vettoriali
Esempio 4.11 Sia R[x] lo spazio vettoriale dei polinomi nella variabile x a coefcienti
reali, introdotto nellEsempio 4.6. Sottospazi vettoriali notevoli di R[x] sono gli insiemi
dei polinomi di grado non superiore ad un numero intero positivo ssato n. In formule, si
indica con:
R
n
[x] = a
0
+ a
1
x + a
2
x
2
+ . . . + a
n
x
n
[ a
i
R, i = 0, 1, 2, . . . , n
il sottospazio vettoriale dei polinomi di grado minore o uguale ad n. La verica che
R
n
[x] sia un sottospazio vettoriale di R[x] ` e lasciata per esercizio. In particolare, quindi,
linsieme R ` e un sottospazio vettoriale di R[x] in quanto pu` o essere visto come linsieme
dei polinomi di grado zero. In generale, linsieme dei polinomi di grado ssato n > 0
non ` e un sottospazio vettoriale di R[x], anche se ` e un sottoinsieme di R
n
[x]. Infatti, per
esempio, linsieme dei polinomi di grado 3:
{ = a
0
+ a
1
x + a
2
x
2
+ a
3
x
3
[ a
i
R, i = 0, 1, 2, 3, a
3
= 0
non ` e un sottospazio vettoriale di R[x] in quanto non contiene il vettore nullo di R[x].
Viene trattata ora la rappresentazione mediante equazioni dei sottospazi vettoriali dello
spazio vettoriale R
n
. Per capire meglio la teoria, si inizia con un esercizio.
Esercizio 4.1 Dati i seguenti sottoinsiemi di R
3
:
/ = (x
1
, x
2
, x
3
) R
3
[ 2x
1
+ 3x
2
x
3
= 0,
B = (x
1
, x
2
, x
3
) R
3
[ 2x
1
+ 3x
2
x
3
= x
2
+ x
3
= 0,
( = (x
1
, x
2
, x
3
) R
3
[ 2x
1
+ 3x
2
x
3
= 5,
T = (x
1
, x
2
, x
3
) R
3
[ 2x
2
1
+ 3x
2
x
3
= 0,
dire quali sono sottospazi vettoriali di R
3
giusticando la risposta.
Soluzione / ` e un sottospazio vettoriale di R
3
. Infatti, siano (x
1
, x
2
, x
3
) e (y
1
, y
2
, y
3
)
due elementi di / ossia tali che 2x
1
+ 3x
2
x
3
= 2y
1
+ 3y
2
y
3
= 0, si verica che la
loro somma (x
1
+ y
1
, x
2
+ y
2
, x
3
+ y
3
) ` e un elemento di /, vale a dire:
2(x
1
+ y
1
) + 3(x
2
+ y
2
) (x
3
+ y
3
) = 0,
che ` e ovvia conseguenza dellappartenenza ad / di (x
1
, x
2
, x
3
) e di (y
1
, y
2
, y
3
). Ana-
logamente si verica che (x
1
, x
2
, x
3
) = (x
1
, x
2
, x
3
) ` e un elemento di / per ogni
R e per ogni (x
1
, x
2
, x
3
) /.
Capitolo 4 141
Si dimostra in modo analogo che B ` e un sottospazio vettoriale di R
3
.
`
E facile osservare che ( non ` e un sottospazio vettoriale di R
3
perch e non contiene il
vettore nullo di R
3
, in altri termini lequazione lineare che denisce ( non ` e omogenea.
T non ` e un sottospazio vettoriale di R
3
, pur contenendo il vettore nullo di R
3
, infatti dati
(1, 0, 2), (2, 0, 8) T la loro somma (3, 0, 10) non appartiene a T in quanto 23
2
10= 0.
Lesercizio precedente suggerisce il seguente risultato di carattere generale.
Esempio 4.12 Esempio fondamentale di sottospazio vettoriale Linsieme delle
soluzioni di un sistema lineare omogeneo di m equazioni in n incognite ` e un sottospazio
vettoriale di R
n
. La verica, che ` e una conseguenza evidente dellesempio precedente,
pu` o essere anche ottenuta procedendo in modo sintetico. Infatti, usando la notazione
matriciale di un sistema lineare omogeneo AX = O, con A R
m,n
, X R
n,1
, O
R
m,1
(cfr. Par. 2.2.1), si ha che linsieme delle soluzioni del sistema lineare omogeneo
AX = O coincide con linsieme:
^(A) = X R
n
[ AX = O,
dove si identica R
n,1
con R
n
. Dati X
1
, X
2
^(A), allora AX
1
= AX
2
= O. Si deve
dimostrare che X
1
+ X
2
^(A) per ogni , R, ma:
A(X
1
+ X
2
) = AX
1
+ AX
2
= O.
Il sottospazio vettoriale ^(A) di R
n
prende il nome di nullspace (o annullatore o nulli-
catore) della matrice A R
m,n
.
Esercizio 4.2 Ogni sottospazio vettoriale, diverso da o, di uno spazio vettoriale reale
contiene sempre un numero innito di vettori?
Si continua ora con un elenco di sottospazi vettoriali notevoli dello spazio vettoriale delle
matrici R
m,n
. Le veriche sono lasciate per esercizio.
Esempio 4.13 Il sottoinsieme T(R
n,n
) di R
n,n
(spazio vettoriale delle matrici quadrate
di ordine n) formato dalle matrici diagonali, denito in (2.2), ` e un sottospazio vettoriale
di R
n,n
.
Esempio 4.14 Il sottoinsieme T (R
n,n
) di R
n,n
delle matrici triangolari superiori, denite
in (2.6), ` e un sottospazio vettoriale di R
n,n
; analoga affermazione vale per il sottoinsieme
delle matrici triangolari inferiori.
142 Spazi Vettoriali e Sottospazi Vettoriali
Esempio 4.15 Linsieme delle matrici simmetriche (cfr. (2.7)):
o(R
n,n
) = A R
n,n
[
t
A = A
` e un sottospazio vettoriale di R
n,n
, infatti se A
1
, A
2
o(R
n,n
) si ha che
t
A
1
= A
1
e
t
A
2
= A
2
, allora
t
(A
1
+ A
2
) =
t
A
1
+
t
A
2
= A
1
+ A
2
, la dimostrazione della chiusura
rispetto al prodotto per un numero reale ` e lasciata per esercizio.
Esempio 4.16 Linsieme delle matrici antisimmetriche (cfr. (2.8)):
/(R
n,n
) = A R
n,n
[
t
A + A = O
` e un sottospazio vettoriale di R
n,n
(per la dimostrazione si procede in modo analogo
allesempio precedente).
Osservazione 4.6 Si osservi che linsieme delle matrici ortogonali (cfr. (2.9)):
O(n) = A R
n,n
[
t
AA = I
non ` e un sottospazio vettoriale di R
n,n
, perch e non contiene il vettore nullo di R
n,n
.
Osservazione 4.7 Si osservi che linsieme:
A R
n,n
[ det(A) = 0
non ` e un sottospazio vettoriale di R
n,n
, se n > 1. Perch e?
Osservazione 4.8 Si osservi che linsieme:
A R
n,n
[ tr(A) = 0
` e un sottospazio vettoriale di R
n,n
, mentre linsieme:
A R
n,n
[ tr(A) = 2
non lo ` e.
Esempio 4.17 In R
4
[x] si consideri linsieme J dei polinomi divisibili per 3x 1.
Si pu` o vericare che J ` e un sottospazio vettoriale di R
4
[x]. Infatti ogni polinomio
p(x) J ` e della forma p(x) = (3x1)q(x), con q(x) polinomio di grado 3. Quindi,
per ogni p
1
(x) = (3x 1)q
1
(x), p
2
(x) = (3x 1)q
2
(x) J e per ogni , R, si ha:
p
1
(x) + p
2
(x) = (3x 1)q
1
(x) + (3x 1)q
2
(x)
= (3x 1)(q
1
(x) + q
2
(x)) J.
Capitolo 4 143
4.2.2 Intersezione e somma di sottospazi vettoriali
Siano J
1
e J
2
due sottospazi vettoriali di uno spazio vettoriale reale V. Si ha:
Teorema 4.2 Lintersezione insiemistica J
1
J
2
` e un sottospazio vettoriale di V.
Dimostrazione
`
E immediata conseguenza delle denizioni di sottospazio vettoriale e
di intersezione insiemistica.
Esempio 4.18 Si considerino i sottospazi vettoriali di R
3
:
J
1
= (x
1
, x
2
, x
3
) R
3
[ 3x
1
+ x
2
+ x
3
= 0,
J
2
= (x
1
, x
2
, x
3
) R
3
[ x
1
x
3
= 0.
La loro intersezione ` e il sottospazio vettoriale:
J
1
J
2
= (x
1
, x
2
, x
3
) R
3
[ 3x
1
+ x
2
+ x
3
= x
1
x
3
= 0
= (a, 4a, a) [ a R.
Esempio 4.19 In V
3
, spazio vettoriale reale dei vettori ordinari, riferito ad una base
ortonormale positiva B = (i, j, k), i sottospazi vettoriali:
J
1
= L(i, j), J
2
= L(i, k)
si intersecano nella retta vettoriale:
J
1
J
2
= L(i).
Si ricordi che la notazione L(a) indica linsieme di tutti i vettori che sono paralleli ad a,
analogamente L(a, b) indica linsieme dei vettori complanari ad a, b (cfr. Def. 3.5); nel
Paragrafo 4.3 si generalizzer` a questa notazione.
Osservazione 4.9 Lunione insiemistica di due sottospazi vettoriali di uno spazio vetto-
riale V non ` e, in generale, un sottospazio vettoriale di V, come si deduce dagli esempi
prima citati. Infatti si ha:
nellEsempio 4.18 lunione J
1
J
2
non ` e un sottospazio vettoriale di R
3
perch e, per
esempio, la somma di (1, 2, 5) J
1
insieme con (2, 3, 2) J
2
non appartiene a
J
1
J
2
;
nellEsempio 4.19 il vettore v = (2i +3j) +(4k) non appartiene a J
1
J
2
, pur essendo
somma di un vettore di J
1
e di un vettore di J
2
.
144 Spazi Vettoriali e Sottospazi Vettoriali
Esercizio 4.3 In quali casi lunione di due sottospazi vettoriali di uno spazio vettoriale V
` e un sottospazio vettoriale di V ?
Gli esempi precedenti giusticano la seguente:
Denizione 4.3 Dati J
1
e J
2
sottospazi vettoriali di uno spazio vettoriale reale V, si
denisce somma di J
1
e J
2
linsieme:
J
1
+J
2
= x
1
+x
2
[ x
1
J
1
, x
2
J
2
.
Teorema 4.3 1. J
1
+J
2
` e un sottospazio vettoriale di V.
2. J
1
+J
2
` e il pi` u piccolo sottospazio vettoriale di V contenente J
1
e J
2
.
Dimostrazione 1. Segue dalle denizioni di somma di sottospazi vettoriali e di sotto-
spazio vettoriale.
2. J
1
J
1
+ J
2
in quanto i suoi elementi possono essere scritti come x + o, per
ogni x J
1
, considerando il vettore nullo o come elemento di J
2
. Dimostra-
zione analoga per J
2
. La somma J
1
+ J
2
` e il pi ` u piccolo sottospazio vettoriale
contenente sia J
1
sia J
2
perch e ogni altro sottospazio vettoriale con questa pro-
priet` a deve necessariamente contenere tutte le combinazioni lineari di elementi di
J
1
e di J
2
e, quindi, deve contenere J
1
+J
2
.
La denizione di somma di due sottospazi vettoriali si estende in modo naturale a quella
di pi ` u di due sottospazi vettoriali.
Denizione 4.4 Siano J
i
, i = 1, 2, . . . , k, sottospazi vettoriali di uno spazio vettoriale
reale V. La loro somma ` e data da:
J
1
+J
2
+ . . . +J
k
= x
1
+x
2
+ . . . +x
k
[ x
i
J
i
, i = 1, 2, . . . k.
Anche in questo caso si pu` o dimostrare una propriet` a analoga al Teorema 4.3.
Si presti particolare attenzione ai seguenti esempi.
Esempio 4.20 Si considerino i sottospazi vettoriali di R
3
:
J
1
= (x
1
, x
2
, 0) R
3
[ x
1
, x
2
R,
J
2
= (0, 0, x
3
) R
3
[ x
3
R.
Capitolo 4 145
Si verica che J
1
J
2
= o e J
1
+ J
2
= R
3
. Ogni elemento (x
1
, x
2
, x
3
) R
3
si scrive, in modo unico, come somma di un elemento di J
1
e di un elemento di J
2
,
infatti:
(x
1
, x
2
, x
3
) = (x
1
, x
2
, 0) + (0, 0, x
3
).
Esempio 4.21 Si considerino i sottospazi vettoriali di R
3
:
J
1
= (x
1
, x
2
, 0) R
3
[ x
1
, x
2
R,
Z
2
= (x
1
, 0, x
3
) R
3
[ x
1
, x
3
R.
Si verica che J
1
Z
2
= (x
1
, 0, 0) R
3
[ x
1
R e J
1
+ Z
2
= R
3
. In questo
caso, per esempio, (1, 2, 3) R
3
si pu` o scrivere in inniti modi diversi come somma di
un elemento di J
1
e di un elemento di Z
2
, infatti:
(1, 2, 3) = (a, 2, 0) + (b, 0, 3), con a, b R [ a + b = 1.
Ci ` o suggerisce la seguente:
Denizione 4.5 Siano J
1
, J
2
sottospazi vettoriali di uno spazio vettoriale reale V, la
loro somma J
1
+J
2
si dice diretta e si scrive:
J
1
J
2
se ogni vettore x J
1
J
2
si decompone in modo unico come x = x
1
+ x
2
, con
x
1
J
1
e x
2
J
2
.
La precedente denizione si estende a pi` u di due sottospazi vettoriali nel modo seguente:
Denizione 4.6 Siano J
i
, i = 1, 2, . . . k, sottospazi vettoriali di uno spazio vettoriale
reale V ; la loro somma si dice diretta e si scrive:
J
1
J
2
. . . J
k
se ogni vettore x J
1
J
2
. . . J
k
si decompone in modo unico come:
x = x
1
+x
2
+ . . . +x
k
,
con x
i
J
i
, i = 1, 2, . . . k.
Sar` a utile la seguente:
146 Spazi Vettoriali e Sottospazi Vettoriali
Denizione 4.7 J
1
e J
2
, sottospazi vettoriali di uno spazio vettoriale reale V, si dicono
supplementari in V se:
J
1
J
2
= V.
Osservazione 4.10 Dalla Denizione 3.5 segue che:
V
3
= L(i) L(j) L(k) = L(i, j) L(k) = . . . . . . .
In V
3
esistono inniti sottospazi vettoriali supplementari di L(i, j).
Teorema 4.4 Lo spazio vettoriale R
n,n
delle matrici quadrate di ordine n si decompone
nel modo seguente:
R
n,n
= o(R
n,n
) /(R
n,n
),
dove o(R
n,n
) indica il sottospazio vettoriale delle matrici simmetriche di R
n,n
e /(R
n,n
)
` e il sottospazio vettoriale delle matrici antisimmetriche, deniti negli Esempi 4.15 e 4.16.
Dimostrazione Segue dalla scrittura:
A =
1
2
(A +
t
A) +
1
2
(A
t
A), con A R
n,n
e dal fatto che A +
t
A ` e una matrice simmetrica, mentre A
t
A ` e antisimmetrica.
Il seguente teorema caratterizza la somma diretta di due sottospazi vettoriali.
Teorema 4.5 La somma di due sottospazi vettoriali J
1
e J
2
di uno spazio vettoriale
reale V ` e diretta se e solo se la loro intersezione J
1
J
2
si riduce al solo vettore nullo.
In formule:
J = J
1
J
2
J = J
1
+J
2
e J
1
J
2
= o.
Dimostrazione Sia J = J
1
+J
2
, si vuole provare che J = J
1
J
2
se e solo se
J
1
J
2
= o.
Si supponga che la somma dei due sottospazi vettoriali J
1
+J
2
= J sia diretta. Allora
ogni x J si scrive in modo unico come x
1
+ x
2
, con x
1
J
1
e x
2
J
2
. Per
assurdo, se esistesse un vettore non nullo y J
1
J
2
allora lespressione:
x = (x
1
+y) + (x
2
y)
contraddirrebbe lipotesi. Pertanto, si ha che J
1
J
2
= o.
Capitolo 4 147
Viceversa, si supponga che J
1
J
2
= o e che per assurdo la somma J
1
+J
2
= J
non sia diretta, ovvero che esista x J = J
1
+J
2
tale che:
x = x
1
+x
2
= y
1
+y
2
,
con x
1
, y
1
J
1
, x
2
, y
2
J
2
e x
1
= y
1
oppure (o anche) x
2
= y
2
. Segue che
x
1
y
1
= x
2
+ y
2
J
1
J
2
da cui si perviene ad una contraddizione dellipotesi
J
1
J
2
= o.
Lesempio che segue mostra che il teorema precedente non pu` o essere esteso in modo
ovvio al caso della somma diretta di pi` u di due sottospazi vettoriali.
Esempio 4.22 In V
3
, rispetto ad una base ortonormale positiva B = (i, j, k), si conside-
rino i seguenti sottospazi vettoriali:
J
1
= L(i, j); J
2
= L(i +k); J
3
= L(j +k).
`
E chiaro che J
1
J
2
J
3
= o, J
1
J
2
= J
1
J
3
= J
2
J
3
= o, e
J
1
+J
2
+J
3
= V
3
ma la loro somma J
1
+J
2
+J
3
non ` e diretta; per esempio:
i +j +k = [ai + (1 a)j] + [(1 a)i + (1 a)k] + (aj + ak), con a R,
contraddice la Denizione 4.6.
Il teorema (di cui si omette la dimostrazione) che caratterizza la somma diretta di pi` u di
due sottospazi vettoriali mediante le loro intersezioni, ` e, infatti, il seguente.
Teorema 4.6 Sia V uno spazio vettoriale e siano J
1
, J
2
, . . . , J
k
sottospazi vettoriali
di V, allora:
J = J
1
J
2
. . . J
k
J = J
1
+J
2
+ . . . +J
k
e J
i
(J
1
+J
2
+ . . . +

J
i
+ . . . +J
k
) = o, i = 1, 2, . . . k,
(

J
i
indica che si deve escludere il sottospazio vettoriale J
i
dalla somma).
Per la dimostrazione si veda ad esempio [14].
Esercizio 4.4 Avvertenza Questo esercizio ` e risolto a titolo di esempio per chiarire i
concetti appena esposti. Nel paragrafo successivo verr` a introdotto un metodo pi ` u rapido
per risolvere problemi analoghi.
148 Spazi Vettoriali e Sottospazi Vettoriali
In R
4
si considerino i sottospazi vettoriali:
J
1
= (x
1
, x
2
, x
3
, x
4
) R
4
[ x
1
+ 2x
2
+ 3x
3
+ x
4
= 0,
J
2
= (x
1
, x
2
, x
3
, x
4
) R
4
[ x
1
+ x
2
= x
1
+ x
3
= x
1
x
2
+ x
3
= 0,
dimostrare che J
1
J
2
= R
4
.
Soluzione Innanzi tutto si osservi che effettivamente J
1
e J
2
sono sottospazi vetto-
riali di R
4
essendo deniti tramite sistemi lineari omogenei. La loro intersezione J
1
J
2
coincide con linsieme delle soluzioni del sistema lineare omogeneo formato da tutte le
equazioni che deniscono J
1
e da tutte le equazioni che deniscono J
2
, nel nostro caso
si ha:

x
1
+ 2x
2
+ 3x
3
+ x
4
= 0
x
1
+ x
2
= 0
x
1
+ x
3
= 0
x
1
x
2
+ x
3
= 0
le cui soluzioni, come spiegato nel Paragrafo 1.2, dipendono dal rango della matrice dei
coefcienti:
A =

1 2 3 1
1 1 0 0
1 0 1 0
1 1 1 0

.
Riducendo per righe la matrice A si ottiene rank(A) = 4 da cui segue J
1
J
2
= o.
Per dimostrare che J
1
+ J
2
= R
4
si devono scrivere esplicitamente le espressioni dei
vettori di J
1
e di J
2
. Nel primo caso, risolvendo lequazione che denisce J
1
, si
ottiene che (x
1
, x
2
, x
3
, x
4
) J
1
se:
(x
1
, x
2
, x
3
, x
4
) = (2t
1
3t
2
t
3
, t
1
, t
2
, t
3
), con t
1
, t
2
, t
3
R.
Invece, risolvendo il sistema lineare che denisce J
2
, si ha che (x
1
, x
2
, x
3
, x
4
) J
2
se:
(x
1
, x
2
, x
3
, x
4
) = (0, 0, 0, ), con R.
Si perviene alla tesi provando che un generico vettore (x
1
, x
2
, x
3
, x
4
) R
4
si pu` o scri-
vere come somma di un vettore di J
1
e di un vettore di J
2
, in altri termini dato
(x
1
, x
2
, x
3
, x
4
) esistono opportuni valori di t
1
, t
2
, t
3
, R per cui:
(x
1
, x
2
, x
3
, x
4
) = (2t
1
3t
2
t
3
, t
1
, t
2
, t
3
+ ).
Si ricavano infatti t
1
, t
2
, t
3
, R dalla scrittura stessa. Il Teorema 4.5 e il calcolo
dellintersezione dei due sottospazi vettoriali assicurano che tali valori sono unici.
Capitolo 4 149
4.3 Generatori, basi e dimensione
In questo paragrafo saranno ripetute, nel caso di un generico spazio vettoriale reale V,
alcune denizioni e propriet` a gi` a enunciate nel caso particolare di V
3
(cfr. Par. 3.4). Si ` e
scelto questo approccio da un lato perch e si ritiene didatticamente utile iniziare lo studio
di una teoria astratta e a volte ostica partendo dal caso, pi` u facile, dello spazio vettoriale
V
3
, dallaltro perch e si ` e deciso di non far sempre riferimento al Capitolo 3 per rendere i
due capitoli indipendenti tra di loro e per non perdere la scansione logica del discorso.
4.3.1 Base di uno spazio vettoriale
Denizione 4.8 Dati k vettori v
1
, v
2
, . . . , v
k
di uno spazio vettoriale reale V, si dice che
un vettore x V ` e combinazione lineare dei vettori v
1
, v
2
, . . . , v
k
se esistono k numeri
reali x
1
, x
2
, . . . x
k
tali che:
x = x
1
v
1
+ x
2
v
2
+ . . . + x
k
v
k
.
I numeri reali x
1
, x
2
, . . . , x
k
si dicono coefcienti della combinazione lineare.
Fissati i vettori v
1
, v
2
, . . . , v
k
in V si vogliono considerare tutte le loro combinazioni
lineari. Tale insieme indicato con:
L(v
1
, v
2
, . . . , v
k
),
o con 'v
1
, v
2
, . . . , v
k
`, in inglese prende il nome di span di v
1
, v
2
, . . . , v
k
, di cui
v
1
, v
2
, . . . , v
k

` e il sistema (o insieme) di generatori. Si ha:


Teorema 4.7 L(v
1
, v
2
, . . . , v
k
) ` e un sottospazio vettoriale di V ed ` e il pi` u piccolo sot-
tospazio vettoriale di V contenente i vettori v
1
, v
2
, . . . , v
k
.
Dimostrazione
`
E un esercizio che segue dalla denizione di sottospazio vettoriale.
Osservazione 4.11 A differenza di ci` o che la notazione usata potrebbe far pensare, si
osservi che le combinazioni lineari dei vettori v
1
, v
2
, . . . , v
k
non dipendono dallordine
in cui si considerano i vettori v
1
, v
2
, . . . , v
k
, cio` e ad esempio:
L(v
1
, v
2
, . . . , v
k
) = L(v
2
, v
1
, . . . , v
k
).
`
E consuetudine, infatti, usare le parentesi tonde per indicare questo sottospazio vettoriale
anzich e usare la notazione L(v
1
, v
2
, . . . , v
k
), che sarebbe pi` u corretta dal punto di vista
matematico.
150 Spazi Vettoriali e Sottospazi Vettoriali
Esempio 4.23 In R
4
, dati i due vettori v
1
= (1, 0, 0, 2) e v
2
= (1, 2, 0, 0) il piano
vettoriale L(v
1
, v
2
) ` e un sottospazio vettoriale di R
4
.
Denizione 4.9 Sia V uno spazio vettoriale reale e siano v
1
, v
2
, . . . , v
k
vettori qualsiasi
di V . Si dice che un sottospazio vettoriale J di V ammette come sistema di generatori
linsieme dei vettori v
1
, v
2
, . . . , v
k
se:
J = L(v
1
, v
2
, . . . , v
k
).
Il teorema che segue, la cui dimostrazione ` e un esercizio, permette di cambiare i generatori
di un sottospazio vettoriale.
Teorema 4.8 Dato J = L(v
1
, v
2
, . . . , v
i
, . . . v
k
), si possono aggiungere o sostituire pi` u
generatori di J con loro combinazioni lineari.
Ad esempio, come conseguenza del teorema precedente, si ottiene:
J = L(v
1
, v
2
, . . . , v
i
, . . . , v
k
, v
l
+ v
m
) = L(v
1
, v
2
, . . . , v
i
, . . . , v
k
, v
i
+ v
j
),
per ogni , R e per ogni l, m, i, j nellinsieme 1, 2, . . . , k e dove con il simbolo
v
i
si indica che si ` e tolto il vettore v
i
dallelenco dei generatori di J.
Osservazione 4.12 Come immediata conseguenza del teorema precedente si ottiene che
J = L(v
1
, v
2
, . . . , v
k
) ammette inniti generatori e quindi ha inniti sistemi di genera-
tori.
Osservazione 4.13 NellEsempio 4.23 linsieme i, j ` e un sistema di generatori di L(i, j)
ma anche 2i, 3i + 2j ` e un altro insieme di generatori di L(i, j) e cos` via, ma i non
` e un sistema di generatori di L(i, j).
Denizione 4.10 Uno spazio vettoriale reale V si dice nitamente generato se esistono
m vettori v
1
, v
2
, . . . , v
m
di V per cui:
L(v
1
, v
2
, . . . , v
m
) = V.
Analogamente, un sottospazio vettoriale J di uno spazio vettoriale reale V si dice
nitamente generato se esistono k vettori v
1
, v
2
, . . . , v
k
tali che:
L(v
1
, v
2
, . . . , v
k
) = J.
Capitolo 4 151
Esempio 4.24 Lo spazio vettoriale dei numeri reali pu` o essere generato da un qualsiasi
numero non nullo: R = L(1) = L(35) e quindi ` e un esempio di spazio vettoriale rea-
le nitamente generato. Analogamente, linsieme dei numeri complessi C ` e uno spazio
vettoriale reale nitamente generato in quanto C = L(1, i), dove con i si indica lu-
nit` a immaginaria. Daltra parte C ` e anche uno spazio vettoriale complesso nitamente
generato perch e, in questo caso, C = L(1).
Esempio 4.25 R
n
` e nitamente generato, per esempio:
R
3
= L((1, 0, 0), (0, 1, 0), (0, 0, 1)) = L((1, 2, 3), (2, 3, 0), (0, 0, 2), (4, 5, 6)).
Esempio 4.26 R
2,2
` e generato, per esempio, dalle matrici:

1 0
0 0

0 1
0 0

0 0
1 0

0 0
0 1

ma anche dalle matrici:

2 0
0 0

0 4
0 0

0 0
7 0

0 0
0 8

0 0
0 0

7 2
0 9

.
Osservazione 4.14 Si osservi che uno spazio vettoriale nitamente generato ammette un
numero nito di generatori, ma ci ` o non signica che ogni suo sistema di generatori debba
avere un numero nito di elementi. Le combinazioni lineari dei vettori che si conside-
reranno nel testo saranno sempre somme nite. Le somme innite, ossia le serie ed i
problemi di convergenza che ne scaturiscono sono invece studiati in Analisi Funzionale
(cfr. per esempio [19]).
Esempio 4.27 Lo spazio vettoriale R[x] dei polinomi a coefcienti in R ` e un esempio
di spazio vettoriale reale non nitamente generato. Infatti, se p
1
(x), p
2
(x), . . . , p
k
(x)
sono k polinomi e d ` e il loro massimo grado, allora L(p
1
(x), p
2
(x), . . . , p
k
(x)) non
contiene polinomi di grado maggiore a d e quindi L(p
1
(x), p
2
(x), . . . , p
k
(x)) R[x],
ma L(p
1
(x), p
2
(x), . . . , p
k
(x)) = R[x].
`
E facile, invece, vericare che il sottospazio
vettoriale R
n
[x] dei polinomi di grado minore o uguale ad n ` e nitamente generato:
R
n
[x] = L(1, x, x
2
, . . . , x
n
).
Esempio 4.28 Nel Paragrafo 4.5 si dimostra che anche lo spazio vettoriale delle funzioni
reali di variabile reale T(R) descritto nellEsempio 4.5, non ` e nitamente generato.
152 Spazi Vettoriali e Sottospazi Vettoriali
Esempio 4.29 Si consideri il sottospazio vettoriale di R
3
:
J = (x
1
, x
2
, x
3
) R
3
[ 2x
1
+ 3x
2
x
3
= x
2
+ x
3
= 0
introdotto nellEsercizio 4.1 e se ne determini un sistema di generatori. A tale scopo si
deve risolvere il sistema lineare omogeneo che denisce J. Come descritto nel Paragrafo
1.2 si ottengono innite soluzioni date da:

x
1
= 2t
x
2
= t
x
3
= t, t R.
In altri termini, il generico vettore di J ` e del tipo (2t, t, t) = t(2, 1, 1), t R, ossia
(2, 1, 1) ` e un generatore di J.
In questo testo si studieranno solo spazi vettoriali nitamente generati, le denizioni e le
propriet` a che seguono sono da considerarsi in questo contesto, anche se alcune di esse
possono essere agevolmente riscritte nel caso di spazi vettoriali non nitamente generati,
ma in tutto il testo non saranno mai discusse tali generalizzazioni. Per uno studio appro-
fondito degli spazi vettoriali non nitamente generati si pu` o far riferimento a testi di base
di Analisi Funzionale (ad esempio [19]).
Poich e si vuole enunciare la denizione rigorosa di dimensione di uno spazio vettoriale
V (nitamente generato), sono riprese e riformulate, in un contesto pi` u generale, alcune
denizioni e propriet` a gi` a studiate nel capitolo precedente nel caso particolare dello spazio
vettoriale V
3
.
Denizione 4.11 Dati k vettori v
1
, v
2
, . . . , v
k
di uno spazio vettoriale reale V, essi si
dicono linearmente indipendenti se lunica loro combinazione lineare uguale al vettore
nullo ha coefcienti tutti nulli, vale a dire:
x
1
v
1
+ x
2
v
2
+ . . . + x
k
v
k
= o = x
1
= x
2
= . . . = x
k
= 0. (4.1)
Linsieme v
1
, v
2
, . . . , v
k
di vettori linearmente indipendenti si dice libero.
Di conseguenza, k vettori v
1
, v
2
, . . . , v
k
di V si dicono linearmente dipendenti se esiste
almeno una loro combinazione lineare uguale al vettore nullo a coefcienti non tutti nulli.
Osservazione 4.15 Si osservi che in (4.1) vale anche limplicazione opposta.
Prima di proporre alcuni esempi conviene dimostrare la seguente propriet` a, molto facile,
ma utile per riconoscere vettori linearmente indipendenti o linearmente dipendenti.
Capitolo 4 153
Teorema 4.9 Dati k vettori v
1
, v
2
, . . . , v
k
di uno spazio vettoriale reale V, essi sono li-
nearmente dipendenti se e solo se almeno uno di essi si pu` o esprimere come combinazione
lineare dei rimanenti.
Dimostrazione Si supponga che, per ipotesi, i vettori v
1
, v
2
, . . . , v
k
siano linearmente
dipendenti, allora x
1
v
1
+x
2
v
2
+. . . +x
k
v
k
= o, con x
1
= 0 (se il coefciente non nullo
non fosse x
1
si potrebbe commutare in modo da porre al primo posto il coefciente non
nullo), ` e perci ` o possibile ricavare:
v
1
=
x
2
x
1
v
2
. . .
x
k
x
1
v
k
da cui la tesi. Il viceversa ` e lasciato per esercizio.
La verica degli esempi che seguono ` e lasciata per esercizio.
Esempio 4.30 Ogni insieme contenente un solo vettore 1 = x con x = o ` e libero.
Esempio 4.31 In V
3
i vettori di una base ortonormale B = (i, j, k) sono linearmente
indipendenti, lo stesso vale per ogni sottoinsieme non vuoto di B.
Esempio 4.32 Se in un insieme di vettori / compare il vettore nullo, allora / non ` e
libero. Linsieme o non ` e libero.
Esempio 4.33 Se ( ` e un insieme libero di vettori, allora ogni sottoinsieme non vuoto di
( ` e libero.
Esempio 4.34 Se T ` e un insieme di vettori linearmente dipendenti allora ogni insieme
che contiene T ` e formato da vettori linearmente dipendenti.
La denizione che segue estende la nozione di base gi` a data nel capitolo precedente nel
caso particolare dello spazio vettoriale V
3
(cfr. Def. 3.7).
Denizione 4.12 Sia V uno spazio vettoriale reale, un insieme nito e ordinato di vettori
B= (v
1
,v
2
,. . .,v
n
) di V prende il nome di base di V se:
1. B ` e un insieme libero,
2. B ` e un sistema di generatori di V, ossia L(B) = V.
Osservazione 4.16 Si vedr` a che sar` a fondamentale lordine in cui sono considerati i
vettori di una base.
154 Spazi Vettoriali e Sottospazi Vettoriali
Esempio 4.35 1. Una base ortonormale positiva B = (i, j, k) ` e un esempio di base di
V
3
, in quanto verica la denizione appena enunciata.
2. In R
n
una base ` e data da B = (e
1
, e
2
, . . . e
n
), dove:
e
1
= (1, 0, . . . , 0), e
2
= (0, 1, . . . , 0), . . . , e
n
= (0, 0, . . . , 1).
Questa base particolare, molto naturale, prende il nome di base standard o base
canonica di R
n
. Per esempio, nel caso particolare di R
4
si ha che la quaterna:
(1, 2, 3, 4) si scrive come 1e
1
+ 2e
2
+ 3e
3
+ 4e
4
, da cui la giusticazione della
particolare denominazione della base usata. Sempre in R
4
se si considera, invece,
la base B

= (f
1
, f
2
, f
3
, f
4
), dove:
f
1
= (2, 0, 0, 0), f
2
= (0, 3, 0, 0), f
3
= (0, 0, 1, 0), f
4
= (0, 0, 0, 4),
si ha:
(1, 2, 3, 4) =
1
2
f
1
+
2
3
f
2
+ 3f
3
+ 1f
4
che ` e una decomposizione dello stesso vettore (1, 2, 3, 4) molto meno naturale della
precedente.
3. Analogamente al caso di R
n
, la base canonica dello spazio vettoriale delle matrici
R
m,n
` e formata, ordinatamente, dalle mn matrici E
ij
aventi il numero 1 al posto ij
e 0 per ogni altro elemento. Nel caso particolare di R
2,3
la base canonica ` e formata
dalle 6 matrici seguenti:
E
11
=

1 0 0
0 0 0

, E
12
=

0 1 0
0 0 0

, E
13
=

0 0 1
0 0 0

,
E
21
=

0 0 0
1 0 0

, E
22
=

0 0 0
0 1 0

, E
23
=

0 0 0
0 0 1

;
quindi:

1 2 3
4 5 6

= E
11
+ 2E
12
+ 3E
13
+ 4E
21
+ 5E
22
+ 6E
23
.
4. In R
n
[x] una base ` e data dallinsieme B = (1, x, x
2
, . . . , x
n
).
Il teorema che segue caratterizza le basi di uno spazio vettoriale.
Capitolo 4 155
Teorema 4.10 1. Sia B = (v
1
, v
2
, . . . , v
n
) una base dello spazio vettoriale reale V,
allora ogni vettore x di V si decompone in modo unico come:
x = x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
, (4.2)
con (x
1
, x
2
, . . . , x
n
) R
n
.
2. Se v
1
, v
2
, . . . , v
n
` e un insieme di vettori di V tale che ogni vettore x di V si
decomponga in modo unico rispetto a tali vettori come in (4.2), allora linsieme
v
1
, v
2
, . . . , v
n
` e una base di V.
La dimostrazione ` e lasciata per esercizio.
Osservazione 4.17 Fissata una base B in V, per ogni vettore x di V la n-upla di numeri
reali (x
1
, x
2
, . . . , x
n
), individuata univocamente da (4.2), si indica spesso con la matrice
colonna:
X =

x
1
x
2
.
.
.
x
n

.
I numeri reali x
i
, i = 1, 2, . . . , n, sono le componenti di x rispetto alla base B.
Osservazione 4.18 Fissata una base B in V, dati due vettori x e y di V le cui matrici
colonne delle componenti, rispetto a B, sono:
X =

x
1
x
2
.
.
.
x
n

, Y =

y
1
y
2
.
.
.
y
n

,
il vettore x +y ha componenti, rispetto a B:
X + Y =

x
1
+ y
1
x
2
+ y
2
.
.
.
x
n
+ y
n

e il vettore x ( R) ha componenti, rispetto a B:


X =

x
1
x
2
.
.
.
x
n

.
156 Spazi Vettoriali e Sottospazi Vettoriali
Si osservi, inoltre, lassoluta coerenza tra le denizioni di somma di matrici e somma di
vettori e tra prodotto di un numero reale per una matrice e prodotto di un numero reale
per un vettore.
Dalla denizione di base di uno spazio vettoriale e dal Teorema 4.10 emergono in modo
naturale le seguenti domande:
1. in ogni spazio vettoriale esiste sempre almeno una base?
2. In caso affermativo, in uno spazio vettoriale quante basi esistono?
3. Nel caso in cui esistano molte basi in uno spazio vettoriale, quanti vettori conten-
gono ciascuna?
Nel caso particolare degli spazi vettoriali dei vettori ordinari V
3
, V
2
e V
1
, aiutati dalla
visualizzazione geometrica, si conoscono gi` a le risposte alle precedenti domande (cfr.
Teor. 3.4); i teoremi che seguono permettono di dare analoghe risposte nel caso particolare
degli spazi vettoriali nitamente generati, quali, ad esempio R
n
e lo spazio delle matrici
R
m,n
(cfr. Es. 4.35). Si enunciano ora uno di seguito allaltro i teoremi che caratterizzano
la struttura degli spazi vettoriali, anteponendo il commento e le loro conseguenze alle loro
dimostrazioni.
Teorema 4.11 Teorema di esistenza di una base Sia V uno spazio vettoriale rea-
le nitamente generato e sia ( = w
1
, w
2
, . . . , w
m
un sistema di generatori di V.
Linsieme ( contiene almeno una base.
Osservazione 4.19 Dal teorema precedente e dallOsservazione 4.12 segue che, essendo
possibile ottenere inniti sistemi di generatori di V a partire da (, esistono innite basi
in uno spazio vettoriale nitamente generato.
Teorema 4.12 Lemma di Steinitz Sia B = (v
1
, v
2
, . . . , v
n
) una base di uno spazio
vettoriale reale V e sia 1 = u
1
, u
2
, . . . , u
p
un insieme libero di V, allora p n.
Teorema 4.13 Teorema della dimensione Tutte le basi di uno spazio vettoriale reale
V hanno lo stesso numero di vettori.
Denizione 4.13 In uno spazio vettoriale reale V, nitamente generato, il numero dei
vettori appartenenti ad una base prende il nome di dimensione di V e si indica con
dim(V ).
Se V ` e formato dal solo vettore nullo V = o, si pone dim(o) = 0.
Dai teoremi elencati si ottiene in modo evidente il seguente:
Capitolo 4 157
Teorema 4.14 Sia J un sottospazio vettoriale di uno spazio vettoriale reale V, allora:
1. se lo spazio vettoriale V ` e nitamente generato anche J ` e nitamente generato.
2. dim(J) dim(V ).
3. dim(J) = dim(V ) J = V.
Esempio 4.36 Segue dallEsempio 4.35 che:
dim(R
n
) = n.
dim(R
m,n
) = mn.
dim(R
n
[x]) = n + 1.
Per dimostrare il Teorema 4.11 ` e necessario anteporre il seguente lemma tecnico:
Lemma 4.1 Sia 1 = a
1
, a
2
, . . . , a
k
un insieme libero di V. Sia x V un vettore che
non ` e combinazione lineare dei vettori di 1, allora linsieme 1 x ` e libero in V.
Dimostrazione Si procede per assurdo, i dettagli sono lasciati al Lettore.
Dimostrazione del Teorema 4.11 La dimostrazione consiste in un numero nito di
passi applicati allinsieme (, procedimento autorizzato dal fatto che ( ` e nito. Si inizia
supponendo che ogni vettore di ( sia diverso dal vettore nullo, in caso contrario si toglie
il vettore nullo da (.
Primo passo: si considerano linsieme 1
1
= w
1
e i vettori rimanenti w
i
, i = 2, . . . , m.
Se ogni vettore w
i
` e linearmente dipendente da w
1
, ossia se esistono numeri reali
i
tali
che w
i
=
i
w
1
, i = 2, . . . , m, allora 1
1
` e una base di V e il teorema ` e dimostrato. In
caso contrario si considera il primo vettore di ( che non verica questa condizione. Sia,
per esempio w
2
=
2
w
1
, si procede con il:
secondo passo: si considera linsieme libero (cfr. Lemma 4.1) 1
2
= w
1
, w
2
. Si pre-
sentano due possibilit` a: o ogni vettore rimanente in ( ` e combinazione lineare dei vettori
di 1
2
, allora 1
2
` e una base di V (quindi segue la tesi), oppure esiste almeno un vettore di
( che non ` e combinazione lineare di 1
2
, si suppone che sia w
3
; in questo caso si procede
con il:
terzo passo: si considera linsieme libero (cfr. Lemma 4.1) 1
3
= w
1
, w
2
, w
3
e si
procede come nel secondo passo.
Il procedimento termina dopo un numero nito di passi, al pi ` u m. Si ` e cos` costruita
una base di V a partire dal primo vettore w
1
di (.
`
E evidente che procedendo con lo
stesso metodo a partire da un altro vettore di ( o da unaltro insieme di generatori di V
si ottengono innite basi.
158 Spazi Vettoriali e Sottospazi Vettoriali
Osservazione 4.20 Il metodo descritto nella dimostrazione precedente prende il nome di
metodo degli scarti successivi per il procedimento di calcolo che prevede.
Esercizio 4.5 In /(R
3,3
), sottospazio vettoriale di R
3,3
delle matrici antisimmetriche, si
consideri linsieme ( = A
1
, A
2
, A
3
, A
4
, A
5
, A
6
, A
7
con:
A
1
=

0 1 2
1 0 3
2 3 0

, A
2
=

0 0 1
0 0 1
1 1 0

, A
3
=

0 0 0
0 0 5
0 5 0

,
A
4
=

0 0 0
0 0 0
0 0 0

, A
5
=

0 1 2
1 0 0
2 0 0

, A
6
=

0 1 1
1 0 4
1 4 0

,
A
7
=

0 5 1
5 0 2
1 2 0

.
Si dimostri che ( ` e un insieme di generatori di /(R
3,3
) e se ne estragga una base.
Soluzione Per rispondere al primo quesito si deve esprimere la generica matrice:
A =

0 a
12
a
13
a
12
0 a
23
a
13
a
23
0

(4.3)
di /(R
3,3
) come combinazione lineare:
A =
1
A
1
+
2
A
2
+
3
A
3
+
4
A
4
+
5
A
5
+
6
A
6
+
7
A
7
(4.4)
degli elementi di (. Sostituendo in (4.4) le matrici (4.3) prima indicate, si perviene al
sistema lineare nelle incognite
i
, i = 1, 2, . . . , 7:

5
+
6
+ 5
7
= a
12
,
2
1
+
2
+ 2
5

6
+
7
= a
13
,
3
1

2
+ 5
3
+ 4
6
2
7
= a
23
,
la cui soluzione ` e lasciata da determinare al Lettore per esercizio.
Per estrarre una base da ( si procede come nella dimostrazione del Teorema 4.11, si ha:
primo passo: sia 1
1
= A
1
. Si verica subito che A
1
, A
2
` e un insieme libero in
/(R
3,3
), si passa quindi al:
secondo passo: sia 1
2
= A
1
, A
2
. Si verica che A
1
, A
2
, A
3
` e un insieme libero, si
procede, quindi, con il:
Capitolo 4 159
terzo passo: sia 1
3
= A
1
, A
2
, A
3
. Si verica che ogni altro vettore di ( ` e combinazione
lineare di 1
3
, si deduce, cos` che 1
3
` e una base di /(R
3,3
). Tutte le veriche sono lasciate
al Lettore per esercizio.
Per la dimostrazione del Teorema 4.12 si rimanda al Paragrafo 4.5.
Dimostrazione del Teorema 4.13 Siano B=(v
1
, v
2
, . . . , v
n
) e ( =(w
1
, w
2
, . . . , w
m
)
due basi di V, si tratta di dimostrare che n = m. Si consideri B base di V e ( insieme
libero di V , dal Teorema 4.12 segue che m n, invertendo i ruoli di B e di ( si perviene
alla tesi.
Osservazione 4.21 Si osservi limportanza dellordine dei vettori della base che si riette
sullordine delle componenti dei vettori. In altri termini, mentre lo spazio vettoriale V si
pu` o scrivere indifferentemente come:
V = L(v
1
, v
2
, . . . , v
n
) = L(v
2
, v
1
, . . . , v
n
)
la base B = (v
1
, v
2
, . . . , v
n
) ` e diversa dalla base B

= (v
2
, v
1
, . . . , v
n
). Come cambiano
le componenti dei vettori di V quando sono scritti rispetto alla base B e alla base B

?
Esempio 4.37 1. A partire dalla scrittura di una matrice diagonale si verica facil-
mente che dim(T(R
n,n
)) ` e n. Una sua base ` e formata ordinatamente dalle matrici
E
ii
, i = 1, 2, . . . , n, denite nellEsempio 4.35.
2. A partire dalla scrittura di una matrice triangolare superiore, si verica facilmente
che dim(T (R
n,n
)) = n(n+1)/2 e una sua base ` e data, ordinatamente, dalle matrici
E
ij
con 1 i j n denite nellEsempio 4.35.
3. A partire dalla scrittura di una matrice simmetrica si verica facilmente che:
dim(o(R
n,n
)) =
n(n + 1)
2
e una sua base ` e:

1 0 . . . 0
0 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 0

0 1 . . . 0
1 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 0

, . . . ,

0 0 . . . 1
0 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
1 0 . . . 0

0 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 0

, . . . ,

0 . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0 1
0 . . . 1 0

0 0 . . . 0
0 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1

.
160 Spazi Vettoriali e Sottospazi Vettoriali
4. A partire dalla scrittura di una matrice antisimmetrica si verica facilmente che:
dim(/(R
n,n
)) =
n(n 1)
2
e una sua base ` e:

0 1 0 . . . 0
1 0 0 . . . 0
0 0 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 0

0 0 1 . . . 0
0 0 0 . . . 0
1 0 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 0

, . . . ,

0 0 . . . 0 0
0 0 . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 0 1
0 0 . . . 1 0

.
Si conclude con lenunciato di un teorema che sar` a molto usato nel testo.
Teorema 4.15 Teorema del completamento della base Sia V uno spazio vettoriale
di dimensione n e sia B = (v
1
, v
2
, . . . , v
n
) una sua base. Dato linsieme libero:
1 = a
1
, a
2
, . . . , a
k
, k n,
esiste una base B

di V contenente tutti i vettori di 1 e n k vettori di B.


Dimostrazione Si consideri linsieme / = 1 B, poich e / contiene una base, allora
V = L(/). Si applichi il Teorema 4.11 ad / partendo dai vettori di 1, segue cos` la
tesi.
Esercizio 4.6 Nel sottospazio vettoriale o(R
3,3
) delle matrici simmetriche di ordine 3
completare linsieme libero:
1 =

I
1
=

1 2 0
2 0 0
0 0 0

, I
2
=

1 0 0
0 1 0
0 0 1

, I
3
=

0 1 1
1 0 0
1 0 0

no ad ottenere una base di o(R


3,3
).
Soluzione Si consideri la base di o(R
3,3
) contenente ordinatamente le matrici:
A
1
=

1 0 0
0 0 0
0 0 0

, A
2
=

0 1 0
1 0 0
0 0 0

, A
3
=

0 0 1
0 0 0
1 0 0

,
A
4
=

0 0 0
0 1 0
0 0 0

, A
5
=

0 0 0
0 0 1
0 1 0

, A
6
=

0 0 0
0 0 0
0 0 1

,
Capitolo 4 161
allora si possono riscrivere (per comodit` a di calcolo) i vettori di 1 tramite le loro compo-
nenti rispetto alla base B. Si ha:
I
1
= (1, 2, 0, 0, 0, 0), I
2
= (1, 0, 0, 1, 0, 1), I
3
= (0, 1, 1, 0, 0, 0).
Si applica il Teorema 4.11 allinsieme di generatori:
( = I
1
, I
2
, I
3
, A
1
, A
2
, A
3
, A
4
, A
5
, A
6

partendo dagli elementi di 1. Si ottiene che (I


1
, I
2
, I
3
, A
1
, A
4
, A
5
) ` e una base di o(R
3,3
).
I dettagli di calcolo sono lasciati al Lettore.
Dai teoremi precedenti segue il:
Teorema 4.16 1. Sia V uno spazio vettoriale reale di dimensione n. Un insieme
libero 1 = v
1
, v
2
, . . . , v
n
di n vettori di V ` e una base di V.
2. Sia V uno spazio vettoriale reale di dimensione n. Un sistema di generatori
1 = v
1
, v
2
, . . . , v
n
di n vettori di V ` e una base di V.
Dimostrazione 1. L(v
1
, v
2
, . . . , v
n
) ` e un sottospazio vettoriale di V di dimensione n,
quindi per la propriet` a 3. del Teorema 4.14 si ha L(v
1
, v
2
, . . . , v
n
) = V. Pertanto
v
1
, v
2
, . . . , v
n
sono generatori di V.
2. Per ipotesi L(v
1
, v
2
, . . . , v
n
) = V e dim(V ) = n. Applicando il Teorema 4.11
al sistema di generatori v
1
, v
2
, . . . , v
n
si pu` o estrarre da esso una base, ma,
essendo dim(V ) = n, linsieme v
1
, v
2
, . . . , v
n
` e una base di V.
Osservazione 4.22 Mediante il Teorema del Completamento della Base (cfr. Teor. 4.15)
si pu` o agevolmente determinare un sottospazio vettoriale supplementare di un sottospazio
vettoriale J di uno spazio vettoriale V. Se dim(V ) = n e se (a
1
, a
2
, . . . , a
k
) ` e una
base di J, (k < n), allora si perviene ad un sottospazio vettoriale supplementare di J
completando linsieme libero (a
1
, a
2
, . . . , a
k
) no ad ottenere una base di V, data per
esempio da:
(a
1
, a
2
, . . . , a
k
, b
1
, b
2
, . . . , b
nk
).
Infatti:
L(a
1
, a
2
, . . . , a
k
) L(b
1
, b
2
, . . . , b
nk
) = o
e L(b
1
, b
2
, . . . , b
nk
) ` e un sottospazio vettoriale di V supplementare di J. Un esempio
di quanto osservato sar` a trattato nellEsercizio 4.12.
162 Spazi Vettoriali e Sottospazi Vettoriali
4.3.2 Basi e somma diretta
Sia V uno spazio vettoriale di dimensione n e sia B = (v
1
, v
2
, . . . , v
n
) una sua base,
allora:
V = L(v
1
) L(v
2
) . . . L(v
n
),
oppure, per esempio:
V = L(v
1
, v
2
) L(v
3
, v
4
, v
5
) . . . L(v
n1
, v
n
).
Inoltre segue in modo evidente dalla denizione di somma di due o pi ` u sottospazi vet-
toriali dello spazio vettoriale V che essa ` e generata dallunione dei medesimi, nel senso
che i vettori del sottospazio vettoriale somma sono combinazioni lineari dei vettori dei
sottospazi vettoriali addendi.
Alla luce di queste considerazioni, il teorema che segue indica come determinare una base
dello spazio vettoriale V (o pi` u in generale di un sottospazio vettoriale J di V ) a partire
dalle basi dei sottospazi vettoriali in cui V (o J) si decompone, precisamente si ha:
Teorema 4.17 Si supponga che lo spazio vettoriale reale V sia decomposto nella somma
diretta di k suoi sottospazi vettoriali:
V = J
1
J
2
. . . J
k
,
allora ` e possibile formare una base di V mediante lunione dei vettori appartenenti ad
una base di ciascuno dei sottospazi vettoriali J
i
, i = 1, 2, . . . , k.
Dimostrazione Siano dim(J
1
) = n
1
, dim(J
2
) = n
2
, . . . , dim(J
k
) = n
k
le dimen-
sioni dei sottospazi vettoriali considerati e siano B
1
= (a
11
, a
12
, . . . , a
1n
1
) una base di
J
1
, B
2
= (a
21
, a
22
, . . . , a
2n
2
) una base di J
2
e cos` via no a B
k
= (a
k1
, a
k2
, . . . , a
kn
k
)
base di J
k
. Per denizione di somma diretta e di base, ogni vettore di V si scrive in
modo unico come combinazione lineare dei vettori delle basi dei sottospazi vettoriali J
i
,
i = 1, 2, . . . , k. Pertanto, linsieme di vettori:
B
1
. . . B
k
= a
11
, a
12
, . . . , a
1n
1
, a
21
, a
22
, . . . , a
2n
2
, . . . , a
k1
, a
k2
, . . . , a
kn
k

` e una base dello spazio vettoriale V.


Dal teorema precedente segue il:
Corollario 4.1 Se J = J
1
J
2
. . . J
k
, allora:
dim(J) = dim(J
1
) + dim(J
2
) + . . . + dim(J
k
).
Capitolo 4 163
Esercizio 4.7 Vale il viceversa del Corollario 4.1?
Osservazione 4.23 Come immediata conseguenza del Corollario 4.1 segue che, dato un
sottospazio vettoriale J di V con dim(V ) = n e dim(J) = k, k < n, un suo supple-
mentare J

(tale che J J

= V ) ha dimensione n k. Una base di J

pu` o essere
formata dai vettori che si aggiungono ad una base di J per ottenere una base di V (cfr.
Oss. 4.22). Si ottiene, quindi, che esistono inniti sottospazi vettoriali supplementari di
J, supponendo ovviamente che J = V e J = o.
Nel caso della somma di due sottospazi vettoriali ` e utile conoscere la formula che mette in
relazione le loro dimensioni con le dimensioni della loro intersezione e della loro somma,
per la dimostrazione si veda il Paragrafo 4.5.
Teorema 4.18 Formula di Grassmann Siano J
1
e J
2
due sottospazi vettoriali di
uno spazio vettoriale V, allora:
dim(J
1
+J
2
) = dim(J
1
) + dim(J
2
) dim(J
1
J
2
).
Esercizio 4.8 In R
5
si consideri il sottospazio vettoriale:
J = (x
1
, x
2
, x
3
, x
4
, x
5
) R
5
[ x
1
+ x
2
+ 2x
3
+ x
4
x
5
= 0.
1. Si decomponga J nella somma diretta di due sottospazi vettoriali J
1
e J
2
.
2. Si scriva il vettore (5, 2, 1, 3, 2) di J come somma di un vettore di J
1
e di
un vettore di J
2
.
Soluzione 1. Per esempio si controlla che i sottospazi vettoriali:
J
1
= L((1, 1, 0, 0, 0), (2, 0, 1, 0, 0)),
J
2
= L((1, 0, 0, 1, 0), (1, 0, 0, 0, 1)),
vericano la condizione richiesta, infatti la loro intersezione si riduce al vettore
nullo e la loro somma riproduce J.
Quante sono le risposte possibili? Si provi ad elencarne almeno due diverse.
2. Dal calcolo diretto si ha:
(5, 2, 1, 3, 2) = (0, 2, 1, 0, 0) + (5, 0, 0, 3, 2).
164 Spazi Vettoriali e Sottospazi Vettoriali
Esercizio 4.9 In R
2,2
si considerino i sottospazi vettoriali:
J
1
=

x
1
x
2
x
3
x
4

R
2,2
[ x
1
+ x
4
= x
2
+ x
3
= 0

,
J
2
=

x
1
x
2
x
3
x
4

R
2,2
[ x
1
x
4
= x
2
x
3
= 0

.
Dimostrare che J
1
J
2
= R
2,2
.
Soluzione Per lintersezione ` e sufciente osservare che la matrice dei coefcienti del
sistema lineare omogeneo:

x
1
+ x
4
= 0
x
2
+ x
3
= 0
x
1
x
4
= 0
x
2
x
3
= 0
ha determinante non nullo. Rimane da dimostrare che J
1
J
2
= R
2,2
. Si ottiene
facilmente che una generica matrice di R
2,2
si pu` o scrivere come:

x
1
x
2
x
3
x
4

=
1
2

x
1
x
4
x
2
x
3
x
2
+ x
3
x
1
+ x
4

+
1
2

x
1
+ x
4
x
2
+ x
3
x
2
+ x
3
x
1
+ x
4

e ci` o prova la decomposizione (unica) di un vettore di R


2,2
nella somma di due vettori di
J
1
e J
2
, rispettivamente.
Esercizio 4.10 In R
3,3
si considerino i sottospazi vettoriali:
J
1
=

0 a b
0 0 c
0 0 0

R
3,3
[ a, b, c R

,
J
2
= T(R
3,3
),
J
3
=

x
1
0 0
x
2
x
3
0
x
4
x
5
0

R
3,3
[ 2x
1
x
3
= x
1
+ 3x
3
= 0

.
Dimostrare che J
1
J
2
J
3
= R
3,3
.
Soluzione Si pu` o vericare direttamente che ogni vettore di R
3,3
si decompone in mo-
do unico come somma di un vettore di J
1
insieme con un vettore di J
2
insieme con un
vettore di J
3
.
Capitolo 4 165
Esercizio 4.11 In R
3
[x] si consideri il sottospazio vettoriale J dei polinomi aventi il
numero 2 come radice.
1. Decomporre J nella somma diretta di due sottospazi vettoriali J
1
e J
2
.
2. Scrivere il polinomio 4 2x + x
3
di J come somma di un polinomio di J
1
e
di un polinomio di J
2
.
Soluzione 1. Dal Teorema di Rufni sui polinomi, si ha che ogni polinomio di J si
scrive come:
p(x) = (x 2)(a
0
+ a
1
x + a
2
x
2
), a
0
, a
1
, a
2
R,
quindi J = L(2 + x, (2 + x)x, (2 + x)x
2
) e dim(J) = 3.
Ad esempio si pu` o porre J = J
1
J
2
, con
J
1
= L(2 + x, (2 + x)x), J
2
= L((2 + x)x
2
).
2. Si devono trovare i numeri reali
i
, i = 1, 2, 3, tali che:
4 2x + x
3
=
1
(2 + x) +
2
(2 + x)x +
3
(2 + x)x
2
.
Dalluguaglianza dei coefcienti dei monomi di grado uguale segue:

1
= 2,
2
= 2,
3
= 1.
Pertanto 4 2x + x
3
= p
1
(x) + p
2
(x), con p
1
(x) = 4 2x + 2x
2
J
1
e
p
2
(x) = 2x
2
+ x
3
J
2
.
Esercizio 4.12 Dato il sottospazio vettoriale H di R
4
denito da:
H = (x
1
, x
2
, x
3
, x
4
) R
4
[ x
1
+ x
2
+ x
4
= x
3
= 0,
si determinino due sottospazi vettoriali diversi entrambi supplementari di H in R
4
.
Soluzione Risolvendo il sistema lineare omogeneo che denisce H si ottiene che un
generico vettore di H ` e del tipo (t
1
, t
2
, 0, t
1
t
2
) con t
1
, t
2
R da cui segue che
dim(H) = 2 ed i vettori a
1
= (1, 0, 0, 1), a
2
= (0, 1, 0, 1) formano una base di
H. Si verica facilmente (usando il metodo degli scarti successivi descritto nella di-
mostrazione del Teorema 4.11) che, ad esempio, (a
1
, a
2
, e
1
, e
3
), con e
1
= (1, 0, 0, 0) e
e
3
= (0, 0, 1, 0), ` e una base di R
4
, ovvero che HL(e
1
, e
3
) = R
4
. Quindi un sottospazio
vettoriale supplementare di H in R
4
` e /
1
= L(e
1
, e
3
). Con un procedimento analogo si
verica che, ad esempio, (a
1
, a
2
, e
3
, e
4
), con e
4
= (0, 0, 0, 1), ` e unaltra base di R
4
. Si
pu` o allora denire un altro sottospazio vettoriale, diverso dal precedente, supplementare
di H in R
4
, dato da /
2
= L(e
3
, e
4
).
Osservazione 4.24 Nel paragrafo seguente si introdurr` a il concetto di rango di una ma-
trice che permetter` a di risolvere gli esercizi proposti in questo paragrafo in un altro modo,
a volte pi ` u rapido.
166 Spazi Vettoriali e Sottospazi Vettoriali
4.3.3 Rango di una matrice
In questo paragrafo verr` a introdotta la denizione formale di rango di una matrice, mentre
la Denizione 1.10 inserita nel Capitolo 1 ne costituisce un metodo di calcolo.
Sia A = (a
ij
) R
m,n
una matrice di m righe e n colonne, le cui righe sono date dai
vettori:
R
1
= (a
11
, a
12
, . . . , a
1n
),
R
2
= (a
21
, a
22
, . . . , a
2n
),
.
.
.
R
m
= (a
m1
, a
m2
, . . . , a
mn
).
I vettori R
i
R
n
, (i = 1, 2, . . . , m), prendono il nome di vettori riga della matrice A ed
il sottospazio vettoriale:
1(A) = L(R
1
, R
2
, . . . , R
m
)
` e lo spazio vettoriale delle righe di A. Per costruzione 1(A) ` e un sottospazio vettoriale
di R
n
, ed avendo m generatori, la sua dimensione sar` a al pi ` u pari al minore tra i numeri
m ed n.
Si ripete lo stesso discorso per le colonne di A. Siano:
C
1
= (a
11
, a
21
, . . . , a
m1
),
C
2
= (a
12
, a
22
, . . . , a
m2
),
.
.
.
C
n
= (a
1n
, a
2n
, . . . , a
mn
)
i vettori colonna di A. Il sottospazio vettoriale:
((A) = L(C
1
, C
2
, . . . , C
n
)
` e lo spazio vettoriale delle colonne di A. Per costruzione ((A) ` e un sottospazio vettoriale
di R
m
, ed avendo n generatori la sua dimensione sar` a al pi` u pari al minore tra i numeri
m ed n.
Osservazione 4.25 1. Per una matrice A R
m,n
lo spazio vettoriale delle righe 1(A)
` e un sottospazio vettoriale di R
n
, mentre lo spazio vettoriale delle colonne ((A)
` e un sottospazio vettoriale di R
m
, quindi 1(A) e ((A) sono, in generale, spazi
vettoriali diversi. Se m = n, 1(A) e ((A) sono sempre spazi vettoriali diversi.
2. Se A ` e una matrice qualsiasi di R
m,n
, allora 1(
t
A) = ((A), ((
t
A) = 1(A), dove
t
A indica la trasposta della matrice A.
Se A R
n,n
` e una matrice simmetrica, allora 1(A) = ((A).
Se A R
n,n
` e una matrice antisimmetrica, allora 1(A) = 1(A) = ((A).
Capitolo 4 167
Vale il seguente teorema.
Teorema 4.19 Teorema del Rango Per ogni matrice A R
m,n
si ha:
dim(1(A)) = dim(((A)).
Nel Paragrafo 4.5 si propone una dimostrazione di questo teorema, ma si dovr` a aspettare
il Capitolo 6 per una dimostrazione alternativa, molto pi` u sintetica.
Il teorema appena enunciato giustica la fondamentale:
Denizione 4.14 Si denisce rango di una matrice A R
m,n
(e lo si indica con rank(A))
la dimensione dello spazio vettoriale delle righe (o delle colonne) di A:
rank(A) = dim(1(A)) = dim(((A)).
Osservazione 4.26 Come conseguenza immediata del precedente teorema si ha anche
che:
rank(A) = rank(
t
A), A R
m,n
,
e che rank(A) ` e minore o uguale del minimo tra m e n.
Le propriet` a che seguono sono volte a dimostrare che la denizione di rango di una ma-
trice, appena enunciata, coincide con la Denizione 1.10 data nel Capitolo 1. Si procede
come segue.
1. Sia A una matrice ridotta per righe, si dimostrer` a che il numero delle righe non
nulle di A coincide con la dimensione dello spazio vettoriale delle righe di A.
2. Si dimostrer` a , inoltre, che il processo di riduzione di una matrice per righe descritto
nel Paragrafo 1.2 lascia invariata la dimensione dello spazio vettoriale delle righe
di A, pur cambiando la matrice A.
3. A corretta conclusione, si devono aggiungere la denizione di matrice ridotta per
colonne e il procedimento di riduzione per colonne.
Teorema 4.20 Se A R
m,n
` e una matrice ridotta per righe, la Denizione 1.9 del Ca-
pitolo 1 coincide con la Denizione 4.14. Pertanto la denizione di rango di una matrice
` e formulata in modo corretto.
168 Spazi Vettoriali e Sottospazi Vettoriali
Dimostrazione Poich e ogni matrice ridotta per righe pu` o essere trasformata in una
matrice triangolare superiore mediante lapplicazione delle tre operazioni di riduzione
sulle righe senza alterarne il numero di righe non nulle (cfr. la dimostrazione del Teorema
2.13), si pu` o supporre che una matrice ridotta per righe A R
m,n
con k righe non nulle
sia del tipo seguente:

a
11
a
12
. . . . . . . . . a
1n
0 a
22
. . . . . . . . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0 a
kk
. . . a
kn
0 . . . 0 . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0 . . . 0 0

,
con a
11
a
22
. . . a
kk
= 0. Si tratta ora di dimostrare che il numero k delle righe non nulle di
A coincide con dim(1(A)), cio` e che le prime righe di A sono linearmente indipendenti
in R
n
. Il risultato ` e quasi ovvio ed ` e la conseguenza della particolare posizione delle
componenti nulle nelle righe di A. Infatti, dallequazione:

1
R
1
+
2
R
2
+ . . . +
k
R
k
= o
nelle incognite
1
,
2
, . . . ,
k
, con:
R
1
= (a
11
, a
12
, . . . , a
1n
),
R
2
= (0, a
22
, . . . , a
2n
),
.
.
.
R
k
= (0, . . . , 0, a
kk
, . . . , a
kn
)
e o R
n
, si ottiene un sistema lineare omogeneo la cui prima equazione ` e:

1
a
11
= 0;
ma a
11
= 0 allora
1
= 0. Sostituendo questo risultato nella seconda equazione:

1
a
12
+
2
a
22
= 0
si ottiene
2
= 0 e cos` via, da cui segue che le righe non nulle della matrice A ridotta
per righe sono linearmente indipendenti.
Teorema 4.21 Le operazioni consentite per ridurre una matrice A R
m,n
per righe non
cambiano la dimensione dello spazio vettoriale delle righe di A.
Dimostrazione Si ricordino le operazioni, descritte nel Paragrafo 1.2, consentite per
ridurre per righe una matrice, e precisamente:
Capitolo 4 169
1. R
i
R
j
;
2. R
i
R
i
, = 0;
3. R
i
R
i
+ R
j
, R, i = j.
Il teorema segue allora in modo evidente dal Teorema 4.8.
Si pu` o ripetere il procedimento di riduzione di una matrice sulle colonne, di conseguenza,
dopo aver ridotto per colonne la matrice, il suo rango sar` a dato dal numero di colonne
non nulle. Pi ` u precisamente:
Denizione 4.15 Una matrice A si dice ridotta per colonne se in ogni sua colonna non
nulla esiste un elemento non nullo a destra del quale ci sono tutti zeri.
Esempio 4.38 La matrice seguente ` e ridotta per colonne:
A =

1 0 0
1 1 0
2 3 4
5 6 7

.
Teorema 4.22 Il rango di una matrice A (inteso come la dimensione dello spazio vetto-
riale delle colonne di A) si calcola riducendo la matrice A per colonne, in altri termini
eseguendo sulle colonne, un numero nito di volte, le operazioni seguenti:
1. C
i
C
j
: scambiare tra di loro due colonne;
2. C
i
C
i
, R, = 0 : moltiplicare tutti gli elementi di una colonna per un
numero reale non nullo;
3. C
i
C
i
+ C
j
, R, i = j : sostituire ad una colonna una combinazione
lineare di se stessa con una colonna parallela
e poi contando il numero di colonne non nulle della matrice ridotta per colonne ottenuta.
La dimostrazione ` e un evidente esercizio.
Osservazione 4.27 Riducendo per righe una matrice A non cambia lo spazio vettoriale
1(A), anche se si ottengono matrici ridotte per righe tra di loro diverse.
Riducendo per righe una matrice A non cambia dim(((A)) ma cambia invece lo spa-
zio vettoriale ((A). Analogamente, riducendo per colonne la matrice A non cambia
dim(1(A)) ma cambia 1(A). In particolare, si osservi che riducendo per colonne la
matrice completa di una sistema lineare non si ottiene un sistema lineare equivalente al
sistema lineare dato.
170 Spazi Vettoriali e Sottospazi Vettoriali
Esercizio 4.13 Calcolare il rango della matrice:
A =

1 2 1
1 1 0
1 2 4
1 1 1
3 1 2

,
riducendola per colonne; calcolare il rango di A riducendola per righe e osservare che si
ottiene lo stesso risultato ma la matrice ridotta per colonne ottenuta ` e diversa dalla matrice
ridotta per righe.
Esistono dei casi in cui le matrici ridotte per righe e per colonne a cui si perviene dalla
stessa matrice A coincidono?
Teorema 4.23 Teorema di Nullit` a pi ` u Rango Sia AX = O un sistema lineare
omogeneo con matrice dei coefcienti A R
m,n
, incognite X R
n,1
e con colonna dei
termini noti la matrice nulla O R
m,1
. Sia ^(A) il sottospazio vettoriale di R
n
delle
soluzioni del sistema lineare omogeneo (cfr. Es. 4.12) , allora:
rank(A) + dim(^(A)) = n.
Dimostrazione Segue dalla denizione di rango di una matrice e dalla risoluzione dei
sistemi lineari omogenei mediante il metodo di riduzione di Gauss. Si risolve, infatti, il
sistema lineare omogeneo AX = O riducendo per righe la matrice A. Supponendo che
rank(A) = k, non si perde in generalit` a (cfr. la dimostrazione del Teorema 2.13) se si
assume di pervenire al seguente sistema lineare omogeneo ridotto:

a
11
a
12
. . . . . . . . . a
1n
0 a
22
. . . . . . . . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0 a
kk
. . . a
kn
0 . . . 0 . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0 . . . 0 0

x
1
x
2
.
.
.
x
k
x
k+1
.
.
.
x
n

0
0
.
.
.
0
0
.
.
.
0

, a
ii
= 0, i = 1, 2, . . . , k.
Si ottengono cos` innite soluzioni che dipendono da n k incognite libere. Ponendo:

x
k+1
= t
1
x
k+2
= t
2
.
.
.
x
n
= t
nk
, t
1
, t
2
, . . . , t
nk
R
Capitolo 4 171
e sostituendo questi valori nella k-esima equazione si ha:
x
k
=
a
kk+1
a
kk
t
1
. . .
a
kn
a
kk
t
nk
e cos` via per tutte le altre incognite. Di conseguenza il nullspace ^(A) risulta essere:
^(A) = t
1
(b
11
, b
21
, . . . , b
k1
, 1, 0, . . . , 0)
+t
2
(b
12
, b
22
, . . . , b
k2
, 0, 1, . . . , 0)
+. . .
+t
nk
(b
1k1
, b
2k1
, . . . , b
kk1
, 0, 0, . . . , 1), t
1
, t
2
, . . . , t
nk
R,
dove i numeri reali b
ij
indicano i coefcienti ottenuti dalla risoluzione del sistema lineare
omogeneo, per esempio:
b
k1
=
a
kk+1
a
kk
.
Segue subito che dim(^(A)) = n k.
Anche se la dimostrazione del teorema precedente ` e ovvia, la sua importanza sar` a fon-
damentale nel resto del corso. La denominazione nullit` a deriva, come gi` a osservato in
precedenza, dalla traduzione del termine nullspace che indica in inglese il sottospazio
vettoriale ^(A).
La formulazione del Teorema di Nullit` a pi` u Rango appena presentato ` e quella classica,
che viene usata per le sue svariate applicazioni. In realt` a lenunciato completo del teorema
` e il seguente:
Teorema 4.24 Teorema di Nullit` a pi ` u Rango Sia AX = O un sistema lineare
omogeneo con matrice dei coefcienti A R
m,n
, incognite X R
n,1
e colonna dei
termini noti O R
m,1
. Siano 1(A) lo spazio vettoriale delle righe di A, ((A) lo spazio
vettoriale delle colonne di A e ^(A) il sottospazio vettoriale di R
n
delle soluzioni del
sistema lineare omogeneo, allora:
1(A) ^(A) = R
n
e, equivalentemente,
((A) ^(
t
A) = R
m
.
Dimostrazione Tenendo conto del Teorema 4.23 ` e sufciente dimostrare che:
1(A) ^(A) = o.
172 Spazi Vettoriali e Sottospazi Vettoriali
Per assurdo sia x = (x
1
, x
2
, . . . , x
n
) un elemento non nullo di 1(A) ^(A). Si suppon-
ga per esempio che x = R
1
+ 2R
2
, dove R
1
e R
2
sono le prime due righe della matrice
A. Lipotesi non ` e restrittiva, si lasciano al Lettore le varie generalizzazioni. Il vettore
x verica tutte le equazioni del sistema lineare AX = O, in particolare, verica anche
lequazione che si ottiene dalla somma della prima equazione del sistema lineare con il
doppio della seconda, se A = (a
ij
) e X = (x
i
) signica che:
(a
11
+ 2a
21
)x
1
+ (a
12
+ 2a
22
)x
2
+ . . . + (a
1n
+ 2a
2n
)x
n
= 0.
Sostituendo in tale equazione lespressione di x segue:
(a
11
+ 2a
21
)
2
+ (a
12
+ 2a
22
)
2
+ . . . + (a
1n
+ 2a
2n
)
2
= 0,
da cui x = o, che ` e assurdo. La seconda affermazione del Teorema si ottiene sostituendo
ad A la sua trasposta.
Osservazione 4.28
`
E fondamentale osservare che, anche se fosse possibile, come nel
caso delle matrici quadrate, il teorema precedente non vale se si invertono i ruoli di 1(A)
e di ((A). Nel Capitolo 6 si presenter` a un esempio di matrice in cui ((A) ^(A) (cfr.
Oss. 6.11).
Osservazione 4.29 Una delle applicazioni della denizione di rango di una matrice ` e la
possibilit` a di risolvere in modo pi` u agevole alcuni degli esercizi gi` a proposti. Sia, infatti,
B = (v
1
, v
2
, . . . , v
n
) una base di V e siano w
1
, w
2
, . . . , w
k
i generatori di un sottospazio
vettoriale J di V. Per trovare una base di J si pu` o procedere considerando la matrice
A R
k,n
che ha come vettori riga i vettori w
i
, i = 1, 2, . . . , k, scritti in componenti
rispetto alla base B. Riducendo la matrice A per righe, segue che i vettori riga non nulli,
della matrice ridotta per righe cos` ottenuta, costituiscono una base di J e la dimensione
di J coincide con il rango della matrice A. Attenzione al fatto che se si riduce la matrice
A per colonne i vettori riga della matrice ridotta per colonne non determinano pi` u una
base di J. Analogamente se J
1
e J
2
sono due sottospazi vettoriali di V di cui si
conoscono le componenti dei vettori delle loro basi, per determinare la dimensione e una
base di J
1
+J
2
si pu` o procedere scrivendo la matrice B che ha come vettori riga i vettori
delle basi di J
1
e di J
2
, scritti in componenti ripetto ad una base di V. Riducendo la
matrice B per righe si ha che il rango di B coincide con la dimensione di J
1
+ J
2
e i
vettori riga non nulli della matrice ridotta per righe che si ottiene costituiscono una base
di J
1
+J
2
.
Esercizio 4.14 Determinare una base del sottospazio vettoriale H di R
4
cos` denito:
H = L((1, 2, 0, 1), (2, 4, 1, 1), (0, 0, 1, 1), (1, 2, 4, 5), (1, 1, 0, 5)).
Capitolo 4 173
Soluzione Si riduce per righe la matrice A ottenuta ponendo in riga i generatori di H.
Si ha:
A =

1 2 0 1
2 4 1 1
0 0 1 1
1 2 4 5
1 1 0 5

R
2
R
2
2R
1
R
4
R
4
R
1
R
5
R
5
R
1

1 2 0 1
0 0 1 1
0 0 1 1
0 0 4 4
0 3 0 4

R
2
R
5

1 2 0 1
0 3 0 4
0 0 1 1
0 0 4 4
0 0 1 1

R
4
R
4
4R
3
R
5
R
5
+ R
3

1 2 0 1
0 3 0 4
0 0 1 1
0 0 0 0
0 0 0 0

,
da cui segue che rank(A) = 3, quindi dim(H) = 3 e una sua base ` e data dalle prime tre
righe della matrice ridotta per righe ottenuta da A, cio` e dai vettori:
z
1
= (1, 2, 0, 1), z
2
= (0, 3, 0, 4), z
3
= (0, 0, 1, 1).
Osservazione 4.30 Si consiglia di rifare gli esercizi precedentemente svolti usando il
metodo proposto in questo paragrafo (Esercizi 4.5, 4.6, 4.9, 4.10).
Esercizio 4.15 Dato il sottospazio vettoriale di R
4
:
/ = (x
1
, x
2
, x
3
, x
4
) R
4
[ x
1
x
2
= x
1
x
3
= 0,
determinare la dimensione e una base di H+/ e H/, dove H ` e il sottospazio vettoriale
denito nellEsercizio 4.14.
Soluzione Una base di / ` e data ad esempio da (w
1
, w
2
) con w
1
= (1, 1, 1, 0) e w
2
=
(0, 0, 0, 1). Per trovare la dimensione e una base di H+/, si riduce per righe la matrice
B ottenuta ponendo in riga i vettori z
1
, z
2
, z
3
, w
1
, w
2
:
B =

1 2 0 1
0 3 0 4
0 0 1 1
1 1 1 0
0 0 0 1

R
4
R
4
R
1

1 2 0 1
0 3 0 4
0 0 1 1
0 1 1 1
0 0 0 1

R
4
3R
4
R
2

1 2 0 1
0 3 0 4
0 0 1 1
0 0 3 7
0 0 0 1

R
4
R
4
3R
3

1 2 0 1
0 3 0 4
0 0 1 1
0 0 0 10
0 0 0 1

.
174 Spazi Vettoriali e Sottospazi Vettoriali
Si vede che il rango di B ` e 4, cio` e che H+ / = R
4
. Dalla Formula di Grassmann (cfr.
Teor. 4.18) si ha che dim(H/) = 3 +2 4 = 1. Per trovare una base di H/ si pu` o
procedere in questo modo. Un generico vettore di H / ` e della forma:

1
z
1
+
2
z
2
+
3
z
3
=
1
w
1
+
2
w
2
, (4.5)
con
1
,
2

3
,
1
,
2
R. Si deve perci` o risolvere il sistema lineare omogeneo nelle in-
cognite (
1
,
2
,
3
,
1
,
2
) associato alla precedente equazione con la riduzione per righe
della corrispondente matrice dei coefcienti:
C =

1 0 0 1 0
2 3 0 1 0
0 0 1 1 0
1 4 1 0 1

.
Si trovano innite soluzioni:

1
=
1
,
2
=
1
3

1
,
3
=
1
,
2
=
10
3

1

,
con
1
R. Sostituendo tali valori in (4.5) si ottiene che:

w
1
+
10
3
w
2

` e una base di H /.
Esercizio 4.16 In R
3
[x] si considerino i polinomi:
p
1
(x) = 1 + x
2
, p
2
(x) = x + x
3
, p
3
(x) = 2 + x + x
3
.
1. Vericare che linsieme 1 = p
1
(x), p
2
(x), p
3
(x) ` e libero.
2. Individuare una base di R
3
[x] contenente 1.
Soluzione 1. Sia B = (1, x, x
2
, x
3
) una base di R
3
[x]. Rispetto a B, i polinomi dati
hanno componenti:
p
1
(x) = (1, 0, 1, 0), p
2
(x) = (0, 1, 0, 1), p
3
(x) = (2, 1, 0, 1).
Si consideri la matrice A di R
3,4
avente come righe le componenti dei tre poli-
Capitolo 4 175
nomi e ne si calcoli il rango riducendola per righe:
A =

1 0 1 0
0 1 0 1
2 1 0 1


R
3
R
3
2R
1

1 0 1 0
0 1 0 1
0 1 2 1

R
3
R
3
R
2

1 0 1 0
0 1 0 1
0 0 2 0

.
Segue che rank(A) = 3 e, quindi, la tesi.
2. Per ottenere una base di R
3
[x] contenente 1 ` e sufciente aggiungere ai polinomi
dati un polinomio in modo che i quattro polinomi siano linearmente indipendenti.
Allora, ` e sufciente aggiungere allultima matrice ottenuta nel calcolo precedente
una riga in modo tale che la matrice quadrata di ordine 4 cos` ottenuta sia ridotta
per righe e abbia rango 4, precisamente si ha:

1 0 1 0
0 1 0 1
0 0 2 0
0 0 0 1

,
quindi un polinomio (ma non ` e lunico) che risolve lesercizio ` e x
3
.
4.3.4 Il cambiamento di base
In questo paragrafo si presenta il problema del cambiamento di base in uno spazio vetto-
riale reale qualsiasi V, estendendo a V lanalogo problema risolto nel caso dello spazio
vettoriale dei vettori ordinari V
3
nel Paragrafo 3.5.
Nello spazio vettoriale reale V, di dimensione n, si considerino due basi:
B = (v
1
, v
2
, . . . , v
n
), B

= (v

1
, v

2
, . . . , v

n
).
Si ponga:

1
= p
11
v
1
+ p
21
v
2
+ . . . + p
n1
v
n
,
v

2
= p
12
v
1
+ p
22
v
2
+ . . . + p
n2
v
n
,
.
.
.
v

n
= p
1n
v
1
+ p
2n
v
2
+ . . . + p
nn
v
n
.
(4.6)
La matrice:
P = M
B,B

= (p
ij
), i, j = 1, 2, . . . , n,
176 Spazi Vettoriali e Sottospazi Vettoriali
che ` e cos` determinata, prende il nome di matrice del cambiamento di base da B a B

,
come precisato nella notazione M
B,B

. P ` e ottenuta ponendo ordinatamente in colonna


le componenti dei vettori della base B

rispetto ai vettori della base B. La ragione della


scelta delle colonne ` e giusticata da una maggiore semplicit` a della formula nale (4.8)
che si ottiene. P ` e una matrice quadrata, ad elementi reali, di rango massimo (rank(P) =
n) e, quindi, per i Teoremi 2.16 e 2.8, P ` e invertibile e det(P) = 0. Le equazioni (4.6)
si possono scrivere, in notazione matriciale, come:

1
v

2
.
.
.
v

=
t
P

v
1
v
2
.
.
.
v
n

. (4.7)
Considerato un qualsiasi vettore x V, il problema del cambiamento di base consiste
nel determinare le relazioni che intercorrono tra le componenti di x rispetto alle due basi
introdotte. Si supponga, quindi, che:
x = x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
= x

1
v

1
+ x

2
v

2
+ . . . + x

n
v

n
,
vale a dire, in notazione matriciale:
x =

x
1
x
2
. . . x
n

v
1
v
2
.
.
.
v
n

1
x

2
. . . x

1
v

2
.
.
.
v

.
Sostituendo le equazioni (4.7) nelluguaglianza precedente e tenendo conto dellunicit` a
delle componenti di un vettore rispetto alla base B si perviene alle relazioni:

x
1
x
2
.
.
.
x
n

= P

1
x

2
.
.
.
x

che saranno spesso indicate come:


X = PX

, (4.8)
dove X e X

sono, rispettivamente, le matrici colonna delle componenti di x rispetto alla


base B e alla base B

. Tali relazioni prendono il nome di equazioni del cambiamento di


base da B a B

e risolvono il problema posto.


Capitolo 4 177
Osservazione 4.31 La matrice del cambiamento di base da B

a B ` e P
1
, in quanto le
equazioni del cambiamento di base, in questo caso, sono X

= P
1
X.
Esercizio 4.17 1. Vericare che:
B

1 2
2 1

2 1
1 3

4 1
1 5

` e una base di o(R


2,2
).
2. Trovare le componenti della matrice:
A =

4 11
11 7

rispetto alla base B

.
Soluzione 1. Sia:
B =

1 0
0 0

0 1
1 0

0 0
0 1

una base di o(R


2,2
). La matrice del cambiamento di base da B a B

, ottenuta
ponendo in colonna le componenti dei vettori di B

rispetto a B, ` e:
P =

1 2 4
2 1 1
1 3 5

.
Si verica che det(P) = 52, quindi i tre vettori dati formano, effettivamente,
una base di o(R
2,2
).
2. Le componenti richieste sono la soluzione del sistema lineare:

4
11
7

= P

1
x

2
x

,
ossia x

1
= 4, x

2
= 2, x

3
= 1.
178 Spazi Vettoriali e Sottospazi Vettoriali
4.3.5 Iperpiani vettoriali
Denizione 4.16 Sia V uno spazio vettoriale reale di dimensione n. Ogni sottospazio
vettoriale J di V tale che dim(J) = n1 prende il nome di iperpiano vettoriale di V.
Per denizione, quindi, un iperpiano vettoriale ` e generato da n 1 vettori linearmente
indipendenti di V.
Esempio 4.39 In R
4
liperpiano vettoriale J generato dai vettori:
a
1
= (1, 0, 1, 4), a
2
= (0, 1, 1, 2), a
3
= (0, 0, 3, 4)
` e il sottospazio vettoriale di R
4
:
J = (x
1
, x
2
, x
3
, x
4
) = k
1
a
1
+ k
2
a
2
+ k
3
a
3
, k
1
, k
2
, k
3
R
= (k
1
, k
2
, k
1
+ 3k
3
, 4k
1
+ 2k
2
+ 4k
3
) [ k
1
, k
2
, k
3
R.
Vale il seguente teorema.
Teorema 4.25 Sia B = (v
1
, v
2
, . . . , v
n
) una base di V e siano (x
1
, x
2
, . . . , x
n
) le com-
ponenti di un qualsiasi vettore x di V rispetto alla base B. Tutte e sole le equazioni
lineari omogenee in (x
1
, x
2
, . . . , x
n
) rappresentano, rispetto alla base B, gli iperpiani
vettoriali di V.
La dimostrazione ` e lasciata per esercizio.
Esempio 4.40 In R
4
, lequazione lineare omogenea:
x
1
+ x
2
+ 3x
3
+ 2x
4
= 0,
rispetto alla base canonica B = (e
1
, e
2
, e
3
, e
4
) di R
4
, individua liperpiano vettoriale
generato, ad esempio, dai vettori:
(1, 1, 0, 0), (3, 0, 1, 0), (2, 0, 0, 1).
Esercizio 4.18 Qual ` e lequazione delliperpiano vettoriale considerato nellEsempio 4.39
rispetto alla base canonica di R
4
?
Soluzione I vettori a
1
, a
2
, a
3
, x = (x
1
, x
2
, x
3
, x
4
) appartengono a J se e solo se sono
linearmente dipendenti, ossia se la matrice quadrata, di ordine 4, le cui righe sono le
componenti dei quattro vettori, ha determinante nullo. Lequazione richiesta ` e :

1 0 1 4
0 1 1 2
0 0 3 4
x
1
x
2
x
3
x
4

= 0.
La motivazione dellultimo passaggio ` e lasciata al Lettore.
Capitolo 4 179
Esempio 4.41 NellEsercizio 4.11 il sottospazio vettoriale J dei polinomi divisibili per
2 in R
3
[x] ` e un iperpiano vettoriale, la cui equazione lineare omogenea nelle componenti
(a
0
, a
1
, a
2
, a
3
) di un polinomio p(x) = a
0
+a
1
x+a
2
x
2
+a
3
x
3
R
3
[x] rispetto alla base
B = (1, x, x
2
, x
3
) ` e data da p(2) = a
0
+ 2a
1
+ 4a
2
+ 8a
3
= 0.
Esempio 4.42 In R
n,n
il sottospazio vettoriale:
J = A R
n,n
[ tr(A) = 0,
dove tr(A) indica la traccia della matrice A, ` e un iperpiano vettoriale di R
n,n
.
4.4 Esercizi di riepilogo svolti
Esercizio 4.19 In R
4
si considerino i vettori:
a
1
= (1, 1, 0, 0), a
2
= (0, 1, 0, 1), a
3
= (1, 3, 0, 2).
Posto c
1
= L(a
1
), c
2
= L(a
2
), c
3
= L(a
3
),
1. determinare i vettori che appartengono a H = c
1
+ c
2
+ c
3
e vericare che la
somma non ` e diretta.
2. Dimostrare che v = (2, 5, 0, 3) ` e un elemento di H e scrivere v in due modi diversi
come combinazione lineare di vettori di c
1
, c
2
, c
3
.
Soluzione 1. H =
1
a
1
+
2
a
2
+
3
a
3
[
1
,
2
,
3
R
= (
1
+
3
,
1
+
2
+ 3
3
, 0,
2
+ 2
3
) [
1
,
2
,
3
R.
Linsieme a
1
, a
2
, a
3
non ` e libero in quanto a
3
= a
1
+ 2a
2
. Quindi:
L(a
3
) = L(a
1
+ 2a
2
) L(a
1
) +L(a
2
),
cio` e c
3
c
1
+c
2
. H non ` e somma diretta di c
1
, c
2
, c
3
.
2. Per denizione il vettore v appartiene ad H se esistono
1
,
2
,
3
R tali che:

2 =
1
+
3
5 =
1
+
2
+ 3
3
3 =
2
+ 2
3
.
Risolvendo il sistema lineare si trova:

1
= 2 t,
2
= 3 2t,
3
= t, t R.
Ponendo, per esempio, t = 0 si ottiene v = 2a
1
+ 3a
2
, per t = 1 si ha:
v = a
1
+a
2
+a
3
.
180 Spazi Vettoriali e Sottospazi Vettoriali
Esercizio 4.20 Data la matrice:
A =

6 9
4 6

,
1. dimostrare che i sottoinsiemi:
T = X R
2,2
[ AX = XA, ( = X R
2,2
[ AX = XA
sono sottospazi vettoriali di R
2,2
e trovare una base per ciascuno di essi.
2. Determinare una base per i sottospazi vettoriali T ( e T +(.
3. Data la matrice:
C =

0 h 2
0 h 3

, h R,
stabilire per quale valore di h la matrice C appartiene al sottospazio vettoriale
T +(. Assegnato ad h tale valore, trovare due matrici C
1
T e C
2
( in modo
tale che C = C
1
+ C
2
.
Soluzione 1. Siano X
1
, X
2
matrici di R
2,2,
appartenenti a T, allora AX
1
= X
1
A e
AX
2
= X
2
A. T ` e un sottospazio vettoriale di R
2,2
se
1
X
1
+
2
X
2
T con

1
,
2
numeri reali qualsiasi, ossia se:
A(
1
X
1
+
2
X
2
) = (
1
X
1
+
2
X
2
)A.
La verica ` e un facile esercizio. In modo analogo si dimostra che ( ` e un sottospa-
zio vettoriale di R
2,2
. Per determinare la dimensione e una base sia di T sia di (
` e necessario scrivere esplicitamente le equazioni che li deniscono. Ponendo:
X =

x
1
x
2
x
3
x
4

,
la condizione AX = XA equivale al sistema lineare omogeneo:

4x
2
+ 9x
3
= 0
9x
1
+ 12x
2
9x
4
= 0
4x
1
12x
3
4x
4
= 0
4x
2
+ 9x
3
= 0,
le cui soluzioni sono:

3
1
+
2
,
9
4

1
,
1
,
2

,
1
,
2
R,
Capitolo 4 181
quindi dim(T) = 2 e una base di T ` e:
B =

12 9
4 0

1 0
0 1

.
Per determinare la dimensione e una base di ( si procede allo stesso modo, la
condizione AX = XA equivale al sistema lineare omogeneo:

12x
1
+ 4x
2
9x
3
= 0
9x
1
+ 9x
4
= 0
4x
1
+ 4x
4
= 0
4x
2
9x
3
12x
4
= 0,
le cui soluzioni sono:

1
, 3
1
+
9
4

2
,
2
,
1

,
1
,
2
R,
quindi dim(() = 2 e una base di ( ` e:
( =

1 3
0 1

0 9
4 0

.
2. Conviene, in generale, iniziare con il calcolo della somma dei due sottospazi vetto-
riali. Riducendo per righe la matrice quadrata di ordine 4 che si ottiene ponendo in
riga le componenti dei vettori di B e di ( si ha che il rango di tale matrice ` e 3 e che
una base di T +( ` e:
T =

1 0
0 1

0 3
0 2

0 0
4 6

.
Dalla formula di Grassmann segue che dim(T () = 1. Una generica matrice
appartenente a tale intersezione si deve poter scrivere come:

12 9
4 0

+
2

1 0
0 1

=
1

1 3
0 1

+
2

0 9
4 0

(4.9)
per qualche valore di
1
,
2
,
1
,
2
R. Il sistema lineare omogeneo che ne
deriva ha innite soluzioni date da:

1
=
1
6

1
,
2
=
1

,
1
R.
Sostituendo questo risultato a primo membro di (4.9) si ottiene:
T ( = L

6 9
4 6

.
182 Spazi Vettoriali e Sottospazi Vettoriali
3. La matrice C appartiene a T + ( se la matrice quadrata di ordine 4 le cui righe
sono date dalle componenti di C e dalle componenti degli elementi della base T
ha determinante uguale a zero, ossia:

1 0 0 1
0 3 0 2
0 0 4 6
0 h 2 0 h 3

= 0,
da cui segue h = 5. La matrice C ` e dunque:
C =

0 3
0 2

e si decompone nella somma di innite coppie di matrici C


1
T e C
2
( nel
modo seguente:
C = C
1
+ C
2
=

12 9
4 0

+
2

1 0
0 1

1 3
0 1

+
2

0 9
4 0

,
con
1
,
2
,
1
,
2
R. Il sistema lineare che segue da tale scrittura ammette innite
soluzioni che dipendono da unincognita libera (essendo dim(T () = 1), la
soluzione di questo sistema lineare e la conseguente determinazione di C
1
e di C
2
sono lasciate per esercizio.
4.5 Per saperne di pi ` u
In questo paragrafo sono inseriti alcuni esercizi che possono essere omessi ad una prima
lettura. Si propone anche la dimostrazione di qualche teorema citato nei paragra pre-
cedenti. Di grande importanza, invece, la parte nale del paragrafo, che ` e in generale
oggetto di corsi pi` u avanzati di algebra lineare, dove vengono introdotti alcuni esempi di
spazi vettoriali complessi. Si studia lo spazio vettoriale C
n,n
delle matrici quadrate ad
elementi nel campo complesso e si introducono due suoi sottospazi vettoriali reali: quel-
lo delle matrici hermitiane e quello delle matrici antihermitiane che sono lanalogo, in
campo complesso, degli spazi vettoriali delle matrici simmetriche e antisimmetriche.
Esercizio 4.21 1. Vericare che il campo dei numeri reali R dotato delle seguenti
operazioni:
Capitolo 4 183
x y =
3

x
3
+ y
3
,
x =
3

x, R, x, y R,
` e uno spazio vettoriale di dimensione 1 su R stesso.
2. Vericare se tale propriet` a ` e ancora valida nel caso delle operazioni:
x y =
3

x
3
+ y
3
,
x =

x, R, x, y R.
Soluzione 1. Si verica facilmente che (R, ) ` e un gruppo abeliano, con 0 elemento
neutro e x opposto di x R. Anche la verica delle quattro propriet` a del
prodotto per scalari ` e semplice. Inoltre R = L(1), in quanto ogni x R si pu` o
scrivere come x
3
1.
2. La denizione di prodotto per scalari x non verica, per esempio, la seguente
propriet` a:
( + ) x = ( x) ( x),
infatti:
( + ) x =

+ x,
mentre:
( x) ( x) =

x =
3

)
3
x
3
+ (

)
3
x
3
=
3

)
3
+ (

)
3
x.
Esercizio 4.22 Si verichi che lo spazio vettoriale T(R) delle funzioni reali di variabile
reale descritto nellEsempio 4.5 non ` e nitamente generato.
Soluzione Sia o un sottoinsieme nito di R e si indichi con T(o, R) lo spazio vetto-
riale delle funzioni f : o R costruito in modo analogo allEsempio 4.5. Tale spazio
vettoriale ` e nitamente generato, infatti una sua base ` e data dallinsieme delle funzioni
caratteristiche di o:
A =
s
T(o, R) [ s o,
dove:

s
(t) =

1, t = s,
0, t = s.
184 Spazi Vettoriali e Sottospazi Vettoriali
A genera T(o, R), infatti per ogni f T(o, R), f =
sS
f(s)
s
. Si controlla fa-
cilmente che A ` e un insieme libero.
`
E evidente che con questo tipo di ragionamento si
perviene ad un sistema di generatori di T(R) formato da inniti elementi.
Esercizio 4.23 Dimostrare il Teorema 4.1 di seguito riportato.
In V, spazio vettoriale reale, si ha:
1. il vettore nullo o ` e unico;
2. per ogni vettore x V, lopposto x ` e unico;
3. se x +y = x +z, allora y = z, per ogni x, y, z V ;
4. x = o = 0, oppure x = o, con R e x V ;
5. (1)x = x, per ogni x V.
Soluzione 1. Per assurdo, siano o e o

due vettori nulli, o = o

. Allora o = o +o

essendo o

il vettore nullo, ma anche o +o

= o

essendo o il vettore nullo, da


cui la tesi.
2. Per assurdo, siano x
1
e x
2
due opposti di x, con x
1
= x
2
, allora:
(x +x
1
) +x
2
= o +x
2
= x
2
,
ma anche:
(x +x
1
) +x
2
= x + (x
1
+x
2
) = x + (x
2
+x
1
) = (x +x
2
) +x
1
= x
1
,
da cui lassurdo.
3. Segue in modo evidente dalla propriet` a precedente, infatti da x +y = x +z si ha:
x +y x = x +z x da cui la tesi.
4. Si inizia con il dimostrare che 0 x = o e che o = o. Si ha:
0 x = (0 + 0)x = 0 x + 0 x,
applicando la propriet` a precedente si ha 0 x = o. Analogamente:
o = (o +o) = o + o,
da cui o = o. Viceversa si dimostra che se x=o, allora, necessariamente =0
oppure (non esclusivo) x = o. Nel punto precedente ` e stato provato che 0 x = o,
Capitolo 4 185
supposto, quindi, = 0, si prova che da x = o segue necessariamente x = o. Se
= 0, allora esiste il suo inverso
1
. Da:
o =
1
o =
1
(x) = (
1
)x = 1x
segue la tesi.
5. La tesi consiste nel provare che x + (1)x = o, infatti:
1x + (1)x = (1 1)x = 0 x = o.
Esercizio 4.24 Dimostrare la Formula di Grassmann 4.18 di seguito riportata.
Siano J
1
e J
2
sottospazi vettoriali di uno spazio vettoriale reale V, allora:
dim(J
1
+J
2
) = dim(J
1
) + dim(J
2
) dim(J
1
J
2
).
Soluzione Siano dim(V ) = n, dim(J
1
) = l, dim(J
2
) = p, con l, p n. Si ponga
dim(J
1
J
2
) = k, dove k l, p. Si lasciano per esercizio i casi particolari k = l e
k = p e si tratta solo il caso di k < l e k < p.
Sia B = (a
1
, a
2
, . . . , a
k
) una base di J
1
J
2
. B ` e, quindi, un insieme libero sia in J
1
sia in J
2
. Dal Teorema 4.15 segue che si possono costruire una base:
( = (a
1
, . . . , a
k
, b
k+1
, . . . , b
l
)
di J
1
e una base:
T = (a
1
, . . . , a
k
, c
k+1
, . . . , c
p
)
di J
2
. La tesi consiste, allora, nel dimostrare che:
c = (a
1
, . . . , a
k
, b
k+1
, . . . , b
l
, c
k+1
, . . . , c
p
)
` e una base di J
1
+ J
2
. Per costruzione c ` e un sistema di generatori di J
1
+ J
2
.
Si deve quindi provare che ` e libero. A tale scopo si consideri la combinazione lineare a
coefcienti reali:

1
a
1
+ . . . +
k
a
k
+
k+1
b
k+1
+ . . . +
l
b
l
+
k+1
c
k+1
+ . . . +
p
c
p
= o, (4.10)
con
1
, . . . ,
k
,
k+1
, . . . ,
l
,
k+1
, . . . ,
p
R. Sia:
c =
k+1
c
k+1
. . .
p
c
p
. (4.11)
186 Spazi Vettoriali e Sottospazi Vettoriali
Per denizione c J
2
, da (4.10) segue che c =
1
a
1
+. . .+
k
a
k
+
k+1
b
k+1
+. . .+
l
b
l
,
quindi c J
1
, pertanto c J
1
J
2
. Allora esistono opportuni coefcienti reali

i
, i = 1, 2, . . . , k, tali che c =
1
a
1
+ . . . +
k
a
k
. Da (4.11) si ottiene:

1
a
1
+ . . . +
k
a
k
+
k+1
c
k+1
+ . . . +
p
c
p
= o, (4.12)
ma i vettori che compaiono in (4.12) sono i vettori della base T, pertanto sono linearmente
indipendenti, da cui segue, tra laltro, che
k+1
= . . . =
p
= 0. Sostituendo in (4.10) e
ricordando che la combinazione lineare rimasta ` e formata dai vettori della base (, si ha
la tesi.
Esercizio 4.25 Dimostrare il Lemma di Steinitz 4.12 di seguito riportato.
Sia B = (v
1
, v
2
, . . . , v
n
) una base di uno spazio vettoriale V e sia 1 = u
1
, u
2
, . . . , u
p

un insieme libero di V, allora p n.


Soluzione Siano (
1
,
2
, . . . ,
n
) le componenti di u
1
rispetto alla base B. Poich e 1 ` e
un insieme libero, u
1
= o, pertanto almeno una componente tra
i
, i = 1, 2, . . . , n, non
` e nulla; si supponga che sia
1
= 0 (in caso contrario si riordinano i vettori di B in modo
da porre al primo posto un coefciente non nullo). Dalla relazione:
u
1
=
1
v
1
+
2
v
2
+ . . . +
n
v
n
(4.13)
si ricava:
v
1
=
1
1
u
1

1
1

2
v
2
. . .
1
1

n
v
n
.
In altri termini v
1
L(u
1
,v
2
, . . . ,v
n
). Si vuole dimostrare che linsieme u
1
,v
2
,. . . ,v
n

` e una base di V. Si inizia con il provare che si tratta di un sistema di generatori di V. Da


(4.13) segue che, per ogni x V, si ha:
x = x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
= x
1
(
1
1
u
1

1
1

2
v
2
. . .
1
1

n
v
n
) + x
2
v
2
+ . . . + x
n
v
n
=
1
u
1
+
2
v
2
+ . . . +
n
v
n
da cui la tesi. Linsieme v
2
, v
3
, . . . , v
n
` e libero essendo un sottoinsieme non vuoto
di B (cfr. Es. 4.33). Il vettore u
1
non appartiene a L(v
2
, v
3
, . . . , v
n
), quindi linsieme
u
1
, v
2
, . . . , v
n
` e libero (cfr. Lemma 4.1). Si osservi che, a questo punto, partendo dalla
base B, si ` e ottenuta una nuova base B
1
= (u
1
, v
2
, . . . , v
n
) in cui si ` e sostituito al primo
vettore di B il primo vettore di 1. Si itera questo procedimento, passando a considerare
il vettore u
2
e lo si esprime come combinazione lineare dei vettori di B
1
. Si ha:
u
2
=
1
u
1
+
2
v
2
+ . . . +
n
v
n
.
Capitolo 4 187
Di nuovo, essendo u
2
non nullo, esiste almeno una sua componente tra
i
non nulla. Non
pu` o succedere che sia
1
= 0 e gli altri
i
= 0, i = 2, . . . , n, perch e i vettori u
1
, u
2
sono linearmente indipendenti, pertanto si pu` o supporre
2
= 0. Si ricava v
2
in funzione
dei vettori rimanenti e si dimostra che B
2
= (u
1
, u
2
, v
3
, . . . , v
n
) ` e una base di V in
modo analogo al caso precedente. Si procede di nuovo con un terzo vettore, questo tipo
di ragionamento ` e autorizzato dal fatto che B e 1 sono insiemi niti. Il procedimento
descritto si pu` o arrestare solo per due motivi:
a. si sono esauriti tutti i vettori di 1 e pertanto sono stati inseriti i vettori di 1 allin-
terno di B, da cui segue la tesi;
b. si sono esauriti prima i vettori di B e rimangono ancora dei vettori in 1, segue che
1 contiene una base di V che ` e assurdo, essendo 1 libero.
4.5.1 Equazioni vettoriali e teorema del rango
Denizione 4.17 Dati i vettori a
1
, a
2
, . . . , a
m
, b di uno spazio vettoriale reale V, la
relazione:
x
1
a
1
+ x
2
a
2
+ . . . x
m
a
m
= b (4.14)
` e unequazione vettoriale nellincognita (x
1
, x
2
, . . . , x
m
) R
m
.
Denizione 4.18 Una soluzione dellequazione vettoriale (4.14) ` e una mupla:
(x
0
1
, x
0
2
, . . . , x
0
m
) R
m
che sostituita in (4.14) la verica.
Esempio 4.43 Nei capitoli precedenti si sono incontrate pi ` u volte equazioni vettoriali,
per esempio la denizione di vettori linearmente indipendenti fa uso di unequazione
vettoriale di cui si chiede che ammetta solo la soluzione nulla.
Lesempio precedente impone la seguente:
Denizione 4.19 Lequazione vettoriale (4.14) si dice omogenea se b = o e o ` e il vettore
nullo di V.
Osservazione 4.32
`
E chiaro che unequazione vettoriale omogenea ammette la soluzione
nulla (0, 0, . . . , 0). Lequazione vettoriale (4.14) ammette solo la soluzione nulla se e solo
se i vettori a
1
, a
2
, . . . , a
k
sono linearmente indipendenti, ovviamente supponendo a priori
che siano tutti diversi dal vettore nullo.
188 Spazi Vettoriali e Sottospazi Vettoriali
Il teorema che segue determina le condizioni afnch e unequazione vettoriale ammetta
soluzioni e propone anche il metodo per determinarle.
Teorema 4.26 Teorema di Rouch eCapelli Lequazione vettoriale (4.14) ammette
soluzioni se e solo se:
dim(L(a
1
, a
2
, . . . , a
m
)) = dim(L(a
1
, a
2
, . . . , a
m
, b)).
Dimostrazione Innanzi tutto si osservi che L(a
1
, a
2
, . . . , a
m
) L(a
1
, a
2
, . . . , a
m
, b)
e, se dim(L(a
1
, a
2
, . . . , a
m
)) = k, allora k dim(L(a
1
, a
2
, . . . , a
m
, b)) k + 1.
Si supponga che lequazione (4.14) ammetta soluzioni, si deve dimostrare che:
L(a
1
, a
2
, . . . , a
m
, b) L(a
1
, a
2
, . . . , a
m
).
Ma, per ipotesi, esiste una mupla di numeri reali (x
0
1
, x
0
2
, . . . , x
0
m
) tale che:
x
0
1
a
1
+ x
0
2
a
2
+ . . . x
0
m
a
m
= b,
da cui segue la tesi, (cfr. Teor. 4.8).
Viceversa, si supponga che dim(L(a
1
, a
2
, . . . , a
m
)) = dim(L(a
1
, a
2
, . . . , a
m
, b)). Con-
viene distinguere due casi e analizzarli separatamente:
a. dim(L(a
1
, a
2
, . . . , a
m
)) = dim(L(a
1
, a
2
, . . . , a
m
, b)) = m;
b. dim(L(a
1
, a
2
, . . . , a
m
)) = dim(L(a
1
, a
2
, . . . , a
m
, b)) = k < m.
a. Se dim(L(a
1
, a
2
, . . . , a
m
)) = dim(L(a
1
, a
2
, . . . , a
m
, b)) = m, i vettori a
1
, a
2
, . . . ,
a
m
costituiscono una base sia di L(a
1
, a
2
, . . . , a
m
) sia di L(a
1
, a
2
, . . . , a
m
, b), al-
lora il vettore b si esprime, in modo unico, come combinazione lineare dei vettori
a
1
, a
2
, . . . , a
m
e, quindi, lequazione (4.14) ammette una sola soluzione data dalle
componenti di b rispetto alla base (a
1
, a
2
, . . . , a
m
).
b. Dal Teorema 4.11 segue che esistono k vettori tra a
1
, a
2
, . . . , a
m
che formano una
base di L(a
1
, a
2
, . . . , a
m
). Si supponga che siano i primi k (in caso contrario si rior-
dinano i vettori in modo da ottenere questo risultato), quindi L(a
1
, a
2
, . . . , a
k
) =
L(a
1
, a
2
, . . . , a
m
), ma per ipotesi si ha anche che:
L(a
1
, a
2
, . . . , a
k
) = L(a
1
, a
2
, . . . , a
m
, b).
Segue che esistono k scalari x
0
1
, x
0
2
, . . . , x
0
k
tali che:
b = x
0
1
a
1
+ x
0
2
a
2
+ . . . + x
0
k
a
k
.
Capitolo 4 189
Il teorema ` e dimostrato perch e la mupla (x
0
1
, x
0
2
, . . . , x
0
k
, 0, . . . , 0) R
m
` e una
soluzione dellequazione vettoriale (4.14). In questo caso, esistono innite solu-
zioni che dipendono da m k incognite libere, infatti scelti ad arbitrio gli scalari

k+1
, . . . ,
m
, il vettore b
k+1
a
k+1
. . .
m
a
m
appartiene a L(a
1
, a
2
, . . . , a
k
)
pertanto:
b = x
0
1
a
1
+ x
0
2
a
2
+ . . . + x
0
k
a
k
+
k+1
a
k+1
+ . . . +
m
a
m
da cui segue la tesi.
Osservazione 4.33 Il Lettore verichi per esercizio (usando la denizione di rango di una
matrice) che il Teorema di Rouch eCapelli appena dimostrato coincide con il Teorema di
Rouch eCapelli 1.2 enunciato nel Paragrafo 1.2.
Esercizio 4.26 Dimostrare il Teorema del Rango 4.19, di seguito riportato.
Per ogni matrice A R
m,n
si ha:
dim(1(A)) = dim(((A)).
Soluzione Sia:
A =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn

R
m,n
.
1(A) = L(R
1
, R
2
, . . . , R
m
) R
n
` e lo spazio vettoriale delle righe di A, dove:
R
1
= (a
11
, a
12
, . . . , a
1n
)
R
2
= (a
21
, a
22
, . . . , a
2n
)
.
.
.
R
m
= (a
m1
, a
m2
, . . . , a
mn
).
((A) = L(C
1
, C
2
, . . . , C
n
) R
m
` e lo spazio vettoriale delle colonne di A, dove:
C
1
= (a
11
, a
21
, . . . , a
m1
)
C
2
= (a
12
, a
22
, . . . , a
m2
)
.
.
.
C
n
= (a
1n
, a
2n
, . . . , a
mn
).
190 Spazi Vettoriali e Sottospazi Vettoriali
Siano k = dim(((A)) e h = dim(1(A)). La tesi si ottiene dimostrando che k h,
infatti, per la disuguaglianza opposta ` e sufciente considerare
t
A, per cui si ha 1(A) =
((
t
A) e ((A) = 1(
t
A), applicando il fatto che k h a
t
A segue h k.
Si consideri il sistema lineare omogeneo AX = O avente A come matrice dei coefcien-
ti, O R
m,1
matrice nulla dei termini noti e
X =

x
1
x
2
.
.
.
x
n

R
n,1
matrice delle incognite. Dalla sua scrittura esplicita:

a
11
x
1
+ a
12
x
2
+ . . . + a
1n
x
n
= 0
a
21
x
1
+ a
22
x
2
+ . . . + a
2n
x
n
= 0
.
.
.
a
m1
x
1
+ a
m2
x
2
+ . . . + a
mn
x
n
= 0
(4.15)
si deduce che esso ` e equivalente allequazione vettoriale:
x
1
C
1
+ x
2
C
2
+ . . . + x
n
C
n
= o,
(o R
m
) le cui soluzioni dipendono da k vettori di ((A) linearmente indipendenti, dove
k = dim(((A)), (cfr. Teor. 4.26). Essendo h = dim(1(A)), si supponga che le prime
h righe di A siano linearmente indipendenti, questa non ` e unipotesi restrittiva perch e
in caso contrario si pu` o effettuare un cambiamento dellordine in cui sono considerate le
righe. Si supponga, quindi, che linsieme R
1
, R
2
, . . . , R
h
sia libero. Dalla Denizione
1.6 e dal Teorema 1.1 segue che il sistema lineare (4.15) ` e equivalente al sistema lineare
omogeneo:

a
11
x
1
+ a
12
x
2
+ . . . + a
1n
x
n
= 0
a
21
x
1
+ a
22
x
2
+ . . . + a
2n
x
n
= 0
.
.
.
a
h1
x
1
+ a
h2
x
2
+ . . . + a
hn
x
n
= 0
(4.16)
che ` e, a sua volta, equivalente allequazione vettoriale:
x
1
a
1
+ x
2
a
2
+ . . . + x
n
a
n
= o,
dove:
Capitolo 4 191
a
1
= (a
11
, a
21
, . . . , a
h1
)
a
2
= (a
12
, a
22
, . . . , a
h2
)
.
.
.
a
n
= (a
1n
, a
2n
, . . . , a
hn
).
Dal fatto che i sistemi lineari (4.15) e (4.16) sono equivalenti segue:
dim(L(a
1
, a
2
, . . . , a
n
)) = dim(((A)) = k
ma L(a
1
, a
2
, . . . , a
n
) R
h
, da cui la tesi.
Esercizio 4.27 Dimostrare il Teorema 2.4, di seguito riportato.
Siano A
1
, A
2
, . . . , A
n
matrici moltiplicabili tra di loro, allora:
rank(A
1
A
2
A
n
) minrank(A
1
), rank(A
2
), . . . , rank(A
n
).
Soluzione Si inizia con il dimostrare il teorema nel caso n = 2.
`
E un esercizio osser-
vare che le colonne della matrice prodotto A
1
A
2
sono combinazione lineare delle colonne
della matrice A
1
e che le righe della matrice prodotto A
1
A
2
sono combinazione lineare
delle righe della matrice A
2
. Per semplicit` a e per capire meglio quanto appena osservato
si considera il caso del prodotto di due matrici quadrate di ordine 2:
A
1
A
2
=

a
1
a
2
a
3
a
4

b
1
b
2
b
3
b
4

a
1
b
1
+ a
2
b
3
a
1
b
2
+ a
2
b
4
a
3
b
1
+ a
4
b
3
a
3
b
2
+ a
4
b
4

b
1

a
1
a
3

+ b
3

a
2
a
4

b
2

a
1
a
3

+ b
4

a
2
a
4

=

a
1

b
1
b
2

+ a
2

b
3
b
4

a
3

b
1
b
2

+ a
4

b
3
b
4

.
Di conseguenza si ha:
((A
1
A
2
) ((A
1
), 1(A
1
A
2
) 1(A
2
)
192 Spazi Vettoriali e Sottospazi Vettoriali
e, quindi:
rank(A
1
A
2
) rank(A
1
), rank(A
1
A
2
) rank(A
2
)
da cui la tesi. Il caso del prodotto di n matrici si ottiene iterando il risultato appena
ottenuto.
Esercizio 4.28 Discutere, al variare di h R, le soluzioni della seguente equazione
vettoriale di R
4
:
x
1
a
1
+ x
2
a
2
+ x
3
a
3
= b,
dove:
a
1
= (2, 1, 0, 4), a
2
= (3, 2, 4, h), a
3
= (5, 3, h, 1), b = (14, 8, h, 1).
Soluzione
`
E sufciente trasformare lequazione vettoriale assegnata nel sistema linea-
re ad essa equivalente e risolvere questultimo applicando i metodi descritti nel Capitolo
1. Si ha:
se h / 2, 14, non esistono soluzioni;
se h = 2 o h = 14, la soluzione ` e

x
1
=
8 + 3h
4 + h
, x
2
=
h
4 + h
, x
3
=
8 + h
4 + h

.
Se si vuole, invece usare il Teorema 4.26 si pu` o procedere confrontando L(a
1
, a
2
, a
3
) e
L(a
1
, a
2
, a
3
, b). Per L(a
1
, a
2
, a
3
) si ha:

2 1 0 4
3 2 4 h
5 3 h 1

R
2
2R
2
+ 3R
1
R
3
2R
3
5R
1

2 1 0 4
0 1 8 12 + 2h
0 1 2h 22

R
3
R
3
+ R
2

2 1 0 4
0 1 8 12 + 2h
0 0 8 + 2h 10 + 2h

.
Quindi dim(L(a
1
, a
2
, a
3
)) = 3 per ogni valore di h. Per L(a
1
, a
2
, a
3
, b) si ha:

2 1 0 4
3 2 4 h
5 3 h 1
14 8 h 1

= h
2
12h 28,
per cui dim(L(a
1
, a
2
, a
3
, b)) = 3 se e solo se h = 2 o h = 14. Pertanto lequazione
vettoriale data ` e compatibile solo se h = 2 o h = 14. Sostituendo tali valori nei vettori
dati si ottengono le soluzioni cercate.
Capitolo 4 193
4.5.2 Equivalenza tra le due denizioni di rango di una matrice
In questo paragrafo si intende dimostrare lequivalenza tra la denizione di rango (cfr.
Def. 4.14) inteso come dimensione dello spazio vettoriale delle righe o delle colonne
della matrice e la denizione di rango di una matrice (cfr. Def. 2.13) data tramite luso
dei minori. A questo proposito si ricordano i fatti seguenti.
Sia A una matrice quadrata di ordine n. Come conseguenza della Denizione 4.14 di
rango di A come la dimensione dello spazio vettoriale delle righe 1(A) (o dello spazio
vettoriale delle colonne ((A)) e del Teorema di Nullit` a pi` u Rango (cfr. Teor. 4.24) si ha
lequivalenza tra le seguenti condizioni:
a. rank(A) < n;
b. i vettori riga di A sono linearmente dipendenti;
c. i vettori colonna di A sono linearmente dipendenti;
d. il sistema lineare omogeneo AX = O ha soluzioni non nulle;
e. det(A) = 0.
In generale nel caso di una matrice A R
m,n
, non necessariamente quadrata, si pu` o
provare il seguente teorema.
Teorema 4.27 Sia A R
m,n
, le condizioni seguenti sono equivalenti:
1. rank(A) = r;
2. la matrice A ha almeno un minore non nullo di ordine r e tutti i minori di ordine
r + 1 sono uguali a zero;
3. la matrice A ha almeno un minore non nullo di ordine r e tutti i minori di ordine
p > r sono nulli.
Dimostrazione Per dimostrare lequivalenza delle tre affermazioni si proveranno le
seguenti implicazioni:
1. = 2. = 3. = 1.
Innanzitutto, si osservi che se la matrice A ha un minore non nullo di ordine k allora
le k righe corrispondenti a quelle del minore non nullo sono linearmente indipendenti.
Per dimostrare limplicazione 1. = 2. si supponga quindi che rank(A) = r. Sia B la
sottomatrice quadrata di A ottenuta intersecando r righe linearmente indipendenti di A
194 Spazi Vettoriali e Sottospazi Vettoriali
con r colonne linearmente indipendenti di A. Allora si ha rank(B) = dim(1(B)) = r
e pertanto det(B) = 0, ovvero la matrice A ha un minore non nullo di ordine r. Daltra
parte ogni minore di A di ordine r + 1 ha i vettori riga linearmente dipendenti e quindi ` e
nullo per lequivalenza tra le condizioni b) e e). Infatti, se esistesse un minore di ordine
r + 1 diverso da zero, allora la matrice A avrebbe rango r + 1, in quanto avrebbe r + 1
righe linearmente indipendenti.
Limplicazione 2. =3. ` e una semplice conseguenza del Primo Teorema di Laplace (cfr.
Teor. 2.17).
Per dimostrare limplicazione 3. = 1. si supponga quindi che A abbia un minore
non nullo di ordine r e che tutti i minori di ordine p > r siano nulli. Le righe corri-
spondenti ad un minore non nullo di A sono pertanto linearmente indipendenti e quindi
dim(R(A)) r, ovvero rank(A) r. Se fosse rank(A) > r si avrebbe una riga linear-
mente indipendente con le righe di A corrispondenti a quelle del minore non nullo, allora
si avrebbe una sottomatrice C R
r+1,n
di rango r + 1. Per limplicazione 1. = 2. si
potrebbe allora estrarre dalla sottomatrice C (e quindi dalla matrice A) un minore non
nullo di ordine p > r, ma questo sarebbe assurdo.
Lequivalenza tra le due denizioni di rango (cfr. Def. 4.14 e Def. 2.13) ` e quindi una
semplice conseguenza del teorema precedente.
4.5.3 Spazi vettoriali complessi,
matrici hermitiane e antihermitiane
Come gi` a visto nellOsservazione 4.1, si pu` o denire uno spazio vettoriale complesso,
ossia uno spazio vettoriale su C. Analogamente al caso degli spazi vettoriali reali anche
nel caso degli spazi vettoriali complessi si possono introdurre i concetti di sottospazio
vettoriale, somma e intersezione di sottospazi vettoriali, generatori, vettori linearmente
dipendenti e indipendenti, basi e dimensione.
Linsieme dei numeri complessi C, con le usuali operazioni di somma e prodotto di nume-
ri complessi, ` e lesempio pi` u semplice di spazio vettoriale complesso, ma C pu` o essere
anche visto come spazio vettoriale reale. Come spazio vettoriale complesso C ha di-
mensione 1 ed una sua base ` e data da (1), mentre come spazio vettoriale reale C ha
dimensione 2 ed una sua base ` e ad esempio (1, i) (cfr. Es. 4.24).
Analogamente al caso reale, si hanno i due esempi fondamentali seguenti di spazi vetto-
riali complessi (cfr. Es. 4.3 e 4.2).
Esempio 4.44 Linsieme:
C
n
= (x
1
, x
2
, . . . , x
n
) [ x
j
C, j = 1, 2, . . . , n
Capitolo 4 195
` e uno spazio vettoriale complesso. La somma di due n-uple di C
n
` e denita come:
(x
1
, x
2
, . . . , x
n
) + (y
1
, y
2
, . . . , y
n
) = (x
1
+ y
1
, x
2
+ y
2
, . . . , x
n
+ y
n
).
Il vettore nullo di C
n
` e la n-upla (0, 0,. . ., 0) e lopposto del vettore (x
1
, x
2
,. . ., x
n
) ` e il
vettore (x
1
, x
2
,. . .,x
n
). Il prodotto di un numero complesso per un elemento di
C
n
` e denito da:
(x
1
, x
2
, . . . , x
n
) = (x
1
, x
2
, . . . , x
n
).
C
n
, come spazio vettoriale complesso, ha dimensione n e gli n vettori:
e
1
= (1, 0, . . . , , 0), e
2
= (0, 1, 0, . . . , 0), . . . , e
n
= (0, 0, . . . , 1)
formano una base, detta base canonica o standard di C
n
.
Esempio 4.45 Pi ` u in generale, se si indica con C
m,n
linsieme delle matrici con m righe
e n colonne ad elementi in C e si introducono le operazioni di somma di due matrici e di
prodotto per un numero complesso di una matrice come nel caso reale, ` e facile vericare
che C
m,n
` e uno spazio vettoriale complesso. Il vettore nullo di C
m,n
` e la matrice nulla.
Lo spazio vettoriale C
m,n
, come spazio vettoriale complesso, ha dimensione mn ed una
sua base ` e data dalle mn matrici E
ij
aventi tutti gli elementi uguali a zero ad eccezione
di quello di posto ij che vale 1. Tale base ` e chiamata la base canonica di C
m,n
.
Esercizio 4.29 Determinare una base e la dimensione di C
m,n
, pensato come spazio
vettoriale reale.
Soluzione Ogni matrice Z = (z
hk
) ad elementi complessi si pu` o scrivere come somma
di due matrici reali A = (a
hk
) e B = (b
hk
) dello stesso ordine:
Z = A + iB
ottenute, in modo naturale, dalla scrittura di ogni elemento Z come z
hk
= a
hk
+ ib
hk
.
`
E evidente, quindi, che, come spazio vettoriale su R, dimC
m,n
= 2mn. Si lascia per
esercizio la determinazione di una sua base.
Se A C
m,n
, si indichi con A la matrice coniugata di A, ossia la matrice che ha come
elementi i coniugati degli elementi di A. Se A R
m,n
, cio` e se A ` e reale, ovviamen-
te A = A. Per la coniugata di una matrice valgono ovvie propriet` a che sono facile
conseguenza delloperazione di coniugio sui numeri complessi, e precisamente:
1. A + B = A + B, A, B C
m,n
;
2. A = A, C, A C
m,n
;
196 Spazi Vettoriali e Sottospazi Vettoriali
3. AB = A B, A C
m,n
, B C
n,k
;
4.
t
A =
t
A, A C
m,n
;
5. det(A) = det(A), A C
n,n
.
Si introducono ora due sottoinsiemi dello spazio vettoriale C
n,n
delle matrici quadrate
complesse, che sono lanalogo, nel caso di R
n,n
, del sottospazio vettoriale delle matrici
simmetriche o(R
n,n
) e di quello delle matrici antisimmetriche /(R
n,n
) (cfr. Es. 4.15 e
4.16). Precisamente, si deniscono linsieme delle matrici hermitiane:
H(C
n,n
) = A C
n,n
[
t
A = A
e linsieme delle matrici anti-hermitiane:
/H(C
n,n
) = A C
n,n
[
t
A = A.
Chiaramente una matrice reale simmetrica A o(R
n,n
) ` e hermitiana ed una matrice reale
antisimmetrica A /(R
n,n
) ` e anti-hermitiana.
Ad esempio la matrice:

2 1 +i
1 i 3

` e hermitiana. Si osservi che gli elementi sulla sua diagonale principale sono reali. Questa
propriet` a non ` e casuale, infatti gli elementi sulla diagonale principale di una matrice her-
mitiana A sono necessariamente reali, in quanto devono coincidere, per denizione, con i
proprii coniugati. Si pu` o vericare che la somma di due matrici hermitiane ` e hermitiana e
linversa di una matrice hermitiana invertibile ` e hermitiana. Analoghe propriet` a valgono
per le matrici anti-hermitane. Come per le matrici reali simmetriche, la matrice prodotto
AB di due matrici hermitiane A e B ` e hermitiana solo se A e B commutano, cio` e se e
solo se AB = BA.
Esercizio 4.30 Si verichi che linsieme delle matrici hermitiane H(C
n,n
), con le opera-
zioni di somma e prodotto per un numero reale, ` e uno spazio vettoriale su R di dimensione
n
2
. Inoltre, si provi invece che H(C
n,n
), con le operazioni di somma e prodotto per un
numero complesso, non ` e uno spazio vettoriale su C.
Soluzione Siano A e B due matrici hermitiane, ossia
t
A = A e
t
B = B, si tratta di
dimostrare che la matrice A + B ` e hermitiana, infatti:
t
(A + B) =
t
A +
t
B = A + B = (A + B).
Capitolo 4 197
Sia R, si deve dimostrare che A ` e una matrice hermitiana se A H(C
n,n
), infatti:
t
(A) =
t
A = A = (A),
in quanto = .
`
E evidente che questa propriet` a ` e falsa se C, quindi H(C
n,n
) ` e uno spazio vet-
toriale reale ed ` e un sottospazio vettoriale reale di C
n,n
, inteso come spazio vettoriale
reale, ma non ` e un sottospazio vettoriale complesso di C
n,n
inteso come spazio vettoriale
complesso.
Come gi` a accennato in precedenza, una matrice hermitiana A ` e del tipo:
A =

a
11
a
12
+ ib
12
. . . a
1n
+ ib
1n
a
12
ib
12
a
22
. . . a
2n
+ ib
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
1n
ib
1n
a
2n
ib
2n
. . . a
nn

,
dove a
hk
, b
hk
, h, k = 1, 2, . . . , n sono numeri reali.
`
E quindi un esercizio dimostrare che
una base di H(C
n,n
) ` e:

1 0 . . . . . . 0
0 0 . . . . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . . . . 0

0 1 . . . . . . 0
1 0 . . . . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . . . . 0

, . . . ,

0 0 . . . . . . 1
0 0 . . . . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 0 . . . . . . 0

0 0 . . . . . . 0
0 1 . . . . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . . . . 0

, . . . ,

0 . . . . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . . . . 0 1
0 . . . . . . 1 0

0 . . . . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . . . . 0 0
0 . . . . . . 0 1

0 i . . . . . . 0
i 0 . . . . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . . . . 0

, . . . ,

0 0 . . . . . . i
0 0 . . . . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
i 0 . . . . . . 0

, . . . ,

0 . . . . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . . . . 0 i
0 . . . . . . i 0

..
198 Spazi Vettoriali e Sottospazi Vettoriali
Da questo segue che:
dim(H(C
n,n
)) =
n(n + 1)
2
+
n(n 1)
2
= n
2
.
Esercizio 4.31 Si verichi che linsieme delle matrici antihermitiane /H(C
n,n
), con
le operazioni di somma e prodotto per un numero reale, ` e uno spazio vettoriale su R di
dimensione n
2
. Inoltre, si provi invece che /H(C
n,n
), con le operazioni di somma e
prodotto per un numero complesso, non ` e uno spazio vettoriale su C.
Soluzione In modo analogo allesercizio precedente si dimostra che /H(C
n,n
) ` e un
sottospazio vettoriale reale di C
n,n
ma non ` e un sottospazio vettoriale complesso.
`
E facile vericare, a partire dalla denizione, che una matrice antihermitiana A ` e del
tipo:
A =

ib
11
a
12
+ ib
12
. . . a
1n
+ ib
1n
a
12
+ ib
12
ib
22
. . . a
2n
+ ib
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
1n
+ ib
1n
a
2n
+ ib
2n
. . . ib
nn

,
dove a
hk
, b
hk
, h, k = 1, 2, . . . , n sono numeri reali.
`
E quindi un esercizio dimostrare che
una base di /H(C
n,n
) ` e:

0 1 . . . . . . 0
1 0 . . . . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . . . . 0

, . . . ,

0 0 . . . . . . 1
0 0 . . . . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 0 . . . . . . 0

0 . . . . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . . . . 0 1
0 . . . . . . 1 0

i 0 . . . . . . 0
0 0 . . . . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . . . . 0

, . . .

0 0 . . . . . . 0
0 i . . . . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . . . . 0

0 . . . . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . . . . 0 0
0 . . . . . . 0 i

,
Capitolo 4 199

0 i . . . . . . 0
i 0 . . . . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . . . . 0

, . . . ,

0 0 . . . . . . i
0 0 . . . . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
i 0 . . . . . . 0

, . . . ,

0 . . . . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . . . . 0 i
0 . . . . . . i 0

.
Da questo segue che dim(/H(C
n,n
)) = n
2
. Si osservi, inoltre, che una matrice A C
n,n
` e hermitiana se e solo se iA ` e anti-hermitiana.
`
E valido, in campo complesso, il seguente teorema, analogo al Teorema 4.4 dimostrato
nel caso delle matrici ad elementi reali.
Teorema 4.28 Lo spazio vettoriale reale C
n,n
si decompone nel modo seguente:
C
n,n
= H(C
n,n
) /H(C
n,n
).
Dimostrazione Si procede come nella dimostrazione del Teorema 4.4, tenendo conto
che ogni matrice A C
n,n
si decompone come:
A =
1
2
(A +
t
A) +
1
2
(A
t
A)
e che (A +
t
A) H(C
n,n
) e (A
t
A) /H(C
n,n
).
Osservazione 4.34 In letteratura ` e spesso usata la notazione:
A

=
t
A
pertanto una matrice A ` e hermitiana se e solo se A = A

ed ` e anti-hermitiana se e solo
se A = A

. Per maggiori propriet` a ed esempi si veda per esempio [14].


200 Spazi Vettoriali e Sottospazi Vettoriali
Capitolo 5
Spazi Vettoriali Euclidei
Lo scopo di questo capitolo ` e quello di estendere il concetto di prodotto scalare, denito
nel Paragrafo 3.7.1 nel caso dello spazio vettoriale V
3
, agli spazi vettoriali di dimensione
superiore a tre e, quindi, di introdurre le nozioni di perpendicolarit` a e di angolo in genera-
le, permettendo, di conseguenza, lo studio della geometria euclidea negli spazi vettoriali
di dimensione qualsiasi.
5.1 Denizione di prodotto scalare
Denizione 5.1 Sia V uno spazio vettoriale reale. Si denisce prodotto scalare su V la
funzione:
V V R, (x, y) x y
per cui valgano le seguenti propriet` a:
1. x y = y x, x, y V ;
2. (x
1
+x
2
) y = x
1
y +x
2
y, x
1
, x
2
, y V ;
3. (x) y = (x y) = x (y), R, x, y V ;
4. x x 0, x V e x x = 0 x = o.
Uno spazio vettoriale reale V su cui ` e denito un prodotto scalare prende il nome di
spazio vettoriale euclideo e si indica, in generale, con la scrittura (V, ).
Esempio 5.1 Il prodotto scalare x y = |x||y| cos( xy) denito nel Paragrafo 3.7.1
conferisce a V
3
la struttura di spazio vettoriale euclideo.
201
202 Spazi Vettoriali Euclidei
Esempio 5.2 Su R
n
si denisce un prodotto scalare naturale che ricalca il calcolo
in componenti (rispetto ad una base ortonormale) del prodotto scalare standard su V
3
,
ricordato nellesempio precedente. Precisamente si pone:
(x
1
, x
2
, . . . , x
n
) (y
1
, y
2
, . . . , y
n
) = x
1
y
1
+ x
2
y
2
+ . . . + x
n
y
n
=
n

i=1
x
i
y
i
, (5.1)
per ogni (x
1
, x
2
, . . . , x
n
), (y
1
, y
2
, . . . , y
n
) R
n
. Si lascia per esercizio la verica delle
quattro propriet` a di denizione di prodotto scalare. Con la notazione matriciale:
X =

x
1
x
2
.
.
.
x
n

, Y =

y
1
y
2
.
.
.
y
n

la (5.1) si scrive come:


X Y =
t
X Y. (5.2)
Il prodotto scalare (5.2) prende il nome di prodotto scalare standard su R
n
, che viene
cos` dotato della struttura di spazio vettoriale euclideo.
Esempio 5.3 Si consideri la funzione:
: R
3
R
3
R,
((x
1
, x
2
, x
3
), (y
1
, y
2
, y
3
)) (x
1
, x
2
, x
3
) (y
1
, y
2
, y
3
) = 3x
1
y
1
+ 4x
2
y
2
+ 5x
3
y
3
.
Si verica facilmente che ` e un altro prodotto scalare su R
3
, chiaramente diverso dal
prodotto scalare standard.
Lesempio appena incontrato permette di affermare che, almeno su R
n
, ` e possibile de-
nire inniti prodotti scalari, quindi innite strutture euclidee.
Esempio 5.4 Si consideri la funzione:
: R
3
R
3
R,
((x
1
, x
2
, x
3
), (y
1
, y
2
, y
3
)) (x
1
, x
2
, x
3
) (y
1
, y
2
, y
3
) = x
1
y
1
+ x
2
y
2
x
3
y
3
.
Si osserva che non ` e un prodotto scalare su R
3
, per esempio (0, 0, 1)(0, 0, 1) = 1
che contraddice il quarto assioma di denizione di prodotto scalare.
Capitolo 5 203
Esempio 5.5 Si consideri la funzione:
: R
3
R
3
R,
((x
1
, x
2
, x
3
), (y
1
, y
2
, y
3
)) (x
1
, x
2
, x
3
) (y
1
, y
2
, y
3
) = x
1
y
1
+ x
2
y
2
.
Anche non ` e un prodotto scalare su R
3
, per esempio (0, 0, 1) (0, 0, 1) = 0 che
contraddice il quarto assioma di denizione di prodotto scalare.
Il teorema seguente dimostra che uno spazio vettoriale reale, di dimensione nita, ammet-
te almeno un prodotto scalare.
Teorema 5.1 Sia V uno spazio vettoriale reale di dimensione n e sia B = (v
1
, v
2
, . . . , v
n
)
una sua base. Esiste un prodotto scalare su V tale che, per ogni x, y V,
x y =
t
X Y, (5.3)
dove:
X =

x
1
x
2
.
.
.
x
n

, Y =

y
1
y
2
.
.
.
y
n

e (x
1
, x
2
, . . . , x
n
) e (y
1
, y
2
, . . . , y
n
) sono le componenti, rispettivamente di x e y, rispetto
alla base B.
La dimostrazione ` e lasciata al Lettore per esercizio.
Dal teorema precedente segue che ogni spazio vettoriale reale ` e uno spazio vettoriale
euclideo e poich e esistono innite basi su uno spazio vettoriale, esistono anche inniti
prodotti scalari sullo stesso spazio vettoriale.
Esercizio 5.1 Vericare che la funzione:
R
m,n
R
m,n
R, (A, B) A B = tr(
t
AB) (5.4)
` e un prodotto scalare su R
m,n
.
Esempio 5.6 Si consideri nel caso di R
2,2
il prodotto scalare denito nellesempio pre-
cedente. Si vuole calcolarne lespressione esplicita rispetto a due matrici A = (a
ij
) e
B = (b
ij
) di R
2,2
. Si ha:
204 Spazi Vettoriali Euclidei
A B = tr

a
11
a
21
a
12
a
22

b
11
b
12
b
21
b
22

= a
11
b
11
+ a
12
b
12
+ a
21
b
21
+ a
22
b
22
.
Quindi, se si interpretano gli elementi a
ij
e b
ij
delle matrici A e B come componenti
delle matrici A e B rispetto alla base canonica (E
ij
), i, j = 1, 2, di R
2,2
, il preceden-
te prodotto scalare in componenti corrisponde al prodotto scalare standard su R
4
. Si
pu` o vericare che la stessa propriet` a vale in generale su R
m,n
, ovvero che il prodotto
scalare (5.4) scritto in componenti rispetto alla base canonica (E
ij
), i, j = 1, 2, . . . , n,
corrisponde al prodotto scalare standard in R
mn
.
Esercizio 5.2 Posto:
p(x) = a
0
+ a
1
x + . . . + a
n
x
n
, q(x) = b
0
+ b
1
x + . . . + b
n
x
n
,
vericare che la funzione:
R
n
[x] R
n
[x] R, (p(x), q(x)) p(x) q(x) =
n

i=0
a
i
b
i
(5.5)
` e un prodotto scalare sullo spazio vettoriale R
n
[x] dei polinomi di grado minore o uguale
ad n. La funzione:
: R
n
[x] R
n
[x] R, (p(x), q(x)) p(x) q(x) =
n

i=1
a
i
b
i
denisce un prodotto scalare su R
n
[x]?
5.2 Norma di un vettore
Denizione 5.2 Sia (V, ) uno spazio vettoriale euclideo. Si denisce norma di un
vettore x di V il numero reale positivo dato da:
|x| =

x x.
Si osservi che la precedente denizione ha senso perch e, per il quarto assioma di deni-
zione del prodotto scalare, x x 0, per ogni x V.
Esempio 5.7 In V
3
, dotato del prodotto scalare standard (cfr. Par. 3.7.1), la norma di un
vettore x coincide con la sua usuale lunghezza.
Capitolo 5 205
Esempio 5.8 Nello spazio vettoriale euclideo (R
3
, ), dotato del prodotto scalare stan-
dard, si ha:
|x| =

x
2
1
+ x
2
2
+ x
2
3
,
per ogni x = (x
1
, x
2
, x
3
) R
3
.
Esempio 5.9 Se si considera su R
3
il prodotto scalare denito nellEsempio 5.3 si ha
che:
|x| =

3x
2
1
+ 4x
2
2
+ 5x
2
3
.
Esempio 5.10 Nello spazio vettoriale euclideo (R
n
, ), dotato del prodotto scalare stan-
dard, si ha:
|x| =

x
2
1
+ x
2
2
+ . . . + x
2
n
,
per ogni x = (x
1
, x
2
, . . . , x
n
) R
n
.
Esempio 5.11 In generale, se su uno spazio vettoriale V su R di dimensione n, riferito
ad una base B = (v
1
, v
2
, . . . , v
n
), si considera il prodotto scalare (5.11), la norma di un
vettore x = x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
` e data da:
|x| =

t
X X =

x
2
1
+ x
2
2
+ . . . + x
2
n
.
Esempio 5.12 La norma della matrice A = (a
ij
) R
2,2
, rispetto al prodotto scalare
considerato nellEsempio 5.6, ` e:
|A| =

tr(
t
AA) =

a
2
11
+ a
2
12
+ a
2
21
+ a
2
22
.
Esempio 5.13 La norma del polinomio p(x) = a
0
+ a
1
x + . . . + a
n
x
n
R
n
[x] rispetto
al prodotto scalare (5.5) ` e:
|p(x)| =

i=0
a
2
i
.
In generale, una funzione a valori reali prende il nome di norma solo se denisce un
numero reale positivo che verica propriet` a opportune, precisamente quelle enunciate nel
teorema seguente.
Teorema 5.2 Su uno spazio vettoriale euclideo (V, ), la funzione:
| | : V R, x |x|
verica le seguenti propriet` a:
206 Spazi Vettoriali Euclidei
1. |x| 0, x V e |x| = 0 x = o.
2. |x| = [[ |x|, R, x V.
3. Teorema di Pitagora: x y = 0 |x +y|
2
= |x|
2
+|y|
2
.
4. Disuguaglianza di CauchySchwartz: [x y[ |x| |y|, x, y V.
5. Disuguaglianza triangolare: |x +y| |x| +|y|, x, y V.
Dimostrazione 1. La dimostrazione ` e lasciata al Lettore per esercizio.
2. La dimostrazione segue da (x) (x) =
2
|x|
2
.
3. Segue da:
|x +y|
2
= (x +y) (x +y) = |x|
2
+ 2x y +|y|
2
. (5.6)
4. La disuguaglianza di CauchySchwartz ` e banalmente soddisfatta se uno dei vettori
coincide con il vettore nullo. La si dimostra, quindi, nel caso in cui x e y siano
entrambi diversi dal vettore nullo. Per ogni R si pu` o considerare il polinomio
di secondo grado in :
|x +y|
2
= (x +y) (x +y) =
2
|x|
2
+ 2x y +|y|
2
.
Per il punto 1. si ha che:

2
|x|
2
+ 2x y +|y|
2
0
per ogni R e, quindi, il trinomio di secondo grado deve avere discriminante
negativo, cio` e:
(x y)
2
|x|
2
|y|
2
0,
per ogni x, y V.
5. Usando (5.6) e la disuguaglianza di Cauchy-Schwartz si ha:
|x +y|
2
|x|
2
+ 2|x| |y| +|y|
2
= (|x| +|y|)
2
,
per ogni x, y V .
Capitolo 5 207
Come conseguenza della disuguaglianza di CauchySchwartz si ha che:
[x y[
|x| |y|
1
e quindi:
1
x y
|x| |y|
1,
per ogni x, y V. Si pu` o allora enunciare la seguente denizione.
Denizione 5.3 Sia (V, ) uno spazio vettoriale euclideo. Dati due vettori x, y V non
nulli, si denisce angolo tra i due vettori x e y langolo [0, ] tale che:
cos =
x y
|x| |y|
.
Osservazione 5.1 1.
`
E necessario osservare che la nozione di angolo tra due vettori,
appena introdotta, ` e coerente con la denizione di angolo tra vettori considerata nel
Paragrafo 3.6, cos` come lo ` e la denizione di ortogonalit` a che segue. Inoltre, la
nozione di angolo tra due vettori non dipende dallordine dei due vettori.
2. Come in V
3
, anche nel caso generale di uno spazio vettoriale euclideo V langolo
tra il vettore nullo o e un qualunque altro vettore ` e indeterminato, ossia pu` o essere
un qualsiasi angolo [0, ].
Denizione 5.4 Due vettori non nulli x e y di uno spazio vettoriale euclideo (V, ) si
dicono ortogonali o perpendicolari se langolo che essi determinano ` e = /2. Il
vettore nullo si considera ortogonale ad ogni altro vettore di V. Se = 0 o = i due
vettori si dicono paralleli.
Di conseguenza, le nozioni di angolo e di ortogonalit` a permettono di introdurre gli usuali
concetti di geometria analitica del piano e dello spazio (cfr. Cap. 9, 10, 11, e 12) in spazi
vettoriali euclidei di dimensione maggiore di 3. Si vedr` a, per esempio, nellosservazione
che segue che la nozione di parallelismo di due vettori corrisponde alla dipendenza lineare
dei due vettori.
Osservazione 5.2 Fissati due vettori, la misura dellangolo che essi determinano pu` o
cambiare a seconda del prodotto scalare che si considera. Addirittura, dati due vettori
qualsiasi (non nulli e non paralleli) ` e possibile denire un prodotto scalare che li renda
ortogonali. Esempi di questo tipo si possono leggere nel Capitolo 8 (cfr. Es. 8.17), per-
ch e non si ` e ancora in grado, in questo capitolo, di costruirli esplicitamente in quanto
208 Spazi Vettoriali Euclidei
non ` e ancora chiaro come, in generale, sia possibile vericare facilmente che una funzio-
ne qualsiasi di dominio V V e codominio R sia o meno un prodotto scalare.
`
E per` o
una semplice conseguenza della denizione di norma di un vettore il fatto che, per ogni
possibile prodotto scalare denito su uno spazio vettoriale V, il concetto di parallelismo
tra vettori rimane invariato, in altri termini se due vettori sono linearmente dipendenti lo
rimangono per tutti i possibili prodotti scalari che si possano denire su V. Infatti vale il
teorema seguente.
Teorema 5.3 In uno spazio vettoriale euclideo (V, ) due vettori x e y, che individuano
langolo , sono linearmente dipendenti se e solo = 0 o = , cio` e se e solo se:
x y = |x| |y|.
Dimostrazione La propriet` a ` e banalmente vera se uno dei due vettori coincide con il
vettore nullo. Si supponga allora che i due vettori siano entrambi non nulli. Se x e y
sono linearmente dipendenti esiste R tale che y = x e la precedente uguaglianza ` e
vericata.
Viceversa, si supponga che per una coppia di vettori non nulli x e y valga luguaglianza
x y = |x| |y| (il caso con il segno ` e analogo), allora si ha:

x
|x|

y
|y|

2
=

x
|x|

y
|y|

x
|x|

y
|y|

=
x x
|x|
2
2
x y
|x| |y|
+
y y
|y|
2
= 0.
Dal quarto assioma di denizione del prodotto scalare segue:
y =
|y|
|x|
x,
cio` e x e y sono linearmente dipendenti.
5.3 Basi ortonormali
I naturali concetti geometrici di base ortogonale e ortonormale in V
3
, introdotti nel Para-
grafo 3.7.1, possono essere agevolmente estesi ad uno spazio vettoriale euclideo qualsiasi
con la seguente denizione.
Capitolo 5 209
Denizione 5.5 Sia (V, ) uno spazio vettoriale euclideo di dimensione n. Una base
B = (v
1
, v
2
, . . . , v
n
) di V si dice ortogonale se i vettori che la deniscono vericano la
condizione:
v
i
v
j
= 0, per ogni i = j, i, j = 1, 2, . . . , n.
In altri termini, una base si dice ortogonale se i vettori che la compongono sono a due a
due ortogonali.
Una base B = (e
1
, e
2
, . . . , e
n
) di V si dice ortonormale se i vettori che la deniscono
vericano entrambe le condizioni:
1. e
i
e
j
= 0, per ogni i = j , i, j = 1, 2, . . . , n;
2. |e
i
| = 1, per ogni i = 1, 2, . . . , n.
In altri termini, una base si dice ortonormale se ` e una base ortogonale ed ogni vettore
che la compone ha norma uguale a 1.
Esempio 5.14 In R
3
la base canonica (e
1
, e
2
, e
3
), dove:
e
1
= (1, 0, 0), e
2
= (0, 1, 0), e
3
= (0, 0, 1),
` e ortonormale rispetto al prodotto scalare standard.
Pi ` u in generale, in R
n
la base canonica (e
1
, e
2
, . . . , e
n
), dove:
e
1
= (1, 0, . . . , 0), e
2
= (0, 1, 0, . . . , 0), . . . , e
n
= (0, . . . , 0, 1)
` e anchessa ortonormale rispetto al prodotto scalare standard.
Esercizio 5.3 Si determini in R
3
una base ortonormale rispetto al prodotto scalare:
x y = 2x
1
y
1
+ 3x
2
y
2
+ 4x
3
y
3
. (5.7)
Soluzione
`
E immediato vericare che i vettori della base canonica (e
1
, e
2
, e
3
) di R
3
sono a due a due ortogonali e quindi vericano la condizione 1. della Denizione 5.5. Se
si calcola la norma dei tre vettori, rispetto al prodotto scalare che si sta considerando, si
ha:
|e
1
| =

2, |e
2
| =

3, |e
3
| = 2.
Quindi i vettori:

2
e
1
,
1

3
e
2
,
1
2
e
3

formano una base ortonormale di R


3
dotato del prodotto scalare (5.7).
210 Spazi Vettoriali Euclidei
Esempio 5.15 In R
m,n
la base canonica (E
ij
), i = 1, 2, . . . , m, j = 1, 2, . . . , n, ` e una
base ortonormale rispetto al prodotto scalare denito da (5.4).
Esempio 5.16 In R
n
[x] la base (1, x, . . . , x
n
) ` e ortonormale rispetto al prodotto scalare
denito da (5.5).
Se si scrive lespressione del prodotto scalare in componenti rispetto ad una base ortonor-
male su uno spazio vettoriale euclideo di dimensione n, si ottiene la stessa espressione
del prodotto scalare standard su R
n
, come si pu` o dedurre dal seguente teorema, la cui
dimostrazione ` e un facile esercizio.
Teorema 5.4 Sia (V, ) uno spazio vettoriale euclideo di dimensione n.
1. Se B = (e
1
, e
2
, . . . , e
n
) ` e una base ortonormale e:
x = x
1
e
1
+ x
2
e
2
+ . . . + x
n
e
n
, y = y
1
e
1
+ y
2
e
2
+ . . . + y
n
e
n
sono due vettori qualsiasi di V, allora il loro prodotto scalare ` e:
x y = x
1
y
1
+ x
2
y
2
+ . . . + x
n
y
n
=
t
X Y, (5.8)
dove
t
X Y denota il prodotto della matrice riga e della matrice colonna formate
rispettivamente dalle componenti di x e y, rispetto alla base B.
2. Se B = (e
1
, e
2
, . . . , e
n
) ` e una base di V tale che, per ogni coppia di vettori:
x = x
1
e
1
+ x
2
e
2
+ . . . + x
n
e
n
, y = y
1
e
1
+ y
2
e
2
+ . . . + y
n
e
n
di V si ha:
x y = x
1
y
1
+ x
2
y
2
+ . . . + x
n
y
n
=
t
X Y,
dove
t
X Y denota il prodotto della matrice riga e della matrice colonna formate
rispettivamente dalle componenti di x e y, rispetto alla base B, allora B ` e una
base ortonormale.
Ora che si ` e in grado di scrivere lespressione in componenti del prodotto scalare rispetto
ad una base ortonormale rimane da dimostrare lesistenza di almeno una base ortonormale
rispetto ad ogni prodotto scalare denito su V. A tale scopo ` e necessario premettere il
seguente lemma.
Lemma 5.1 Sia (V, ) uno spazio vettoriale euclideo di dimensione n. Un insieme 1 di
k vettori di V :
1 = v
1
, v
2
, . . . , v
k

tale che:
Capitolo 5 211
1. k n;
2. v
i
= o, per ogni i = 1, 2, . . . , k;
3. v
i
v
j
= 0, per ogni i = j , i, j = 1, 2, . . . , k
` e un insieme libero. Se k = n allora 1 ` e una base ortogonale di V .
Dimostrazione Occorre dimostrare che i vettori v
1
, v
2
, . . . , v
k
sono linearmente indi-
pendenti, cio` e che lunica loro combinazione lineare uguale al vettore nullo ` e quella con
coefcienti tutti uguali a 0. Infatti, se si considera lequazione vettoriale:

1
v
1
+ . . . +
k
v
k
= o,
i
R, i = 1, 2, . . . , k
e si moltiplicano scalarmente entrambi i membri per ogni v
i
, i = 1, 2, . . . , k, tenendo
conto dellipotesi di ortogonalit` a dei vettori, si ha:

i
v
i
v
i
=
i
|v
i
|
2
= 0.
Dalla condizione 2. segue
i
= 0, per ogni i = 1, 2, . . . , k.
Teorema 5.5 Sia (V, ) uno spazio vettoriale euclideo di dimensione n e sia:
B = (v
1
, v
2
, . . . , v
n
)
una sua base. A partire da B ` e possibile costruire una base ortonormale:
B

= (e
1
, e
2
, . . . , e
n
)
di V tale che:
L(v
1
, v
2
, . . . , v
k
) = L(e
1
, e
2
, . . . , e
k
), k = 1, 2, . . . , n.
Dimostrazione Per dimostrare il teorema si utilizza un metodo di calcolo per co-
struire una base ortonormale a partire da una base assegnata noto come il processo di
ortonormalizzazione di GramSchmidt.
Data una base B = (v
1
, v
2
, . . . , v
n
) si procede con un numero nito di passi, nel modo
seguente:
1. si sceglie come primo vettore della base ortonormale il versore:
e
1
= vers v
1
=
v
1
|v
1
|
.
212 Spazi Vettoriali Euclidei
2. Per costruire il secondo vettore e
2
si considera il vettore a
2
= v
2
+e
1
, con R
e si determina in modo tale che a
2
sia ortogonale a e
1
ossia a
2
e
1
= 0. Si
ottiene:
= v
2
e
1
.
Quindi:
e
2
= vers(v
2
(v
2
e
1
) e
1
)
` e un vettore di norma 1 e ortogonale a e
1
.
3. Per costruire il terzo vettore e
3
si considera il vettore a
3
= v
3
+
1
e
1
+
2
e
2
, con

1
,
2
R e si impongono le due condizioni di ortogonalit` a:

a
3
e
1
= 0 = v
3
e
1
+
1
,
a
3
e
2
= 0 = v
3
e
2
+
2
.
Il terzo vettore ` e quindi:
e
3
= vers(v
3
(v
3
e
1
) e
1
(v
3
e
2
) e
2
).
Iterando questo procedimento si ottiene un insieme di n vettori:
e
k
= vers(v
k
(v
k
e
1
) e
1
. . . (v
k
e
k1
) e
k1
), k = 1, 2, . . . , n,
a due a due ortogonali e di norma uguale a 1. Per il Lemma 5.1, i vettori (e
1
, e
2
, . . . , e
n
)
costituiscono una base di V. Inoltre, ad ogni passo si ha:
L(v
1
, v
2
, . . . , v
k
) = L(e
1
, e
2
, . . . , e
k
), k = 1, 2, . . . , n.
Osservazione 5.3 Se (e
1
, e
2
, . . . , e
n
) ` e una base ortonormale dello spazio vettoriale eu-
clideo (V, ), ogni vettore v di V si pu` o esprimere come:
v = (v e
1
) e
1
+ (v e
2
) e
2
+ . . . + (v e
n
) e
n
.
Il vettore:
(v e
1
) e
1
+ (v e
2
) e
2
+ . . . + (v e
k
) e
k
,
con k < n, rappresenta, geometricamente, il vettore proiezione ortogonale di v sul sot-
tospazio vettoriale generato dai vettori e
1
, e
2
, . . . , e
k
. Si estende cos`, in dimensione
maggiore di 3, la situazione geometrica descritta nellOsservazione 3.16.
Si osservi anche che si pu` o applicare il processo di ortonormalizzazione di Gram-Schmidt
considerando come vettore e
1
il versore di uno qualunque dei vettori della base assegnata
B. Poich e in ogni spazio vettoriale esistono innite basi, si pu` o concludere che sullo spa-
zio vettoriale euclideo (V, ) esistono innite basi ortonormali, ed ` e altrettanto chiaro che
una base ortonormale rispetto ad un prodotto scalare non ` e necessariamente ortonormale
rispetto ad un altro prodotto scalare denito sullo stesso spazio vettoriale euclideo (cfr.
Es. 5.3).
Capitolo 5 213
Esercizio 5.4 Nello spazio vettoriale euclideo (R
4
, ), dotato del prodotto scalare stan-
dard, ` e data la base B = (v
1
, v
2
, v
3
, v
4
) con:
v
1
= (1, 2, 0, 0), v
2
= (0, 1, 1, 0), v
3
= (0, 0, 1, 1), v
4
= (0, 0, 0, 5).
Determinare una base ortonormale di R
4
a partire da B.
Soluzione Si applica il procedimento di ortonormalizzazione di GramSchmidt alla
base B. Si pu` o iniziare con:
e
1
=
v
1
|v
1
|
=
1

5
(1, 2, 0, 0).
Il secondo vettore e
2
` e dato dal versore di:
v
2
(v
2
e
1
) e
1
= (0, 1, 1, 0)
2

5
1

5
(1, 2, 0, 0) =

2
5
,
1
5
, 1, 0

.
Quindi:
e
2
=
5

30

2
5
,
1
5
, 1, 0

2
15
,
1

30
,

5
6
, 0

.
Analogamente si considera come e
3
il versore di:
v
3
(v
3
e
1
) e
1
(v
3
e
2
) e
2
.
dato da:
e
3
=

2
21
,
1

42
,
1

42
,

6
7

.
In modo analogo, a completamento della base ortonormale richiesta, si ottiene:
e
4
=

7
,
1

7
,
1

7
,
1

.
Ci si vuole ora occupare dello studio delle propriet` a della matrice del cambiamento di
base tra due basi ortonormali denite su uno spazio vettoriale euclideo (V, ). Vale lim-
portante teorema che segue, con lavvertenza che, per capirne la dimostrazione, si deve
far riferimento alle nozioni spiegate nel Paragrafo 4.3.4.
Teorema 5.6 Due basi in uno spazio vettoriale euclideo sono ortonormali se e solo se la
matrice del loro cambiamento di base ` e una matrice ortogonale.
214 Spazi Vettoriali Euclidei
Dimostrazione In uno spazio vettoriale euclideo (V, ) di dimensione n si consideri
la matrice P del cambiamento di base da una base ortonormale B = (e
1
, e
2
, . . . , e
n
) ad
unaltra base ortonormale B

= (e

1
, e

2
, . . . , e

n
) di V. P ` e una matrice invertibile che
ha sulle colonne le componenti dei vettori e

i
, i = 1, 2, . . . , n, rispetto alla base B e si
pu` o vericare che lelemento di posto ij del prodotto
t
P P ` e dato dal prodotto scalare
e

i
e

j
scritto in componenti rispetto alla base B. Quindi
t
P P = I , cio` e P ` e una matrice
ortogonale. Il viceversa segue in modo analogo.
Osservazione 5.4 Se P R
n,n
` e una matrice ortogonale, ossia se
t
P P = I , allora
t
P = P
1
, moltiplicando ambo i membri per P segue P
t
P = I ; in altri termini anche
la matrice
t
P ` e ortogonale. Applicando la dimostrazione del Teorema 5.6 a
t
P si ha che
non solo i vettori colonna ma anche i vettori riga della matrice P costituiscono una base
ortonormale dello spazio vettoriale euclideo R
n
, rispetto al prodotto scalare standard. Per
maggiori chiarimenti si veda il Teorema 5.7 in cui sono elencate tutte le propriet` a delle
matrici ortogonali.
Osservazione 5.5 Il Teorema 5.6 non ` e pi ` u valido se una delle due basi non ` e ortonorma-
le. La matrice P del cambiamento di base da una qualunque base B (non ortonormale)
ad una base ortonormale ottenuta da B mediante il processo di ortonormalizzazione di
GramSchmidt non ` e una matrice ortogonale, come si pu` o osservare nellesempio che
segue.
Esempio 5.17 In R
3
si considerino i due prodotti scalari seguenti:
x y = x
1
y
1
+ x
2
y
2
+ x
3
y
3
,
x y = 3x
1
y
1
+ 4x
2
y
2
+ x
3
y
3
,
dove x = x
1
e
1
+ x
2
e
2
+ x
3
e
3
, y = y
1
e
1
+ y
2
e
2
+ y
3
e
3
e B = (e
1
, e
2
, e
3
) con:
e
1
= (1, 0, 0), e
2
= (0, 1, 0), e
3
= (0, 0, 1)
` e la base canonica di R
3
. B ` e una base ortonormale rispetto al prodotto scalare
(cfr. Es. 5.14) ma non ` e ortonormale rispetto al prodotto scalare . La base B

=
(v
1
, v
2
, v
3
) con:
v
1
=

3
, 0, 0

, v
2
=

0,
1
2
, 0

, v
3
= (0, 0, 1)
Capitolo 5 215
` e ortonormale rispetto al prodotto scalare , ma, ovviamente, la matrice:
P =

3
0 0
0
1
2
0
0 0 1

del cambiamento di base da B a B

non ` e ortogonale. Si osservi inoltre che se:


x = x

1
v
1
+ x

2
v
2
+ x

3
v
3
, y = y

1
v
1
+ y

2
v
2
+ y

3
v
3
,
allora:
x y = x

1
y

1
+ x

2
y

2
+ x

3
y

3
essendo B

una base ortonormale rispetto al prodotto scalare .


Sia (a
1
, a
2
, a
3
) una base di R
3
con:
a
1
= (1, 0, 2), a
2
= (1, 3, 4), a
3
= (0, 3, 4).
A partire da tale base, usando il processo di ortonormalizzazione di GramSchmidt si
vogliono determinare una base ortonormale rispetto al prodotto scalare e una base
ortonormale rispetto al prodotto scalare . Nel primo caso si ottiene la base:
( =

5
, 0,
2

4
7

5
,
3

5
7
,
2
7

6
7
,
2
7
,
3
7

.
La matrice:
Q =

4
7

6
7
0
3

5
7

2
7
2

5
2
7

5
3
7

` e ortogonale, essendo la matrice del cambiamento di base tra due basi ortonormali B e
(, rispetto allo stesso prodotto scalare. Rispetto al prodotto scalare si ottiene la base
ortonormale:
216 Spazi Vettoriali Euclidei
(

7
, 0,
2

2
231
,
1
2

21
22
,

3
154

2
11
,
1
2

22
,
3

22

.
La matrice R che ha sulle colonne le componenti della base (

non ` e una matrice orto-


gonale, mentre lo deve essere la matrice del cambiamento di base da B

a (

, ottenuta dal
prodotto P
1
R. Si lascia per esercizio sia la verica dellortogonalit` a dellultima matrice
sia la giusticazione del fatto che essa si ottenga proprio nel modo indicato.
Per le matrici ortogonali sono valide le seguenti propriet` a, alcune delle quali sono gi` a
state anticipate nel Paragrafo 2.5 e nel corso di questo capitolo.
Teorema 5.7 1. Il prodotto di due matrici ortogonali ` e una matrice ortogonale.
2. La matrice identit` a I ` e ortogonale.
3. Linversa P
1
di una matrice ortogonale P ` e ortogonale.
4. La trasposta
t
P di una matrice ortogonale P ` e ortogonale.
5. Una matrice P R
n,n
` e ortogonale se e solo se le righe e le colonne di P sono le
componenti di una base ortonormale in R
n
, rispetto al prodotto scalare standard.
6. Il determinante di una matrice ortogonale P vale 1.
Dimostrazione 1. Se P e Q sono matrici ortogonali si ha:
t
(PQ)PQ =
t
Q
t
PPQ = I
e quindi la matrice prodotto PQ ` e ortogonale.
2. La verica ` e lasciata per esercizio.
3. Da
t
P = P
1
e dal Teorema 2.7 punto 4. segue che (
t
P)
1
= (P
1
)
1
da cui la
tesi.
4. Da
t
P = P
1
segue che
t
(
t
P)
t
P = P
t
P = PP
1
= I da cui la tesi.
5. La verica ` e lasciata per esercizio.
Capitolo 5 217
6. Per il Teorema 2.16 punto 2. si ha che det(
t
PP) = det(
t
P) det(P) = det(I) = 1.
Quindi (det(P))
2
= 1.
Osservazione 5.6 1. Non vale il viceversa del punto 6. del Teorema precedente. Ad
esempio, se si considera la matrice:
A =

1 1
0 1

si ha che il determinante di A ` e 1 ma A non ` e ortogonale.


2. Segue dai punti 1., 2. e 3. che linsieme O(n) delle matrici ortogonali di ordine
n (cfr. (2.9)) ` e un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2). Si osservi
inoltre che il gruppo O(2) ` e gi` a stato descritto nellEsercizio 3.11.
3. Gli insiemi di matrici:
SL(n, R) = A R
n,n
[ det(A) = 1
e:
SO(n) = A O(n) [ det(A) = 1 = O(n) SL(n, R)
sono entrambi gruppi rispetto al prodotto di matrici.
Osservazione 5.7 Si osservi che il valore del prodotto scalare di due vettori in uno spa-
zio vettoriale euclideo V non varia, qualunque sia la base ortonormale scelta per calco-
larlo. Infatti se si esprime la formula (5.8), scritta rispetto alla base ortonormale B =
(e
1
, e
2
, . . . , e
n
), rispetto ad unaltra base ortonormale B

= (e

1
, e

2
, . . . , e

n
) si ha:
x y =
t
X

dove X

e Y

indicano, rispettivamente, le matrici colonne delle componenti dei vettori


x e y rispetto alla base ortonormale B

. Dalle equazioni del cambiamento di base si ha:


X = PX

, Y = PY

,
dove P ` e la matrice ortogonale del cambiamento di base da B a B

, quindi:
x y =
t
X Y =
t
(PX

)(PY

) =
t
X

(
t
PP) Y

=
t
X

.
Esercizio 5.5 Determinare una matrice ortogonale P in R
3,3
in modo tale che il primo
vettore riga sia:
a =

0,

2
2
,

2
2

.
218 Spazi Vettoriali Euclidei
Soluzione Per determinare una matrice ortogonale con le caratteristiche richieste oc-
corre completare linsieme libero a a una base ortonormale (a, b, c) di R
3
. Si pu` o, ad
esempio, usando il Teorema 4.15, costruire la base ( = (a, e
1
, e
2
) con:
e
1
= (1, 0, 0), e
2
= (0, 0, 1).
Per determinare una base ortonormale, ` e sufciente applicare il processo di ortonormaliz-
zazione di GramSchmidt alla base (, considerando:
b = vers(e
1
(e
1
a)a) = vers(1, 0, 0) = e
1
,
c = vers(e
2
(e
2
a)a (v
3
b)b) = vers

0,
1
2
,
1
2

.
La matrice ortogonale cercata ` e ad esempio:
P =

2
2

2
2
1 0 0
0

2
2

2
2

.
5.4 Il complemento ortogonale
Siano (V, ) uno spazio vettoriale euclideo di dimensione n e J un suo sottospazio
vettoriale di dimensione k n.
Denizione 5.6 Si dice complemento ortogonale di J e lo si denota con J

il sottoin-
sieme di V formato da tutti i vettori di V ortogonali ad ogni vettore di J, cio` e:
J

= x V [ x y = 0, y J.
Osservazione 5.8 Si osservi che, per denizione, il complemento ortogonale J

di un
sottospazio vettoriale J di uno spazio vettoriale euclideo (V, ) ` e unico. Inoltre, se
J = o, allora J

= V e se J = V allora J

= o.
Osservazione 5.9 Scelta una base (a
1
, a
2
, . . . , a
k
) di J, si pu` o osservare che la condi-
zione x y = 0, y J, ` e equivalente a:
x a
i
= 0, i = 1, 2, . . . , k.
Capitolo 5 219
Infatti si ha:
x (
1
a
1
+
2
a
2
+ . . . +
k
a
k
) = x y = 0,
per ogni
i
R, i = 1, 2, . . . , k. Ma questa condizione ` e vericata se e solo se x a
i
= 0,
per ogni i = 1, 2, . . . , k.
Il teorema che segue elenca le propriet` a fondamentali del complemento ortogonale di un
sottospazio vettoriale.
Teorema 5.8 Sia (V, ) uno spazio vettoriale euclideo e sia J un suo sottospazio vet-
toriale, allora:
1. J

V ` e un sottospazio vettoriale di V ;
2. J J

= V ;
3. (J

= J.
Dimostrazione 1. La dimostrazione ` e lasciata al Lettore per esercizio.
2. Per dimostrare che J+J

= V si pu` o procedere in questo modo. Sia dim(V )=


n, scelta una base (a
1
, a
2
, . . . , a
k
) di J si costruisce la matrice A R
k,n
avente
come vettori riga le componenti dei vettori della base di J, rispetto ad una base
ortonormale B di (V, ), cio` e tale che 1(A) = J, si ottiene che A ha rango k e
il suo nullspace ^(A) coincide con J

(cfr. Oss 5.9). Quindi dal Teorema 4.23


segue che dim(J

) + dim(J) = n = dim(V ). Dal Teorema 4.24 si ha anche


che la somma dei due sottospazi vettoriali ` e diretta. In aggiunta, si osservi che la
verica che JJ

= o segue anche facilmente dal fatto che se x JJ

si ha che x x = 0 e quindi x = o.
3.
`
E ovvia conseguenza di 2. Infatti:
J

(J

= V
ma si ha anche che J

J = V e quindi segue la tesi per lunicit` a del comple-


mento ortogonale.
Osservazione 5.10
`
E importante notare che J

` e un sottospazio vettoriale di V supple-


mentare di J in V, ma mentre esistono inniti sottospazi vettoriali di V supplementari
di J in V, il complemento ortogonale ` e unico.
220 Spazi Vettoriali Euclidei
Esercizio 5.6 In (R
3
, ), dotato del prodotto scalare standard, determinare il comple-
mento ortogonale J

del sottospazio vettoriale:


J = (x
1
, x
2
, x
3
) R
3
[ x
1
+ x
2
+ x
3
= 0.
Soluzione Per lOsservazione 5.9 si pu` o prima determinare una base di J e poi lin-
sieme dei vettori x ortogonali a tutti i vettori di questa base. Una base di J ` e, ad esempio,
data dai due vettori:
a
1
= (1, 1, 0), a
2
= (1, 0, 1).
Il complemento ortogonale di J ` e formato da tutti i vettori y = (y
1
, y
2
, y
3
) R
3
che
vericano le due condizioni:

y a
1
= y
1
+ y
2
= 0,
y a
2
= y
1
+ y
3
= 0.
Si vede che J

corrisponde al nullspace della matrice:


A =

1 1 0
1 0 1

,
cio` e al complemento ortogonale dello spazio vettoriale delle righe 1(A), si ottiene che
J

= L((1, 1, 1)). Per ulteriori precisazioni sullultima osservazione si veda lEsempio


5.18.
Osservazione 5.11 Da notare che, nellesercizio precedente, una base di J

` e formata
dai vettori che hanno come componenti i coefcienti dellequazione x
1
+ x
2
+ x
3
= 0
che denisce J. Si giustichi teoricamente questo fatto, ma si presti particolare atten-
zione a non applicare questa regola nel caso in cui J sia denito come linsieme delle
combinazioni lineare di alcuni vettori.
Esercizio 5.7 In R
2,2
si consideri il sottospazio vettoriale:
J = A R
2,2
[ tr(A) = 0.
Si determinino due sottospazi vettoriali diversi supplementari di J e il suo complemento
ortogonale, rispetto al prodotto scalare denito in (5.4).
Soluzione Innanzi tutto si osservi che, per le propriet` a della traccia di una matrice
quadrata, J ` e un sottospazio vettoriale.
`
E facile ottenere che:
J = L

1 0
0 1

0 1
0 0

0 0
1 0

.
Capitolo 5 221
Pertanto J ` e un iperpiano vettoriale di R
2,2
(cfr. Def. 4.16). I sottospazi vettoriali:
J
1
= L

1 0
0 1

, J
2
= L

0 0
0 1

sono diversi e entrambi supplementari di J; il complemento ortogonale J

coincide
con J
1
.
Esercizio 5.8 Siano J
1
e J
2
sottospazi vettoriali di uno spazio vettoriale euclideo
(V, ) di dimensione n. Dimostrare che:
(J
1
+J
2
)

= J

1
J

2
,
(J
1
J
2
)

= J

1
+J

2
.
Se invece J
1
J
2
, allora dimostrare che:
J

2
J

1
.
Esercizio 5.9 In R
4
, rispetto al prodotto scalare standard, determinare la proiezione or-
togonale del vettore a = (1, 2, 0, 1) sul sottospazio vettoriale:
J = (x
1
, x
2
, x
3
, x
4
) R
4
[ x
1
+ x
2
+ x
3
= 0.
Soluzione Per risolvere questo esercizio si deve tener conto dellOsservazione 5.3. Si
tratta, quindi, di determinare una base ortonormale del sottospazio vettoriale J. J ` e un
iperpiano vettoriale di R
4
generato dai vettori:
a
1
= (0, 0, 0, 1), a
2
= (1, 0, 1, 0), a
3
= (0, 1, 1, 0).
Applicando il processo di ortonormalizzazione di GramSchmidt si perviene alla base
ortonormale di J data dai vettori:
b
1
= a
1
= (0, 0, 0, 1),
b
2
= vers(a
2
(a
2
b
1
)b
1
) =

2
, 0,
1

2
, 0

,
b
3
= vers(a
3
(a
3
b
1
)b
1
(a
3
b
2
)b
2
) =

6
,
2

6
,
1

6
, 0

.
Il vettore p proiezione ortogonale di a su J ` e dato da:
p = (a b
1
)b
1
+ (a b
2
)b
2
+ (a b
3
)b
3
= (0, 1, 1, 1).
222 Spazi Vettoriali Euclidei
Esercizio 5.10 Si dimostri che nello spazio vettoriale euclideo (R
n,n
, ) delle matrici
quadrate di ordine n, dotato del prodotto scalare standard denito in (5.4), il complemento
ortogonale del sottospazio vettoriale delle matrici simmetriche o(R
n,n
) ` e il sottospazio
vettoriale delle matrici antisimmetriche /(R
n,n
).
Soluzione Nel Teorema 4.4 si dimostra che R
n,n
= o(R
n,n
) /(R
n,n
). Per comple-
tare lesercizio ` e sufciente vericare che ogni matrice simmetrica ` e ortogonale ad ogni
matrice antisimmetrica. Siano S o(R
n,n
), S = O, e A /(R
n,n
), A = O, dove
con O R
n,n
si indica la matrice nulla, allora
t
S = S e
t
A = A, quindi, ricordando le
propriet` a della traccia di una matrice, si ha:
S A = tr(
t
S A) = tr(S A) = tr(AS) = tr(
t
AS) = A S,
da cui segue S A = 0.
Esempio 5.18 Sia (V, ) uno spazio vettoriale euclideo di dimensione n e sia:
B = (e
1
, e
2
, . . . , e
n
)
una sua base ortonormale. Sia J = L(a
1
, a
2
, . . . , a
k
) un sottospazio vettoriale di V
generato da k vettori linearmente indipendenti a
1
, a
2
, . . . , a
k
dati da:

a
1
a
2
.
.
.
a
k

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
a
k1
a
k2
. . . a
kn

e
1
e
2
.
.
.
e
n

= A

e
1
e
2
.
.
.
e
n

.
A ` e dunque una matrice di R
k,n
di rango k. Come gi` a osservato nella dimostrazione del
Teorema 5.8, il complemento ortogonale di J ` e formato dai vettori x di V la cui matrice
X delle componenti ` e soluzione del sistema lineare omogeneo:
AX = O,
dove O R
n,1
` e la matrice colonna nulla.
Pertanto il nullspace ^(A) di A coincide con J

. Se si indica con 1(A) lo spazio


vettoriale delle righe di A e con ((A) lo spazio vettoriale delle colonne di A (cfr. Cap.
4.3) segue:
1(A)

= ^(A), ((A)

= ^(
t
A).
Si osservi che nel Teorema 4.24 era gi` a stato dimostrato che 1(A) ^(A) = R
n
e che
((A) ^(
t
A) = R
k
.
Capitolo 5 223
5.5 Esercizi di riepilogo svolti
Esercizio 5.11 Siano:
u
1
= (1, 1, 1, 1), u
2
= (3, 1, 1, 1), u
3
= (0, 1, 1, 2)
elementi di uno spazio vettoriale euclideo (V
4
, ), riferiti ad una base ortonormale
B = (e
1
, e
2
, e
3
, e
4
).
1. Vericare che i vettori u
i
, i = 1, 2, 3, sono a due a due ortogonali.
2. Trovare le componenti, rispetto a B, di un vettore u
4
, di norma

2, formante un
angolo acuto con e
2
e tale che la quaterna (u
1
, u
2
, u
3
, u
4
) sia una base ortogonale
di V
4
.
Soluzione 1. Si verica subito che:
u
1
u
2
=

1 1 1 1

3
1
1
1

= 0,
u
1
u
3
=

1 1 1 1

0
1
1
2

= 0,
u
2
u
3
=

3 1 1 1

0
1
1
2

= 0.
2. Sia u
4
= (y
1
, y
2
, y
3
, y
4
) il vettore da determinare. Afnch e u
4
sia ortogonale ai tre
vettori dati, le sue componenti (y
1
, y
2
, y
3
, y
4
) devono essere soluzioni del sistema
lineare omogeneo con matrice associata A le cui righe sono le componenti dei
vettori u
1
, u
2
, u
3
. Poich e u
1
, u
2
, u
3
sono linearmente indipendenti, rank(A) = 3.
Le soluzioni di tale sistema lineare omogeneo sono:
(y
1
= 0, y
2
= t, y
3
= t, y
4
= 0), t R.
La condizione |u
4
| =

2 equivale allequazione t
2
= 1, vale a dire a t = 1.
Si ottengono cos` due vettori di componenti (0, 1, 1, 0) e (0, 1, 1, 0). Il vetto-
re u
4
cercato ` e il primo in quanto la seconda componente ` e positiva, condizione
equivalente al fatto che langolo tra u
4
e e
2
sia acuto.
224 Spazi Vettoriali Euclidei
Esercizio 5.12 Sia (V, ) uno spazio vettoriale euclideo.
1. Vericare che linsieme T formato dai vettori di un iperpiano H che sono ortogo-
nali ad un vettore u di V ` e un sottospazio vettoriale di V.
2. Nel caso in cui V abbia dimensione 4 e B = (e
1
, e
2
, e
3
, e
4
) sia una sua base
ortonormale, sono dati:
H = x = x
1
e
1
+ x
2
e
2
+ x
3
e
3
+ x
4
e
4
[ 2x
1
x
3
+ x
4
= 0
e u = (0, 1, 2, 1), trovare una base ortogonale di T e completarla in modo da
ottenere una base ortogonale di H.
Soluzione 1. Se u ` e ortogonale ad H (in particolare se u = o) allora T = H. Se
u non ` e ortogonale ad H, T ` e lintersezione di H con liperpiano H

= L(u)

ortogonale a u, quindi ` e ancora un sottospazio vettoriale di V.


2. Poich e u non ` e ortogonale ad H, T = H H

, dove H

` e liperpiano ortogonale
a u, formato dai vettori x tali che x u = 0, pertanto:
T = x = x
1
e
1
+ x
2
e
2
+ x
3
e
3
+ x
4
e
4
[ 2x
1
x
3
+ x
4
= x
2
+ 2x
3
+ x
4
= 0.
Una base di T ` e ( = (a
1
, a
2
) con a
1
= (1, 4, 2, 0), a
2
= (1, 2, 0, 2). Per ottenere
una base ortogonale di T si pu` o mantenere il vettore a
1
e sostituire al vettore a
2
il vettore b
2
= a
2
+ a
1
, determinando in modo tale che b
2
a
1
= 0. Si ha
= 1/3, da cui segue:
b
2
=

4
3
,
2
3
,
2
3
, 2

.
Per completare la base (a
1
, b
2
) di T ad una base ortogonale di H ` e sufciente
aggiungere un vettore b
3
= (y
1
, y
2
, y
3
, y
4
) appartenente ad H e ortogonale a a
1
e
a b
2
, ossia tale che:

y
1
+ 4y
2
+ 2y
3
= 0

4
3
y
1
+
2
3
y
2

2
3
y
3
+ 2y
4
= 0
2y
1
y
3
+ y
4
= 0,
da cui si ottiene b
3
= (2t, 6t, 11t, 7t), t R, t = 0. Assegnando al parame-
tro t un valore qualsiasi, non nullo, si ottiene una delle basi richieste.
Capitolo 5 225
5.5.1 Per saperne di pi ` u
Lo scopo di questo paragrafo ` e quello di introdurre un prodotto scalare opportuno nel
caso degli spazi vettoriali complessi in modo da potere, anche in questo contesto, denire
il concetto di ortogonalit` a di due vettori.
5.5.2 Spazi vettoriali hermitiani
Loperazione di prodotto scalare (cfr. Def. 5.1) introdotta su uno spazio vettoriale reale
pu` o essere estesa mediante la seguente denizione agli spazi vettoriali complessi.
Denizione 5.7 Sia V uno spazio vettoriale su C. Si denisce prodotto hermitiano su V
la funzione:
V V C, (x, y) x y,
per cui valgano le seguenti propriet` a:
1. x y = y x x, y V ;
2. (x
1
+x
2
) y = x
1
y +x
2
y, x
1
, x
2
, y V ;
3. (x) y = (x y), C, x, y V ;
4. x x 0, x V e x x = 0 x = o,
dove y x indica il complesso coniugato di y x.
Uno spazio vettoriale complesso V su cui ` e denito un prodotto hermitiano prende il
nome di spazio vettoriale hermitiano o di spazio vettoriale euclideo complesso e si indica,
in generale, con la scrittura (V, ).
Osservazione 5.12 1. Come conseguenza delle Propriet` a 1. e 3. della Denizione 5.7
si ha:
x (y) = (y) x = (y x) = (y x) = (x y), C, x, y V.
Inoltre, dalle Propriet` a 1., 2. e 3 della Denizione 5.7 si ottiene:
x (
1
y
1
+
2
y
2
) =
1
(x y
1
) +
2
(x y
2
),
1
,
2
C, x, y
1
, y
2
V. (5.9)
2. La Propriet` a 4. della Denizione 5.7 ha senso in quanto x x = x x e pertanto
x x ` e un numero reale.
226 Spazi Vettoriali Euclidei
Nel caso degli spazi vettoriali hermitiani valgono esempi e teoremi analoghi a quelli gi` a
dimostrati per gli spazi vettoriali euclidei.
Esempio 5.19 Sullo spazio vettoriale complesso C
n
(cfr. Es. 4.44) si pu` o denire un pro-
dotto hermitiano che, se ristretto a R
n
, coincide con il prodotto scalare standard introdotto
nellEsempio 5.2. Precisamente si pone:
(x
1
, x
2
, . . . , x
n
) (y
1
, y
2
, . . . , y
n
) = x
1
y
1
+ x
2
y
2
+ . . . + x
n
y
n
=
n

i=1
x
i
y
i
, (5.10)
per ogni (x
1
, x
2
, . . . , x
n
), (y
1
, y
2
, . . . , y
n
) C
n
. Con la notazione matriciale:
X =

x
1
x
2
.
.
.
x
n

, Y =

y
1
y
2
.
.
.
y
n

la (5.10) si scrive come:


X Y =
t
X Y ,
dove Y indica la matrice complessa coniugata di Y.
`
E un esercizio dimostrare che (5.10)
` e un prodotto hermitiano che, spesso, prende il nome di prodotto hermitiano standard
su C
n
, che viene cos` dotato della struttura di spazio vettoriale hermitiano.
`
E ancora un
esercizio dimostrare che:
X Y =
t
X Y
` e un altro prodotto hermitiano su C
n
, che coincide con il prodotto scalare di R
n
, quando
lo si riferisce a numeri reali.
Ogni spazio vettoriale complesso, di dimensione nita, ammette almeno un prodotto
hermitiano, vale infatti il seguente teorema.
Teorema 5.9 Sia V uno spazio vettoriale complesso di dimensione n. Data una base
B = (v
1
, v
2
, . . .,v
n
) di V, la funzione:
: V V C, x y
t
X Y , (5.11)
dove:
X =

x
1
x
2
.
.
.
x
n

, Y =

y
1
y
2
.
.
.
y
n

e (x
1
, x
2
, . . . , x
n
) e (y
1
, y
2
, . . . , y
n
) sono le componenti rispettivamente di x e y rispetto
alla base B, ` e un prodotto hermitiano su V.
Capitolo 5 227
La dimostrazione ` e un esercizio.
La Propriet` a 4. della Denizione 5.7 permette, come per gli spazi vettoriali euclidei, di
denire la norma di un vettore anche nel caso di uno spazio vettoriale hermitiano (V, ).
Infatti si denisce norma di un vettore x di V il numero reale positivo dato da:
|x| =

x x
ed ` e lasciata al Lettore la verica della proprie` a:
|x| = [[ |x|, x V, C,
dove [[ indica il modulo del numero complesso .
Esempio 5.20 Nello spazio vettoriale hermitiano (C
n
, ) con il prodotto hermitiano stan-
dard (5.10), la norma di x ` e data da:
|x| =

i=1
x
i
x
i
=

i=1
[x
i
[
2
,
dove [x
i
[ indica il modulo del numero complesso x
i
.
Continuano a valere, anche nel caso degli spazi vettoriali hermitiani, la disuguaglianza
di CauchySchwartz e la disuguaglianza triangolare (cfr. Teor. 5.2), anche se la loro
dimostrazione ` e pi` u laboriosa rispetto a quella del caso euclideo. Precisamente, vale il
teorema seguente.
Teorema 5.10 Su uno spazio vettoriale hermitiano (V, ), la funzione:
| | : V R, x |x|
verica le seguenti propriet` a:
1. Disuguaglianza di CauchySchwartz: [x y[ |x| |y|, x, y V ,
dove [x y[ indica il modulo del numero complesso x y.
2. Disuguaglianza triangolare: |x +y| |x| +|y|, x, y V.
Dimostrazione 1. La disuguaglianza di CauchySchwartz ` e banalmente soddisfatta
se uno dei vettori coincide con il vettore nullo. Si supponga, quindi, che x e y
siano entrambi diversi dal vettore nullo. Si inizia la dimostrazione nel caso partico-
228 Spazi Vettoriali Euclidei
lare |y| = 1. Si ha:
0 |x (x y) y|
2
= (x (x y) y) (x (x y) y)
= |x|
2
(x y)(x y) (x y)(y x) +
(x y)(x y)|y|
2
= [[x|
2
2[x y[
2
+[x y[
2
|y|
2
= |x|
2
[x y[
2
.
Quindi [x y[ |x| se |y| = 1. Se y = o, si pu` o considerare il versore di y.
Applicando allora la precedente disuguaglianza si ottiene:

x
y
|y|

|x|,
da cui la tesi.
2. La dimostrazione ` e analoga a quella vista nel caso di uno spazio vettoriale euclideo
reale se si tiene conto che:
x y +y x = x y +x y 2[x y[. (5.12)
Infatti, dato un numero complesso z = a + ib, con a, b R e a = Re(z), dove
Re(z) indica la parte reale di z, si ha:
[z[
2
= z z = a
2
+ b
2
a
2
= (Re(z))
2
.
Daltra parte 2 Re(z) = z + z da cui segue:
2 Re(z) = z + z 2[z[,
ossia la (5.12).
Dalla disuguaglianza di CauchySchwartz segue che:
[x y[
|x| |y|
1,
ma ci ` o signica solo che il modulo del numero complesso (x y)/(|x| [[y|) ` e minore o
uguale a 1. Pertanto non ` e possibile nel caso degli spazi vettoriali hermitiani introdurre
il concetto di angolo tra due vettori nello stesso modo in cui ` e stato denito per gli spazi
vettoriali euclidei. Nonostante ci` o, sugli spazi vettoriali hermitiani, come nel caso reale,
si pu` o introdurre il concetto di ortogonalit` a. Pi` u precisamente, due vettori x e y di uno
spazio vettoriale hermitiano (V, ) si dicono ortogonali se x y = 0. Di conseguenza, ` e
valida anche in questo caso la denizione di base ortogonale e ortonormale e continua a
valere anche per uno spazio vettoriale hermitiano il Lemma 5.1. Una base ortonormale su
uno spazio vettoriale hermitiano ` e in generale chiamata base unitaria.
Capitolo 5 229
Esempio 5.21 La base canonica (e
1
, e
2
, . . . e
n
) di C
n
` e una base unitaria dello spazio
vettoriale hermitiano (C
n
, ) con il prodotto hermitiano standard (5.10).
Inoltre, analogamente a quanto dimostrato per uno spazio vettoriale euclideo, in uno spa-
zio vettoriale hermitiano (V, ) utilizzando il processo di ortonormalizzazione di Gram
Schmidt (che vale anche nel caso complesso) si pu` o costruire una base unitaria a partire
da una base di V. La dimostrazione ` e analoga a quella vista per il Teorema 5.5, facendo
attenzione al fatto che, a differenza del caso reale, il prodotto hermitiano non ` e simmetrico
ma vale la Propriet` a 1. della Denizione 5.7.
Osservazione 5.13 La disuguaglianza di CauchySchwartz pu` o essere dimostrata in mol-
ti modi diversi. Si propone di seguito una seconda versione della dimostrazione preceden-
te, che, anche se pi` u lunga, ` e interessante per la sua interpretazione geometrica. Infatti,
sorprendentemente, anche se in uno spazio vettoriale hermitiano non ` e denito lango-
lo tra due vettori, il prodotto hermitiano permette di introdurre la nozione di proiezione
ortogonale di un vettore su un altro vettore. Sia x un vettore non nullo, si denisce il
vettore:
w = x
x y
[[y|
2
y,
che, nel caso di uno spazio vettoriale euclideo, rappresenterebbe un vettore ortogonale
a y in quanto w ` e la differenza di x con la sua proiezione ortogonale su y. Anche in
questo caso si dimostra che w y = 0, infatti:
w y =

x
x y
[[y|
2
y

y = x y
x y
[[y|
2
y y = 0.
Dal fatto che |w|
2
0 si ha:
0 w w = w x =

x
x y
|y|
2
y

x =
|x|
2
|y|
2
[y x[
2
|y|
2
,
ossia la tesi.
Dal Teorema 5.6 si ha che due basi in uno spazio vettoriale euclideo sono ortonormali se
e solo se la matrice del loro cambiamento di base ` e una matrice ortogonale. Un risultato
analogo ` e valido in uno spazio vettoriale hermitiano, con la differenza che la matrice P
del cambiamento di base deve vericare la relazione:
t
P P = I.
Si pu` o allora introdurre linsieme delle matrici unitarie di C
n,n
denito da:
U(n) = P C
n,n
[
t
P P = I,
230 Spazi Vettoriali Euclidei
che ` e lanalogo, nel caso complesso, dellinsieme O(n) delle matrici ortogonali (cfr.
(2.9)).
Si osservi che dalla relazione
t
P P = I si ottiene
t
P P = I e P
1
=
t
P. Inoltre, una
matrice unitaria ad elementi reali ` e ovviamente ortogonale ed una matrice ortogonale,
considerata come matrice complessa, ` e unitaria. Per le matrici unitarie valgono le seguenti
propriet` a:
Teorema 5.11 1. Il prodotto di due matrici unitarie ` e una matrice unitaria.
2. La matrice identit` a I ` e unitaria.
3. Linversa P
1
di una matrice unitaria P ` e unitaria.
4. La trasposta
t
P di una matrice unitaria P ` e unitaria.
5. Una matrice P C
n,n
` e unitaria se e e solo se le righe e le colonne di P so-
no le componenti di una base ortonormale di C
n
, rispetto al prodotto hermitiano
standard.
6. Il determinante di una matrice unitaria P ` e un numero complesso di modulo 1.
La dimostrazione, analoga a quella vista per il Teorema 5.7, ` e lasciata al Lettore per
esercizio.
Osservazione 5.14 Segue dalle propriet` a 1., 2., 3. del Teorema 5.11 che linsieme delle
matrici unitarie U(n) ` e un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2).
Esempio 5.22 Le matrici unitarie di ordine 1 sono facilmente individuabili, infatti si ha:
U(1) = z C [ z z = 1,
si tratta, quindi, dei numeri complessi di modulo 1. Nel Capitolo 9 si vedr` a uninterpre-
tazione geometrica di tale insieme.
`
E meno semplice individuare le matrici unitarie di
ordine 2. Si dimostra che sono tutte e sole le matrici:
A =

z
1
z
2
z
2
z
1

dove , z
1
, z
2
sono numeri complessi tali che:
[[ = 1, [z
1
[
2
+[z
2
[
2
= 1.
Nel Capitolo 11 si vedr` a uninteressante rappresentazione geometrica dellinsieme degli
elementi di U(2) aventi determinante 1.
Capitolo 5 231
Siano (V, ) uno spazio vettoriale hermitiano di dimensione n e J un suo sottospazio
vettoriale di dimensione k n. Come nel caso degli spazi vettoriale euclidei si pu` o
denire il complemento ortogonale J

di J per cui valgono le stesse propriet` a del caso


reale (cfr. Teor. 5.8).
Si conclude il capitolo osservando che la norma di un vettore individua il prodotto scalare
o hermitiano che la denisce. Infatti ` e un facile esercizio dimostrare che in uno spazio
vettoriale euclideo reale V vale la formula:
x y =
1
2

[[x +y[[
2
|x|
2
|y|
2

, x, y V.
Pi ` u complicata la relazione analoga che vale nel caso di uno spazio vettoriale hermitiano:
x y =
1
2
([[x +y[[
2
|x|
2
|y|
2
)
+
i
2
(|x + iy|
2
|x|
2
|y|
2
),
(5.13)
con x, y V.
232 Spazi Vettoriali Euclidei
Capitolo 6
Applicazioni Lineari
Questo capitolo non ` e da considerarsi in forma nale
Lo scopo di questo capitolo ` e quello di introdurre la nozione di applicazione lineare tra
due spazi vettoriali, mettendoli cos` in relazione lun laltro e in modo da poter denire,
come caso particolare, il concetto di movimento rigido o euclideo in uno spazio vettoriale.
Denizione 6.1 Dati due spazi vettoriali reali V e W, si dice applicazione lineare o
omomorsmo o trasformazione lineare da V in W una funzione f : V W che
verica le seguenti propriet` a:
f(x +y) = f(x) + f(y),
f(x) = f(x),
per ogni x e y in V e per ogni in R, o, equivalentemente:
f(x + y) = f(x) + f(y),
per ogni x e y in V e per ogni e in R.
V prende il nome di dominio di f e W ` e il codominio di f ; f(x) W ` e detto vettore
immagine di x V mediante f. Se w = f(x) allora il vettore x V ` e detto vettore
controimmagine di w W mediante f.
Denizione 6.2 Sia f : V V unapplicazione lineare in cui il dominio e il codominio
coincidono, allora f ` e detta endomorsmo o operatore lineare o trasformazione lineare
di V.
Di seguito si riporta un elenco di funzioni di cui si lascia al Lettore, per esercizio, la
verica delleventuale linearit` a.
233
234 Applicazioni Lineari
Esempio 6.1 La funzione:
id : V V, x id(x) = x,
detta applicazione lineare identica o identit` a, ` e unendomorsmo.
Esempio 6.2 La funzione:
O : V W, x O(x) = o
W
,
dove o
W
indica il vettore nullo di W, ` e unapplicazione lineare, detta applicazione lineare
nulla. Se W = V, lendomorsmo O : V V, x O(x) = o, prende il nome di
endomorsmo nullo.
Esempio 6.3 La funzione:
f : R
2
R, (x, y) f((x, y)) = 3x + 2y
` e unapplicazione lineare.
Esempio 6.4 La funzione:
f : R
2
R, (x, y) f((x, y)) = 3x + 2y + 5
non ` e unapplicazione lineare.
Esempio 6.5 La funzione:
f : R
2
R, (x, y) f((x, y)) = x
2
+ 2y
non ` e unapplicazione lineare.
Esempio 6.6 La funzione:
f : V
3
R, x f(x) = a x
con prodotto scalare su V
3
e a vettore ssato di V
3
, ` e lineare. Se a = o allora
f(a) = 0, cio` e f ` e lapplicazione lineare nulla.
Esempio 6.7 La funzione:
f : V
3
V
3
, x f(x) = a x,
con prodotto vettoriale e a vettore ssato di V
3
, ` e un endomorsmo. Se a = o
allora f(a) = o, ossia f ` e lendomorsmo nullo.
Capitolo 6 235
Esempio 6.8 La funzione:
f : R
n,n
R, A f(A) = det(A),
dove det(A) ` e il determinante della matrice A, non ` e unapplicazione lineare se n > 1.
Esempio 6.9 La funzione:
f : R
n,n
R, A f(A) = tr(A),
dove tr(A) ` e la traccia della matrice A, ` e unapplicazione lineare.
Esempio 6.10 Se lo spazio vettoriale V ` e dato dalla somma diretta di due sottospazi
vettoriali J
1
e J
2
, V = J
1
J
2
, allora dalla Denizione 4.5 si ha che ogni vettore
x di V si decompone in modo unico come x = x
1
+ x
2
, con x
1
J
1
e x
2
J
2
. Le
funzioni:
f
1
: V V, x f
1
(x) = x
1
e f
2
: V V, x f
2
(x) = x
2
sono applicazioni lineari e prendono il nome di proiezioni di V su J
1
e su J
2
rispetti-
vamente.
In particolare, se J ` e un sottospazio vettoriale di uno spazio vettoriale euclideo (V, ),
si ha che V = J J

, dove J

indica il complemento ortogonale di J, allora ogni


vettore x di V si decompone in modo unico come x = x
W
+ x
W
, con x
W
J e
x
W
J

. Lapplicazione lineare:
p : V V, x p(x) = x
W
prende il nome di proiezione ortogonale su J.
Esempio 6.11 La funzione:
f : V
2
V
2
, (x
1
, x
2
) f((x
1
, x
2
)) = (x
1
, x
2
),
dove (x
1
, x
2
) sono le componenti di un qualsiasi vettore di V
2
rispetto ad una base orto-
normale positiva B = (i, j), ` e un endomorsmo di V
2
. Si tratta dellapplicazione lineare
che associa ad ogni vettore di V
2
il suo simmetrico rispetto a j.
Esempio 6.12 La funzione:
f : V
3
V
3
, (x
1
, x
2
, x
3
) f((x
1
, x
2
, x
3
)) = (x
1
, x
2
, x
3
),
dove (x
1
, x
2
, x
3
) sono le componenti di un qualsiasi vettore di V
3
rispetto ad una base
ortonormale positiva B = (i, j, k), ` e un endomorsmo di V
3
. Si tratta dellapplicazione
lineare che associa ad ogni vettore di V
3
il suo simmetrico rispetto al piano vettoriale
generato da i e da j.
236 Applicazioni Lineari
Esempio 6.13 La funzione:
f : R
n
R
n
, X f(X) = AX,
dove X R
n
(ma ` e considerata come una matrice colonna di R
n,1
) e A R
n,n
, ` e un
endomorsmo di R
n
. Pi ` u in generale:
f : R
n
R
m
, X f(X) = AX,
con X R
n
e A R
m,n
, ` e anchessa unapplicazione lineare.
La dimostrazione del seguente teorema ` e lasciata per esercizio.
Teorema 6.1 Sia f : V W unapplicazione lineare tra due spazi vettoriali V e W,
si ha:
1. f(o
V
) = o
W
,
dove o
V
indica il vettore nullo di V e o
W
indica il vettore nullo di W;
2. f(x) = f(x), x V ;
3. f(
1
x
1
+
2
x
2
+ . . . +
k
x
k
) =
1
f(x
1
) +
2
f(x
2
) + . . . +
k
f(x
k
),

i
R, x
i
V, i = 1, 2, . . . , k.
6.1 Matrice associata ad unapplicazione lineare
Equazioni di unapplicazione lineare
Il paragrafo inizia con la dimostrazione del teorema pi` u importante sulle applicazioni
lineari, in cui si chiarisce come si possa assegnare unapplicazione lineare tra due spazi
vettoriali di dimensione nita.
`
E fondamentale osservare, infatti, che il teorema seguente
` e valido solo nel caso in cui il dominio sia nitamente generato.
Teorema 6.2 Teorema fondamentale delle applicazioni lineari Sia V uno spazio vet-
toriale reale di dimensione n e sia B = (v
1
, v
2
, . . . , v
n
) una sua base. Dato un insieme
a
1
, a
2
, . . . , a
n
di n vettori di uno spazio vettoriale W, esiste ed ` e unica lapplicazione
lineare:
f : V W
tale che:
f(v
i
) = a
i
, i = 1, 2, . . . , n.
Capitolo 6 237
In altri termini: per assegnare unapplicazione lineare tra due spazi vettoriali V e W,
di cui almeno V di dimensione nita, ` e sufciente conoscere le immagini, mediante la
funzione f, dei vettori di una base di V.
Dimostrazione Sia x = x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
V, si denisce f ponendo:
f(x) = x
1
a
1
+ x
2
a
2
+ . . . + x
n
a
n
.
La dimostrazione del teorema si ottiene dai quattro punti seguenti:
1. f ` e una funzione, infatti il vettore f(x) ` e denito per ogni vettore x di V ed ` e
univocamente determinato, per lesistenza e lunicit` a delle componenti di x rispetto
alla base B.
2. Dalla denizione di f si ha f(v
i
) = a
i
, i = 1, 2, . . . , n. Per esempio, f(v
1
) = a
1
in quanto v
1
= (1, 0, . . . , 0) rispetto alla base B, e cos` via.
3. Per dimostrare la linearit` a di f si deve vericare che:
f(x + y) = f(x) + f(y), x, y V, , R.
La tesi segue dalla denizione di f, ponendo:
x = x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
, y = y
1
v
1
+ y
2
v
2
+ . . . + y
n
v
n
.
Poich e:
x + y = (x
1
+ y
1
)v
1
+ (x
2
+ y
2
)v
2
+ . . . + (x
n
+ y
n
)v
n
,
un semplice calcolo prova che:
f(x+y) = (x
1
+y
1
)a
1
+(x
2
+y
2
)a
2
+. . .+(x
n
+y
n
)a
n
= f(x)+f(y).
4. Lapplicazione lineare f ` e unica. Infatti, se esistesse unaltra applicazione lineare
g : V W, tale che g(v
i
) = a
i
, i = 1, 2, . . . , n, allora si avrebbe:
g(x) = g(x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
)
= x
1
g(v
1
) + x
2
g(v
2
) + . . . + x
n
g(v
n
)
= x
1
a
1
+ x
2
a
2
+ . . . + x
n
a
n
,
per ogni x V, ci ` o implicherebbe g(x) = f(x), per ogni x V e quindi g = f .
238 Applicazioni Lineari
Dal Teorema 6.2 segue che denire unapplicazione lineare tra due spazi vettoriali di di-
mensione nita equivale a conoscere le immagini degli elementi di una base del dominio.
Siano, quindi, V uno spazio vettoriale di dimensione n e B = (v
1
, v
2
, . . . , v
n
) una sua
base, e W uno spazio vettoriale di dimensione m e ( = (w
1
, w
2
, . . . , w
m
) una sua base.
Si intende denire lapplicazione lineare f : V W ponendo:

f(v
1
) = a
11
w
1
+ a
21
w
2
+ . . . + a
m1
w
m
f(v
2
) = a
12
w
1
+ a
22
w
2
+ . . . + a
m2
w
m
.
.
.
f(v
n
) = a
1n
w
1
+ a
2n
w
2
+ . . . + a
mn
w
m
,
(6.1)
che equivale ad assegnare la matrice:
A =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn

R
m,n
ottenuta mettendo, ordinatamente, in colonna le immagini dei vettori della base B espres-
se rispetto alla base (. La matrice A prende il nome di matrice associata allapplicazione
lineare f rispetto alle basi B e ( e si indica come:
A = M
B,C
(f).
La scelta di porre in colonna le componenti ` e una convenzione, che si ripercuote forte-
mente sulle considerazioni successive.
Osservazione 6.1 1. Fissate le basi B nel dominio V e ( nel codominio W, se-
gue dal Teorema 6.2 che la matrice A = M
B,C
(f) determina in modo univoco
lapplicazione lineare f : V W.
2. Da notare, quindi, che la matrice A associata allapplicazione lineare f : V W
(rispetto ad una qualsiasi coppia di basi scelta) ha un numero di righe pari alla
dimensione del codominio W e un numero di colonne pari alla dimensione del
dominio V.
3. Se V = W, la matrice associata allendomorsmo f : V V, rispetto ad una
base B di V, ` e la matrice quadrata A = M
B,B
(f). Attenzione al fatto che si pu` o an-
che in questo caso considerare una matrice M
B,C
(f) con B = (, che, ovviamente,
sar` a diversa dalla matrice A, come si vedr` a nellEsempio 6.14.
Capitolo 6 239
In notazione matriciale le relazioni (6.1) si scrivono come:

f(v
1
)
f(v
2
)
.
.
.
f(v
n
)

=
t
A

w
1
w
2
.
.
.
w
m

. (6.2)
Dato un generico vettore x di V, ci si propone di calcolare la sua immagine f(x) me-
diante la matrice A. Sia:
X =

x
1
x
2
.
.
.
x
n

la matrice colonna delle componenti di x rispetto alla base B. Si ponga:


f(x) = y
1
w
1
+ y
2
w
2
+ . . . + y
m
w
m
,
se si indica con:
Y =

y
1
y
2
.
.
.
y
m

la matrice colonna delle componenti di f(x) rispetto alla base (, allora:


f(x) =
t
Y

w
1
w
2
.
.
.
w
m

. (6.3)
Per la linearit` a di f si ha:
f(x) = f(x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
)
= x
1
f(v
1
) + x
2
f(v
2
) + . . . + x
n
f(v
n
)
=
t
X

f(v
1
)
f(v
2
)
.
.
.
f(v
n
)

.
240 Applicazioni Lineari
Da (6.3) e da (6.2) segue:
f(x) =
t
Y

w
1
w
2
.
.
.
w
m

=
t
X

f(v
1
)
f(v
2
)
.
.
.
f(v
n
)

=
t
X
t
A

w
1
w
2
.
.
.
w
m

,
ossia, per lunicit` a delle componenti di un vettore rispetto ad una base, segue:
t
Y =
t
X
t
A
e quindi:
Y = AX, (6.4)
che ` e il legame cercato tra le componenti, rispetto alla base B, di un vettore x del dominio
V e le componenti della sua immagine f(x), rispetto alla base (.
Il sistema lineare, di m equazioni nelle n incognite (x
1
, x
2
, . . . , x
n
), associato allequa-
zione matriciale (6.4) prende il nome di sistema di equazioni dellapplicazione lineare f ,
rispetto alle basi B e (.
Gli esempi che seguono mettono in luce la fondamentale importanza della matrice asso-
ciata ad unapplicazione lineare e delle sue equazioni.
Esempio 6.14 La matrice associata allidentit` a:
id : V V, x id(x) = x,
rispetto ad una qualsiasi base B = (v
1
, v
2
, . . . , v
n
) di V, ` e la matrice unit` a I di ordine
n (cfr. Es. 6.1). Se si considera unaltra base B

= (v

1
, v

2
, . . . , v

n
) di V, si ha, invece,
che la matrice associata allidentit` a rispetto alla base B nel dominio e alla base B

nel
codominio, M
B,B

(id), coincide con la matrice del cambiamento di base da B

a B. In-
fatti, id(v
j
) = v
j
, per ogni j = 1, 2, . . . , n, e quindi per costruzione la matrice M
B,B

(id)
ha sulle colonne le componenti dei vettori v
j
della base B rispetto alla base B

. Sia
P = M
B,B

la matrice del cambiamento di base da B a B

(cfr. Par. 4.3.4), allora:


M
B,B

(id) = P
1
.
Ponendo:
id(x) = id(x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
) = x

1
v

1
+ x

2
v

2
+ . . . + x

n
v

n
segue che le equazioni dellapplicazione lineare id in questo caso sono:
X

= P
1
X,
Capitolo 6 241
dove con X si indica la matrice colonna delle componenti del vettore x rispetto alla
base B e con X

la matrice colonna delle componenti del vettore id(x) rispetto alla


base B

. Si osservi che le equazioni dellendomorsmo id coincidono con le equazioni


del cambiamento di base da B

a B. In altri termini la matrice associata allidentit` a ` e


la matrice unit` a se e solo se essa ` e scritta rispetto alla stessa base nel dominio e nel
codominio.
Esempio 6.15 La matrice associata allendomorsmo nullo:
O : V V, x O(x) = o,
rispetto ad una qualsiasi base B di V, ` e la matrice nulla O di ordine n se dim(V ) = n
(cfr. Es. 6.2).
Esempio 6.16 Le equazioni, rispetto alla base canonica B di R
3
, dellendomorsmo:
f : R
3
R
3
, (x, y, z) f((x, y, z)) = (2x + 3y, y, 3x 2z)
sono:

= 2x + 3y
y

= y
z

= 3x 2z,
(6.5)
dove (x

, y

, z

) = f((x, y, z)). Quindi la matrice associata allapplicazione lineare f,


rispetto alla base canonica di R
3
, ` e:
A =

2 3 0
0 1 0
3 0 2

.
Di conseguenza, limmagine del vettore (2, 0, 3) si calcola mediante il prodotto:

2 3 0
0 1 0
3 0 2

2
0
3

oppure sostituendo ordinatamente in (6.5) i numeri 2, 0, 3 al posto di x, y, z, rispettiva-


mente.
Esempio 6.17 Si consideri di nuovo lEsempio 6.7. In V
3
, spazio vettoriale dei vettori
ordinari riferito ad una base ortonormale positiva B = (i, j, k), si denisce lendomor-
smo:
f : V
3
V
3
, x f(x) = a x,
con a vettore di V
3
. La matrice associata ad f , rispetto alla base B, pu` o essere determi-
nata in due modi:
242 Applicazioni Lineari
1. si calcola f(x), ponendo x = x
1
i + x
2
j + x
3
k e a = a
1
i + a
2
j + a
3
k. Si ha:
f(x) = (a
3
x
2
+ a
2
x
3
)i + (a
3
x
1
a
1
x
3
)j + (a
2
x
1
+ a
1
x
2
)k,
allora la matrice associata ad f, rispetto alla base B, ` e:
A =

0 a
3
a
2
a
3
0 a
1
a
2
a
1
0

.
Si osservi che A ` e una matrice antisimmetrica.
2. Si pu` o pervenire alla matrice A calcolando le immagini dei vettori della base B
e mettendo sulle colonne, rispettivamente, le componenti di f(i), f(j), f(k), di
nuovo rispetto alla base B.
Se a ` e il vettore nullo, allora A coincide con la matrice nulla O R
3,3
e f ` e lendomor-
smo nullo.
Esempio 6.18 Rispetto alle basi canoniche B del dominio e ( del codominio, la matrice
associata allapplicazione lineare f : R
3
R
2,2
denita da:
f((a, b, c)) =

a a + b
a + b + c 0

` e la matrice appartenente a R
4,3
data da:
A =

1 0 0
1 1 0
1 1 1
0 0 0

.
Da notare che le equazioni dellapplicazione lineare f, rispetto alle basi B e (, sono:

= a
b

= a + b
c

= a + b + c
d

= 0
con:
f((a, b, c)) =

.
Capitolo 6 243
Esercizio 6.1 Si scrivano le matrici associate alle applicazioni lineari introdotte negli
Esempi 6.3, 6.6, 6.9, 6.10, 6.11, 6.12, 6.13, dopo aver ssato basi opportune nel dominio
e nel codominio.
Esercizio 6.2 In R
3
, rispetto alla base canonica B = (e
1
, e
2
, e
3
), ` e dato lendomorsmo
f tale che:

f(e
1
) f(e
2
) f(e
3
) = o
2f(e
1
) f(e
2
) = 3e
1
+ 2e
2
e
3
f(e
1
) + f(e
2
) = 3e
1
e
2
+ 2e
3
,
determinare la matrice A = M
B,B
(f) associata ad f rispetto alla base canonica B di R
3
e determinare le equazioni di f, rispetto alla base B.
Soluzione Si osservi che si ottiene la matrice A risolvendo il sistema lineare di equa-
zioni vettoriali assegnato e si osservi anche che la soluzione esiste ed ` e unica se e solo se
la matrice dei coefcienti di tale sistema lineare ha rango massimo. Si proceda, quindi,
con la riduzione per righe della matrice completa:

1 1 1
2 1 0
1 1 0

0 0 0
3 2 1
3 1 2


R
3
R
3
+ R
2

1 1 1
2 1 0
1 0 0

0 0 0
3 2 1
6 1 1

da cui si ha:

f(e
1
) = (6, 1, 1)
2f(e
1
) f(e
2
) = (3, 2, 1)
f(e
1
) f(e
2
) f(e
3
) = (0, 0, 0),
quindi:

f(e
1
) = 6e
1
+e
2
+e
3
f(e
2
) = 9e
1
+ 3e
3
f(e
3
) = 3e
1
+e
2
2e
3
,
di conseguenza la matrice cercata ` e:
A =

6 9 3
1 0 1
1 3 2

.
Le equazioni di f, rispetto alla base canonica B di R
3
, sono:
(y
1
, y
2
, y
3
) = (6x
1
+ 9x
2
3x
3
, x
1
+ x
3
, x
1
+ 3x
2
2x
3
),
con f((x
1
, x
2
, x
3
)) = (y
1
, y
2
, y
3
).
244 Applicazioni Lineari
6.2 Cambiamenti di base e applicazioni lineari
Per la lettura di questo paragrafo si deve fare costante riferimento al Paragrafo 4.3.4 sul
cambiamento di base in uno spazio vettoriale. Si vogliono, infatti, determinare le relazioni
che intercorrono tra tutte le matrici associate alla stessa applicazione lineare, costruite
cambiando base sia nel dominio sia nel codominio. Si ricordi ci ` o che ` e stato dimostrato
nel paragrafo precedente. Dati due spazi vettoriali reali V e W con dim(V ) = n e
base B = (v
1
, v
2
, . . . , v
n
), con dim(W) = m e base ( = (w
1
, w
2
, . . . , w
m
), si indichi
con A = M
B,C
(f) R
m,n
la matrice associata ad unapplicazione lineare f : V W,
rispetto alle basi B e (. Sia X R
n,1
la matrice colonna delle componenti di un generico
vettore x di V, rispetto alla base B, allora la matrice colonna Y delle componenti del
vettore f(x), rispetto alla base (, ` e data dallequazione (6.4):
Y = AX.
Si inizia con leffettuare un cambiamento di base in V. Sia B

= (v

1
, v

2
, . . . , v

n
) unaltra
base di V, indicata con X

R
n,1
la matrice colonna delle componenti del vettore x,
rispetto alla base B

, le equazioni del cambiamento di base sono:


X = PX

, (6.6)
dove P ` e la matrice invertibile di ordine n del cambiamento di base da B a B

. Si effettua
anche un cambiamento di base in W. Sia (

= (w

1
, w

2
, . . . , w

m
) unaltra base di W,
indicata con Y

R
m,1
la matrice colonna delle componenti del vettore f(x), rispetto
alla base (

, le equazioni del cambiamento di base sono:


Y = QY

, (6.7)
dove Q ` e la matrice invertibile di ordine m del cambiamento di base da ( a (

. Di
conseguenza, indicata con A

= M
B

,C

(f) R
m,n
la matrice associata ad f, rispetto alle
basi B

e (

, le equazioni di f, rispetto a tali basi, sono:


Y

= A

. (6.8)
Scopo di questo paragrafo ` e quello di individuare la relazione che intercorre tra le matrici
A e A

. Sostituendo le equazioni (6.6) e (6.7) in (6.4) si ha:


QY

= APX

ossia:
A

= Q
1
AP (6.9)
che stabilisce il legame cercato tra le matrici A e A

associate allapplicazione lineare f .


Capitolo 6 245
Osservazione 6.2 Le matrici associate ad una applicazione lineare f : V W tra
due spazi vettoriali V e W sono innite, in quanto le basi di V e di W sono innite.
Due matrici A e A

, entrambe appartenenti a R
m,n
, rappresentano la stessa applicazione
lineare se e solo se esistono una matrice invertibile P R
n,n
e una matrice invertibile
Q R
m,m
per le quali vale la relazione (6.9).
Nel caso particolare di un endomorsmo f : V V ed effettuando un solo cambia-
mento di base nello spazio vettoriale V, cio` e considerando nel dominio e nel codominio
lo stesso cambiamento di base, la (6.9) si riduce a:
A

= P
1
AP. (6.10)
Le matrici di questo tipo rivestono una grande importanza in algebra lineare e hanno una
particolare denominazione, come stabilisce la denizione che segue.
Denizione 6.3 Due matrici quadrate A e A

, entrambe di ordine n, si dicono simili se


esiste una matrice invertibile P di ordine n tale che A

= P
1
AP.
Le matrici simili sono legate dalle seguenti propriet` a.
Teorema 6.3 Matrici simili hanno:
1. lo stesso determinante,
2. la stessa traccia.
Dimostrazione 1. Segue dal Teorema 2.16, punto 2.
2.
`
E gi` a stato dimostrato in (2.13) nel Capitolo 2.
Esercizio 6.3 In R
4
sono dati i vettori:
v
1
= (1, 2, 0, 1), v
2
= (1, 0, 1, 0), v
3
= (1, 0, 0, 2), v
4
= (0, 1, 0, 1),
dopo aver vericato che essi costituiscono una base ( di R
4
, si consideri lendomorsmo
g di R
4
cos` denito:
g(v
1
) = v
1
, g(v
2
) = 2v
1
+v
2
, g(v
3
) = v
2
+v
3
, g(v
4
) = v
3
.
Si scrivano le matrici associate a g sia rispetto alla base ( sia rispetto alla base canonica
B di R
4
.
246 Applicazioni Lineari
Soluzione La matrice P, ottenuta mettendo in colonna le componenti dei vettori di (
rispetto alla base B, ` e la matrice del cambiamento di base da B a ( se e solo se ha rango
4, infatti si ha che:
P =

1 1 1 0
2 0 0 1
0 1 0 0
1 0 2 1

e det(P) = 1. La matrice associata a g rispetto alla base ( ` e:


A

= M
C,C
(g) =

1 2 0 0
0 1 1 0
0 0 1 1
0 0 0 0

.
Da (6.10) segue che la matrice A associata a g, rispetto alla base canonica B di R
4
, si
ottiene dal prodotto:
A = PA

P
1
.
6.3 Immagine e controimmagine di sottospazi vettoriali
Sia f : V W unapplicazione lineare tra due spazi vettoriali reali V e W. In questo
paragrafo si intendono studiare limmagine mediante f di un generico sottospazio vetto-
riale H di V e la controimmagine mediante f di un generico sottospazio vettoriale / di
W. Si inizia con la seguente denizione.
Denizione 6.4 Sia f : V W unapplicazione lineare tra due spazi vettoriali V e
W e sia H un sottospazio vettoriale di V, il sottoinsieme di W:
f(H) = f(x) W [ x H
prende il nome di immagine del sottospazio vettoriale H mediante f .
`
E molto facile e intuitivo il teorema che segue, la cui dimostrazione ` e lasciata al Let-
tore per esercizio ed ` e una conseguenza delle denizioni di sottospazio vettoriale e di
immagine di un sottospazio vettoriale.
Teorema 6.4 Sia H V un sottospazio vettoriale di V, allora linsieme f(H), imma-
gine del sottospazio vettoriale H mediante unapplicazione lineare f : V W, ` e un
sottospazio vettoriale dello spazio vettoriale W.
Capitolo 6 247
Se dim(V ) = n e dim(H) = h con h n, data una base (a
1
, a
2
, . . . , a
h
) di H, allora
ogni vettore x di H si esprime come x = x
1
a
1
+ x
2
a
2
+ . . . + x
h
a
h
, con x
1
, x
2
, . . . , x
h
numeri reali. Di conseguenza, per la linearit` a di f, si ha:
f(x) = x
1
f(a
1
) + x
2
f(a
2
) + . . . + x
h
f(a
h
)
da cui segue che i vettori f(a
1
), f(a
2
), . . . , f(a
h
) sono generatori di f(H). In altri
termini:
dim(f(H)) h.
Per determinare una base di f(H) ` e sufciente estrarre una base dal sistema di generatori
f(a
1
), f(a
2
), . . . , f(a
h
).
Esercizio 6.4 Sia f : R
3
R
4
lapplicazione lineare denita da:
f((x
1
, x
2
, x
3
)) = (x
1
+ x
2
, 2x
1
+ x
2
+ x
3
, x
1
+ x
3
, x
2
x
3
),
calcolare una base e la dimensione di f(H), dove:
H = (x
1
, x
2
, x
3
) R
3
[ x
1
+ x
2
+ x
3
= 0.
Soluzione Si verica che dim(H) = 2 e, rispetto alla base canonica di R
3
, una base di
H ` e data da:
(a
1
= (1, 0, 1), a
2
= (0, 1, 1)),
allora f(H) ` e generato dai vettori:
f(a
1
) = (1, 1, 0, 1), f(a
2
) = (1, 0, 1, 2),
scritti rispetto alla base canonica di R
4
. Si tratta di due vettori linearmente indipendenti,
pertanto costituiscono una base di f(H) e dim(f(H)) = 2.
Data lapplicazione lineare f : V W tra due spazi vettoriali V e W, come caso
particolare di immagine di un sottospazio vettoriale di V si pu` o considerare il sottospazio
vettoriale di W dato da f(V ), ci ` o suggerisce la seguente:
Denizione 6.5 Si denisce sottospazio immagine e si indica con imf il sottospazio
vettoriale f(V ) di W.
In generale dim(imf) dim(W) e, in modo naturale, si ha il seguente:
Teorema 6.5 Unapplicazione lineare f : V W tra due spazi vettoriali V e W ` e
suriettiva se e solo se imf = W.
248 Applicazioni Lineari
Osservazione 6.3 Se f : V W e se dim(V ) = n, data una base B = (v
1
, v
2
, . . . , v
n
)
di V, allora:
imf = L(f(v
1
), f(v
2
), . . . , f(v
n
))
quindi:
dim(imf) dim(V ).
Se dim(W) = m e ( = (w
1
, w
2
, . . . , w
m
) ` e una base di W, indicata con A la matrice di
R
m,n
associata ad f rispetto alle basi B e (, dal Paragrafo 6.1 segue che:
dim(imf) = dim(((A)) = rank(A),
dove ((A) indica lo spazio vettoriale delle colonne della matrice A.
Vale anche levidente ma importante:
Teorema 6.6 Tutte le matrici associate alla stessa applicazione lineare hanno lo stesso
rango. In particolare matrici simili hanno lo stesso rango.
Osservazione 6.4 1. f : V W ` e suriettiva se e solo se:
rank(A) = dim(W)
dove A ` e una qualsiasi matrice associata ad f .
2. Non esiste alcuna applicazione lineare suriettiva da R
2
in R
3
. Perch e?
Esercizio 6.5 Si calcoli imf, dove f : R
3
R
4
` e lapplicazione lineare denita
nellEsercizio 6.4.
Soluzione La matrice associata ad f, rispetto alle basi canoniche di R
3
e di R
4
, ` e:
A =

1 1 0
2 1 1
1 0 1
0 1 1

;
riducendo A per colonne si ottiene:

1 1 0
2 1 1
1 0 1
0 1 1

C
2
C
2
C
1

1 0 0
2 1 1
1 1 1
0 1 1

C
3
C
3
+ C
2

1 0 0
2 1 0
1 1 0
0 1 0

quindi rank(A) = 2 da cui dim(imf) = 2. Una base di imf ` e data dalle due colonne
non nulle della matrice ridotta per colonne, ossia imf = L((1, 2, 1, 0), (0, 1, 1, 1)).
Capitolo 6 249
Osservazione 6.5 Se si riduce per righe una qualsiasi matrice A associata ad unap-
plicazione lineare f : V W si ottiene una matrice A

, ridotta per righe, tale che


rank(A) = rank(A

) = dim(imf) ma in generale lo spazio vettoriale delle colonne di A


` e diverso dallo spazio vettoriale delle colonne di A

(((A) = ((A

)). Pertanto ci si deve


ricordare che per determinare una base di imf (e non solo la sua dimensione) si deve
ridurre la matrice A per colonne e non per righe.
Si intende ora discutere il problema analogo al calcolo dellimmagine di un sottospazio
vettoriale del dominio di unapplicazione lineare, ma relativo ad un sottospazio vettoriale
/ del codominio. Si ha:
Denizione 6.6 Sia f : V W unapplicazione lineare tra i due spazi vettoriali V
e W. Si denisce controimmagine di un sottospazio vettoriale / di W mediante f il
sottoinsieme di V dato da:
f
1
(/) = x V [ f(x) /,
vale a dire linsieme delle controimmagini di tutti i vettori di /.
Anche in questo caso si ha:
Teorema 6.7 La controimmagine f
1
(/) di un sottospazio vettoriale / di W ` e un
sottospazio vettoriale di V.
Dimostrazione Dalla denizione di sottospazio vettoriale (cfr. Def. 4.2) segue che ` e
necessario dimostrare che per ogni x
1
, x
2
f
1
(/) e per ogni , R si ha:
x
1
+ x
2
f
1
(/).
Ci ` o signica che si deve dimostrare che f(x
1
+ x
2
) ` e un vettore di /. Per la linearit` a
di f segue:
f(x
1
+ x
2
) = f(x
1
) + f(x
2
).
Poich e x
1
, x
2
f
1
(/), le loro immagini f(x
1
) e f(x
2
) appartengono a /, cos` come
la loro somma, essendo / un sottospazio vettoriale di W.
Osservazione 6.6 Si faccia molta attenzione a non confondere (a causa della notazione
usata) il sottospazio vettoriale f
1
(/) con la funzione inversa f
1
(se esiste) di f che
sar` a denita nel Paragrafo 6.4.
Osservazione 6.7 Poich e il vettore nullo di W appartiene al sottospazio vettoriale /,
anche il vettore nullo di V appartiene al sottospazio vettoriale f
1
(/).
250 Applicazioni Lineari
Esercizio 6.6 In quali casi la controimmagine di un sottospazio vettoriale coincide con
tutto il dominio? Invece ` e quasi evidente che f
1
(/) = f
1
(/ imf).
Esercizio 6.7 Data lapplicazione lineare f : R
3
R
4
denita come:
f((x
1
, x
2
, x
3
)) = (x
1
+ x
2
, 2x
1
+ x
2
+ x
3
, x
1
+ x
3
, x
2
x
3
)
si calcoli la controimmagine del sottospazio vettoriale / di R
4
denito da:
/ = (y
1
, y
2
, y
3
, y
4
) R
4
[ y
1
+ y
2
= 0.
Soluzione Il sottospazio vettoriale / ` e dato da:
/ = (t
1
, t
1
, t
2
, t
3
) [ t
1
, t
2
, t
3
R,
quindi i vettori x R
3
la cui immagine appartiene a / sono le soluzioni dellequazione
vettoriale AX = Y, con A matrice associata ad f (rispetto alle basi canoniche di R
3
e
di R
4
), X matrice colonna delle componenti di x rispetto alla base canonica di R
3
e Y
matrice colonna delle componenti, rispetto alla base canonica di R
4
, del generico vettore
di /. In questo caso si ha:

1 1 0
2 1 1
1 0 1
0 1 1

t
1
t
1
t
2
t
3

R
2
R
2
2R
1
R
3
R
3
R
1

1 1 0
0 1 1
0 1 1
0 1 1

t
1
3t
1
t
1
+ t
2
t
3

R
3
R
3
R
2
R
4
R
4
+ R
2

1 1 0
0 1 1
0 0 0
0 0 0

t
1
3t
1
2t
1
+ t
2
3t
1
+ t
3

da cui si ottiene che il sistema lineare ` e compatibile se e solo se:

t
2
= 2t
1
t
3
= 3t
1
, t
1
R.
Si controlli, per esercizio, che le condizioni ottenute coincidono con limporre che i vettori
(t
1
, t
1
, t
2
, t
3
) appartengano a / imf. Risolvendo il sistema lineare associato alla
matrice ridotta per righe:
Capitolo 6 251

1 1 0
0 1 1
0 0 0
0 0 0

t
1
3t
1
0
0

si ottiene:

x
1
= t
1

x
2
=
x
3
= 3t
1
+ , , t
1
R,
da cui segue:
f
1
(/) = L((1, 1, 1), (1, 0, 3)).
Si osservi che, in alternativa, in questo caso, si poteva pervenire allo stesso risultato
sostituendo nellequazione di / : y
1
+ y
2
= 0 le equazioni di f :

y
1
= x
1
+ x
2
y
2
= 2x
1
+ x
2
+ x
3
,
da cui segue:
3x
1
+ 2x
2
+ x
3
= 0
che ` e lequazione di f
1
(/), rispetto alla base canonica di R
3
.
Estremamente importante ` e il caso particolare della controimmagine del sottospazio vet-
toriale improprio o
W
del codominio, per cui vale la seguente denizione.
Denizione 6.7 Il nucleo di unapplicazione lineare f : V W tra due spazi vetto-
riali V e W ` e il sottospazio vettoriale di V controimmagine del sottospazio vettoriale
o
W
del codominio W e si indica con:
ker f = x V [ f(x) = o
W
.
Osservazione 6.8 Il fatto che ker f sia un sottospazio vettoriale di V segue dal Teorema
6.7.
Esempio 6.19 Nel caso dellidentit` a, denita nellEsempio 6.1, si ha che ker id = o e
imid = V.
Esempio 6.20 Nel caso dellapplicazione nulla, denita nellEsempio 6.2, ker O = V e
imO = o
W
.
252 Applicazioni Lineari
Esempio 6.21 Lapplicazione lineare denita nellEsempio 6.6 ha come nucleo il piano
vettoriale ortogonale al vettore a, cio` e ker f = L(a)

, mentre imf = R.
Il calcolo del sottospazio vettoriale imf costituisce un test per valutare leventuale su-
riettivit` a dellapplicazione lineare in questione. Lo studio di ker f , invece, ` e legato
alliniettivit` a di f , e precisamente:
Teorema 6.8 Sia f : V W unapplicazione lineare tra gli spazi vettoriali V e W,
f ` e iniettiva se e solo se ker f = o
V
.
Dimostrazione Se ker f = o
V
si tratta di dimostrare che f ` e iniettiva, ossia che se
f(x) = f(y), con x, y V allora x = y. Ma da f(x) = f(y) segue, per la linearit` a di
f , che f(x y) = o
W
, cio` e x y = o
V
da cui la tesi.
Viceversa, se f ` e iniettiva e se si suppone che x ker f , allora f(x) = f(o
V
) = o
W
, da
cui x = o
V
.
Per il calcolo esplicito di ker f, si consideri la matrice A = M
B,C
(f) associata al-
lapplicazione lineare f : V W, rispetto alle basi B = (v
1
, v
2
, . . . , v
n
) di V e
( = (w
1
, w
2
, . . . , w
m
) di W. Per denizione, un vettore x V appartiene a ker f se
f(x) = o
W
, che, usando le equazioni dellapplicazione lineare f scritte rispetto alle basi
B e (, equivale a:
AX = O, (6.11)
dove X indica la matrice colonna delle componenti di x rispetto alla base B e O R
n,1
` e la matrice colonna nulla. Quindi calcolare ker f equivale a risolvere il sistema lineare
omogeneo (6.11). Dal Teorema 4.23 segue:
dim(ker f) = dim(V ) rank(A). (6.12)
Esempio 6.22 Si calcoli ker f nel caso dellapplicazione lineare introdotta nellEsercizio
6.4. Riducendo per righe la matrice associata ad f si ha:
A =

1 1 0
2 1 1
1 0 1
0 1 1

R
2
R
2
2R
1
R
3
R
3
R
1

1 1 0
0 1 1
0 1 1
0 1 1

R
3
R
3
R
2
R
4
R
4
+ R
2

1 1 0
0 1 1
0 0 0
0 0 0

Capitolo 6 253
da cui si ottiene che rank(A) = 2 = dim(imf), mentre dim(ker f) = 1 = 3 2. Risol-
vendo il sistema lineare omogeneo ridotto associato alla matrice ridotta per righe prima
ottenuta segue che ker f = L((1, 1, 1)). Si ricordi che, per determinare esplicitamente
imf , si deve ridurre la matrice A per colonne.
Esercizio 6.8 Sia f : R
3
R
3
lendomorsmo denito da:

f(e
1
) = 2e
1
f(e
2
) = e
1
+e
2
+e
3
f(e
3
) = e
1
+e
2
e
3
,
con B = (e
1
, e
2
, e
3
) base canonica di R
3
. Calcolare ker f e imf .
Soluzione La matrice associata ad f, rispetto alla base canonica B di R
3
, ` e:
A =

2 1 1
0 1 1
0 1 1

.
Poich e det(A) = 4, il rango di A ` e 3, quindi dim(imf) = 3, ossia imf = R
3
e
dim(ker f) = 0, da cui ker f = o. Quindi f ` e sia iniettiva sia suriettiva.
Il teorema che segue stabilisce che liniettivit` a di unapplicazione lineare f ` e equivalente
al fatto che dim(f(H)) = dim(H), per ogni sottospazio vettoriale H del dominio. Infatti:
Teorema 6.9 Lapplicazione lineare f : V W tra due spazi vettoriali V e W ` e
iniettiva se e solo se limmagine di ogni insieme libero di V ` e un insieme libero di W.
Dimostrazione Sia f : V W unapplicazione lineare iniettiva e sia a
1
, a
2
, . . . , a
k

un insieme di vettori linearmente indipendenti di V, si tratta di dimostrare che linsieme


di vettori f(a
1
), f(a
2
), . . . , f(a
k
) di W ` e libero. La tesi segue dalla denizione di vet-
tori linearmente indipendenti e dal Teorema 6.8. Infatti, se si considera la combinazione
lineare:

1
f(a
1
) +
2
f(a
2
) + . . . +
k
f(a
k
) = o
W
,
con
1
,
2
, . . . ,
k
R, per la linearit` a di f si ha:
f(
1
a
1
+
2
a
2
+ . . . +
k
a
k
) = o
W
e, quindi, per liniettivit` a di f segue
1
=
2
= . . . =
k
= 0.
Viceversa, sia x = o
V
,, allora x ` e un insieme libero in V e quindi per ipotesi an-
che linsieme f(x) ` e un insieme libero. Pertanto f(x) = o
W
, da cui segue che
necessariamente ker f = o
V
, quindi la tesi.
254 Applicazioni Lineari
Denizione 6.8 Dati due spazi vettoriali V e W, unapplicazione lineare f : V W
che sia biiettiva (cio` e iniettiva e suriettiva) prende il nome di isomorsmo tra V e W. Se
` e possibile denire un isomorsmo tra due spazi vettoriali, questi si dicono isomor. Un
endomorsmo f : V V biiettivo prende il nome di automorsmo di V.
Il teorema che segue stabilisce unimportante relazione tra le dimensioni di ker f e di V
ed il rango di una qualunque matrice associata allapplicazione lineare f : V W,
ottenendo in questo modo unaltra dimostrazione del Teorema del Rango 4.19.
Teorema 6.10 Teorema del Rango Sia f : V W unapplicazione lineare tra due
spazi vettoriali V e W, allora:
dim(ker f) + dim(imf) = dim(V ).
Dimostrazione Si supponga che dim(V ) = n e dim(ker f) = h n. Se h = 0 e
se h = n il teorema ` e dimostrato (perch e?) Sia dunque h < n e sia (a
1
, a
2
, . . . , a
h
)
una base di ker f . Per il Teorema 4.15 si completi tale insieme libero di vettori no ad
ottenere la base di V (a
1
, a
2
, . . . , a
h
, b
1
, b
2
, . . . , b
nh
). DallOsservazione 6.3 si ha che:
f(a
1
), f(a
2
), . . . , f(a
h
), f(b
1
), f(b
2
), . . . , f(b
nh
)
` e un sistema di generatori di imf . Poich e f(a
1
) = o
W
, f(a
2
) = o
W
, . . . , f(a
h
) = o
W
,
la tesi segue se si dimostra che ( = f(b
1
), f(b
2
), . . . , f(b
nh
) ` e un insieme libero di
W e, quindi, una base di imf . Per provare lindipendenza lineare dei vettori di ( si pone:

1
f(b
1
) +
2
f(b
2
) + . . . +
nh
f(b
nh
) = o
W
,
con
i
R, i = 1, 2, . . . , n h, ossia:
f(
1
b
1
+
2
b
2
+ . . . + +
nh
b
nh
) = o
W
da cui segue che il vettore
1
b
1
+
2
b
2
+. . . ++
nh
b
nh
appartiene a ker f, come tale
si pu` o scrivere come combinazione lineare dei vettori della base (a
1
, a
2
, . . . , a
h
) di ker f .
Dallespressione esplicita di tale combinazione lineare e dal fatto che (a
1
, a
2
, . . . , a
h
, b
1
,
b
2
, . . . , b
nh
) ` e una base di V segue che
1
=
2
= . . . =
nh
= 0, ovvero la tesi.
Osservazione 6.9 Si osservi che, nelle ipotesi del teorema precedente,
dim(ker f) = dim(^(A)) = n dim(1(A)),
dove A indica una matrice associata ad f, rispetto ad una base di V e ad una base di W
ssate, ^(A) ` e il nullspace di A e R(A) indica lo spazio vettoriale delle righe di A. Dal
Capitolo 6 255
fatto che dim(imf) = dim(((A)), con C(A) spazio vettoriale delle colonne di A, segue
quindi che:
dim(1(A)) = dim(((A)),
vale a dire il Teorema del Rango 4.19. Infatti ogni matrice A R
m,n
pu` o sempre essere
considerata come associata ad unapplicazione lineare f : R
n
R
m
, rispetto alle basi
canoniche di R
n
e di R
m
.
Nel caso particolare di un endomorsmo di V, tutti i risultati man mano ottenuti si
possono riassumere nel seguente teorema, la cui dimostrazione ` e lasciata per esercizio.
Teorema 6.11 1. Sia f : V W unapplicazione lineare tra due spazi vettoriali
V e W con dim(V ) = dim(W), allora f ` e iniettiva se e solo se f ` e suriettiva.
2. Sia f : V W unapplicazione lineare tra due spazi vettoriali V e W con
dim(V ) = dim(W), allora:
a. f ` e un isomorsmo se e solo se ker f = o
V
.
b. f ` e un isomorsmo se e solo se imf = W.
3. Sia f : V V un endomorsmo di uno spazio vettoriale reale V, allora:
a. f ` e un automorsmo se e solo se ker f = o
V
.
b. f ` e un automorsmo se e solo se imf = V.
Osservazione 6.10 Il teorema precedente, il Teorema 6.8 e lOsservazione 6.4 possono
essere riscritti in termini di una qualsiasi matrice associata ad unapplicazione lineare f
nel modo seguente.
1. Sia f : V W unapplicazione lineare tra due spazi vettoriali V e W, con
dim(V ) = n e sia B = (v
1
, v
2
, . . . , v
n
) una base di V. Sia dim(W) = m e
sia ( = (w
1
, w
2
, . . . , w
m
) una base di W. Si indichi con A R
m,n
la matrice
M
B,C
(f) associata a f, rispetto alle basi B e (, allora:
rank(A) = n f ` e iniettiva,
rank(A) = m f ` e suriettiva.
2. Sia f : V W unapplicazione lineare tra due spazi vettoriali V e W tali
che dim(V ) = dim(W) = n. Sia B = (v
1
, v
2
, . . . , v
n
) una base di V e sia
( = (w
1
, w
2
, . . . , w
n
) una base di W. Si indichi con A R
n,n
la matrice quadrata
M
B,C
(f) associata a f, rispetto alle basi B e (, allora:
rank(A) = n det(A) = 0 f ` e un isomorsmo.
256 Applicazioni Lineari
3. Sia f : V V unendomorsmo di uno spazio vettoriale V, con dim(V ) = n, e
con B = (v
1
, v
2
, . . . , v
n
) base di V. Si indichi con A R
n,n
la matrice quadrata
M
B,B
(f) associata a f , rispetto alla base B, allora:
rank(A) = n det(A) = 0 f ` e un automorsmo.
Lultimo teorema di questo paragrafo stabilisce la condizione necessaria e sufciente
afnch` e due spazi vettoriali siano isomor.
Teorema 6.12 Due spazi vettoriali sono isomor se e solo se essi hanno la stessa dimen-
sione.
Dimostrazione Il fatto che due spazi vettoriali isomor abbiano la stessa dimensione
segue in modo evidente dai teoremi precedenti.
Viceversa, si considerino due spazi vettoriali V e W tali che dim(V ) = dim(W) = n,
il teorema segue se si ` e in grado di denire un isomorsmo tra di essi. Fissate dunque
una base B = (v
1
, v
2
, . . . , v
n
) in V e una base ( = (w
1
, w
2
, . . . , w
n
) in W, si denisca
f : V W ponendo:
f(v
1
) = w
1
, f(v
2
) = w
2
, . . . , f(v
n
) = w
n
,
f ` e un isomorsmo in quanto imf = W.
Osservazione 6.11 Si osservi che, anche nel caso di un endomorsmo f : V V
dalla relazione dim(ker f) + dim(imf) = dim(V ) non segue ker f imf = V. Si
consideri, per esempio, un endomorsmo f di V tale che f
2
= O con O : V V
endomorsmo nullo, dove f
2
` e la composizione f f denita da f
2
(x) = f(f(x)) (cfr.
Par. 6.4). Dati x

imf e x V tali che f(x) = x

, applicando f ad ambo i membri


dellultima uguaglianza, segue f
2
(x) = f(x

) = o, quindi imf ker f . Sia A una


matrice associata a f rispetto ad una base di V, poich e imf = ((A) (dove ((A) indica
lo spazio vettoriale generato dalle colonne di A) e ker f = ^(A) (dove ^(A) indica il
nullspace di A), si ` e costruito un esempio in cui ((A) ^(A). Si tratta, infatti, di un
esercizio che completa la trattazione del Teorema 4.24.
Esempio 6.23 Come gi` a osservato nellEsempio 6.14, il cambiamento di base in uno
spazio vettoriale ` e un esempio di automorsmo dello spazio vettoriale stesso. Usando
le stesse notazioni del Paragrafo 4.3.4, si considerino due basi B = (v
1
, v
2
, . . . , v
n
) e
B

= (v

1
, v

2
, . . . , v

n
) in uno spazio vettoriale V. Lapplicazione lineare:
p : V V, v
i
v

i
, i = 1, 2, . . . , n,
Capitolo 6 257
` e un automorsmo di V (cfr. Teor. 6.12). La matrice ad essa associata, rispetto alla base
B sia nel dominio sia nel codomino, ` e la matrice del cambiamento di base P = M
B,B

,
ottenuta, infatti, ponendo in colonna le componenti dei vettori della base B

rispetto ai
vettori della base B. Si osservi, invece, che la matrice associata allapplicazione lineare
p rispetto alla base B nel dominio e alla base B

nel codominio ` e la matrice unit` a I di


ordine n anche se p non ` e lapplicazione lineare identica. Si vuole in questo esempio
approfondire il legame tra le equazioni del cambiamento di base da B a B

e le equazioni
dellautomorsmo p, riferite alla matrice P ad esso associata. Si ricordi che (cfr. Par.
4.3.4), dato un vettore x di V le sue componenti:
X =

x
1
x
2
.
.
.
x
n

,
scritte rispetto alla base B, e le sue componenti:
X

1
x

2
.
.
.
x

,
scritte rispetto alla base B

, sono legate dalle equazioni del cambiamento di base:


X = PX

. (6.13)
Daltra parte, limmagine del vettore x mediante lautomorsmo p ` e il vettore:
p(x) =

y
1
y
2
. . . y
n

v
1
v
2
.
.
.
v
n

tale che:
Y = PX, (6.14)
dove:
Y =

y
1
y
2
.
.
.
y
n

.
258 Applicazioni Lineari
Si osservi che le equazioni (6.13) e (6.14) sono in perfetto accordo in quanto:
p(x) = y
1
v
1
+ y
2
v
2
+ . . . + y
n
v
n
= p(x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
)
= x
1
p(v
1
) + x
2
p(v
2
) + . . . + x
n
p(v
n
)
= x
1
v

1
+ x
2
v

2
+ . . . + x
n
v

n
,
ossia (x
1
, x
2
, . . . , x
n
) sono le componenti di p(x) rispetto alla base B

e (y
1
, y
2
, . . . , y
n
)
sono le componenti di p(x) rispetto alla base B.
6.4 Operazioni tra applicazioni lineari
In questo paragrafo si inizia con il dimostrare che linsieme delle applicazioni lineari tra
due spazi vettoriali reali V e W:
L(V, W) = f : V W [ f ` e unapplicazione lineare
` e uno spazio vettoriale reale. Infatti, date f, g L(V, W), si denisce somma di f e di g
la funzione data da:
(f + g)(x) = f(x) + g(x),
per ogni x V. La funzione f +g ` e ancora un elemento di L(V, W), la verica ` e lascia-
ta per esercizio. Si dimostra anche facilmente che per la somma di applicazioni lineari
appena denita valgono le propriet` a commutativa ed associativa. Esiste, inoltre, lelemen-
to neutro rispetto alla somma di applicazioni lineari dato dallapplicazione lineare nulla
O denita nellEsempio 6.2 e lapplicazione lineare opposta di f L(V, W), data da
(f)(x) = f(x), con x V.
In modo altrettanto naturale, ` e possibile denire il prodotto di un numero reale per una
applicazione lineare f L(V, W) come:
(f)(x) = f(x),
per ogni x V. Si verica che tale prodotto f ` e ancora unapplicazione lineare per cui
valgono le quattro propriet` a di denizione di prodotto di un numero reale per un vettore
(la verica ` e un facile esercizio). Segue che L(V, W) ` e un esempio di spazio vettoriale
su R.
Siano dim(V ) = n e B = (v
1
, v
2
, . . . , v
n
) una base di V. Inoltre, siano dim(W) = m e
( = (w
1
, w
2
, . . . , w
m
) una base di W. Siano A = M
B,C
(f) R
m,n
la matrice associata
Capitolo 6 259
a f e B = M
B,C
(g) R
m,n
la matrice associata a g, ` e un esercizio dimostrare che A+B
` e la matrice associata a f +g, rispetto alle basi B e (. Inoltre A ` e la matrice associata a
f, rispetto alle basi B e (. Fissate le basi B di V e ( di W viene cos` denita, in modo
naturale, la funzione:
: L(V, W) R
m,n
, f (f) = M
B,C
(f) = A,
ossia ` e la funzione che associa ad ogni applicazione lineare f la matrice associata ad f
(rispetto alle basi B e ( del dominio e del codominio).
`
E di nuovo un esercizio vericare
che ` e un isomorsmo, quindi segue dal Teorema 6.12 che:
dim(L(V, W)) = mn. (6.15)
Ci si occuper` a ora della composizione di due applicazioni lineari opportunamente denite.
Sia f : V W unapplicazione lineare tra due spazi vettoriali V e W. Ponendo
dim(V ) = n e B = (v
1
, v
2
, . . . , v
n
) base di V, dim(W) = m e ( = (w
1
, w
2
, . . . , w
m
)
base di W, si indichi con A R
m,n
la matrice associata ad f rispetto alle basi B e (.
Sia g : W Z unaltra applicazione lineare tra gli spazi vettoriali W e Z. Posto
dim(Z) = p e T = (z
1
, z
2
, . . . , z
p
) una base di Z, si indichi con B in R
p,m
la matrice
associata a g rispetto alle basi ( e T. La funzione:
g f : V Z, x (g f)(x) = g(f(x))
prende il nome di composizione delle applicazioni lineari f e g.
`
E un facile esercizio
vericare che g f ` e unapplicazione lineare. Si vuole, quindi, determinare la matrice
ad essa associata, rispetto alle basi B e T. Le equazioni dellapplicazione lineare f sono
Y = AX, dove X indica la matrice colonna di R
n,1
delle componenti del generico vettore
x di V rispetto alla base B e Y indica la matrice colonna di R
m,1
delle componenti di
f(x) rispetto alla base (. Calcolando limmagine di f(x) mediante g si ottiene Z = BY
dove Z indica la matrice colonna di R
p,1
delle componenti di g(f(x)), rispetto alla base
T, sostituendo si ha:
Z = BY = BAX,
quindi la matrice C R
p,n
associata a g f , rispetto alle basi B e T ` e data dal prodotto:
C = BA. (6.16)
Osservazione 6.12 Questo risultato costituisce unaltra giusticazione della denizio-
ne di prodotto di matrici (righe per colonne) introdotto nel Capitolo 2 e permette di
dimostrare in modo alternativo a quanto visto nel Paragrafo 4.5.1 la relazione:
rank(BA) min(rank(B), rank(A)).
260 Applicazioni Lineari
Infatti, se f, g sono le applicazioni lineari rappresentate dalle matrici A e B si ha che il
prodotto BA, come ` e stato appena dimostrato, ` e la matrice associata alla composizione
g f . Dallinclusione, di facile dimostrazione, im(g f) img, si ottiene:
rank(BA) = dim(im(g f)) dim(img) = rank(B).
Inoltre, dallinclusione, anchessa facilmente dimostrabile, ker f ker(g f) e grazie al
Teorema del Rango 6.10 si ottiene laltra disuguaglianza:
rank(BA) = dim(im(g f)) dim(imf) = rank(A).
Esercizio 6.9 Si considerino gli spazi vettoriali R
2
, R
3
, R
4
riferiti alle rispettive basi
canoniche B, B

, B

. Date le applicazioni lineari:


f : R
3
R
2
, con A = M
B

,B
(f) =

1 1 2
1 2 3

,
g : R
4
R
2
, con B = M
B

,B
(g) =

3 4 3 0
5 9 4 1

,
determinare, se esiste, unapplicazione lineare h : R
4
R
3
tale che f h = g.
Soluzione Allapplicazione lineare h (rispetto alla basi canoniche del dominio e del
codominio) si associa una matrice X R
3,4
, tale che AX = B. Si tratta, quindi, di
risolvere lequazione matriciale cos` ottenuta usando i metodi visti nel Capitolo 2.
Nel caso particolare di L(V, V ), ossia dello spazio vettoriale degli endomorsmi di V che
a volte ` e anche indicato con il simbolo End(V ), la composizione di due endomorsmi ` e
unoperazione interna, per cui vale la propriet` a associativa, esiste lelemento neutro (lap-
plicazione lineare identica) ma non vale la propriet` a commutativa. Da nozioni elementari
di algebra segue che una funzione ` e invertibile se e solo se ` e una biiezione. Si supponga
che f End(V ) sia una biiezione, ossia che f sia un automorsmo di V, esiste allora la
funzione inversa f
1
di f denita come lunica funzione per cui:
f
1
f = f f
1
= id,
con id identit` a di V. Si ha:
Teorema 6.13 Sia V uno spazio vettoriale reale.
1. Se f ` e un automorsmo di V, anche f
1
` e un automorsmo di V.
2. Se f e g sono automorsmi di V, la loro composizione g f ` e ancora un automor-
smo di V.
Capitolo 6 261
Dimostrazione Per provare 1. ` e sufciente dimostrare che f
1
` e un endomorsmo di
V, ossia che per ogni x
1
, x
2
V e per ogni , R allora:
f
1
(x
1
+ x
2
) = f
1
(x
1
) + f
1
(x
2
).
Ma luguaglianza ` e vera perch e se si applica f ad ambo i membri si ha:
f(f
1
(x
1
+ x
2
)) = f(f
1
(x
1
) + f
1
(x
2
)) = f(f
1
(x
1
)) + f(f
1
(x
2
)).
La tesi segue dalla denizione di inversa di una funzione, dal fatto che una funzione inver-
tibile ` e necessariamente iniettiva e dalla linearit` a di f. Per dimostrare 2. tenendo conto
che la composizione di due endomorsmi ` e un endomorsmo, ` e sufciente dimostrare
che g f ` e iniettivo. Ma per liniettivit` a di f e di g, si ha (g f)(x) = o se e solo se
x = o.
Osservazione 6.13 1. Pi` u in generale, se f : V W ` e una biezione tra due spa-
zi vettoriali V e W diversi, si pu` o ugualmente introdurre il concetto di funzione
inversa f
1
, come lunica funzione f
1
: W V tale che
f
1
f = id
V
, f f
1
= id
W
,
dove id
V
e id
W
indicano, rispettivamente, lidentit` a di V e di W. Se f ` e un isomor-
smo si dimostra, come nel teorema precedente, che f
1
` e ancora un isomorsmo.
2. Dal fatto che la matrice associata alla composizione di due applicazioni lineari ` e
il prodotto delle matrici associate alle due applicazioni lineari (scegliendo oppor-
tunamente le basi nel dominio e nel codominio) segue che allapplicazione lineare
inversa di f ` e associata la matrice inversa a quella associata ad f (rispetto alla stes-
sa scelta di basi in V ). Si noti lassoluto accordo tra risultati noti sullesistenza
dellinversa di una matrice quadrata (rango massimo) e sullesistenza dellinverso
di un endomorsmo (biiettivit` a quindi rango massimo della matrice associata).
Esercizio 6.10 Sia f : V W un isomorsmo tra due spazi vettoriali reali V e W.
Data una base ( = (w
1
, w
2
, . . . , w
n
) di W dimostrare che esiste una base B di V tale
che la matrice associata ad f rispetto alle basi B e ( sia la matrice unit` a I di ordine n.
Soluzione La base B ` e data da:
B = (f
1
(w
1
), f
1
(w
2
), . . . , f
1
(w
n
)),
dove per f
1
indica lisomorsmo inverso di f.
La dimostrazione del fatto che B sia una base di V e che M
B,C
(f) = I ` e lasciata al
Lettore per esercizio.
262 Applicazioni Lineari
Esempio 6.24 Si consideri la rotazione R[] : V
2
V
2
in senso antiorario di angolo
di ogni vettore x del piano vettoriale V
2
. Nel Paragrafo 3.8 ` e stata determinata la matrice
del cambiamento di base da una base ortonormale B = (i, j) di V
2
alla base ortonormale
B

= (i

, j

) ottenuta a partire dalla base B mediante la rotazione di angolo . Pertanto la


matrice associata a R[], rispetto alla base B, coincide con la matrice del cambiamento
di base, ossia:
M
B,B
(R[]) =

cos sin
sin cos

,
mentre le equazioni della rotazione R[], che applicata ad un vettore x = xi+yj permette
di ottenere il vettore R[](x) = x

i + y

j, sono:

= x cos y sin
y

= x sin + y cos .
Si lascia per esercizio la verica del fatto che la composizione delle rotazioni R[
1
] e
R[
2
], rispettivamente di angoli
1
e
2
, ` e la rotazione R[
1
+
2
]. La rotazione R[] ` e un
automorsmo di V
2
per ogni valore dellangolo , si verichi per esercizio che linversa
della rotazione R[] ` e la rotazione R[].
Osservazione 6.14 Un insieme in cui ` e stata denita unoperazione, detta prodotto, per
cui valga la propriet` a associativa, per cui esistano lelemento neutro e linverso per ogni
elemento prende il nome di gruppo. Un gruppo ` e detto commutativo se il prodotto veri-
ca anche la propriet` a commutativa. Per esempio, uno spazio vettoriale V ` e un gruppo
commutativo rispetto alloperazione di somma. Un sottoinsieme H di un gruppo G ` e un
sottogruppo se ` e un gruppo con il prodotto denito in G. Ad esempio, un sottospazio
vettoriale W di uno spazio vettoriale V ` e un sottogruppo di V.
Linsieme delle rotazioni del piano vettoriale V
2
, studiate nellesempio precedente, ` e un
esempio di gruppo commutativo. Esso ` e in generale indicato come SO(2) e denominato
gruppo ortogonale speciale di ordine 2:
SO(2) = R[] [ [0, 2) =

cos sin
sin cos

R
2,2
[ [0, 2)

.
In particolare, esso ` e un sottogruppo del gruppo O(2) delle matrici ortogonali di ordi-
ne 2, dove ` e chiaro che un sottogruppo di un gruppo ` e un sottoinsieme chiuso rispetto
alloperazione del gruppo e contenente linverso di ogni suo elemento.
Dato uno spazio vettoriale reale V, linsieme degli automorsmi di V, indicato come:
GL(V, R) = f : V V [ f ` e un automorsmo
Capitolo 6 263
` e un gruppo rispetto alla composizione di automorsmi e, in generale, non ` e commutativo.
In questo contesto, un gruppo che avr` a molta importanza nella teoria algebrica dei gruppi
di matrici ` e il gruppo lineare generale reale formato da tutte le matrici invertibili di
ordine n, vale a dire:
GL(n, R) = A R
n,n
[ det(A) = 0.
Se dim(V ) = n e ssata una base B in V allora si pu` o stabilire, in modo naturale, la cor-
rispondenza biunivoca tra GL(V, R) e GL(n, R) che associa ad ogni f GL(V, R) la
matrice A = M
B,B
(f). Tale biiezione ` e un automorsmo in quanto alla composizione di
automorsmi si associa il prodotto di matrici e allinverso di un automorsmo si associa
linversa della matrice. Un importante sottogruppo di GL(n, R) ` e il gruppo ortogonale
O(n) delle matrici ortogonali di R
n.n
, denito in (4.6). Per approfondimenti sullargo-
mento e maggiori dettagli si rimanda a testi classici di teoria dei gruppi, quali ad esempio
[2] e [12].
6.5 Sottospazi vettoriali invarianti
Sia f : V V ` e un endomorsmo di uno spazio vettoriale reale V, il nucleo di f, ker f,
gode di uninteressante propriet` a in quanto limmagine di ogni suo elemento ` e ancora un
elemento di ker f , ossia:
f(ker f) ker f,
infatti si ha banalmente f(ker f) = o. Lo studio dei sottospazi vettoriali di V per cui
vale lo stesso tipo di propriet` a rivestir` a una grande importanza nel capitolo successivo, ` e
giusticata quindi la denizione che segue.
Denizione 6.9 Sia f : V V un endomorsmo di uno spazio vettoriale V e sia J
un sottospazio vettoriale di V, J si dice invariante per f se f(J) J.
Osservazione 6.15 La denizione precedente ha senso solo nel caso di un endomorsmo,
infatti se f ` e unapplicazione lineare f : V W, tra due spazi vettoriali V e W diversi,
non ha senso confrontare un sottospazio vettoriale J di V con la sua immagine f(J).
Per i sottospazi vettoriali invarianti vale la seguente propriet` a, la cui dimostrazione ` e
lasciata al Lettore per esercizio.
Teorema 6.14 Sia f un endomorsmo di uno spazio vettoriale V. Se J
1
, J
2
, . . . , J
k
sono sottospazi vettoriali di V invarianti per f, allora la loro somma J
1
+J
2
. . . +J
k
` e un sottospazio vettoriale di V invariante per f .
264 Applicazioni Lineari
Esercizio 6.11 Sia f : V
3
V
3
lendomorsmo, la cui matrice associata, rispetto ad
una base ortonormale positiva B = (i, j, k) di V
3
, ` e:
A =

cos sin 0
sin cos 0
0 0 1

.
Si descriva il signicato geometrico di f e si dimostri che il piano L(i, j) ` e un sottospazio
vettoriale di V
3
invariante per f.
Esercizio 6.12 Sia f : R
3
R
3
un endomorsmo tale che f
3
= f f f = O
e per cui f
2
= O, dove O indica lapplicazione nulla di R
3
. Si dimostri che ker(f
2
)
` e un sottospazio vettoriale invariante per f . Per svolgere lesercizio si tenga conto che
ker f ker(f
2
) e che f
3
(x) = (f f
2
)(x), x V.
Data unapplicazione lineare f : V W tra due spazi vettoriali V e W ed un sotto-
spazio vettoriale J del dominio, si introduce in modo naturale il concetto di restrizione
di f a J nel modo seguente.
Denizione 6.10 Sia f : V W unapplicazione lineare tra due spazi vettoriali V e
W, sia J un sottospazio vettoriale di V, la restrizione di f a J ` e la funzione:
f[
W
: J V, x f(x).
Il teorema che segue si ottiene in modo evidente dalla denizione di restrizione di unap-
plicazione lineare e dalla denizione di sottospazio vettoriale invariante per un endomor-
smo.
Teorema 6.15 1. La restrizione di unapplicazione lineare f : V W tra due spa-
zi vettoriali V e W ad un sottospazio vettoriale J di V ` e ancora unapplicazione
lineare.
2. La restrizione di un endomorsmo f : V V ad un sottospazio vettoriale J di
V invariante per f ` e ancora un endomorsmo:
f[
W
: J J
tale che:
f[
W
(x) = f(x), x J. (6.17)
Esercizio 6.13 Vericare che la restrizione f[
W
di un endomorsmo f di uno spazio
vettoriale reale V a J = ker f ` e lapplicazione lineare nulla su J.
Capitolo 6 265
6.6 Applicazione lineare aggiunta.
Endomorsmi autoaggiunti
Siano (V, ) e (W, ) due spazi vettoriali euclidei e sia f : V W unapplicazione
lineare. Utilizzando i prodotti scalari deniti su V e su W ` e possibile introdurre una
nuova applicazione lineare da W a V nel modo seguente:
Teorema 6.16 Siano (V, ) e (W, ) due spazi vettoriali euclidei di dimensione n e m,
rispettivamente. Data unapplicazione lineare f : V W, esiste ununica applicazio-
ne lineare:
f

: W V,
detta applicazione lineare aggiunta di f , tale che:
f(x) y = x f

(y), x V, y W. (6.18)
Inoltre, se B = (v
1
, v
2
, . . . , v
n
) e ( = (w
1
, w
2
, . . . , w
m
) sono basi ortonormali di V e
W rispettivamente, le matrici associate a f e f

vericano la seguente relazione:


M
C,B
(f

) =
t
(M
B,C
(f)),
ossia la matrice associata a f

, rispetto alle basi ortonormali B e (, ` e la trasposta della


matrice associata a f rispetto alle stesse basi in ordine scambiato.
Dimostrazione La relazione (6.18) permette di dimostrare che f

` e una funzione. In-


fatti, per ogni y W esiste ed ` e unico f

(y), in quanto ssato x V, il primo membro


di (6.18) ` e ben determinato. Inoltre f

` e unapplicazione lineare; la verica ` e un fa-


cile esercizio che segue dalla linearit` a di f e dalle propriet` a del prodotto scalare. Sia
A = M
B,C
(f) la matrice associata a f rispetto alle basi ortonormali B e ( e siano
x = x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
V, y = x
1
w
1
+ x
2
w
2
+ . . . + x
m
w
m
W. Per
lortonormalit` a di ( si ha:
f(x) y =
t
(AX)Y =
t
X
t
AY,
dove X e Y sono le matrici colonna con elementi le componenti di x e di y rispettiva-
mente. Se si indicano con Z la matrice colonna con elementi le componenti di z = f

(y)
rispetto alla base B, per lortonormalit` a di B e dalluguaglianza (6.18), si ottiene:
t
X
t
AY = x z =
t
X Z,
per ogni X, Y e Z, da cui Z =
t
AY. Quindi si ha che la matrice associata a f

` e
M
C,B
(f

) =
t
A.
266 Applicazioni Lineari
Osservazione 6.16 1. Come conseguenza del precedente teorema e delllOsservazione
4.26 si ha dim(imf) = dim(imf

).
2. Dalla denizione di applicazione lineare aggiunta segue che (f

= f.
3. Se le basi B e ( non sono ortonormali, la relazione tra le matrici associate a f e f

` e pi ` u complicata.
Esercizio 6.14 Siano (V, ) e (W, ) due spazi vettoriali euclidei. Vericare che, se
f : V W ` e unapplicazione lineare, allora:
V = imf

ker f, W = imf ker f

,
imf

= (ker f)

, imf = (ker f

.
Esercizio 6.15 Vericare che, se f, g sono endomorsmi di uno spazio vettoriale eucli-
deo (V, ), allora
(g f)

= f

e che se f ` e invertibile, allora (f


1
)

= (f

)
1
.
Nel caso di un endomorsmo f di uno spazio vettoriale euclideo V ha senso confrontare
f con la propria applicazione lineare aggiunta f

ed ` e pertanto naturale enunciare la


seguente denizione.
Denizione 6.11 Sia f un endomorsmo di uno spazio vettoriale euclideo (V, ), f si
dice autoaggiunto (o simmetrico), se f

= f , ossia se:
f(x) y = x f(y), x, y V.
Esempio 6.25 Si consideri lo spazio vettoriale euclideo (R
2
, ) dotato del prodotto sca-
lare standard. Lendomorsmo
f : R
2
R
2
, (x, y) f((x, y)) = (y, x + 2y)
` e autoaggiunto. Infatti:
f((x, y)) (x

, y

) = (y, x + 2y) (x

, y

) = yx

+ xy

+ 2yy

,
(x, y) f((x

, y

)) = (x, y) (y

, x

+ 2y

) = xy

+ yx

+ 2yy

.
Capitolo 6 267
Esempio 6.26 Un esempio importante di endomorsmo autoaggiunto di uno spazio vet-
toriale euclideo (V, ) ` e la proiezione ortogonale p su un sottospazio vettoriale J di V
(cfr. Es. 6.10). Infatti, posto p(x) = x
W
, si ha:
p(x) y = x
W
(y
W
+y
W
) = x
W
y
W
= x p(y),
per ogni x, y in V.
Teorema 6.17 Sia f un endomorsmo di uno spazio vettoriale euclideo (V, ) di dimen-
sione n e sia B una base ortonormale di V. Lendomorsmo f ` e autoaggiunto se e solo
se la matrice A = M
B,B
(f) R
n,n
` e simmetrica.
Dimostrazione Poich e la base B ` e ortonormale, dal Teorema 6.16 si ottiene che
M
B,B
(f

) =
t
A. Pertanto f = f

se e solo se
t
A = A, ossia se e solo se la matrice
A ` e simmetrica.
Osservazione 6.17 Si osservi che dal Teorema 6.17 segue che la matrice associata ad
un endomorsmo autoaggiunto f : V V di uno spazio vettoriale euclideo (V, ) di
dimensione n, rispetto ad una base B di V, ` e simmetrica solo se se la base B ` e ortonor-
male. Infatti, se si considera unaltra base ( di V, allora si ha che la matrice associata
a f rispetto a ( ` e A

= P
1
AP, con P matrice del cambiamento di base da B a (. In
generale, A

non ` e simmetrica nonostante A lo sia, in quanto


t
A

=
t
(P
1
AP) =
t
P
t
A
t
(P
1
) =
t
PA
t
(P
1
)
che non coincide con A

a meno che
t
P = P
1
, ovvero a meno che P sia una matrice
ortogonale. In altri termini, afnch e A

sia simmetrica, anche la base ( deve essere


ortonormale (cfr. Teor. 5.6).
Osservazione 6.18 Nel caso della proiezione ortogonale p su un sottospazio vettoriale
J di uno spazio vettoriale euclideo, considerata nellEsempio 6.26, si ha non solo che
J ` e invariante per p (cfr. Def. 6.9) ma lo ` e anche il suo complemento ortogonale. Infatti
se x J

allora p(x) = o.
Vale il seguente teorema che estende la precedente osservazione ad ogni endomorsmo
autoaggiunto e ad ogni sottospazio vettoriale invariante.
Teorema 6.18 Se f ` e un endomorsmo autoaggiunto di uno spazio vettoriale eucli-
deo (V, ) e se J ` e un sottospazio vettoriale di V invariante rispetto a f, anche il
complemento ortogonale J

di J ` e invariante rispetto a f .
268 Applicazioni Lineari
Dimostrazione Per ogni x J

e per ogni y J si ha:


f(x) y = x f(y) = 0,
poich e f(y) J per ipotesi. Quindi f(x) ` e ortogonale a tutti gli elementi di J e perci` o
appartiene a J

.
Esercizio 6.16 Sia V uno spazio vettoriale euclideo e siano J
1
, J
2
due suoi sottospazi
vettoriali supplementari, ossia V = J
1
J
2
. Si considerino i due endomorsmi di
V, f
1
e f
2
proiezioni su J
1
e su J
2
rispettivamente. Vale a dire, se per ogni x in V,
x = x
1
+x
2
, (x
1
J
1
e x
2
J
2
) allora si ha f
1
(x) = x
1
e f
2
(x) = x
2
(cfr. Es. 6.10).
Dire se e quando f
1
e f
2
sono autoaggiunti.
6.7 Esercizi di riepilogo svolti
Esercizio 6.17 In R
3
, rispetto alla base canonica B = (e
1
, e
2
, e
3
), si consideri lendo-
morsmo f denito, al variare di un parametro reale h, da:

f(e
1
) = e
1
+ 2e
2
e
3
f(e
2
) = e
1
+ 2e
2
f(e
3
) = 3e
1
+ he
2
+ (h + 1)e
3
.
Determinare:
1. la matrice A associata ad f, rispetto alla base B;
2. lespressione dellimmagine di un generico vettore di R
3
;
3. per quali valori di h f ` e un automorsmo;
4. nel caso di h = 2 una base di ker f ed una base di imf ;
5. la matrice associata allautomorsmo f
1
, rispetto alla base B, nei casi in cui ci ` o
sia possibile.
Soluzione 1.
`
E necessario osservare che le condizioni date deniscono un unico endo-
morsmo f, in quanto sono state assegnate le immagini dei vettori della base B.
(Perch e?) Per costruzione, la matrice A associata ad f, rispetto alla base B, si ot-
tiene scrivendo in colonna, ordinatamente, le componenti dei vettori immagine dei
vettori della base, pertanto:
A = M
B,B
(f) =

1 1 3
2 2 h
1 0 h + 1

.
Capitolo 6 269
2. Se x = x
1
e
1
+ x
2
e
2
+ x
3
e
3
` e un generico vettore di R
3
, allora la sua immagine
f(x) = y
1
e
1
+y
2
e
2
+y
3
e
3
si ottiene mediante le equazioni di f scritte rispetto alla
base B, vale a dire:

y
1
= x
1
x
2
+ 3x
3
y
2
= 2x
1
+ 2x
2
+ hx
3
y
3
= x
1
+ (h + 1)x
3
.
3. Lendomorsmo f ` e un automorsmo se e solo se il rango della matrice A ` e massi-
mo, o, in modo equivalente, se e solo se det(A) = 0. Dal calcolo del determinante
della matrice A si ottiene det(A) = 5h +10, di conseguenza f ` e un automorsmo
per ogni valore di h ad eccezione di h = 2.
4. Dal punto precedente segue che per h = 2 lendomorsmo f non ` e un automor-
smo. Riducendo la matrice A per righe si ha:
A =

1 1 3
2 2 2
1 0 1


R
2
1/2R
2

1 1 3
1 1 1
1 0 1

R
2
R
2
+ R
1

1 1 3
2 0 2
1 0 1

,
da cui segue che rank(A) = 2, perci` o dim(imf) = 2 e dim(ker f) = 1. Una
base del nucleo di f si ottiene risolvendo il sistema lineare omogeneo associato
alla matrice ridotta per righe ottenuta da A, ossia:

x
1
x
2
+ 3x
3
= 0
x
1
+ x
3
= 0,
le cui soluzioni sono (x
1
= t, x
2
= 2t, x
3
= t), con t R, perci ` o:
ker f = L((1, 2, 1)).
Una base di imf ` e formata da due colonne linearmente indipendenti della matrice
A, per esempio:
imf = L((1, 2, 1), (1, 2, 0)).
5. Esiste f
1
se e solo se f ` e un automorsmo, ossia se e solo se h = 2. In questi
casi, la matrice associata a f
1
, rispetto alla base B, ` e A
1
data da:
270 Applicazioni Lineari
A
1
=

2(1 + h)
5(2 + h)
1 + h
5(2 + h)

6 + h
5(2 + h)

2 + 3h
5(2 + h)
4 + h
5(2 + h)
6 h
5(2 + h)
2
5(2 + h)
1
5(2 + h)
4
5(2 + h)

.
Esercizio 6.18 Nello spazio vettoriale R
3
siano B la base canonica e B

= (u
1
, u
2
, u
3
)
la base formata dai vettori u
1
= (1, 2, 3), u
2
= (0, 1, 1), u
3
= (2, 1, 0) e, nello
spazio vettoriale R
4
, sia ( la base canonica. Data lapplicazione lineare f : R
3
R
4
denita, per ogni parametro k reale, ponendo:
f(u
1
) = (1, 2, k, 1), f(u
2
) = (0, 2, 0, k), f(u
3
) = (0, 4, 0, 2),
1. scrivere la matrice A

associata ad f rispetto alle basi B

e (;
2. scrivere la matrice A associata ad f rispetto alle basi B e (;
3. stabilire per quali valori di k lapplicazione lineare f non ` e iniettiva e determinare
in questi casi una base di ker f ;
4. stabilire per quali valori di k lapplicazione lineare ` e suriettiva.
Soluzione 1. La matrice A

associata ad f, rispetto alle basi B

e (, si ottiene, per
costruzione, scrivendo in colonna le componenti, rispetto alla base (, dei vettori
immagine mediante f degli elementi di B

, pertanto:
A

= M
B

,C
(f) =

1 0 0
2 2 4
k 0 0
1 k 2

.
2. Sia P la matrice del cambiamento di base da B a B

, ottenuta ponendo in colonna


le componenti dei vettori della base B

rispetto alla base B, ossia:


P =

1 0 2
2 1 1
3 1 0

.
Capitolo 6 271
Dal Paragrafo 6.2 segue che A

= AP, da cui:
A = A

P
1
=

1 0 0
2 2 4
k 0 0
1 k 2

1
3

2
3

2
3
1 2 1
1
3
1
3
1
3

1
3

2
3

2
3
4 4 2
k
3

2k
3

2k
3
1 + k 2k k

.
3. Riducendo per righe la matrice A si ottiene:
a. rank(A) = 3 se e solo se k = 1, in questo caso f ` e iniettiva.
b. rank(A) = 2 se e solo se k = 1, in questo caso dim(ker f) = 1 e una base di
ker f ` e data dal vettore (2, 3, 2).
4. f non pu` o essere suriettiva, in quanto dim(ker f) + dim(imf) = dim(R
3
) = 3.
Per stabilire lesatta dimensione di imf, come nel punto precedente, ` e necessario
distinguere due casi:
a. se k = 1, allora dim(imf) = rank(A) = 3, le tre colonne della matrice A
sono linearmente indipendenti e formano, quindi, una base di imf.
b. se k = 1 allora dim(imf) = rank(A) = 2, per esempio le prime due colonne
della matrice A sono linearmente indipendenti e formano una base di imf.
Esercizio 6.19 Sia f lendomorsmo di R
4
associato, rispetto alla base canonica di R
4
,
alla matrice:
A =

0 2 4 2
2 0 1 1
4 1 0 3
2 1 3 0

.
Vericare che ker f e imf sono sottospazi vettoriali ortogonali rispetto al prodotto sca-
lare standard di R
4
.
Soluzione Riducendo per righe la matrice A, si ottiene rank(A) = 2, quindi:
dim(ker f) = 2, dim(imf) = 2.
Le equazioni che determinano ker f sono per esempio:

4x
1
x
2
+ 3x
4
= 0
x
2
+ 2x
3
+ x
4
= 0,
da cui si legge che (ker f)

= L((4, 1, 0, 3), (0, 1, 2, 1)). I vettori della base di (ker f)

appena determinata coincidono con due colonne linearmente indipendenti di A.


272 Applicazioni Lineari
Esercizio 6.20 Prendendo spunto dallesercizio precedente e dallEsercizio 6.14, si stu-
dino le propriet` a degli endomorsmi f : V V, con (V, ) spazio vettoriale euclideo,
tali che:
(ker f)

= imf.
6.8 Per saperne di pi ` u
6.8.1 Forme lineari dualit` a
In questo paragrafo si intendono studiare le particolari propriet` a delle applicazioni lineari
aventi R come codominio, ricordando che il campo dei numeri reali ` e un esempio di
spazio vettoriale reale di dimensione uno.
Denizione 6.12 Sia V uno spazio vettoriale reale, unapplicazione lineare:
: V R,
cio` e un elemento di L(V, R), si dice forma lineare su V. Lo spazio vettoriale L(V, R) si
dice spazio vettoriale duale di V e lo si indica con V

.
Esempio 6.27 Una forma lineare su R
n
` e determinata da n numeri reali a
1
, a
2
, . . . , a
n
tali che:
((x
1
, x
2
, . . . , x
n
)) = a
1
x
1
+ a
2
x
2
+ . . . + a
n
x
n
, a
i
R, i = 1, 2, . . . , n,
per ogni (x
1
, x
2
, . . . , x
n
) R
n
. Rispetto alla base canonica B di R
n
e alla base ( = (1)
di R, la matrice associata ad ` e dunque:
A = M
B,C
() =

a
1
a
2
. . . a
n

.
Se non ` e la forma nulla (ossia se almeno uno tra gli a
i
, i = 1, 2, . . . , n, non ` e uguale a
zero) allora ` e suriettiva e il suo nucleo ha equazione, rispetto alla base B:
a
1
x
1
+ a
2
x
2
+ . . . + a
n
x
n
= 0,
si tratta, quindi, di un iperpiano vettoriale di R
n
.
Esempio 6.28 Lapplicazione lineare:
R
n,n
R, A tr(A),
dove tr(A) indica la traccia della matrice A, ` e una forma lineare su R
n,n
.
Capitolo 6 273
Se dim(V ) = n e poich e V

= L(V, R) segue da (6.15) che anche dim(V

) = n. Quindi
lo spazio vettoriale V e il suo spazio vettoriale duale V

hanno la stessa dimensione. Il


teorema che segue dimostra di nuovo questo risultato ed, inoltre, indica il metodo con cui
si pu` o costruire esplicitamente una base di V

a partire da una base di V.


Teorema 6.19 Se V ` e uno spazio vettoriale reale di dimensione nita, allora:
dim(V ) = dim(V

).
Dimostrazione Sia dim(V ) = n e sia B = (v
1
, v
2
, . . . , v
n
) una sua base. Per il
Teorema 6.2, esistono e sono uniche le forme lineari
i
: V R, i = 1, 2, . . . , n, cos`
denite:

1
(v
1
) = 1

1
(v
2
) = 0
.
.
.

1
(v
n
) = 0,

2
(v
1
) = 0

2
(v
2
) = 1
.
.
.

2
(v
n
) = 0,
. . .

n
(v
1
) = 0

n
(v
2
) = 0
.
.
.

n
(v
n
) = 1,
che si possono anche scrivere nella forma:

i
(v
j
) =
ij
,
dove
ij
` e il simbolo di Kronecker (
ij
= 0, se i = j e
ii
= 1). Di conseguenza per ogni
x V scritto come x = x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
risulta:

i
(x) = x
i
, i = 1, 2, . . . , n.
In altri termini, la forma lineare
i
associa ad ogni vettore di V la sua iesima compo-
nente, calcolata rispetto alla base di V che ne determina la sua denizione.
Si perviene alla tesi se si dimostra che B

= (
1
,
2
, . . . ,
n
) ` e una base di V

, ossia:
1. B

` e un sistema di generatori di V

. Infatti, per ogni forma lineare V

, posto:
(v
1
) = a
1
, (v
2
) = a
2
, . . . , (v
n
) = a
n
,
con a
1
, a
2
, . . . , a
n
R e per ogni vettore x = x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
di V, si
ha:
(x) = x
1
(v
1
) + x
2
(v
2
) + . . . + x
n
(v
n
)
= x
1
a
1
+ x
2
a
2
+ . . . + x
n
a
n
= a
1

1
(x) + a
2

2
(x) + . . . + a
n

n
(x)
= (a
1

1
+ a
2

2
+ . . . + a
n

n
)(x).
Allora:
= a
1

1
+ a
2

2
+ . . . + a
n

n
,
ovvero la forma lineare ` e combinazione lineare degli elementi di B

.
274 Applicazioni Lineari
2. B

` e un insieme di vettori linearmente indipendenti in V

. Si consideri la combina-
zione lineare:

1
+
2

2
+ . . . +
n

n
= o
V
, (6.19)
con
1
,
2
, . . . ,
n
R e con o
V
vettore nullo di V

, che non ` e altro che la forma


lineare nulla. Applicando ambo i membri di (6.19) agli elementi della base B segue:
(
1

1
+
2

2
+ . . . +
n

n
)(v
j
) = o
V
(v
j
) = 0, j = 1, 2, . . . , n,
ossia
j

j
(v
j
) =
j
= 0, j = 1, 2, . . . , n, da cui la tesi.
Denizione 6.13 La base B

dello spazio vettoriale duale V

, denita nella dimostra-


zione del Teorema 6.19, ` e detta base duale della base B di V.
Lesempio che segue ` e introdotto per individuare la relazione tra la denizione di una
forma lineare su uno spazio vettoriale V, rispetto ad una sua base B, e la sua espressione
ripetto alla base duale B

dello spazio vettoriale duale V

.
Esempio 6.29 Sia : R
n
R la generica forma lineare su R
n
denita nellEsempio
6.27. Rispetto alle basi canoniche B = (e
1
, e
2
, . . . , e
n
) di R
n
e ( = (1) di R, la matrice
associata ad ` e:
A = M
B,C
() =

a
1
a
2
. . . a
n

.
La base duale B

= (
1
,
2
, . . . ,
n
) della base canonica B di R
n
` e data dalle forme
lineari che associano ordinatamente ad ogni nupla (x
1
, x
2
, . . . , x
n
) di R
n
le rispettive
componenti, ossia:

j
((x
1
, x
2
, . . . , x
n
)) = x
j
, j = 1, 2, . . . , n.
Quindi si ha:
((x
1
, x
2
, . . . , x
n
)) = (x
1
e
1
+ x
2
e
2
+ . . . + x
n
e
n
)
= a
1

1
((x
1
, x
2
, . . . , x
n
)) + a
2

2
((x
1
, x
2
, . . . , x
n
))
+. . . + a
n

n
((x
1
, x
2
, . . . , x
n
))
= (a
1

1
+ a
2

2
+ . . . + a
n

n
)((x
1
, x
2
, . . . , x
n
)).
Il teorema seguente, la cui dimostrazione ` e lasciata per esercizio, estende al caso di uno
spazio vettoriale V quanto ottenuto nellesempio precedente.
Capitolo 6 275
Teorema 6.20 Sia V uno spazio vettoriale reale di dimensione n e sia B = (v
1
, v
2
, . . . , v
n
)
una sua base. Data la forma lineare : V R associata alla matrice:
A =

a
1
a
2
. . . a
n

R
1,n
rispetto alla base B e alla base ( = (1) di R, allora:
= a
1

1
+ a
2

2
+ . . . + a
n

n
dove B

= (
1
,
2
, . . . ,
n
) ` e la base duale di B in V

.
Esempio 6.30 In V
3
, riferito alla base ortonormale B = (i, j, k), si consideri la funzione
denita nellEsempio 6.6:
a : V
3
R, x a x.
`
E chiaro che a ` e un esempio di forma lineare su V
3
. Se a = a
1
i + a
2
j + a
3
k, allora la
matrice A associata alla forma lineare a , rispetto alla base B di V
3
e alla base canonica
di R, ` e
A =

a
1
a
2
a
3

.
In particolare, si deduce facilmente che la base duale di B ` e B

= (i , j , k ).
Osservazione 6.19 Dati due spazi vettoriali complessi V e W, come per il caso reale,
si pu` o introdurre la nozione di applicazione lineare da V a W. Infatti unapplicazione
lineare tra due spazi vettoriali complessi V e W ` e una funzione f : V W tale che:
f(x + y) = f(x) + f(y),
per ogni x e y in V e per ogni e in C. In particolare, un endomorsmo di V ` e
unapplicazione lineare da V in V. Come nel caso reale, si dimostrano teoremi analoghi
a quelli esposti in questo capitolo. Per esempio, vale il teorema fondamentale per le
applicazioni lineari (cfr. Teor. 6.2 ) da cui si deduce la nozione di matrice associata
(ad elementi complessi) ad unapplicazione lineare e di conseguenza anche la nozione
di equazioni di unapplicazione lineare. Inoltre, come nel caso reale, si possono denire
immagine e controimmagine di sottospazi vettoriali, somma e prodotto per un numero
complesso di applicazioni lineari, sottospazio invariante per un endomorsmo.
Inoltre, se V ` e uno spazio vettoriale complesso, unapplicazione lineare : V C,
cio` e un elemento di L(V, C), si dice forma lineare su V. Lo spazio vettoriale complesso
L(V, C) ` e lo spazio vettoriale duale di V e lo si indica con V

. Come nel caso reale, se


dim(V ) = n, allora anche dim(V

) = n.
276 Applicazioni Lineari
6.8.2 Cambiamento di base in V

Si considerino due basi B = (v


1
, v
2
, . . . , v
n
) e B

= (v

1
, v

2
, . . . , v

n
) dello spazio vetto-
riale V di dimensione n e si indichi con P GL(n, R) la matrice del cambiamento di
base da B a B

le cui colonne sono date dalle componenti dei vettori della base B

scritti
rispetto alla base B, ossia:

1
v

2
.
.
.
v

=
t
P

v
1
v
2
.
.
.
v
n

. (6.20)
Siano B

= (
1
,
2
, . . . ,
n
) e (B

= (

1
,

2
, . . . ,

n
) le basi duali di B e di B

rispet-
tivamente. Si indichi con Q GL(n, R) la matrice del cambiamento di base da B

a
(B

, ossia:

2
.
.
.

=
t
Q

2
.
.
.

. (6.21)
Scopo di questo paragrafo ` e quello di determinare la relazione che lega le matrici P e Q.
In notazione matriciale, la dualit` a tra le basi B e B

si pu` o esprimere come:

2
.
.
.

v
1
v
2
. . . v
n

= I (6.22)
dove I ` e la matrice unit` a di ordine n. Analogamente, la dualit` a tra le basi B

e (B

equivale alla relazione:

2
.
.
.

1
v

2
. . . v

= I. (6.23)
Sostituendo (6.21) e (6.20) in (6.23) si ha:
t
Q

2
.
.
.

v
1
v
2
. . . v
n

P = I,
Capitolo 6 277
da cui, tenendo conto di (6.22), segue
t
QP = I e, quindi, ricordando la propriet` a
t
(P
1
) = (
t
P)
1
, si ottiene:
Q =
t
P
1
, (6.24)
che ` e la relazione cercata.
Esercizio 6.21 In R
2
si considerino due basi: la base canonica B = ((1, 0), (0, 1)) e
la base B

= ((1, 2), (1, 1)). Nello spazio vettoriale duale (R


2
)

si consideri la base
B

= (
1
,
2
), duale della base B. Determinare le componenti dei vettori della base
(B

= (

1
,

2
), duale della base B

, rispetto alla base B

.
Soluzione In acccordo con (6.24), la matrice del cambiamento di base da B

a (B

` e:
Q =
t

1 1
2 1

1
=

1 2
1 1

.
Esercizio 6.22 Determinare la base duale B

della base B = ((1, 0, 2), (0, 1, 1), (2, 1, 2))


dello spazio vettoriale R
3
, rispetto alla base duale della base canonica di R
3
.
Soluzione Sia B

= (
1
,
2
,
3
) la base duale di B, allora dalla formula (6.23) si ha:

1
=

3
7
,
2
7
,
2
7

,
2
=

2
7
,
6
7
,
1
7

,
3
=

2
7
,
1
7
,
1
7

,
dove le componenti sono date rispetto alla base duale della base canonica di R
3
.
6.8.3 Spazio vettoriale biduale
Fissato un vettore x V, al variare di nello spazio vettoriale duale V

, i numeri reali
(x) deniscono una funzione:
x : V

R, (x).
`
E naturale, quindi, introdurre la seguente denizione.
Denizione 6.14 Dato uno spazio vettoriale reale V, lo spazio vettoriale duale del suo
duale V

prende il nome di spazio vettoriale biduale e lo si indica con V

.
Osservazione 6.20 Poich e V

= L(V

, R), segue:
dim(V ) = dim(V

) = dim(V

).
278 Applicazioni Lineari
Teorema 6.21 Per ogni vettore x V, la funzione:
x : V

R, x() = (x),
` e una forma lineare, cio` e appartiene allo spazio vettoriale biduale V

.
Dimostrazione
`
E conseguenza immediata della denizione.
Teorema 6.22 Siano V uno spazio vettoriale reale di dimensione n e V

lo spazio
vettoriale biduale di V. La funzione:
: V V

, x (x) = x (6.25)
` e un isomorsmo.
Dimostrazione La tesi segue in quanto:
a. ` e lineare, ossia per ogni x, y V e per ogni , R si deve dimostrare che:
(x + y) = (x) + (y).
Infatti, per ogni V

si ha:
(x + y)() =

(x + y)() = (x + y)
= (x) + (y) = x() + y()
= ((x) + (y))().
b. Si deve dimostrare che ker = o
V
. Infatti, se x = o
V
allora per ogni V

,
risulta x() = (x) = o
V
quindi x = o
V
.
Poich e dim(V

) = dim(V ) = n, per il Teorema 6.11, segue che ` e un isomorsmo.


Osservazione 6.21 1. Si osservi che lisomorsmo non dipende dalla scelta di par-
ticolari basi in V e in V

, ma ` e denito in modo intrinseco, senza coinvolgere le


componenti dei vettori sia in V sia in V

, pertanto si tratta di un isomorsmo ca-


nonico. In altri termini, i due spazi vettoriali V e V

sono uno la copia dellaltro,


rendendo cos` priva di senso literazione del processo di dualit` a a V

.
2. Lisomorsmo tra V e V

vale se e solo se V ha dimensione nita. Se V non ` e


nitamente generato, la funzione (6.25) ` e iniettiva, ma non ` e detto che sia suriettiva.
Per maggiori dettagli nel caso di spazi vettoriali non nitamente generati, cio` e di
dimensione innita, si consulti ad esempio [19].
Capitolo 6 279
3. Se V ` e uno spazio vettoriale complesso di dimensione nita, si ha, come nel caso
reale, un isomorsmo canonico tra V e V

.
Osservazione 6.22 Si considerino una base B = (v
1
, v
2
, . . . , v
n
) di V e la sua base
duale B

= (
1
,
2
, . . . ,
n
). I vettori cos` deniti:
e
1
= (e
1
), e
2
= (e
2
), . . . , e
n
= (e
n
)
formano una base

B di V

. Dal fatto che e


i
(
j
) =
j
(e
i
) =
ij
, i, j = 1, 2, . . . , n, si ha
che

B ` e la base duale di B

. Allora ogni elemento x di V

si decompone, rispetto alla


base

B, come:
x = x
1
e
1
+ x
2
e
2
+ . . . + x
n
e
n
,
dove le componenti x
i
sono date da x
i
= x(
i
). Daltra parte x(
i
) =
i
(x) = x
i
,
quindi x
i
= x
i
, con i = 1, 2, . . . , n.
`
E cos` dimostrato che le componenti di x V,
relative alla base B, sono anche le componenti dellimmagine di x tramite lisomorsmo
canonico : V V

, relativamente alla base



B, biduale della base B; perci ` o, anche
in questo senso, lo spazio vettoriale biduale V

si pu` o identicare con V. In altri termini,


la matrice associata a , rispetto alle basi B e

B, ` e la matrice unit` a I di ordine n. Si
noti che questa osservazione non pu` o sostituire la dimostrazione del Teorema 6.21 perch e
coinvolge luso delle basi.
Esercizio 6.23 Sia V = R
2
[x] lo spazio vettoriale dei polinomi in x a coefcienti reali
di grado minore o uguale a 2 (cfr. Es. 4.11) e siano b
0
, b
1
, b
2
tre numeri reali distinti. Si
considerino le forme lineari:

i
: V R, p(x) p(b
i
)
con i = 0, 1, 2.
1. Vericare che B

= (
0
,
1
,
2
) ` e una base di V

.
2. Trovare la base duale B

di B

.
Soluzione 1. Si deve vericare che B

` e un insieme di vettori linearmente indipen-


denti. Si consideri la combinazione lineare:

0
+
2

1
+
3

2
= o
V
,
con
1
,
2
,
3
R e o
V
la forma lineare nulla su V. Ricordando che (1, x, x
2
) ` e
280 Applicazioni Lineari
una base di V ed imponendo le condizioni:

(
1

0
+
2

1
+
3

2
)(1) =
1
+
2
+
3
= 0,
(
1

0
+
2

1
+
3

2
)(x) =
1
b
0
+
2
b
1
+
3
b
2
= 0,
(
1

0
+
2

1
+
3

2
)(x
2
) =
1
b
2
0
+
2
b
2
1
+
3
b
2
2
= 0,
si ottiene un sistema lineare omogeneo la cui matrice associata ha determinante:

1 1 1
b
0
b
1
b
2
b
2
0
b
2
1
b
2

= (b
0
b
1
)(b
0
b
2
)(b
2
b
1
) = 0.
Pertanto lunica soluzione ` e quella nulla, ovvero
0
,
1
e
2
sono linearmente
indipendenti.
2. Mediante lisomorsmo canonico tra V e V

si possono identicare i vetto-


ri della base (1, x, x
2
) con i vettori della base ((1), (x), (x
2
)). Pertanto per
determinare la base B

` e sufciente determinare i tre polinomi p


j
(x) R
2
[x],
j = 0, 1, 2, che vericano le condizioni:
(
i
)(p
j
(x)) = p
j
(b
i
) =
ij
, i, j = 0, 1, 2,
da cui segue:
p
1
(x) =
1
(b
0
b
1
)(b
0
b
2
)
(b
1
b
2
(b
1
+ b
2
)x + x
2
) ,
p
2
(x) =
1
(b
0
b
1
)(b
2
b
1
)
(b
0
b
2
(b
0
+ b
2
)x + x
2
) ,
p
3
(x) =
1
(b
0
b
2
)(b
1
b
2
)
(b
0
b
1
(b
0
+ b
1
)x + x
2
)
6.8.4 Dualit` a nel caso degli spazi vettoriali euclidei
Scopo di questo paragrafo ` e quello di dimostrare che, se (V, ) ` e uno spazio vettoriale
euclideo di dimensione nita, allora lo spazio vettoriale duale V

` e canonicamente iso-
morfo a V. Si perviene a questo importante risultato estendendo lEsempio 6.30 al caso
generale di uno spazio vettoriale euclideo V.
Teorema 6.23 Sia (V, ) uno spazio vettoriale euclideo, ssato un vettore x in V, la
funzione:
x : V R, y x y,
con prodotto scalare su V, ` e una forma lineare.
Capitolo 6 281
Dimostrazione Segue dalle propriet` a del prodotto scalare, infatti:
x (y
1
+ y
2
) = x y
1
+ x y
2
,
per ogni , R e per ogni y
1
, y
2
V .
Teorema 6.24 Sia (V, ) uno spazio vettoriale euclideo di dimensione nita, la funzione:
i
V
: V V

, x i
V
(x) = x
` e un isomorsmo.
Dimostrazione Dalle propriet` a del prodotto scalare segue che la funzione i
V
` e unap-
plicazione lineare. Liniettivit` a di i
V
` e conseguenza del calcolo di ker i
V
, ossia:
ker i
V
= x V [ i
V
(x) = o
V
= x V [ x y = 0, y V = o
V
.
Dal Teorema 6.11 segue che i
V
` e un isomorsmo.
Osservazione 6.23 Nel caso di uno spazio vettoriale euclideo (V, ), ` e quindi possibile
denire un isomorsmo canonico tra V e il suo duale V

che non dipende dalla scelta


delle basi nei due spazi vettoriali ma solo dal prodotto scalare che conferisce a V la
struttura di spazio vettoriale euclideo.
Osservazione 6.24 Nel caso di uno spazio vettoriale hermitiano (V, ), la funzione:
x : V C, y x y,
non ` e una forma lineare (cfr. (5.9)). Invece la funzione:
x : V C, y y x,
` e una forma lineare, ma la funzione:
V V

, x x
non ` e lineare. Pertanto, a differenza del caso reale, un prodotto hermitiano non permet-
te di denire un isomorsmo canonico (senza luso delle basi) tra uno spazio vettoriale
hermitiano ed il suo duale.
282 Applicazioni Lineari
6.8.5 Trasposta di unapplicazione lineare
Lo scopo di questo paragrafo ` e quello di individuare il legame tra unapplicazione lineare
associata ad una matrice A e lapplicazione lineare associata alla trasposta della matrice
A stessa.
Sia f : V W unapplicazione lineare da uno spazio vettoriale reale V in uno spazio
vettoriale reale W. Data una generica forma lineare in W

, la composizione f ` e
una forma lineare su V, ossia f V

. Si pu` o, allora, enunciare la seguente:


Denizione 6.15 Data unapplicazione lineare f : V W tra due spazi vettoriali V
e W, la funzione:
t
f : W

, (
t
f)() = f, (6.26)
si dice trasposta dellapplicazione lineare f .
Teorema 6.25 La funzione
t
f appena denita ` e unapplicazione lineare.
Dimostrazione
`
E conseguenza evidente della denizione e della linearit` a di e di f .
Osservazione 6.25 La denominazione trasposta per lapplicazione lineare
t
f ` e giusti-
cata dal seguente teorema.
Teorema 6.26 Siano V uno spazio vettoriale reale di dimensione n e W uno spazio
vettoriale di dimensione m. Data unapplicazione lineare f : V W, si indichi con
A = M
B,C
(f) la matrice di R
m,n
associata ad f rispetto alle basi B = (v
1
, v
2
, . . . , v
n
)
di V e ( = (w
1
, w
2
, . . . , w
m
) di W. Si considerino nello spazio vettoriale V

la base
B

= (
1
,
2
, . . . ,
n
) duale della base B e nello spazio vettoriale W

la base (

=
(
1
,
2
, . . . ,
m
) duale di (. La matrice associata allapplicazione lineare:
t
f : W

rispetto alle basi (

e B

` e la trasposta della matrice A:


t
A = M
C

,B

(
t
f).
Dimostrazione La denizione di trasposta di unapplicazione lineare (6.26), applicata
ad un vettore x di V, restituisce il numero reale dato da:
((
t
f)())(x) = ( f)(x). (6.27)
Capitolo 6 283
Si indichino con G R
n,m
la matrice associata a
t
f rispetto alle basi (

e B

, con
B R
n,1
la matrice associata alla forma lineare rispetto alla base ( di W e alla base
T = (1) di R:
B = M
C,D
() =

b
1
b
2
. . . b
m

e con:
X =

x
1
x
2
.
.
.
x
n

la matrice delle componenti del vettore x di V rispetto alla base B. Si vuole ora scrivere,
in notazione matriciale, la relazione (6.27). Si ha:
a. il secondo membro di (6.27) ` e il numero reale:
BAX, (6.28)
in quanto alla composizione di applicazioni lineari f si associa il prodotto di
matrici BA R
1,n
come segue da (6.16).
b. Il calcolo del primo membro di (6.27) ` e pi ` u laborioso; la matrice colonna delle
componenti, rispetto alla base B

, della forma lineare = (


t
f)() V

si ottiene
applicando la matrice G (associata a
t
f ) alla matrice colonna delle componenti,
rispetto alla base (

, del vettore ossia G


t
B. Quindi il primo membro di (6.27) si
riduce a (x) ossia a:
t
(G
t
B)X. (6.29)
Dalluguaglianza di (6.29) con (6.28) si ottiene:
t
(G
t
B) = B
t
G = BA
da cui la tesi.
Osservazione 6.26 Dalla formula (6.28) si deduce che per calcolare limmagine di un
vettore mediante la trasposta di unapplicazione lineare si effettua il prodotto della ma-
trice riga delle componenti del vettore a destra della matrice associata allapplicazione
lineare di partenza. Mentre per calcolare limmagine di un vettore mediante unapplica-
zione lineare si effettua il prodotto a sinistra per la matrice colonna delle componenti del
vettore.
Seguono alcuni teoremi che mettono in relazione la trasposta di unapplicazione lineare
con la somma di applicazioni lineari, con il prodotto di un numero reale per unapplicazio-
ne lineare, con la composizione di applicazioni lineari e con linversa di unapplicazione
lineare invertibile. Tutte le dimostrazioni sono lasciate al Lettore per esercizio.
284 Applicazioni Lineari
Teorema 6.27 Se f, g L(V, W) e R, allora:
1.
t
(f + g) =
t
f +
t
g,
2.
t
(f) =
t
f .
Teorema 6.28 Siano V, W, Z spazi vettoriali reali, allora, per ogni f L(V, W) e per
ogni g L(W, Z) si ha:
t
(g f) =
t
f
t
g.
Se f ` e un endomorsmo di uno spazio vettoriale reale V, allora
t
f ` e un endomorsmo
dello spazio vettoriale duale V

di V, inoltre:
(
t
id
V
)() = id
V
= id
V
(), V

,
dove id
V
e id
V
indicano, rispettivamente, lidentit` a in V e V

. Pertanto
t
id
V
= id
V
.
Da queste considerazioni segue il:
Teorema 6.29 Se f ` e un automorsmo dello spazio vettoriale V allora
t
f ` e un automor-
smo dello spazio vettoriale duale V

e:
(
t
f)
1
=
t
(f
1
).
Esercizio 6.24 Siano f : R
4
R
3
lapplicazione lineare la cui matrice, rispetto alle
basi canoniche di R
4
e di R
3
, ` e:
A =

1 2 1 2
1 1 1 1
2 1 0 1

e : R
3
R la forma lineare la cui matrice associata, rispetto alla base canonica di
R
3
e alla base ( = (1) di R ` e:
M() =

1 2 2

.
Determinare la matrice associata alla forma lineare = (
t
f)().
Soluzione Per denizione di applicazione lineare trasposta, (
t
f)() = f , la cui
matrice associata ` e data da M()A. Quindi la matrice associata alla forma lineare ,
rispetto alla base canonica di R
4
e alla base (, ` e:
Capitolo 6 285
M()A =

1 2 2

1 2 1 2
1 1 1 1
2 1 0 1

1 2 3 2

e lequazione di risulta essere:


t
f()

x
1
x
2
x
3
x
4

1 2 3 2

x
1
x
2
x
3
x
4

= x
1
+ 2x
2
3x
3
2x
4
,
dove (x
1
, x
2
, x
3
, x
4
) ` e un generico elemento di R
4
.
Osservazione 6.27 Come si ` e provato nel Paragrafo 6.8.4, nel caso di uno spazio vetto-
riale euclideo (V, ) di dimensione n, si ha un isomorsmo canonico i
V
tra V ed il suo
duale V

:
i
V
: V V

, x x .
Si osservi, che se B = (e
1
, e
2
, . . . , e
n
) ` e una base ortonormale di (V, ) e se si indica con
B

= (
1
,
2
, . . . ,
n
) la base duale di B, si ha:
i
V
(e
j
)(e
k
) = e
j
e
k
=
jk
=
j
(e
k
), j, k = 1, 2, . . . , n,
dove
ij
` e il simbolo di Kronecker. Pertanto la matrice associata M
B,B

(i
V
) allisomor-
smo i
V
, rispetto alle basi B e B

, ` e la matrice unit` a I di ordine n.


Data unapplicazione lineare f : V W tra due spazi vettoriali euclidei (V, ) e
(W, ), rispettivamente di dimensione n e m, si intende ora, tramite lisomorsmo ca-
nonico tra uno spazio vettoriale ed il suo duale, determinare il legame tra la trasposta
t
f : W

di f (cfr. Def. 6.15) e laggiunta f

: W V di f (cfr. Teor. 6.16).


Si ha infatti:
f(x) y = i
W
(y)(f(x)) = (
t
f)(i
W
(y))(x),
per ogni x in V e y in W. Dalla denizione di aggiunta, si ha pertanto che
(
t
f)(i
W
(y))(x) = i
V
(f

(y))(x), x V, y W,
ossia:
(
t
f) i
W
= i
V
f

. (6.30)
Si osservi, che ssate una base ortonormale B di (V, ) ed una base ortonormale ( di
(W, ), se si indica con A la matrice associata a f rispetto alle basi B e (, la matrice
trasposta di A ` e la matrice associata a
t
f rispetto alle basi duali (

e B

(cfr. Teor. 6.26)


ed ` e anche la matrice associata a f

rispetto alle basi ( e B, ovvero:


M
C

,B

(
t
f) = M
C,B
(f

) =
t
A.
286 Applicazioni Lineari
In notazione matriciale, rispetto alle basi ortonormali B, ( e alle loro basi duali B

, (

, la
relazione (6.30) si traduce quindi semplicemente in:
t
AI
m
Y = I
n
t
AY,
dove Y ` e la matrice colonna delle componenti del vettore y rispetto alla base ( e con I
m
e I
n
si indicano la matrice unit` a di ordine m ed n rispettivamente.
6.8.6 Endomorsmi autoaggiunti e matrici hermitiane
Analogamente a quanto visto nel Paragrafo 6.6 si pu` o introdurre il concetto di aggiun-
ta di unapplicazione lineare tra spazi vettoriali hermitiani. Per semplicit` a si tratter` a in
dettaglio solo il caso di un endomorsmo di uno spazio vettoriale hermitiano.
Sia (V, ) uno spazio vettoriale hermitiano (cfr. Def. 5.7), analogamente al caso reale,
laggiunto di un endomorsmo f di V ` e lendomorsmo f

di V tale che:
f(x) y = x f

(y), x, y V. (6.31)
Si supponga che V abbia dimensione n e si indichino rispettivamente con A e A

le
matrici associate ad f e f

rispetto ad una base ortonormale B = (e


1
, e
2
, . . . , e
n
) di V.
Se X C
n,1
e Y C
n,1
denotano, rispettivamente, la matrice colonna delle componenti
dei vettori x e y rispetto alla base B, lequazione (6.31) ` e equivalente a:
t
(AX) Y =
t
XA

Y ,
da cui si ottiene:
t
X
t
AY =
t
X A

Y ,
ossia A

=
t
A.
Di conseguenza vale il seguente teorema, che ` e lanalogo al Teorema 6.16 in campo
complesso.
Teorema 6.30 La matrice associata M
B,B
(f

) a f

rispetto ad una base ortonormale B


` e la trasposta coniugata della matrice associata M
B,B
(f) a f rispetto alla stessa base.
In particolare, un endomorsmo f di uno spazio vettoriale hermitiano (V, ) si dice au-
toaggiunto o hermitiano se f

= f . In questo caso vale lanalogo del Teorema 6.17. Pi ` u


precisamente, si ha:
Teorema 6.31 Sia (V, ) uno spazio vettoriale hermitiano di dimensione n e sia B una
base ortonormale di V. Un endomorsmo f di V ` e autoaggiunto se e solo se la matrice
A = M
B,B
(f) C
n,n
` e Hermitiana, ossia se e solo se
t
A = A.
Capitolo 6 287
6.8.7 Isometrie, similitudini, trasformazioni unitarie
In questo paragrafo si intende estendere sia nel caso degli spazi vettoriali euclidei sia
nel caso degli spazi vettoriali hermitiani il concetto di movimento euclideo del piano,
intendendosi per tale il movimento rigido del piano che non cambia la lunghezza dei
vettori e lampiezza degli angoli. Si ricordi infatti che la Geometria Euclidea del piano ` e
per denizione linsieme di assiomi e teoremi invarianti per effetto dei movimenti rigidi.
Sia (V, ) uno spazio vettoriale euclideo di dimensione nita. La denizione seguente
estende (in modo naturale) a dimensioni superiori il concetto elementare di isometria o
movimento euclideo nel piano e nello spazio.
Denizione 6.16 Un endomorsmo f di uno spazio vettoriale euclideo (V, ) prende il
nome di isometria o trasformazione ortogonale se:
f(x) f(y) = x y, x, y V. (6.32)
Si pu` o provare il seguente teorema.
Teorema 6.32 Sia (V, ) uno spazio vettoriale euclideo di dimensione n. Se f ` e uniso-
metria di (V, ), allora f ` e un automorsmo di V.
Dimostrazione Per il Teorema 6.11 ` e sufciente dimostrare che ker f = o. Se x ` e
un vettore di ker f si ha f(x) = o; daltra parte f(x) f(x) = |o|
2
= 0 = |x|
2
, quindi
x = o.
Si pu` o generalizzare la denizione precedente al caso di isomorsmi tra due spazi vet-
toriali euclidei in questo modo: dati due spazi vettoriali euclidei V e W, con la stessa
dimensione, un isomorsmo f : V W si dice isometria se non cambia il prodotto
scalare.
Esempio 6.31 Ogni rotazione R[] (in senso antiorario) di angolo del piano vettoriale
V
2
` e unisometria (cfr. Es. 6.24). Inoltre, come ` e gi` a stato affermato, la matrice associata
a R[] (rispetto ad una base ortonormale (i, j) di V
2
) ` e la matrice ortogonale:

cos sin
sin cos

.
Esempio 6.32 Lidentit` a : id : V V (cfr. Es. 6.1) ` e unisometria rispetto ad ogni
prodotto scalare denito su V.
288 Applicazioni Lineari
Esempio 6.33 Lapplicazione id : V V denita da id(x) = x, x V, ` e
unisometria rispetto ad ogni prodotto scalare denito su V.
Alcune tra le principali propriet` a delle isometrie sono riassunte nel seguente teorema.
Teorema 6.33 Sia (V, ) uno spazio vettoriale euclideo di dimensione n.
1. Un endomorsmo f di V ` e unisometria se e solo se non cambia la norma dei
vettori:
|f(x)| = |x|, x V. (6.33)
2. Unisometria f di V non cambia la misura degli angoli tra i vettori di V.
3. La composizione di due isometrie ` e ancora unisometria.
4. Linversa di unisometria ` e ancora unisometria.
5. Un endomorsmo f di V ` e unisometria di V se e solo se le immagini dei vettori
di una base ortonormale di V formano una base ortonormale di V.
6. Un endomorsmo f di V ` e unisometria di V se e solo se la matrice associata ad
f , rispetto ad una base ortonormale di V, ` e una matrice ortogonale.
7. Un endomorsmo f di V ` e unisometria se e solo se f
1
= f

, dove f

` e
lapplicazione aggiunta di f .
Dimostrazione 1. Se f ` e un isometria, la (6.33) segue ponendo y = x in (6.32).
Viceversa, si dimostra che se vale la (6.33) allora f ` e unisometria. Dalla formula (5.6) si
ottiene:
x y =
1
2

|x +y|
2
|x|
2
|y|
2

e
f(x) f(y) =
1
2

|f(x) + f(y)|
2
|f(x)|
2
|f(y)|
2

.
Pertanto per la linearit` a di f e da (6.33) segue quindi la (6.32).
1. Se f ` e unisometria, da (6.32) e 2. segue:
|x| |y| cos( xy) = |x| |y| cos(

f(x)f(y)),
per ogni x, y V, dove xy e

f(x)f(y) indicano, rispettivamente, langolo tra i
vettori x e y ed i vettori f(x) e f(y) (cfr. Def. 5.3). Pertanto:
cos( xy) = cos(

f(x)f(y)). (6.34)
Capitolo 6 289
2. Se f e g sono isometrie, allora:
|(g f)(x)| = |g(f(x))| = |f(x)| = |x|,
per ogni x V.
3. Sia f unisometria. Si ha: |f(f
1
(x))| = |id(x)|, dove id ` e lidentit` a di V , ma
|f(f
1
(x))| = |f
1
(x)| = |x|,
per ogni x V , da cui la tesi.
4. Se f ` e unisometria e B = (e
1
, e
2
, . . . , e
n
) una base ortonormale di V, allora:
B

= (f(e
1
), f(e
2
), . . . , f(e
n
)) ` e una base ortonormale perch e f mantiene im-
mutata sia la norma dei vettori sia i loro prodotti scalari. Viceversa, siano B =
(e
1
, e
2
, . . . , e
n
) e B

= (f(e
1
), f(e
2
), . . . , f(e
n
)) due basi ortonormali di V. Dato:
x = x
1
e
1
+ x
2
e
2
+ . . . + x
n
e
n
in V, allora:
|x|
2
= x
2
1
+ x
2
2
+ . . . + x
2
n
,
daltra parte, per la linearit` a di f :
f(x) = x
1
f(e
1
) + x
2
f(e
2
) + . . . + x
n
f(e
n
),
quindi |f(x)| = |x|. Si osservi che il calcolo della norma dei vettori x e f(x) ha
assunto lespressione suddetta in quanto riferito a due basi ortonormali (cfr. Teor.
5.4).
5. Sia A la matrice associata ad f , rispetto ad una base ortonormale B di V , e siano
Y = AX le equazioni di f rispetto a B. Poich e, per ogni x V, |f(x)|
2
= |x|
2
e ricordando che |x|
2
=
t
XX si ha:
t
X

=
t
(AX)(AX) =
t
X
t
AAX =
t
XX,
da cui segue la tesi. Si osservi che |x|
2
=
t
XX solo se X e la matrice colonna
delle componenti di x rispetto ad una base ortonormale.
6. Per denizione di applicazione aggiunta si ha:
f(x) f(y) = f

(f(x)) y, x, y V. (6.35)
Quindi, se f ` e un isometria, cio` e se vale (6.32), si deve avere:
f

(f(x)) y = x y, x, y V,
290 Applicazioni Lineari
da cui
((f

f)(x) x) y = 0,
per ogni x e y. Pertanto, f

f = id, ossia f

= f
1
. Viceversa, se f

= f
1
,
allora da (6.35) si ha immediatamente che f ` e unisometria.
Osservazione 6.28 a) Dalla denizione di isometria e dal punto 1. del teorema prece-
dente segue che le isometrie mantengono invariati gli angoli tra i vettori.
b) Dai punto 2. e 3. del teorema precedente segue che linsieme delle isometrie di uno
spazio vettoriale euclideo (V, ) ` e un gruppo (cfr. Oss. 6.14) rispetto alla composizione
di funzioni. Inoltre, ssata una base ortonormale B nello spazio vettoriale euclideo (V, )
allora per la propriet` a 5. si pu` o stabilire, in modo naturale, un isomorsmo tra linsieme
delle isometrie di (V, ) ed il gruppo ortogonale O(n) associando ad ogni isometria f di
V la matrice ortogonale A = M
B,B
(f).
c) Si osservi che se un isomorsmo di uno spazio vettoriale euclideo (V, ) mantiene in-
variati gli angoli tra i vettori di V allora non ` e necessariamente unisometria. Un esempio
elementare ` e dato dallisomorsmo:
f : V V, x 2x, (6.36)
ossia dalla funzione 2 id.
Esempio 6.34 Gli elementi di O(2), ovvero le matrici ortogonali di ordine 2, sono ne-
cessariamente o di tipo (3.31) o di tipo (3.33) (cfr. Es. 3.11). Pertanto gli endomorsmi
del piano vettoriale V
2
con matrice associata rispetto ad una base ortonormale B = (i, j)
una matrice di tipo (3.31) o di tipo (3.33) sono isometrie di V
2
. Nel caso di matrici di tipo
(3.31) si ottengono le rotazioni R[] gi` a considerate nell Esempio 6.31. Se si considera
invece un endomorsmo r

del piano vettoriale V


2
con matrice associata rispetto ad una
base ortonormale B = (i, j) una matrice di tipo (3.33), ossia:
A

cos sin
sin cos

,
si ha unisometria di V
2
tale che r

coincide con lidentit` a di V


2
, ovvero per cui
r
1

= r

.
Esercizio 6.25 Si consideri su R
2
la struttura euclidea determinata dal prodotto scalare
(x
1
, x
2
) (x
2
, y
2
) = x
1
y
1
+ 4x
2
y
2
.
Capitolo 6 291
Vericare che lisomorsmo di R
2
la cui matrice associata, rispetto alla base canonica
B = (e
1
, e
2
) di R
2
, ` e la matrice:
A =

3
2
1

1
4

3
2

,
` e unisometria di R
2
. Per quale motivo A non ` e una matrice ortogonale?
Soluzione Le equazioni di f, rispetto alla base B, sono:

1
=

3
2
x
1
+ x
2
x

2
=
1
4
x
1
+

3
2
x
2
.
Per provare che f ` e unisometria di (R
2
, ) ` e sufciente vericare che:
|f(x)|
2
= (x

1
)
2
+ 4(x

2
)
2
= x
2
1
+ 4x
2
2
= |x|
2
,
con x = (x
1
, x
2
) R
2
.
La matrice A non ` e un elemento di O(2) perch e non ` e associata ad una base ortonormale
(rispetto al prodotto scalare introdotto), infatti |e
2
| = 2.
Esercizio 6.26 Nello spazio vettoriale euclideo (V, ) di dimensione 4, riferito alla base
ortonormale B = (e
1
, e
2
, e
3
, e
4
) sono dati i vettori:
a = 2e
1
e
3
+ 2e
4
, b = e
3
e
4
.
1. Detto c il versore di a, vericare che la funzione
f : V V, x f(x) = x 2(x c)c
` e un isometria di V .
2. Calcolare |f
1
(b)| ed il coseno dellangolo tra i vettori f
1
(a) e f
1
(b).
Soluzione 1. La funzione f ` e un endomorsmo in quanto:
f(x + y) = (x + y) 2 ((x + y) c) c
= x 2(x c)c + y 2(y c)c
= f(x) + f(y),
292 Applicazioni Lineari
per ogni , R e per ogni x, y V. Inoltre:
|f(x)|
2
= f(x) f(x) = (x 2(x c)c) (x 2(x c)c)
= x x 4(x c)(x c) + 4(x c)
2
(c c) = |x|
2
.
2. Essendo f unisometria, anche f
1
` e unisometria. Quindi:
|f
1
(b)| = |b| =

2,
cos = cos(

f
1
(a)f
1
(b)) = cos(

ab) =
a b
|a| |b|
=
1

2
.
Si lascia per esercizio la determinazione della matrice associata A a f rispetto alla base
B e la verica del fatto che A sia una matrice ortogonale.
Osservazione 6.29 Siano (V, ) uno spazio vettoriale euclideo di dimensione n e J un
iperpiano vettoriale di V. La funzione:
g : V V, x g(x) =

x, x J
x, x J

,
che coincide con lidentit` a su J e manda ogni vettore del complemento ortogonale J

di J nel proprio opposto ` e un endomorsmo di V. Infatti, si pu` o vericare che


1
2
(x + g(x))
coincide con la proiezione ortogonale di x su J. Lendomorsmo g prende il nome
di simmetria ortogonale o riessione rispetto alliperpiano vettoriale J.
`
E un esercizio
vericare che g ` e unisometria dello spazio vettoriale euclideo (V, ) e che g g coincide
con lidentit` a di V. Inoltre, se c ` e un versore ortogonale a J, allora:
g(x) = x 2(x c)c
Quindi lisometria f dellesercizio precedente non ` e altro che la simmetria ortogonale
rispetto alliperpiano vettoriale L(a)

di equazione:
2x
1
x
3
+ 2x
4
= 0.
Inoltre, si pu` o vericare che lendomorsmo r

del piano vettoriale V


2
, considerato nel-
lEsempio 6.34, ` e una simmetria ortogonale rispetto ad una retta vettoriale. Infatti, si
ha:
A

1 2 sin
2

2
2 cos

2
sin

2
2 cos

2
sin

2
1 cos
2

2

= I 2

sin

2
cos

2

sin

2
cos

2

.
Capitolo 6 293
Isomorsmi di uno spazio vettoriale euclideo che mantengano invariata la misura de-
gli angoli, ma in generale non le norme dei vettori, sono dati dalle similitudini, di cui
lisomorsmo (6.36) ne ` e un esempio. Pi` u precisamente si pu` o enunciare la seguente
denizione.
Denizione 6.17 Sia f : V V un isomorsmo di uno spazio vettoriale euclideo
(V, ), f prende il nome di similitudine di rapporto a se:
|f(x)| = a|x|, x V,
da cui si deduce che a deve essere un numero reale positivo non nullo.
Osservazione 6.30 Ogni isometria ` e una similitudine di rapporto 1. Mentre lisomor-
smo denito da (6.36) ` e una similitudine di rapporto 2.
Il teorema che segue, la cui dimostrazione ` e lasciata al Lettore per esercizio, riassume
alcune tra le principali propriet` a delle similitudini.
Teorema 6.34 Sia (V, ) uno spazio vettoriale euclideo di dimensione n.
1. Se f ` e una similitudine di (V, ), allora f mantiene invariata la misura degli angoli
tra i vettori.
2. La matrice associata ad una similitudine di rapporto a, rispetto ad una base orto-
normale di V, ` e data dal prodotto aA con A O(n).
Analogamente al caso reale, un endomorsmo f di uno spazio vettoriale hermitiano
(V, ) si dice una trasformazione unitaria o operatore unitario o isometria complessa
se non cambia il prodotto hermitiano, cio` e se vale la relazione (6.32). Come nel caso
delle isometrie si pu` o dimostrare il teorema che segue.
Teorema 6.35 Sia (V, ) uno spazio vettoriale hermitiano di dimensione n.
1. Un endomorsmo f : V V ` e una trasformazione unitaria se e solo se:
|f(x)| = |x|, x V.
2. La composizione di due trasformazioni unitarie ` e una trasformazione unitaria.
3. Linversa di una trasformazione unitaria ` e una trasformazione unitaria.
4. Un endomorsmo f di V ` e una trasformazione unitaria di V se e solo se le im-
magini dei vettori di una base ortonormale di V formano una base ortonormale di
V .
294 Applicazioni Lineari
5. Un endomorsmo f di V ` e una trasformazione unitaria di V se e solo se la matrice
associata ad f, rispetto ad una base ortonormale di V, ` e una matrice unitaria.
6. Un endomorsmo f di V ` e una trasformazione unitaria se e solo se f
1
= f

,
dove f

` e laggiunto di f .
La dimostrazione del Teorema 6.35 ` e analoga a quella del Teorema 6.33 tenendo per` o
conto che in questo caso vale la relazione (5.13).
Osservazione 6.31 Come per le isometrie, dai punti 2. e 3. del Teorema 6.35 segue che
linsieme delle trasformazioni unitarie di uno spazio vettoriale hermitiano (V, ) ` e un
gruppo (cfr. Oss. 6.14) rispetto alla composizione di funzioni. Inoltre, ssata una base
ortonormale B nello spazio vettoriale hermitiano (V, ) allora per la Propriet` a 6. dello
stesso teorema si pu` o stabilire, in modo naturale, un isomorsmo tra linsieme delle tra-
sformazioni unitarie di (V, ) ed il gruppo unitario U(n) delle matrici unitarie associando
ad ogni trasformazione unitaria f di V la matrice unitaria A = M
B,B
(f).
Capitolo 7
Diagonalizzazione
Questo capitolo non ` e da considerarsi in forma nale
Questo capitolo ` e di importanza fondamentale per le sue svariate applicazioni in mate-
matica, in sica e in tutte quelle discipline a carattere scientico e non, ad esempio la
musica. Nel caso di un endomorsmo si vuole determinare, tra le innite matrici ad esso
associate, almeno una particolarmente semplice: una matrice diagonale. In altri termini
si vuole determinare una base opportuna dello spazio vettoriale V, su cui lendomorsmo
` e denito, rispetto alla quale la matrice ad esso associata sia diagonale; si vedr` a per` o nel
corso del capitolo che questo scopo non pu` o essere sempre raggiunto.
7.1 Autovalori e autovettori di un endomorsmo
Si inizia con lintrodurre una denizione che diventer` a fondamentale per lo scopo che ci
si ` e proposti.
Denizione 7.1 Sia f : V V un endomorsmo di uno spazio vettoriale reale V. Un
vettore x non nullo di V si dice autovettore di f se esiste uno scalare R tale che:
f(x) = x, (7.1)
si dice autovalore di f relativo allautovettore x.
Osservazione 7.1 1.
`
E evidente dalla denizione di autovettore la necessit` a di sce-
gliere x diverso dal vettore nullo di V, infatti o = o per ogni R.
2. La precedente denizione pu` o essere anche formulata nel modo seguente: R ` e
un autovalore dellendomorsmo f se e solo se esiste un vettore x non nullo di V
per cui valga luguaglianza (7.1).
295
296 Diagonalizzazione
3. Si osservi che se x ` e un autovettore di f realtivo allautovalore , allora anche x
` e un autovettore di f relativo allautovalore , per ogni numero reale = 0.
Si antepongono due facili propriet` a agli esempi, per poter meglio capire la denizione
appena enunciata.
Teorema 7.1 Sia x un autovettore di un endomorsmo f di uno spazio vettoriale V,
allora lautovalore ad esso relativo ` e unico.
Dimostrazione Per assurdo siano =

due autovalori di f relativi allo stesso auto-


vettore x, allora f(x) = x =

x da cui (

)x = o, quindi segue la tesi.


Teorema 7.2 Sia un autovalore di un endomorsmo f di uno spazio vettoriale V, tutti
gli autovettori relativi a insieme con il vettore nullo di V costituiscono un sottospazio
vettoriale di V, indicato esplicitamente come:
V

= x V [ f(x) = x,
detto autospazio di f relativo allautovalore . Inoltre, V

` e un sottospazio vettoriale
invariante per f.
Dimostrazione Vericare che V

` e un sottospazio vettoriale di V invariante per f ` e un


facile esercizio che ` e conseguenza delle Denizioni 4.2 e 6.9.
Osservazione 7.2 Dal precedente teorema segue, quindi, che ogni combinazione lineare
x + y, con x, y autovettori di un endomorsmo f relativi allo stesso autovalore
e , R, ` e ancora un elemento dellautospazio V

. Se si considerano, invece, due


autovettori x e y relativi a due autovalori distinti e ( = ), ossia tali che f(x) = x
e f(y) = y si ha che la generica loro combinazione lineare non ` e pi ` u un autovettore di
f, in quanto:
f(x + y) = (x) + (y).
Denizione 7.2 Dato un endomorsmo f di uno spazio vettoriale reale V, linsieme
degli autovalori di f prende il nome di spettro di f .
Questa denizione giustica la particolare denominazione del Teorema 7.8.
Esempio 7.1 Lidentit` a id : V V, denita nellEsempio 6.1, ammette solo lautova-
lore = 1. Lautospazio V

relativo allautovalore = 1 coincide con V. Si osservi che


la matrice ad essa associata, rispetto ad una qualunque base di V, ` e la matrice unit` a, che ` e
quindi una matrice diagonale avente il numero 1 (lautovalore) sulla diagonale principale.
Capitolo 7 297
Esempio 7.2 Lapplicazione lineare nulla, denita nellEsempio 6.2, ammette solo lau-
tovalore = 0. Lunico autospazio V

, cio` e lautospazio relativo a = 0, coincide con


V. Si osservi che la matrice ad essa associata, rispetto ad una qualunque base di V, ` e la
matrice nulla. Pertanto, anche in questo caso la matrice ` e diagonale con lautovalore 0
sulla diagonale principale.
Osservazione 7.3 Sia f un endomorsmo non iniettivo di uno spazio vettoriale V. Dal
Teorema 6.8 si ha che ker f = o, allora f ammette lautovalore 0 e lautospazio ad
esso relativo coincide con ker f. Viceversa, se f ` e iniettivo, allora ker f = o, quindi il
numero 0 non pu` o essere un autovalore di f .
Esempio 7.3 Si consideri, nello spazio dei vettori ordinari V
3
, lendomorsmo:
f : V
3
V
3
, x (x u)u,
con u vettore ssato. Se u = o, si ha lendomorsmo nullo, gi` a considerato in preceden-
za. Se u ` e un versore, f ` e la funzione che ad ogni vettore x di V
3
associa la proiezione
ortogonale di x sulla retta vettoriale L(u). Pertanto si vede che gli unici autovalori di
f sono
1
= 0 e
2
= 1. Infatti, si ha che f(x) = o se e solo se x ` e un vettore per-
pendicolare a u. Quindi
1
= 0 ` e un autovalore di f e lautospazio ad esso relativo ` e
V

1
= ker f , che coincide con il piano vettoriale ortogonale ad u. Daltra parte, lunica
altra possibilit` a per avere f(x) = x ` e f(x) = x, che si ottiene solo se x ` e parallelo
ad u, pertanto esiste anche lautovalore
2
= 1 e lautospazio ad esso relativo ` e la retta
vettoriale V

2
= L(u). Si osservi che vale la decomposizione:
V

1
V

2
= V
3
e V

2
= V

1
.
Esempio 7.4 A titolo di esempio, si procede con il calcolo degli eventuali autovalori della
rotazione, in senso antiorario, di angolo in un piano vettoriale V
2
, (cfr. Es. 6.24) vale a
dire della trasformazione lineare:
R[] : V
2
V
2
, x R[](x)
le cui equazioni, rispetto ad una base ortonormale B = (i, j) di V
2
, sono:

= x cos y sin
y

= x sin + y cos ,
dove x = xi + yj e R[](x) = x

i + y

j. Se R ` e un autovalore di R[] ed x ` e un
autovettore ad esso relativo, allora R[](x) = x, quindi:
298 Diagonalizzazione

x cos y sin = x
x sin + y cos = y.
Risolvendo il precedente sistema lineare omogeneo nelle incognite x e y si ottiene che
esistono soluzioni non nulle se e solo se il rango della matrice dei coefcienti:

cos sin
sin cos

` e 1, ossia se e solo se il determinante di tale matrice ` e uguale a zero, in altri termini, se e


solo se:

2
2 cos + 1 = 0.
Questa equazione di secondo grado in ha soluzioni reali se e solo se cos = 1, da
cui segue ci` o che era gi` a intuibile geometricamente, ossia che solo le rotazioni di angolo
0 e ammettono autovalori. Tali rotazioni coincidono, rispettivamente, con lidentit` a id
di V
2
, gi` a studiata nellEsempio 7.1 e con lendomorsmo id di equazioni:

= x
y

= y
che ammette solo lautovalore 1 perch e denito da (id)(x) = x, x V
2
(cfr. Par.
6.4) e che si pu` o considerare geometricamente come un ribaltamento del vettore x sulla
retta che lo contiene.
Prima di procedere con il calcolo degli autovalori e degli autovettori di un generico en-
domorsmo, vale a dire prima di introdurre il procedimento che generalizza lesempio
appena esposto, si vuole dimostrare con il Teorema 7.3 una conseguenza importante delle
denizioni date e precisamente: la somma degli autospazi di un endomorsmo ` e diretta.
A titolo di esercizio, si inizia con il provare questa propriet` a per la somma di due auto-
spazi. In questo caso, dimostrare che la somma di due autospazi V

1
+V

2
, con
1
=
2
,
` e diretta equivale a provare che V

1
V

2
= o, (cfr. Teor. 4.5). Se per assurdo esiste
x V

1
V

2
, x = o, allora f(x) =
1
x =
2
x da cui segue (
1

2
)x = o, quindi

1
=
2
, che ` e assurdo. Per dimostrare questa propriet` a in generale ` e per` o necessario
anteporre il lemma che segue, la cui dimostrazione ` e rimandata al Paragrafo 7.6.3.
Lemma 7.1 Siano
1
,
2
, . . . ,
k
autovalori distinti di un endomorsmo f : V V di
uno spazio vettoriale V e siano V

1
, V

2
, . . . , V

k
gli autospazi ad essi corrispondenti.
Scelti in modo arbitrario gli autovettori x
1
, x
2
, . . . , x
k
, uno per ciascun autospazio ad
esso relativo (x
i
V

i
, i = 1, 2, . . . , k), allora linsieme 1 = x
1
, x
2
, . . . , x
k
` e libero.
Come conseguenza si ha:
Capitolo 7 299
Teorema 7.3 Sia f un endomorsmo di uno spazio vettoriale reale V e siano
1
,
2
, . . . ,

k
gli autovalori distinti di f, allora la somma degli autospazi:
V

1
+ V

2
+ . . . + V

k
` e diretta.
Dimostrazione Provare che la somma V

1
+V

2
+. . . +V

k
` e diretta equivale a dimo-
strare che ogni elemento x V

1
+ V

2
+ . . . + V

k
ha ununica decomposizione come
somma di vettori di ciascuno degli autospazi addendi (cfr. Def. 4.6). Sia allora x apparte-
nente a V

1
+V

2
+. . . +V

k
, si supponga per assurdo che x ammetta due decomposizioni
diverse del tipo:
x = x
1
+x
2
+ . . . +x
k
= y
1
+y
2
+ . . . +y
k
,
dove x
i
, y
i
V

i
, i = 1, 2, . . . , k, allora si ha che:
(x
1
y
1
) + (x
2
y
2
) + . . . + (x
k
y
k
) = o
in evidente contrasto con il Lemma 7.1.
Osservazione 7.4 Si osservi che il teorema appena enunciato afferma che, considerati
tutti gli autovalori distinti
1
,
2
, . . . ,
k
di f , allora:
V

1
V

2
. . . V

k
V ;
lo studio delluguaglianza tra questi due insiemi sar` a oggetto del Paragrafo 7.3.
7.2 Determinazione degli autovalori e degli autospazi
Sia f : V V un endomorsmo di uno spazio vettoriale reale V. Si supponga che
dim(V ) = n e che B = (v
1
, v
2
, . . . , v
n
) sia una base di V. Indicate con A R
n,n
la
matrice associata ad f rispetto alla base B e con X R
n,1
la matrice colonna delle
componenti di un vettore x di V rispetto alla base B, e tenendo conto delle equazioni
dellendomorsmo f scritte in forma matriciale (cfr. (6.4)), la formula (7.1) si traduce,
in componenti, nella relazione:
AX = X
vale a dire in:
(A I)X = O, (7.2)
300 Diagonalizzazione
dove I R
n,n
indica la matrice unit` a e O R
n,1
la matrice colonna nulla. Dalla teoria
dei sistemi lineari omogenei descritta nel Paragrafo 1.2.1, segue che il sistema lineare
omogeneo (7.2) ammette soluzioni non nulle se e solo se rank(A I) < n, ossia se e
solo se:
det(A I) = 0. (7.3)
Si perviene allo stesso risultato facendo uso delle denizioni di somma e di prodotto per
scalari di endomorsmi introdotte nel Paragrafo 6.4 e riscrivendo (7.1) come:
(f id)(x) = o,
dove id indica lidentit` a di V. Pertanto gli autovettori di f, relativi allautovalore ,
coincidono con gli elementi, diversi dal vettore nullo, di ker(f id), cio` e:
V

= ker(f id).
Si procede ora con lo studio dettagliato dellequazione (7.3) che prende il nome di equa-
zione caratteristica della matrice A; (7.3) ` e anche detta equazione caratteristica dellen-
domorsmo f, infatti si dimostrer` a nel Teorema 7.4 che non dipende dalla scelta della
matrice associata ad f , ovvero che tutte le matrici associate allo stesso endomorsmo
(le matrici simili) hanno lo stesso polinomio caratteristico. Il polinomio det(A I) a
primo membro di (7.3) ` e detto polinomio caratteristico di A (o dellendomorsmo f ) e
lo si indicher` a con P(). Pertanto, gli autovalori di f coincidono con le radici reali di
P(). Per ogni radice reale = , lautospazio corrispondente V

` e formato dai vet-


tori x di V tali che f(x) = x, ossia dalle soluzioni X del sistema lineare omogeneo
(A I)X = O. Per questo motivo anche se il calcolo degli autovalori ` e riferito ad un
endomorsmo f spesso si parla di calcolo degli autovalori di una matrice quadrata A,
intendendosi come tale il calcolo degli autovalori dellendomorsmo f a cui la matrice
A ` e associata rispetto ad una base di V.
Con lesempio che segue si vuole determinare, per iniziare a capire il tipo di calcolo che
si deve svolgere, il polinomio caratteristico nel caso particolare delle matrici quadrate di
ordine 2, ossia nel caso di endomorsmi di uno spazio vettoriale reale di dimensione 2.
Esempio 7.5 Sia:
A =

a
11
a
12
a
21
a
22

R
2,2
,
il suo polinomio caratteristico ` e:
P() = det(A I) =

a
11
a
12
a
21
a
22

,
da cui segue:
det(A I) =
2
tr(A) + det(A).
Capitolo 7 301
Con un calcolo analogo si ha che il polinomio caratteristico di una matrice quadrata A di
ordine n ` e dato da:
P() = det(A I) = (1)
n

n
+ (1)
n1
tr(A)
n1
+ . . . + det(A).
Infatti:
1. ciascun addendo nel calcolo del determinante della matrice quadrata A I di
ordine n ` e il prodotto di n fattori appartenenti a righe e colonne diverse (cfr. Par.
2.8), quindi il polinomio caratteristico in che si ottiene avr` a necessariamente
grado n.
2. Il termine di grado massimo del polinomio caratteristico si ha solo dal prodotto
degli elementi sulla diagonale principale:
(a
11
)(a
22
) . . . (a
nn
),
quindi il coefciente di
n
deve essere (1)
n
.
3. Anche il termine di grado n1 del polinomio caratteristico si ottiene solo dal pro-
dotto degli elementi della diagonale principale (provare, per esempio, a fare il cal-
colo esplicito nel caso particolare delle matrici quadrate di ordine 3), ` e abbastanza
facile notare che il suo coefciente deve essere (1)
n1
tr(A).
4. Il termine noto si ottiene ponendo = 0, quindi deve essere det(A), cio` e:
P(0) = det(A).
Di conseguenza lequazione (7.3) ammette la soluzione 0 se e solo se det(A) = 0,
in assoluto accordo con ci` o che era gi` a stato osservato (cfr. Oss. 7.3), vale a dire
esiste lautovalore = 0 di f se e solo se ker f = o.
5. Per il Teorema Fondamentale dellAlgebra in cui si afferma che ogni polinomio di
grado n, a coefcienti complessi, ammette n radici complesse, contate con le loro
molteplicit` a, segue che ogni matrice A R
n,n
ammette al pi` u n autovalori. Per la
dimostrazione del Teorema Fondamentale dellAlgebra si veda ad esempio [5].
6. Se unequazione a coefcienti reali in unincognita ammette una radice complessa,
allora ammette anche una seconda radice complessa che ` e la complessa coniugata
della precedente (si pensi alla formula risolutiva delle equazioni di secondo grado),
pertanto una matrice reale quadrata di ordine pari pu` o non ammettere autovalori
(non si dimentichi che si sta solo trattando il caso degli spazi vettoriali reali), mentre
una matrice reale quadrata di ordine dispari ammette almeno un autovalore.
302 Diagonalizzazione
Esempio 7.6 La matrice quadrata di ordine 2:
A =

2 2
1 1

,
ha come polinomio caratteristico:
det(A I) =
2
3 + 4
che non ha radici reali, pertanto la matrice A non ammette autovalori.
Esempio 7.7 Sia f : R
4
R
4
lendomorsmo che, rispetto alla base canonica B di
R
4
, ` e associato alla matrice:
A =

2 0 0 0
0 2 6 6
0 0 3 3
0 0 2 2

,
si vogliono determinare gli autovalori e gli autospazi di f (o, equivalentemente, gli
autovalori e gli autospazi di A). Si inizia con il calcolo dellequazione caratteristica:
det(A I) =

2 0 0 0
0 2 6 6
0 0 3 3
0 0 2 2

= 0
e si ha:
det(A I) = ( 1)( + 2)
2
= 0
da cui si ottengono tre autovalori
1
= 0,
2
= 1,
3
= 2. Si avranno quindi tre
autospazi, si procede al loro calcolo uno alla volta.
V

1
coincide con ker f, che si ottiene riducendo per righe la matrice A. Si lasciano i
dettagli per esercizio, si ha rank(A) = 3, quindi dim(ker f) = dim(V

1
) = 1 e:
V

1
= L((0, 0, 1, 1)).
Per
2
= 1 si ottiene:
A I =

3 0 0 0
0 3 6 6
0 0 2 3
0 0 2 3

,
Capitolo 7 303
da cui rank(AI) = 3 e, quindi, risolvendo il sistema lineare omogeneo corrispondente
allequazione matriciale (A I)X = 0, si perviene a:
V

2
= L((0, 2, 3, 2)).
Nel caso di
3
= 2 invece:
A + 2I =

0 0 0 0
0 0 6 6
0 0 5 3
0 0 2 0

ha rank(A + 2I) = 2 e quindi:


V

3
= L((1, 0, 0, 0), (0, 1, 0, 0)).
Il risultato appena trovato sugli autovalori e autospazi di f sar` a ridiscusso nellOsserva-
zione 7.6.
Si dimostrer` a ora il teorema gi` a annunciato, vale a dire matrici simili hanno lo stesso
polinomio caratteristico.
Teorema 7.4 Sia f un endomorsmo di uno spazio vettoriale reale V di dimensione n.
Il polinomio caratteristico di f non dipende dalla base di V scelta per la sua determina-
zione.
Dimostrazione Si ottiene la tesi provando che:
det(A I) = det(P
1
AP I)
con A matrice quadrata di ordine n, P matrice invertibile di ordine n, I matrice unit` a
di ordine n e R. Usando le propriet` a del prodotto di matrici, la formula di Binet e il
calcolo del determinante dellinversa di una matrice (cfr. Teor. 2.16) si ha:
det(P
1
AP I) = det(P
1
(A I)P)
= det(P
1
) det(A I) det(P)
= det(A I),
dopo aver tenuto conto che I = P
1
IP e della propriet` a det(P
1
) = det(P)
1
.
304 Diagonalizzazione
Osservazione 7.5 Si osservi che esistono matrici che hanno lo stesso polinomio caratte-
ristico ma che non sono simili, per esempio le due matrici:
I =

1 0
0 1

, B =

1 1
0 1

,
in quanto P
1
IP = I , per ogni matrice invertibile P.
Il teorema che segue stabilisce unimportante relazione tra la dimensione di un autospazio
e la molteplicit` a del proprio autovalore nel polinomio caratteristico. Atale scopo si ricordi
che una radice di un polinomio p() (il cui coefciente del termine di grado massimo
` e 1) si dice avere molteplicit` a h se il polinomio ( )
h
divide p() ma ( )
h+1
non divide p().
Teorema 7.5 Sia f un endomorsmo di uno spazio vettoriale reale V, sia un suo
autovalore di molteplicit` a m

e sia V

lautospazio relativo ad , allora:


1 dim(V

) m

.
Dimostrazione Poich e ` e un autovalore, allora dim(V

) 1. Per dimostrare la
seconda disuguaglianza della tesi si suppongano dim(V ) = n e dim(V

) = k. Se k = n,
la tesi ` e ovvia perch e f(x) = x, per ogni x V e pertanto V

= V. Sia, quindi, k < n


e sia (a
1
, a
2
, . . . , a
k
) una base di V

. Si completi (cfr. Teor. 4.15) tale insieme libero no


ad ottenere la base B di V data da B = (a
1
, a
2
, . . . , a
k
, b
k+1
, . . . , b
n
). Di conseguenza
la matrice associata A = M
B,B
(f) assume la forma seguente:
A =

0 . . . 0 a
1k+1
. . . a
1n
0 . . . 0 a
2k+1
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . a
kk+1
. . . a
kn
0 0 . . . 0 a
k+1k+1
. . . a
k+1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 0 a
nk+1
. . . a
nn

il cui polinomio caratteristico ` e:


det(A I) = ( )
k
Q()
dove Q() ` e un polinomio in di grado n k, ci` o signica che la molteplicit` a di ` e
almeno k.
Capitolo 7 305
Osservazione 7.6 Si osservi che nellEsempio 7.7 si sono ottenuti tre autovalori distinti

1
= 0 con molteplicit` a m

1
= 1,
2
= 1 con molteplicit` a m

2
= 1 e
3
= 2 con
molteplicit` a m

3
= 2. I tre autospazi V

1
, V

2
, V

3
avevano, rispettivamente, dimensione
1, 1, 2 e pertanto:
V

1
V

2
V

3
= R
4
.
Inoltre, gli autovettori di f (o di A):
v
1
= (0, 0, 1, 1), v
2
= (0, 2, 3, 2), v
3
= (1, 0, 0, 0), v
4
= (0, 1, 0, 0)
formano una base B

di R
4
. La matrice M
B

,B

(f) associata ad f rispetto alla base


B

= (v
1
, v
2
, v
3
, v
4
) di R
4
` e la matrice diagonale:
D =

0 0 0 0
0 1 0 0
0 0 2 0
0 0 0 2

,
in quanto:
f(v
1
) = o, f(v
2
) = v
2
, f(v
3
) = 2v
3
, f(v
4
) = 2v
4
.
Di conseguenza A ` e simile alla matrice diagonale D, cio` e P
1
AP = D, dove P ` e la
matrice del cambiamento di base dalla base canonica B di R
4
alla base B

di R
4
formata
da autovettori di f .
Esercizio 7.1 Si calcolino gli autovalori e gli autospazi della matrice quadrata:
A =

2 0 0
0 1 1
0 0 1

.
Soluzione Il polinomio caratteristico della matrice A ` e dato da:
det(A I) =

2 0 0
0 1 1
0 0 1

= (2 )(1 )
2
.
Si ottengono gli autovalori
1
= 2 con molteplicit` a m

1
= 1 e
2
= 1 con molteplicit` a
m

2
= 2. Gli autospazi relativi ai due autovalori sono:
V

1
= L((1, 0, 0)), V

2
= L((0, 1, 0)).
In questo caso si ha quindi che V

1
V

2
` e un sottospazio vettoriale di R
3
di dimensione
2 e pertanto V

1
V

2
= R
3
.
306 Diagonalizzazione
7.3 Endomorsmi semplici e matrici diagonalizzabili
Il paragrafo inizia con due importanti denizioni, palesemente equivalenti.
Denizione 7.3 Un endomorsmo f : V V di uno spazio vettoriale reale V si dice
semplice (o anche diagonalizzabile) se esiste una base di V rispetto alla quale la matrice
associata ad f ` e diagonale.
Denizione 7.4 Una matrice quadrata A R
n,n
si dice diagonalizzabile se esiste una
matrice invertibile P di ordine n tale che:
P
1
AP = D,
con D matrice diagonale di ordine n, o in altri termini, se A ` e simile ad una matrice
diagonale.
Nei paragra precedenti si sono incontrati alcuni esempi di endomorsmi semplici, quali
lapplicazione identit` a, lapplicazione nulla, lEsempio 7.7. In questo paragrafo si cer-
cher` a di precisare quando un endomorsmo ` e semplice e come si procede, in pratica, alla
diagonalizzazione di una matrice quadrata, dopo aver controllato che ci` o sia possibile.
Il primo teorema (la cui dimostrazione ` e conseguenza immediata della Denizione 7.3)
provvede a dare un metodo pratico, utile per riconoscere se un endomorsmo ` e semplice.
Teorema 7.6 Un endomorsmo f : V V di uno spazio vettoriale reale V ` e semplice
se e solo se esiste una base di V formata da autovettori di f .
Osservazione 7.7 Dal precedente teorema ` e quindi evidente che, se f ` e un endomorsmo
semplice di uno spazio vettoriale reale V, allora una base di V, rispetto alla quale la
matrice associata ad f sia diagonale, ` e formata da autovettori.
Possiamo perci ` o enunciare quelli che usualmente vengono indicati come i criteri di dia-
gonalizzazione.
Teorema 7.7 Sia f : V V un endomorsmo di uno spazio vettoriale reale V. Le
seguenti affermazioni sono equivalenti:
1. f ` e semplice.
2. V = V

1
V

2
. . . V

k
, dove
1
,
2
, . . . ,
k
sono tutti gli autovalori distinti di
f e V

1
, V

2
, . . . , V

k
i relativi autospazi.
Capitolo 7 307
3. dim(V ) = dim(V

1
) + dim(V

2
) + . . . + dim(V

k
), dove
1
,
2
, . . . ,
k
sono tutti
gli autovalori distinti di f e V

1
, V

2
, . . . , V

k
i relativi autospazi.
4. Ogni radice del polinomio caratteristico P() di f ` e reale e per ogni radice
i
(cio` e per ogni autovalore di f )
i
di molteplicit` a m

i
si ha che la dimensione
dellautospazio V

i
coincide con la molteplicit` a m

i
, in formule:
dim(V

i
) = m

i
, i = 1, 2, . . . , k.
Dimostrazione Per dimostrare lequivalenza delle quattro affermazioni si proveranno
le seguenti implicazioni:
1. =4. =3. =2. =1.
Per dimostrare limplicazione 1. = 4. si supponga quindi che f sia semplice, cio` e che
esista una base B di V formata da autovettori e quindi tale che la matrice A associata
ad f rispetto alla base B sia diagonale, con gli autovalori di f come elementi della
diagonale principale. Se si indicano con
1
,
2
, . . . ,
k
gli autovalori distinti di f e con
m

1
, m

2
, . . . , m

k
le relative molteplicit` a, si ha che il polinomio caratteristico di f ` e
dato da:
P() = det(A I) = (
1
)
m

1
. . . (
k
)
m

k
,
da cui segue che ogni radice del polinomio caratteristico ` e reale. Inoltre, per ogni autova-
lore
i
si ha:
dim(V

i
) = n rank(A
i
I) = m

i
.
Per dimostrare limplicazione 4. = 3. si pu` o osservare che, per ipotesi, ogni radice del
polinomio caratteristico ` e reale e quindi la somma delle moltiplicit` a delle radici distinte,
cio` e degli autovalori distinti, coincide con il grado del polinomio caratteristico, ovvero:
m

1
+ m

2
+ . . . + m

k
= dim(V )
e quindi:
dim(V

1
) + dim(V

2
) + . . . + dim(V

k
) = dim(V ).
Per dimostrare limplicazione 3. = 2., tenendo conto che per il Teorema 7.3 la somma
di tutti gli autospazi relativi agli autovalori distinti
1
,
2
, . . . ,
k
` e diretta e che dallaffer-
mazione 3. la somma delle dimensioni degli autospazi ` e pari alla dimensione di V, segue
che la somma di tutti gli autospazi coincide necessariamente con V.
Per provare lultima implicazione 2. = 1. ` e sufciente osservare che, se per ogni
autospazio V

i
, i = 1, 2, . . . , k si considera una base B
i
, allora per il Teorema 4.17
lunione:
B
1
. . . B
k
308 Diagonalizzazione
` e una base di V in quanto la somma degli autospazi ` e diretta.
Osservazione 7.8 La decomposizione 2. del teorema precedente ` e anche nota come de-
composizione spettrale di V.
Osservazione 7.9 In base ai precedenti criteri segue che lendomorsmo f dellEsempio
7.7 ` e semplice (o equivalentemente la sua matrice associata A ` e diagonalizzabile). Le ma-
trici diagonali simili ad A sono tutte le possibili matrici diagonali aventi sulla diagonale
principale gli autovalori di A. (Quante sono in totale?)
Lendomorsmo dellEsercizio 7.1 non ` e semplice, in quanto per lautovalore
2
= 1 si
ha che dim(V

2
) < m

2
.
Come conseguenza immediata del Teorema 7.7 si ha il seguente:
Corollario 7.1 Se f ` e un endomorsmo di uno spazio vettoriale reale V di dimensione
n con n autovalori distinti, allora f ` e semplice.
La dimostrazione ` e lasciata come esercizio al Lettore.
7.4 Il teorema spettrale
Nel caso particolare delle matrici simmetriche si pu` o dimostrare il fondamentale:
Teorema 7.8 Teorema Spettrale 1. Sia A una matrice simmetrica, allora A ` e
diagonalizzabile, esistono quindi una matrice diagonale D e una matrice inverti-
bile P tali che:
D = P
1
AP.
2. Sia A una matrice simmetrica, ` e sempre possibile individuare una matrice ortogo-
nale Q tale che:
D = Q
1
AQ =
t
QAQ,
cio` e A ` e diagonalizzabile mediante una matrice ortogonale.
Si ricordi che per il Teorema 6.17, ssata una base ortonormale B di uno spazio vettoriale
euclideo (V , ), la matrice associata M
B,B
(f) ad un endomorsmo di f di V ` e simme-
trica se e solo se lendomorsmo f ` e autoaggiunto. Pertanto, il precedente teorema ha
una formulazione equivalente in termini di endomorsmi autoaggiunti. Pi` u precisamente
si ha:
Capitolo 7 309
Teorema 7.9 Teorema Spettrale Sia f : V V un endomorsmo autoaggiunto di
uno spazio vettoriale euclideo (V, ) e siano
1
,
2
, . . . ,
k
tutti i suoi autovalori distinti,
allora la somma diretta di tutti gli autospazi coincide con V :
V

1
V

2
. . . V

k
= V
e gli autospazi sono a due ortogonali, vale a dire
V

i
V

j
, i = j, i, j = 1, 2, . . . , k,
nel senso che per ogni x V

i
e per ogni y V

j
si ha x y = 0.
Osservazione 7.10 Si osservi che le due formulazioni del Teorema Spettrale sono equi-
valenti solo se si sceglie nello spazio vettoriale euclideo (V, ) una base ortonormale
come si spiegher` a meglio in seguito.
Si inizia con enunciare una prima propriet` a sulle radici del polinomio caratteristico di
una matrice simmetrica, la cui dimostrazione ` e rimandata al Paragrafo 7.6, in quanto
essa segue dal fatto che si dovr` a considerare uno spazio vettoriale denito sul campo dei
numeri complessi C, invece che su R.
Lemma 7.2 Tutte le radici del polinomio caratteristico di una matrice simmetrica A di
ordine n sono reali, o in modo equivalente, tutte le radici del polinomio caratteristi-
co di un endomorsmo autoaggiunto f di uno spazio vettoriale euclideo (V, ) sono
reali. In altri termini, se
1
,
2
, . . . ,
k
sono tutti gli autovalori distinti di un endomor-
smo autoaggiunto f di V con rispettive molteplicit` a m

1
, m

2
, . . . , m

k
, allora si ha
luguaglianza:
m

1
+ m

2
+ . . . + m

k
= n,
dove n ` e la dimensione di V.
In generale, per un endomorsmo qualsiasi di uno spazio vettoriale euclideo (V, ) si
pu` o solo affermare che due autovettori relativi a due autovalori distinti non sono paralleli
(cfr. Lemma 7.1). Nel caso particolare di endomorsmi autoaggiunti si pu` o dimostrare
lortogonalit` a tra i due autovettori. Si ha infatti il seguente:
Teorema 7.10 Se
1
e
2
sono due autovalori distinti di un endomorsmo autoaggiunto
f di uno spazio vettoriale euclideo (V, ), allora i relativi autospazi V

1
e V

2
sono
ortogonali tra di loro, ossia:
x y = 0,
per ogni x V

1
e per ogni y V

2
.
310 Diagonalizzazione
Dimostrazione Considerati x V

1
e y V

2
, dalla denizione di endomorsmo
autoaggiunto segue:
f(x) y = (
1
x) y =
1
(x y) = x f(y) = x (
2
y) =
2
(x y) =
2
(x y).
Di conseguenza (
1

2
)(x y) = 0, per ogni x V

1
e y V

2
, ma
1
=
2
, perci ` o
x y = 0.
Per dimostrare il Teorema Spettrale 7.8 ` e quindi necessario provare che un endomorsmo
autoaggiunto ` e semplice e che esiste una base ortonormale di V formata da autovettori di
f . Pi ` u precisamente si deve dimostrare il seguente:
Teorema 7.11 Sia f un endomorsmo autoaggiunto di uno spazio vettoriale euclideo
(V, ) di dimensione n, allora f ` e semplice. Inoltre, esiste una base ortonormale di V
formata da autovettori di f .
Dimostrazione Siano
1
,
2
, . . . ,
k
gli autovalori distinti di f e si consideri la somma
dei relativi autospazi, che sappiamo essere diretta per il Teorema 7.3, ossia:
J = V

1
V

2
. . . V

k
.
Poich e ogni autospazio V

i
, i = 1, 2, . . . , k, ` e invariante per f (cfr. Teor. 7.2), usando il
Teorema 6.14, si ha che J V ` e un sottospazio vettoriale di V, invariante per f , cio` e
f(J) J. Per dimostrare quindi che f ` e semplice, ` e sufciente provare che J = V .
Se, per assurdo, J = V , allora V = J J

, dove J

indica il complemento
ortogonale di J in V. Il sottospazio vettoriale J

` e diverso da o, in quanto J = V.
Per il Teorema 6.18 si ha, di conseguenza, che J

` e un sottospazio invariante per f.


Sia f

la restrizione f[
W
a J

, denita da (6.17), cio` e da: f

(w) = f(w), con w in


J

. Poich` e f ` e autoaggiunto, anche lendomorsmo f

dello spazio vettoriale euclideo


(J

, ) rimane autoaggiunto. Per il Lemma 7.2 le radici del polinomio caratteristico di


f

sono tutte reali, ci` o implica lesistenza di un autovettore x = o di f

in J

. Per` o x ` e
anche autovettore di f e come tale deve appartenere a J, da cui lassurdo. Si ha quindi
J = V. Dalla decomposizione:
V = V

1
V

2
. . . V

k
e usando lortogonalit` a tra gli autospazi (cfr. Teor. 7.10) si pu` o determinare una base orto-
normale di V formata da autovettori di f semplicemente come unione di basi ortonormali
per ogni autospazio V

i
. Pi ` u precisamente, si trova una base per ciascun autospazio V

i
,
i = 1, 2, . . . , k e la si normalizza con il metodo di GramSchmidt (cfr. Teor. 5.5), otte-
nendo in questo modo una base ortonormale B
i
per ogni autospazio V

i
. Per il Teorema
7.10, se
i
=
j
allora V

i
V

j
, pertanto lunione delle basi ortonormali B
1
. . . B
k
cos` ottenute ` e una base ortonormale di V formata da autovettori di f .
Capitolo 7 311
Osservazione 7.11 Per lOsservazione 7.2 non si pu` o applicare in generale il processo
di ortonormalizzazione di GramSchmidt ad una base di V formata da autovettori di f
per ottenere una base ortonormale di V formata da autovettori, in quanto la base che si
ottiene ` e ortonormale ma in generale non sar` a pi ` u formata da autovettori (perch e?).
Esercizio 7.2 Sia f lendomorsmo di R
3
associato alla matrice:
A =

2 1 0
1 1 1
0 1 2

(7.4)
rispetto alla base canonica di R
3
. Dimostrare che f ` e autoaggiunto rispetto al prodotto
scalare standard di R
3
e trovare una base ortonormale di R
3
formata da autovettori di f .
Inoltre, diagonalizzare la matrice A mediante una matrice ortogonale.
Soluzione Lendomorsmo f ` e autoaggiunto perch e la matrice associata ad f ` e sim-
metrica e la base canonica di R
3
` e ortonormale, rispetto al prodotto scalare standard di
R
3
.
Per trovare una base ortonormale di R
3
, formata da autovettori di f , si devono de-
terminare gli autospazi di f . Procedendo con il metodo indicato nel Paragrafo 7.2 si
ha:
autovalori:
1
= 0,
2
= 2,
3
= 3, tutti di molteplicit` a 1;
autospazi: V

1
= L((1, 2, 1)), V

2
= L((1, 0, 1)), V

3
= L((1, 1, 1)).
La base ortonormale richiesta si ottiene, semplicemente, considerando i versori di:
v
1
= (1, 2, 1), v
2
= (1, 0, 1), v
3
= (1, 1, 1)
(perch e?), quindi una matrice ortogonale che diagonalizza A ` e ad esempio:
P =

6
1

2
1

3
2

6
0
1

3
1

6
1

da cui:
t
PAP = D =

0 0 0
0 2 0
0 0 3

.
312 Diagonalizzazione
Esercizio 7.3 Sia f lendomorsmo di R
3
associato alla matrice:
A =

1 2 2
2 1 2
2 2 1

(7.5)
rispetto alla base canonica di R
3
. Dimostrare che f ` e autoaggiunto rispetto al prodotto
scalare standard di R
3
e trovare una base ortonormale di R
3
formata da autovettori di f .
Inoltre, diagonalizzare la matrice A mediante una matrice ortogonale.
Soluzione Si verica immediatamente che f ` e autoaggiunto in quanto la matrice asso-
ciata a f ` e simmetrica e la base canonica di R
3
` e ortonormale, rispetto al prodotto scalare
standard di R
3
.
Per trovare una base ortonormale di R
3
, formata da autovettori di f , si devono determi-
nare gli autospazi di f . Si ha:
autovalori:
1
= 3,
2
= 3, con rispettive molteplicit` a m

1
= 1, m

2
= 2;
autospazi: V

1
= L((1, 1, 1)), V

2
= L((1, 1, 0), (0, 1, 1)).
Si ottiene quindi una base di R
3
formata dagli autovettori:
a = (1, 1, 1), b = (1, 1, 0), c = (0, 1, 1).
Pertanto una matrice P tale che P
1
AP = D, con:
D =

3 0 0
0 3 0
0 0 3

,
` e data ad esempio da:
P =

1 1 0
1 1 1
1 0 1

,
ma la matrice P cos` ottenuta non ` e ortogonale.
Si perviene ad una base ortonormale di autovettori o equivalentemente una matrice or-
togonale Q tale che Q
1
AQ = D, applicando il processo di ortonormalizzazione di
Capitolo 7 313
GramSchmidt separatamente ai due autospazi. Pi ` u precisamente si considerano i vettori:
v
1
= vers (a) =

3
,
1

3
,
1

,
v
2
= vers (b) =

2
,
1

2
, 0

,
v
3
= vers (c (c v
2
)v
2
) = vers

1
2
,
1
2
, 1

6
,
1

6
,
2

,
quindi una matrice ortogonale che diagonalizza A ` e ad esempio:
Q =

3
1

2
1

6
1

2
1

6
1

3
0
2

da cui:
t
QAQ = D.
Si conclude il paragrafo con la dimostrazione dei due teoremi che stabiliscono, come
gi` a annunciato nellOsservazione 7.10, che i due enunciati del Teorema Spettrale sono in
realt` a equivalenti. Infatti, si prova che la propriet` a per una matrice di essere simmetrica
` e equivalente alla propriet` a di essere diagonalizzabile mediante una matrice ortogonale.
Vale, infatti il viceversa della propriet` a 2. del Teorema Spettrale 7.8. Si faccia per` o atten-
zione al fatto che la propriet` a per una matrice di essere simmetrica non equivale al fatto
che lendomorsmo associato sia necessariamente autoaggiunto.
Esempio 7.8 Lendomorsmo f di R
4
considerato nellEsempio 7.7 (cfr. Oss. 7.6) ` e
semplice, ma non ` e autoaggiunto rispetto al prodotto scalare standard di R
4
. Infatti la
matrice associata A allendomorsmo f rispetto alla base canonica di R
4
non ` e simme-
trica (cfr. Teor. 6.17). Si osservi per` o che la matrice associata a f rispetto ad una base
B

= (v
1
, v
2
, v
3
, v
4
) di R
4
formata da autovettori di f ` e diagonale e quindi ` e simmetrica.
Si verichi per esercizio che lendomorsmo f ` e invece autoaggiunto rispetto al prodotto
scalare per cui la base B

` e ortonormale.
Teorema 7.12 Se A R
n,n
` e diagonalizzabile mediante una matrice ortogonale, allora
A ` e simmetrica.
314 Diagonalizzazione
Dimostrazione Dal fatto che esista una matrice Q ortogonale di ordine n tale che
t
QAQ = D, si deduce A = QD
t
Q e quindi:
t
A =
t
(QD
t
Q) = QD
t
Q = A,
in quanto ovviamente
t
D = D.
Dal Teorema 6.17 e dal teorema appena enunciato, si ha come facile conseguenza il
seguente:
Teorema 7.13 Sia f : V V un endomorsmo di uno spazio vettoriale euclideo (V, )
di dimensione n, allora f ` e autoaggiunto se e solo se esiste una base ortonormale di V
formata da autovettori di f .
Osservazione 7.12 Per un endomorsmo f semplice (non autoaggiunto) di uno spa-
zio vettoriale euclideo (V, ) non ` e quindi possibile trovare una base ortonormale di V
formata da autovettori di f . Infatti, nonostante si ottenga la decomposizione:
V = V

1
V

2
. . . V

k
,
dello spazio vettoriale V nella somma diretta di autospazi, dovuta al fatto che f ` e sem-
plice, e quindi si pervenga ad una base di autovettori B, nel momento in cui si applica il
processo di ortonormalizzazione di GramSchmidt alla base B si ottiene una nuova base
( di V che non ` e pi ` u una base formata da autovettori.
7.5 Esercizi di riepilogo svolti
Esercizio 7.4 Data la matrice:
A =

4 1 + a
2
1
2 5 2
1 1 2

, a R,
1. determinare il rango di A, al variare del parametro a nel campo reale R;
2. posto a = 0, determinare gli autovalori di A e una base per ciascun autospazio;
3. posto a = 0, vericare se A ` e diagonalizzabile e, in caso affermativo, scrivere la
matrice di cambiamento di base dalla base canonica B di R
3
ad una base B

di R
3
formata da autovettori.
4. Determinare, al variare di a R, i casi in cui la matrice A ` e diagonalizzabile.
Capitolo 7 315
Soluzione 1. Si ha det(A) = 6a
2
+ 45, pertanto rank(A) = 3 se e solo se:
a =

30
2
.
Sostituendo nella matrice A i valori per cui det(A) = 0 si ha:
A =

4
17
2
1
2 5 2
1 1 2

e con un semplice passaggio di riduzione per righe si ottiene che rank(A) = 2.


2. Dal punto precedente segue che per a = 0 il rango della matrice A ` e 3, pertanto
A ` e una matrice invertibile che quindi non ammette lautovalore = 0. Infatti,
risolvendo lequazione caratteristica det(AI) = 0, si ottiene che gli autovalori
di A sono
1
= 5 con molteplicit` a pari a 1 e
2
= 3 con molteplicit` a 2. Gli
autospazi corrispondenti sono dati da:
V

1
= L((1, 2, 1)), V

2
= L((1, 0, 1), (1, 1, 0)).
3. Dal punto precedente si ha che dim(V

2
) = 2, pertanto A ` e diagonalizzabile. La
matrice richiesta ` e la matrice avente come colonne le componenti, rispetto alla base
B, dei vettori di una base di R
3
formata da autovettori di A ossia ad esempio:
P =

1 1 1
2 0 1
1 1 0

.
4. Le radici del polinomio caratteristico della matrice A del testo dellesercizio sono:

1
= 3,
2
= 4 +

1 + 2a
2
,
3
= 4

1 + 2a
2
.
Innanzi tutto si osserva che per ogni valore di a la quantit` a 1 + 2a
2
` e sempre
strettamente positiva, pertanto, per ogni valore di a, le radici
1
,
2
,
3
e
4
sono
autovalori di A. Si tratta di studiare la loro molteplicit` a al variare di a R. Come
gi` a osservato, non si hanno valori di a per cui
2
=
3
. Da
1
=
2
si ottiene

1 + 2a
2
= 1, caso che non si pu` o vericare. Da
1
=
3
segue a = 0, che ` e il
caso studiato nel punto 3. Pertanto la matrice A ` e diagonalizzabile per ogni valore
di a, infatti (ad eccezione di a = 0) tutti gli autovalori sono distinti (cfr. Cor. 7.1).
316 Diagonalizzazione
Esercizio 7.5 Sia f lendomorsmo di R
4
denito, rispetto alla base canonica B di R
4
,
dalla matrice:
A =

2 0 1 0
0 2 0 1
4 0 2 0
0 4 0 2

.
1. Determinare la dimensione e una base sia di ker f sia di imf e vericare che
ker f = imf.
2. Determinare autovalori e autovettori di f.
3. Stabilire se f ` e semplice.
4. Determinare una matrice simile a A.
Soluzione
1.
`
E evidente che la matrice A ha rango 2, infatti la terza e la quarta riga sono propor-
zionali, rispettivamente, alla prima e alla seconda riga e queste ultime sono linear-
mente indipendenti. Di conseguenza il nucleo di f si ottiene risolvendo il sistema
lineare omogeneo:

2x
1
x
3
= 0
2x
2
x
4
= 0,
le cui soluzioni sono:

x
1
= t
1
x
2
= t
2
x
3
= 2t
1
x
4
= 2t
2
, t
1
, t
2
R,
quindi dim(ker f) = 2 e ker f = L((1, 0, 2, 0), (0, 1, 0, 2)). Il sottospazio imma-
gine imf ha dimensione 2 ed ` e generato da 2 colonne linearmente indipenden-
ti della matrice A. Considerando la prima e la seconda colonna di A segue che
imf = L((2, 0, 4, 0), (0, 2, 0, 4)), da cui ` e chiaro che imf coincide con ker f.
2. Prima di iniziare il calcolo degli autovalori si pu` o gi` a affermare che si trover` a lau-
tovalore = 0 di molteplicit` a almeno pari a 2, infatti lautospazio ad esso relativo
` e ker f, gi` a calcolato nel punto 1. Il polinomio caratteristico di A ` e:
P() =
4
.
Pertanto lunico autovalore ` e = 0 di molteplicit` a 4. Di conseguenza lunico
autospazio ` e ker f.
Capitolo 7 317
3. Poich e la dimensione di ker f ` e diversa dalla molteplicit` a dellautovalore = 0,
lendomorsmo f non ` e semplice, ossia non ` e possibile trovare alcuna matrice
diagonale simile ad A. Daltra parte, solo la matrice nulla ammette come unico
autovalore il numero 0 ed ` e diagonalizzabile.
4. Una qualsiasi matrice A

simile ad A ` e del tipo A

= P
1
AP con P matrice
invertibile di ordine 4. Per esempio, ponendo:
P =

1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1

si ha che:
A

= P
1
AP =

2 1 0 0
4 2 0 0
0 0 2 1
0 0 4 2

.
Si osservi che, ovviamente, non esiste una base di R
4
formata da autovettori, ma,
per esempio, si pu` o ottenere una base ( di R
4
, completando la base di ker f. Ad
esempio:
( = ((1, 0, 2, 0), (0, 1, 0, 2), (0, 0, 1, 0), (0, 0, 0, 1)).
La matrice associata ad f rispetto alla base ( ` e:
M
C,C
(f) = (P

)
1
AP

0 0 1 0
0 0 0 1
0 0 0 0
0 0 0 0

,
dove
P

1 0 0 0
0 1 0 0
2 0 1 0
0 2 0 1

` e la matrice del cambiamento di base dalla base canonica B di R


4
alla base (. Si
osservi che la matrice M
C,C
(f) non ` e diagonale ma ` e diagonale a met` a. Infatti la
restrizione di f a ker f (cfr. Def. 6.10) coincide ovviamente con lendomorsmo
nullo di ker f .
Esercizio 7.6 Si consideri lendomorsmo f : R
4
R
4
tale che:
318 Diagonalizzazione
a. lautospazio relativo allautovalore 1 sia:
H = (x
1
, x
2
, x
3
, x
4
) R
4
[ x
1
= x
2
x
3
2x
4
= 0;
b. lautospazio relativo allautovalore 1 sia:
/ = (x
1
, x
2
, x
3
, x
4
) R
4
[ x
1
2x
2
= x
2
+ x
3
= x
4
= 0;
c. il nucleo sia dato da:
ker f = (x
1
, x
2
, x
3
, x
4
) R
4
[ x
2
= x
3
= x
4
= 0.
1. Determinare la matrice A associata ad f, rispetto alla base canonica di R
4
.
2. f ` e semplice? In caso affermativo, scrivere una matrice diagonale D simile ad A
ed una matrice P tale che D = P
1
AP .
Soluzione
`
E pi` u facile procedere con la risoluzione del secondo punto e poi dedurre
da questa la soluzione del primo punto.
2. La dimensione di H ` e 2 e una sua base ` e data dai vettori:
a
1
= (0, 1, 1, 0), a
2
= (0, 2, 0, 1).
La dimensione di / ` e 1 e una sua base ` e data dal vettore a
3
= (2, 1, 1, 0). La
dimensione di ker f ` e 1 e una sua base ` e data dal vettore a
4
= (1, 0, 0, 0). Gli
autospazi sono in somma diretta (cfr. Teor. 7.3), pertanto (a
1
, a
2
, a
3
, a
4
) formano
una base di autovettori di R
4
, quindi f ` e semplice. Di conseguenza la matrice D
richiesta ` e:
D =

1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 0

e una matrice P tale che D = P


1
AP si ottiene ponendo ordinatamente in colonna
le componenti della base di autovettori ricavata, ossia:
P =

0 0 2 1
1 2 1 0
1 0 1 0
0 1 0 0

.
1. Da D = P
1
AP segue:
A = PDP
1
=

0 1 1 2
0 0 1 2
0 1 0 2
0 0 0 1

.
Capitolo 7 319
7.6 Per saperne di pi ` u
Esercizio 7.7 Si dimostri il Lemma 7.1, di seguito riportato.
Siano
1
,
2
, . . . ,
k
autovalori distinti di un endomorsmo f : V V di uno spazio
vettoriale V e siano V

1
, V

2
, . . . , V

k
gli autospazi ad essi corrispondenti. Scelti in modo
arbitrario gli autovettori x
1
, x
2
, . . . , x
k
, uno per ciascun autospazio ad esso relativo (x
i

V

i
, i = 1, 2, . . . , k), allora linsieme 1 = x
1
, x
2
, . . . , x
k
` e libero.
Dimostrazione Si procede per induzione sul numero k di autospazi. Il caso k = 1 ` e
ovvio, in quanto, per denizione, ogni autovettore ` e diverso dal vettore nullo.
Si supponga, per ipotesi induttiva, che i vettori x
1
, x
2
, . . . , x
k1
siano linearmente indi-
pendenti, dove ogni x
i
` e un autovettore di V

i
, i = 1, 2, . . . , k 1. Si tratta di dimostrare
che linsieme x
1
, x
2
, . . . , x
k1
, x
k
` e libero, con x
k
autovettore di V

k
. Per assurdo si
supponga che ci ` o non avvenga, vale a dire che:
x
k
=
1
x
1
+
2
x
2
+ . . . +
k1
x
k1
, (7.6)
con
i
R, i = 1, 2, . . . , k 1.
Applicando lendomorsmo f ad ambo i membri di (7.6) ed utilizzando la linearit` a di f
ed il fatto che ogni vettore x
i
` e un autovettore, si perviene alluguaglianza:

k
x
k
=
1

1
x
1
+
2

2
x
2
+ . . . +
k1

k1
x
k1
. (7.7)
Daltra parte, moltiplicando invece ambo i membri di (7.6) per
k
si ottiene:

k
x
k
=
1

k
x
1
+
2

k
x
2
+ . . . +
k1

k
x
k1
. (7.8)
Uguagliando (7.7) e (7.8) segue:

1
(
1

k
)x
1
+
2
(
2

k
)x
2
+ . . . +
k1
(
k1

k
)x
k1
= o.
I vettori coinvolti nella relazione precedente sono lineramente indipendenti per ipotesi
induttiva, quindi tutti i coefcienti sono nulli, ma, essendo gli autovalori distinti si ottiene:

1
=
2
= . . . =
k1
= 0, risultato che sostituito nella formula 7.6 comporta x
k
= o,
che ` e assurdo, trattandosi di un autovettore.
7.6.1 Diagonalizzazione simultanea
Siano f e g due endomorsmi semplici di uno spazio vettoriale V di dimensione n e B
una base di V. Indicate con A = M
B,B
(f) e B = M
B,B
(g) le matrici associate a f e g
320 Diagonalizzazione
rispetto alla base B, per quanto dimostrato nei paragra precedenti, esistono due matrici
quadrate invertibili P e Q di ordine n tali che:
P
1
AP = D, Q
1
AQ = D

,
dove D e D

sono matrici diagonali. Nasce quindi in modo naturale il problema di


trovare le condizioni che devono essere vericate afnch e esista una matrice invertibile
P che diagonalizzi sia A sia B, ovvero tale che sia P
1
AP sia P
1
BP siano matrici
diagonali. Questo problema ` e molto importante in meccanica quantistica ed in teoria
delle rappresentazioni. Prima di affrontare il problema posto si pu` o introdurre la seguente
denizione.
Denizione 7.5 Due endomorsmi semplici f e g di uno spazio vettoriale reale V si
dicono simultaneamente diagonalizzabili se esiste una base di V i cui vettori sono sia
autovettori di f sia autovettori di g.
Riscrivendo la denizione appena enunciata facendo uso delle matrici associate agli en-
domorsmi f e g rispetto ad una base di V si ha:
Denizione 7.6 Due matrici A e B sono simultaneamente diagonalizzabili se esiste una
matrice P, invertibile, tale che:
A = PDP
1
, B = PD

P
1
, (7.9)
con D e D

matrici diagonali.
Il teorema seguente ha il duplice scopo di stabilire la condizione necessaria e sufciente
afnch e due endomorsmi semplici siano simultaneamente diagonalizzabili e di indicare
il metodo pratico per determinare una matrice P che diagonalizzi simultaneamente le
matrici associate ai due endomorsmi.
Teorema 7.14 Siano f e g due endomorsmi semplici di uno spazio vettoriale reale V
di dimensione n. Essi sono simultaneamente diagonalizzabili se e solo se:
f g = g f,
ossia se e solo se le matrici associate A e B a f rispetto alla stessa base di V commu-
tano:
AB = BA.
Capitolo 7 321
Dimostrazione Se f e g sono simultaneamente diagonalizzabili, allora valgono le
relazioni (7.9) da cui:
AB = PD(P
1
P)D

P
1
= PDD

P
1
= (PD

P
1
)(PDP
1
) = BA.
Viceversa, si supponga che gli endomorsmi f e g siano semplici e che la loro com-
posizione commuti. Indicati con V

1
, V

2
, . . . , V

k
gli autospazi relativi a f , vale la
decomposizione spettrale:
V = V

1
V

2
. . . V

k
. (7.10)
Si osserva, per iniziare, che lendomorsmo g trasforma ogni vettore dellautospazio V

i
relativo a f in un vettore dello stesso autospazio, ovvero che g(V

i
) V

i
. Infatti, per
ogni vettore x V

i
, risulta che:
f(g(x)) = (f g)(x) = (g f)(x) = g(f(x)) = g(
i
x) =
i
g(x),
quindi g(x) V

i
, i = 1, 2, . . . , k. Sia ora y un autovettore di g, ossia g(y) = y, con
R. Come immediata conseguenza della decomposizione spettrale (7.10) di V negli
autospazi di f, il vettore y si pu` o scrivere, in modo unico, come:
y = w
1
+w
2
+ . . . +w
k
, w
i
V

i
, i = 1, 2, . . . , k.
Poich e y ` e un autovettore dellendomorsmo g, almeno uno tra i vettori w
i
` e diverso dal
vettore nullo. Per quanto osservato e per la linearit` a di g, si ha:
g(y) = g(w
1
) + g(w
2
) + . . . + g(w
k
) = y = w
1
+ w
2
+ . . . + w
k
,
dove g(w
i
) V

i
, i = 1, 2, . . . , k. Inoltre, dallunicit` a della decomposizione di un vettore
nella somma dei vettori degli autospazi, si ottiene:
g(w
1
) = w
1
, g(w
2
) = w
2
, . . . , g(w
k
) = w
k
.
Questo prova che per ogni autovettore y di g ` e possibile determinare almeno un w
i
che
sia simultaneamente autovettore di f e di g.
Applicando il metodo precedente ad una base (y
1
, y
2
, . . . , y
n
) di autovettori di g, che
esiste sicuramente in quanto g ` e semplice, si ottengono almeno n vettori che sono si-
multaneamente autovettori di f e g. Poich e i vettori y
i
sono combinazione lineare de-
gli autovettori comuni ad f e a g, lo spazio vettoriale da essi generato coincide con
L(y
1
, y
2
, . . . , y
n
) = V e perci ` o da essi si pu` o estrarre una base comune di autovettori ad
f e a g.
322 Diagonalizzazione
Osservazione 7.13 Si osservi quindi che per determinare una base comune di autovettori
per due endomorsmi semplici f e g che commutano ` e sufciente estrarre una base
dallinsieme unione delle basi dei sottospazi vettoriali V

i
V

j
ottenuti come intersezione
di ogni autospazio V

i
di f con ogni autospazio V

j
di g. Si noti che per alcuni indici
i e j tale intersezione pu` o essere ridotta allinsieme o. Inoltre, appare evidente dalla
dimostrazione del Teorema 7.14 che la base comune di autovettori richiesta non ` e unica.
Esercizio 7.8 Dati due endomorsmi f e g su R
3
le cui matrici, rispetto alla base cano-
nica di R
3
, sono rispettivamente:
A =

2 0 0
0 2 0
1 0 3

, B =

1 0 0
2 3 0
2 0 3

,
si verichi che f e g sono simultaneamente diagonalizzabili e si trovi una base comune
di autovettori.
Soluzione Innanzitutto si prova che f e g commutano, infatti:
AB =

2 0 0
4 6 0
7 0 9

= BA.
Lendomorsmo f ha autovalori con relative molteplicit` a:

1
= 2, m

1
= 2;
2
= 3, m

2
= 1
ed autospazi:
V

1
= L((1, 0, 1), (0, 1, 0)), V

2
= L((0, 0, 1));
mentre lendomorsmo g ha autovalori con relative molteplicit` a:

1
= 1, m

1
= 1;

2
= 3, m

2
= 2
ed autospazi:
V

1
= L((1, 1, 1)), V

2
= L((0, 1, 0), (0, 0, 1)).
Quindi i due endomorsmi sono semplici, poich e commutano sono simultaneamente
diagonalizzabili. Si vede subito che gli autovettori di g:
y
1
= (1, 1, 1), y
2
= (0, 1, 0), y
3
= (0, 0, 1)
Capitolo 7 323
sono anche autovettori di f e, quindi, costituiscono una base di autovettori comune ad f
e a g. Si presti attenzione al fatto che rispetto alla base comune (y
1
, y
2
, y
3
) la matrice
D =

2 0 0
0 2 0
0 0 3

` e associata a f , mentre la matrice:


D

1 0 0
0 3 0
0 0 3

` e associata a g.
Esercizio 7.9 Date le matrici:
A =

16 16 4 16
0 0 0 0
48 48 12 48
0 0 0 0

, B =

9 12 3 12
3 3 1 3
12 12 4 12
9 12 3 12

,
provare che sono simultaneamente diagonalizzabili. Determinare, quindi, una matrice che
le diagonalizzi entrambe.
Soluzione Gli autovalori con relative molteplicit` a e gli autospazi di A sono:

1
= 0, m

1
= 3;
2
= 4, m

2
= 1,
V

1
= L(v
1
, v
2
, v
3
), V

2
= L(v
4
),
dove
v
1
= (1, 0, 0, 1), v
2
= (1, 0, 4, 0), v
3
= (1, 1, 0, 0), v
4
= (1, 0, 3, 0),
mentre gli autovalori con relative molteplicit` a e gli autospazi di B sono:

1
= 0, m

1
= 2;

2
= 1, m

2
= 1;

3
= 3, m

3
= 1,
V

1
= L(v

1
, v

2
), V

2
= L(v

3
), V

3
= L(v

4
),
con
v

1
= (0, 1, 0, 1), v

2
= (1, 0, 3, 0), v

3
= (0, 1, 4, 0), v

4
= (1, 0, 0, 1).
324 Diagonalizzazione
Le due matrici A e B sono simultaneamente diagonalizzabili in quanto A e B commu-
tano, infatti:
AB = O = BA.
Il Teorema 7.14 assicura che, ad esempio, a partire dalla base B

= (v

1
, v

2
, v

3
, v

4
)
di R
4
` e possibile determinare una base comune di autovettori che si determinano se-
guendo il metodo esposto nella dimostrazione. Si decompongono i vettori della base
B = (v
1
, v
2
, v
3
, v
4
) di R
4
attraverso i vettori della base B

, con lavvertenza di raggrup-


pare e sommare gli autovettori appartenenti allo stesso autospazio. Si hanno le seguenti
espressioni:

v
1
= v

4
v
2
= v

1
+v

3
+v

4
v
3
= v

1
v

4
v
4
= v

2
,
dalle quali risulta che (casualmente) i vettori della base B

sono autovettori comuni alle


due matrici. Scambiando il ruolo delle basi B e B

, si avrebbe:

1
= v
1
+v
3
v

2
= v
4
v

3
= v
2
+v
3
v

4
= v
1
,
dove si osserva che una base comune ` e formata dai vettori v

1
, v

2
, v

3
, v

4
, ossia, nuova-
mente, la base B

.
Come gi` a precisato nellOsservazione 7.13 un altro modo per determinare una base co-
mune di autovettori delle due matrici A e B diagonalizzabili e che commutano, consiste
nellestrarre una base dallinsieme unione delle basi dei sottospazi vettoriali: V

i
V

j
,
i = 1, 2, j = 1, 2, 3, dove V

i
e V

j
rappresentano gli autospazi delle matrici A e B
rispettivamente.
Nel caso in esame, ommettendo i calcoli per brevit` a, si ha:
V

1
V

1
= L((0, 1, 0, 1)),
V

1
V

2
= L((0, 1, 4, 0)),
V

1
V

3
= L((1, 0, 0, 1)),
V

2
V

1
= L((1, 0, 3, 0)),
V

2
V

2
= o,
V

2
V

3
= o,
e si ottengono nuovamente i vettori della base B

.
Capitolo 7 325
7.6.2 Il Teorema di CayleyHamilton
Il teorema che segue, di svariate applicazioni, ` e sorprendente, perch e afferma, in pratica,
che sostituendo una matrice quadrata alla variabile del suo polinomio caratteristico si
ottiene la matrice nulla; infatti vale il:
Teorema 7.15 Teorema di CayleyHamilton Ogni matrice quadrata A R
n,n
` e uno
zero del suo polinomio caratteristico, ovvero se
P() = (1)
n

n
+ a
n1

n1
+ . . . + a
1
+ a
0
` e il polinomio caratteristico di A, allora:
P(A) = (1)
n
A
n
+ a
n1
A
n1
+ . . . + a
1
A + a
0
I = O.
Dimostrazione Sia P() il polinomio caratteristico della matrice A R
n,n
:
P() = det(A I) = (1)
n

n
+ a
n1

n1
+ . . . + a
1
+ a
0
, (7.11)
con a
n1
= (1)
n1
tr(A) e a
0
= det(A). Sia B() laggiunta della matrice A I ,
(cfr. Def. 2.14). Gli elementi di B(), essendo i cofattori della matrice (A I), sono
polinomi in di grado non superiore a n 1. Quindi si pu` o scrivere:
B() = B
n1

n1
+ . . . + B
1
+ B
0
, (7.12)
dove le matrici B
i
sono di ordine n i cui elementi non dipendono da . Ricordando il
calcolo esplicito della matrice inversa (cfr. Teor. 2.19), segue che:
(A I)B() = det(A I)I.
Sostituendo le espressioni di (7.11) e (7.12) ed uguagliando i coefcienti dei termini di
ugual grado si ha:
B
n1
= (1)
n
I
AB
n1
B
n2
= a
n1
I
AB
n2
B
n3
= a
n2
I
. . . . . .
AB
1
B
0
= a
1
I
AB
0
= a
0
I.
Moltiplicando le precedenti equazioni, rispettivamente, per A
n
, A
n1
, . . . , A, I e som-
mando segue la tesi, ossia:
O = (1)
n
A
n
+ a
n1
A
n1
+ . . . + a
1
A + a
0
I = P(A). (7.13)
326 Diagonalizzazione
Esempio 7.9 Per capire meglio la dimostrazione precedente, si riporta lespressione di
B() nel caso della matrice:
A =

2 0 0
1 3 0
1 1 1

.
Il polinomio caratteristico di A ` e :
P() =
3
+ 6
2
11 + 6.
Poich e:
(A I) =

2 0 0
1 3 0
1 1 1

allora:
B() =

2
4 + 3 0 0
1
2
3 + 2 0
+ 4 2
2
5 + 6

da cui:
B() =

1 0 0
0 1 0
0 0 1

2
+

4 0 0
1 3 0
1 1 5

3 0 0
1 2 0
4 2 6

.
Esempio 7.10 Sia A una matrice quadrata di ordine 2, dal Teorema di CayleyHamilton
7.15 segue:
A
2
= tr(A)A det(A)I.
Si possono cos` ottenere le potenze di A in funzione delle potenze precedenti, per esem-
pio:
A
3
= tr(A)A
2
det(A)A; A
4
= tr(A)A
3
det(A)A
2
e cos` via.
Esempio 7.11 Se A ` e invertibile, poich e da (7.13), si ha
A

(1)
n
A
n1
+ a
n1
A
n2
+ . . . + a
1
I

= det(A)I,
Capitolo 7 327
moltiplicando entrambi i membri per A
1
, si ottiene:
A
1
= (det(A))
1
(a
0
A
n1
+ a
1
A
n2
+ . . . + a
1
I).
Per esempio, se A ` e una matrice quadrata di ordine 2, la formula precedente si riduce a:
A
1
= (det(A))
1
(A + tr(A)I).
Esercizio 7.10 Determinare linversa della matrice
A =

1 0 1
0 2 1
1 1 0

,
usando il Teorema di CayleyHamilton.
Soluzione Il polinomio caratteristico di A ` e:
P() =
3
+ 3
2
2 1.
Usando il Teorema 7.15 si ricava:
A
3
+ 3A
2
2A I = O,
con O matrice nulla di R
3,3
, quindi:
A
1
= A
2
+ 3A 2I,
da cui svolgendo i calcoli segue:
A
1
=

1 1 2
1 1 1
2 1 2

.
7.6.3 Teorema spettrale e endomorsmi autoaggiunti.
Caso complesso
Dato un endomorsmo di uno spazio vettoriale complesso V , si introducono in modo
analogo alla Denizione 7.1 le nozioni di autovalori e di autovettori di f. Infatti, un
numero complesso C ` e un autovalore di f se esiste un vettore non nullo x di V tale
che f(x) = x. Il vettore x ` e detto autovettore di f relativo allautovalore . Come nel
caso reale si denisce lautospazio V

di f relativo allautovalore f come linsieme di


tutti i vettori x tali che f(x) = x e continuano a valere tutte le propriet` a dimostrate nei
Paragra 7.1 e 7.2. Pertanto per il calcolo degli autovalori si procede come nel caso reale,
precisamente:
328 Diagonalizzazione
1. si determina la matrice associata A = M
B,B
(f) a f rispetto a una qualsiasi base B
di V ; ` e chiaro che A ` e una matrice ad elementi complessi, quindi appartenente a
C
n,n
;
2. si calcola il polinomio caratteristico P() = det(A I), che risulta essere un
polinomio in a coefcienti in C ;
3. si trovano le radici del polinomio caratteristico.
Mentre nel caso reale solo le radici reali del polinomio caratteristico sono autovalori, nel
caso complesso, per il Teorema Fondamentale dellAlgebra, ogni radice del polinomio
caratteristico ` e un autovalore.
Per il calcolo degli autospazi si procede nello stesso modo del caso reale:
1. per ogni autovalore si calcola la matrice A I;
2. si risolve il sistema lineare omogeneo (A I)X = O.
Come nel caso reale si ha che la dimensione di un autospazio V

, come spazio vettoriale


complesso, ` e data da dim(V ) rank(A I).
Si possono quindi introdurre le nozioni di endomorsmo semplice e di matrice diagona-
lizzabile (cfr. Def. 7.3 e 7.4) e continua a valere il Teorema 7.6. Per quanto riguarda il
Teorema 7.7, ossia per i criteri di diagonalizzazione, si ha solo una variazione nel punto
4.. Pi ` u precisamente si ha il seguente:
Teorema 7.16 Sia f : V V un endomorsmo di uno spazio vettoriale complesso V.
Le seguenti affermazioni sono equivalenti:
1. f ` e semplice.
2. V = V

1
V

2
. . . V

k
, dove
1
,
2
, . . . ,
k
sono tutti gli autovalori distinti di
f e V

1
, V

2
, . . . , V

k
i relativi autospazi.
3. dim(V ) = dim(V

1
) + dim(V

2
) + . . . + dim(V

k
), dove
1
,
2
, . . . ,
k
sono tutti
gli autovalori distinti di f e V

1
, V

2
, . . . , V

k
i relativi autospazi.
4. Per ogni autovalore
i
di f si ha che la dimensione dellautospazio V

i
coincide
con la molteplicit` a m

i
di
i
, ossia dim(V

i
) = m

i
per ogni i = 1, 2, . . . , k.
Capitolo 7 329
Di conseguenza, anche per un endomorsmo di uno spazio vettoriale complesso vale il
Corollario 7.1.
Nel Paragrafo 7.4 ` e stato dimostrato che ogni matrice simmetrica ` e diagonalizzabile me-
diante una matrice ortogonale o equivalentemente che se f ` e un endomorsmo autoag-
giunto di uno spazio vettoriale euclideo (V, ), esiste una base ortonormale di V formata
da autovettori. Gli autovalori e gli autovettori di un endomorsmo autoaggiunto di uno
spazio vettoriale hermitiano (V, ) (o equivalentemente di una matrice hermitiana) go-
dono delle stesse propriet` a viste nel caso reale. La dimostrazione per alcune di queste
propriet` a ` e addirittura pi ` u semplice.
Le varie propriet` a degli endomorsmi autoaggiunti di uno spazio vettoriale hermitiano
sono riassunte nel seguente:
Teorema 7.17 1. Gli autovalori di un endomorsmo autoaggiunto f di uno spazio
vettoriale hermitiano (V, ) sono tutti reali.
2. Autovettori di un endomorsmo autoaggiunto f di uno spazio vettoriale hermitiano
(V, ) relativi ad autovalori diversi sono ortogonali.
3. Sia f un endomorsmo autoaggiunto di uno spazio vettoriale hermitiano (V, )
di dimensione n, allora f ` e semplice. Inoltre, esiste una base ortonormale di V
formata da autovettori di f .
4. Ogni matrice hermitiana ` e diagonalizzabile mediante una matrice unitaria.
Dimostrazione Per dimostrare 1. si pu` o osservare che se ` e un autovalore dellendo-
morsmo autoaggiunto f e x ` e un autovettore realtivo a , si ha:
f(x) x = x x. (7.14)
Poich e f ` e autoaggiunto risulta anche:
f(x) x = x f(x) = x (x) = x x, (7.15)
dove indica il complesso coniugato di . Dal fatto che x ` e un autovettore, segue x x =
0 e pertanto, confrontando (7.14) con (7.15) si ottiene = .
Le dimostrazioni delle propriet` a 2., 3. e 4. sono analoghe al caso reale.
Osservazione 7.14 1. Come conseguenza si ottiene la dimostrazione del Lemma 7.2,
in quanto dalla propriet` a 1. del teorema appena enunciato si ha che ogni radice del
polinomio caratteristico di una matrice hermitiana (e quindi in particolare di una
matrice simmetrica) ` e reale.
330 Diagonalizzazione
2. Ogni matrice hermitiana ` e pertanto simile ad una matrice diagonale reale tramite
una matrice unitaria. In altri termini, per ogni matrice hermitiana A esistono una
matrice unitaria P ed una diagonale reale D per cui
D = P
1
AP =
t
PAP.
A differenza di ci` o che succede nel caso reale per ci ` o che riguarda le matrici simmetriche
(cfr. Teor. 7.12), si prover` a che se una matrice A C
n,n
` e diagonalizzabile in campo
complesso mediante una matrice unitaria essa non ` e necessariamente hermitiana, ma ve-
rica solo la relazione
t
AA = A
t
A (cfr. Teor. 7.18). Ad esempio quindi si avr` a che
le matrici ortogonali reali A (quindi tali che
t
A = A
1
) sono diagonalizzabili in campo
complesso mediante una matrice unitaria (cfr. Es. 7.11).
In modo naturale ` e necessario quindi introdurre la seguente denizione.
Denizione 7.7 Una matrice quadrata complessa A C
n,n
di ordine n si dice normale
se
t
AA = A
t
A.
Esercizio 7.11 Vericare che le matrici unitarie, le matrici reali ortogonali, le matrici
hermitiane e le matrici simmetriche (reali) sono esempi di matrici normali.
Soluzione Una matrice unitaria A ` e normale, in quanto da
t
A = A
1
, segue:
A
t
A =
t
AA = I.
Per le matrici ortogonali (reali) si ha che
t
A =
t
A = A
1
e pertanto:
A
t
A =
t
AA = I.
Per le matrici hermitiane si ha
t
A = A e quindi:
A
t
A =
t
AA = A
2
.
Inne, una matrice simmetrica (reale) A ` e normale in quanto
t
A =
t
A = A e pertanto
A
t
A =
t
AA = A
2
.
Il teorema spettrale, valido nel caso reale per le matrici simmetriche, in campo comples-
so non vale solo per le matrici hermitiane ma in generale per le matrici normali. Pi` u
precisamente si ha il seguente:
Capitolo 7 331
Teorema 7.18 Teorema spettrale in campo complesso 1. Sia A una matrice nor-
male, allora esistono una matrice unitaria P ed una matrice diagonale D tali che
P
1
AP = D.
2. Viceversa, se A ` e una matrice diagonalizzabile mediante una matrice unitaria,
allora A ` e normale.
Dimostrazione La dimostrazione di 1. ` e pi` u complicata del caso reale, quindi non
viene riportata e si rimanda ad esempio a [13].
La dimostrazione di 2. ` e simile a quella nel caso reale per le matrici simmetriche. Infatti
dal fatto che esista una matrice P di ordine n unitaria tale che P
1
AP = D, si deduce
t
A =
t
(P
1
DP) =
t
P DP.
in quanto ovviamente
t
D = D e
t
P = P
1
. Quindi:
t
AA = (
t
P DP)(P
1
DP) =
t
P DDP = P
1
DDP,
A
t
A = (P
1
DP)(
t
P DP) = P
1
DDP,
ma DD = DD.
Osservazione 7.15 1. Si osservi che gli autovalori di una matrice normale sono in
generale numeri complessi e quindi la matrice D non ` e necessariamente reale.
2. Tutte le matrici complesse normali possono quindi essere diagonalizzate in C con
una base ortonormale di autovettori. Tuttavia, questo non si verica nel caso reale.
Infatti, una matrice normale reale pu` o avere autovalori immaginari, e quindi non
essere diagonalizzabile in campo reale (pur rimanendo diagonalizzabile in campo
complesso). Ne ` e un esempio la matrice di una rotazione del piano vettoriale V
2
di
angolo diverso da 0 e (cfr. Es. ??).
7.6.4 Autovalori delle isometrie, similitudini,
trasformazioni unitarie
Gli autovalori delle isometrie e similitudini di uno spazio vettoriale euclideo (V, ), con-
siderate nel Paragrafo 6.8.7, non possono assumere valori qualsiasi. Infatti si pu` o provare
il seguente:
Teorema 7.19 Sia (V, ) uno spazio vettoriale euclideo di dimensione n.
1. Gli autovalori di unisometria f di (V, ) sono 1 e 1.
332 Diagonalizzazione
2. Se f ` e una similitudine di rapporto a di (V, ), allora gli autovalori di f sono a e
a.
Dimostrazione 1. Sia un autovalore di unisometria f : V V , quindi f(x) = x.
Pertanto:
|f(x)|
2
= |x|
2
=
2
|x|
2
= |x|
2
da cui la tesi. La dimostrazione di 2. ` e analoga ed ` e lasciata al Lettore per esercizio.
Osservazione 7.16 Si osservi che se unisomorsmo di uno spazio vettoriale euclideo
(V, ) ha autovalori pari a 1 e 1 non ` e detto che sia unisometria di (V, ). Per esempio,
si consideri lisomorsmo di R
2
denito dalla matrice:
A =

1 1
0 1

rispetto alla base canonica B d R


2
. Se si considera su R
2
la struttura di spazio eucli-
deo determinata dal prodotto scalare standard, si ha per il Teorema 6.33 che f non ` e un
isometria di R
2
(perch e?).
Nel caso di una trasformazione unitaria di uno spazio vettoriale hermitiano si hanno quindi
le seguenti propriet` a la cui dimostrazione ` e rimandata ad esempio a [13].
Teorema 7.20 Sia f una trasformazione unitaria di uno spazio vettoriale hermitiano
(V, ).
1. Se J ` e un sottospazio vettoriale invariante per f , anche il complemento ortogo-
nale J

` e invariante per f .
2. Se V ha dimensione nita, allora V ammette una base ortonormale formata da
autovettori di f .
Si osservi che il fatto che esista una base ortonormale di V formata da autovettori di
f segue anche dalla propriet` a gi` a enunciata che le matrici unitarie sono diagonalizzabili
mediante matrici unitarie (cfr. Teor. 7.18.)
Capitolo 8
Forme Bilineari e Forme Quadratiche
Questo capitolo non ` e da considerarsi in forma nale
In questo capitolo vengono trattate le forme bilineari, particolari funzioni che estendono
il concetto di prodotto scalare denito nel Capitolo 5. Tra le innumerevoli applicazioni
si ha lo studio approfondito delle coniche nel piano e delle quadriche nello spazio che
saranno presentate nei Capitoli 10 e 12, rispettivamente.
In tutto il capitolo, salvo avviso contrario, verr` a considerato il caso delle forme bilineari
reali, cio` e delle forme bilineari denite su uno spazio vettoriale reale.
8.1 Forme bilineari simmetriche
Si inizia il paragrafo con la denizione di forma bilineare su uno spazio vettoriale reale.
Denizione 8.1 Una forma bilineare su uno spazio vettoriale reale V ` e una funzione:
: V V R
per cui valgono le seguenti propriet` a:
1. (x +x

, y) = (x, y) + (x

, y);
2. (x, y +y

) = (x, y) + (x, y

);
3. (x, y) = (x, y) = (x, y),
per ogni x, x

, y, y

V e per ogni R.
333
334 Forme Bilineari e Forme Quadratiche
Osservazione 8.1 Si osservi, quindi, che ssato x V, la funzione:

x
: V R, y
x
(y) = (x, y),
` e una forma lineare su V. La stessa propriet` a vale se si ssa il vettore y e si considera la
funzione:

y
: V R, x
y
(x) = (x, y).
Di seguito si riporta un elenco di funzioni di cui si lascia al Lettore, per esercizio, la
verica che si tratti o meno di forme bilineari.
Esempio 8.1 La funzione : R
2
R
2
R denita da:
(x, y) = x
1
y
1
2x
2
y
2
,
con x = (x
1
, x
2
) e y = (y
1
, y
2
) elementi di R
2
, ` e una forma bilineare su R
2
. Infatti, si
ha:
((x
1
, x
2
) + (x

1
, x

2
), (y
1
, y
2
)) = ((x
1
+ x

1
, x
2
+ x

2
), (y
1
, y
2
))
= (x
1
+ x

1
)y
1
2(x
2
+ x

2
)y
2
= ((x
1
, x
2
), (y
1
, y
2
)) + ((x

1
, x

2
), (y
1
, y
2
)),
per ogni (x
1
, x
2
), (x

1
, x

2
), (y
1
, y
2
) R
2
. Analogamente si pu` o dimostrare che verica
le propriet` a 2. e 3. della Denizione 8.1. Inoltre, si ha (x, y) (y, x) = 0, per ogni
x, y R
2
.
Esempio 8.2 Si verichi per esercizio che la funzione : R
2
R
2
R denita da:
(x, y) = x
1
y
1
+ 2x
2
y
2
+ 4,
con x = (x
1
, x
2
) e y = (y
1
, y
2
) elementi di R
2
, non ` e una forma bilineare su R
2
.
Esempio 8.3 Si verichi per esercizio che la funzione : R
2
R
2
R denita da:
(x, y) = x
2
1
y
1
+ 2x
2
y
2
,
con x = (x
1
, x
2
) e y = (y
1
, y
2
) elementi di R
2
, non ` e una forma bilineare su R
2
.
Esempio 8.4 La funzione : R
2
R
2
R denita da:
(x, y) = x
1
y
1
+ 2x
1
y
2
+ 3x
2
y
1
+ 4x
2
y
2
,
con x = (x
1
, x
2
) e y = (y
1
, y
2
) elementi di R
2
, ` e una forma bilineare su R
2
. Inoltre, si
ha (x, y) (y, x) = x
1
y
2
+ 2x
2
y
1
. Pertanto, considerando per esempio x = (1, 1)
e y = (1, 2), in contrasto con lEsempio 8.1, segue che (x, y) (y, x) = 0.
Capitolo 8 335
In generale, data una forma bilineare su uno spazio vettoriale reale V non si ha ne-
cessariamente che (x, y) = (y, x), per ogni x, y V. Si pu` o quindi introdurre la
seguente denizione.
Denizione 8.2 Una forma bilineare su uno spazio vettoriale reale V si dice simme-
trica se:
(x, y) = (y, x),
per ogni x, y V.
Linsieme delle forme bilineari simmetriche su V sar` a indicato con B
s
(V, R). Si dimo-
strer` a nel Paragrafo 8.8.1 che su questo insieme si pu` o denire in modo naturale una
struttura di spazio vettoriale su R.
Esempio 8.5 La funzione : R
2
R
2
R considerata nellEsempio 8.1 ` e una forma
bilineare simmetrica, mentre la funzione dellEsempio 8.4 non ` e una forma bilineare
simmetrica.
Esempio 8.6 Ogni prodotto scalare su uno spazio vettoriale reale V ` e un esempio di
forma bilineare simmetrica su V (cfr. Def. 5.1).
Poich e ci si propone di studiare opportune generalizzazioni del concetto di prodotto sca-
lare, si prenderanno in considerazione, in quasi tutto il capitolo, solo forme bilineari sim-
metriche. Nel Paragrafo 8.8.2 invece si studieranno particolari forme, non simmetriche,
che permettono di introdurre, in questo contesto, la nozione gi` a nota di determinante di
una matrice.
Osservazione 8.2 Si pu` o denire in modo analogo al caso reale una forma bilineare
complessa su uno spazio vettoriale complesso V come la funzione:
: V V C
per cui valgono le seguenti propriet` a:
1. (x +x

, y) = (x, y) + (x

, y);
2. (x, y +y

) = (x, y) + (x, y

);
3. (x, y) = (x, y) = (x, y),
per ogni x, x

, y, y

V e per ogni C. Si osservi che un prodotto hermitiano su uno


spazio vettoriale complesso V non ` e per` o una forma bilineare complessa su V in quanto
non ` e lineare nel secondo argomento (cfr. (5.9)).
336 Forme Bilineari e Forme Quadratiche
8.1.1 Matrice associata ad una forma bilineare simmetrica
Sia V uno spazio vettoriale reale di dimensione n e sia una forma bilineare simmetrica
su V. Dati una base B = (v
1
, v
2
, . . . , v
n
) di V ed una coppia di vettori x, y V, usando
la bilinearit` a e la simmetria di , ` e possibile esprimere (x, y) in termini di (v
i
, v
j
),
i, j = 1, 2, . . . , n, e delle componenti di x, y rispetto alla base B. Infatti, per ogni coppia
di vettori x, y V, dati da:
x = x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
, y = y
1
v
1
+ y
2
v
2
+ . . . + y
n
v
n
,
lespressione di (x, y) si ottiene applicando le propriet` a di bilinearit` a di , e precisa-
mente si ha:
(x, y) = (x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
, y
1
v
1
+ y
2
v
2
+ . . . + y
n
v
n
)
= x
1
y
1
(v
1
, v
1
) + x
1
y
2
(v
1
, v
2
) + . . . + x
1
y
n
(v
1
, v
n
)
+x
2
y
1
(v
2
, v
1
) + x
2
y
2
(v
2
, v
2
) + . . . + x
2
y
n
(v
2
, v
n
)
+ . . .
+x
n
y
1
(v
n
, v
1
) + x
n
y
2
(v
n
, v
2
) + . . . + x
n
y
n
(v
n
, v
n
).
(8.1)
Posto a
ij
= (v
i
, v
j
), i, j = 1, 2, . . . , n, e tenendo conto che:
(v
i
, v
j
) = (v
j
, v
i
),
per ogni i, j = 1, 2, . . . , n, alla forma bilineare simmetrica si associa pertanto la
matrice simmetrica di ordine n:
A =

a
11
a
12
. . . a
1n
a
12
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
1n
a
2n
. . . a
nn

che prende il nome di matrice associata alla forma bilineare simmetrica rispetto alla
base B di V e la si indica con:
A = M
B,B
().
La conoscenza della matrice A permette quindi di calcolare (x, y), qualunque siano i
vettori x e y in V.
Nel Paragrafo 8.8 si dimostrer` a in modo rigoroso che, ssata una base B dello spazio vet-
toriale V, lapplicazione che ad ogni forma bilineare simmetrica associa la sua matrice
Capitolo 8 337
associata A ` e un isomorsmo tra B
s
(V, R) e il sottospazio vettoriale di R
n,n
delle matrici
simmetriche o(R
n,n
).
Da (8.1) segue in modo evidente che una forma bilineare simmetrica si pu` o scrivere in
forma o espressione polinomiale, rispetto alla base B, come:
(x, y) =
n

i,j=1
a
ij
x
i
y
j
, (8.2)
con a
ij
= a
ji
, ossia come polinomio omogeneo di secondo grado nelle componenti di
x e y rispetto alla base B, dove per polinomio omogeneo si intende un polinomio con
termini tutti dello stesso grado.
Esempio 8.7 La matrice associata alla forma bilineare dellEsempio 8.1, rispetto alla
base canonica di R
2
, ` e:
A =

1 0
0 2

che, come previsto, ` e simmetrica.


Esempio 8.8 La matrice associata al prodotto scalare standard (5.1) su R
n
, rispetto alla
base canonica B di R
n
, ` e la matrice unit` a I. Mentre la matrice associata al prodotto
scalare dellEsempio 5.3, rispetto alla base canonica di R
3
, ` e la matrice diagonale:
A =

3 0 0
0 4 0
0 0 5

.
Sia nellEsempio 8.7 sia nellEsempio 8.8 la matrice associata alla forma bilineare simme-
trica ` e diagonale, si vedr` a che se la matrice associata ad una forma bilineare simmetrica
` e diagonale sar` a pi` u facile classicarla e riconoscere se si tratti o meno di un prodotto
scalare.
Teorema 8.1 Siano V uno spazio vettoriale reale di dimensione n, B = (v
1
, v
2
, . . . , v
n
)
una base di V, B
s
(V, R) una forma bilineare simmetrica avente come matrice
associata rispetto a B la matrice simmetrica A = (a
ij
), i, j = 1, 2, . . . , n, e:
X =

x
1
x
2
.
.
.
x
n

, Y =

y
1
y
2
.
.
.
y
n

338 Forme Bilineari e Forme Quadratiche


le matrici colonna delle componenti dei vettori x, y V rispetto alla base B di V. Si
ha:
(x, y) =
t
XAY =
t
Y AX. (8.3)
Dimostrazione Si tratta di esprimere in notazione matriciale la formula (8.2), infatti:
t
XAY =

x
1
x
2
. . . x
n

a
11
a
12
. . . a
1n
a
12
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
1n
a
2n
. . . a
nn

y
1
y
2
.
.
.
y
n

x
1
x
2
. . . x
n

a
11
y
1
+ a
12
y
2
+ . . . + a
1n
y
n
a
12
y
1
+ a
22
y
2
+ . . . + a
2n
y
n
. . . . . . . . . . . . . . . . . . . . . . . . . .
a
1n
y
1
+ a
2n
y
2
+ . . . + a
nn
y
n

=
n

i,j=1
a
ij
x
i
y
j
= (x, y),
con a
ij
= a
ji
, per ogni i, j = 1, 2, . . . , n. Inoltre, poich e (x, y) ` e un numero reale,
risulta:
(x, y) =
t
((x, y)) =
t
XAY =
t
(
t
XAY ) =
t
Y
t
AX,
e dalla simmetria di A (
t
A = A) segue la tesi .
Lespressione (8.3) ` e detta espressione matriciale della forma bilineare simmetrica
rispetto alla base B.
Esempio 8.9 La forma bilineare simmetrica B
s
(R
3
, R) con matrice associata rispet-
to alla base canonica di R
3
:
A =

1 0 2
0 1 5
2 5 0

ha come espressione polinomiale rispetto alla base canonica di R


3
:
(x, y) = x
1
y
1
+ 2(x
1
y
3
+ x
3
y
1
) x
2
y
2
+ 5(x
2
y
3
+ x
3
y
2
).
Se x = (1, 2, 3) e y = (0, 3, 4), allora:
(x, y) =

1 2 3

0
3
4

= 87.
Capitolo 8 339
Ci si propone ora di determinare il legame che intercorre tra le matrici associate alla stessa
forma bilineare simmetrica su uno spazio vettoriale V, cambiando base in V.
Teorema 8.2 Siano V uno spazio vettoriale reale, B e B

due basi di V, A = M
B,B
()
e A

= M
B

,B

() le matrici associate a rispetto a B e a B

rispettivamente. Se P
indica la matrice del cambiamento di base da B a B

, risulta:
A

=
t
PAP.
Dimostrazione Siano X = PX

, Y = PY

le equazioni del cambiamento di base da


B a B

, (cfr. Par. 4.3.4) si ha:


(x, y) =
t
XAY =
t
(PX

)A(PY

) =
t
X
t
PAP Y

.
Daltra parte si pu` o scrivere (x, y) =
t
X

e, dal confronto delle due espressioni, si


ottiene:
t
X
t
PAPY

=
t
X

,
oppure:
t
X

(
t
PAP A

)Y

= 0,
per ogni X

, quindi (
t
PAP A

)Y

= 0, per ogni Y

, da cui A

=
t
PAP .
Osservazione 8.3 La matrice A

` e ancora simmetrica, infatti:


t
A

=
t
(
t
PAP) =
t
PAP = A

.
In generale, per` o A

non ` e simile alla matrice A, lo ` e se P ` e una matrice ortogona-


le. Pertanto, in generale i determinanti delle matrici A e A

sono diversi, infatti vale la


relazione:
det(A

) = (det(A))(det(P))
2
.
Di conseguenza, non ` e detto che A e A

abbiano gli stessi autovalori come si vedr` a


nellEsempio 8.10. Si dimostrer` a per` o che A e A

hanno lo stesso numero di autovalori


positivi e lo stesso numero di autovalori negativi (cfr. Teor. 8.17).
Esempio 8.10 Data la forma bilineare simmetrica su R
2
:
(x, y) = 3x
1
y
1
x
1
y
2
x
2
y
1
+ 2x
2
y
2
,
e assegnata la base B

= ((1, 2), (2, 1)) di R


2
, la matrice P del cambiamento di base
dalla base canonica B di R
2
alla base B

` e:
P =

1 2
2 1

.
340 Forme Bilineari e Forme Quadratiche
Quindi le matrici associate a rispettivamente rispetto a B e B

sono:
A =

3 1
1 2

, A

1 2
2 1

3 1
1 2

1 2
2 1

7 1
1 18

.
Inoltre, se si calcolano i polinomi caratteristici di A e A

, si ottiene:
det(A I) = (3 )(2 ) 1 =
2
5 + 5,
det(A

I) = (7 )(18 ) 1 =
2
25 + 125,
da cui segue che A e A

non hanno gli stessi autovalori ma entrambe le matrici hanno due


autovalori positivi.
Esempio 8.11 Si consideri il prodotto scalare standard sullo spazio vettoriale V
3
dei
vettori ordinari, denito nel Paragrafo 3.7.1:
(x, y) = |x||y| cos xy, x, y V
3
.
La matrice associata a questo prodotto scalare rispetto ad una base B = (i, j, k) ortonor-
male ` e:
A = M
B,B
() = I =

1 0 0
0 1 0
0 0 1

,
infatti:
(x, y) = x
1
y
1
+ x
2
y
2
+ x
3
y
3
, (8.4)
se x = x
1
i + x
2
j + x
3
k e y = y
1
i + y
2
j + y
3
k. Sia B

= (2i, i + 5j, 2k) una nuova


base (non ortonormale) di V
3
. La matrice associata al prodotto scalare standard rispetto
alla nuova base B

` e la matrice simmetrica:
M
B

,B

() =
t
PIP =
t
PP =

4 2 0
2 26 0
0 0 4

,
cio` e se x, y hanno componenti rispettivamente (x

1
, x

2
, x

3
) e (y

1
, y

2
, y

3
) rispetto alla
base B

si ha:
(x, y) = 4x

+ 2(x

1
y

2
+ x

2
y

1
) + 11x

2
y

2
+ 4x

3
y

3
. (8.5)
Si pone quindi il problema di riconoscere che la forma bilineare , denita rispetto alla
base B

tramite lespressione polinomiale (8.5), coincida con il prodotto scalare (8.4),


scritto rispetto alla base B. Ci si occuper` a di questo nei paragra successivi.
Osservazione 8.4 Segue dal Teorema 5.4 che se ` e un prodotto scalare su uno spa-
zio vettoriale reale V allora, data una base B di V, la matrice associata M
B,B
() alla
forma bilineare simmetrica coincide con la matrice unit` a I se e solo se la base B ` e
ortonormale.
Capitolo 8 341
8.2 Forme quadratiche
Si vuole ora estendere il concetto di norma di un vettore |x|
2
= x x, denito su uno
spazio vettoriale euclideo, ad uno spazio vettoriale reale V in cui ` e introdotta una forma
bilineare simmetrica che non sia necessariamente un prodotto scalare. A tale scopo si
introduce la seguente denizione.
Denizione 8.3 Data la forma bilineare simmetrica B
s
(V, R), la funzione:
Q : V R, x Q(x) = (x, x),
si dice forma quadratica associata alla forma bilineare simmetrica . Analogamente, una
funzione Q : V R prende il nome di forma quadratica su V se esiste una forma
bilineare simmetrica su V tale che Q(x) = (x, x), con x V.
Linsieme delle forme quadratiche su V verr` a indicato con O(V, R).
Teorema 8.3 Sia Q una forma quadratica su uno spazio vettoriale reale V. Allora:
1. Q(x +y) = Q(x) + 2(x, y) + Q(y),
2. Q(x) =
2
Q(x),
per ogni x, y V e per ogni R.
Dimostrazione La propriet` a 1. segue dalluguaglianza:
Q(x +y) = (x +y, x +y), x, y V,
mentre la 2. ` e conseguenza delluguglianza:
Q(x) = (x, x), x, y V, R.
Osservazione 8.5 1. Dal teorema precedente si ha quindi che le forme quadratiche Q
denite su uno spazio vettoriale reale V non sono applicazioni lineari da V in R.
2. Lespressione 1. ` e detta forma polare della forma quadratica Q.
3. Dalla relazione 2. ponendo = 0, si ottiene Q(o) = 0, dove o indica il vettore
nullo di V.
342 Forme Bilineari e Forme Quadratiche
Osservazione 8.6 La corrispondenza tra forme bilineari simmetriche e forme quadratiche
associate ` e biunivoca. Ogni forma bilineare simmetrica B
s
(V, R) individua una
forma quadratica Q O(V, R) e viceversa; infatti, data la forma quadratica Q, dalla
forma polare di Q, si deduce:
(x, y) =
1
2
Q(x +y) Q(x) Q(y) , x, y V.
Denizione 8.4 Sia V uno spazio vettoriale reale di dimensione n e sia B ` e una sua
base, la matrice simmetrica di ordine n associata ad una forma bilineare simmetrica
denita su V rispetto alla base B si dice anche matrice associata alla forma quadratica
Q rispetto alla base B e si indica pertanto con M
B,B
(Q).
Esempio 8.12 Lespressione polinomiale della forma quadratica Q su R
3
, avente come
matrice associata rispetto alla base canonica di R
3
, la matrice simmetrica:
A =

3 1 2
1 0 1
2 1 1

,
` e:
Q(x) = 3x
2
1
+ x
2
3
2x
1
x
2
+ 4x
1
x
3
+ 2x
2
x
3
,
mentre lespressione polinomiale della relativa forma bilineare simmetrica ` e:
(x, y) = 3x
1
y
1
+ x
3
y
3
(x
1
y
2
+ x
2
y
1
) 2(x
1
y
3
+ x
3
y
1
) + x
2
y
3
+ x
3
y
2
.
Sia una forma bilineare simmetrica denita su uno spazio vettoriale reale V di dimen-
sione n. Fissata una base B = (v
1
, v
2
, . . . , v
n
) di V si indichi con A = M
B,B
() la
matrice simmetrica associata a rispetto alla base B. Dalla formula (8.3) segue che la
forma quadratica Q associata a ha la seguente espressione matriciale, rispetto alla base
B:
Q(x) = (x, x) =
n

i,j=1
a
ij
x
i
x
j
=
t
XAX, (8.6)
con a
ij
= a
ji
, per ogni i, j = 1, 2, . . . , n. Si osservi che Q(x) si esprime mediante un
polinomio omogeneo di secondo grado nelle componenti del vettore x rispetto alla base
B. Per questo motivo Q prende il nome di forma quadratica.
Esercizio 8.1 Data la forma quadratica su R
4
:
Q(x) = x
2
1
+ 4x
2
3
+ 3x
2
4
4x
1
x
3
+ 10x
2
x
4
,
con x = (x
1
, x
2
, x
3
, x
4
),
Capitolo 8 343
1. scrivere lespressione polinomiale della forma bilineare simmetrica associata a
Q e la relativa matrice (rispetto alla base canonica B di R
4
).
2. Posto a = (1, 0, 1, 0) e b = (0, 1, 1, 0), calcolare (a, b) e Q(a).
Soluzione 1. Dallespressione polinomiale di Q segue:
(x, y) = x
1
y
1
+ 4x
3
y
3
+ 3x
4
y
4
2(x
1
y
3
+ x
3
y
1
) + 5(x
2
y
4
+ x
4
y
2
),
dove x = (x
1
, x
2
, x
3
, x
4
) e y = (y
1
, y
2
, y
3
, y
4
). La matrice associata alla forma quadratica
Q ` e:
A =

1 0 2 0
0 0 0 5
2 0 4 0
0 5 0 3

,
quindi si osservi che a partire dallespressione polinomiale della forma quadratica ` e ne-
cessario dividere per 2 i coefcienti dei termini x
i
x
j
(i = j ) per ottenere gli elementi
della matrice A di posto a
ij
.
2. Dalla formula (8.3) segue:
(a, b) = ((1, 0, 1, 0), (0, 1, 1, 0))
=

1 0 1 0

1 0 2 0
0 0 0 5
2 0 4 0
0 5 0 3

0
1
1
0

1 0 2 0

0
1
1
0

= 2;
mentre:
Q(a) = Q((1, 0, 1, 0)) = 1 + 4 + 0 4 + 0 = 1.
Osservazione 8.7 Se B = (v
1
, v
2
, . . . , v
n
) ` e una base dello spazio vettoriale V su cui ` e
denita la forma quadratica Q di matrice associata A = M
B,B
(Q), allora tutte le matrici
associate a Q sono del tipo:
A

=
t
PAP,
al variare di P in GL(n, R) (cfr. Teor. 8.2).
344 Forme Bilineari e Forme Quadratiche
8.3 Nucleo e vettori isotropi
La denizione che segue intende estendere il concetto di ortogonalit` a tra vettori introdotto
per gli spazi vettoriali euclidei (cfr. Def. 5.4) al caso pi ` u generale delle forme bilineari
simmetriche.
Denizione 8.5 Data una forma bilineare simmetrica denita su uno spazio vettoriale
reale V, due vettori x, y V si dicono ortogonali rispetto a (o pi` u semplicemente
-ortogonali) se:
(x, y) = 0.
Osservazione 8.8 Se coincide con il prodotto scalare introdotto nel Capitolo 5, le due
denizioni di ortogonalit` a tra vettori coincidono.
Esempio 8.13 I vettori x = (1, 1) e y = (3, 4) sono ortogonali rispetto alla forma
bilineare simmetrica B
s
(R
2
, R) cos` denita:
(x, y) = 3x
1
y
1
x
1
y
2
+ 2x
2
y
2
x
2
y
1
.
Infatti (x, y) = 3 3 1 4 + 2(1) 4 (1) 3 = 0.
Teorema 8.4 Il vettore nullo o di uno spazio vettoriale V ` e ortogonale ad ogni vettore
di V, rispetto ad ogni forma bilineare simmetrica B
s
(V, R).
Dimostrazione Per ogni forma bilineare B
s
(V, R), per ogni coppia di vettori
x, y V e per ogni scalare R, si ha:
(x, y) = (x, y).
Posto = 0, si ottiene (x, o) = 0, per ogni x V.
Teorema 8.5 Sia / un sottoinsieme non vuoto di vettori di uno spazio vettoriale reale
V. Linsieme:
/

= x V [ (x, y) = 0, y /
dei vettori di V ortogonali, rispetto ad una forma bilineare simmetrica B
s
(V, R), ad
ogni vettore di /, ` e un sottospazio vettoriale di V.
Dimostrazione Per ogni coppia di vettori x
1
, x
2
di /

e per ogni coppia di scalari

1
,
2
di R si ha:
(
1
x
1
+
2
x
2
, y) =
1
(x
1
, y) +
2
(x
2
, y) = 0, y /.
Dunque
1
x
1
+
2
x
2
/

.
Come caso particolare si ha pertanto il seguente:
Capitolo 8 345
Teorema 8.6 Sia una forma bilineare simmetrica denita su uno spazio vettoriale reale
V e siano u
1
, u
2
, . . . , u
p
vettori di V. Un vettore x V ` e -ortogonale a tutti i vettori
u
1
, u
2
, . . . , u
p
, se e solo se x ` e -ortogonale ad ogni vettore del sottospazio vettoriale
J = L(u
1
, u
2
, . . . , u
p
).
Dimostrazione Se (x, u
i
) = 0, i = 1, 2, . . . , p, allora, ogni vettore y di J, si pu` o
esprimere come combinazione lineare dei vettori u
1
, u
2
, . . . , u
p
, ossia:
y = x
1
u
1
+ x
2
u
2
+ . . . + x
p
u
p
,
con x
1
, x
2
, . . . , x
p
R e quindi:
(x, y) = x
1
(x, u
1
) + x
2
(x, u
2
) + . . . + x
p
(x, u
p
) = 0.
Il viceversa ` e ovvio.
Si osservi che la precedente propriet` a estende lanaloga propriet` a dimostrata per il com-
plemento ortogonale di un sottospazio vettoriale di uno spazio vettoriale euclideo (cfr.
Oss. 5.9) al caso di una generica forma bilineare simmetrica che non sia necessariamente
un prodotto scalare.
Il sottospazio vettoriale ortogonale ad un sottospazio vettoriale J di V, rispetto ad una
forma bilineare simmertrica , sar` a indicato, in accordo con lenunciato del Teorema 8.5,
con J

. Su alcuni testi, per evitare confusione con il caso particolare del complemento
ortogonale J

di un sottospazio vettoriale J di uno spazio vettoriale euclideo (V, ),


si preferisce usare la notazione J

come verr` a meglio precisato nellOsservazione 8.9.


Denizione 8.6 Due sottospazi vettoriali J
1
e J
2
di uno spazio vettoriale reale V si
dicono coniugati o ortogonali rispetto a B
s
(V, R) se ogni vettore di J
1
` e ortogonale
ad ogni vettore di J
2
, cio` e se e solo se (x, y) = 0, per ogni x J
1
e per ogni
y J
2
.
Osservazione 8.9 Se J ` e un sottospazio vettoriale di uno spazio vettoriale V e ` e
un prodotto scalare su V, allora la nozione di sottospazio ortogonale rispetto al prodotto
scalare appena introdotta coincide con quella nota di complemento ortogonale (cfr. Def.
5.6). In generale, per` o se non ` e un prodotto scalare, lintersezione J J

non ` e
formata dal solo vettore nullo e non ` e detto che la somma dei due sottospazi vettoriali
J +J

coincida con V, come nel caso dellesempio che segue.


Esempio 8.14 Se si considera la forma bilineare su R
3
con espressione polinomiale
rispetto alla base canonica di R
3
:
(x, y) = x
1
y
1
2x
3
y
3
2(x
1
y
2
+ x
2
y
1
) (x
1
y
3
+ x
3
y
1
) 2(x
2
y
3
+ x
3
y
2
),
346 Forme Bilineari e Forme Quadratiche
dove x = (x
1
, x
2
, x
3
) e y = (y
1
, y
2
, y
3
), ed il sottospazio vettoriale di R
3
:
J = L(u
1
, u
2
),
con u
1
= (4, 1, 0), u
2
= (3, 0, 1), si ha che il sottospazio ortogonale a J rispetto a ` e:
J

= x V [ (x, u
1
) = (x, u
2
) = 0.
Poich e:
(x, u
1
) = 2x
1
8x
2
6x
3
, (x, u
2
) = 2x
1
8x
2
5x
3
,
segue che J

= L(u
1
) e quindi:
J J

= J

,
J +J

= J V.
Esercizio 8.2 Data la forma bilineare simmetrica su R
3
con matrice associata rispetto
alla base canonica B di R
3
:
A =

3 a b
a 4 2
b 2 c

, a, b, c R,
stabilire per quali valori dei parametri a, b, c i due iperpiani vettoriali:
J
1
= (x
1
, x
2
, x
3
) R
3
[ x
1
2x
2
+ x
3
= 0,
J
2
= (x
1
, x
2
, x
3
) R
3
[ 2x
1
x
3
= 0
sono ortogonali rispetto a .
Soluzione Lespressione polinomiale associata a rispetto alla base B ` e:
(x, y) = 3x
1
y
1
+a(x
1
y
2
+x
2
y
1
) +b(x
1
y
3
+x
3
y
1
) + 4x
2
y
2
2(x
2
y
3
+x
3
y
2
) +cx
3
y
3
.
Una base delliperpiano vettoriale J
1
` e formata, ad esempio, dai vettori:
u
1
= (1, 0, 1), u
2
= (2, 1, 0).
Una base delliperpiano vettoriale J
2
` e formata, ad esempio, dai vettori:
v
1
= (1, 0, 2), v
2
= (0, 1, 0).
Capitolo 8 347
I due iperpiani vettoriali J
1
e J
2
sono ortogonali rispetto a se e solo se:

(u
1
, v
1
) = b + 2c 3 = 0
(u
1
, v
2
) = a 2 = 0
(u
2
, v
1
) = 4b + a + 2 = 0
(u
2
, v
2
) = 2a + 4 = 0.
Risolvendo il sistema lineare cos` ottenuto si perviene allunica soluzione:
a = 2, b = 0, c =
3
2
.
Esercizio 8.3 Si consideri la forma quadratica Q su R
4
denita da:
Q(x) = 2x
2
1
+ 2(x
1
x
2
+ x
1
x
3
+ x
1
x
4
x
2
x
3
x
2
x
4
+ hx
3
x
4
), h R,
con x = (x
1
, x
2
, x
3
, x
4
). Trovare, per ogni valore di h, una base per il sottospazio
vettoriale ortogonale, rispetto a , al sottospazio vettoriale J = L(u
1
, u
2
) con:
u
1
= (1, 0, 1, 0), u
2
= (0, 1, 0, 1).
Soluzione La matrice associata a Q rispetto alla base canonica di R
4
` e:
A =

2 1 1 1
1 0 1 1
1 1 0 h
1 1 h 0

.
Il sottospazio ortogonale a J rispetto a ` e:
J

= x R
4
[ (x, u
1
) = (x, u
2
) = 0.
In notazione matriciale si ha:
(x, u
1
) = (x
1
x
2
x
3
x
4
)

2 1 1 1
1 0 1 1
1 1 0 h
1 1 h 0

1
0
1
0

= x
1
+ x
3
+ (1 h)x
4
= 0.
Analogamente:
(x, u
2
) = (x
1
x
2
x
3
x
4
)

2 1 1 1
1 0 1 1
1 1 0 h
1 1 h 0

0
1
0
1

= x
2
+(h1)x
3
x
4
= 0.
348 Forme Bilineari e Forme Quadratiche
Quindi:
J

= (x
1
, x
2
, x
3
, x
4
) R
4
[ x
1
+ x
3
+ (1 h)x
4
= x
2
+ (h 1)x
3
x
4
= 0.
La dimensione del sottospazio vettoriale J

` e 2 perch e il rango della matrice associata


al sistema lineare omogeneo che lo denisce ` e 2, per ogni h R e, ad esempio, una sua
base ` e costituita dai vettori:
a
1
= (1, h 1, 1, 0), a
2
= (h 1, 1, 0, 1).
Denizione 8.7 Si dice nucleo di una forma bilineare simmetrica B
s
(V, R) il sot-
toinsieme V

di V formato dai vettori ortogonali a tutti i vettori di V rispetto a e si


indica con ker , in simboli:
ker = x V [ (x, y) = 0, y V .
Osservazione 8.10 Si presti molta attenzione a non confondere la nozione di nucleo di
una forma bilineare simmetrica con quella di nucleo di unapplicazione lineare (cfr. Def.
6.7). La stessa denominazione data a due sottospazi vettoriali con diversa denizione
` e giusticata dal metodo che si usa per la loro determinazione, come sar` a spiegato nel
Teorema 8.8.
Teorema 8.7 Il nucleo di un forma bilineare simmetrica B
s
(V, R) ` e un sottospazio
vettoriale di V.
Dimostrazione
`
E conseguenza del Teorema 8.5.
Esercizio 8.4 Applicando il Teorema 8.6 si dimostri che un vettore x appartiene a ker
(ossia (x, y) = 0, per ogni y V ) se e solo se (x, v
j
) = 0, j = 1, 2, . . . , n, dove
B = (v
1
, v
2
, . . . , v
n
) ` e una base dello spazio vettoriale V su cui ` e denita la forma
bilineare simmetrica .
Si osservi che lesercizio appena assegnato, e che segue facilmente dalle denizioni di
bilinearit` a di e di base di uno spazio vettoriale, ` e molto importante ai ni del calcolo
del nucleo di una forma bilineare simmetrica.
Teorema 8.8 Sia un elemento di B
s
(V, R) e sia A = (a
ij
) = M
B,B
() la matrice
simmetrica associata a , rispetto ad una base B = (v
1
, v
2
, . . . , v
n
) di V, allora:
ker =

x = x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
V [ X =

x
1
x
2
.
.
.
x
n

^(A)

,
dove ^(A) ` e il nullspace della matrice A.
Capitolo 8 349
Dimostrazione Il nucleo ker della forma bilineare simmetrica ` e formato dai
vettori x di V tali che (x, y) = 0, per ogni y V o, equivalentemente, tali che
(x, v
j
) = 0, per ogni j = 1, 2, . . . , n. Posto x = x
1
v
1
+x
2
v
2
+. . . +x
n
v
n
, si ottiene:
(x, v
j
) = (x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
, v
j
) =
n

i=1
x
i
(v
i
, v
j
), j = 1, 2, . . . , n.
Daltra parte:
n

i=1
x
i
(v
i
, v
j
) =
n

i=1
x
i
(v
j
, v
i
)
e tenendo conto del fatto che a
ij
= (v
i
, v
j
) si ha:
n

i=1
x
i
a
ij
= 0, j = 1, 2, . . . , n,
che non ` e altro che il sistema lineare omogeneo
AX = O
di n equazioni nelle n incognite x
1
, x
2
, . . . , x
n
e dove O R
n,n
indica la matrice nulla.
Denizione 8.8 Si dice che una forma bilineare simmetrica (o equivalentemente la
forma quadratica Q associata) su uno spazio vettoriale reale V ` e non degenere se
ker = o e degenere se ker = o, dove o indica il vettore nullo di V.
Osservazione 8.11 Segue dalla precedente denizione che un prodotto scalare su V ` e
una forma bilineare simmetrica non degenere, in quanto V

= o.
Corollario 8.1 Sia un elemento di B
s
(V, R), allora ` e degenere se e soltanto se
det(A) = 0, dove A ` e la matrice associata a , rispetto ad una base B = (v
1
, v
2
, . . . , v
n
)
di V.
Dimostrazione Come conseguenza del Teorema 8.8 si ha che il calcolo del nucleo di
si riduce alla risoluzione del sistema lineare omogeneo AX = O di n equazioni nelle
n incognite x
1
, . . . , x
n
. Tale sistema lineare ha soluzioni non nulle se e soltanto se il
rango della matrice A ` e minore di n o, equivalentemente, se e solo se il determinante di
A ` e uguale a zero (cfr. Teor. 1.2).
350 Forme Bilineari e Forme Quadratiche
Osservazione 8.12 Sia una forma bilineare simmetrica denita su uno spazio vetto-
riale V. Se A ` e una matrice simmetrica associata a , dal Teorema 4.23 di Nullit` a pi ` u
Rango segue:
dim(V ) = dim(ker ) + rank(A).
Inoltre ` e non degenere se e solo se dim(V ) = rank(A). Di conseguenza tutte le matrici
associate alla stessa forma bilineare simmetrica hanno lo stesso rango, ossia:
rank(
t
PAP) = rank(A),
per ogni matrice invertibile P (cfr. Teor. 8.2).
Tale osservazione permette di introdurre la seguente:
Denizione 8.9 Si denisce rango di una forma bilineare simmetrica (o della forma
quadratica associata Q), e sar` a indicato con rank() (o con rank(Q)), il rango di una
qualunque matrice simmetrica associata a .
Osservazione 8.13 Dal Teorema 2.9 si pu` o dimostrare in un altro modo che il rango
della forma bilineare non dipende dalla scelta della matrice associata e quindi della
base usata per costruire tale matrice. Infatti, dal Teorema 2.9 si ha in particolare che:
rank(
t
PAP) = rank(AP) = rank(A),
per ogni matrice A R
n,n
e per ogni matrice invertibile P R
n,n
.
Esercizio 8.5 Determinare il nucleo della forma bilineare simmetrica B
s
(R
3
, R) con
matrice associata rispetto alla base canonica B = (e
1
, e
2
, e
3
) di R
3
:
M
B,B
() =

1 0 2
0 1 1
2 1 5

.
Soluzione Si cercano i vettori x = (x
1
, x
2
, x
3
) per i quali (x, e
j
) = 0, j = 1, 2, 3,
ossia soluzioni del sistema lineare omogeneo:

x
1
2x
3
= 0
x
2
+ x
3
= 0
2x
1
+ x
2
+ 5x
3
= 0.
Si ottiene x = (2x
3
, x
3
, x
3
), x
3
R, e quindi ker = L((2, 1, 1)).
Capitolo 8 351
Esercizio 8.6 Sia una forma bilineare simmetrica su R
3
. Determinare la matrice as-
sociata a rispetto alla base canonica di R
3
sapendo che i vettori u = (1, 2, 1) e
v = (1, 1, 0) formano una base di ker e che Q(w) = 8, dove w = (1, 0, 1) e Q ` e
la forma quadratica associata a .
Soluzione Si indichi con:
A =

a
11
a
12
a
13
a
12
a
22
a
23
a
13
a
23
a
33

la matrice associata a rispetto alla base canonica di R


3
. Poich e (u, v) ` e una base di
ker devono valere le condizioni:

(e
1
, u) = (e
2
, u) = (e
3
, u) = 0,
(e
1
, v) = (e
2
, v) = (e
3
, v) = 0.
Si ottiene quindi il sistema lineare omogeneo:

a
11
+ 2a
12
+ a
13
= 0
a
12
+ 2a
22
+ a
23
= 0
a
13
+ 2a
23
+ a
33
= 0
a
11
+ a
12
= 0
a
12
+ a
22
= 0
a
13
+ a
23
= 0.
(8.7)
Dalla condizione Q(w) = 8 segue:
Q(w) = (e
1
, e
1
) + 2(e
1
, e
3
) + (e
3
, e
3
) = a
11
+ 2a
13
+ a
33
= 8. (8.8)
Risolvendo quindi il sistema lineare formato dalle equazioni (8.7) e (8.8) si ha come unica
soluzione:
A =

2 2 2
2 2 2
2 2 2

.
Sia una forma bilineare simmetrica su V e sia J un sottospazio vettoriale di V. Se
` e un prodotto scalare il complemento ortogonale J

di J ha in comune con J solo il


vettore nullo. In altri termini (x, x) = 0 se e solo se x = o. DallEsempio 8.14 segue
invece che se non ` e un prodotto scalare possono esistere vettori non nulli comuni a J
e a J

e ci ` o giustica la denizione che segue.


352 Forme Bilineari e Forme Quadratiche
Denizione 8.10 Sia Q una forma quadratica su uno spazio vettoriale reale V. Un
vettore x V si dice isotropo per la forma quadratica Q se Q(x) = 0.
Se ` e la forma bilineare simmetrica associata a Q, si ha che x V ` e isotropo se e solo
se (x, x) = 0. Linsieme dei vettori isotropi della forma quadratica Q verr` a indicato
con:
1 = x V [ Q(x) = (x, x) = 0.
Ponendo in relazione il nucleo della forma bilineare simmetrica associata alla forma
quadratica Q con linsieme dei vettori isotropi si pu` o quindi provare il seguente teorema.
Teorema 8.9 Data una forma bilineare simmetrica su uno spazio vettoriale reale V,
allora
ker 1,
ovvero, se un vettore x appartiene a ker , allora x ` e un vettore isotropo per la forma
quadratica Q associata a .
Dimostrazione Se per ogni vettore y di V si ha (x, y) = 0, segue:
(x, x) = Q(x) = 0.
Osservazione 8.14 1. Linsieme 1 dei vettori isotropi, in generale, non ` e un sottospazio
vettoriale di V, in quanto se x, y 1 e (x, y) = 0, allora x +y non ` e pi ` u un
vettore isotropo.
2. Fissata una base B = (v
1
, v
2
, . . . , v
n
) di V, linsieme 1 pu` o essere descritto come:
1 =

x = x
1
v
1
+ x
2
v
2
+ . . . + x
n
v
n
V [
n

i,j=1
a
ij
x
i
x
j
= 0

,
dove A = (a
ij
) ` e la matrice simmetrica associata a Q rispetto alla base B. Pertanto,
linsieme 1 pu` o essere visto come il luogo degli zeri di un polinomio omogeneo di
secondo grado e viene anche chiamato cono isotropo relativo alla forma quadratica
Q o alla forma bilineare simmetrica associata . Il motivo di tale denominazione
risiede nel fatto che, se si rappresentano i vettori di V con punti in uno spazio
n-dimensionale, si ottiene un cono quadrico con vertice lorigine. Per lo studio
approfondito dei coni nello spazio si rimanda al Paragrafo 12.2.
3. Non sempre vale il viceversa del Teorema 8.9. Gli esempi che seguono mettono in
evidenza che, in generale, ker non coincide con linsieme dei vettori isotropi 1
della forma quadratica Q associata ma ` e solo in esso contenuto.
Capitolo 8 353
Esercizio 8.7 Si consideri la forma bilineare simmetrica su R
3
con espressione poli-
nomiale rispetto alla base canonica di R
3
:
(x, y) = x
1
y
1
(x
1
y
2
+ x
2
y
1
) + x
2
y
2
x
3
y
3
,
dove x = (x
1
, x
2
, x
3
) e y = (y
1
, y
2
, y
3
), stabilire se linsieme dei vettori isotropi per la
forma quadratica Q associata a ` e un sottospazio vettoriale di R
3
.
Soluzione Un vettore x ` e isotropo se:
Q(x) = x
2
1
2x
1
x
2
+ x
2
2
x
2
3
= 0.
Linsieme 1 dei vettori isotropi non ` e un sottospazio vettoriale di R
3
, in quanto ad
esempio i vettori:
u = (1, 0, 1), v = (0, 1, 1),
sono isotropi, ma u +v non ` e isotropo.
Esempio 8.15 Su R
3
` e data, rispetto alla base canonica (e
1
, e
2
, e
3
) di R
3
, la forma
quadratica:
Q(x) = x
2
1
2x
2
3
4x
1
x
2
2x
1
x
3
4x
2
x
3
,
la cui forma bilineare simmetrica associata ` e:
(x, y) = x
1
y
1
2x
3
y
3
2(x
1
y
2
+ x
2
y
1
) (x
1
y
3
+ x
3
y
1
) 2(x
2
y
3
+ x
3
y
2
),
con x = (x
1
, x
2
, x
3
) e y = (y
1
, y
2
, y
3
). Il vettore a = (4, 1, 0) ` e isotropo per la forma
quadratica Q perch e Q(a) = 0, ma a non appartiene a ker in quanto:
(x, e
1
) = (e
1
, x) =

1 0 0

1 2 1
2 0 2
1 2 2

x
1
x
2
x
3

e quindi (a, e
1
) = 2.
Osservazione 8.15 Come conseguenza del Teorema 8.9 si ha che se 1 = o allora la
forma bilineare simmetrica ` e non degenere. Attenzione per` o che non vale il vicever-
sa. Nel caso di un prodotto scalare linsieme dei vettori isotropi per la forma quadratica
associata coincide con linsieme formato dal solo vettore nullo, ma in generale nel caso
di una forma bilineare simmetrica non degenere linsieme dei vettori isotropi 1 pu` o non
ridursi allinsieme o.
354 Forme Bilineari e Forme Quadratiche
Esempio 8.16 La forma quadratica su R
2
, denita da Q(x) = x
2
1
x
2
2
, ` e associata,
rispetto alla base canonica di R
2
, alla matrice invertibile:
A =

1 0
0 1

;
` e non degenere, in quanto det(A) = 1, e pertanto ker = o. I vettori isotropi di Q
sono i vettori x = (x
1
, x
2
) tali che x
2
1
x
2
2
= 0, da cui x
1
= x
2
, quindi x = (x
2
, x
2
)
e formano linsieme:
1 = L((1, 1)) L((1, 1)),
che non ` e un sottospazio vettoriale trattandosi dellunione di due sottospazi vettoriali
diversi, entrambi di dimensione 1.
A partire da un vettore non isotropo si ottiene una decomposizione naturale dello spazio
vettoriale su cui ` e denita la forma quadratica, vale infatti il teorema che segue.
Teorema 8.10 Sia Q una forma quadratica su uno spazio vettoriale reale V di dimen-
sione n. Per ogni vettore u V non isotropo si ha:
V = L(u) L(u)

,
dove L(u)

= u

` e il sottospazio vettoriale ortogonale al vettore u rispetto alla forma


bilineare simmetrica associata a Q.
Dimostrazione Si ha immediatamente:
L(u) L(u)

= o,
in quanto u non ` e un vettore isotropo.
`
E sufciente quindi provare che L(u)

` e uni-
perpiano vettoriale di V. Siano B = (v
1
, v
2
, . . . , v
n
) una base di V e A = M
B,B
(Q) la
matrice simmetrica associata a Q rispetto alla base B. Si indichi con:
U =

u
1
u
2
.
.
.
u
n

la matrice colonna formata dalle componenti del vettore u rispetto alla base B. Fissato u
si denisce la forma lineare:

u
: V R, y
u
(y) = (u, y), y V,
Capitolo 8 355
dove ` e la forma bilineare simmetrica associata a Q (cfr. Oss. 8.1). Pertanto:
L(u)

= y V [ (u, y) =
t
UAY = 0
coincide con il nucleo della forma lineare
u
, la cui matrice associata rispetto alla B di
V e ( = (1) di R ` e la matrice
t
UA.
`
E importante osservare che la matrice riga
t
UA non
` e nulla, poich` e
Q(u) =
t
UAU = 0.
Quindi la forma lineare
u
non ` e nulla essendo
u
(u) = Q(u) = 0, e di conseguenza il
suo nucleo ` e un iperpiano vettoriale di V.
8.4 Classicazione
`
E gi` a stato osservato nel paragrafo precedente che se ` e un prodotto scalare, allora ` e
una forma bilineare simmetrica non degenere. Questa condizione per` o non ` e sufciente
per caratterizzare una forma bilineare simmetrica come prodotto scalare. In base alla
denizione data di prodotto scalare (cfr. Def. 5.1) una forma bilineare simmetrica su
uno spazio vettoriale V ` e un prodotto scalare se e solo se (x, x) 0 per ogni x V e
se lunico vettore isotropo ` e il vettore nullo. Per riconoscere quindi un prodotto scalare ` e
necessario aggiungere alla nozione di forma bilineare non degenere anche il segno della
forma quadratica Q associata. Pi ` u precisamente si pu` o dare la seguente:
Denizione 8.11 Una forma quadratica Q (o equivalentemente la forma bilineare sim-
metrica associata ) su uno spazio vettoriale reale V si dice:
1. denita positiva (negativa) se:
Q(x) 0 ( 0), x V e Q(x) = 0 x = o;
2. semidenita positiva (negativa) se
Q(x) 0 ( 0), x V,
ma non si esclude che esistano vettori x V tali che x = o e Q(x) = 0, cio` e che
esistano vettori isotropi non nulli;
3. indenita se Q(x) ha segno variabile al variare del vettore x di V.
Osservazione 8.16 In base alla denizione precedente ` e un prodotto scalare se e solo
se (o la forma quadratica associata Q) ` e denita positiva.
356 Forme Bilineari e Forme Quadratiche
Esempio 8.17
`
E quindi possibile adesso capire come costruire un prodotto scalare che
renda ortogonali due vettori qualsiasi u e v, non nulli e non paralleli, di uno spazio
vettoriale reale V di dimensione n 2.
`
E sufciente completare linsieme libero u, v
no ad ottenere una base di V :
B = (u, v, b
1
, . . . , b
n2
).
La matrice associata A = M
B,B
() al prodotto scalare si ottiene imponendo le condi-
zioni:

(u, v) = (u, b
i
) = (v, b
i
) = 0, i = 1, 2, . . . , n 2,
(b
i
, b
j
) = 0, i, j = 1, 2, . . . , n 2,
(u, u) > 0, (v, v) > 0, (b
i
, b
i
) > 0, i = 1, 2, . . . , n 2.
Si pu` o quindi osservare che A non ` e univocamente determinata, anche se si ssa la base
B, perch e si hanno innite scelte per le lunghezze dei vettori della base. Esistono quindi
inniti prodotti scalari su V che rendono i vettori u e v ortogonali.
Esercizio 8.8 Dati i vettori u = (1, 1) e v = (0, 1) in R
2
determinare un prodotto
scalare su R
2
tale che i due vettori u e v siano ortogonali rispetto a e rispettivamente
di lunghezza 1 e 2. Tale prodotto scalare ` e unico?
Soluzione Il prodotto scalare richiesto deve vericare le condizioni:
(u, v) = 0, (u, u) = 1, (v, v) = 4.
Indicata con A = (a
ij
) R
2,2
la matrice simmetrica associata a rispetto alla base
canonica di R
2
, dalle equazioni precedenti si ottiene il sistema lineare:

a
12
+ a
22
= 0
a
11
2a
12
+ a
22
= 1
a
22
= 4,
che ha come unica soluzione: a
11
= 5, a
12
= a
22
= 4, da cui segue che lespressione
polinomiale del prodotto scalare ` e:
(x, y) = 5x
1
y
1
+ 4x
1
y
2
+ 4x
2
y
1
+ 4x
2
y
2
,
con x = (x
1
, x
2
, x
3
) e y = (y
1
, y
2
, y
3
). Si osservi che i due vettori assegnati u e v
sono ortogonali rispetto al prodotto scalare appena determinato ma non sono ortogonali
rispetto al prodotto scalare standard di R
2
.
Capitolo 8 357
Teorema 8.11 Sia Q una forma quadratica su uno spazio vettoriale reale V. Se la forma
quadratica Q ` e denita (positiva o negativa), allora Q (o equivalentemente la forma
bilineare simmetrica associata ) ` e non degenere.
Dimostrazione Si tratta di dimostrare che ker0o; ma per ogni vettore x ker
e per ogni vettore y V si ha (x, y) = 0. Ci ` o implica (x, x) = Q(x) = 0 ma Q ` e
denita positiva (o negativa), dunque x = o.
Osservazione 8.17 Non vale il viceversa del teorema precedente. Infatti, ad esempio, la
forma quadratica dellEsempio 8.16 ` e non degenere ma ` e indenita perch e Q((1, 0)) = 1
e Q((0, 1)) = 1.
Osservazione 8.18 Una forma bilineare indenita pu` o essere in generale sia degenere sia
non degenere, ma si vedr` a che linsieme dei vettori isotropi 1 ` e sempre 1 = o.
Esempio 8.18 Per ciascuna delle 5 forme bilineari simmetriche e forme quadratiche
associate sotto elencate, si riportano: la matrice associata, il determinante, il calcolo
esplicito del nucleo, linsieme dei vettori isotropi e la relativa classicazione.
[1] B
s
(R
3
, R), denita da:
(x, y) = x
1
y
1
+ x
2
y
2
+ x
3
y
3
.
La matrice associata a rispetto alla base canonica di R
3
` e:
A =

1 0 0
0 1 0
0 0 1

.
Poich` e det(A) = 1, sia ha ker = o = 1. La forma quadratica associata a ` e:
Q(x) = x
2
1
+ x
2
2
+ x
3
3
0
e pertanto ` e denita positiva, non degenere.
[2] B
s
(R
3
, R), denita da:
(x, y) = x
1
y
1
+ x
2
y
2
.
La matrice associata a rispetto alla base canonica di R
3
` e:
A =

1 0 0
0 1 0
0 0 0

.
358 Forme Bilineari e Forme Quadratiche
In questo caso si ha
det(A) = 0, ker = L((0, 0, 1)) = 1.
La forma quadratica associata a ` e:
Q(x) = x
2
1
+ x
2
2
0
e pertanto ` e semidenita positiva, degenere.
[3] B
s
(R
2
, R), denita da:
(x, y) = x
1
y
1
+ x
2
y
2
+ x
1
y
2
+ x
2
y
1
= (x
1
+ x
2
)(y
1
+ y
2
).
La matrice associata a rispetto alla base canonica di R
2
` e:
A =

1 1
1 1

e pertanto
det(A) = 0, ker = L((1, 1)) = 1.
La forma quadratica a ` e:
Q(x) = (x
1
+ x
2
)
2
0,
quindi ` e semidenita positiva, degenere.
[4] B
s
(R
2
, R), denita da:
(x, y) = x
1
y
1
x
2
y
2
.
La matrice associata a rispetto alla base canonica di R
2
` e:
A =

1 0
0 1

,
da cui segue:
det(A) = 1, ker = o.
Per la forma quadratica Q associata a si ha:
Q(x) = x
2
1
x
2
2
.
Pertanto Q(x) = 0 se e solo se x
1
= x
2
oppure x
1
= x
2
, ovvero:
1 = L((1, 1)) L((1, 1)).
Quindi ` e indenita, non degenere.
Capitolo 8 359
[5] B
s
(R
3
, R), denita da:
(x, y) = x
1
y
1
x
1
y
2
x
2
y
1
.
La matrice associata a rispetto alla base canonica di R
2
` e:
A =

1 1 0
1 0 0
0 0 0

,
da cui segue:
det(A) = 0, ker = L((0, 0, 1)).
La forma quadratica associata a ` e:
Q(x) = x
2
1
2x
1
x
2
.
Pertanto Q(x) = 0 se e solo se x
1
= 0 oppure x
1
= 2x
2
, quindi
1 = L((0, 0, 1), (0, 1, 0)) L((2, 1, 0), (0, 0, 1))
e ` e indenita, degenere.
In generale, non ` e per` o facile capire se una forma quadratica ` e denita positiva senza
usare altri metodi.
Nel caso di una forma quadratica semidenita positiva (o negativa) linsieme dei vetto-
ri isotropi coincide con il nucleo della forma bilineare simmetrica associata. Infatti, per
una forma bilineare simmetrica semidenita positiva valgono come per il prodotto scalare
la disuguaglianza di Cauchy-Schwarz e la disuguaglianza di Minkowski, la cui dimo-
strazione ` e analoga a quella gi` a vista per il prodotto scalare nel Capitolo 5 (cfr. Teor.
5.2).
Teorema 8.12 Disuguaglianza di Cauchy-Schwarz Sia B
s
(V, R) una forma bi-
lineare simmetrica semidenita positiva su uno spazio vettoriale reale V e Q la forma
quadratica associata. Si ha:
[(x, y)]
2
Q(x)Q(y), x, y V.
Dimostrazione Per ogni R e per ogni x, y V si ha:
Q(x +y) =
2
Q(x) + 2(x, y) + Q(y). (8.9)
360 Forme Bilineari e Forme Quadratiche
Poich` e Q ` e semidenita positiva, deve essere Q(x + y) 0, per ogni e quindi il
discriminante del precedente trinomio di secondo grado in deve essere negativo, cio` e:
[(x, y)]
2
Q(x)Q(y) 0, x, y V.
Si pu o osservare che se x ` e isotropo (cio` e se Q(x) = 0), la precedente disuguaglianza
diventa unuguaglianza.
Conseguenza della precedente disuguaglianza ` e la seguente:
Teorema 8.13 Disuguaglianza di Minkowski Sotto le stesse ipotesi del Teorema prece-
dente, si ha:

Q(x +y)

Q(x) +

Q(y), x, y V.
Dimostrazione Se si usa (8.9) nel caso di = 1, si ottiene:
Q(x +y) = Q(x) + 2(x, y) + Q(y).
Per il Teorema 8.12 si ha:
Q(x) + 2(x, y) + Q(y) Q(x) + 2

Q(x)Q(y) + Q(y) =

Q(x) +

Q(y)

2
da cui segue il teorema.
Osservazione 8.19 Si osservi che la precedente disuguaglianza, nel caso in cui sia un
prodotto scalare, corrisponde alla disuguaglianza triangolare gi` a dimostrata, in quanto

Q(x) rappresenta la norma del vettore x.


Segue dalla disuguaglianza di Cauchy-Schwartz che, nel caso di una forma bilineare
simmetrica semidenita positiva, ker coincide con linsieme dei vettori isotropi, che, in
questo caso, e un sottospazio vettoriale. Infatti, se x ` e isotropo, si ha allora (x, y) = 0,
per ogni y V . Si ha pertanto il seguente:
Teorema 8.14 Se ` e una forma bilineare simmetrica semidenita positiva (o negativa),
allora ker = 1 = o e ` e degenere.
Si dimostrer` a il viceversa della precedente affermazione da cui si deduce che tutte e sole
le forme bilineari per cui linsieme 1 ` e un sottospazio vettoriale devono essere denite o
semidenite positive (o negative) (cfr. Oss. 8.21).
Capitolo 8 361
8.5 Forme canoniche
Denizione 8.12 Sia V uno spazio vettoriale reale di dimensione n. Date due basi B
e B

di V ed indicate con X e X

le matrici colonne formate rispettivamente dalle


componenti (x
1
, . . . , x
n
) e (x

1
, . . . , x

n
) del generico vettore x di V rispetto alle basi B
e B

, le due espressioni polinomiali:


t
XAX =
n

i,j=1
a
ij
x
i
x
j
,
t
X

AX

=
n

i,j=1
a

ij
x

i
x

j
,
sono dette equivalenti o rappresentano la stessa forma quadratica Q su V , se esiste una
matrice invertibile P (matrice del cambiamento di base da B a B

) tale che A

=
t
PAP .
In altri termini le due espressioni polinomiali
t
XAX e
t
X

sono equivalenti se si
ottiene lespressione
t
X

a partire da
t
XAX mediante le equazioni del cambiamento
di base X = PX

.
Esempio 8.19 Le due espressioni polinomiali su R
2
:
x
1
x
2
, (x

1
)
2
(x

2
)
2
sono equivalenti, cio` e rappresentano la stessa forma quadratica Q su R
2
. Infatti, in questo
caso:
A =

0
1
2
1
2
0

, A

1 0
0 1

e la matrice invertibile P tale che


t
PAP = A

` e :
P =

1 1
1 1

.
La seconda espressione polinomiale assunta dalla forma quadratica Q nellesempio pre-
cedente giustica la seguente:
Denizione 8.13 Una forma quadratica Q su V si dice ridotta in forma canonica se
esiste una base B di V rispetto alla quale la matrice associata A = (a
ij
) = M
B,B
(Q)
sia diagonale. Lespressione polinomiale di Q rispetto alla base B:
Q(x) = a
11
x
2
1
+ a
22
x
2
2
+ . . . + a
nn
x
2
n
,
dove (x
1
, x
2
, . . . , x
n
) sono le componenti di x rispetto a B, prende il nome di forma
canonica di Q.
362 Forme Bilineari e Forme Quadratiche
Una forma canonica di Q ` e quindi una rappresentazione di Q mediante un polinomio
omogeneo privo di termini misti.
Esempio 8.20 Lespressione polinomiale Q(x) = x
1
x
2
della forma quadratica Q su R
2
nellesempio precedente non ` e una forma canonica di Q, mentre lespressione polinomia-
le Q(x) = (x

1
)
2
(x

2
)
2
lo ` e.
Unaltra forma canonica di Q ` e, ad esempio, Q(x) = 5y
2
1
3y
2
2
. Infatti la si ottiene da
x
1
x
2
con il cambiamento di base:

x
1
x
2

=

5

y
1
y
2

.
Si verica inoltre che tutti i cambiamenti di base:

x
1
x
2

a b
a b

y
1
y
2

,
realizzano forme canoniche di Q per ogni a, b R tali che: ab = 0.
Esistono innite forme canoniche di una forma quadratica Q. Tra le forme canoniche
di una forma quadratica ne esistono sempre due particolari, come precisato dai seguenti
teoremi:
Teorema 8.15 Sia V uno spazio vettoriale reale di dimensione n. Data una forma qua-
dratica Q(x) =
t
XAX su V con matrice associata A rispetto ad una base B di V , Q
ha sempre una forma canonica del tipo:
Q(x) =
1
y
2
1
+
2
y
2
2
+ . . . +
n
y
2
n
, (8.10)
dove
1
,
2
, . . . ,
n
sono gli autovalori della matrice A (ciascuno ripetuto con la propria
molteplicit` a).
Dimostrazione La matrice A associata a Q ` e simmetrica. Pertanto esiste una matrice
ortogonale P tale che:
t
PAP = P
1
AP = D =

1
0 . . . 0
0
2
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . .
n

.
Con il cambiamento di base X = PY, tenuto conto che P ` e ortogonale, si ricava:
Q(x) =
t
XAX =
t
(PY )A(PY ) =
t
Y (
t
PAP)Y =
t
Y DY
=
1
y
2
1
+
2
y
2
2
+ . . . +
n
y
2
n
Capitolo 8 363
quindi la tesi.
Si osservi che cambiando la matrice associata A alla forma quadratica Q si perviene ad
una diversa forma canonica, in quanto in generale A e A

, anche se sono associate alla


stessa forma quadratica, hanno autovalori diversi (perch e in generale A e A

non sono
simili).
Esercizio 8.9 Ridurre a forma canonica la seguente forma quadratica su R
3
:
Q(x) = 2x
2
1
+ x
2
2
4x
1
x
2
4x
2
x
3
.
Soluzione La matrice associata a Q rispetto alla base canonica B di R
3
e il relativo
polinomio caratteristico sono rispettivamente:
A = M
B,B
(Q) =

2 2 0
2 1 2
0 2 0

, P() =
3
3
2
6 + 8 = 0.
Gli autovalori e autospazi di A sono:

1
= 1,
2
= 2,
3
= 4,
V

1
= L((2, 1, 2)), V

2
= L((1, 2, 2)), V

3
= L((2, 2, 1)),
dai quali si ottiene la base ortonormale di autovettori di A:

f
1
=

2
3
,
1
3
,
2
3

, f
2
=

1
3
,
2
3
,
2
3

, f
3
=

2
3
,
2
3
,
1
3

.
La forma quadratica, in forma canonica, ` e:
Q(x) = y
2
1
2y
2
2
+ 4y
2
3
=

y
1
y
2
y
3

1 0 0
0 2 0
0 0 4

y
1
y
2
y
3

ottenuta da Q con il cambiamento di base di matrice ortogonale:


P =
1
3

2 1 2
1 2 2
2 2 1

.
Denizione 8.14 Una forma quadratica Q si dice ridotta in forma normale se ` e ridotta a
forma canonica e i suoi coefcienti sono 1, 0, 1. La sua espressione polinomiale prende
il nome di forma normale.
364 Forme Bilineari e Forme Quadratiche
Per convenzione nella forma normale di Q si ordinano i termini inserendo prima i coef-
cienti pari a 1, poi quelli uguali a 1 e poi quelli nulli.
Teorema 8.16 Sia V uno spazio vettoriale reale di dimensione n. Ogni forma quadra-
tica Q(x) =
t
XAX su V ammette una forma normale. Il numero dei coefcienti pari a
1 ` e uguale al numero di autovalori positivi di A, contati con la relativa molteplicit` a, e il
numero dei coefcienti uguali a 1 e pari al numero di autovalori negativi di A, contati
con la relativa molteplicit a. Il numero dei coefcienti pari a 0 ` e pari alla molteplicit` a
dellautovalore 0.
Dimostrazione Per il Teorema 8.15 Q ammette una forma canonica:
Q(x) =
1
y
2
1
+
2
y
2
2
+ . . . +
n
y
2
n
,
dove
1
,
2
, . . . ,
n
sono gli autovalori della matrice A (ciascuno ripetuto con la propria
molteplicit` a) e (y
1
, . . . , y
n
) sono le componenti di x rispetto ad una base ortonormale
( = (f
1
, f
2
, . . . , f
n
) di autovettori di A. Allora
i
= Q(f
i
), i = 1, 2, . . . , n.
Per ottenere una forma normale di Q vogliamo determinare una nuova base (

= (f

1
, f

2
,. . .,
f

n
) di V tale che Q(f

i
) = 0, 1, i = 1, 2, . . . , n. Si deduce che:
f

i
=
f
i

[
i
[
se
i
= 0 e f

i
= f
i
se
i
= 0,
da cui la tesi.
Osservazione 8.20 Se Q ` e la forma quadratica associata ad un prodotto scalare , si
osservi che in generale la base ( ` e solo una base ortogonale rispetto a , ma non ortonor-
male rispetto a , in quanto (f
i
, f
j
) = 0, i = j e Q(f
i
) = (f
i
, f
i
) =
i
> 0. In questo
caso infatti la matrice A ha n autovalori positivi in quanto ` e denita positiva. Pertanto
solo se
i
= 1, per ogni i, ( ` e una base ortonormale rispetto a . La base (

` e invece
una base ortonormale per il prodotto scalare .
Si dimostrer` a che la forma normale di una forma quadratica ` e unica, cio` e che tutte le
matrici associate alla stessa forma quadratica hanno lo stesso numero di autovalori positivi
e lo stesso numero di autovalori negativi (cfr. Teor. 8.17).
Esercizio 8.10 Ricavare la forma normale della forma quadratica Q data nellesercizio
8.9.
Soluzione Avendo calcolato gli autovalori di A e avendo scoperto che due sono posi-
tivi e uno negativo, si ha subito che la forma normale di Q e:
Q(x) = z
2
1
+ z
2
2
z
2
3
=

z
1
z
2
z
3

1 0 0
0 1 0
0 0 1

z
1
z
2
z
3

.
Capitolo 8 365
Se, invece, si richiede anche il cambiamento di base che permette di realizzare la forma
normale di Q allora si ha:

1
= f
1
, f

2
=
1
2
f
3
, f

3
=
1

2
f
2

.
8.6 Il Teorema di Sylvester e la segnatura di una forma
quadratica
Enunciamo e dimostriamo ora il fondamentale:
Teorema 8.17 Legge dinerzia di Sylvester Sia V uno spazio vettoriale reale di di-
mensione n. Tutte le forme canoniche di una stessa forma quadratica Q su V hanno lo
stesso numero p, di coefcienti positivi e lo stesso numero q di coefcienti negativi; la
coppia (p, q) si dice segnatura di Q. Inoltre, si ha: p + q = rank(Q) n.
Dimostrazione Sia (f
1
, f
2
, . . . , f
n
) una base di V rispetto alla quale Q assuma la forma
canonica:
Q(x) =
1
y
2
1
+
2
y
2
2
+ . . . +
n
y
2
n
,
per ogni x = y
1
f
1
+y
2
f
2
+. . . +y
n
f
n
V. Il numero dei coefcienti
i
che sono diversi
da zero ` e uguale al rango r della forma quadratica Q e quindi dipende solo da Q. Salvo
riordinare la base possiamo supporre che i primi r coefcienti siano diversi da zero e che
tra essi quelli positivi gurino per primi. Si avr` a quindi:

1
=
2
1
, . . . ,
p
=
2
p
,
p+1
=
2
p+1
, . . . ,
r
=
2
r
per un opportuno intero p r e opportuni numeri reali positivi
1
,
2
, . . . ,
r
. Si verica
facilmente che rispetto alla base:
f

1
=
f
1

1
, f

2
=
f
2

2
, . . . , f

r
=
f
r

r
, f

r+1
= f
r+1
, . . . , f

n
= f
n
la forma polinomiale associata ` e:
Q(x) = y

1
2
+ . . . + y

p
2
y

p+1
2
. . . y

r
2
, (8.11)
per ogni x = y

1
f

1
+ . . . + y

n
f

n
V. Resta da dimostrare che p dipende solo da Q e
non dalla base (f

1
, . . . , f

n
). Supponiamo allora che in unaltra base (b
1
, . . . , b
n
) di V la
forma Q si esprima come:
Q(x) = z
2
1
+ . . . + z
2
t
z
2
t+1
. . . z
2
r
(8.12)
366 Forme Bilineari e Forme Quadratiche
per un opportuno intero t r. Dobbiamo far vedere che t = p. Supponiamo allora
per assurdo che sia t = p. Possiamo supporre che sia t < p. Consideriamo i sottospazi
vettoriali:
o = L(f

1
, . . . , f

p
)
T = L(b
t+1
, . . . , b
n
).
Dato che dimo + dimT = p + n t > n, deve essere o T = o e quindi esiste
x o T , x = o. Si ha:
x = y

1
f

1
+ . . . + y

p
f

p
= z
t+1
b
t+1
+ . . . + z
n
b
n
.
Poich` e x = o, da (8.11) si ha:
Q(x) = y

1
2
+ . . . + y

p
2
> 0,
mentre da (8.12) si deduce che:
Q(x) = z
2
t+1
. . . z
2
r
< 0,
e cio` e una contraddizione. Quindi p = t.
Da osservare quindi che rispetto alla base (

= (f

1
, f

2
, . . . f

n
) in cui Q si scrive in forma
normale la matrice associata alla forma quadratica Q ` e data da:
M
C

,C

(Q) =

I
p
0 0
0 I
rp
0
0 0 O
nr

,
dove r ` e il rango di Q, I
p
indica la matrice identit` a di ordine p e O
nr
denota la matrice
nulla di ordine n r.
Inoltre, una forma quadratica Q su uno spazio vettoriale reale V di dimensione n ` e non
degenere se e solo se la sua segnatura (p, q) ` e tale che p + q = n.
Per il teorema di Sylvester ` e evidente che per studiare il segno di una forma quadratica
Q ` e sufciente conoscere i segni dei coefcienti di una forma canonica di Q, in partico-
lare quindi i segni degli autovalori di una qualsiasi matrice A associata a Q. Tali segni
si possono trovare agevolmente a partire dal polinomio caratteristico della matrice A,
utilizzando il:
Teorema 8.18 Regola di Cartesio Sia f(x) = a
0
+ a
1
x + . . . + a
n
x
n
un polinomio
reale con tutte le radici reali. Allora le radici positive di f sono tante quanti sono i
cambiamenti di segno della successione a
0
, a
1
, . . . , a
n
.
Si pu` o applicare questa regola al polinomio caratteristico della matrice (simmetrica) as-
sociata a una forma quadratica perch e essa ha tutte le radici reali.
Capitolo 8 367
Esempio 8.21 1. Il polinomio f(x) = 8 + 2x 5x
2
+ x
3
ha le due radici reali posi-
tive 2 e 4. Daltra parte nella successione dei coefcienti (8, 2, 5, 1) ci sono due
cambiamenti di segno.
2. Il polinomio f(x) = (x + 1)(x 2)(x 4)(x 5)x
3
ha radici 0, 1, 2, 4, 5 e le
radici positive sono tre. Daltra parte f(x) = 40x
3
12x
4
+ 27x
5
10x
6
+x
7
e
si vede che ci sono tre cambiamenti di segno nei coefcienti di f.
Quindi, per studiare il segno di una forma quadratica Q (o della forma bilineare simme-
trica associata ) si pu` o procedere nel seguente modo:
1. Si trova una matrice A associata a Q e se ne calcola il polinomio caratteristico
P() = det(A I).
2. Si scrive P() =
s
R(), con R(0) = 0. Si osservi che rank A = rank Q = ns
e che s ` e la molteplicit` a dellautovalore 0.
3. Poich e A ` e una matrice simmetrica, per il Teorema Spettrale 7.8 P() ha tutte radi-
ci reali e pertanto possiamo applicare la regola di Cartesio. Si contano le variazioni
di segno del polinomio R(). Se queste variazioni sono p allora R() ha p radici
positive. In conclusione P() ha:
s radici nulle;
p radici positive;
n (p + s) radici negative.
Esercizio 8.11 Determinare il segno e la segnatura della forma quadratica su R
3
:
Q(x) = 2x
2
1
+ x
2
2
4x
1
x
2
4x
2
x
3
.
Soluzione La matrice associata a Q rispetto alla base canonica B di R
3
e il relativo
polinomio caratteristico sono:
M
B,B
(Q) =

2 2 0
2 1 2
0 2 0

P() = (2 )( +
2
4) + 4 = 2 + 2
2
8 +
2

3
+ 4 + 4
=
3
+ 3
2
+ 6 8.
Vi sono due cambiamenti di segno e 0 non ` e una radice. Quindi la forma quadratica Q ` e
indenita, non degenere ed ha segnatura (2, 1).
Le propriet` a che seguono caratterizzano il segno di una forma quadratica attraverso il
segno degli autovalori della matrice ad essa associata.
368 Forme Bilineari e Forme Quadratiche
Teorema 8.19 Una forma quadratica Q(x) =
t
XAX, con matrice associata A, ` e de-
nita positiva (negativa) se e soltanto se tutti gli autovalori della matrice simmetrica reale
A sono strettamente positivi (negativi).
Dimostrazione Per il Teorema 8.15 Q ha una forma canonica
Q(x) =
1
y
2
1
+
2
y
2
2
+ . . . +
n
y
2
n
,
dove i coefcienti
i
sono gli autovalori di A e x = (y
1
, y
2
, . . . , y
n
). Se
i
> 0, per ogni
i = 1, . . . , n, allora si ha:
Q(x) 0, x V, e Q(x) = 0 x = o,
dunque Q ` e denita positiva. Analogamente, se
i
< 0, per ogni i = 1, . . . , n, si deduce
che Q ` e denita negativa.
Viceversa, supponiamo che Q sia denita positiva. Se per assurdo, ad esempio
1
0,
si avrebbe, scelto x = (1, 0, . . . , 0), che Q(x) =
1
0, con x = o, contro lipotesi.
La dimostrazione nel caso in cui Q sia denita negativa ` e analoga.
Teorema 8.20 Una forma quadratica Q(x) =
t
XAX, con matrice associata A, ` e semi-
denita positiva (negativa) se e solo se tutti gli autovalori della matrice simmetrica reale
A sono non negativi (positivi) e almeno un autovalore ` e nullo.
Teorema 8.21 Una forma quadratica Q(x) =
t
XAX, con matrice associata A, ` e non
denita se e solo se la matrice simmetrica reale A ha autovalori di segno contrario.
Le proposizioni precedenti sono conseguenza immediata delle denizioni di forma qua-
dratica semidenita e indenita e della formula (8.10) del Teorema 8.15.
Quindi riassumendo le possibili forme normali e segnature di una forma quadratica Q su
uno spazio vettoriale di dimensione n, secondo il Teorema di Sylvester, sono:
x
2
1
+ . . . + x
2
n
(n, 0) denita positiva
x
2
1
+ . . . + x
2
p
, p < n, (p, 0) semidenita positiva
x
2
1
. . . x
2
n
(0, n) denita negativa
x
2
1
. . . x
2
q
, q < n, (0, q) semidenita negativa
x
2
1
+ . . . + x
2
p
x
2
p+1
. . . x
2
r
, 0 < p < r n, (p, r p) indenita
Un prodotto scalare su uno spazio vettoriale reale V di dimensione n ` e quindi la forma
bilineare simmetrica associata ad una forma quadratica di segnatura (n, 0).
Osservazione 8.21 Sia Q una forma quadratica di segnatura (p, q) e rango r. Q ammette
allora come forma normale:
Q(x) = x
2
1
+ . . . + x
2
p
x
2
p+1
. . . x
2
r
.
Capitolo 8 369
Pertanto, se si utilizza la forma normale ` e molto pi` u agevole calcolarne linsieme dei
vettori isotropi 1 di Q. In particolare, nel caso di una forma quadratica indenita, scritta
in forma normale, si ha che linsieme dei vettori isotropi ` e linsieme:
1 = x V [x
2
1
+ . . . + x
2
p
x
2
p+1
. . . x
2
r
= 0.
Pertanto ` e facile vericare che nel caso di una forma quadratica indenita si ha 1 = o
e che 1 non ` e un sottospazio vettoriale di V.
Osservazione 8.22 La riduzione di una forma quadratica in forma canonica ottenuta at-
traverso gli autovalori assume notevole importanza in geometria analitica, ad esempio,
nella riduzione a forma canonica delle coniche nel piano e delle quadriche nello spazio
perch e ` e legata a cambiamenti di basi ortonormali e conseguentemente a cambiamenti di
riferimento ortogonali del piano e dello spazio.
Dati un sottospazio vettoriale J di uno spazio vettoriale reale V e una forma quadratica
Q su V , si pu` o considerare la restrizione di Q a W, ossia la funzione
Q[
W
: J R, x Q[
W
(x) = Q(x).

E lasciata per esercizio al Lettore la verica che la restrizione di Q a J ` e una forma


quadratica su J.
Per la restrizione di una forma quadratica ad un sottospazio vettoriale si ha il seguente:
Teorema 8.22 Sia J un sottospazio vettoriale di uno spazio vettoriale reale V . Se Q ` e
una forma quadratica denita (positiva o negativa) su V , allora la restrizione di Q a J
` e ancora una forma quadratica denita (positiva o negativa).
La restrizione invece ad un sottospazio vettoriale di una forma bilineare simmetrica non
degenere ` e ancora una forma bilineare simmetrica, ma non ` e detto che sia non degene-
re. Ad esempio, se si considera la quarta forma bilineare dellEsempio 8.18, che ` e non
degenere, le sue restrizioni ai sottospazi:
J
1
= (x
1
, x
2
) R
2
[ x
1
= x
2
,
J
2
= (x
1
, x
2
) R
2
[ x
1
= x
2
,
sono entrambe degeneri e coincidono con la forma quadratica nulla.
8.7 Esercizi di riepilogo svolti
Esercizio 8.12 In R
3
, rispetto alla base canonica B = (e
1
, e
2
, e
3
), ` e data la forma
quadratica:
Q(x) = x
2
1
+ 5x
2
2
+ x
2
3
+ 2x
1
x
2
+ 6x
1
x
3
+ 2x
2
x
3
,
con x = (x
1
, x
2
, x
3
) R
3
.
370 Forme Bilineari e Forme Quadratiche
1. Scrivere lespressione polinomiale della forma bilineare associata a Q, rispetto
alla base B.
2. Scrivere la matrice A associata a , rispetto alla base B.
3. Considerato il vettore y = (1, 0, 1), determinare una base del sottospazio ortogo-
nale ad y rispetto a .
4. Classicare la forma quadratica Q, determinandone una forma canonica e una base
di R
3
rispetto alla quale Q si scrive in forma canonica.
Soluzione 1. Si tratta di scrivere lespressione polinomiale di (x, y) con x = (x
1
, x
2
, x
3
)
e y = (y
1
, y
2
, y
3
), tenendo conto che Q(x) = (x, x). Di conseguenza si ottiene:
(x, y) = x
1
y
1
+ 5x
2
y
2
+ x
3
y
3
+ x
1
y
2
+ x
2
y
1
+ 3x
1
y
3
+ 3x
3
y
1
+ x
2
y
3
+ x
3
y
2
.
`
E necessario prestare molta attenzione ai monomi del tipo 2x
1
x
2
nella forma qua-
dratica Q che diventa x
1
y
2
+x
2
y
1
nellespressione di (x, y), da non dimenticare
di dividere il coefciente per due!
2. La matrice richiesta ` e:
A =

1 1 3
1 5 1
3 1 1

,
infatti lelemento di posto a
11
coincide con il coefciente del termine x
1
y
1
che
compare nella forma bilineare , analogamente lelemento di posto a
12
coincide
con il coefciente del termine x
1
y
2
. La matrice ` e simmetrica in quanto ` e simme-
trica, e, quindi, per esempio il coefciente di x
1
y
2
coincide con quello di x
2
y
1
. Per
esercizio si controlli che:
(x, y) =
t
XAY
dove:
X =

x
1
x
2
x
3

, Y =

y
1
y
2
y
3

.
3. Il sottospazio vettoriale richiesto ` e formato dai vettori x = (x
1
, x
2
, x
3
) R
3
tali
che (x, y) = 0, in notazione matriciale si ha:

x
1
x
2
x
3

1 1 3
1 5 1
3 1 1

1
0
1

= 0
vale a dire:
x
1
x
3
= 0.
Capitolo 8 371
Pertanto il sottospazio vettoriale richiesto ha dimensione 2 ed una sua base ` e:
((1, 0, 1), (0, 1, 0)).
4. Per classicare la forma quadratica Q si pu` o per esempio procedere con il calcolo
degli autovalori della matrice A e della loro molteplicit` a. Operando come spiegato
nel Capitolo 7 si ottiene che gli autovalori di A sono:

1
= 3,
2
= 6,
3
= 2,
ciascuno di molteplicit` a 1. Nessuno degli autovalori ` e nullo, quindi Q ` e non dege-
nere. Si potrebbe anche ottenere questo risultato calcolando a priori il rango della
matrice A, che sar` a 3. Poich e due autovalori sono positivi e uno ` e negativo, la
forma Q ` e indenita. Non ` e richiesto, ma si pu` o osservare che la sua segnatura ` e
(2, 1). Una forma canonica di Q ` e:
Q(x) = 3(x

1
)
2
+ 6(x

2
)
2
2(x

3
)
2
.
Si osservi che il vettore x rispetto al quale ` e scritta Q ha, in questo caso, com-
ponenti (x

1
, x

2
, x

3
) e non (x
1
, x
2
, x
3
), infatti tali componenti sono riferite ad una
base ortonormale B

di autovettori della matrice A, che, come spiegato nel Teorema


8.15, ` e la base richiesta. Precisamente:
B

3
,
1

3
,
1

6
,
2

6
,
1

2
, 0,
1

.
Si faccia molta attenzione allordine dei vettori che compaiono nella base B

ri-
spetto allespressione della forma canonica scritta; infatti il primo vettore ` e un
autovettore dellautovalore
1
, il secondo di
2
e il terzo di
3
.
Esercizio 8.13 In R
3
, riferito alla base canonica B = (e
1
, e
2
, e
3
),
1. scrivere, rispetto alla base B, la matrice A della forma bilineare simmetrica tale
che siano vericate le seguenti condizioni:
a. (e
1
, e
1
) + (e
3
, e
3
) = 3,
b. (e
1
, e
1
) = 2(e
3
, e
3
) = 4(e
2
, e
3
),
c. (e
1
, e
2
) = (e
2
, e
3
),
d. i vettori e
3
e v = e
1
+e
2
+e
3
sono ortogonali rispetto a ,
e. il vettore e
2
` e isotropo rispetto alla forma quadratica Q associata a .
372 Forme Bilineari e Forme Quadratiche
2. Scrivere lespressione polinomiale della forma quadratica Q associata a .
3. Classicare Q, determinandone la sua forma normale ed una base rispetto alla quale
Q assume tale forma.
4. Dire se i vettori e
2
e u = e
1
+e
2
e
3
sono ortogonali rispetto a .
Soluzione 1. Si tratta di determinare gli elementi della matrice A associata a rispetto
alla base assegnata. Poich e A = (a
ij
) ` e una matrice simmetrica (ossia a
ij
= a
ji
) e
a
ij
= (e
i
, e
j
), le condizioni a., b., c. equivalgono al sistema lineare:

a
11
+ a
33
= 3
a
11
= 2a
33
= 4a
23
a
12
= a
23
,
le cui soluzioni sono:

a
11
= 2
a
12
= a
23
=
1
2
a
33
= 1.
La condizione d. equivale a:

1 1 1

0
0
1

1 1 1

2
1
2
a
13
1
2
a
22
1
2
a
13
1
2
1

0
0
1

= 0,
da cui si ottiene a
13
= 3/2.
La condizione e. equivale a a
22
= 0. Allora, la matrice A richiesta ` e:
A =

2
1
2
3
2
1
2
0
1
2
3
2
1
2
1

.
2. Dalla matrice A appena ricavata, segue che:
Q(x) = 2x
2
1
+ x
1
x
2
+ 3x
1
x
3
+ x
2
x
3
+ x
2
3
.
Capitolo 8 373
3. Il polinomio caratteristico della matrice A ` e dato da:
P() =
3
+ 3
2
+
3
4
.
da cui si ha che la forma quadratica ` e degenere (il polinomio caratteristico ha termi-
ne noto nullo), utilizzando la regola di Cartesio, si vede una sola variazione di segno
tra i coefcienti di P(), quindi la segnatura ` e (1, 1), pertanto la forma quadratica
` e indenita. La sua forma normale ` e:
Q(x) = z
2
1
z
2
2
.
Una base rispetto alla quale Q si scrive in forma normale si pu` o trovare determi-
nando dapprima una base ortonormale di autovettori di A, ad esempio:

f
1
=
1
2

3
(1 +

3, 1 +

3, 2), f
2
=
1
2

3
(1

3, 1

3, 2),
f
3
=
1

3
(1, 1, 1)

e poi operando sulla base ottenuta come spiegato nella dimostrazione del Teorema
8.16, ottenendo in questo modo la base:

3 + 2

3
f
1
,

3 + 2

3
f
2
, f
3

.
4. I vettori dati sono ortogonali, rispetto a se:

0 1 0

1
1
1

= 0.
Sostituendo lespressione di A, si ottiene effettivamente 0, pertanto i due vettori
dati sono ortogonali rispetto a .
Esercizio 8.14 Nello spazio R
3
, riferito alla base canonica B = (e
1
, e
2
, e
3
), si consideri
la forma bilineare simmetrica denita da:
(x, y) = x
1
y
1
+6x
2
y
2
+56x
3
y
3
2(x
1
y
2
+x
2
y
1
) +7(x
1
y
3
+x
3
y
1
) 18(x
2
y
3
+x
3
y
2
),
dove x = (x
1
, x
2
, x
3
), y = (y
1
, y
2
, y
3
) R
3
.
374 Forme Bilineari e Forme Quadratiche
1. Scrivere la matrice associata a rispetto alla base B.
2. Provare che i vettori e

1
= e
1
, e

2
= 2e
1
+ e
2
, e

3
= 3e
1
+ 2e
2
+ e
3
formano una
base di R
3
.
3. Scrivere la matrice associata a rispetto alla base B

= (e

1
, e

2
, e

3
).
4. Scrivere le espressioni polinomiali della forma quadratica Q associata a rispetto
alle basi B e B

.
Soluzione 1. La matrice associata alla forma bilineare rispetto alla base B ` e:
A = M
B,B
() =

1 2 7
2 6 18
7 18 56

2. Considerata la matrice P avente sulle colonne, ordinatamente, le componenti dei


vettori e

1
, e

2
, e

3
rispetto alla base B :
P =

1 2 3
0 1 2
0 0 1

,
si ha det(P) = 1 = 0 e perci ` o i vettori e

1
, e

2
, e

3
formano una base di R
3
.
3. La matrice del cambiamento di base da B a B

` e P. Pertanto, dal Teorema 8.2 si ha


che la matrice associata a rispetto alla base B

` e:
M
B

,B

() =
t
PAP =

1 0 0
0 2 0
0 0 1

.
4. Rispetto alla base B, lespressione polinomiale della forma quadratica Q associata
a ` e :
Q(x) = x
2
1
+ 6x
2
2
+ 56x
2
3
4x
1
x
2
+ 14x
1
x
3
36x
2
3
.
Tenendo conto della formula (8.6) lespressione polinomiale della forma quadratica
Q, rispetto alla base B

, ` e:
Q(x) = (x

1
)
2
+ 2(x

2
)
2
(x

3
)
2
,
doce con (x

1
, x

2
, x

3
) si indicano le componenti di x rispetto alla base B

.
Esercizio 8.15 Sia V
4
uno spazio vettoriale reale riferito alla base B = (v
1
, v
2
, v
3
, v
4
).
Capitolo 8 375
1. Determinare la matrice A delle generica forma bilineare simmetrica su V
4
tale
che:
a. le restrizioni di ai sottospazi vettoriali J
1
= L(v
1
, v
2
) e J
2
= L(v
3
, v
4
)
siano le forme bilineari nulle.
b. il vettore u = v
1
v
2
+ 2v
4
appartenga a ker .
2. Detto H il sottospazio vettoriale di B
s
(V
4
, R) (spazio vettoriale delle forme bili-
neari simmetriche su V
4
) generato dalle forme bilineari simmetriche determinate
nel punto 1., individuare una base di H.
Soluzione 1. Si ricordi che, se J V ` e un sottospazio vettoriale di uno spazio
vettoriale reale V, la restrizione a J di una forma bilineare simmetrica su V ` e
la funzione:
[
W
: J J R,
denita da:
[
W
(x, y) = (x, y),
con x, y J. Si verichi per esercizio che [
W
` e una forma bilineare simmetrica
su J. Sia A = (a
ij
) la matrice associata a rispetto alla base B. Le condizioni
richieste in a. equivalgono a:
(v
1
, v
1
) = (v
1
, v
2
) = (v
2
, v
2
) = 0,
(v
3
, v
3
) = (v
3
, v
4
) = (v
4
, v
4
) = 0,
che corrispondono a
a
11
= a
12
= a
22
= 0,
a
33
= a
34
= a
44
= 0.
Di conseguenza la matrice A ` e del tipo:
A =

0 0 a
13
a
14
0 0 a
23
a
24
a
13
a
23
0 0
a
14
a
24
0 0

.
La condizione b. equivale a:
(u, v
1
) = (u, v
2
) = (u, v
3
) = (u, v
4
) = 0,
che corrispondono a:
a
14
= a
24
= 0, a
13
= a
23
= h,
376 Forme Bilineari e Forme Quadratiche
con h R. Quindi, concludendo, si trovano innite matrici dipendenti dal parame-
tro h R :
A(h) =

0 0 h 0
0 0 h 0
h h 0 0
0 0 0 0

.
2. Considerando lisomorsmo tra B
s
(V
4
, R) e lo spazio vettoriale delle matrici sim-
metriche o(R
4,4
) denito dopo aver ssato la base B in V
4
si ha che il sottospazio
vettoriale H richiesto ` e formato dalle forme bilineari simmetriche associate alle
matrici A(h) ricavate nel punto precedente. Di conseguenza dim(H) = 1 ed una
sua base ` e per esempio data dalla forma bilineare simmetrica associata alla matrice
A(1).
8.8 Per saperne di pi ` u
8.8.1 Lo spazio vettoriale delle forme bilineari simmetriche
Sia V uno spazio vettoriale reale. Sullinsieme B
s
(V, R) delle forme bilineari simme-
triche si introducono le operazioni di somma di due forme bilineari simmetriche
1
,
2
,
come la funzione:

1
+
2
: V V R,
denita da:
(
1
+
2
)(x, y) =
1
(x, y) +
2
(x, y), x, y V (8.13)
e di prodotto di una forma bilineare simmetrica per uno scalare R come la funzione:
: V V R,
denita da:
()(x, y) = (x, y), x, y V, R. (8.14)
`
E immediato vericare che
1
+
2
e sono forme bilineari simmetriche e che vale il
seguente teorema.
Teorema 8.23 Linsieme B
s
(V, R) ha la struttura di spazio vettoriale su R, rispetto alle
operazioni di somma e prodotto per uno scalare, denite rispettivalmente in (8.13) e
(8.14).
Capitolo 8 377
Se dimV = n, ssata una base B di V , una forma bilineare simmetrica denita su V
individua una matrice simmetrica di R
n,n
. Viceversa, assegnando una matrice simmetrica
A = (a
ij
) o(R
n,n
), dal fatto che:
(x, y) =
n

i,j=1
a
ij
x
i
y
j
, x, y V,
viene individuata una forma bilineare simmetrica su V. Si ha quindi il seguente:
Teorema 8.24 Sia V uno spazio vettoriale reale di dimensione n. Fissata una base di V,
lo spazio vettoriale B
s
(V, R) delle forme bilineari simmetriche ` e isomorfo al sottospazio
vettoriale o(R
n,n
) delle matrici simmetriche di R
n,n
; esso ha quindi dimensione n(n +
1)/2.
La dimostrazione del teorema ` e lasciata come esercizio al Lettore.
8.8.2 Il determinante come forma p-lineare
Estendendo la Denizione 8.1 si pu` o introdurre il concetto di forma plineare che con-
duce in un caso particolare direttamente alla denizione di determinante di una matri-
ce quadrata. Questo approccio permette agevolmente di dimostrare le propriet ac dei
determinanti elencate nel Paragrafo 2.8.
Denizione 8.15 Sia V uno spazio vettoriale reale. Ogni applicazione:
: V V . . . V
. .. .
p volte
R,
lineare in ciascun argomento, prende il nome di forma plineare su V.
Osservazione 8.23 La denizione precedente ovviamente generalizza la denizione di
forma bilineare (cfr. Def. 8.1).
Esempio 8.22 Il prodotto misto di tre vettori nello spazio vettoriale V
3
, denito come la
funzione:
V
3
V
3
V
3
R,
(x, y, z) x y z
(cfr. De. 3.14) ` e un esempio di forma trilineare su V
3
.
Il prodotto misto dei vettori dello spazio ordinario ` e proprio lesempio da cui trae spunto
la denizione che segue:
378 Forme Bilineari e Forme Quadratiche
Denizione 8.16 Una forma plineare su uno spazio vettoriale reale V si dice anti-
simmetrica o alternata se:
(x
1
, . . . , x
i
, . . . , x
j
, . . . , x
p
) = (x
1
, . . . , x
j
, . . . , x
i
, . . . , x
p
),
per ogni x
1
, x
2
, . . . , x
p
in V e per ogni i, j = 1, 2, . . . , p.
Segue subito il:
Teorema 8.25 Sia una forma plineare antisimmetrica su uno spazio vettoriale reale
V. Se x
i
= x
j
, per una qualche scelta di i, j = 1, 2, . . . , p, allora (x
1
, x
2
, . . . , x
p
) = 0.
Esempio 8.23 Sia V uno spazio vettoriale di dimensione 2 con base B = (v
1
, v
2
). Dati
i vettori: x
1
= a
11
v
1
+a
12
v
2
, x
2
= a
21
v
1
+a
22
v
2
, si vuole calcolare lespressione di una
forma bilineare antisimmetrica : RR R, utilizzando lo stesso metodo introdotto
nel Paragrafo 8.1.1 per le forme bilineari simmetriche, ossia:
(x
1
, x
2
) =

a
11
a
12

(v
1
, v
1
) (v
1
, v
2
)
(v
2
, v
1
) (v
2
, v
2
)

a
21
a
22

a
11
a
12

0 (v
1
, v
2
)
(v
1
, v
2
) 0

a
21
a
22

= (a
11
a
22
a
12
a
21
)(v
1
, v
2
) =

a
11
a
12
a
21
a
22

(v
1
, v
2
).
In pratica, il valore di (x
1
, x
2
) e determinato dal suo valore sugli elementi della ba-
se (v
1
, v
2
), mentre il coefciente moltiplicativo e il determinante della matrice avente
come righe le componenti dei vettori. Si osservi inoltre che la matrice:

0 (v
1
, v
2
)
(v
1
, v
2
) 0

` e la matrice associata alla forma bilineare antisimmetrica rispetto alla base B e che ` e
una matrice antisimmetrica.
La situazione descritta nellesempio precedente si ripete in generale, come afferma il
Teorema seguente, la cui dimostrazione, solo un lungo calcolo, ` e lasciata al Lettore per
esercizio.
Teorema 8.26 Sia V uno spazio vettoriale reale di dimensione n e B = (v
1
, v
2
, . . . , v
n
)
una sua base. Dati i vettori:
Capitolo 8 379
x
1
= a
11
v
1
+ a
12
v
2
+ . . . + a
1n
v
n
x
2
= a
21
v
1
+ a
22
v
2
+ . . . + a
2n
v
n
.
.
.
x
n
= a
n1
v
1
+ a
n2
v
2
+ . . . + a
nn
v
n
e la forma nlineare antisimmetrica:
: V V . . . V
. .. .
n volte
R,
allora:
(x
1
, x
2
, . . . , x
n
) =

()a
1(1)
a
2(2)
. . . a
n(n)
(v
1
, v
2
, . . . , v
n
), (8.15)
dove ` e una permutazione di (1, 2, . . . , n) e () il suo segno. Di conseguenza ogni
forma nlineare antisimmetrica sullo spazio vettoriale V ` e univocamente determinata
dal valore (v
1
, v
2
, . . ., v
n
).
Vale anche il reciproco del teorema precedente, vale a dire:
Teorema 8.27 Sia V uno spazio vettoriale reale di dimensione n e sia B = (v
1
, v
2
, . . . , v
n
)
una sua base. Sia un numero reale, esite ed ` e unica la forma nlineare antisimmetrica
su V tale che (v
1
, v
2
, . . . , v
n
) = .
Dimostrazione
`
E lasciata al Lettore per esercizio.
Se V ` e uno spazio vettoriale reale di dimensione n con base B = (v
1
, v
2
, . . . , v
n
) si pu` o
dare la seguente:
Denizione 8.17 Si dice determinante degli n vettori x
1
, x
2
, . . . , x
n
rispetto alla base
B = (v
1
, v
2
, . . . , v
n
) il numero reale (x
1
, x
2
, . . . , x
n
) tale che (v
1
, v
2
. . . , v
n
) = 1.
Esempio 8.24 Se si considera lo spazio ordinario V
3
con una base ortonormale positiva
B = (i, j, k), allora il determinante dei tre vettori x, y, z coincide con il loro prodotto
misto:
det(x, y, z) = x y z, x, y, z V
3
,
in quanto i j k = 1, per denizione di base ortonormale positiva.
380 Forme Bilineari e Forme Quadratiche
Se si considerano le componenti degli n vettori x
1
, x
2
, . . . , x
n
dello spazio vettoriale
reale V rispetto alla base B = (v
1
, v
2
, . . . , v
n
) si ottiene una matrice A = (a
ij
) di R
n,n
,
i cui vettori riga sono:
x
1
= (a
11
, . . . , a
1n
),
x
2
= (a
21
, . . . , a
2n
),
.
.
.
x
n
= (a
n1
, . . . , a
nn
)
e si pu` o provare che la Denizione 8.17 di determinante degli n vettori coincide con la
denizione di determinante di matrice che ` e stata enunciata nel Capitolo 2 (cfr. Def. 2.9).
Infatti, data una matrice A R
n,n
, il det(A) ` e stato denito come:
det(A) =

()a
1(1)
a
2(2)
. . . a
n(n)
,
dove ` e una permutazione di (1, 2, . . . , n) e () il suo segno. Se si considerano gli n
vettori riga x
1
, x
2
, . . . x
n
della matrice A, si pu` o quindi osservare che:
det(A) = (x
1
, x
2
, . . . , x
n
),
dove ` e la forma n-lineare antisimmetrica su R
n
tale che:
(e
1
, e
2
, . . . , e
n
) = det I = 1
con (e
1
, e
2
, . . . , e
n
) base canonica di R
n
.
Dalla Denizione 8.17 segue il:
Teorema 8.28 Sia V uno spazio vettoriale reale di dimensione n. n vettori x
1
, x
2
, . . . , x
n
sono linearmente indipendenti se e solo se il determinante degli n vettori relativo ad una
qualsiasi base B = (e
1
, e
2
, . . . , e
n
) di V ` e diverso da zero.
Dimostrazione Se gli n vettori x
1
, x
2
, . . . , x
n
sono linearmente dipendenti, allora si
pu` o provare che il determinante degli n vettori si annulla. Questo vale pi ` u in generale per
ogni forma n-lineare antisimmetrica . Infatti, poich e x
1
, x
2
, . . . , x
n
sono linearmente
dipendenti, allora almeno uno di essi, che possiamo supporre essere x
1
, ` e combinazione
lineare degli altri:
x
1
=
2
x
2
+ . . . +
n
x
n
,
con
i
R e quindi:
(x
1
, x
2
, . . . , x
n
) =
2
(x
2
, x
2
, . . . , x
n
) + . . . +
n
(x
n
, x
2
, . . . , x
n
) = 0.
Capitolo 8 381
Abbiamo quindi provato che, se il determinante degli n vettori non si annulla, allo-
ra gli n vettori sono linearmente indipendenti. Viceversa, supponiamo che linsieme
x
1
, x
2
, . . . , x
n
sia libero e che per assurdo il loro determinante sia uguale a zero. Poich e
(x
1
, x
2
, . . . , x
n
) ` e una base di V , possiamo scrivere i vettori della base (e
1
, e
2
, . . . , e
n
)
come combinazioni lineari di x
1
, x
2
, . . . , x
n
:

e
1
= b
11
x
1
+ b
12
x
2
+ . . . + b
1n
x
n
,
e
2
= b
21
x
1
+ b
22
x
2
+ . . . + b
2n
x
n
,
.
.
.
e
n
= b
n1
x
1
+ b
n2
x
2
+ . . . + b
nn
x
n
.
Per denizione di determinante relativo alla base (e
1
, e
2
, . . . , e
n
) si avrebbe:
det(e
1
, . . . , e
n
) = 1 =

()b
1(1)
. . . b
n(n)
det(x
1
, . . . , x
n
)
e quindi si ottiene una contraddizione.
Osservazione 8.24 Abbiamo gi` a provato il precedente teorema dimostrando che una ma-
trice A di R
n,n
ha rango massimo n se e solo se il suo determinante e diverso da zero
(cfr. Teorema 2.15).
Utilizzando la Denizione 8.17 ` e possibile provare la formula di Binet per il determinante
del prodotto di due matrici (cfr. Teorema 2.16).
Teorema 8.29 Se A, B R
n,n
, allora det(AB) = det(A) det(B).
Dimostrazione Sia V uno spazio vettoriale reale di dimensione n con base B =
(e
1
, e
2
, . . . , e
n
). Date le matrici A = (a
ij
) e B = (b
ij
) di R
n,n
, consideriamo i vettori
riga della matrice B:

v
1
= b
11
e
1
+ . . . + b
1n
e
n
,
v
2
= b
21
e
1
+ . . . + b
2n
e
n
,
.
.
.
v
n
= b
n1
e
1
+ . . . + b
nn
e
n
ed i vettori (che non sono i vettori riga di A!):

u
1
= a
11
v
1
+ . . . + a
1n
v
n
,
u
2
= a
21
v
1
+ . . . + a
2n
v
n
,
.
.
.
u
n
= a
n1
v
1
+ . . . + a
nn
v
n
.
382 Forme Bilineari e Forme Quadratiche
Sia la forma n-lineare alternata tale che (e
1
, e
2
, . . . , e
n
) = 1.
Per denizione di derteminante si ha allora:
(v
1
, v
2
, . . . , v
n
) = det(B) (e
1
, e
2
, . . . , e
n
) = det(B),
(u
1
, u
2
, . . . , u
n
) = det(A) (v
1
, v
2
, . . . , v
n
),
da cui si ottiene:
(u
1
, u
2
, . . . , u
n
) = det(A) det(B).
Se si esprimono i vettori u
1
, . . . , u
n
come combinazioni lineari dei vettori della base B:
u
i
=
n

k=1
c
ik
e
k
,
e si ricavano le espressioni dei coefcienti c
ik
in termini di a
ij
e b
ij
, si ottiene:
c
ik
=
n

j=1
a
ij
b
jk
che ` e esattamente lelemento di posto ik del prodotto delle due matrici A e B. Quindi si
ha:
(u
1
, . . . , u
n
) = det(AB)(e
1
, . . . , e
n
) = det(AB),
da cui segue la tesi.
8.8.3 Legame con gli endomorsmi autoaggiunti
Se f ` e un endomorsmo autoaggiunto di uno spazio vettoriale euclideo (V, ) (cfr. Def.
6.11), la funzione Q : V R, denita da:
Q(x) = x f(x), x V, (8.16)
` e una forma quadratica su V e prende il nome di forma quadratica associata ad f.
Se dim(V ) = n e B = (e
1
, e
2
, . . . , e
n
) ` e una base ortonormale di V , allora la matrice
A = (a
ij
) = M
B,B
(f) associata a f rispetto alla base B ` e anche la matrice associata alla
precedente forma quadratica Q rispetto alla base B. Infatti, si ha:
Q(x) = x f(x) =
t
XAX,
dove X indica la matrice colonna formata dalle componenti (x
1
, x
2
, . . . , x
n
) di x rispetto
alla base B.
Capitolo 8 383
Inoltre, per denizione di Q, ` e facile vericare la seguente uguaglianza:
Q(x +y) = (x +y) f(x +y) = Q(x) +x f(y) +y f(x) + Q(y)
= Q(x) + 2x f(y) + Q(y),
(8.17)
per ogni x, y in V.
Esercizio 8.16 Vericare che la forma quadratica Q, denita da (8.16), ` e la forma qua-
dratica associata alla forma bilineare simmetrica , denita da:
(x, y) = x f(y).
Teorema 8.30 Sia (V, ) uno spazio vettoriale euclideo. Si ha una corrispondenza biuni-
voca tra endomorsmi simmetrici di (V, ) e forme quadratiche associate.
Dimostrazione Usando (8.16) sappiamo che un endomorsmo simmetrico f indivi-
dua una forma quadratica Q. Viceversa, dobbiamo provare che, data una forma quadrati-
ca Q, esiste un unico endomorsmo simmetrico corrispondente ad essa. Da (8.17) si ha
infatti che Q denisce un unico endomorsmo simmetrico f, mediante la relazione:
x f(y) =
1
2
Q(x +y)Q(x) Q(y).
8.8.4 Relazione con lo spazio vettoriale duale
Per il Teorema 6.19 se uno spazio vettoriale reale V ha dimensione nita, allora V ` e
isomorfo al suo spazio duale V

. Lisomorsmo tra i due spazi vettoriali non ` e per` o


canonico, perch e per denirlo occorre fare la scelta di una base di V . Scelte diverse
determinano isomorsmi diversi.
In generale, ogni forma bilineare su uno spazio vettoriale reale V denisce una coppia
di applicazioni lineari f
1
, f
2
: V V

da V nel suo spazio duale V

(cfr. Def. 6.12),


nel modo seguente:
f
1
(x)(y) = (x, y),
f
2
(x)(y) = (y, x), x, y V.
(8.18)
In altri termini, f
1
(x) ` e lelemento di V

che manda y in (x, y).


Viceversa, ogni applicazione lineare f : V V

denisce una forma bilineare su


V :
(x, y) = f(x)(y).
Se ` e una forma bilineare simmetrica, allora si ha che le due applicazioni lineari f
1
, f
2
denite da (8.18) coincidono, ossia determina lapplicazione lineare f : V V

denita da:
f(x)(y) = (x, y), x, y V, (8.19)
384 Forme Bilineari e Forme Quadratiche
e tale che f(x)(y) = f(y)(x), per ogni x, y V .
Si pu` o provare il seguente:
Teorema 8.31 Sia V uno spazio vettoriale reale di dimensione n. Ogni forma bilineare
simmetrica non degenere su V determina un isomorsmo f : V V

, denito da
(8.19). Viceversa, ogni isomorsmo f : V V

denisce mediante (8.19) una forma


bilineare simmetrica non degenere su V .
Dimostrazione Per dimostrare il teorema ` e sufciente provare che, se e f sono
collegati tra di loro dalla relazione (8.19), allora ker = ker f . Se x ker , allora
(x, y) = 0, per ogni y V e quindi f(x)(y) = 0, per ogni y V , ossia f(x) ` e la
forma lineare nulla. Pertanto x ker f . Analogamente, si prova che se x ker f , allora
x ker .
8.8.5 Cenni sugli spazi vettoriali pseudo-Euclidei
Gli spazi vettoriali euclidei possono quindi essere visti come spazi vettoriali reali dotati
di una forma bilineare simmetrica la cui forma quadratica associata sia denita positiva.
Nel caso in cui la forma quadratica sia non degenere e indenita lo spazio vettoriale reale
V si dice spazio vettoriale pseudo-euclideo.
Se ` e la forma bilineare che determina la struttura di spazio pseudo-euclideo, come per
gli spazi euclidei, si pone:
(x, y) = x y, x, y V
e x y si dice prodotto scalare dei due vettori x e y. Continuano a valere le prime tre
propriet` a della denizione di prodotto scalare su uno spazio vettoriale euclideo, ma non
vale pi u la quarta propriet` a in quanto la forma quadratica non ` e pi u denita positiva.
Se lo spazio vettoriale V ha dimensione n e (p, n p) ` e la segnatura di , una base
ortogonale (e
1
, . . . , e
n
) tale che Q(e
i
) = 1, 1 i p e Q(e
j
) = 1, p + 1 j n ` e
detta base ortonormale. Si osservi che una base ortonormale, come nel caso del prodotto
scalare su uno spazio vettoriale euclideo, ` e una base rispetto alla quale Q si scrive in
forma normale.
Con una terminologia suggerita dalla teoria della relativit` a, un vettore x si dice vettore
spaziale se Q(x) > 0, vettore temporale se Q(x) < 0. Se x ` e un vettore isotropo di Q,
x si dice vettore luce.
Nel caso particolare in cui n = 4 e la segnatura della forma quadratica Q sia (3, 1) si
ha lo spazio-tempo della teoria della relativit` a e lo spazio pseudo-Euclideo V prende il
nome di spazio di Minkowski.
Capitolo 8 385
8.8.6 Altri metodi di classicazione di una forma quadratica
In questo paragrafo si introdurranno due metodi diversi per classicare una forma quadra-
tica che non si basano sulla diagonalizzazione della matrice simmetrica associata alla for-
ma quadratica. Nel primo metodo si utilizza il calcolo di minori della matrice simmetrica,
mentre il secondo si basa sulla riduzione della matrice.
Ricordiamo che un minore di ordine k di una matrice A R
n,n
` e in generale ogni
determinante di una sottomatrice (quadrata) di ordine k di A (cfr. Def. ??).
Denizione 8.18 Sia A o(R
n,n
) una matrice simmetrica. I minori principali di ordine
k di A sono i minori che si ottengono considerando sottomatrici formate da k righe
e dalle corrispondenti k colonne. I minori principali di NordOvest (NO) di ordine k
di una matrice simmetrica A sono i minori principali che si ottengono considerando le
prime k righe (e quindi di conseguenza le prime k colonne).
Usando i minori principali di NO si pu` o pervenire agevolmente alla classicazione di una
forma quadratica. Infatti, si pu` o provare il seguente:
Teorema 8.32 Sia V uno spazio vettoriale reale. Una forma quadratica Q(x) =
t
XAX
su V ` e:
1. denita positiva se e solo se tutti i minori principali di NO di A sono positivi;
2. denita negativa se e solo se tutti i minori principali di NO di A di ordine pari sono
positivi e tutti i minori principali di NO di A di ordine dispari sono negativi;
3. semidenita positiva se e solo se tutti i minori principali di A sono non negativi e
det(A) = 0;
4. semidenita negativa se e solo se tutti i minori principali di A di ordine pari sono
non negativi, tutti i minori principali di A di ordine dispari sono non positivi e
det(A) = 0;
5. indenita se e solo se non si verica nessuna delle situazioni precedenti.
Per una dimostrazione si consulti ad esempio [4].
Esempio 8.25 Si consideri la forma quadratica su R
3
, denita rispetto alla base canonica
B = (e
1
, e
2
, e
3
) di R
3
, da:
Q(x) = 4x
2
1
2x
1
x
2
+ 2x
2
2
+ 2x
2
x
3
+ 2x
2
3
.
386 Forme Bilineari e Forme Quadratiche
La matrice associata A alla forma quadratica Q rispetto alla base B ` e:
A =

4 1 0
1 2 1
0 1 2

.
I tre minori principali di NO sono 4, 7 e 10, quindi la forma quadratica Q ` e denita
positiva.
Esempio 8.26 Consideriamo la forma quadratica su R
4
:
Q(x) = 4x
1
x
2
+ 2x
2
2
+ 2x
2
x
3
+ x
2
3
+ 4x
3
x
4
+ 2x
2
4
,
con x = (x
1
, x
2
, x
3
, x
4
). La matrice associata A alla forma quadratica Q rispetto alla
base canonica B = (e
1
, e
2
, e
3
, e
4
) di R
4
` e :
A =

0 2 0 0
2 2 1 0
0 1 1 2
0 0 2 2

.
La forma quadratica Q non ` e denita, poich e il primo minore principale di NO ` e nullo ed
il secondo minore principale di NO ` e negativo.
Si pu` o agevolmente ridurre a forma canonica una forma quadratica anche con una tecnica
che si basa sul metodo di riduzione delle matrici. Basta per questo osservare che la matrice
B ottenuta da una data matrice A con loperazione di colonna:
C
i
C
i
+ C
j
coincide con la matrice prodotto AE
i
dove E
i
` e la matrice che si ottiene dalla matrice
identit` a sulla quale ` e stata eseguita la medesima operazione di colonna.
Analogamente la matrice B ottenuta da una data matrice A con loperazione di riga:
R
i
R
i
+ R
j
coincide con la matrice prodotto
t
E
i
A, La matrice
t
E
i
non ` e altro che la matrice che si
ottiene dalla matrice identit` a sulla quale ` e stata eseguita la medesima operazione di riga.
Ci ` o premesso si eseguano contemporaneamente sulla matrice A eguali operazioni per le
righe e per le colonne no a ottenere una matrice diagonale D, avendo lavvertenza di
fare in modo che il nuovo elemento a
ii
sia non nullo. Le matrici A e D risultano allora
legate dalla relazione:
D =
t
E
n
. . .
t
E
2
t
E
1
AE
1
E
2
. . . E
n
=
t
(E
1
E
2
. . . E
n
)AE
1
E
2
. . . E
n
.
Posto P = E
1
E
2
. . . E
n
, si osserva che tale matrice P si pu` o ottenere dalla matrice
identit` a I sulla quale si siano eseguite, nellordine, le operazioni di colonna considerate.
Capitolo 8 387
Esercizio 8.17 Si riduca a forma canonica la forma quadratica su R
3
, denita rispetto
alla base canonica di R
3
da:
Q(x) = 4x
1
x
2
+ x
2
2
2x
1
x
3
+ 4x
2
x
3
.
Soluzione Sulla matrice:
A =

0 2 1
2 1 2
1 2 0

,
associata alla forma quadratica Q, rispetto alla base canonica di R
3
, si operi come segue:

0 2 1
2 1 2
1 2 0


R
1
R
1
R
3

1 0 1
2 1 2
1 2 0


C
1
C
1
C
3

2 0 1
0 1 2
1 2 0

2 0 1
0 1 2
1 2 0


R
3
R
3
+ 1/2 R
1

2 0 1
0 1 2
0 2
1
2


C
3
C
3
+ 1/2 C
1

2 0 0
0 1 2
0 2
1
2

2 0 0
0 1 2
0 2
1
2


R
3
R
3
2R
2

2 0 0
0 1 2
0 0
9
2


C
3
C
3
2C
2

2 0 0
0 1 0
0 0
9
2

Una forma canonica di Q(x) ` e allora:


Q(x) = 2y
2
1
+ y
2
2

9
2
y
2
3
e la matrice del relativo cambiamento di base ` e P dove:

1 0 0
0 1 0
0 0 1

C
1
C
1
C
3
C
3
C
3
+ 1/2 C
1
C
3
C
3
2C
2

1 0
1
2
0 1 2
1 0
1
2

= P.
(Attenzione al fatto che 2, 1, 9/2 non sono gli autovalori di A!)
388 Forme Bilineari e Forme Quadratiche
Esercizio 8.18 Nello spazio vettoriale R
3
, riferito alla base canonica B = (e
1
, e
2
, e
3
), si
consideri la forma bilineare simmetrica , denita da:
(x, y) = 2x
1
y
1
+ 3x
2
y
2
+
28
5
x
3
y
3
x
1
y
2
x
2
y
1
2x
1
y
3
2x
3
y
1
+ 4x
2
y
3
+ 4x
3
y
2
,
per ogni x = (x
1
, x
2
, x
3
), y = (y
1
, y
2
, y
3
) R
3
e sia Q la forma quadratica associata.
i) Scrivere la matrice associata alla forma bilineare simmetrica rispetto a B e
calcolare il suo rango.
ii) Determinare ker .
iii) Provare che B

= ((1, 1, 1), (2, 1, 2), (1, 3, 3)) ` e una base di R


3
e determinare
la matrice associata a i rispetto a B

.
iv) Determinare una forma canonica della forma quadratica Q e la sua segnatura.
Soluzione i) La matrice associata alla forma bilineare rispetto a B ` e:
A =

2 1 2
1 3 4
2 4
28
5

.
Si controlla facilmente che il rango di ` e 2.
ii) Si ha:
ker = x R
3
[ (x, y) = 0, y R
3
.
Le componenti del vettore x ker sono le soluzioni del sistema lineare omogeneo:

(x, e
1
) = 2x
1
x
2
2x
3
= 0
(x, e
2
) = x
1
+ 3x
2
+ 4x
3
= 0
(x, e
3
) = 2x
1
+ 4x
2
+
28
5
x
3
= 0,
che si possono determinare, ad esempio, attraverso i seguenti passi di riduzione sulla
matrice A:
A =

2 1 2
1 3 4
2 4
28
5

R
2
R
2
+ 1/2 R
1
R
3
R
3
+ R
1

2 1 2
0
5
2
3
0 3
18
5

Capitolo 8 389

R
3
R
3
6/5 R
2

2 1 2
0
5
2
3
0 0 0

.
Dal sistema equivalente:

2x
1
x
2
2x
3
= 0
5x
2
+ 6x
3
= 0,
si ottengono le soluzioni x
1
= 2, x
2
= 6, x
3
= 5. Pertanto ker = L((2, 6, 5)).
iii) Posto
P =

1 2 1
1 1 3
1 2 3,

si ha det(P) = 12 = 0 e perci ` o i vettori di B formano una base di R


3
. La matrice di
rispetto alla nuova base B

` e :
A

=
t
PAP =

1 2 1
2 1 2
1 3 3

2 1 2
1 3 4
2 4
28
5

1 2 1
1 1 3
1 2 3

=
1
5

93 51 49
36 27 2
29 2 67

.
iv) Si ha:
Q(x) = 2x
2
1
+ 3x
2
2
+
28
5
x
2
3
2x
1
x
2
4x
1
x
3
+ 8x
2
x
3
.
Usando il metodo di riduzione di Gauss-Lagrange, si pu` o scrivere:
Q(x) =
1
2
(2x
1
x
2
2x
3
)
2
+
5
2
x
2
2
+
18
5
x
2
3
+ 6x
2
x
3
=
1
2
(2x
1
x
2
2x
3
)
2
+
5
2

x
2
+
6
5
x
3

2
.
Di conseguenza mediante il cambiamento di variabili:

1
= 2x
1
x
2
2x
3
x

2
= x
2
+
6
5
x
3
x

3
= x
3
,
390 Forme Bilineari e Forme Quadratiche
si ottiene la forma canonica:
Q(x) =

1
2

2x
2
1
+

5
2

x
2
2
.
La forma Q ` e pertanto degenere, semidenita positiva e di segnatura (2, 0).
Capitolo 9
Geometria Analitica nel Piano
Scopo della Geometria Analitica ` e la rappresentazione, tramite equazioni, di luoghi geo-
metrici del piano e dello spazio. In questo capitolo si presenta un rapido riassunto della
geometria analitica del piano, cercando di evidenziarne le caratteristiche salienti mediante
luso del calcolo vettoriale, trattato nel Capitolo 3, a cui si far` a costante riferimento. Gli
argomenti di seguito esposti fanno parte dei programmi delle scuole secondarie superio-
ri, anche se in quella sede, non sono in generale introdotti con il metodo qui usato. Per
questo motivo, questo capitolo pu` o essere anche omesso nellinsegnamento di un corso
universitario. Daltra parte per` o lapproccio della geometria analitica tramite il calcolo
vettoriale sar` a fondamentale nello studio della geometria analitica nello spazio (cfr. Cap.
11). Vengono, inoltre, deniti due tipi di sistemi di riferimento nel piano: il riferimen-
to cartesiano ed il riferimento polare. Il loro uso sar` a di primaria importanza in questo
capitolo ed in quello successivo.
9.1 Il riferimento cartesiano, generalit` a
Si inizia con lintroduzione del riferimento cartesiano, costituito da due rette perpendico-
lari orientate nel piano S
2
. Il loro punto di incontro O ` e detto origine del riferimento, la
retta orizzontale prende il nome di asse delle ascisse o asse x, la retta verticale ` e lasse
delle ordinate o asse y. Si denisce lorientamento verso destra sullasse x e verso lalto
sullasse y, si rappresentano i numeri reali su entrambe le rette e si pone il numero 0 nel
punto di intersezione delle due rette. Si viene cos` a creare una corrispondenza biunivoca
tra i punti del piano e le coppie di numeri reali come rappresentato nella Figura 9.1. Ogni
punto P ha coordinate cartesiane:
P = (x, y),
391
392 Geometria Analitica nel Piano
O
P
x
y
I II
III IV
Figura 9.1: Riferimento cartesiano
B
A
O
Figura 9.2: Componenti del vettore

AB
Capitolo 9 393
x ` e lascissa di P e y ` e lordinata di P. Il piano viene diviso in quattro regioni, dette
quadranti, che, per convenzione, sono numerate in senso antiorario, a partire dal semiasse
positivo delle x. Se si indica con i il versore a cui ` e parallelo lasse x, concorde con lo-
rientamento di x, e con j il versore a cui ` e parallelo lasse y, concorde con lorientamento
di y, il segmento orientato

OP si pu` o ottenere come:

OP = xi + yj. (9.1)
Analogamente a quanto visto nel Paragrafo 3.1, si identica il vettore x con il punto P
dato da x =

OP . Di conseguenza, S
2
coincide con i vettori dello spazio vettoriale di
dimensione 2 che verr` a indicato con V
2
. Allora si stabilisce anche una corrispondenza
biunivoca tra i punti P del piano e le componenti (x, y) del vettore x, scritte rispetto alla
base ortonormale positiva B = (i, j).
Le componenti di un vettore x, con rappresentante il segmento orientato

AB, che si pu` o
anche scrivere come BA, si possono ottenere in questo modo:
BA = (BO)(AO) = (x
B
x
A
)i + (y
B
y
A
)j. (9.2)
Se A o B coincidono con lorigine del riferimento, la relazione (9.2) si riduce a (9.1). La
situazione geometrica ` e illustrata nella Figura 9.2.
Il riferimento cartesiano sar` a indicato con il simbolo 1 = (O, x, y) o equivalentemente,
con 1 = (O, i, j), se si intende mettere in evidenza la base ortonormale positiva B = (i, j)
a cui ` e riferito.
O
A
B
x
y
Figura 9.3: Distanza tra i punti A e B
394 Geometria Analitica nel Piano
9.1.1 Distanza tra due punti
Dati due punti A = (x
A
, y
A
) e B = (x
B
, y
B
) nel piano, la loro distanza d(A, B) si
ottiene con la formula:
d(A, B) =

(x
B
x
A
)
2
+ (y
B
y
A
)
2
, (9.3)
la cui dimostrazione ` e una conseguenza evidente del Teorema di Pitagora, la situazione
geometrica ` e illustrata nella Figura 9.3.
La distanza d(A, B), dal punto di vista del calcolo vettoriale, pu` o essere anche inter-
pretata come la norma del vettore

AB le cui componenti sono date da (9.2), quindi, la
formula (9.3) segue dal calcolo della norma di un vettore mediante le sue componenti
scritte rispetto ad una base ortonormale (cfr. Oss. 3.14).
Esercizio 9.1 Calcolare le coordinate del punto P appartenente allasse x ed equidistante
dai punti A = (1, 3) e B = (5, 1).
Soluzione Il punto P appartiene allasse x se ha ordinata uguale a 0, ossia P = (x, 0),
imponendo d(A, P) = d(B, P) si ha:
(x 1)
2
+ 3
2
= (x 5)
2
+ 1
2
da cui segue x = 2.
9.1.2 Punto medio di un segmento
Dati due punti A = (x
A
, y
A
) e B = (x
B
, y
B
) le coordinate del punto medio M del
segmento AB sono:
M =

x
A
+ x
B
2
,
y
A
+ y
B
2

.
Ad esempio il punto medio del segmento di estremi i punti A = (2, 2) e B = (0, 6) ` e il
punto M = (1, 2).
9.1.3 Baricentro di un triangolo
Dati tre punti A = (x
A
, y
A
), B = (x
B
, y
B
) e C = (x
C
, y
C
) non allineati, il baricentro G
del triangolo da essi individuato ha coordinate:
G =

x
A
+ x
B
+ x
C
3
,
y
A
+ y
B
+ y
C
3

.
Questa formula pu` o essere dimostrata con considerazioni geometriche elementari, a par-
tire dalla Figura 9.4 oppure si pu` o ottenere come conseguenza della Denizione 11.1.
Capitolo 9 395
-1 1 2 3 4 5 6 7
-3
-2
-1
1
2
3
4
5
O
A
C
B
G
Figura 9.4: Baricentro del triangolo ABC
9.2 Luoghi geometrici del piano
Linsieme dei punti del piano che vericano una determinata propriet` a costituisce un luo-
go geometrico. In questo paragrafo si descrivono due luoghi geometrici del piano: lasse
di un segmento e la circonferenza. Si rimanda al Capitolo 9 del II Volume di Esercizi, per
lo studio di altri luoghi geometrici del piano.
Esempio 9.1 Asse di un segmento Dati due punti distinti nel piano A = (x
A
, y
A
)
e B = (x
B
, y
B
), lasse del segmento AB ` e il luogo geometrico dei punti P = (x, y)
equidistanti da A e da B. Quindi dalla relazione d(A, P) = d(B, P) segue:
(x x
A
)
2
+ (y y
A
)
2
= (x x
B
)
2
+ (y y
B
)
2
,
da cui:
2(x
A
x
B
)x + 2(y
A
y
B
)y + x
2
B
+ y
2
B
x
2
A
y
2
A
= 0
che ` e lequazione del luogo richiesto. Si osservi che si tratta di unequazione di primo
grado in x e y e si osservi anche che, dal punto di vista geometrico, lasse di un segmen-
to ` e la retta perpendicolare al segmento nel suo punto medio, come rappresentato nella
Figura 9.5. Si ritorner` a su questo argomento nel Paragrafo 9.9.
Esempio 9.2 La circonferenza La circonferenza di centro C e raggio r ` e il luogo
dei punti P = (x, y) del piano aventi distanza r 0 dal punto C = (, ). Imponendo:
d(P, C)
2
= r
2
396 Geometria Analitica nel Piano
A M B
Figura 9.5: Asse del segmento AB
C
r
Figura 9.6: Circonferenza di centro C e raggio r
Capitolo 9 397
si ottiene:
x
2
+ y
2
2x 2y +
2
+
2
r
2
= 0.
Si tratta di una particolare equazione di secondo grado in x e y che sar` a studiata in
dettaglio nel Paragrafo 10.1.
Ricordando che il gruppo delle matrici unitarie U(1) (cfr. Es. 5.22) ` e denito da:
U(1) = z C [ [z[ = 1
ed usando lidenticazione tra i numeri complessi ed il punti del piano data da:
z = x + iy = (x, y), z C,
segue che U(1) rappresenta la circonferenza nel piano di centro lorigine e raggio 1.
Pu` o rivelarsi molto pi` u complicato il problema inverso, vale a dire, data unequazione in
x e y, studiare il luogo geometrico individuato dai punti P = (x, y) che la vericano. A
tale scopo si procede proponendo una serie di esempi ed esercizi.
Esercizio 9.2 Vericare che la curva di equazione:
y = x
2
+ x + 3
passa per i punti A = (1, 1) e B = (2, 1) e non passa per O = (0, 0) e C = (5, 0).
Soluzione Un punto appartiene al luogo geometrico descritto da unequazione se e solo
se le sue coordinate vericano lequazione stessa. Quindi A appartiene alla curva data
perch e 11+3 = 1, verica analoga per B. Lorigine, invece, non appartiene a questa
curva perch e 3 = 0, analoga verica per C.
Esercizio 9.3 Come si fa a capire se lorigine del sistema di riferimento appartiene ad un
luogo geometrico?
Soluzione Dalle considerazioni precedenti segue che tutte e sole le equazioni in x, y
con termine noto uguale a zero rappresentano luoghi geometrici passanti per lorigine.
Per esempio x
2
+ 2x = 0 ` e una curva passante per O.
Esercizio 9.4 Determinare i punti P = (a, a + 3), a R, appartenenti alla curva di
equazione:
2y
2
9(x + 2) = 0. (9.4)
398 Geometria Analitica nel Piano
Soluzione Sostituendo le coordinate di P nellequazione (9.4) si ha:
2(a + 3)
2
9(a + 2) = 0
da cui segue a
1
= 3/2 e a
2
= 0. Quindi si ottengono i punti:
P
1
= (0, 3), P
2
=

3
2
,
3
2

.
9.3 Riferimento polare
Per rappresentare i punti nel piano si possono usare, oltre alle coordinate cartesiane, altri
tipi di coordinate, tra cui le coordinate polari, la scelta del sistema di riferimento ` e legata
alla problematica che si sta studiando.
Si intende, quindi, introdurre la nozione di riferimento polare nel piano, che ` e un sistema
di riferimento alternativo al riferimento cartesiano per individuare la posizione dei punti
nel piano. Esso ` e costituito da un punto O, detto polo, e da una semiretta orientata
uscente da O, detta asse polare.
`
E chiaro che ogni punto P del piano (ad eccezione del
polo) si pu` o individuare mediante la sua distanza = d(P, O) dal polo e mediante la
misura dellangolo , detto anomalia, che il segmento OP forma con lasse polare, con
le condizioni 0 e 0 < 2. Tale distanza prende il nome di raggio vettore.
Riassumendo ogni punto del piano, ad eccezione del polo, ` e individuato da una sola
coppia di numeri:
P = (, ), 0, 0 < 2,
che ne costituiscono le sue coordinate polari nel piano. La situazione geometrica ` e
illustrata nella Figura 9.7.
Per esempio la circonferenza di centro il polo e raggio 2 ha equazione, in coordinate
polari, =

2.
Si vogliono ora individuare le relazioni che legano le coordinate polari e le coordina-
te cartesiane di uno stesso punto rispetto ad un riferimento polare e ad un riferimento
cartesiano opportunamente posizionati. Introducendo, infatti, un sistema di riferimento
cartesiano 1 = (O, x, y) avente lorigine O coincidente con il polo e lasse x con lasse
polare, si perviene, facilmente, alle formule di passaggio dalle coordinate polari (, ) a
quelle cartesiane (x, y) di un generico punto P del piano, e precisamente:

x = cos
y = sin , 0, 0 < 2.
(9.5)
La situazione geometrica ` e illustrata nella Figura 9.8.
Capitolo 9 399
P
O

Figura 9.7: Coordinate polari nel piano


P

x
y
Figura 9.8: Coordinate polari e coordinate cartesiane del punto P
400 Geometria Analitica nel Piano
Le limitazioni imposte a e a possono causare inconvenienti nello studio di determinati
fenomeni, dovuti, in particolare, al brusco passaggio di dal valore pi` u vicino a 2 o a
0. Per evitare questo problema, conviene introdurre le coordinate polari generalizzate nel
modo seguente. Se P ` e un punto di coordinate polari (, ) ` e chiaro che le coppie di
numeri reali (, + ) e (, + 2) corrispondono rispettivamente, dal punto di vista
geometrico, allo stesso punto P. Si pu` o quindi associare allo stesso punto P un insieme
di coordinate polari tra di loro equivalenti e scrivere:
P = ((1)
k
, + k), k Z,
che prendono il nome di coordinate polari generalizzate del punto P del piano.
9.4 Traslazione degli assi
Un altro metodo che pu` o essere utile nello studio dei luoghi geometrici ` e quello di scri-
vere lequazione del luogo in un nuovo sistema di riferimento ottenuto mediante una
traslazione degli assi.
O
O'
P
y
x
Y
X
Figura 9.9: Traslazione degli assi
Nel riferimento 1 = (O, x, y) si deniscono una nuova origine nel punto O

= (x
0
, y
0
)
e i nuovi assi X e Y, passanti per O

, paralleli e concordi a x e a y. Si ottiene cos` un


nuovo riferimento cartesiano 1

= (O

, X, Y ) che ` e traslato rispetto al precedente. Si


vogliono determinare le relazioni che legano le coordinate di un generico punto P del
piano rispetto ai due riferimenti. Sia P = (x, y) nel riferimento 1 e P = (X, Y ) nel
Capitolo 9 401
riferimento 1

. Dalla Figura 9.9 segue:

x = x
0
+ X
y = y
0
+ Y,
(9.6)
oppure:

X = x
0
+ x
Y = y
0
+ y.
Si consideri, per esempio, il punto O

= (1, 2) e le equazioni della traslazione dal


riferimento 1

al riferimento 1:

x = 1 + X
y = 2 + Y,
da cui si deduce che lasse X, rispetto al riferimento 1, ha equazione y = 2 e lasse Y
ha equazione x = 1.
Si osservi che nel riferimento 1 = (O, x, y) e nel riferimento traslato 1

= (O

, X, Y )
la base ortonormale positiva B = (i, j) che li determina non cambia. In altri termini la
traslazione di assi non induce alcun cambiamento di base in V
2
.
Esercizio 9.5 Data la curva di equazione:
9x
2
+ 9y
2
24x 30y 13 = 0, (9.7)
determinare la sua equazione nel riferimento traslato 1

= (O

, X, Y ), dove:
O

4
3
,
5
3

.
Soluzione Le equazioni della traslazione da 1

a 1 sono:

x =
4
3
+ X
y =
5
3
+ Y,
che sostituite nellequazione assegnata portano a:
X
2
+ Y
2
= 6.
Adesso ` e chiaro che lequazione (9.7) rappresenta una circonferenza di centro lorigine
O

del nuovo riferimento e raggio



6.
402 Geometria Analitica nel Piano
Esercizio 9.6 Un punto P ha coordinate (2, 3) nel riferimento 1 = (O, x, y) e coor-
dinate (4, 6) nel riferimento traslato 1 = (O

, X, Y ). Determinare le coordinate del


punto O

rispetto al sistema di riferimento 1 = (O, x, y).


Soluzione Sostituendo le coordinate di P in (9.6) si ha:

2 = x
0
+ 4
3 = y
0
6
da cui segue O

= (6, 9).
Esercizio 9.7 Determinare la traslazione con cui si deve operare sugli assi afnch e le-
quazione:
y = x
2
+ 3x 2
si trasformi in:
Y = X
2
.
Soluzione Sostituendo (9.6) nella prima equazione si ha:
Y = X
2
+ (2x
0
+ 3)X x
2
0
+ 3x
0
2 y
0
,
da cui segue:

2x
0
+ 3 = 0
x
2
0
3x
0
+ 2 + y
0
= 0
quindi x
0
= 3/2, y
0
= 1/4.
Esercizio 9.8 Operando con il metodo del completamento dei quadrati individuare unop-
portuna traslazione che permetta di studiare la curva di equazione:
x
2
+ y
2
+ 2x + 3y = 0.
Soluzione Il metodo del completamento dei quadrati (generalmente insegnato nelle
scuole superiori per dimostrare la formula risolutiva delle equazioni di secondo grado)
consiste nel sommare e sottrarre numeri opportuni in modo da far comparire dei quadrati
di binomi. Nel nostro caso si ha:
(x
2
+ 2x + 1) +

y
2
+ 3y +
9
4

1
9
4
= 0;
(x + 1)
2
+

y +
3
2

2
=
13
4
.
Capitolo 9 403
Operando con la traslazione:

X = 1 + x
Y =
3
2
+ y
si ottiene, nel nuovo riferimento, lequazione:
X
2
+ Y
2
=
13
4
che quindi rappresenta la circonferenza di centro O

1,
3
2

e raggio

13
2
.
9.5 Simmetrie
Un altro metodo per studiare il graco di una curva, di cui si conosce lequazione, ` e
cercarne le eventuali simmetrie rispetto agli assi coordinati o rispetto allorigine del rife-
rimento.
P' P
y
Figura 9.10: Curva simmetrica rispetto allasse delle ordinate
9.5.1 Curva simmetrica rispetto allasse delle ordinate
Una curva ` e simmetrica rispetto allasse y se per ogni punto P = (x, y) appartenente
alla curva anche il punto P

= (x, y) appartiene alla curva. Per esempio la curva di


equazione x
2
+ y + 5 = 0 ` e simmetrica rispetto allasse y mentre la curva di equazione
x
2
+ x + y + 5 = 0 non lo ` e. La situazione geometrica ` e illustrata nella Figura 9.10.
404 Geometria Analitica nel Piano
9.5.2 Curva simmetrica rispetto allasse delle ascisse
Una curva ` e simmetrica rispetto allasse x se per ogni punto P = (x, y) appartenente
alla curva anche il punto P

= (x, y) appartiene alla curva. Per esempio la curva di


equazione x + y
2
+ 5 = 0 ` e simmetrica rispetto allasse x mentre la curva di equazione
x + y + 5 = 0 non lo ` e. La situazione geometrica ` e illustrata nella Figura 9.11.
P
P'
x
Figura 9.11: Curva simmetrica rispetto allasse delle ascisse
9.5.3 Curva simmetrica rispetto allorigine
Una curva ` e simmetrica rispetto allorigine del riferimento se per ogni punto P = (x, y)
appartenente alla curva anche il punto P

= (x, y) appartiene alla curva. Per esempio


la curva di equazione x
2
+ y
2
= 5 ` e simmetrica rispetto allorigine mentre la curva di
equazione x
2
+x +y +5 = 0 non lo ` e. La situazione geometrica ` e illustrata nella Figura
9.12.
Esercizio 9.9 Vericare che la curva di equazione x
3
+ y
3
+ 3x 2y = 0 ` e simmetrica
rispetto allorigine.
Soluzione Dato il punto P

= (x y), si sostituiscono le sue coordinate nellequa-


zione data e si ha:
(x)
3
+ (y)
3
+ 3(x) 2(y) = (x
3
+ y
3
+ 3x 2y) = 0,
da cui si deduce che la curva assegnata ` e simmetrica rispetto allorigine.
Esercizio 9.10 Vericare che la curva di equazione:
4x
2
+ 9y
2
+ 8x + 36y 68 = 0 (9.8)
` e simmetrica rispetto al punto C = (1, 2).
Capitolo 9 405
P
P'
Figura 9.12: Curva simmetrica rispetto allorigine
C
Figura 9.13: Esercizio 9.10
406 Geometria Analitica nel Piano
Soluzione Il problema si risolve traslando la curva nel riferimento 1

= (C, X, Y ) e
poi dimostrando che lequazione ottenuta ` e simmetrica rispetto allorigine. Le equazioni
della traslazione sono:

x = 1 + X
y = 2 + Y
e, se sostituite in (9.8), portano a:
4X
2
+ 9Y
2
= 108
che denisce una curva simmetrica rispetto allorigine del riferimento 1

= (C, X, Y ),
si tratta dellellisse rappresentato in Figura 9.13.
9.6 Retta nel piano
In questo paragrafo sono descritti metodi diversi per rappresentare una retta nel piano
rispetto ad un riferimento cartesiano 1 = (O, i, j) = (O, x, y) ssato.
Una retta r nel piano si pu` o individuare, alternativamente, assegnando:
1. un punto P
0
della retta r ed un vettore r non nullo parallelo a r;
2. un punto P
0
della retta r ed un vettore n non nullo ortogonale a r;
3. due punti distinti A e B della retta r.
In particolare si dimostrer` a che ogni equazione lineare in x e y del tipo ax +by +c = 0,
con a, b, c R, (a, b) = (0, 0), rappresenta una retta. Viceversa ogni retta del piano ` e
rappresentabile tramite unequazione lineare in x, y del tipo suddetto.
9.6.1 Retta per un punto parallela ad un vettore
Sia r la retta passante per il punto P
0
parallela ad un vettore r = o. Un punto P
appartiene alla retta r se e solo se il vettore

P
0
P ` e parallelo al vettore r (cfr. Fig. 9.14).
Risulta:
r = P S
2
[

P
0
P = t r, t R,
ossia:
r : P = P
0
+ t r, t R. (9.9)
Capitolo 9 407
P
0
P
r
Figura 9.14: Retta passante per il punto P
0
e parallela al vettore r
La relazione (9.9) ` e detta equazione vettoriale parametrica di r, t R ` e il parametro al
variare del quale P descrive la retta r.
Siano P
0
= (x
0
, y
0
) e P = (x, y) le coordinate cartesiane di P
0
e P, rispettivamente, e
siano (l, m) le componenti del vettore r rispetto alla base ortonormale positiva B = (i, j).
Lequazione (9.9) equivale a:

x = x
0
+ lt
y = y
0
+ mt, t R,
(9.10)
che sono le equazioni parametriche di r, le componenti (l, m) prendono il nome di
parametri direttori di r.
Osservazione 9.1 Siano (l, m) i parametri direttori di una retta r, allora:
1. (l, m) = (0, 0) e sono individuati a meno di un fattore moltiplicativo. In altri
termini, ssato il punto P
0
ogni vettore non nullo parallelo al vettore r individua la
retta r.
2. Se l = 0 (o m = 0) la retta r ` e parallela allasse y (o allasse x).
3. La retta r ammette innite equazioni parametriche diverse, ` e sufciente individuare
r mediante un suo punto qualsiasi e un qualsiasi vettore ad essa parallelo.
408 Geometria Analitica nel Piano
4. I coseni degli angoli che la retta r forma con gli assi coordinati prendono il nome di
coseni direttori della retta r, il loro valore ` e calcolato mediante il generico vettore
r = o parallelo a r ed ` e dato da:
cos(

ri) =
l

l
2
+ m
2
, cos(

rj) =
m

l
2
+ m
2
(cfr. Oss. 3.14). Inoltre, i coseni direttori sono individuati a meno del segno.
Esercizio 9.11 Determinare le equazioni parametriche della retta r passante per il punto
P
0
= (1, 3) e parallela al vettore r = 2i 5j e calcolarne i coseni direttori.
Soluzione Le equazioni parametriche di r sono:

x = 1 + 2t
y = 3 5t, t R;
(9.11)
per i coseni direttori si ha:
cos(

ri) =
2

29
, cos(

rj) =
5

29
.
Si osservi che sostituendo t = 0 in (9.11) si ottiene il punto P
0
. Per t = 1 si ottiene il
punto A = (1, 2), pertanto la retta r si pu` o anche rappresentare come:

x = 1 + 4t

y = 2 10t

, t

R.
Osservazione 9.2 Se in (9.10) si limita il valore di t ad intervalli della retta reale si
rappresentano i punti di segmenti della retta r. Se, invece, si chiede che t assuma solo
valori reali positivi o nulli si rappresenta una semiretta di origine P
0
, si ottiene la semiretta
opposta limitando t a valori reali negativi o nulli.
9.6.2 Retta per un punto ortogonale ad un vettore
Sia r la retta passante per il punto P
0
ortogonale ad un vettore n = o. Un punto P
appartiene alla retta se se e solo se il vettore

P
0
P ` e ortogonale a n (cfr. Fig. 9.15) Si ha:
r = P S
2
[

P
0
P n = 0, (9.12)
dove

P
0
P n indica il prodotto scalare tra i vettori

P
0
P e n (cfr. Oss. 3.14).
Capitolo 9 409
P
0
P
n
Figura 9.15: Retta passante per il punto P
0
e ortogonale al vettore n
Siano P
0
= (x
0
, y
0
) e P = (x, y) le coordinate di P
0
e di P rispettivamente, siano (a, b)
le componenti del vettore n rispetto alla base ortonormale positiva B = (i, j), lequazione
(9.12) equivale a:
a(x x
0
) + b(y y
0
) = 0. (9.13)
Ponendo il termine noto ax
0
by
0
= c, segue che lequazione richiesta ` e:
ax + by + c = 0 (9.14)
che ` e detta equazione cartesiana di r, dove (a, b) = (0, 0) sono le componenti di un qual-
siasi vettore non nullo ortogonale a r e sono date a meno di una costante di proporzionalit` a
non nulla.
Osservazione 9.3 I parametri direttori (l, m) della retta r e le componenti di un vettore
ortogonale alla retta sono legati dalla relazione:
al + bm = 0
che esprime lannullarsi del prodotto scalare tra i vettori r, parallelo alla retta, e n
ortogonale alla retta. In altri termini:

a = m
b = l, R 0.
410 Geometria Analitica nel Piano
Il teorema che segue caratterizza tutte le rette del piano tramite equazioni lineari in x e y.
Teorema 9.1 Ogni equazione lineare in x e y del tipo (9.14) rappresenta lequazione
cartesiana di una retta ed ` e individuata a meno di un fattore moltiplicativo non nullo.
Dimostrazione Si ` e gi` a dimostrato che una retta nel piano pu` o essere rappresentata
mediante unequazione lineare in x, y. Viceversa, considerata lequazione lineare (9.14),
se (a, b) = (0, 0) esiste almeno un punto P
0
= (x
0
, y
0
) del piano le cui coordinate la
vericano, ossia c = ax
0
+ by
0
. Sostituendo in (9.14) si ha:
a(x x
0
) + b(y y
0
) = 0. (9.15)
Lequazione (9.15) coincide con (9.13) e, quindi, rappresenta la retta passante per il punto
P
0
ortogonale al vettore ai + bj. Inoltre, per = 0 le due equazioni (9.14) e
(ax + by + c) = 0
rappresentano la stessa retta.
Esercizio 9.12 Scrivere lequazione cartesiana della retta ottenuta nellEsercizio 9.11.
Soluzione Dalle equazioni parametriche di r si ottiene:
x + 1
2
=
y 3
5
da cui:
5x + 2y 1 = 0.
Esercizio 9.13 Data la retta r di equazione 2x 7y + 5 = 0, determinare un vettore
parallelo a r ed un vettore ad essa ortogonale.
Soluzione I vettori richiesti sono rispettivamente, ad esempio r = 7i+2j, n = 4i14j,
ma ogni altro vettore ad essi parallelo (ad eccezione del vettore nullo) risolve lesercizio.
9.6.3 Retta per due punti distinti
Dati due punti distinti A = (x
A
, y
A
) e B = (x
B
, y
B
), la retta r passante per A e B ` e
parallela al vettore

AB (cfr. Fig. 9.16) e quindi ha equazioni parametriche:

x = x
A
+ (x
B
x
A
)t
y = y
A
+ (y
B
y
A
)t, t R.
Capitolo 9 411
A
B
Figura 9.16: Retta passante per i punti A e B
Se x
B
x
A
= 0 e y
B
y
A
= 0, ricavando il parametro t per esempio dalla prima
equazione e sostituendo il valore trovato nella seconda si ha:
x x
A
x
B
x
A
=
y y
A
y
B
y
A
. (9.16)
Lequazione (9.16) cos` ottenuta ` e lequazione cartesiana della retta passante per i punti A
e B. Se x
B
x
A
= 0, i punti A e B hanno la stessa ascissa e quindi la retta ha equazione
cartesiana x x
A
= 0. Analogamente se y
B
y
A
= 0, la retta ha equazione cartesiana
y y
A
= 0.
Esercizio 9.14
`
E ben noto che due punti distinti individuano una sola retta. Perch e
nellequazione ax + by + c = 0 ci sono tre coefcienti a, b, c?
Osservazione 9.4 Lequazione (9.16) della retta r passante per due punti distinti A e B
si pu` o scrivere nella forma:

x y 1
x
A
y
A
1
x
B
y
B
1

= 0,
questespressione ` e valida anche nel caso in cui x
B
x
A
= 0 o y
B
y
A
= 0. Si lascia la
dimostrazione al Lettore per esercizio.
412 Geometria Analitica nel Piano
Esercizio 9.15 Scrivere le equazioni parametriche e cartesiana della retta passante per i
punti A = (1, 2) e B = (4, 5).
Soluzione Le equazioni richieste sono, rispettivamente:

x = 1 + 5t
y = 2 7t, t R
(9.17)
e
7x + 5y 3 = 0.
Si osservi che se in (9.17) si limita t allintervallo chiuso [0, 1] si descrivono tutti e soli i
punti del segmento AB, estremi compresi.
9.6.4 Rette particolari
Dal paragrafo precedente appare chiaro che tutti e soli i punti appartenenti allasse x sono
caratterizzati dallavere ordinata nulla, quindi lasse x ha equazione cartesiana y = 0.
Inoltre, lasse x ` e una retta parallela al versore i e perpendicolare al versore j. Analoga
considerazione vale per lasse y che ha equazione x = 0.
Di conseguenza, ogni retta parallela allasse x (e quindi al versore i) ha equazione carte-
siana:
y = k,
con k R ssato, ed equazioni parametriche:

x = t,
y = k, t R,
cio` e x varia in R e y rimane costante.
Ogni retta parallela allasse y ha equazione cartesiana:
x = h,
con h R ssato, ed equazioni parametriche:

x = h
y = , R.
La bisettrice del primo e terzo quadrante passa per i punti P = (x, x) che hanno ascissa
uguale allordinata, quindi ha equazione:
y = x.
Capitolo 9 413
Infatti, questa retta ` e parallela al vettore r = i+j. Analogamente, la bisettrice del secondo
e quarto quadrante passa per i punti P = (x, x), quindi ha equazione:
y = x
ed ` e parallela al vettore r = i j.
A
q

Figura 9.17: Il signicato geometrico di p e di q


9.6.5 Il coefciente angolare ed il suo legame con a, b, c
Sia r una retta non parallela allasse delle ordinate, con equazione cartesiana:
r : ax + by + c = 0
e, quindi, tale che b = 0. Allora lequazione cartesiana di r si pu` o scrivere anche nella
forma
y = px + q, (9.18)
dove:
p =
a
b
, q =
c
b
. (9.19)
414 Geometria Analitica nel Piano
Il numero p prende il nome di coefciente angolare di r, tale denominazione ` e motivata
dalle seguenti considerazioni geometriche. Si consideri una generica retta passante per
lorigine e per i punti A = (x
A
, y
A
) e B = (x
B
, y
B
). Se ` e langolo che la retta data
forma con lasse x ` e chiaro che:
y
A
x
A
=
y
B
x
B
= tan .
Le coordinate del generico punto P = (x, y) = O appartenente alla retta vericano la
stessa relazione, ossia:
y
x
=
y
A
x
A
=
y
B
x
B
= tan .
Daltra parte, una generica retta passante per lorigine ha equazione:
y = px, p R,
dove p ` e il coefciente angolare della retta. Si ha quindi:
p = tan
dove ` e langolo che la retta forma con lasse x. Si osservi che lequazione y = px
rappresenta, al variare di p R, tutte le rette passanti per lorigine, tranne lasse y.
Per capire meglio il signicato geometrico del numero q dato da (9.19) si consideri linter-
sezione della retta di equazione y = px+q con lasse y, si ottiene cos` il punto A = (0, q)
quindi q esprime la lunghezza (con segno) del segmento che la retta stacca sullasse y, a
partire dallorigine. La situazione geometrica ` e illustrata nella Figura 9.17.
9.7 Parallelismo, ortogonalit` a, angoli e distanze
Il calcolo vettoriale risulta essere un strumento molto utile per studiare le questioni re-
lative ad angoli tra rette, quindi in particolare il parallelismo e lortogonalit` a, di seguito
illustrate.
9.7.1 Condizione di parallelismo tra rette
Due rette:
r : ax + by + c = 0, r

: a

x + b

y + c

= 0
sono parallele se e solo se i vettori n = ai + bj e n

= a

i + b

j ad esse ortogonali sono


tra loro paralleli, cio` e se e solo se le loro componenti sono in proporzione, ossia:
ab

b = 0. (9.20)
Capitolo 9 415
Equivalentemente se r = li+mj e r

= l

i+m

j indicano i vettori paralleli rispettivamente


a r e r

, le due rette sono parallele se e solo se i due vettori r e r

sono paralleli, cio` e se


e solo se:
lm

m = 0.
In termini del loro coefciente angolare, due rette:
r : y = px + q, r

: y = p

x + q

sono parallele se e solo se:


p = p

,
ossia se i loro coefcienti angolari coincidono.
9.7.2 Condizione di perpendicolarit` a tra rette
Due rette:
r : ax + by + c = 0, r

: a

x + b

y + c

= 0
sono perpendicolari se e solo se i vettori n = ai + bj e n

= a

i + b

j ad esse ortogonali
sono tra loro ortogonali, cio` e se e solo se il loro prodotto scalare ` e nullo, ossia:
aa

+ bb

= 0.
Equivalentemente, se r = li + mj e r

= l

i + m

j indicano due vettori paralleli rispet-


tivamente a r e r

, le due rette sono perpendicolari se e solo se i due vettori r e r

sono
ortogonali, cio` e se e solo se:
ll

+ mm

= 0.
In termini del loro coefciente angolare, due rette:
r : y = px + q, r

: y = p

x + q

sono perpendicolari se e solo se:


pp

= 1,
infatti:
pp

= tan tan

+

2

= 1.
Esercizio 9.16 Condurre dal punto A = (3/4, 2) la retta r parallela allasse y e dal
punto B = (2/5, 4/3) la retta s parallela allasse x. Detto C il loro punto di intersezione,
determinare la lunghezza del segmento OC.
416 Geometria Analitica nel Piano
Soluzione Le rette richieste sono:
r : x =
3
4
, s : y =
4
3
,
quindi C = (3/4, 4/3) da cui segue:
d(O, C) =

9
16
+
16
9
=

337
12
.
Esercizio 9.17 Determinare lequazione della retta passante per A = (2, 3) e perpen-
dicolare alla retta di equazione y = 2x 1.
Soluzione La retta richiesta ha equazione y = px+q con 2p = 1, quindi p = 1/2.
Imponendo il passaggio per A segue q = 2.
Esercizio 9.18 Data la famiglia di rette:
T : (2 + a)x + (1 2a)y + 1 = 0, a R, (9.21)
determinare, in ciascuno dei casi seguenti, la retta di T in modo che:
1. passi per A = (2, 0);
2. sia parallela a y = 2x 1;
3. sia perpendicolare a 3x y + 1 = 0;
4. sia parallela alla bisettrice del primo e terzo quadrante;
5. formi un angolo acuto con lasse x.
Soluzione 1. Sostituendo in (9.21) le coordinate di A si ha a = 3/2.
2. Da (9.21) segue che il coefciente angolare ` e:
2 a
1 2a
, a =
1
2
,
imponendo che tale numero coincida con 2 segue a = 0.
3. Si deve imporre che:
3

2 a
1 2a

= 1.
Capitolo 9 417
4. Si deve imporre il parallelismo con la retta y = x, ossia:
2 a
1 2a
= 1.
5. Si deve imporre che:
2 a
1 2a
> 0.
Esercizio 9.19 Svolgere il precedente esercizio usando le nozioni di calcolo vettoriale.
9.7.3 Angolo tra due rette
Siano:
r : ax + by + c = 0, r

: a

x + b

y + c

= 0
due rette nel piano. Langolo

(r, r

) tra le due rette coincide con langolo formato da


due vettori ad esse ortogonali. Da osservare quindi che se ` e langolo tra i due vettori
n = (a, b), n

= (a

, b

), le due rette formano anche langolo , in quanto i due


vettori ortogonali alle due rette possono avere qualsiasi verso. Pertanto il valore di uno
dei due angoli tra le due rette r e r

` e determinato da:
cos

(r, r

) =
n n

[[n[[ [[n

[[
=
aa

+ bb

a
2
+ b
2

a
2
+ b
2
.
Valgono analoghe considerazioni se le due rette sono date in forma parametrica:
r :

x = x
0
+ lt
y = y
0
+ mt, t R,
r

x = x

0
+ l

y = y

0
+ m

, t

R,
e considerando i due vettori r = (l, m) e r

= (l

, m

) ad esse paralleli si ha:


cos

(r, r

) =
r r

[[r[[ [[r

[[
=
ll

+ mm

l
2
+ m
2

l
2
+ m
2
.
9.7.4 Posizione reciproca di due rette nel piano
Dalla geometria euclidea segue che due rette nel piano possono essere:
1. parallele e coincidenti;
2. parallele e distinte;
3. incidenti.
418 Geometria Analitica nel Piano
Dal punto di vista algebrico si risolve il problema della determinazione della posizione
reciproca di due rette r e r

studiando le soluzioni del sistema lineare di due equazioni in


due incognite:

ax + by + c = 0
a

x + b

y + c

= 0,
(9.22)
dato dalle equazioni delle due rette:
r : ax + by + c = 0, r

: a

x + b

y + c

= 0.
Dal metodo di riduzione di Gauss, applicato alla matrice A dei coefcienti e alla matrice
(A[ B) completa del sistema lineare (9.22), segue:
(A[ B) =

a b c
a


R
2
aR
2
a

R
1

a b c
0 ab

b ac

+ a

.
Si distinguono cos` i due casi:
1. rank(A) = 1, cio` e a

b ab

= 0 (cfr. (9.20)), ossia:


a
a

=
b
b

,
vale a dire i vettori n e n

ortogonali alle due rette sono paralleli che ` e la condizione


di parallelismo tra le due rette. Si presentano due possibilit` a:
a. rank(A[ B) = 1 cio` e ac

c = 0, ossia:
a
a

=
c
c

,
il sistema lineare ammette innite soluzioni che dipendono da unincogni-
ta libera, ma le condizioni poste equivalgono a richiedere che le due rette
siano coincidenti (i coefcienti delle loro equazioni sono ordinatamente in
proporzione).
b. rank(A[ B) = 2 cio` e ac

c = 0, ossia (a/a

) = (c/c

); il sistema lineare
` e incompatibile. Le condizioni imposte equivalgono pertanto a richiedere che
le due rette siano parallele ma non coincidenti.
2. rank(A) = 2 cio` e a

bab

= 0, vale a dire i vettori n e n

non sono paralleli, il si-


stema lineare ammette una sola soluzione. La condizione imposta equivale a richie-
dere che le due rette non siano parallele, quindi sono incidenti, e, di conseguenza,
si intersecano in un solo punto.
Capitolo 9 419
In modo equivalente a quanto descritto, anzich e studiare il sistema lineare (9.22), per
individuare la posizione reciproca delle rette r e r

si possono considerare i due vettori


n = (a, b) ortogonale ad r e n

= (a

, b

) ortogonale a r

. Si presentano i seguenti casi:


1. n e n

sono paralleli (vale a dire hanno le componenti ordinatamente in proporzio-


ne), quindi le due rette sono parallele. Si consideri un punto P
0
= (x
0
, y
0
) qualsiasi
di r, se P
0
appartiene anche alla retta r

(in formule a

x
0
+ b

y
0
+ c

= 0) allora r
e r

sono coincidenti, altrimenti sono parallele e distinte.


2. n e n

non sono paralleli, allora le due rette sono incidenti. Per determinare il loro
punto di intersezione si deve risolvere il sistema lineare (9.22) per esempio usando
il Teorema di Cramer (cfr. Teor. 2.20).
Esercizio 9.20 Discutere, al variare di k R, la posizione reciproca delle rette:
r : (2k 1)x + y 3k = 0, r

: 3kx 2y + k 1 = 0.
Soluzione Si tratta di studiare le soluzioni del sistema lineare di due equazioni in due
incognite:

(2k 1)x + y 3k = 0
3kx 2y + k 1 = 0
al variare di k R. Procedendo con il metodo di riduzione di Gauss si ha:

2k1 1 3k
3k 2 k+1


R
2
R
2
+ 2R
1

2k1 1 3k
7k2 0 5k+1

.
Si distinguono cos` due casi:
1. se k = 2/7 esiste una sola soluzione, quindi le due rette sono incidenti.
2. Se k = 2/7 le rette sono parallele ma mai coincidenti in quanto 5k + 1 = 0.
Esercizio 9.21 Date le rette:
r
1
: 4x + y 8 = 0, r
2
: 3x 2y + 2 = 0
e il punto P = (2, 1), determinare:
1. la retta passante per P e parallela a r
1
;
2. la retta passante per il punto di intersezione di r
1
e r
2
e perpendicolare a r
2
.
420 Geometria Analitica nel Piano
Soluzione 1. Tutte e solo le rette parallele a r
1
hanno equazione del tipo 4x+y+c = 0,
al variare di c R. Imponendo il passaggio per il punto P si ricava c = 9.
2. Il sistema lineare:

4x + y 8 = 0
3x 2y + 2 = 0
ha soluzione (14/11, 32/11) che rappresenta le coordinate del punto di intersezione
di r
1
e r
2
. La retta richiesta ha equazione:
y
32
11
= p

x
14
11

con (3/2)p = 1.
9.7.5 Distanza di un punto da una retta
P
0
P
1
H
r
n
Figura 9.18: Distanza del punto P
0
dalla retta r
Dati una retta r : ax + by + c = 0 e un punto P
0
= (x
0
, y
0
), si vuole determinare, in
questo paragrafo, la distanza d(P
0
, r) di P
0
dalla retta r.
Capitolo 9 421
Per questo scopo, ` e sufciente scrivere lequazione della retta r

passante per P
0
e per-
pendicolare ad r e calcolare la distanza d(P
0
, H) dove H ` e il punto di intersezione tra r

ed r. Si osservi che se P
0
appartiene alla retta r si ottiene d(P
0
, r) = 0, in quanto P
0
coincide con H (cfr. Fig. 9.18).
Si risolve ora lo stesso problema applicando nozioni di calcolo vettoriale. Dati un generico
punto P
1
= (x
1
, y
1
) di r, quindi ax
1
+ by
1
+ c = 0, e un vettore n = (a, b) ortogonale
ad r, dal signicato geometrico del prodotto scalare di due vettori (cfr. Teor. 3.10) segue:
d(P
0
, r) =

P
1
P
0
n
|n|
. (9.23)
Si osservi che il valore d(P
0
, r) cos` determinato esprime la distanza con segno del punto
P
0
dalla retta r. Il segno ` e positivo se P
0
si trova nello stesso semipiano in cui punta il
verso del vettore n, altrimenti il segno ` e negativo.
In coordinate, la formula (9.23) diventa:
1. a denominatore: |n| =

a
2
+ b
2
;
2. a numeratore:

P
1
P
0
n = a(x
0
x
1
) + b(y
0
y
1
) = ax
0
+ by
0
ax
1
by
1
= ax
0
+ by
0
+ c.
Riassumendo si ottiene:
d(P
0
, r) =
ax
0
+ by
0
+ c

a
2
+ b
2
. (9.24)
Si osservi che il numeratore di (9.24) si annulla se e solo se P
0
appartiene alla retta r e,
quindi, se e solo se d(P
0
, r) = 0, inoltre il numeratore di (9.24) assume lo stesso segno
per tutti e soli i punti appartenenti allo stesso semipiano di origine la retta r.
Esempio 9.3 Data la retta r : 3x + 2y + 5 = 0, i punti del piano sono esattamente divisi
in tre parti cos` caratterizzate:
1. i punti P = (x, y) tali che 3x + 2y + 5 = 0, vale a dire i punti della retta r;
2. i punti P = (x, y) tali che 3x + 2y + 5 > 0, vale a dire i punti di un semipiano di
origine r;
3. i punti P = (x, y) tali che 3x + 2y + 5 < 0, vale a dire i punti del semipiano di
origine r, opposto al precedente.
Esercizio 9.22 Calcolare la distanza del punto P = (1, 2) dalla retta r : 2x y +5 = 0.
Soluzione Dalla formula (9.24) si ha:
d(P, r) =
2 2 + 5

4 + 1
=

5.
422 Geometria Analitica nel Piano
9.8 Fasci di rette
In geometria euclidea si deniscono due tipi di fasci di rette:
1. il fascio improprio di rette formato da tutte le rette parallele ad una retta assegnata;
la situazione geometrica ` e rappresentata nella Figura 9.19;
2. il fascio proprio di rette formato da tutte le rette passanti per un punto, detto centro
del fascio; la situazione geometrica ` e rappresentata nella Figura 9.20.
Dallequazione (9.18) si ha che una semplice rappresentazione di un fascio improprio di
rette ` e:
y = px + q
con p ssato e q che assume ogni valore in R. Il fascio di rette parallele allasse y invece
` e rappresentato da:
x = k, k R.
Per esempio y = 3x+q, per ogni q reale, individua tutte e sole le rette del piano parallele
alla retta y = 3x.
-10 -5 5 10
-10
-5
5
10
Figura 9.19: Fascio improprio di rette
Siano:
r : ax + by + c = 0, r

: a

x + b

y + c

= 0
due rette incidenti nel punto P
0
= (x
0
, y
0
). Il fascio proprio di rette di centro P
0
` e dato
dalla combinazione lineare:
Capitolo 9 423
T : (ax + by + c) + (a

x + b

y + c

) = 0, , R. (9.25)
Per dimostrare questa affermazione si procede attraverso considerazioni successive:
1. lequazione (9.25) ` e lineare in x, y, pertanto rappresenta una retta al variare di
, R.
2. Le rette r ed r

fanno parte della famiglia T di rette individuata da (9.25), per


= 0 si ottiene la retta r e per = 0 la retta r

.
3. I parametri e sono omogenei, nel senso che ` e sufciente assegnare il loro
rapporto per individuare la stessa retta, per esempio le coppie = 1, = 2 e
= 2, = 4 (insieme con le innite altre coppie di numeri non nulli, proporzionali
rispettivamente a e a ) danno luogo alla stessa retta.
4. Il punto P
0
appartiene a tutte le rette descritte da (9.25), infatti le sue coordinate
(x
0
, y
0
) vericano sia lequazione di r sia lequazione di r

e, di conseguenza,
vericano (9.25).
5. Lequazione (9.25) individua tutte le rette del piano passanti per P
0
. Sia, infatti,
P
1
= (x
1
, y
1
) un punto del piano diverso da P
0
, sostituendo le sue coordinate in
(9.25) si perviene ad unequazione del tipo + = 0, dove = ax
1
+by
1
+c e
= a

x
1
+b

y
1
+c

, da cui si ricava, per esempio, = , = che sostituiti in


(9.25) danno luogo allequazione della retta passante per i punti P
0
e P
1
. Si osservi
che se P
1
non appartiene n e ad r n e ad r

allora e sono entrambi diversi da


zero.
Esercizio 9.23 Dato il fascio proprio di rette:
(x 2y 2) + (x + y) = 0, , R, (9.26)
individuare:
1. il centro del fascio;
2. la retta del fascio passante per il punto A = (0, 7);
3. la retta del fascio perpendicolare alla retta di equazione x + y + 1 = 0.
Soluzione 1. Il centro del fascio ` e il punto C di intersezione delle rette di equazione
x 2y 2 = 0 e x + y = 0, ha coordinate C = (2/3, 2/3).
424 Geometria Analitica nel Piano
-6 -4 -2 2 4 6
-8
-6
-4
-2
2
4
A
C
Figura 9.20: Fascio proprio di rette. Esercizio 9.23
2. Nellequazione (9.26) si impone il passaggio per A, ottenendo 12 7 = 0, da
cui si ha, per esempio = 7, = 12 che sostituiti in (9.26) portano alla retta di
equazione 19x 2y 14 = 0.
3. Il coefciente angolare della generica retta del fascio ` e:
p =
+
2
(si osservi che per 2 = 0, ossia per = 1, = 2 si ha la retta 3x 2 = 0
parallela allasse y). Imponendo la perpendicolarit` a alla retta x + y + 1 = 0 si ha:
+
2
= 1
da cui = 2, = 1 che portano alla retta del fascio di equazione 3x3y 4 = 0.
9.9 Esercizi di riepilogo svolti
Esercizio 9.24 Calcolare lequazione dellasse del segmento di estremi i punti:
A = (3, 5), B = (2, 3).
Soluzione Il procedimento da usare ` e gi` a stato spiegato nel Paragrafo 9.2, in alternativa
si pu` o determinare lequazione della retta perpendicolare al segmento AB nel suo punto
Capitolo 9 425
medio M dato da:
M =

3 + 2
2
,
5 3
2

1
2
, 1

.
La retta passante per A e B ha equazione:
x + 3
2 + 3
=
y 5
3 5
,
ossia 8x + 5y 1 = 0, quindi ` e perpendicolare al vettore n = (8, 5). Di conseguenza, le
equazioni parametriche dellasse del segmento AB sono:

x =
1
2
+ 8t
y = 1 + 5t, t R,
e la sua equazione cartesiana ` e 10x 16y + 21 = 0.
Esercizio 9.25 Date le rette:
r : 3x + 4y + 2 = 0, s : 7x 24y 6 = 0
determinare le equazioni delle rette b
1
e b
2
bisettrici degli angoli da esse individuati.
Soluzione Le bisettrici sono il luogo dei punti P = (x, y) equidistanti dalle due rette,
ossia tali che d(P, r) = d(P, s). Da (9.24) segue:
3x + 4y + 2

9 + 16
=
7x 24y 6

49 + 576
,
da cui si ottengono le rette:
b
1
: 2x + 11y + 4 = 0, b
2
: 11x 2y + 2 = 0.
In modo alternativo, si possono ottenere le equazioni delle due bisettrici come le rette
passanti per il punto di intersezione delle due rette date e parallele ai vettori bisettori dei
vettori r e s rispettivamente paralleli alle rette r e s. Si ha r = (4, 3), s = (24, 7) e i
due vettori bisettori degli angoli formati da r e da s sono:
vers r + vers s =

4
5
,
3
5

24
25
,
7
25

44
25
,
8
25

,
vers r vers s =

4
5
,
3
5

24
25
,
7
25

4
25
,
22
25

.
426 Geometria Analitica nel Piano
Il punto di intersezione delle rette r e s ` e la soluzione del sistema lineare delle loro
equazioni cartesiane ed ` e (6/25, 8/25), di conseguenza le equazioni parametriche
delle due bisettici sono:
b
1
:

x =
6
25
+ 11t
y =
8
25
2t, t R,
b
2
:

x =
6
25
2t

y =
8
25
11t

, t

R.
Esercizio 9.26 Date le due rette:
r : x + 2y + 2 = 0, s : x y 3 = 0,
determinare lequazione della retta t simmetrica di r rispetto ad s.
A
M
M'
M''
r
s
t
Figura 9.21: Esercizio 9.25
Soluzione Il punto di intersezione di r ed s ` e A = (4/3, 5/3). Sia M = (0, 1) un
punto di r diverso da A. La retta per M perpendicolare a s che ha equazione x+y+1 = 0
incontra s nel punto M

= (1, 2). Il simmetrico M

di M rispetto a M

, che ha
coordinate (2, 3), essendo M

il punto medio tra M e M

, appartiene alla retta t. La


retta t ` e, quindi, la retta passante per A e per M

e ha equazione 2x + y 1 = 0. La
situazione geometrica ` e illustrata nella Figura 9.21.
Capitolo 9 427
9.10 Per saperne di pi ` u
9.10.1 Rette immaginarie
Anche in Geometria Analitica, vengono considerati enti immaginari, daltra parte la
geometria analitica non fa altro che tradurre in algebra enti e relazioni geometriche.
I punti immaginari (o complessi) del piano sono caratterizzati dallavere rispetto ad un
riferimento cartesiano (reale) 1 = (O, x, y) almeno una coordinata complessa, mentre i
punti che sono stati trattati nora in tutto questo capitolo sono detti reali se hanno entram-
be le coordinate x e y reali. Ovviamente rispetto al riferimento cartesiano 1 si possono
visualizzare nel piano solo i punti reali.
Analogamente al caso reale, le rette immaginarie sono rappresentate rispetto ad un riferi-
mento cartesiano (reale) 1 = (O, x, y) da equazioni lineari:
ax + by + c = 0,
a coefcienti complessi, come ad esempio la retta di equazione:
y = 2i x + 1.
Se la terna (a, b, c) ` e proporzionale (con coefciente di proporzionalit` a complesso non
nullo) ad una terna di numeri reali allora r ` e detta retta reale e si ha la retta usuale,
introdotta nel Paragrafo 9.6.
Data una retta immaginaria di equazione ax + by + c = 0, con a, b, c C, ha pertanto
senso introdurre la nozione di retta coniugata di equazione:
ax + by + c = 0,
dove a, b e c indicano rispettivamente i complessi coniugati di a, b e c. Pertanto due rette
si dicono coniugate se i coefcienti delluna sono i complessi coniugati dei coefcienti
dellaltra.
Esempio 9.4 La retta immaginaria di equazione y = 2i x + 1 ha come coniugata la
retta di equazione:
y = 2i x + 1.
Anche per le rette immaginarie, come per le rette reali considerate in questo capitolo, si
pu` o introdurre la nozione di rette parallele e incidenti.
Si pu` o dimostrare la seguente propriet` a.
428 Geometria Analitica nel Piano
Teorema 9.2 Una retta r ` e reale se e solo se coincide con la propria coniugata r.
Dimostrazione Si supponga che la retta r abbia equazione ax + by + c = 0, con
a, b, c C. Si vuole dimostrare che la terna (a, b, c) ` e proporzionale (con coefciente di
proporzionalit` a complesso non nullo) ad una terna di numeri reali se e solo se r = r. Le
due rette r e r coincidono se e solo se:
rank

a b c
a b c

= 1.
Osservando che:
rank

a b c
a b c

= rank

a + a b + b c + c
a a b b c c

= rank

Re(a) Re(b) Re(c)


Im(a) Im(b) Im(c)

,
dove con Re(a) si indica la parte reale di a e con Im(a) si indica la parte immaginaria di
a, si ha la tesi.
Osservazione 9.5 Si osservi che ogni retta reale ha inniti punti reali, ma contiene anche
sempre inniti punti immaginari. Inoltre, se P = (x
0
, y
0
) ` e un punto non reale, ovvero
P = P , dove con P di indica il punto coniugato avente coordinate (x
0
, y
0
), la retta
passante per P e P ` e necessariamente reale.
Esempio 9.5 La retta passante per P = (1+i, 1+2i) e per P = (1i, 12i) ha
equazione 2xy +1 = 0. Si osservi che la retta precedente contiene i punti immaginari:
(1 + i, 1 + 2i),
al variare di R 0.
Esercizio 9.27 Vericare che x
2
+ y
2
= 0 rappresenta una coppia di rette immaginarie
coniugate.
Soluzione Si ha:
x
2
+ y
2
= (x + iy)(x iy) = 0,
pertanto x
2
+ y
2
= 0 rappresenta la coppia di rette immaginarie coniugate x = iy. Si
osservi che lintersezione reale delle due rette immaginarie ` e costituita dalla sola origine.
Vale la seguente propriet` a.
Capitolo 9 429
Teorema 9.3 Una retta immaginaria (o non reale) possiede al pi` u solo un punto reale.
Dimostrazione Se una retta r : ax + by + c = 0 ` e immaginaria e quindi non ` e reale,
allora o le due rette r e r sono parallele non coincidenti, ossia non si intersecano in
alcun punto, oppure si intersecano in un solo punto, che ovviamente deve essere reale. In
entrambi i casi si ha:
rank

a b c
a b c

= 2,
ma nel primo caso:
rank

a b
a b

= 1,
da cui segue che le due rette r e r sono prive di punti reali e la coppia (a, b) ` e proporzio-
nale (con coefciente di proporzionalit` a complesso non nullo) ad una coppia di numeri
reali. Nel secondo caso:
rank

a b
a b

= 2
e le due rette si intersecano in un solo punto.
Esercizio 9.28 Si considerino le seguenti rette:
r
1
: 3(2i 1)x + (2 4i)y 2i + 1 = 0,
r
2
: x + iy 3 = 0,
r
3
: x + y i = 0.
1. Vericare che la retta r
1
` e reale.
2. Vericare che la retta r
2
non ` e reale ed ha come unico punto reale il punto di
coordinate (3, 0).
3. Vericare che la retta r
3
non ` e reale e non ha punti reali.
Soluzione 1. Dividendo entrambi i membri dellequazione di r
1
per 2i 1 si ottiene
lequazione reale:
3x 2y 1 = 0.
2. La retta coniugata r
2
di r
2
ha equazione x iy 3 = 0. Il sistema lineare:

x + iy 3 = 0
x iy 3 = 0
ha matrice dei coefcienti di rango 2 e la sua unica soluzione ` e (3, 0).
3. Le rette r
3
e e r
3
: x + y + i = 0 sono entrambe parallele al vettore (1, 1) e non
hanno punti reali.
430 Geometria Analitica nel Piano
Capitolo 10
Riduzione a Forma Canonica delle
Coniche
Questo capitolo non ` e da considerarsi in forma nale
10.1 La circonferenza nel piano
In questo paragrafo si intende studiare lequazione della circonferenza nel piano S
2
e le
posizioni reciproche tra circonferenza e retta e tra due circonferenze. Successivamente, in
modo analogo al caso dei fasci di rette, si introducono i fasci di circonferenze e si ricavano
le loro propriet` a.
Fissati un punto C nel piano e una costante positiva r, si ` e gi` a visto nel Paragrafo 9.2 che
la circonferenza di centro C e raggio r, ` e il luogo geometrico dei punti P del piano tali
che:
d(P, C) = r.
Se r = 0 la circonferenza si riduce ad un solo punto che coincide con C.
La circonferenza di centro C = (, ) e raggio r 0, rispetto ad un riferimento
cartesiano 1 = (O, x, y), ha equazione cartesiana:
(x )
2
+ (y )
2
= r
2
,
che pu` o essere riscritta come:
x
2
+ y
2
2x 2y + = 0, (10.1)
con =
2
+
2
r
2
. Si osservi che lequazione (10.1) ` e di secondo grado in x e in y,
il coefciente del termine xy ` e nullo e i coefcienti dei termini x
2
e y
2
sono uguali.
431
432 Riduzione a Forma Canonica delle Coniche
Viceversa, unequazione dello stesso tipo, vale a dire:
x
2
+ y
2
+ ax + by + c = 0, a, b, c R, (10.2)
non sempre rappresenta una circonferenza nel piano. Infatti, per confronto, il centro C in
(10.2) ha coordinate:
C =

a
2
,
b
2

e il raggio r in (10.2) ` e dato da:


r =

a
2
+ b
2
4c
4
,
pertanto lequazione (10.2) rappresenta una circonferenza se e solo se:
a
2
+ b
2
4c 0.
Osservazione 10.1 Se a
2
+ b
2
4c = 0, la circonferenza ` e detta degenere e si riduce al
solo centro (a/2, b/2). Se a
2
+ b
2
4c < 0 allora non ci sono punti del piano che
vericano lequazione (10.2) e la circonferenza viene detta detta immaginaria.
Esercizio 10.1 Determinare il centro e il raggio delle circonferenze:
(
1
: x
2
+ y
2
+ 4x + 6y = 0,
(
2
: x
2
+ y
2
+ 4x + 6y + 30 = 0.
Soluzione In (
1
il centro ` e C = (2, 3). Poich e la circonferenza passa per lorigine,
il suo raggio pu` o essere determinato calcolando la distanza del centro dallorigine, quindi:
r = d(C, O) =

13.
In (
2
il centro ` e C = (2, 3), ma (
2
non ` e una circonferenza perch e 16+36120 < 0
In base alla precedente osservazione (
2
` e infatti una circonferenza immaginaria.
10.1.1 Posizione reciproca tra una retta e una circonferenza
La posizione reciproca tra una retta a e una circonferenza di centro C e raggio r si
determina calcolando la distanza del centro della circonferenza alla retta e confrontandola
con il raggio della circonferenza stessa. Si presentano tre possibilit` a:
1. d(C, a) > r: la retta ` e esterna alla circonferenza (cfr. Fig. 10.1).
Capitolo 10 433
C
r
s
Figura 10.1: Retta esterna alla circonferenza
434 Riduzione a Forma Canonica delle Coniche
C
r
s
Figura 10.2: Retta tangente alla circonferenza
Capitolo 10 435
C
r
s
Figura 10.3: Retta secante la circonferenza
436 Riduzione a Forma Canonica delle Coniche
2. d(C, a) = r: la retta ` e tangente alla circonferenza (cfr. Fig. 10.2).
3. d(C, a) < r: la retta ` e secante la circonferenza e incontra la circonferenza in due
punti (cfr. Fig. 10.3).
Esercizio 10.2 Determinare per quali valori di k R la retta a : x 2y + k = 0 ` e
secante, tangente o esterna alla circonferenza di equazione:
x
2
+ y
2
2x + 2y 2 = 0.
Il centro della circonferenza ` e C = (1, 1) e il raggio ` e r = 2. Dalla formula (9.23) si
ottiene che la distanza del centro dalla retta ` e:
d(C, a) =
k + 3

5
,
da cui si deduce che a ` e esterna alla circonferenza se k < 3 2

5 e k > 3 + 2

5.
La retta a ` e tangente alla circonferenza se k = 2

5 3 e a ` e secante la circonferenza
se 3 2

5 < k < 3 + 2

5.
10.1.2 Retta tangente ad una circonferenza in un suo punto
Data una circonferenza ( di centro C = (, ) e raggio r, la retta a tangente a ( in un
suo punto P
0
= (x
0
, y
0
) ` e la retta passante per P
0
e ortogonale al vettore

P
0
C, quindi di
equazione cartesiana:
a : ( x
0
)(x x
0
) + ( y
0
)(y y
0
) = 0,
la situazione geometrica ` e rappresentata nella Figura 10.4.
Esercizio 10.3 Determinare lequazione della retta tangente alla circonferenza di equa-
zione:
x
2
+ y
2
+ 6x 4y = 0
nel punto P
0
= (6, 4).
Soluzione Il centro della circonferenza ` e C = (3, 2), quindi la retta tangente alla
circonferenza nel punto P
0
ha equazione:
(3 + 6)(x + 6) + (2 4)(y 4) = 3x + 2y + 26 = 0.
Capitolo 10 437
C
P
0
s
Figura 10.4: Retta tangente alla circonferenza nel punto P
0
10.1.3 Posizione reciproca di due circonferenze
Circonferenza per tre punti
La posizione reciproca di due circonferenze si discute confrontando la distanza tra i loro
centri C e C

e la somma e/o la differenza tra i loro raggi r e r

. Si presentano i casi
descritti nelle Figure da 10.5 a 10.10.
Esercizio 10.4 Determinare lequazione della circonferenza passante per i punti:
A = (2, 3), B = (4, 1), D = (2, 1).
Soluzione
`
E ben noto che tre punti non allineati del piano individuano una sola cir-
conferenza. Si lascia per esercizio la verica che i punti A, B, D non sono allineati. Per
individuare lequazione della circonferenza passante per A, B, D si pu` o procedere in due
modi. Il centro C ` e il circocentro (il punto di incontro degli assi dei lati) del triangolo
ABD, quindi se ne possono individuare le coordinate intersecando, per esempio lasse
del segmento AB con lasse del segmento AD. Il raggio ` e la distanza, per esempio, da
C a B. Altrimenti, si possono sostituire in (10.2) le coordinate dei punti dati e risolvere
il sistema lineare cos` ottenuto:
438 Riduzione a Forma Canonica delle Coniche
C C'
r
r'
Figura 10.5: d(C, C

) > r + r

C C'
r
r'
Figura 10.6: d(C, C

) = r + r

C C'
r
r'
Figura 10.7: d(C, C

) < r + r

Capitolo 10 439
C C'
r
r'
Figura 10.8: d(C, C

) < r r

C C'
r
r'
Figura 10.9: d(C, C

) = r r

C C'
r
r'
Figura 10.10: d(C, C

) > r r

440 Riduzione a Forma Canonica delle Coniche


A
B
D
Figura 10.11: Circonferenza passante per i punti A, B, D

2a + 3b + c = 13
4a + b + c = 17
2a b + c = 5.
La circonferenza richiesta ha pertanto equazione:
x
2
+ y
2
4x 2y + 1 = 0.
La situazione geometrica ` e illustrata nella Figura 10.11.
10.1.4 Fasci di circonferenze
Date le due circonferenze:
(
1
: x
2
+ y
2
2
1
x 2
1
y +
1
= 0,
(
2
: x
2
+ y
2
2
2
x 2
2
y +
2
= 0,
la loro combinazione lineare:
(x
2
+y
2
2
1
x2
1
y +
1
)+(x
2
+y
2
2
2
x2
2
y +
2
) = 0, , R, (10.3)
rappresenta il fascio di circonferenze individuato da (
1
e (
2
. Si osservi che i parametri
e sono omogenei, vale a dire ` e sufciente individuare il loro rapporto per ottenere un
Capitolo 10 441
solo elemento del fascio. Si osservi, inoltre, che per = 0 si ottiene la circonferenza (
2
e per = 0 si ottiene (
1
.
Da (10.3) si ha:
( + )x
2
+ ( + )y
2
2(
1
+
2
)x 2(
1
+
2
)y + (
1
+
2
) = 0 (10.4)
da cui appare evidente la necessit` a di distinguere due casi:
1. + = 0;
2. + = 0,
che saranno discussi separatamente.
1. + = 0 per esempio = 1, = 1; lequazione (10.4) diventa:
2(
1

2
)x + 2(
1

2
)y
1
+
2
= 0.
Si tratta dellequazione di una retta, che prende il nome di asse radicale del fascio di
circonferenze, ed ` e ortogonale al vettore n = (
1

2
,
1

2
). La retta passante
per i centri C
1
= (
1
,
1
) e C
2
= (
2
,
2
) delle circonferenze (
1
e (
2
` e parallela
al vettore

C
2
C
1
= (
1

2
,
1

2
). Tale retta prende il nome di asse centrale
del fascio di circonferenze.
`
E evidente che lasse radicale ` e perpendicolare allasse
centrale.
2. + = 0; lequazione (10.4) diventa:
x
2
+ y
2
2

1
+
2
+

x 2

1
+
2
+

y +

1
+
2
+

= 0
che rappresenta, al variare di e , innite circonferenze del fascio, con centro:
C
,
=

1
+
2
+
,

1
+
2
+

. (10.5)
Si tratta di circonferenze se il raggio ` e positivo o nullo, altrimenti si ottengono
circonferenze immaginarie (cfr. Oss. 10.1).
Si elencano alcune propriet` a del fascio di circonferenze individuato da (
1
e da (
2
di facile
verica:
1. i centri di tutte le circonferenze del fascio appartengono allasse centrale.
442 Riduzione a Forma Canonica delle Coniche
2. Se P
0
= (x
0
, y
0
) ` e un punto appartenente allintersezione di (
1
e di (
2
, allora P
0
verica lequazione (10.3), quindi P
0
` e un punto comune a tutti gli elementi del
fascio.
3. Il fascio di circonferenze riempie il piano nel senso che dato un generico punto
P
1
= (x
1
, y
1
) del piano ` e possibile individuare un elemento del fascio passante
per P
1
, infatti ` e sufciente sostituire le coordinate di P
1
nellequazione (10.3) e
calcolare il valore dei parametri e .
Si esaminano ora le propriet` a precedenti in riferimento alla posizione delle circonferenze
(
1
e (
2
. Si presentano tre casi:
1. (
1
e (
2
si intersecano in due punti P
1
e P
2
. Lasse radicale e ogni altra circonfe-
renza del fascio passano per P
1
e P
2
. La situazione geometrica ` e illustrata nella
Figura 10.12.
P
1
P
2
Figura 10.12: Fascio di circonferenze che si intersecano in due punti
2. (
1
e (
2
si intersecano in un punto P. Lasse radicale ` e la retta tangente ad en-
trambe le circonferenze e ad ogni altra circonferenza del fascio in P. La situazione
geometrica ` e illustrata nella Figura 10.13.
Capitolo 10 443
Figura 10.13: Fascio di circonferenze che si intersecano in un punto
3. (
1
e (
2
non hanno punti di intersezione. Nessun elemento del fascio ha punti
in comune con un altro elemento del fascio, lasse radicale non incontra alcuna
circonferenza del fascio. La situazione geometrica ` e illustrata nella Figura 10.14.
I fasci di circonferenze sono utili (ma non indispensabili) per risolvere alcuni esercizi.
I due esercizi che seguono ne costituiscono un esempio. Si consiglia di risolvere anche
questi esercizi senza fare uso del concetto di fascio di circonferenze.
Esercizio 10.5 Determinare lequazione della circonferenza avente centro sulla retta:
r : 2x y = 0
e tangente nel punto A = (2, 0) alla retta s : 3x 2y + 6 = 0.
Soluzione La circonferenza richiesta ` e un elemento del fascio individuato dalla retta s
(lasse radicale) e dalla circonferenza di centro A e raggio 0. Ossia:
[(x + 2)
2
+ y
2
] + (3x 2y + 6) = 0,
vale a dire:
x
2
+ y
2
+

4 + 3

y + 4 +
6

= 0.
Il centro della generica circonferenza del fascio ha coordinate:
C
,
=

4 + 3
2
,

444 Riduzione a Forma Canonica delle Coniche


Figura 10.14: Fascio di circonferenze che non hanno punti di intersezione
che, sostituite nellequazione di r, portano a + = 0. Scegliendo, per esempio, = 1
e = 1 si ha che la circonferenza richiesta ha equazione:
x
2
+ y
2
+ x + 2y 2 = 0.
Si osservi che non ci sono problemi a calcolare il centro del fascio dividendo per . Infatti
per ogni circonferenza del fascio si ha che ` e diverso da zero, per = 0 si ottiene solo
lasse radicale.
Esercizio 10.6 Determinare lequazione della circonferenza passante per i punti:
A = (3, 2), B = (1, 1)
sapendo che lascissa del centro ` e 1.
Soluzione La circonferenza richiesta pu` o essere vista come elemento del fascio indivi-
duato dalla retta AB (lasse radicale) e dalla circonferenza di centro il punto medio tra
A e B e diametro AB. La retta AB ha equazione: x 4y 5 = 0. Il punto medio tra
A e B ` e M = (1, 3/2), la distanza tra A e B ` e

17, quindi il fascio considerato ha
equazione:
(x
2
+ y
2
+ 2x + 3y 1) + (x 4y 5) = 0.
Capitolo 10 445
Il centro della generica circonferenza del fascio ha coordinate:
C
,
=

2 +
2
,
3 4
2

.
Imponendo:

2 +
2
= 1
segue = 0, quindi la circonferenza richiesta ` e:
x
2
+ y
2
+ 2x + 3y 1 = 0.
10.2 Le coniche: denizione e propriet` a focali
Si introducono, in questo paragrafo, alcune curve notevoli del piano: lellisse, liperbole
e la parabola, tutte appartenenti alla famiglia delle coniche, come sar` a meglio spiegato
nel Paragrafo 10.4. Le curve saranno introdotte come luoghi geometrici di punti (unal-
tra denizione sar` a data nel Paragrafo 10.3). Le loro equazioni saranno ricavate dalla
denizione, dopo aver scelto un opportuno riferimento cartesiano.
10.2.1 Lellisse
Denizione 10.1 Fissati due punti F e F

del piano, lellisse ` e il luogo dei punti P tali


che:
d(P, F) + d(P, F

) = 2a,
dove a ` e una costante positiva tale che 2a > d(F, F

).
I punti F e F

prendono il nome di fuochi dellellisse. La situazione geometrica ` e ben


rappresentata nelle Figure 10.15 e 10.16.
Per ricavare lequazione cartesiana dellellisse si sceglie un opportuno sistema di riferi-
mento ponendo lorigine nel punto medio tra F e F

e lasse x passante per F ed F

, di
conseguenza si assume che le coordinate dei fuochi siano:
F = (c, 0), F

= (c, 0).
`
E chiaro che 2c < 2a, il numero:
e =
c
a
< 1
446 Riduzione a Forma Canonica delle Coniche
P
F F
Figura 10.15: Lellisse come luogo geometrico
F F
Figura 10.16: Lellisse come luogo geometrico
Capitolo 10 447
prende il nome di eccentricit` a dellellisse. Le rette di equazioni:
x =
a
e
prendono il nome di direttrici dellellisse, il loro signicato geometrico verr` a spiegato
nel Paragrafo 10.3. Sia P = (x, y) il generico punto dellellisse, il luogo richiesto ha
equazione:

(x c)
2
+ y
2
+

(x + c)
2
+ y
2
= 2a,
elevando due volte al quadrato si ha:
(a
2
c
2
)x
2
+ a
2
y
2
= a
2
(a
2
c
2
).
Posto b
2
= a
2
c
2
, si ottiene:
x
2
a
2
+
y
2
b
2
= 1, (10.6)
che ` e lequazione dellellisse in forma canonica, vale a dire rispetto ad un riferimento
cartesiano opportunamente scelto.
Osservazione 10.2 Per la denizione completa di equazione dellellisse in forma cano-
nica ed il suo legame con il concetto di forma quadratica scritta in forma canonica in-
trodotto nel Paragrafo 8.5 si veda il Paragrafo 10.4. Talvolta lellisse ` e anche detta ellis-
se reale per distinguerla dallellisse immaginaria. Lellisse immaginaria ` e rappresentata
dallequazione (in forma canonica):
x
2
a
2
+
y
2
b
2
= 1,
che non ammette soluzioni reali, ma solo soluzioni immaginarie.
La curva incontra lasse x nei punti A = (a, 0) e A

= (a, 0) e lasse y nei punti


B = (0, b) e B

= (0, b), questi quattro punti prendono il nome di vertici dellellisse;


lorigine ne ` e il centro.
Dallequazione (10.6) si deduce che si tratta di una curva simmetrica ripetto allasse x, al-
lasse y e allorigine, ` e pertanto sufciente studiare la sua equazione nel primo quadrante.
Da (10.6) si ha:
x
2
a
2
=
b
2
y
2
b
2
quindi [y[ b, analogamente si ottiene [x[ a. Il graco ` e, quindi, compreso nel
rettangolo delimitato dalle rette di equazioni x = a e y = b. Poich e:
y =
b
2
a
2

a
2
x
2
,
448 Riduzione a Forma Canonica delle Coniche
intuitivamente si ha che se lascissa del punto P, che descrive la curva, aumenta di valore,
allora la sua ordinata y diminuisce. Si osservi che se a = b, allora c = 0, ogni retta per
lorigine ` e asse di simmetria ed in questo caso lellisse ` e la circonferenza di centro O e
raggio a.
Esercizio 10.7 Determinare il centro, i fuochi e i vertici delle seguenti ellissi:
c
1
: 3x
2
+ 8y
2
= 12,
c
2
: 18x
2
+ y
2
= 9
i cui graci sono rappresentati nelle Figure 10.17 e 10.18, rispettivamente.
3 2 1 1 2 3
2
1
1
2
Figura 10.17: Esercizio 10.7, ellisse c
1
Soluzione Lellisse c
1
si pu` o scrivere come:
x
2
4
+
y
2
3
2
= 1,
da cui segue che il centro ` e lorigine, i vertici sono:
A = (2, 0), A

= (2, 0), B =

0,

6
2

, B

0,

6
2

.
Poich e c
2
= a
2
b
2
= 5/2, i fuochi hanno coordinate:
Capitolo 10 449
1.0 0.5 0.5 1.0
3
2
1
1
2
3
Figura 10.18: Esercizio 10.7, ellisse c
2
450 Riduzione a Forma Canonica delle Coniche
F =

10
2
, 0

, F

10
2
, 0

.
Lellisse c
2
si pu` o scrivere come:
x
2
1
2
+
y
2
9
= 1 (10.7)
da cui segue che il centro ` e lorigine, ma i fuochi appartengono allasse y in quanto
9 > 1/2. I vertici sono:
A =

2
2
, 0

, A

2
2
, 0

, B = (0, 3), B

= (0, 3).
Poich e c
2
= a
2
b
2
= 9 1/2, i fuochi hanno coordinate:
F =

0,

17

, F

0,

17

.
Si osservi che lequazione (10.7) non ` e scritta nella stessa forma di (10.6). Se si vuole
passare dallequazione (10.7) ad unequazione dello stesso tipo di (10.6) ` e necessario
effettuare una rotazione degli assi di /2, in senso antiorario, vale a dire porre:

x
y

0 1
1 0

X
Y

(10.8)
e, nel riferimento 1

= (O, X, Y ), lequazione (10.7) diventa:


X
2
9
+
Y
2
1
2
= 1.
Per lellisse vale la seguente propriet` a, la cui dimostrazione segue da facili considerazioni
geometriche e si pu` o leggere, per esempio, in [7].
Teorema 10.1 La retta tangente ad unellisse, di fuochi F ed F

, in un suo punto P, ` e la
bisettrice delle rette PF e PF

.
La situazione geometrica descritta nel teorema ` e illustrata nella Figura 10.19.
Capitolo 10 451
P
F F
Figura 10.19: Teorema 10.1
10.2.2 Liperbole
Denizione 10.2 Fissati due punti F e F

del piano, liperbole ` e il luogo dei punti P


tali che:
d(P, F) d(P, F

) = 2a, (10.9)
oppure:
d(P, F

) d(P, F) = 2a, (10.10)


dove a ` e una costante positiva tale che 2a < d(F, F

).
I punti F e F

prendono il nome di fuochi delliperbole. La situazione geometrica ` e ben


rappresentata nelle Figure 10.20 e 10.21. Le denizioni (10.9) e (10.10) sono equivalenti
ai ni della determinazione dellequazione cartesiana delliperbole, questo sar` a evidente
dallimpostazione del metodo usato.
Come nel caso dellellisse, si sceglie un opportuno riferimento cartesiano avente lorigine
nel punto medio tra F ed F

e lasse x passante per F ed F

; si pone F = (c, 0) e
F

= (c, 0). Sia P = (x, y) il generico punto delliperbole, allora (10.9) diventa:

(x c)
2
+ y
2

(x + c)
2
+ y
2
= 2a. (10.11)
Elevando due volte al quadrato si perviene a:
(c
2
a
2
)x
2
a
2
y
2
= a
2
(c
2
a
2
).
452 Riduzione a Forma Canonica delle Coniche
P
F F
Figura 10.20: Liperbole come luogo geometrico
F F
Figura 10.21: Liperbole come luogo geometrico
Capitolo 10 453
Poich e c
2
> a
2
, si pone b
2
= c
2
a
2
, sostituendo nellequazione precedente si ottiene:
x
2
a
2

y
2
b
2
= 1 (10.12)
che ` e lequazione delliperbole in forma canonica, vale a dire rispetto ad un riferimento
cartesiano opportunamente scelto. Per la denizione completa di equazione delliperbole
in forma canonica si veda il Paragrafo 10.4.
Il numero:
e =
c
a
> 1
prende il nome di eccentricit` a delliperbole. Le rette di equazione:
x =
a
e
prendono il nome di direttrici delliperbole; il signicato geometrico delleccentricit` a e
delle direttrici verr` a spiegato nel Paragrafo 10.3.
Lequazione (10.12) rappresenta una curva simmetrica rispetto allasse x, allasse y e
allorigine del riferimento. La curva incontra lasse x nei punti:
A
1
= (a, 0), A
2
= (a, 0),
detti vertici delliperbole, non ha punti di intersezione con lasse y. Da:
y
2
b
2
=
x
2
a
2
a
2
,
ossia:
y =
b
a

x
2
a
2
segue che [x[ a, quindi non vi sono punti della curva compresi tra le rette di equazioni
x = a. Inoltre, tali rette intersecano la curva in due punti coincidenti, i vertici, quindi
esse sono tangenti alla curva. Da:
y
2
b
2
=
x
2
a
2
1
segue, intuitivamente, che il valore dellordinata (in valore assoluto) aumenta allau-
mentare del valore dellascissa (in valore assoluto). La curva ` e cos` divisa in due parti
(simmetriche rispetto allasse y) che prendono il nome di rami delliperbole.
454 Riduzione a Forma Canonica delle Coniche
Si studia lintersezione della curva con una generica retta passante per lorigine (ad ecce-
zione dellasse y che non interseca la curva), quindi si studiano le soluzioni del sistema:

x
2
a
2

y
2
b
2
= 1
y = px,
al variare di p in R. Sostituendo la seconda equazione nella prima si ottiene:
x =
ab

b
2
a
2
p
2
da cui segue che lesistenza delle soluzioni dipende dal radicando b
2
a
2
p
2
. Si distinguo-
no i seguenti casi:
1. Se [p[ < b/a, le rette incontrano la curva in due punti distinti.
2. Se [p[ > b/a, le rette non intersecano la curva.
3. Le rette:
y =
b
a
x
costituiscono un caso limite tra le due situazioni descritte. Tali rette prendono il
nome di asintoti delliperbole. Per meglio descrivere il comportamento della curva
rispetto agli asintoti si consideri la differenza tra le ordinate del punto P
0
= (x, y
0
)
appartenente allasintoto, e il punto P
1
= (x, y
1
) appartenente alla curva aventi la
stessa ascissa, ossia:
y
0
y
1
=
b
a

x
2
a
2

=
ab
x +

x
2
a
2
.
Quando P
1
si allontana indenitamente sulliperbole, la sua ascissa x cresce sem-
pre di pi` u ed allora lultima frazione, avendo il numeratore costante e il denomina-
tore che aumenta via via, diminuisce sempre di pi` u. Pi ` u precisamente:
lim
x
ab
x +

x
2
a
2
= 0.
La situazione geometrica ` e descritta nella Figura 10.22.
Capitolo 10 455
P
0
P
1
Figura 10.22: Liperbole e i suoi asintoti
Esercizio 10.8 Si calcolino i vertici, i fuochi e gli asintoti delle seguenti iperboli:
1
1
:
4
9
x
2
25y
2
= 1,
1
2
: 9x
2
4y
2
= 36,
1
3
: 4x
2
3y
2
= 5,
i cui graci sono rispettivamente rappresentati nelle Figure 10.24, 10.25 e 10.26.
Soluzione Per quanto riguarda liperbole 1
1
i vertici sono:
A =

3
2
, 0

, A

3
2
, 0

;
i fuochi sono:
F =

229
10
, 0

, F

229
10
, 0

,
gli asintoti hanno equazioni:
456 Riduzione a Forma Canonica delle Coniche
4 2 2 4
2
1
1
2
Figura 10.23: Esercizio 10.8, iperbole 1
1
6 4 2 2 4 6
4
2
2
4
Figura 10.24: Esercizio 10.8, iperbole 1
2
Capitolo 10 457
6 4 2 2 4 6
4
2
2
4
Figura 10.25: Esercizio 10.8, iperbole 1
3
y =
2
15
x.
Per quanto riguarda liperbole 1
2
i vertici sono A = (2, 0), A

= (2, 0); i fuochi sono


F = (

13, 0), F

= (

13, 0), gli asintoti hanno equazioni:


y =
3
2
x,
si osservi che, in questo caso b > a, come si pu` o rilevare dalla Figura 10.25.
Per quanto riguarda liperbole 1
3
lequazione diventa:
y
2
5
3

x
2
5
4
= 1;
analogamente al caso dellEsercizio 10.7, per scrivere lequazione nella forma (10.12) ` e
necessario effettuare il cambiamento di riferimento dato da (10.8). Di conseguenza, nel
riferimento iniziale 1 = (O, x, y), i vertici sono:
A =

0,

, A

0,

,
i fuochi sono:
458 Riduzione a Forma Canonica delle Coniche
F =

0,

35

12

, F

0,

35

12

e gli asintoti hanno equazioni:


x =

3
2
y.
Se nellequazione (10.12) si pone a = b si ottiene:
x
2
y
2
= a
2
, (10.13)
i fuochi hanno coordinate F = (

2 a, 0) e F

= (

2 a, 0), gli asintoti hanno equazioni


y = x, ossia coincidono con le bisettrici del I e III quadrante e del II e IV quadrante e
liperbole prende il nome di iperbole equilatera.. La Figura 10.23 illustra alcune iperboli
equilatere, ottenute variando il parametro a, avente tutte gli stessi asintoti, ma vertici
diversi. Gli asintoti, comuni a tutte le iperboli equilatere, possono essere pensati liperbole
degenere di equazione (x y)(x + y) = 0.
Figura 10.26: Una famiglia di iperboli equilatere
Capitolo 10 459
10.2.3 Iperbole riferita agli asintoti
Si vuole studiare il caso particolare delliperbole equilatera e scrivere la sua equazione
nel riferimento avente come assi gli asintoti. Per risolvere il problema, si pu` o procede-
re ruotando gli assi cartesiani del riferimento 1 = (O, x, y) di /4 in senso orario e
mantenendo ssa lorigine, pervenendo cos` al riferimento 1

= (O, X, Y ), e scrivendo
lequazione delliperbole (10.13) nel riferimento 1

.
In alternativa, si pu` o operare come segue. Se si immagina che gli asintoti coincidano con
gli assi cartesiani, i fuochi delliperbole diventano i punti della retta y = x di coordinate
F = (a, a), F

= (a, a), infatti, per il teorema di Pitagora, la loro distanza dallo-


rigine ` e c =

2a. Si ripetono i calcoli descritti a partire da (10.11) in questo caso, e


precisamente (10.11) diventa:

(x a)
2
+ (y a)
2

(x + a)
2
+ (y + a)
2
= 2a.
Elevando due volte al quadrato si ottiene lequazione:
xy =
a
2
2
, (10.14)
che risponde al problema posto. Si osservi che questa rappresentazione permette di di-
mostrare pi` u agevolmente il comportamento dellasintoto (lasse x per esempio) rispetto
alla curva. Infatti se P
1
= (x, y) ` e un punto della curva e P
0
= (x, 0) ` e il punto dellasse
x di uguale ascissa, allora ` e evidente che:
lim
x
y = lim
x
a
2
2x
= 0.
Al variare di a in (10.14) si hanno iperboli con rami nel primo e terzo quadrante, i cui
asintoti sono gli assi cartesiani, con i vertici che variano sulla bisettrice y = x.
La curva:
xy = 0
rappresenta la conica degenereprodotto degli assi cartesiani, invece la famiglia di curve
(ottenute al variare di a)
xy =
a
2
2
si pu` o ottenere con lo stesso procedimento appena descritto, dopo aver effettuato il cam-
biamento di riferimento:
460 Riduzione a Forma Canonica delle Coniche

x = Y
y = X;
di conseguenza, nel riferimento originale, i rami della curva si trovano nel secondo e
quarto quadrante e i vertici variano sulla bisettrice y = x. Le situazioni descritte sono
illustrate nelle Figure 10.27 e 10.28.
-8 -6 -4 -2 2 4 6 8
-8
-6
-4
-2
2
4
6
8
Figura 10.27: Iperboli di equazione xy = k
2
, k R
Per liperbole valgono le seguenti propriet` a, la cui dimostrazione segue da facili conside-
razioni geometriche e si pu` o leggere, per esempio, in [7].
Teorema 10.2 Data uniperbole di fuochi F ed F

, la retta tangente in un suo punto P


` e la bisettrice delle rette PF e PF

.
La situazione geometrica descritta nel teorema appena enunciato ` e illustrata nella Figura
10.29.
Teorema 10.3 Si consideri una qualsiasi retta che intersechi un ramo delliperbole nei
punti P
1
e P
2
e gli asintoti nei punti Q
1
e Q
2
, allora i segmenti Q
1
P
1
e Q
2
P
2
hanno la
stessa lunghezza. In particolare, la retta tangente in un punto P alliperbole incontra gli
asintoti nei punti Q
1
e Q
2
di cui P ` e il punto medio.
Capitolo 10 461
-8 -6 -4 -2 2 4 6 8
-8
-6
-4
-2
2
4
6
8
Figura 10.28: Iperboli di equazione xy = k
2
, k R
P
F F
Figura 10.29: Teorema 10.2
462 Riduzione a Forma Canonica delle Coniche
P
1
P
2
Q
1
Q
2
Figura 10.30: Teorema 10.3
P
1
P
2
Q
1
Q
2
Figura 10.31: Teorema 10.3
Capitolo 10 463
P
1
P
2
Q
1
Q
2
Figura 10.32: Teorema 10.3
La situazione geometrica descritta nel teorema appena enunciato ` e illustrata nelle Figure
10.30, 10.31 e 10.32.
Teorema 10.4 Per ogni punto P delliperbole, tutti i parallelogrammi formati dagli asin-
toti e dalle parallele ad essi condotte da P hanno la stessa area.
La situazione descritta ` e illustrata nella Figura 10.33 in cui i rettangoli colorati hanno la
stessa area.
10.2.4 La parabola
Denizione 10.3 La parabola ` e il luogo dei punti P equidistanti da una retta f ssata e
da un punto F ssato.
La retta f prende il nome di direttrice della parabola e il punto F ` e il fuoco della parabola.
Come nel caso dellellisse e delliperbole, per ricavare lequazione della parabola si sce-
glie un riferimento cartesiano opportuno. Si pu` o procedere nei due modi di seguito
descritti.
464 Riduzione a Forma Canonica delle Coniche
P
P
Figura 10.33: Teorema 10.4
Primo Caso Si sceglie il riferimento in modo tale che il fuoco F appartenga allasse x
e abbia coordinate F = (0, c) e la direttrice abbia equazione y = c, pertanto lorigine ` e
un punto appartenente al luogo richiesto. Imponendo che:
d(P, F) = d(P, f)
si ha:

x
2
+ (y c)
2
= [y + c[,
elevando al quadrato si ottiene:
y = ax
2
, (10.15)
dove a = 1/4c. (10.15) ` e lequazione della parabola in forma canonica.
Secondo Caso Si sceglie il fuoco di coordinate F = (c, 0) e la direttrice di equazione
x = c, procedendo come nel caso precedente si perviene a:
x = ay
2
, (10.16)
che ` e unaltra equazione in forma canonica della parabola.
Analogamente usando valori negativi per il numero c si ottengono le equazioni:
Capitolo 10 465
y = ax
2
e:
x = ay
2
,
le due situazioni geometriche sono rappresentate nelle Figure 10.34 e 10.35.
F
f
P
Figura 10.34: La parabola come luogo di punti
Tutte le parabole considerate passano per lorigine, che ` e il loro vertice. Tra tutti i punti
della parabola, il vertice ` e quello avente distanza minore dal fuoco (e dalla direttrice). Per
quanto riguarda lo studio del graco della parabola, per esempio, da (10.16), si deduce
che la curva ` e simmetrica rispetto allasse x, le ascisse dei suoi punti sono sempre numeri
positivi e lascissa aumenta allaumentare (in valore assoluto) dellordinata.
Per capire landamento della curva al variare del parametro a si osservi la Figura 10.36
in cui sono riportati i graci delle parabole di equazioni y = (1/2)x
2
(quella esterna),
y = x
2
, (quella centrale), y = 2x
2
(quella interna).
Esercizio 10.9 Determinare il vertice, il fuoco e la direttrice delle parabole:
{
1
: 3x 2y
2
= 0,
{
2
: 2x
2
+ 9y = 0,
che sono rappresentate nelle Figure 10.37 e 10.38.
466 Riduzione a Forma Canonica delle Coniche
F
f
P
Figura 10.35: La parabola come luogo di punti
-4 -2 2 4
2
4
6
8
Figura 10.36: Le parabole y = (1/2)x
2
, y = x
2
, y = 2x
2
Capitolo 10 467
1 2 3 4 5 6 7
-3
-2
-1
1
2
3
Figura 10.37: Esercizio 10.9, parabola {
1
-6 -4 -2 2 4 6
-10
-8
-6
-4
-2
Figura 10.38: Esercizio 10.9, parabola {
2
468 Riduzione a Forma Canonica delle Coniche
Soluzione Entrambe le parabole hanno vertice nellorigine, nel caso di {
1
il fuoco ` e
F = (3/8, 0) e la direttrice ha equazione x = 3/8.
Nel caso di {
2
il fuoco ` e F = (0, 9/8) e la direttrice ha equazione y = 9/8.
Per la parabola vale la seguente propriet` a, la cui dimostrazione segue da facili considera-
zioni geometriche e si pu` o leggere, per esempio, in [7].
Teorema 10.5 La retta tangente alla parabola in un suo punto P ` e la bisettrice dellan-
golo formato dalla retta passante per P e per il fuoco e dalla retta per P perpendicolare
alla direttrice.
La situazione geometrica descritta nel teorema appena enunciato ` e illustrata nella Figura
10.39.
F
P
f
t
Figura 10.39: Teorema 10.5
10.2.5 Coniche e traslazioni
Gli esercizi che seguono sono volti a studiare lequazione di una conica non scritta in
forma canonica ma in un riferimento cartesiano traslato rispetto al riferimento di partenza.
Se nellequazione (10.6) dellellisse in forma canonica si opera una traslazione degli assi:

x = X + x
0
y = Y + y
0
,
(cfr. Par. 9.4), lequazione diventa:
Capitolo 10 469
(X + x
0
)
2
a
2
+
(Y + y
0
)
2
b
2
= 1. (10.17)
Svolgendo i calcoli, si ottiene unequazione del tipo:
Ax
2
+ By
2
+ Cx + Dy + E = 0, (10.18)
con A, B, C, D, E R, che, rispetto alla pi ` u generale equazione di secondo grado nel-
le indeterminate x e y, ha il coefciente del termine in xy pari a zero. In questo ca-
so particolare, se si ha lequazione della conica nella forma (10.18), con il metodo del
completamento dei quadrati (cfr. Es. 9.8) ` e facile risalire alla forma (10.17), e, quindi,
allequazione iniziale che meglio consente di studiare la conica. Analogo discorso vale
per liperbole e la parabola. Nel Paragrafo 10.4 si studieranno le equazioni di secondo
grado complete in x, y, di cui, quelle appena descritte, sono un caso particolare.
Esempio 10.1 Nel riferimento 1 = (O, x, y) ` e data la conica di equazione:
x
2
+ 2y
2
+ 4x + 4y 2 = 0.
Completando i quadrati, si ha:
(x
2
+ 4x + 4 4) + 2(y
2
+ 2y + 1 1) 2 = 0,
(x + 2)
2
+ 2(y + 1)
2
= 8,
e, quindi:
(x + 2)
2
8
+
(y + 1)
2
4
= 1.
Pertanto con la traslazione:

X = x + 2
Y = y + 1,
si ottiene:
X
2
8
+
Y
2
4
= 1,
che ` e lequazione di unellisse. Si osservi che il centro O

dellellisse ` e lorigine del


riferimento traslato 1

= (O

, X, Y ) ed ha coordinate (2, 1) rispetto al riferimento


1. Gli assi che hanno equazione Y = 0 e X = 0 nel riferimento 1

= (O

, X, Y ) hanno
invece, rispettivamente, equazione y+1 = 0 e x+2 = 0 nel riferimento 1. La situazione
geometrica ` e rappresentata nella Figura 10.40.
470 Riduzione a Forma Canonica delle Coniche
-4 -2 2
-3
-2
-1
1
2
Figura 10.40: Esempio 10.1
Esempio 10.2 Nel riferimento 1 = (O, X, Y ) ` e data la conica:
x
2
2y
2
+ 6x 8y 5 = 0.
Completando i quadrati, si ha:
(x
2
+ 6x + 9 9) 2(y
2
+ 4y + 4 4) 5 = 0,
(x + 3)
2
2(y + 2)
2
= 6,
e, quindi:
(x + 3)
2
6

(y + 2)
2
3
= 1.
Pertanto con la traslazione:

X = x + 3
Y = y + 2,
si ottiene:
X
2
6

Y
2
3
= 1,
che ` e lequazione di uniperbole. Si osservi che il centro O

delliperbole ` e lorigine del


riferimento traslato 1

= (O

, X, Y ) ed ha coordinate (3, 2) rispetto al riferimento


1. Gli asintoti che hanno equazioni:
Y =
1

2
X, Y =
1

2
X
Capitolo 10 471
nel riferimento 1

= (O

, X, Y ) hanno invece equazioni:


y =
1

2
(x + 3) 2, y =
1

2
(x + 3) 2
nel riferimento 1. La situazione geometrica ` e rappresentata nella Figura 10.41.
-10 -5 5 10
-10
-7.5
-5
-2.5
2.5
5
Figura 10.41: Esempio 10.2
Esempio 10.3 Nel riferimento 1 = (O, x, y) ` e data la conica:
2y
2
8y + 5x 9 = 0.
Completando i quadrati, si ha:
2(y
2
4y + 4 4) + 5x 9 = 0,
2(y 2)
2
+ 5

x
17
5

= 0,
Pertanto con la traslazione:

X = x
17
5
Y = y 2,
472 Riduzione a Forma Canonica delle Coniche
6 4 2 2
4
2
2
4
6
Figura 10.42: Esempio 10.3
si ottiene:
2Y
2
+ 5X = 0
che ` e lequazione di una parabola. Il vertice della parabola O

` e lorigine del riferimen-


to traslato 1

= (O

, X, Y ) ed ha coordinate (17/5, 2) rispetto al riferimento 1. La


situazione geometrica ` e rappresentata nella Figura 10.42.
Osservazione 10.3
`
E fondamentale ricordare che per applicare il metodo del completa-
mento dei quadrati e poi effetture la traslazione opportuna si devono sempre mettere in
evidenza i coefcienti di x
2
e di y
2
(perch e?).
10.3 Le coniche: luoghi geometrici di punti
La denizione che segue giustica la denonimazione conica assegnata alle curve intro-
dotte nel Paragrafo 10.2.
Denizione 10.4 Si dicono coniche tutte le curve piane che si possono ottenere interse-
cando un cono circolare retto con un piano.
Per cono circolare retto si intende il luogo delle rette dello spazio che si appoggiano su di
una circonferenza e passano tutte per il vertice, punto appartenente alla retta perpendico-
lare al piano della circonferenza nel suo centro. Per lo studio approfondito dei coni nello
spazio si rimanda al Paragrafo 12.2.
Capitolo 10 473
`
E chiaro che, secondo la denizione proposta, il termine conica comprende: la circonfe-
renza, lellisse, liperbole e la parabola, come illustrato nelle Figure 10.43, 10.44, 10.45
e 10.46. Inoltre, se il piano secante il cono passa per il vertice, allora si ottengono anche
coppie di rette incidenti e coppie di rette coincidenti pertanto anche questi sono esempi
di coniche che prendono il nome di coniche degeneri. Se il piano secante passa per il
vertice (e, per esempio, ` e perpendicolare allasse del cono) allora interseca il cono solo
nel vertice, che risulta anche essere una particolare conica degenere.
Figura 10.43: La circonferenza
Con questo metodo non si pu` o visualizzare la conica degenere formata da due rette paral-
lele. Per ottenerla ` e necessario usare metodi di Geometria Proiettiva, in questo ambito an-
che le rette parallele si incontrano in punti particolari, allinnito, detti punti improprii;
per uno studio approfondito di questi argomenti si rimanda, per esempio, a [16].
Scopo di questo capitolo ` e quello di introdurre un luogo geometrico di punti nel piano che
comprenda tutte le coniche, tranne ovviamente il caso degenere appena citato.
Denizione 10.5 Una conica ` e il luogo dei punti del piano per cui si mantiene costante
il rapporto tra la distanza di tali punti da un punto ssato e da una retta ssata.
Detti P il punto generico della conica, F il punto assegnato, f la retta assegnata ed e la
costante, la denizione precedente equivale a:
d(P, F)
d(P, f)
= e. (10.19)
474 Riduzione a Forma Canonica delle Coniche
Figura 10.44: Lellisse
Figura 10.45: Liperbole
Capitolo 10 475
Figura 10.46: La parabola
Il punto F prende il nome di fuoco della conica, la retta f ` e la direttrice della conica e
la costante e ` e leccentricit` a della conica. Se si assume che la distanza del punto F dalla
retta f sia positiva (mai nulla), allora ` e chiaro dalla denizione che e > 0. La situazione
geometrica ` e rappresentata nella Figura 10.47.
Si procede ora alla determinazione dellequazione del luogo geometrico dei punti P che
vericano la formula (10.19). Fissato un riferimento cartesiano 1 = (O, x, y), si pon-
gono: P = (x, y), F = (x
0
, y
0
) e f : ax + by + c = 0, per cui la relazione (10.19)
diventa:

(x x
0
)
2
+ (y y
0
)
2
[ax + by + c[

a
2
+ b
2
= e,
elevando al quadrato, si ottiene:
(x x
0
)
2
+ (y y
0
)
2
= e
2
(ax + by + c)
2
a
2
+ b
2
. (10.20)
Si distinguono i due casi seguenti:
1. il fuoco appartiene alla direttrice: F f .
476 Riduzione a Forma Canonica delle Coniche
P
F
f
Figura 10.47: Un punto P di una conica di fuoco F e direttrice f
2. Il fuoco non appartiene alla direttrice: F / f .
In ciascuno dei due casi elencati si esamineranno i sottocasi:
a. e = 1;
b. e > 1;
c. e < 1.
Primo Caso Il fuoco appartiene alla direttrice: F f . Si sceglie un sistema di riferi-
mento opportuno, ponendo lorigine coincidente con F e la direttrice f coincidente con
lasse y, pertanto il fuoco avr` a coordinate F = (0, 0) ed f equazione x = 0. Lequazione
(10.20) diventa:
x
2
+ y
2
= e
2
x
2
,
ossia:
(1 e
2
)x
2
+ y
2
= 0. (10.21)
Si inizia lo studio dei tre sottocasi:
a. e = 1. Lequazione (10.21) si riduce a y
2
= 0, si tratta dellasse x contato due
volte; ` e una conica degenere e, in un riferimento qualsiasi, consiste nellequazione
di una retta elevata al quadrato, per esempio (x y + 5)
2
= 0.
Capitolo 10 477
b. e > 1. In questo caso si ha 1e
2
< 0, pertanto lequazione (10.21) ` e una differenza
di quadrati che pu` o essere espressa come:
(y +

e
2
1 x)(y

e
2
1 x) = 0.
Si tratta, quindi, del prodotto di due rette incidenti e, di nuovo, di una conica
degenere.
c. e < 1. Allora si ha 1 e
2
> 0, pertanto lequazione (10.21) rappresenta la somma
di due quadrati, ossia un unico punto reale, in questo caso lorigine. Si tratta, di
nuovo, di una conica degenere, interpretata come prodotto di due rette con equa-
zioni a coefcienti in campo complesso incidenti in un punto reale (` e il vertice del
cono di cui si ` e parlato in precedenza).
Riassumendo: se F f allora si ottengono solo coniche degeneri date dal prodotto di
due rette coincidenti, o dal prodotto di due rette incidenti. Si osservi, di nuovo, che, per
ottenere il caso della conica degenere formata da due rette parallele, ` e necessario usare
metodi di Geometria Proiettiva, in questo ambiente si deve porre la direttrice coincidente
con la retta impropria, ossia la retta contenente tutti i punti improprii.
Secondo Caso Il fuoco non appartiene alla direttrice: F / f . Si sceglie un riferi-
mento opportuno ponendo F sullasse x e la direttrice f ortogonale a x. Siano (c, 0) le
coordinate di F e x = h lequazione di f , con c = h. Lequazione (10.19) diventa:
(1 e
2
)x
2
+ y
2
2(c e
2
h)x + c
2
e
2
h
2
= 0. (10.22)
Si inizia lo studio dei tre sottocasi:
a. e = 1. Dallequazione (10.22) si ha:
y
2
2(c h)x + c
2
h
2
= 0. (10.23)
Si sceglie lorigine del sistema di riferimento in modo che c +h = 0, vale a dire O
coincide con il punto medio tra il fuoco F e il punto di incontro della direttrice con
lasse x. Allora lequazione (10.23) si riduce a:
y
2
= 4cx,
e, ponendo a = 1/4c si perviene alla nota forma canonica della parabola:
x = ay
2
.
478 Riduzione a Forma Canonica delle Coniche
b. e c. e = 1. Si determinano le intersezioni della curva di equazione (10.22) con lasse
x. Ponendo y = 0 nellequazione (10.22) si ha:
(1 e
2
)x
2
2(c e
2
h)x + c
2
e
2
h
2
= 0. (10.24)
Indicati con A
1
= (x
1
, 0) e A
2
= (x
2
, 0) i due punti cercati, dallequazione
precedente segue che:
x
1
+ x
2
= 2

c e
2
h
1 e
2

.
(Si controlli per esercizio che lequazione (10.24) ammette sempre due soluzioni
reali e distinte). Si pone lorigine del riferimento nel punto medio tra A
1
e A
2
,
ossia, si pone: c e
2
h = 0, da cui:
h =
c
e
2
. (10.25)
Sia a = x
1
, quindi A
1
= (a, 0) e A
2
= (a, 0). Il prodotto delle soluzioni
dellequazione (10.24) ` e:
x
1
x
2
= a
2
=
c
2
e
2
h
2
1 e
2
e, tenendo conto di (10.25), si perviene alla formula:
e =
c
a
.
Sostituendo i risultati ottenuti in (10.22) segue:
(a
2
c
2
)x
2
+ a
2
y
2
= a
2
(a
2
c
2
). (10.26)
Si possono distinguere i due ultimi casi:
b. e > 1. Allora e = c/a > 1 e c > a, si pu` o porre b
2
= c
2
a
2
, quindi lequazione
(10.26) diventa:
x
2
a
2

y
2
b
2
= 1,
che ` e lequazione delliperbole in forma canonica.
Capitolo 10 479
c. e < 1. Allora e = c/a < 1 e c < a, si pu` o porre b
2
= a
2
c
2
, quindi lequazione
(10.26) diventa:
x
2
a
2
+
y
2
b
2
= 1,
che ` e lequazione dellellisse in forma canonica. In entrambi i casi si ottengono
(per simmetria) due direttrici e due fuochi, per esempio la direttrice relativa al fuoco
F = (c, 0) ha equazione:
x = h =
a
2
c
.
Nel caso dellellisse, h > a, le due direttrici sono esterne alla gura, nel caso
delliperbole h < a, le due direttrici sono posizionate tra lasse y e i vertici.
Si osservi che per c = 0 e, quindi, e = 0, si ottiene la circonferenza che risulta esclusa
da questo luogo di punti in quanto e = 0 implica P = F. In conclusione, anche il luogo
considerato non comprende tutte le coniche, essendo escluse la circonferenza e la coppia
di rette parallele. Una rappresentazione comune di tutte le coniche si vedr` a nel Paragrafo
che segue, dimostrando che le coniche sono tutte rappresentate da una generica equazione
di secondo grado in x, y.
10.4 Le coniche: equazioni di secondo grado,
riduzione delle coniche in forma canonica
Scopo di questo paragrafo ` e dimostrare il seguente teorema.
Teorema 10.6 Nel piano, ogni equazione di secondo grado nelle variabili x e y, scritta
rispetto ad un riferimento cartesiano 1 = (O, x, y), rappresenta una conica.
Si premette la seguente denizione.
Denizione 10.6 Si dice che lequazione di una conica ` e scritta in forma canonica se la
sua equazione di secondo grado assume una delle seguenti forme:
x
2
+ y
2
+ = 0, x
2
+ y = 0, y
2
+ x = 0,
con , , , , coefcienti reali.
480 Riduzione a Forma Canonica delle Coniche
Sono esempi di equazioni di coniche scritte in forma canonica: (10.6), (10.12), (10.15)
e (10.16), ben noti dalla scuola media superiore. Nella dimostrazione del Teorema 10.6
viene anche indicato il metodo da seguire per passare da unequazione di secondo grado
in x, y alla forma canonica di una conica. Per questo motivo e per aiutare la comprensione
del procedimento usato, allinterno della dimostrazione sono inseriti esempi numerici di
riduzione a forma canonica di coniche particolari.
Dimostrazione Sia:
( : a
11
x
2
+ 2a
12
xy + a
22
y
2
+ 2a
13
x + 2a
23
y + a
33
= 0 (10.27)
unequazione di secondo grado in x, y con coefcienti a
ij
R, i, j = 1, 2, 3. Si introdu-
cono le due matrici simmetriche denite tramite (10.27):
A =

a
11
a
12
a
12
a
22

, B =

a
11
a
12
a
13
a
12
a
22
a
23
a
13
a
23
a
33

,
pertanto lequazione di ( si pu` o scrivere in notazione matriciale come:

x y 1

x
y
1

= 0, (10.28)
oppure come:

x y

x
y

+ 2

a
13
a
23

x
y

+ a
33
= 0 (10.29)
o anche:
t
XAX + 2

a
13
a
23

X + a
33
= 0, (10.30)
con
X =

x
y

.
Esempio 10.4 La circonferenza di equazione:
x
2
+ y
2
+ ax + by + c = 0
individua le matrici:
Capitolo 10 481
A =

1 0
0 1

, B =

1 0
a
2
0 1
b
2
a
2
b
2
c

.
Si osservi che A ` e in forma diagonale, det(A) > 0 e se
a
2
4
+
b
2
4
= c
allora det(B) = 0. Si osservi anche che se
a
2
4
+
b
2
4
= c
si ha la circonferenza degenere di centro il punto (a/2, b/2) e raggio pari a zero
(ossia il punto (a/2, b/2)), in questo caso det(B) = 0. Se
a
2
4
+
b
2
4
< c si ottiene la
circonferenza immaginaria (cfr. Oss. 10.1).
Esempio 10.5 Lellisse di equazione (in forma canonica):
x
2
a
2
+
y
2
b
2
= 1
individua le matrici:
A =

1
a
2
0
0
1
b
2

, B =

1
a
2
0 0
0
1
b
2
0
0 0 1

.
Si osservi che A ` e in forma diagonale ed inoltre:
det(A) > 0, det(B) = 0, det(B)/ tr(A) < 0.
482 Riduzione a Forma Canonica delle Coniche
Esempio 10.6 Lellisse immaginaria di equazione (in forma canonica):
x
2
a
2
+
y
2
b
2
= 1
individua le matrici:
A =

1
a
2
0
0
1
b
2

, B =

1
a
2
0 0
0
1
b
2
0
0 0 1

.
Si osservi che A ` e in forma diagonale ed inoltre
det(A) > 0, det(B) = 0, det(B)/ tr(A) > 0.
Esempio 10.7 Liperbole di equazione (in forma canonica):
x
2
a
2

y
2
b
2
= 1
individua le matrici:
A =

1
a
2
0
0
1
b
2

, B =

1
a
2
0 0
0
1
b
2
0
0 0 1

.
Si osservi che A ` e in forma diagonale, det(A) < 0 e det(B) = 0.
Esempio 10.8 Liperbole di equazione (in forma canonica):
x
2
a
2

y
2
b
2
= 1
individua le matrici:
Capitolo 10 483
A =

1
a
2
0
0
1
b
2

, B =

1
a
2
0 0
0
1
b
2
0
0 0 1

.
Si osservi che A ` e in forma diagonale, det(A) < 0 e det(B) = 0.
Esempio 10.9 La parabola, di equazione (in forma canonica):
y
2
= 2px
individua le matrici:
A =

0 0
0 1

, B =

0 0 p
0 1 0
p 0 0

.
Si osservi che, anche in questo caso, A ` e in forma diagonale, det(A) = 0 e det(B) = 0.
Analogamente la parabola, di equazione (in forma canonica):
x
2
= 2py
individua le matrici:
A =

1 0
0 0

, B =

1 0 0
0 0 p
0 p 0

.
Si osservi che, anche in questo caso, A ` e in forma diagonale, det(A) = 0 e det(B) = 0.
Esempio 10.10 La conica degenere di equazione:
(2x + y)
2
= 4x
2
+ y
2
+ 4xy = 0
individua le matrici:
484 Riduzione a Forma Canonica delle Coniche
A =

4 2
2 1

, B =

4 2 0
2 1 0
0 0 0

.
Si osservi che rank(A) = rank(B) = 1 e pertanto det(A) = 0 e det(B) = 0.
Esempio 10.11 La conica degenere di equazione canonica: y
2
9 = 0 rappresenta la
coppia di rette reali y = 3 e y = 3, mentre lequazione y
2
+ 9 = 0, rappresenta una
coppia di rette immaginarie coniugate di equazioni y = 3i e y = 3i. (cfr. Par. 9.10.1).
La conica degenere y
2
9 = 0 individua le matrici:
A =

0 0
0 1

, B =

0 0 0
0 1 0
0 0 9

.
Si osservi che rank(A) = 1 e rank(B) = 2 e pertanto det(A) = 0 e det(B) = 0.
Analogamente anche per laltra conica y
2
9 = 0 si ha per le matrici associate A e B
che rank(A) = 1 e rank(B) = 2.
Si riprende ora la dimostrazione del teorema, suddividendo il procedimento di riduzione
a forma canonica in due casi:
Primo caso a
12
= 0, la matrice A associata alla curva ( si presenta in forma diagona-
le:
A =

a
11
0
0 a
22

e lequazione (10.27) assume la forma:


a
11
x
2
+ a
22
y
2
+ 2a
13
x + 2a
23
y + a
33
= 0.
Operando con una opportuna traslazione degli assi si perviene allannullarsi dei coef-
cienti a
13
e a
23
. Questo caso ` e stato discusso nel Paragrafo 10.2.5 a cui si rimanda per il
metodo da seguire e per gli esempi inseriti.
Secondo caso a
12
= 0. Si vuole effettuare un opportuno cambiamento della base orto-
normale positiva B = (i, j) determinata dal sistema di riferimento 1 = (O, x, y) e quindi
Capitolo 10 485
unopportuna rotazione degli assi coordinati x e y in modo da trasformare lequazione
della conica (10.30) in una nuova equazione
t
X

+ 2

13
a

23

+ a

33
= 0,
con A

matrice diagonale.
Dapprima si vuole quindi studiare come cambia lequazione (10.30) se si opera un cam-
biamento di base. Sia B

= (i

, j

) una base ortonormale positiva e si indichino con


X = PX

le equazioni del cambiamento d base da B a B

, dove
X =

x
y

, X

,
sono le componenti di un generico vettore x scritte rispetto alla base B e alla base B

rispettivamente e P ` e la matrice del cambiamento di base da B a B

. Sostituendo le
equazioni del cambiamento di base X = PX

in (10.30), lequazione (10.30) si trasforma


in:
t
X

(
t
PAP)X

+ 2

a
13
a
23

PX

+ a
33
= 0.
Si osservi perci ` o che il termine noto rimane invariato.
Poich e A ` e una matrice simmetrica, esiste, per il Teorema 7.8, una matrice ortogonale P
che permette di ottenere una matrice diagonale:
D =
t
PAP =


1
0
0
2

,
con
1
e
2
autovalori di A. Pertanto, scegliendo come nuova base B

una base ortonor-


male positiva di autovettori di A, ovvero una base ortonormale di autovettori di A tale
che la matrice del cambiamento di base P abbia determinante uguale a 1, rispetto al nuo-
vo riferimento 1

= (O, x

, y

), con assi x

e y

nella direzione degli autovettori di A,


lequazione (10.30) si trasforma in:
t
X

DX

+ 2

13
a

23

+ a
33
= 0, (10.31)
con

13
a

23

a
13
a
23

P.
Le equazioni X = PX

corrispondono quindi ad una rotazione del piano (cfr. Es. 6.24)


e nelle nuove coordinate (x

, y

) lequazione (10.29) si trasforma in:

1
x
2
+
2
y
2
+ 2a

13
x

+ 2a

23
y

+ a
33
= 0. (10.32)
Inoltre, da X = PX

si ottiene:

x
y
1

P
0
0
0 0 1

.
486 Riduzione a Forma Canonica delle Coniche
Posto
Q =

P
0
0
0 0 1

,
lequazione (10.28), mediante il cambiamento di base, si trasforma in:

= 0,
con
B

1
0 a

13
0
2
a

23
a

13
a

23
a
33

=
t
QBQ.
Confrontando le due equazioni (10.30) e (10.31), poich e det(D) = det(A), si ha pertanto
che la rotazione non cambia il determinante della matrice A. Inoltre, det(B

) = det(B),
essendo det(Q) = det(P) = 1.
Operando un completamento dei quadrati e quindi applicando una traslazione opportuna
del tipo:

= X + x
0
y

= Y + y
0
,
come descritto nel Paragrafo 10.2.5, si completa la riduzione a forma canonica, trasfor-
mando lequazione (10.31) in unequazione in forma canonica nel nuovo riferimento
cartesiano 1

= (O

, X, Y ).
Prima di continuare con la dimostrazione del teorema, vengono inseriti alcuni esempi
numerici.
Esempio 10.12 Si riduca a forma canonica la conica di equazione:
3x
2
+ 2xy + 3y
2
+ 2

2x = 0. (10.33)
Le matrici A e B sono date da:
A =

3 1
1 3

, B =

3 1

2
1 3 0

2 0 0

e (10.33) si pu` o scrivere come:


Capitolo 10 487

x y

x
y

2 0

x
y

= 0. (10.34)
Si osservi che det(A) = 8 e det(B) = 0, ci sono, quindi, ragionevoli motivi per pensare
che si tratti di unellisse. Gli autovalori di A sono
1
= 2 e
2
= 4, i corrispondenti
autovettori (di norma unitaria per ottenere una matrice ortogonale del cambiamento di
base) sono:
i

2
,
1

, j

2
,
1

,
vale a dire, le equazioni della rotazione sono:

x
y

= P

2
1

2
1

,
che sostituite in (10.34) portano allequazione:

2 0
0 4

2 0

2
1

2
1

= 0,
ossia:
2(x

)
2
+ 4(y

)
2
+ 2x

+ 2y

= 0.
Operando con il metodo del completamento dei quadrati mediante la traslazione:

X = x

+
1
2
Y = y

+
1
4
si ottiene:
X
2
3
8
+
Y
2
3
16
= 1.
488 Riduzione a Forma Canonica delle Coniche
Si tratta proprio di unellisse. Per calcolarne le coordinate del centro, dei vertici e le
equazioni degli assi ` e necessario determinare le equazioni complessive del movimento
rigido o rototraslazione del piano (composizione della rotazione e della traslazione) che
ha permesso di ricavare tale equazione, e precisamente:

x
y

= P

2
1

2
1

X
Y

1
2
1
4

2
1

2
1

X
Y

3
4

1
4

.
Quindi il centro O

dellellisse, rispetto al riferimento 1 = (O, x, y), ha coordinate:


O

3
4

2
,
1
4

,
gli assi, che, nel riferimento 1

= (O

, X, Y ), hanno equazioni X = 0, Y = 0, hanno


equazioni, nel riferimento iniziale 1 = (O, x, y), rispettivamente:
x y +

2
2
= 0, x + y +

2
4
= 0.
Con lo stesso procedimento si possono ricavare le coordinate dei vertici e dei fuochi
dellellisse.
Esempio 10.13 Si riduca a forma canonica la conica di equazione:
4x
2
4xy + y
2
+ 6x + 2y 3 = 0. (10.35)
Le matrici A e B sono date da:
A =

4 2
2 1

, B =

4 2 3
2 1 1
3 1 3

e (10.35) si pu` o scrivere come:


Capitolo 10 489

x y

x
y

6 2

x
y

3 = 0. (10.36)
Si osservi che det(A) = 0 e det(B) = 0, ci sono, quindi, ragionevoli motivi per pensare
che si tratti di una parabola. Gli autovalori di A sono
1
= 0 e
2
= 5, i corrispondenti
autovettori (di norma unitaria per avere una matrice del cambiamento di base che sia
ortogonale) sono:
i

5
,
2

, j

5
,
1

,
vale a dire, le equazioni della rotazione sono:

x
y

= P

5
2

5
1

,
che sostituite in (10.35) portano allequazione:

0 0
0 5

6 2

5
2

5
1

3 = 0,
ossia:
5(y

)
2
+ 2

5x

5y

3 = 0.
Operando con il metodo del completamento dei quadrati mediante i passaggi seguenti:
5(y

)
2
+ 2

5x

5y

3 = 0;
5

(y

)
2

2
5

5y

+
1
5

= 2

5 x

+ 4,
5

2
= 2

490 Riduzione a Forma Canonica delle Coniche


vale a dire, con la traslazione:

X = x

5
Y = y

5
si ottiene:
Y
2
=
2

5
5
X.
Si tratta proprio di una parabola. Per calcolare le coordinate del vertice, e le equazioni
dellasse e della direttrice ` e necessario determinare le equazioni complessive del movi-
mento rigido del piano (composizione della rotazione e della traslazione) che ha permesso
di ricavare tale equazione, e precisamente:

x
y

= P

5
2

5
1

X
Y

5
1

5
2

5
1

X
Y

0
1

.
Di conseguenza il vertice della parabola O

ha coordinate (0, 1) rispetto al riferimento


1 = (O, x, y) e lasse, che, nel riferimento 1

= (O

, X, Y ), ha equazione Y = 0, ha
equazione:
2x y + 1 = 0
nel riferimento iniziale 1 = (O, x, y). Con lo stesso procedimento si possono ricavare le
coordinate del fuoco e lequazione della direttrice.
Si riprende ora la dimostrazione del Teorema 10.6. Dallequazione (10.32) si ottiene:
B

1
0 a

13
0
2
a

23
a

13
a

23
a
33

il cui determinante ` e:
Capitolo 10 491
det(B) = det(B

) =
1

2
a
33

1
(a

23
)
2

2
(a

13
)
2
. (10.37)
Allo scopo di poter scrivere lequazione della conica in forma canonica, si deve effettuare
la traslazione:

= X + x
0
y

= Y + y
0
(10.38)
in modo da annullare i termini di primo grado. Per calcolare il valore di x
0
, y
0
si sostitui-
scono le equazioni della traslazione (10.38) in (10.32), si ottiene:

1
X
2
+
2
Y
2
+ 2(x
0

1
+ a

13
)X + 2(y
0

2
+ a

23
)Y + = 0 (10.39)
e il temine noto ` e dato da:
=
1
x
2
0
+
2
y
2
0
+ 2a

13
x
0
+ 2a

23
y
0
+ a
33
. (10.40)
Si distinguono i seguenti casi:
1.
1
= 0,
2
= 0;
2.
1
= 0,
2
= 0;
3.
1
= 0,
2
= 0.
1. Essendo
1
= 0,
2
= 0, allora
1

2
= det(D) = det(A) = 0. Si pone:
x
0
=
a

13

1
, y
0
=
a

23

2
, (10.41)
sostituendo (10.41) in (10.39) si ha:

1
X
2
+
2
Y
2
+ = 0,
e sostituendo in (10.40) si ottiene:
=
det(B

2
. (10.42)
Si perviene quindi alla seguente classicazione:
a. se
1
e
2
hanno lo stesso segno e det(B

) = det(B) = 0, si ottiene unellisse


reale o immaginaria;
492 Riduzione a Forma Canonica delle Coniche
b. se
1
e
2
hanno segno opposto e det(B

) = det(B) = 0, si ottiene uniper-


bole;
c. se
1
e
2
hanno lo stesso segno e det(B

) = det(B) = 0 (ossia = 0, cfr.


(10.42)), si ottiene una conica degenere formata da un solo punto reale (inter-
sezione di due rette le cui equazioni hanno coefcienti in campo complesso);
d. se
1
e
2
hanno segno opposto e det(B

) = det(B) = 0 (ossia = 0, cfr.


(10.42)), si ottiene una conica degenere formata da due rette reali incidenti.
Si osservi che nei due ultimi casi il rango della matrice B ` e 2.
2.
1
= 0,
2
= 0, lequazione (10.32) diventa:

2
(y

)
2
+ 2a

13
x

+ 2a

23
y

+ a
33
= 0.
Sostituendo le equazioni della traslazione (10.38) si ottiene:

2
Y
2
+ 2(y
0

2
+ a

23
)Y + 2a

13
X + = 0, (10.43)
e il temine noto ` e dato da:
=
2
y
2
0
+ 2a

13
x
0
+ 2a

23
y
0
+ a
33
.
Si distinguono i due sottocasi:
a. a

13
= 0: segue che:
y
0
=
a

23

2
;
operando quindi con una traslazione in cui x
0
pu` o assumere qualsiasi valore,
da (10.43) si ha:

2
Y
2
+ = 0. (10.44)
Si ottiene, inoltre, da (10.37) che det(B) = det(B

) = 0. Se = 0, allora
il rango di B

` e 2 e lequazione (10.44) rappresenta due rette parallele (con


equazioni a coefcienti reali o complessi). Se anche = 0, allora il rango di
B

` e 1 e si ottengono due rette coincidenti.


Capitolo 10 493
b. a

13
= 0: segue, di nuovo, che:
y
0
=
a

23

2
e lequazione (10.43) si riduce a:

2
Y
2
+ 2a

13
X + = 0,
ossia:

2
Y
2
+ 2a

13

X +

2a

13

= 0.
Dallequazione = 0 si ottiene anche il valore cercato di x
0
, pertanto ` e
univocamente denita la traslazione cercata. La conica ` e una parabola. Si
osservi che:
det(B) = det(B

) =
2
(a

13
)
2
= 0.
3.
1
= 0,
2
= 0, lequazione (10.32) diventa:

1
(x

)
2
+ 2a

13
x

+ 2a

23
y

+ a
33
= 0.
Sostituendo le equazioni della traslazione (10.38) si ottiene:

1
X
2
+ 2(x
0

1
+ a

13
)X + 2a

23
Y + = 0, (10.45)
e il temine noto ` e dato da:
=
1
x
2
0
+ 2a

13
x
0
+ 2a

23
y
0
+ a
33
.
Si distinguono i due sottocasi:
a. a

23
= 0: segue che:
x
0
=
a

13

1
,
operando quindi con una traslazione in cui y
0
pu` o assumere qualsiasi valore,
da (10.45) si ha:

1
X
2
+ = 0. (10.46)
Si ottiene, inoltre, da (10.37) che det(B) = det(B

) = 0. Se = 0, allora il
rango di B

` e 2 (si ricordi che


1
= 0) e lequazione (10.44) rappresenta due
rette parallele (con equazione a coefcienti reali o immaginarie). Se anche
= 0, allora il rango di B

` e 1 e si ottengono due rette coincidenti.


494 Riduzione a Forma Canonica delle Coniche
b. a

23
= 0: segue, di nuovo, che:
x
0
=
a

13

1
e lequazione (10.43) diventa:

1
X
2
+ 2a

23
Y + = 0,
ossia:

1
X
2
+ 2a

23

Y +

2a

23

= 0.
Dallequazione = 0 si ottiene anche il valore cercato di y
0
, pertanto ` e
univocamente denita la traslazione cercata. La conica ` e una parabola. Si
osservi che det(B) = det(B

) =
1
a

23
= 0.
A partire dallequazione (10.27) si sono cos` ottenute tutte le coniche degeneri e non
degeneri; si osservi che tutte le coniche degeneri sono caratterizzate da det(B) = 0
e classicate dal rango di B; mentre se det(B) = 0, allora le coniche non degeneri
sono caratterizzate da det(A); e precisamente det(A) = 0 corrisponde alla parabola,
det(A) > 0 allellisse, det(A) < 0 alliperbole.
Osservazione 10.4 Come risulta dal contesto si dicono coniche degeneri quelle coniche
costituite da: due rette immaginarie coniugate, due rette reali e distinte, due rette parallele,
due rette coincidenti. La caratterizzazione delle coniche degeneri attraverso la condizio-
ne det(B) = 0 si ottiene facilmente dopo aver ridotto le coniche in forma canonica e
ricordando che det(B) = det(B

).
Riassumendo i risultati ottenuti nella dimostrazione precedente, si pu` o procedere alla clas-
sicazione delle coniche attraverso il rango rank(A) e rank(B) delle matrici associate,
tenuto conto che il rango di A ed il rango di B sono invarianti per rototraslazioni nel
piano, cio` e per composizioni di rotazioni e traslazioni:
Capitolo 10 495
rank(B) = 3

rank(A) = 2: ellisse (reale o immaginaria), iperbole;


rank(A) = 1: parabola.
rank(B) = 2

rank(A) = 2: due rette incidenti (reali o immaginarie);


rank(A) = 1: due rette parallele (reali o immaginarie).
rank(B) = rank(A) = 1: due rette coincidenti.
10.5 Esercizi di riepilogo svolti
Esercizio 10.10 Nel piano, rispetto ad un riferimento cartesiano 1 = (O, x, y) = (O, i, j),
scrivere lequazione dellellisse avente centro nellorigine e vertici:
A
1
= (4

2, 4

2), A
2
= (4

2, 4

2), B
1
= (

2,

2), B
2
= (

2,

2),
indicando esplicitamente le equazioni del cambiamento di riferimento usato.
Soluzione Le coppie di vertici A
1
, A
2
e B
1
, B
2
appartengono rispettivamente alle
rette:
X : x y = 0, Y : x + y = 0
le quali, con lorigine O, si possono assumere come assi del nuovo riferimento cartesiano
1

= (O, X, Y ) = (O, i

, j

), dove:
i

=
1

2
(i +j), j

=
1

2
(i +j).
Tenuto conto che lellisse ha semiassi:
a = d(A
1
, O) = 8
b = d(B
1
, O) = 2,
la sua equazione, nel riferimento 1

, ` e:
X
2
64
+
Y
2
4
= 1. (10.47)
Detta:
496 Riduzione a Forma Canonica delle Coniche
P =

2
1

2
1

la matrice ortogonale, con determinante pari a 1, del cambiamento di base dalla base
B = (i, j) alla base B

= (i

, j

), si ha:

x
y

= P

X
Y

X
Y

=
t
P

x
y

,
(si ricordi che
t
P = P
1
). Sostituendo in (10.47) si ha:
17x
2
+ 17y
2
30xy 128 = 0
che ` e lequazione dellellisse richiesta.
Esercizio 10.11 Nel piano, rispetto ad un riferimento cartesiano 1 = (O, x, y) = (O, i, j),
scrivere lequazione della parabola avente per asse la retta r : x 2y = 0, il vertice
nellorigine ed il fuoco nel punto F = (2, 1).
Soluzione I vettori r = 2i + j parallelo alla retta r, s = i + 2j ortogonale ad r e
lorigine O individuano un nuovo riferimento cartesiano 1

= (O, X, Y ) = (O, i

, j

),
dove:
i

=
r
|r|
=
2

5
i +
1

5
j, j

=
s
|s|
=
1

5
i +
2

5
j.
In tale riferimento, poich e d(O, F) =

5, lequazione della parabola ` e:


Y
2
= 4

5X. (10.48)
Detta:
P =

5
1

5
2

Capitolo 10 497
la matrice ortogonale, con determinante pari a 1, del cambiamento di base dalla base
B = (i, j) alla base B

= (i

, j

), si ha:

x
y

= P

X
Y

X
Y

=
t
P

x
y

,
(si ricordi che
t
P = P
1
). Sostituendo in (10.48) si ha:
x
2
4xy + 4y
2
40x 20y = 0
che ` e lequazione della parabola richiesta.
Esercizio 10.12 Nel piano, rispetto al riferimento cartesiano 1 = (O, x, y) scrivere
lequazione della parabola avente fuoco F = (2, 1) e direttrice h : 2x + y + 5 = 0.
Soluzione Il punto generico P = (x, y) della parabola verica la condizione:
d(P, F) = d(P, h),
ossia:
(x 2)
2
+ (y 1)
2
=

2x + y + 5

2
,
vale a dire:
x
2
4xy + 4y
2
40x 20y = 0.
Nel riferimento 1

= (O, X, Y ) che ha lasse X coincidente con la retta OF di equazio-


ne x2y = 0 e lasse Y passante per O ed ortogonale allasse X, il fuoco ha coordinate
F = (

5, 0) e lequazione della parabola ` e:


Y
2
= 4

5X.
La stessa equazione si ottiene ricordando che d(P, F) = d(P, h) e, nel riferimento 1

, la
retta h ha equazione X =

5, il fuoco ha cordinate (

5, 0), quindi:
(X

5)
2
+ Y
2
= (X +

5)
2
,
da cui si perviene di nuovo allequazione Y
2
= 4

5X.
498 Riduzione a Forma Canonica delle Coniche
Esercizio 10.13 Vericare che la conica di equazione:
2x
2
5xy 3y
2
+ 7y 2 = 0 (10.49)
` e degenere e scriverla come prodotto di due rette.
Soluzione La matrice B a cui ` e associata la conica:
B =

2
5
2
0

5
2
3
7
2
0
7
2
2

ha rango 2. Si tratta quindi del prodotto di due rette incidenti. Per determinarne le equa-
zioni si pu o, per esempio, ricavare il valore di x, rispetto ad y, nellequazione (10.49),
ottenendo:
x
1,2
=
5y

25y
2
8(3y
2
+ 7y 2)
4
=
5y (7y 4)
4
,
da cui segue:
2x
2
5xy 3y
2
+ 7y 2 = 2 [x (3y 1)]

x
y + 2
2

= 0,
che ` e la decomposizione cercata.
10.6 Per saperne di pi ` u
10.6.1 Potenza di un punto rispetto ad una circonferenza
10.6.2 Equazioni parametriche delle coniche
Come si ` e gi` a osservato nel caso della retta (cfr. (9.10)) anche le coniche possono essere
rappresentate mediante due equazioni parametriche scritte in funzione di un parametro t
reale che varia in un opportuno intervallo della retta reale.
`
E chiaro per o che, ad eccezione
Capitolo 10 499
delle coniche degeneri, le equazioni parametriche delle coniche non saranno lineari in t
(cfr. Teor. 10.6).
1. La circonferenza di centro lorigine e raggio r si pu` o scrivere in forma parametrica
come:

x = r cos t
y = r sin t, 0 t < 2.
La circonferenza di centro C = (, ) e raggio r ha equazioni parametriche:

x = + r cos t
y = + r sin t, 0 t < 2.
`
E chiaro che le equazioni parametriche di una curva non sono uniche, per esempio
un arco di circonferenza di centro lorigine e raggio r si pu` o anche rappresentare
come:

x = r
1
2
1 +
2
y = r
2
2
1 +
2
, R.
La rappresentazione della circonferenza appena indicata non comprende il punto di
coordinate (r, 0).
2. Lellisse di centro lorigine e semiassi a e b si pu` o scrivere in forma parametrica
come:

x = a cos t
y = b sin t, 0 t < 2.
Si osservi che i punti dellellisse hanno ascissa uguale a quella dei punti della
circonferenza di centro lorigine e raggio a e ordinata uguale a quella dei punti
della circonferenza di centro lorigine e raggio b; si pu` o cos` ricavare un metodo
interessante per disegnare i punti dellellisse.
Lellisse di centro C = (, ) e semiassi a e b ha equazioni parametriche:

x = + a cos t
y = + b sin t, 0 t < 2.
3. Liperbole di centro lorigine e semiassi a e b si pu` o scrivere in forma parametrica
come:

x = a cosh t
y = b sinh t, t R.
500 Riduzione a Forma Canonica delle Coniche
Liperbole di centro C = (, ) e semiassi a e b ha equazioni parametriche:

x = a cosh t
y = + b sinh t, t R.
4. La parabola di vertice lorigine e asse lasse x si pu` o scrivere in forma parametrica
come:

x =
t
2
2p
y = t, t R, p = 0.
Per maggiori dettagli sulla rappresentazione parametrica delle coniche e delle curve nel
piano in generale si rimanda, per esempio, a [10].
10.6.3 Le coniche in forma polare
Scopo di questo paragrafo ` e rappresentare le coniche mediante le coordinate polari ge-
neralizzate (, ), introdotte nel Paragrafo 9.3. Come dimostrato nel Paragrafo 10.3, le
coniche possono essere denite come il luogo dei punti P del piano tali che:
d(P, F)
d(P, f)
= e,
dove F ` e il fuoco, f la direttrice ed e leccentricit` a. Se si sceglie un riferimento cartesiano
1 = (O, x, y) avente lorigine O coincidente con il fuoco e la direttrice parallela allasse
y di equazione: x = k, allora le coniche possono essere denite come il luogo dei punti
P = (x, y) che vericano:
x
2
+ y
2
= e
2
(x k)
2
. (10.50)
Ci si propone di scrivere lequazione (10.50) in coordinate polari generalizzate. Da (9.5),
sostituendo in (10.50) si ha:

2
= e
2
( cos k)
2
,
da cui, estraendo la radice quadrata, segue:
= e( cos k).
Si ottengono cos`, sorpendentemente, due equazioni in coordinate polari:
(1 e cos ) = ek, (10.51)
e
(1 + e cos ) = ek. (10.52)
Capitolo 10 501
Se si considera, per` o, un generico punto P = (
0
,
0
) appartenente alla conica di equa-
zione (10.51), quindi:

0
=
ek
1 e cos
0
,
P
0
pu` o essere anche rappresentato, in modo equivalente, come (
0
,
0
+ ).
`
E imme-
diato vericare che questi valori vericano (10.52), e viceversa, pertanto (10.51) e (10.52)
rappresentano lo stesso luogo di punti.
Si distinguono i seguenti casi:
1. e = 1: caso della parabola. Lequazione in coordinate polari ` e:
=
k
1 + cos
oppure:
=
k
1 cos
.
Si osservi che, in entrambi i casi, il denominatore si annulla per = 0+2n oppure
= + 2n, con n numero intero, che corrisponde allangolo formato dal raggio
vettore con lasse x (vale a dire il raggio vettore ` e parallelo allasse x).
2. e < 1: caso dellellisse. Si osservi che non esistono valori di per cui 1e cos =
0.
3. e > 1: caso delliperbole. In questo caso i valori di per cui 1 e cos = 0
corrispondono alle direzioni degli asintoti.
502 Riduzione a Forma Canonica delle Coniche
Capitolo 11
Geometria Analitica nello Spazio
Questo capitolo non ` e da considerarsi in forma nale
In questo capitolo viene trattata la rappresentazione di piani, rette, sfere e circonferenze
nello spazio mediante equazioni cartesiane e parametriche. Sono queste le nozioni di base
di Geometria Analitica nello Spazio che saranno completate nel capitolo successivo. In
una breve appendice nellultimo paragrafo si presenta, tra laltro, la nozione di baricen-
tro geometrico di n punti dello spazio, nozione che, come casi particolari, vedr` a la sua
naturale applicazione al calcolo del baricentro di un triangolo e di un tetraedro. Per i si-
gnicati sici del concetto di baricentro si rimanda ai testi classici di meccanica. In tutto
il capitolo saranno usate le notazioni introdotte nei capitoli precedenti ed in particolare
nel Capitolo 3, per esempio S
3
indicher` a lo spazio (inteso come spazio afne di punti)
ed S
2
il piano (inteso come spazio ambiente). Come nel Capitolo 9, per individuare le
rappresentazioni di piani, rette, sfere e circonferenze si far` a uso delle nozioni di calcolo
vettoriale introdotte nel Capitolo 3.
11.1 Il riferimento cartesiano nello spazio
In modo analogo al caso della Geometria Analitica nel Piano (cfr. Par. 9.1) si denisce il
riferimento cartesiano nello spazio 1 = (O, i, j, k) come linsieme formato da un punto
detto origine del riferimento e indicato con la lettera O e una base ortonormale positiva
dello spazio vettoriale V
3
(cfr. Def. 3.13) B = (i, j, k). Le rette orientate individuate
dai vettori i, j e k, che si intersecano tutte nel punto O, prendono, rispettivamente, il
nome di asse delle ascisse, asse delle ordinate, asse delle quote. In questo modo si
individua una corrispondenza biunivoca tra i punti P dello spazio e le componenti del
503
504 Geometria Analitica nello Spazio
vettore

OP = P O. Ponendo:

OP = xi + yj + zk,
al punto P si associa in modo univoco la terna di numeri reali (x, y, z):
P = (x, y, z),
precisamente x ` e lascissa del punto P, y ` e la sua ordinata e z ` e la sua quota. La
situazione geometrica ` e illustrata nella Figura 11.1.
P
O
x
y
z
Figura 11.1: Il riferimento cartesiano nello spazio
Il riferimento cartesiano determina, in modo naturale, tre piani, detti piani coordinati e
precisamente:
1. il piano individuato dal punto O e dai versori i, j, anche denominato piano xy;
2. il piano individuato dal punto O e dai versori i, k, anche denominato piano xz;
3. il piano individuato dal punto O e dai versori j, k, anche denominato piano yz.
Il riferimento cartesiano sar` a indicato con il simbolo 1 = (O, x, y, z) o equivalentemente
con 1 = (O, i, j, k).
Capitolo 11 505
11.1.1 Distanza tra due punti
Dati due punti A = (x
A
, y
A
, z
A
) e B = (x
B
, y
B
, z
B
) dello spazio la loro distanza ` e data
da:
d(A, B) =

(x
B
x
A
)
2
+ (y
B
y
A
)
2
+ (z
B
z
A
)
2
.
Infatti, analogamente al caso del piano (cfr. Par. 9.1.1), la distanza d(A, B) coincide con
la norma del vettore

AB le cui componenti sono:

AB = (x
B
x
A
)i + (y
B
y
A
)j + (z
B
z
A
)k.
11.1.2 Punto medio di un segmento
Dati due punti A = (x
A
, y
A
, z
A
) e B = (x
B
, y
B
, z
B
) dello spazio, le coordinate del punto
medio M del segmento AB sono:
M =

x
A
+ x
B
2
,
y
A
+ y
B
2
,
z
A
+ z
B
2

.
Ad esempio il punto medio del segmento di estremi A = (2, 2, 1) e B = (0, 6, 3) ` e il
punto M = (1, 2, 1).
11.1.3 Baricentro di un triangolo e di un tetraedro
Dati tre punti A = (x
A
, y
A
, z
A
), B = (x
B
, y
B
, z
B
) e C = (x
C
, y
C
, z
C
) non allineati, il
baricentro G del triangolo da essi individuato ha coordinate:
G =

x
A
+ x
B
+ x
C
3
,
y
A
+ y
B
+ y
C
3
,
z
A
+ z
B
+ z
C
3

.
Per la dimostrazione si veda il Paragrafo 11.12.1.
Dati quattro punti nello spazio A = (x
A
, y
A
, z
A
), B = (x
B
, y
B
, z
B
), C = (x
C
, y
C
, z
C
)
e D = (x
D
, y
D
, z
D
) non allineati e non tutti complanari, il baricentro G del tetraedro da
essi individuato ha coordinate:
G =

x
A
+ x
B
+ x
C
+ x
D
4
,
y
A
+ y
B
+ y
C
+ y
D
4
,
z
A
+ z
B
+ z
C
+ z
D
4

.
Per la dimostrazione si veda il Paragrafo 11.12.1.
506 Geometria Analitica nello Spazio
11.1.4 Area di un triangolo e volume di un tetraedro
Dati tre punti nello spazio A = (x
A
, y
A
, z
A
), B = (x
B
, y
B
, z
B
) e C = (x
C
, y
C
, z
C
) non
allineati, larea del del triangolo da essi individuato ` e data da:
/
ABC
=
1
2
[[

AB

AC [[.
Per la dimostrazione si veda il Teorema 3.15.
Dati quattro punti nello spazio A = (x
A
, y
A
, z
A
), B = (x
B
, y
B
, z
B
), C = (x
C
, y
C
, z
C
)
e D = (x
D
, y
D
, z
D
) non allineati e non tutti complanari, il volume del tetraedro da essi
individuato ` e dato da:
1
ABCD
=
1
6
[

AB

AC

AD[.
Per la dimostrazione si veda il Teorema 3.19.
11.2 Rappresentazione di un piano nello spazio
In questo paragrafo sono descritti modi diversi per rappresentare un piano nello spazio
rispetto ad un riferimento cartesiano 1 = (O, i, j, k) = (O, x, y, z) pressato. Infatti un
piano nello spazio si pu` o individuare assegnando:
1. un punto P
0
del piano ed un vettore n non nullo ortogonale a ;
2. un punto P
0
del piano e due vettori u e v paralleli a e linearmente indipendenti
tra di loro;
3. tre punti A, B e C non allineati appartenenti al piano .
Si dimostrer` a che ogni equazione di primo grado in x, y e z del tipo:
ax + by + cz + d = 0,
con a, b, c, d R e a, b, c non contemporaneamente tutti uguali a zero, rappresenta un
piano. Viceversa, ogni piano dello spazio ` e rappresentabile tramite unequazione lineare
in x, y, z del tipo suddetto.
11.2.1 Piano per un punto ortogonale ad un vettore
Sia il piano passante per un punto P
0
ortogonale ad un vettore n = o. Allora ` e il
luogo dei punti P dello spazio tali che il vettore

P
0
P ` e ortogonale al vettore n, ovvero:
= P S
3
[

P
0
P n = 0. (11.1)
Capitolo 11 507
P
0
P
n
Figura 11.2: Piano passante per il punto P
0
e ortogonale al vettore n
La situazione geometrica ` e rappresentata nella Figura 11.2.
Siano P
0
= (x
0
, y
0
, z
0
) e P = (x, y, z) le coordinate dei punti P
0
e P, n = (a, b, c) le
componenti del vettore n rispetto alla base ortonormale positiva B = (i, j, k). Lequa-
zione vettoriale

P
0
P n = 0, in componenti, equivale a:
a(x x
0
) + b(y y
0
) + c(z z
0
) = 0
e quindi ad unequazione del tipo:
ax + by + cz + d = 0, (11.2)
con d = ax
0
by
0
cz
0
, detta equazione cartesiana del piano in cui (a, b, c) sono le
componenti (non contemporaneamente tutte uguali a zero) di un vettore ortogonale a .
Esempio 11.1 Il piano passante per il punto P
0
= (1, 0, 1) e ortogonale al vettore
n = j + 2k ha equazione cartesiana y + 2z + 2 = 0.
Il teorema che segue dimostra che tutte e solo le equazioni lineari in x, y, z determinano
un piano nello spazio. Questo risultato ` e analogo a quello ottenuto nel Teorema 9.1 nel
caso delle rette nel piano e si pu` o agevolmente estendere a dimensioni superiori.
Teorema 11.1 Ogni equazione lineare in x, y e z del tipo (11.2) rappresenta, a meno di
un fattore moltiplicativo non nullo, lequazione cartesiana di un piano nello spazio S
3
.
508 Geometria Analitica nello Spazio
Dimostrazione Se (a, b, c) = (0, 0, 0) esiste almeno un punto P
0
= (x
0
, y
0
, z
0
) del
piano le cui coordinate soddisfano lequazione (11.2). Quindi d = ax
0
by
0
cz
0
e
si pu` o riscrivere lequazione (11.2) nella forma a(x x
0
) + b(y y
0
) + c(z z
0
) = 0,
che rappresenta il piano passante per il punto P
0
ortogonale al vettore n = ai + bj + ck.
Inoltre, per ogni numero reale , con = 0, le due equazioni (11.2) e:
(ax + by + cz + d) = 0
rappresentano lo stesso piano.
Esempio 11.2 Lequazione 3y+6z+6 = 0 rappresenta il piano considerato nellEsempio
11.1.
Osservazione 11.1 1. Lorigine O = (0, 0, 0) appartiene al piano di equazione (11.2)
se e solo se d = 0.
2. Il piano coordinato xy ha equazione cartesiana z = 0, in quanto ` e ortogonale al
versore k e contiene lorigine O. Analogamente i piani coordinati xz e yz hanno
rispettivamente equazioni cartesiane y = 0 e x = 0.
3. Intuitivamente si capisce che lequazione z = k con k R rappresenta un pia-
no parallelo al piano xy, analogamente lequazione x = k rappresenta un piano
parallelo al piano yz e lequazione y = k rappresenta un piano parallelo al piano
xz. Per la denizione precisa di parallelismo tra due piani si rimanda al Paragrafo
11.3.3.
4. Lequazione ax + by + d = 0, con tutti i coefcienti non nulli, rappresenta, nello
spazio, un piano ortogonale al vettore n = ai+bj, pertanto ` e un piano parallelo
allasse z. Se d = 0, allora contiene lasse z. Si presti molta attenzione a non
confondere lequazione del piano con lequazione di una retta scritta nel piano
S
2
. Per la discussione precisa del parallelismo tra una retta e un piano si rimanda
al Paragrafo 11.4. Si lascia al Lettore, per esercizio, la descrizione della posizione
dei piani di equazione ax +cz +d = 0 e by +cz +d = 0 al variare di a, b, c, d in
modo opportuno in campo reale.
11.2.2 Piano per un punto parallelo a due vettori
Sia il piano passante per il punto P
0
e parallelo a due vettori linearmente indipendenti
u e v. Allora ` e il luogo dei punti P dello spazio tali che i vettori

P
0
P, u, v sono
linearmente dipendenti, vale a dire:
= P S
3
[

P
0
P = tu + sv, t, s R,
Capitolo 11 509
P
0
P
u
v
Figura 11.3: Piano passante per il punto P
0
e parallelo ai vettori u e v
ossia:
: P = P
0
+ tu + sv, t, s R. (11.3)
Quindi un punto P = (x, y, z) appartiene al piano se e solo se il vettore

P
0
P ` e
complanare ad u e a v. La (11.3) ` e detta equazione vettoriale parametrica di men-
tre t, s R sono i parametri al variare dei quali il punto P descrive il piano . La
situazione geometrica ` e rappresentata nella Figura 11.3.
Siano P
0
= (x
0
, y
0
, z
0
) e P = (x, y, z) le coordinate dei punti P
0
e P nel riferimento
cartesiano 1 = (O, i, j, k) e u = (l, m, n) e v = (l

, m

, n

) le componenti dei vettori


u e v rispetto alla base ortonormale positiva B = (i, j, k). Si verica che lequazione
(11.3) equivale a:

x = x
0
+ lt + l

s
y = y
0
+ mt + m

s,
z = z
0
+ nt + n

s, t, s R,
(11.4)
che sono le equazioni parametriche del piano . Si osservi che il piano ammette innite
equazioni parametriche diverse, ` e sufciente scegliere, per la loro determinazione, un altro
punto e unaltra coppia di vettori appartenenti al piano .
Dal Teorema 3.22 risulta che tre vettori dello spazio vettoriale V
3
sono complanari se e
solo se il loro prodotto misto ` e uguale a zero, pertanto ` e condizione equivalente alla (11.3)
lequazione:

P
0
P u v = 0, (11.5)
che, a differenza di (11.3), non dipende da alcun parametro e, in componenti, equivale a:
510 Geometria Analitica nello Spazio

x x
0
y y
0
z z
0
l m n
l

= 0, (11.6)
che rappresenta lequazione cartesiana del piano passante per il punto P
0
= (x
0
, y
0
, z
0
) e
parallelo ai vettori u = (l, m, n) e v = (l

, m

, n

). Sviluppando il determinante appena


ottenuto secondo la prima riga si ha:

m n
m

(x x
0
)

l n
l

(y y
0
) +

l m
l

(z z
0
) = 0. (11.7)
Si noti che lequazione (11.7) coincide con lequazione (11.2) in cui le componenti del
vettore n ortogonale al piano sono proporzionali alle componenti del vettore u v.
Esempio 11.3 Il piano passante per il punto P
0
= (1, 3, 1) e parallelo ai vettori:
u = 2i j +k, v = i +j
ha equazioni parametriche:

x = 1 + 2t + s
y = 3 t + s,
z = 1 + t, t, s R.
(11.8)
Si verica facilmente che il punto A = (0, 1, 2) appartiene a , infatti le sue coordinate
si ottengono ponendo t = 1 e s = 1 in (11.8). Invece lorigine O = (0, 0, 0) non
appartiene a perch e il sistema lineare:

0 = 1 + 2t + s
0 = 3 t + s
0 = 1 + t
` e incompatibile. Si verichi che i vettori u

= (1, 1, 0) e v

= (1, 2 1) appartengono
al piano , di conseguenza anche:

x =
y = 1 + + 2
z = 2 , , R
sono equazioni parametriche di .
Per ottenere lequazione cartesiana di si pu` o procedere in modi diversi:
Capitolo 11 511
1. si possono eliminare i due parametri t e s nelle equazioni parametriche (11.8).
Per esempio si pu` o prima ricavare dalla terza equazione parametrica t = z 1,
dalla seconda si ha s = y + z 4 e quindi sostituendo nella prima si perviene
allequazione cartesiana di :
x 2(z 1) (y + z 4) + 1 = 0.
2. Usando il calcolo vettoriale si ha che il prodotto vettoriale u v ` e un vettore
ortogonale al piano . Poich e:
u v =

i j k
2 1 1
1 1 0

= i +j + 3k
si ottiene quindi come equazione cartesiana di :
(x + 1) + (y 3) + 3(z 1) = 0.
3. Sostituendo i dati dellesercizio in (11.6) si ha:

x + 1 y 3 z 1
2 1 1
1 1 0

= 0.
Si osservi che, qualunque sia il metodo seguito, si perviene ad una sola equazione carte-
siana di , a meno di un coefciente di proporzionalit` a non nullo.
11.2.3 Piano per tre punti non allineati
Dati tre punti non allineati A = (x
A
, y
A
, z
A
), B = (x
B
, y
B
, z
B
) e C = (x
C
, y
C
, z
C
), il
piano passante per A, B e C ` e parallelo ai vettori

AB e

AC e quindi ha, ad esempio,
equazioni parametriche:
P = A + t

AB + s

AC, t, s R,
in accordo con (11.3). Un vettore ortogonale al piano passante per A, B e C ` e il vettore

AB

AC, di conseguenza pu` o essere descritto come il luogo geometrico dei punti P
tali che:

AP

AB

AC = 0.
Esplicitando questo prodotto misto in componenti si trova lequazione cartesiana di :

x x
A
y y
A
z z
A
x
B
x
A
y
B
y
A
z
B
z
A
x
C
x
A
y
C
y
A
z
C
z
A

= 0.
512 Geometria Analitica nello Spazio
Esercizio 11.1 Tre punti non allineati individuano un solo piano. Perch e nellequazione
ax + by + cz + d = 0 ci sono quattro parametri a, b, c, d?
Esempio 11.4 Il piano passante per i tre punti:
A = (1, 2, 1), B = (2, 3, 0), C = (1, 0, 0)
ha equazioni parametriche:

x = 1 + t + 2s
y = 2 t 2s
z = 1 t s, t, s R,
ed equazione cartesiana:
3x + y + 4z 3 = 0.
Esercizio 11.2 Determinare lequazione del piano parallelo allasse x e passante per i
punti P
0
= (1, 0, 2) e P
1
= (2, 1, 1).
Soluzione Il piano richiesto ` e formato dai punti P dello spazio per cui:

P
0
P i

P
0
P
1
= 0
e quindi ha equazione cartesiana:

x 1 y z 2
1 0 0
3 1 1

= y + z 2 = 0.
Esercizio 11.3 A partire dalla generica equazione cartesiana di un piano:
: ax + by + cz + d = 0,
supponendo che a, b, c siano tutti diversi da zero, si perviene allequazione:
:
x
p
+
y
q
+
z
r
= 1. (11.9)
Si interpretino geometricamente i numeri p, q, r cos` determinati.
Soluzione I punti A = (p, 0, 0), B = (0, q, 0), C = (0, 0, r) appartengono al pia-
no individuato dallequazione (11.9), pertanto p ` e la distanza, con segno, del punto A
dallorigine del riferimento, q ` e la distanza, con segno, del punto B dallorigine, r ` e la
distanza, con segno, del punto C dallorigine. In altri termini, p, q, r sono le lunghezze,
con segno, dei segmenti che il piano intercetta, rispettivamente, sugli assi delle ascis-
se, delle ordinate e delle quote. Per questo motivo (11.9) prende il nome di equazione
segmentaria del piano.
Capitolo 11 513
11.3 Rappresentazione della retta nello spazio
Una retta r nello spazio, rispetto ad un riferimento cartesiano 1 = (O, i, j, k) = (O, x, y, z),
si pu` o individuare assegnando:
1. un punto P
0
della retta r ed un vettore r non nullo parallelo a r;
2. due punti A e B distinti della retta r;
3. due piani
1
e
2
incidenti lungo r.
Si vedr` a che, mentre la rappresentazione parametrica di un piano nello spazio ` e analoga
a quella di una retta nel piano, la rappresentazione cartesiana di una retta nello spazio
cambia notevolmente. Infatti, come ` e gi` a stato osservato nel paragrafo precedente, le-
quazione cartesiana ax + by + c = 0 di una retta r nel piano corrisponde, nello spazio,
allequazione cartesiana di un piano parallelo allasse z. La retta r risulta essere, nello
spazio, lintersezione del piano con il piano coordinato xy. Maggiori dettagli e spiega-
zioni di questa situazione geometrica, descritta solo intuitivamente, si avranno nel corso
di tutto il paragrafo.
11.3.1 Retta per un punto parallela ad un vettore
Sia r la retta passante per il punto P
0
parallela ad un vettore r = o. Allora la retta r ` e
il luogo geometrico dei punti P dello spazio tali da rendere paralleli i vettori

P
0
P e r,
ossia:
r = P S
3
[

P
0
P = tr, t R,
o anche:
r : P = P
0
+ tr, t R. (11.10)
La (11.10) ` e detta equazione vettoriale parametrica di r, t R ` e il parametro al variare
del quale in R il punto P descrive la retta r. Segmenti della retta r si possono ottenere
per valori di t limitati ad intervalli di R. Se t assume solo valori positivi, compreso il
numero zero, si ha una semiretta di origine P
0
, laltra semiretta si ottiene per valori di t
negativi, zero compreso, se si vuole includere anche lorigine P
0
.
Siano P
0
= (x
0
, y
0
, z
0
) e P = (x, y, z) le coordinate cartesiane di P
0
e P rispetto al
riferimento cartesiano 1 = (O, i, j, k) e r = (l, m, n) le componenti di r rispetto alla
base ortonormale positiva B = (i, j, k). Si verica che lequazione (11.10) equivale a:
514 Geometria Analitica nello Spazio

x = x
0
+ lt
y = y
0
+ mt
z = z
0
+ nt, t R,
(11.11)
che sono le equazioni parametriche di r ed (l, m, n) prendono il nome di parametri
direttori della retta r.
Osservazione 11.2 Siano (l, m, n) i parametri direttori di una retta r, allora:
1. (l, m, n) non sono contemporaneamente nulli e sono individuati a meno di un fat-
tore moltiplicativo, cio` e (l, m, n), con = 0, sono anche parametri direttori
della retta r;
2. se l = 0 e m = 0 la retta r ` e parallela allasse z, se m = 0 e n = 0 la retta r ` e
parallela allasse x, se l = 0 e n = 0 la retta r ` e parallela allasse y;
3. i coseni direttori della retta r, ossia i coseni degli angoli che la retta r forma con
gli assi coordinati coincidono (a meno del segno) con i coseni degi angoli che un
generico vettore r parallelo alla retta r forma rispettivamente con i versori i, j, k
della base ortonormale che individua il sistema di riferimento usato, ossia:
cos(

ri) =
l

l
2
+ m
2
+ n
2
,
cos(

rj) =
m

l
2
+ m
2
+ n
2
,
cos(

rk) =
n

l
2
+ m
2
+ n
2
.
Si osservi che cos(

ri)
2
+cos(

rj)
2
+cos(

rk)
2
= 1, maggiori dettagli sulla denizione
e il calcolo degli angoli individuati da due rette si vedranno nel Paragrafo 11.6.4.
Esercizio 11.4 Determinare le equazioni parametriche della retta r parallela al vettore
r = i j + 2k e passante per il punto P
0
= (1, 2, 3); determinare, inoltre, i coseni
direttori di r.
Soluzione Le equazioni parametriche di r sono:

x = 1 + t
y = 2 t
z = 3 + 2t, t R;
Capitolo 11 515
per i coseni direttori si ha:
cos(

ri) =
1

6
, cos(

rj) =
1

6
, cos(

rk) =
2

6
.
Osservazione 11.3 1. Ponendo t = 1 nelle equazioni parametriche della retta r otte-
nuta nellesercizio precedente si trova il punto P
1
= (2, 1, 5) e quindi la retta r ha
anche equazioni parametriche:

x = 2 +
y = 1
z = 5 + 2, R.
2. Per t [0, 1] si ha il segmento sulla retta r di estremi i punti P
0
e P
1
.
3. Per t 0 si ottiene una semiretta su r di origine il punto P
0
.
Se tutti i parametri direttori (l, m, n) di una retta r non sono uguali a zero, dalle equa-
zioni parametriche (11.11), eliminando il parametro t allo scopo di trovare le equazioni
cartesiane di r, si ottiene:
x x
0
l
=
y y
0
m
=
z z
0
n
.
Quindi una rappresentazione cartesiana di una retta r passante per il punto P
0
= (x
0
, y
0
, z
0
)
e parallela al vettore r = (l, m, n), con l = 0, m = 0, n = 0, ` e:

x x
0
l
=
y y
0
m
x x
0
l
=
z z
0
n
.
Si noti che il sistema lineare cos` ottenuto rappresenta geometricamente lintersezione di
due piani nello spazio, trattandosi delle soluzioni comuni a due equazioni lineari.
Se un parametro direttore ` e uguale a zero, ad esempio l = 0, la retta r, passante per il
punto P
0
= (x
0
, y
0
, z
0
), ha rappresentazione cartesiana:

x = x
0
y y
0
m
=
z z
0
n
e anche in questo caso la retta ` e data dallintersezione di due piani.
516 Geometria Analitica nello Spazio
Se due parametri direttori sono uguali a zero, ad esempio l = m = 0, la retta r, passante
per il punto P
0
= (x
0
, y
0
, z
0
), ` e parallela allasse z (al versore k) ed ha rappresentazione
cartesiana:

x = x
0
y = y
0
.
In particolare lasse z ha, quindi, equazioni cartesiane x = y = 0. Analogamente le
equazioni cartesiane dellasse x e y sono rispettivamente y = z = 0 e x = z = 0.
Osservazione 11.4 I punti P = (x, y, z) di una retta r nello spazio corrispondono alle
soluzioni di un sistema lineare compatibile di due equazioni nelle tre incognite x, y e
z. Infatti, ` e ben noto dal primo capitolo che un sistema lineare di due equazioni in tre
incognite, compatibile, ammette innite soluzioni che dipendono da una variabile e che
quindi concidono con le equazioni parametriche della retta r. Pertanto una retta nello
spazio si pu` o rappresentare geometricamente come intersezione di due piani o meglio
come lintersezione di innite coppie di piani. La situazione geometrica ` e rappresentata
nella Figura 11.4, ma si completer` a lo studio della posizione reciproca di due piani nello
spazio nel Paragrafo 11.3.3.
Esempio 11.5 La retta r dellEsercizio 11.4 pu` o essere rappresentata non solo come
lintersezione dei due piani:

x + y 3 = 0
2x z + 1 = 0,
ma anche come intersezione dei due piani:

x + y 3 = 0
2y + z 7 = 0.
11.3.2 Retta per due punti distinti
Dati due punti distinti A = (x
A
, y
A
, z
A
) e B = (x
B
, y
B
, z
B
), la retta r passante per A e
B ` e parallela al vettore

AB di componenti:

AB = (x
B
x
A
, y
B
y
A
, z
B
z
A
),
rispetto alla base ortonormale positiva B = (i, j, k) che individua il riferimento cartesiano
scelto. Dunque r ha equazioni parametriche:

x = x
A
+ (x
B
x
A
)t
y = y
A
+ (y
B
y
A
)t
z = y
A
+ (z
B
z
A
)t, t R.
Capitolo 11 517
Figura 11.4: La retta come intersezione di coppie di piani
518 Geometria Analitica nello Spazio
I parametri direttori sono quindi (x
B
x
A
, y
B
y
A
, z
B
z
A
) e, se sono tutti e tre diversi
da zero, la retta r passante per i due punti distinti A e B ha come rappresentazione
cartesiana:

x x
A
x
B
x
A
=
y y
A
y
B
y
A
x x
A
x
B
x
A
=
z z
A
z
B
z
A
.
Se, ad esempio x
B
x
A
= 0, si deve porre xx
A
= 0 che rappresenta uno dei due piani
che individuano la retta, che ha, quindi, equazioni cartesiane (in questo caso):

x x
A
= 0
y y
A
y
B
y
A
=
z z
A
z
B
z
A
.
Esempio 11.6 La retta r passante per i punti A = (1, 1, 0) e B = (2, 3, 1) ` e parallela
al vettore

AB = (1, 4, 1) e quindi ha equazioni parametriche:

x = 1 + t
y = 1 + 4t
z = t, t R
ed equazioni cartesiane:

4x y 5 = 0
x z 1 = 0.
11.3.3 Posizione reciproca di due piani
Retta come intersezione di due piani
Dal punto di vista geometrico, due piani nello spazio possono essere:
1. paralleli e non coincidenti,
2. coincidenti,
3. incidenti, in questo caso la loro intersezione ` e una retta.
Dal punto di vista algebrico, lintersezione dei due piani:
: ax + by + cz + d = 0,

: a

x + b

y + c

z + d

= 0
` e data da tutti i punti P = (x, y, z) che sono soluzioni del sistema lineare:

ax + by + cz + d = 0
a

x + b

y + c

z + d

= 0.
(11.12)
Capitolo 11 519
Siano A e (A[ B), rispettivamente, la matrice dei coefcienti e la matrice completa del
sistema lineare (11.12) vale a dire:
A =

a b c
a

, (A[ B) =

a b c d
a

.
Dal Teorema di Rouch eCapelli (cfr. Teor. 1.2) e confrontando i ranghi di A e di (A[ B)
si distinguono i seguenti casi:
1. rank(A) = 1 : indicati con n = (a, b, c) e con n

= (a

, b

, c

) i vettori ortogonali
rispettivamente a e a

, la condizione rank(A) = 1 signica che n e n

sono
paralleli, quindi i due piani e

sono paralleli essendo ortogonali a vettori tra di


loro paralleli.
`
E necessario distinguere ancora tra le situazioni seguenti:
a. rank(A) = 1 e rank(A[ B) = 2 : il sistema lineare (11.12) ` e incompatibile, i
due piani sono paralleli ma non coincidenti.
b. rank(A) = rank(A[ B) = 1 : il sistema lineare (11.12) ` e compatibile, i due
piani sono coincidenti.
2. rank(A) = 2 : di conseguenza anche rank(A[ B) = 2, quindi il sistema lineare
(11.12) ` e compatibile e ammette innite soluzioni che dipendono da unincognita
libera. I vettori n e n

non sono paralleli, di conseguenza le soluzioni del sistema


lineare (11.12) sono tutti e soli i punti della retta r intersezione dei due piani
e

. Pertanto un vettore r parallelo alla retta r =


1

2
` e il dato dal prodotto
vettoriale:
r = n n

i j k
a b c
a

.
Quindi la retta r ha come parametri direttori la terna di numeri (l, m, n) data da:
l =

b c
b

, m =

c a
c

, n =

a b
a

,
o qualsiasi terna di numeri proporzionali a (l, m, n) mediante un coefciente di
proporzionalit` a diverso da zero.
Esercizio 11.5 Studiare al variare di h, k R la posizione reciproca dei due piani:
: 2x + hy 2z + 3 = 0,

: x + 2y + kz + 1 = 0.
520 Geometria Analitica nello Spazio
Soluzione Per studiare la posizione reciproca dei due piani e

` e sufciente studiare
le soluzioni del sistema lineare formato dalle loro equazioni, ossia calcolare il rango della
sua matrice completa:
(A[ B) =

2 h 2
1 2 k

3
1

e confrontarlo con il rango della sua matrice A dei coefcienti. Riducendo per righe con
loperazione sulle righe R
2
2R
2
+ R
1
si ottiene:

2 h 2
0 4 + h 2 2k

3
1

e quindi rank(A[ B) = 2, per ogni h e k. Si hanno allora le due possibilit` a seguenti:


1. se h = 4 oppure k = 1 i due piani si intersecano lungo una retta;
2. se h = 4 e k = 1 i due piani sono paralleli.
11.4 Posizioni reciproche tra rette e piani
Nel paragrafo precedente ` e stata esaminata la posizione reciproca di due piani, di seguito
si studieranno le posizioni reciproche di tre piani, di una retta e di un piano e di due rette,
privilegiando lapproccio di tipo algebrico (applicando quindi la teoria nota dello studio
dellesistenza delle soluzioni dei sistemi lineari) e poi deducendo dai risultati ottenuti le
situazioni geometriche.
11.4.1 Posizione reciproca di tre piani
Per esaminare la posizione reciproca di tre piani
1
,
2
,
3
dati da:

1
: a
1
x + b
1
y + c
1
z + d
1
= 0,

2
: a
2
x + b
2
y + c
2
z + d
2
= 0,

3
: a
3
x + b
3
y + c
3
z + d
3
= 0,
si risolve il sistema lineare formato dalle loro tre equazioni. Applicando il Teorema
di Rouch eCapelli (cfr. Teor 1.2), confrontando i ranghi della matrice dei coefcienti
rank(A) e della matrice completa rank(A[ B), e tenendo conto che i vettori:
n
1
= (a
1
, b
1
, c
1
), n
2
= (a
2
, b
2
, c
2
), n
3
= (a
3
, b
3
, c
3
)
sono ortogonali, rispettivamente, ai piani
1
,
2
,
3
, si presentano le seguenti possibilit` a:
Capitolo 11 521
Figura 11.5: Tre piani nello spazio: caso 2.b
522 Geometria Analitica nello Spazio
1. rank(A) = 1 : i tre vettori n
1
, n
2
, n
3
sono paralleli, di conseguenza anche i tre
piani
1
,
2
,
3
sono paralleli; si distinguono i due sottocasi:
a. rank(A[ B) = 1 : il sistema lineare ` e compatibile, infatti i tre piani sono
coincidenti.
b. rank(A[ B) = 2 : il sistema lineare ` e incompatibile, i tre piani sono paralleli
ma non sono tutti e tre coincidenti.
2. rank(A) = 2 : due tra i vettori n
1
, n
2
, n
3
sono linearmente indipendenti e il terzo
` e linearmente dipendente da essi; si distinguono i due sottocasi:
a. rank(A[ B) = 2 : il sistema lineare ` e compatibile, i tre piani
1
,
2
,
3
si
intersecano in una retta, ` e il caso rappresentato nella Figura 11.4, se la si
limita a tre piani.
b. rank(A[ B) = 3 : il sistema lineare ` e incompatibile, i piani si intersecano
a due a due in una retta e il terzo piano non ha punti comuni con tale retta,
quindi ` e ad essa parallelo. La situazione geometrica ` e rappresentata nella
Figura 11.5.
3. rank(A) = 3 : di conseguenza anche rank(A[ B) = 3, il sistema lineare ammette
una sola soluzione, i tre piani
1
,
2
,
3
si intersecano in un punto.
Esercizio 11.6 Studiare al variare di h, k R la posizione reciproca dei tre piani:

1
: x + hy + z = 0,

2
: x y + hz 1 = 0,

3
: 2x + hy + z + k = 0.
Soluzione Per studiarne la posizione reciproca dei piani
1
,
2
,
3
si considera il si-
stema lineare formato dalle tre equazioni dei piani e si calcola il rango della matrice
completa:
(A[ B) =

1 h 1
1 1 h
2 h 1

0
1
k

.
Riducendo per righe la matrice (A[ B) si ottiene rank(A) = rank(A[ B) = 3 per ogni
h e k, quindi i tre piani, per ogni valore reale di h e k, si intersecano in un punto.
Capitolo 11 523
11.4.2 Posizione reciproca tra retta e piano
Per esaminare la posizione reciproca tra una retta e un piano si pu` o procedere o alge-
bricamente (usando una rappresentazione cartesiana sia della retta sia del piano), oppure
geometricamente (usando una rappresentazione parametrica della retta). Pi ` u precisamen-
te, si distinguono i due casi seguenti, che sono equivalenti tra di loro nel risultato a cui si
perviene ma sono diversi nel metodo seguito per raggiungere tale risultato.
Primo caso Dati la retta r e il piano di equazioni:
r :

a
1
x + b
1
y + c
1
z + d
1
= 0
a
2
x + b
2
y + c
2
z + d
2
= 0,
: ax + by + cz + d = 0,
il problema ` e ricondotto allo studio del sistema lineare:

a
1
x + b
1
y + c
1
z + d
1
= 0
a
2
x + b
2
y + c
2
z + d
2
= 0
ax + by + cz + d = 0,
(11.13)
cio` e allo studio dellintersezione di tre piani gi` a esaminata nel paragrafo precedente, con
la condizione aggiuntiva che la matrice dei coefcienti abbia rango maggiore o uguale a
2 (perch e?). Dal Teorema di Rouch eCapelli (cfr. Teor. 1.2) si distinguono le seguenti
possibilit` a:
1. il sistema lineare (11.13) ` e incompatibile, cio` e la retta r ` e parallela al piano e
non ha punti in comune con ;
2. il sistema lineare (11.13) ammette una sola soluzione, cio` e la retta ed il piano si
intersecano in un punto;
3. il sistema lineare (11.13) ammette innite soluzioni che dipendono da unincognita
libera, allora la retta r giace sul piano .
Secondo Caso Data la retta r passante per il punto P
0
= (x
0
, y
0
, z
0
) e parallela al
vettore r = (l, m, n) scritta in foma parametrica come:
r :

x = x
0
+ lt
y = y
0
+ mt
z = z
0
+ nt, t R
ed il piano , ortogonale al vettore n = (a, b, c), di equazione:
: ax + by + cz + d = 0,
524 Geometria Analitica nello Spazio
i punti che appartengono allintersezione di r con si possono determinare cercando i
valori del parametro t che vericano la seguente equazione:
a(x
0
+ lt) + b(y
0
+ mt) + c(z
0
+ nt) + d = 0.
Il problema ` e quindi ricondotto allo studio delle soluzioni dellequazione lineare:
(al + bm + cn)t = ax
0
by
0
cz
0
d,
nellincognita t. Osservando che:
al + bm + cn = r n,
inoltre:
ax
0
+ by
0
+ cz
0
+ d = 0
se e solo il punto P
0
appartiene al piano e tenendo conto che lannullarsi del prodotto
scalare tra due vettori esprime la loro ortogonalit` a, si distinguono le seguenti possibilit` a:
1. r n = 0, cio` e la retta ed il piano si intersecano in un punto;
2. r n = 0 e P
0
, cio` e la retta r giace sul piano ;
3. r n = 0 e P
0
/ , cio` e la retta r ` e parallela al piano e non ha punti in comune
con .
Esercizio 11.7 Studiare la posizione reciproca della retta r e del piano di equazioni:
r :

x hz 2 = 0
3x + y = 0,
: kx y + hz 1 = 0,
al variare di h, k R.
Soluzione Si studiano le soluzioni del sistema lineare:

x hz 2 = 0
3x + y = 0
kx y + hz 1 = 0
(11.14)
al variare di h e k in R. Dal calcolo del rango della matrice dei coefcienti e della matrice
completa al variare di h e k si ha:
1. h = 0 e k = 4 : r e si intersecano in un punto;
Capitolo 11 525
2. h = 0 e k = 5/2 : r ` e parallela a ;
3. h = 0 e k = 5/2 : r giace su ;
4. k = 4, r ` e parallela a .
In alternativa, osservando che il piano ` e ortogonale al vettore n = (k, 1, h) e la retta
r ` e parallela al vettore:
r = (1, 0, h) (3, 1, 0) = (h, 3h, 1),
si ha che r n = 0 se e solo se h(4 + k) = 0. Inoltre il punto P
0
= (2, 6, 0) della retta
r appartiene al piano se e solo se 2k + 5 = 0. Si perviene in questo modo alle stesse
soluzioni del sistema lineare (11.14).
11.4.3 Posizione reciproca di due rette nello spazio
Dalla Geometria Euclidea ` e noto che due rette r e r

nello spazio possono essere:


1. coincidenti
2. parallele
3. incidenti
4. sghembe (o non complanari).
Da notare che rette parallele e incidenti sono necessariamente complanari.
Analogamente al caso della posizione reciproca tra una retta e un piano, studiato nel pa-
ragrafo precedente, per individuare la posizione di due rette nello spazio si pu` o procedere
in modo algebrico, per esempio rappresentando le due rette come intersezione di due
piani ciascuna, o in modo geometrico, per esempio considerando le due rette in forma
parametrica.
Date due rette r e r

in rappresentazione cartesiana:
r :

a
1
x + b
1
y + c
1
z + d
1
= 0
a
2
x + b
2
y + c
2
z + d
2
= 0,
r

1
x + b

1
y + c

1
z + d

1
= 0
a

2
x + b

2
y + c

2
z + d

2
= 0,
la loro posizione reciproca si ottiene studiando le soluzioni del sistema lineare delle quat-
tro equazioni nelle tre incognite ottenuto dalle equazioni dei quattro piani dati. Questo
metodo non ` e cos` semplice da applicare ed ` e anche difcile riuscire ad indovinare la posi-
zione reciproca delle due rette solo guardando la loro rappresentazione, prima di iniziare
a svolgere i calcoli, come si pu` o osservare dallesempio che segue.
526 Geometria Analitica nello Spazio
Esempio 11.7 Date le rette:
r :

x y + z = 0
y + 3z = 0,
r

x + y 1 = 0
y + 3z 2 = 0,
per determinare la loro posizione reciproca si risolve il sistema lineare:

x y + z = 0
y + 3z = 0
x + y 1 = 0
y + 3z 2 = 0.
Si ottiene che il rango della matrice completa ` e 4 (ossia, trattandosi di una matrice quadra-
ta di ordine 4, il suo determinante ` e diverso da 0) quindi il sistema lineare ` e incompatibile.
Le due rette r e r

sono sghembe. Le due rette non sono parallele perch e il rango della
matrice dei coefcienti ` e 3.
Se si rappresentano, invece, le due rette r e r

in forma parametrica:
r :

x = x
0
+ lt
y = y
0
+ mt
z = z
0
+ nt, t R
r

x = x
1
+ l

y = y
1
+ m

z = z
1
+ n

, R,
osservando che le rette r e r

sono parallele, rispettivamente, ai vettori r = (l, m, n),


r

= (l

, m

, n

) e passano, rispettivamente, per i punti P


0
= (x
0
, y
0
, z
0
), P
1
= (x
1
, y
1
, z
1
)
si ha un metodo molto pi ` u agevole per studiarne la loro posizione reciproca. Innanzi
tutto ` e evidente se le due rette siano o meno parallele a seconda che i vettori r e r

siano
paralleli. Nel caso in cui esse siano parallele, si distingue il caso delle rette coincidenti da
quello delle rette parallele ma ad intersezione vuota, semplicemente controllando se, per
esempio il punto P
0
appartenga o meno alla retta r

. Ma, in generale, tenendo conto che


che r e r

sono complanari se e solo se i vettori



P
0
P
1
, r, s sono complanari, ossia:

P
0
P
1
r r

x
1
x
0
y
1
y
0
z
1
z
0
l m n
l

= 0,
si distinguono i seguenti casi:
1. r = r

se e solo se r e r

sono paralleli e ad esempio P


0
r

;
2. r e r

sono parallele se e solo se r e r

sono paralleli e P
0
/ r

;
3. r e r

sono incidenti se e solo se



P
0
P
1
r r

= 0, ma con r r

= o;
Capitolo 11 527
4. r e r

sono sghembe se e solo se



P
0
P
1
r r

= 0.
Inne, nel caso in cui le rette r e r

siano una in rappresentazione cartesiana e laltra in


rappresentazione parametrica, cio` e ad esempio se r

=
1

2
, si pu` o osservare che se
si indicano con A e B i punti di intersezione di r con
1
e con
2
, rispettivamente, se
A = B allora le due rette sono sghembe. Se invece A = B allora r r

= A.
Esempio 11.8 Scrivendo in forma parametrica le rette r e r

considerate nellEsempio
11.7, si ha:
r :

x = 4t
y = 3t
z = t, t R,
r

x = 1 + 3
y = 2 3
z = , R,
si ricava che le rette r e r

sono parallele ai vettori r = (4, 3, 1) e r

= (3, 3, 1) e
passano rispettivamente per i punti O = (0, 0, 0) e P
1
= (1, 2, 0). Si osserva subito che
le due rette non sono parallele, non essendolo i vettori r e r

. Poich e

OP
1
r r

= 0, si
ha che le due rette sono sghembe.
11.5 Fasci di piani
In questo paragrafo sono studiati i fasci di piani, la cui trattazione ` e analoga a quella dei
fasci di rette nel piano introdotta nel Paragrafo 9.8.
Si deniscono due tipi di fasci di piani:
1. il fascio improprio formato da tutti i piani paralleli ad un piano assegnato;
2. il fascio proprio formato da tutti i piani passanti per una retta.
Il fascio improprio di piani paralleli ad un piano assegnato : ax + by + cz + d = 0 ha
equazione cartesiana:
ax + by + cz + k = 0, k R,
in quanto si deve mantere sso il vettore n = (a, b, c) ortogonale a tutti i piani del fascio
e, al variare di k R, si determinano tutti e soli i piani paralleli a .
Nel caso di un fascio proprio di piani, si dimostra che dati due piani e

non paralleli:
: ax + by + cz + d = 0,

: a

x + b

y + c

z + d

= 0,
il fascio di piani T generato da e

, cio` e formato da tutti e soli i piani passanti per la


retta r =

, ` e linsieme di tutti i piani aventi per equazione cartesiana la combinazione


lineare:
T : (ax + by + cz + d) + (a

x + b

y + c

z + d

) = 0, , R, (11.15)
528 Geometria Analitica nello Spazio
che prende il nome di equazione del fascio di piani. Infatti si ha:
1. per ogni valore di (, ) = (0, 0) da (11.15) si ottiene un piano, trattandosi di
unequazione lineare in x, y, z.
2. I parametri e sono omogenei, cio` e, per ogni = 0, (, ) e (, ) indivi-
duano lo stesso piano.
3. Se P
0
= (x
0
, y
0
, z
0
)

, allora (x
0
, y
0
, z
0
) ` e soluzione dellequazione (11.15),
per ogni (, ). Quindi ogni piano del fascio T contiene la retta r =

.
4. Se P
1
= (x
1
, y
1
, z
1
) ` e un punto qualsiasi dello spazio (non appartenente alla retta
r) lequazione:
(ax
1
+ by
1
+ cz
1
+ d) + (a

x
1
+ b

y
1
+ c

z
1
+ d

) = 0
di incognite e permette di individuare i valori di e che sostituiti in (11.15)
portano allequazione dellunico piano del fascio T passante per P
1
.
Osservazione 11.5 Si osservi che, dati un fascio di piani T, un piano non appartenente
ad T e una retta r che non sia lasse del fascio, esistono un piano di T parallelo ad r
e un piano di T ortogonale a , mentre, salvo casi particolari, non esiste un piano di T
ortogonale a r e un piano di T parallelo a .
Esercizio 11.8 Dato il punto P
0
= (2, 1, 1), determinare il piano , passante per P
0
,
in ciascuno dei seguenti casi:
1. sia anche parallelo al piano

: 2x y + 3z 1 = 0;
2. contenga anche la retta:
r :

x y + 2 = 0
2x y 3z = 0;
3. sia anche ortogonale alla retta:
r

y = 2x 1
z = x + 3;
4. sia anche ortogonale al piano:

: 2x + y 3z + 1 = 0
e contenga il punto A = (3, 1, 0).
Capitolo 11 529
Soluzione 1. Il piano appartiene al fascio improprio dei piani paralleli a

che
ha pertanto ha equazione cartesiana:
2x y + 3z + k = 0, k R.
Imponendo il passaggio per il punto P
0
si ha k = 0 e quindi : 2x y + 3z = 0.
2. Il piano appartiene al fascio proprio di piani passanti per r che ha equazione
cartesiana:
(x y + 2) + (2x y 3z) = 0, , R. (11.16)
Imponendo il passaggio per P
0
si ha 3 + 6 = 0 e quindi lequazione di si
ottiene, ad esempio, sostituendo = 2 e = 1 in (11.16).
3. La retta r

` e parallela al vettore r

= (1, 2, 1), quindi il piano ` e ortogonale a r

e passa per P
0
, cio` e ha equazione x + 2y z 5 = 0.
4. Il piano

` e ortogonale al vettore n

= (2, 1, 3), pertanto il piano ` e formato da


tutti i punti P per cui i vettori

AP,

P
0
A e n

sono complanari, cio` e ha equazione:

x 3 y + 1 z
2 1 3
1 2 1

= 0.
Esercizio 11.9 Dati la retta:
r :

x = 1 + 2t
y = 3 + 2t
z = 1 + 3t, t R
e il punto A = (2, 1, 0), determinare le equazioni della retta s passante per A, perpendi-
colare ed incidente la retta r.
Soluzione La retta s pu` o essere determinata come intersezione dei due piani
1
e
2
,
dove
1
` e il piano passante per r e per il punto A e
2
` e il piano passante per A e
ortogonale a r; si ha:
r :

x y + 2 = 0
3x 2z 1 = 0.
Di conseguenza, il fascio di piani passanti per r ha equazione:
T : (x y + 2) + (3x 2z 1) = 0.
Pertanto il piano
1
si ottiene imponendo il passaggio di T per A, da cui si deduce
3+5 = 0. Quindi
1
ha equazione cartesiana 5(x y +2) +(3)(3x 2z 1) = 0.
530 Geometria Analitica nello Spazio
Per determinare
2
, invece, si devono calcolare i parametri direttori della retta r e si
ottiene che r ` e parallela al vettore r = (2, 2, 3). Quindi
2
appartiene al fascio improprio
di piani:
2x + 2y + 3z + k = 0, k R,
da cui, imponendo il passaggio per il punto A, segue k = 6. Concludendo, la retta s
ha equazioni:
s :

4x + 5y 6z 13 = 0
2x + 2y + 3z 6 = 0.
11.6 Distanze e angoli
In questo paragrafo sono affrontati i problemi metrici riguardanti le rette e i piani nello
spazio. Si determineranno, infatti, le distanze di un punto da un piano e di un punto da
una retta, la distanza minima tra due rette sghembe e le equazioni della retta perpendico-
lare e incidente due rette sghembe, inoltre si calcoleranno gli angoli formati da due rette
incidenti o sghembe, da una retta e un piano incidenti e da due piani incidenti.
n
H
P
0

Figura 11.6: Distanza del punto P


0
dal piano
Capitolo 11 531
11.6.1 Distanza di un punto da un piano
La distanza con segno d(P
0
, ) di un punto P
0
da un piano ` e per denizione la distanza,
con segno, d(P
0
, H) di P
0
dal punto H proiezione ortogonale di P
0
su . La situazione
geometrica ` e illustrata nella Figura 11.6. Se n ` e un vettore ortogonale a si ha che:
d(P
0
, H) =

P
0
H n
[[n[[
. (11.17)
Si osservi che il segno della distanza d(P
0
, H) ` e determinato dal prodotto scalare

P
0
H n
che ` e positivo se P
0
appartiene al semispazio individuato da orientato come n, come
nella Figura 11.6, negativo se P
0
appartiene al semispazio opposto. Il prodotto scalare

P
0
Hn si annulla se e solo se i due vettori sono ortogonali ossia se e solo se P
0
appartiene
al piano .
Allo scopo di scrivere mediante le componenti dei vettori e le coordinate dei punti la
formula (11.17), si considerino, rispetto al riferimento cartesiano 1 = (O, i, j, k), il
punto P
0
= (x
0
, y
0
, z
0
) e il piano : ax +b +cz +d = 0. Dallespressione del prodotto
scalare in componenti (cfr. Teor. 3.13) si ottiene:
d(P
0
, ) =
ax
0
+ by
0
+ cz
0
+ d

a
2
+ b
2
+ c
2
, (11.18)
che ` e una formula analoga a quella gi` a ricavata per il calcolo della distanza di un punto
da una retta nel piano (cfr. Par. 9.7.5).
Esercizio 11.10 Data la retta:
r :

x + z 1 = 0
y + 1 = 0,
determinare i punti di r aventi distanza pari a 4 (in valore assoluto) dal piano:
: 2x y 2z + 1 = 0.
Soluzione I punti della retta r hanno coordinate (t, 1, t + 1), t R, per cui, dalla
formula (11.18) segue:
[2t + 1 2(t + 1) + 1[

4 + 1 + 4
= 4.
I due valori di t che cos` si trovano permettono di individuare i due punti P
1
e P
2
della
retta r che risolvono il problema. La situazione geometrica ` e illustrata nella Figura 11.7.
532 Geometria Analitica nello Spazio
P
1
P
2
r
Figura 11.7: Esercizio n. 11.10
11.6.2 Distanza di un punto da una retta
La distanza d(P
0
, r) di un punto P
0
da una retta r nello spazio ` e per denizione la di-
stanza d(P
0
, H) tra i punti P
0
e H, dove H ` e il punto proiezione ortogonale di P
0
su r.
Il punto H ` e lintersezione della retta r con il piano passante per P
0
e ortogonale a r.
In alternativa, si pu` o determinare la distanza d(P
0
, H) cosiderando un punto P
1
apparte-
nente a r e un vettore r = o parallelo a r. Indicato con langolo compreso tra i vettori

P
0
P
1
e r, dalla denizione di prodotto vettoriale (cfr. Par. 3.7.2) si ha:
[[

P
0
P
1
r[[ = [[

P
0
P
1
[[ [[r[[ sin ,
e quindi:
d(P
0
, r) = d(P
0
, H) =
[[

P
0
P
1
r[[
[[r[[
, (11.19)
la situazione geometrica ` e illustrata nella Figura 11.8. Si osservi che la distanza di un
punto da una retta nello spazio ` e sempre un numero positivo o nullo.
Esempio 11.9 La distanza dellorigine O dalla retta r di equazioni parametriche:

x = t
y = 1 + 2t
z = 1 + 3t, t R
Capitolo 11 533
P
1
P
0
H
r
r

Figura 11.8: Distanza di un punto da una retta


534 Geometria Analitica nello Spazio
` e la distanza di O dal punto H ottenuto dallintersezione della retta r con il piano
passante per O perpendicolare a r, si ha:
H =

1
14
,
8
7
,
11
14

.
In alternativa, si pu` o considerare un qualsiasi punto di r, ad esempio A = (0, 1, 1)
ed un vettore r parallelo alla retta r per esempio r = (1, 2, 3) e utilizzando la formula
(11.19) si ottiene:
d(O, r) =
[[

OA r[[
[[r[[
=
[[(5, 1, 1)[[
[[(1, 2, 3)[[
=

27
14
.
11.6.3 Minima distanza tra due rette sghembe
Perpendicolare comune a due rette sghembe
Un noto teorema di Geometria Euclidea afferma che date due rette sghembe r e r

esiste
ed ` e unica la retta perpendicolare e incidente sia r sia r

, tale retta prende il nome di


perpendicolare comune a due rette sghembe. La distanza tra i due punti di intersezione
della perpendicolare comune con le due rette sghembe ` e la minima distanza tra le rette
sghembe d(r, r

) nel senso che ogni segmento che unisce due punti qualsiasi, uno su r
e uno su r

, ha lunghezza maggiore di tale distanza. In questo paragrafo si indicheranno


alcuni metodi per determinare sia la perpendicolare comune a due rette sghembe sia la
loro minima distanza.
Siano P(t) = P
0
+ tr e P(t

) = P

0
+ t

due rappresentazioni parametriche rispettiva-


mente di r e r

. Per determinare lequazione della perpendicolare comune a r e a r

si
possono imporre le due condizioni di ortogonalit` a tra i vettori

PP

e r e tra

PP

e r

(P(t

) P(t)) r = 0
(P(t

) P(t)) r

= 0.
(11.20)
Il precedente sistema lineare nelle due incognite t e t

ha ununica soluzione t = t
0
e
t

= t

0
e la perpendicolare comune ` e pertanto la retta passante per i due punti R, su r
ottenuto ponendo t
0
nelle equazioni parametriche di r, e R

, su r

, ottenuto ponendo t

0
nelle equazioni parametriche di r

. La minima distanza tra le due rette r e r

sar` a dunque
d(R, R

). In alternativa si pu` o determinare la minima distanza tra le due rette sghembe


r e r

senza necessariamente calcolare le equazioni della loro perpendicolare comune.


`
E
sufciente infatti determinare lequazione del piano passante per r e parallelo ad r

e
poi calcolare la distanza (in valore assoluto) di un qualunque punto di r

da e questa
` e la minima distanza tra le due rette sghembe. Oppure si pu` o osservare che la minima
Capitolo 11 535
distanza tra le due rette sghembe r ed r

non ` e altro che la proiezione ortogonale su r r

del vettore che unisce un punto P


1
ssato su r ad un punto P
2
ssato su r

, ossia:
d(r, r

) =

P
1
P
2
r r

|r r

|
.
La perpendicolare comune a r e a r

si pu` o anche determinare come intersezione dei due


piani
1
e
2
entrambi paralleli al vettore r r

e complanari uno con r e laltro con r

.
La situazione geometrica ` e rappresentata nella Figura 11.9.
R
R'
Pt
Pt'
rr'
r
r'

r
r'
Figura 11.9: Perpendicolare comune a due rette sghembe
536 Geometria Analitica nello Spazio
Esercizio 11.11 1. Date le due rette:
r :

x = t + 2
y = t
z = 2t, t R,
r

x = t

y = t

1
z = t

+ 2, t

R,
vericare che r e r

sono sghembe e determinare la loro perpendicolare comune.


2. Calcolare la distanza minima di r e r

.
Soluzione 1. Le rette r e r

sono rispettivamente parallele ai vettori r = (1, 1, 2) e


r

= (1, 1, 1). Inoltre, considerati i punti P


1
= (2, 0, 0) in r e P
2
= (0, 1, 2) in
r

, poich e

P
1
P
2
r r

= 0, le rette r e r

non sono complanari. Per determinare


la loro perpendicolare comune si pu` o osservare che indicati con:
P(t) = (t + 2, t, 2t), P(t

) = (t

, t

1, t

+ 2)
i generici punti di r e di r

rispettivamente, il sistema lineare (11.20) diventa in


questo caso:

4t

6t 7 = 0
3t

4t 5 = 0
ed ha come ununica soluzione t = 1/2 e t

= 1. La perpendicolare comune ` e
allora la retta passante per i due punti:
R =

3
2
,
1
2
, 1

r, R

= (1, 0, 1) r

,
ossia la retta p di equazioni:
p :

x = 1
y =
z = 1, R.
Si perviene allo stesso risultato considerando la retta p come intersezione dei piani

1
e
2
cos` determinati.
1
` e il piano parallelo al vettore r r

= i j e apparte-
nente al fascio di piani di asse la retta r. Si ottiene
1
: x+y +z 2 = 0. In modo
analogo,
2
` e il piano parallelo a r r

e appartenente al fascio di piani di asse la


retta r

, si ha
2
: x + y + 2z 3 = 0.
2. La distanza minima di r e r

` e:
d(R, R

) =

2
2
.
Capitolo 11 537
Si perviene allo stesso risultato determinando lequazione del piano appartenente
al fascio di piani di asse la retta r e parallelo alla retta r

, si ha : x y 2 = 0,
inne calcolando la distanza (in valore assoluto) di un generico punto di r

, per
esempio A = (0, 1, 2), dal piano .
11.6.4 Angolo tra due rette
Per denizione, langolo

(r, r

) tra due rette r e r

nello spazio ` e langolo formato tra un


vettore r parallelo alla retta r ed un vettore r

parallelo alla retta r

. Da osservare quindi
che se ` e langolo tra i due vettori r e r

, le due rette formano anche langolo .


Inoltre, in base a questa denizione, che peraltro coincide con la denizione di angolo
tra due rette nel piano (cfr. Par. 9.7.3), ha anche senso la nozione di angolo tra due rette
sghembe. Pertanto, dalla denizione di prodotto scalare tra due vettori (cfr. Par. 3.7.1) si
ha:
cos

(r, r

) = cos

(r

, r) =
r r

[[r[[ [[r

[[
.
11.6.5 Angolo tra retta e piano
Langolo tra una retta r ed un piano nello spazio ` e per denizione langolo [0, /2]
che la retta r forma con la retta r

, proiezione ortogonale di r su . Langolo ` e pertanto


complementare allangolo [0, /2] che un vettore r parallelo alla retta r forma con
un vettore n ortogonale a , quindi si ha:
sin

(r, ) = sin =
[n r[
[[n[[ [[r[[
.
La situazione geometrica ` e rappresentata nella Figura 11.10.
11.6.6 Angolo tra due piani
Dalla Geometria Euclidea ` e noto che lampiezza dei diedri formati da due piani
1
e

2
incidenti in una retta r ` e calcolata mediante la loro sezione normale. Per sezione
normale di un diedro individuato dai piani
1
e
2
si intende un piano che intersechi
ortogonalmente la retta r =
1

2
. Gli angoli sul piano individuati dalle due rette
r
1
e r
2
rispettivamente intersezione di con
1
e con
2
corrispondono agli angoli
formati dai piani
1
e
2
. La situazione geometrica ` e illustrata nella Figura 11.11. Dalla
rappresentazione in pianta dellangolo indicato nella Figura 11.11 (cfr. Fig. 11.12) si
osserva che langolo individuato da
1
e
2
` e il supplementare dellangolo formato
538 Geometria Analitica nello Spazio

r
r'
n
Figura 11.10: Angolo tra la retta r e il piano
Capitolo 11 539

2
r

r
1
r
2
Figura 11.11: Sezione normale di un diedro
540 Geometria Analitica nello Spazio
dai vettori n
1
e n
2
, vettori normali, rispettivamente, a
1
e a
2
. Pertanto:
cos = cos = cos

(n
1
, n
2
) =
n
1
n
2
|n
1
| |n
2
|
.
r
1
r
2
n
1
n
2

Figura 11.12: Angolo tra due piani


11.7 Sfera e posizione reciproca con rette e piani
In questo paragrafo si introduce la rappresentazione della sfera nello spazio mediante
unequazione cartesiana di tipo particolare, si vedr` a che tale rappresentazione ` e analoga a
quella della circonferenza nel piano. La rappresentazione della sfera mediante equazioni
parametriche sar` a discussa nel Paragrafo 11.10. La rappresentazione di una circonferenza
nello spazio ` e invece pi ` u complicata e sar` a discussa nel Paragrafo 11.8. Saranno anche
studiate le posizioni reciproche tra una sfera e un piano e tra una sfera e una retta con le
relative condizioni di tangenza.
11.7.1 Sfera
Fissati un punto C e una costante positiva R, la sfera o supercie sferica di centro C
e raggio R ` e il luogo geometrico dei punti P dello spazio tali che:
d(P, C) = R.
Capitolo 11 541
Se R = 0 la sfera si riduce ad un solo punto che coincide con C.
Rispetto ad un riferimento cartesiano 1 = (0, x, y, z), la sfera di centro C = (, , ) e
raggio R 0 ha quindi equazione:
(x )
2
+ (y )
2
+ (z )
2
= R
2
.
Tale equazione pu` o essere riscritta come:
x
2
+ y
2
+ z
2
2x 2y 2z + = 0, (11.21)
con =
2
+
2
+
2
R
2
. Si osservi che lequazione (11.21) ` e di secondo grado in x,
y e z, i coefcienti dei termini xy, xz, yz sono tutti nulli e i coefcienti dei termini x
2
,
y
2
e z
2
sono uguali. Viceversa, unequazione dello stesso tipo, vale a dire:
x
2
+ y
2
+ z
2
+ ax + by + cz + d = 0, a, b, c, d R, (11.22)
non sempre rappresenta una sfera nello spazio. Infatti, per confronto con (11.21), da
(11.22) il centro C ha coordinate:
C =

a
2
,
b
2
,
c
2

(11.23)
e il raggio ` e dato da:
R =

a
2
+ b
2
+ c
2
4d
4
, (11.24)
pertanto lequazione (11.22) rappresenta una sfera se e solo se a
2
+ b
2
+ c
2
4d 0.
Esercizio 11.12 Determinare il centro e il raggio delle due sfere:

1
: x
2
+ y
2
+ z
2
+ 2x y + z = 0,

2
: x
2
+ y
2
+ z
2
+ 2x y + z + 4 = 0.
Soluzione Le due sfere hanno entrambe centro nel punto:
C =

1,
1
2
,
1
2

.
La sfera
1
` e reale di raggio (cfr. (11.24)):
R
1
=

(1)
2
+

1
2

2
+

1
2

2
=

6
2
.
542 Geometria Analitica nello Spazio
Da notare che il raggio R
1
coincide con la distanza = d(O, C), in quanto la sfera passa
per O, essendo la sua equazione priva di termine noto. La sfera
2
invece non ` e reale
poich e, da (11.24) si ha che il radicando vale 3/2 4 < 0.
Esercizio 11.13 Si studino le posizioni delle sfere nello spazio, rappresentate dallequa-
zione (11.22), al variare di a, b, c, d in R.
11.7.2 Posizione reciproca tra piano e sfera
C

Figura 11.13: Piano esterno ad una sfera


La posizione reciproca di una sfera e di un piano ` e determinata dal confronto tra la
distanza del centro C della sfera dal piano e il valore del suo raggio R. Pi ` u precisamente
si presentano i seguenti casi:
1. se d(C, ) > R lintersezione di con ` e linsieme vuoto, il piano si dice
esterno alla sfera (cfr. Fig. 11.13);
2. se d(C, ) = R lintersezione di con ` e un punto P
0
, il piano si dice tangente
alla sfera in P
0
(cfr. Fig. 11.14);
3. se d(C, ) < r lintersezione di con ` e una circonferenza, il piano si dice
secante la sfera (cfr. Fig. 11.15).
Capitolo 11 543
C
P
0

Figura 11.14: Piano tangente ad una sfera


C
Figura 11.15: Piano secante una sfera
544 Geometria Analitica nello Spazio
Si osservi che la circonferenza intersezione di un piano secante una sfera pu` o essere
rappresentata dal sistema delle equazioni di e di , come si vedr` a con maggiori dettagli
nel Paragrafo 11.8.
Dato un punto P
0
= (x
0
, y
0
, z
0
) appartenente alla sfera di centro C = (, , ) e
raggio R, esiste un solo piano tangente a in P
0
, dato dal piano passante per P
0
e
ortogonale al vettore

CP
0
= (x
0
, y
0
, z
0
), che ha quindi equazione:
(x
0
)(x x
0
) + (y
0
)(y y
0
) + (z
0
)(z z
0
) = 0.
Esercizio 11.14 Determinare lequazione della sfera passante per il punto A = (3, 1, 1)
e tangente al piano : x + y z 1 = 0 nel punto B = (1, 1, 1).
Soluzione Il centro C della sfera richiesta appartiene alla retta r passante per B e
ortogonale a , di equazioni parametriche:
r :

x = 1 + t
y = 1 + t
z = 1 t, t R,
pertanto il generico punto C della retta r ha coordinate C = (1 + t, 1 + t, 1 t). Im-
ponendo la condizione d(C, A) = d(C, B) si ha t = 1 e quindi si determina il centro
C = (2, 2, 0) della sfera che ha, di conseguenza, equazione cartesiana:
(x 2)
2
+ (y 2)
2
+ z
2
= 3.
11.7.3 Posizione reciproca tra retta e sfera
Per determinare i punti di intersezione di una sfera:
: x
2
+ y
2
+ z
2
+ ax + by + cz + d = 0
con una retta r di equazioni parametriche:
r :

x = x
0
+ lt
y = y
0
+ mt
z = z
0
+ nt, t R,
` e sufciente risolvere lequazione di secondo grado in t che si ottiene sostituendo le
equazioni di r nellequazione di :
(x
0
+ lt)
2
+ (y
0
+ mt)
2
+ (z
0
+ nt)
2
+ a(x
0
+ lt) + b(y
0
+ mt) + c(z
0
+ nt) + d = 0,
che pu` o avere:
Capitolo 11 545
C
r

Figura 11.16: Retta esterna ad una sfera


546 Geometria Analitica nello Spazio
C
r

Figura 11.17: Retta tangente ad una sfera


Capitolo 11 547
C
r

Figura 11.18: Retta secante una sfera


548 Geometria Analitica nello Spazio
1. due soluzioni complesse e coniugate, quindi la retta r ` e esterna alla sfera (cfr.
Fig. 11.16);
2. due soluzioni reali concidenti, cio` e la retta r ` e tangente alla sfera (r interseca
in due punti coincidenti, cfr. Fig. 11.17);
3. due soluzioni reali distinte, cio` e la retta r ` e secante la sfera (r interseca in due
punti distinti, cfr. Fig. 11.18).
Osservazione 11.6 Geometricamente i casi di intersezione di una retta r con una sfera
appena descritti possono essere interpretati in termini della distanza d(C, r) del centro
C della sfera dalla retta r nel modo seguente:
1. la retta r ` e esterna alla sfera se e solo se d(C, r) > R;
2. la retta r ` e tangente alla sfera se e solo se d(C, r) = R;
3. la retta r ` e secante la sfera se e solo se d(C, r) < R.
Si osservi inoltre che in ogni punto P
0
di una sfera si hanno innite rette tangenti a ,
tutte e sole quelle appartenenti al fascio di rette di centro P
0
che giace sul piano tangente
a nel punto P
0
.
11.8 La circonferenza nello spazio
Una circonferenza ( di centro C e raggio r ` e il luogo geometrico dei punti P dello spazio
che appartengono ad un piano passante per C e che hanno distanza r da C:
( = P [ d(P, C) = r.
Una circonferenza ( ` e quindi individuata dal suo centro, dal suo raggio e dal piano su cui
essa giace.
Esempio 11.10 a. La circonferenza ( di centro il punto C = (, , ), raggio r e
appartenente al piano di equazione ax + by + cz + d = 0 ` e data, ad esempio,
dallintersezione del piano con la sfera di centro C e raggio r, pertanto ( ha
equazioni cartesiane:
( :

(x )
2
+ (y )
2
+ (z )
2
= r
2
ax + by + cz + d = 0.
Capitolo 11 549

C
Figura 11.19: La circonferenza ( del piano
550 Geometria Analitica nello Spazio
b. La circonferenza ( ` e anche data dallintersezione del piano con innite altre
sfere, aventi il centro sulla retta passante per C, ortogonale a .
c. La cironferenza ( ` e anche data dallintersezione di due sfere che in essa si interse-
cano.
d. La circonferenza ( ` e anche data dallintersezione del piano con un opportuno
cilindro come sar` a meglio spiegato nel Capitolo 12.
. . . . . . . . . e non solo.
La situazione geometrica ` e rappresentata nella Figura 11.19.
C
r
R
Q

Figura 11.20: Il centro e il raggio della circonferenza


In generale, un sistema di due equazioni nelle incognite x, y, z del tipo:

x
2
+ y
2
+ z
2
2x 2y 2z + = 0
ax + by + cz + d = 0
rappresenta una circonferenza ( se e solo se : x
2
+y
2
+z
2
2x2y 2z + = 0
` e una sfera e : ax + by + cz + d = 0 ` e un piano secante la sfera . In tale caso si ha:
Capitolo 11 551
1. il centro Q di ( ` e lintersezione del piano con la retta ortogonale a , passante
per il centro C della sfera ;
2. il raggio r della circonferenza ( si ottiene applicando il Teorema di Pitagora ed ` e
dato da:
r =

R
2
(d(C, ))
2
, (11.25)
dove R indica il raggio della sfera e d(C, ) la distanza di C da . La situazione
geometrica ` e rappresentata nella Figura 11.20.
Esercizio 11.15 Determinare il centro Q e il raggio r della circonferenza intersezione
della sfera : x
2
+ y
2
+ z
2
4x = 0 con il piano : z + 1 = 0.
Soluzione La sfera ha centro C = (2, 0, 0) e raggio R = 2. Il centro Q della circon-
ferenza appartiene allintersezione del piano con la retta passante per C e ortogonale
al piano , di equazioni parametriche:

x = 2
y = 0
z = t, t R.
Si ottiene Q = (2, 0, 1) e, dalla formula (11.25) si ha che il raggio della circonferenza
` e r =

3.
Esercizio 11.16 Data la circonferenza ( intersezione della sfera : x
2
+y
2
+z
2
2 = 0
con il piano : x + y + z = 0,
1. vericare che il punto A = (2, 0, 2) del piano ` e esterno alla circonferenza (.
2. Determinare le equazioni delle rette del piano uscenti da A e tangenti a (.
Soluzione 1. Il centro Q della circonferenza ( ` e lintersezione del piano con la ret-
ta ortogonale a e passante per il centro C della sfera . Poich e il centro C coinci-
de con lorigine e il piano passa per lorigine segue che la circonferenza ( ` e un
cerchio massimo di e Q = C ed il raggio di ( ` e r =

2, ossia il raggio della


sfera . Il punto A ` e esterno a ( in quanto d(A, C) = 2

2 >

2.
2. Le rette cercate giacciono sul piano

passante per A ortogonale a e tale che


d(C,

) =

2. Il piano

appartiene al fascio proprio T di piani di asse la retta


passante per A ortogonale a di equazioni cartesiane:

x y 2 = 0
y z 2 = 0.
552 Geometria Analitica nello Spazio
Il fascio T ha pertanto equazione:
T : (x y 2) + (y z 2) = 0, , R.
Imponendo la condizione d(C,

) =

2 si ottiene:
= 0,
e quindi i due piani:
x y 2 = 0, y z 2 = 0.
Le due rette cercate hanno quindi equazioni:

x y 2 = 0
x + y + z = 0,

y z 2 = 0
x + y + z = 0.
Nellesercizio seguente si intendono ricavare le equazioni parametriche di una circonfe-
renza rappresentata come intersezione di un piano e di una sfera, allo scopo, per esempio,
di disegnarla agevolmente usando un programma di calcolo simbolico.
Esercizio 11.17 Trovare le equazioni parametriche della circonferenza (, appartenente
al piano di equazione 2x y + z = 0, di centro C = (1, 2, 0) e raggio 2.
Soluzione Un vettore parallelo al piano ` e v
1
= j + k. Un vettore parallelo a e
ortogonale a v
1
invece ` e:
v
2
= v
1
(2i j +k) = 2i + 2j 2k.
Si considerino i loro versori:
u
1
=
v
1
|v
2
|
=
j +k

2
, u
2
=
v
2
|v
2
|
=
i +j k

3
.
Una rappresentazione vettoriale parametrica di ( ` e:
P = C + 2((cos t)u
1
+ (sin t)u
2
), 0 t < 2,
che in componenti diventa:

x = 1 +
2

3
sin t
y = 2 +
2

3
cos t +
2

3
sin t
z =
2

2
cos t
2

3
sin t, 0 t < 2.
Capitolo 11 553
11.9 Posizione reciproca tra due sfere
Fasci di sfere
Geometricamente ` e evidente che lintersezione di due sfere diverse
1
e
2
nello spazio
pu` o essere:
1. linsieme vuoto;
2. un punto, nel qual caso le sfere si dicono tangenti;
3. una circonferenza, nel qual caso le sfere si dicono secanti.
La posizione reciproca tra due sfere nello spazio si pu` o determinare confrontando la di-
stanza tra i loro centri con la somma e la differenza dei loro raggi, in modo totalmen-
te analogo a quanto illustrato per la determinazione della posizione reciproca di due
circonferenze nel piano (cfr. Par. 10.1.3).
Date le due sfere
1
e
2
di equazioni:

1
: x
2
+ y
2
+ z
2
+ a
1
x + b
1
y + c
1
z + d
1
= 0,

2
: x
2
+ y
2
+ z
2
+ a
2
x + b
2
y + c
2
z + d
2
= 0,
si pu` o anche studiare la loro intersezione considerando le soluzioni del sistema formato
dalle due equazioni:

x
2
+ y
2
+ z
2
+ a
1
x + b
1
y + c
1
z + d
1
= 0,
x
2
+ y
2
+ z
2
+ a
2
x + b
2
y + c
2
z + d
2
= 0.
che, sottraendo membro a membro, ` e equivalente al sistema:

x
2
+ y
2
+ z
2
+ a
1
x + b
1
y + c
1
z + d
1
= 0,
(a
1
a
2
)x + (b
1
b
2
)y + (c
1
c
2
)z + d
1
d
2
= 0.
Se le due sfere
1
e
2
non sono concentriche, la seconda equazione del precedente
sistema rappresenta un piano , detto piano radicale della coppia di sfere. Si osserva che:
1. il piano radicale ` e ortogonale al vettore:
n = (a
1
a
2
, b
1
b
2
, c
1
c
2
)
che ` e parallelo alla retta che unisce i centri delle due sfere, detta asse centrale.
2. Se
1

2
` e una circonferenza (, allora il piano radicale coincide con il piano su
cui giace (. La situazione geometrica ` e rappresentata nella Figura 11.21.
554 Geometria Analitica nello Spazio
Figura 11.21: Due sfere secanti e il loro piano radicale
Capitolo 11 555
Figura 11.22: Due sfere tangenti esternamente e il loro piano radicale
556 Geometria Analitica nello Spazio
Figura 11.23: Due sfere tangenti internamente e il loro piano radicale
Figura 11.24: Due sfere ad intersezione vuota e il loro piano radicale
Capitolo 11 557
Figura 11.25: Due sfere ad intersezione vuota e il loro piano radicale
3. Se
1
e
2
sono tangenti in un punto P
0
, il piano radicale ` e tangente ad entrambe
le sfere nel punto P
0
. La situazione geometrica ` e rappresentata nelle Figura 11.22
e 11.23.
4. Se le due sfere
1
e
2
non hanno punti in comune, anche il loro piano radicale
non ha punti in comune con le due sfere. La situazione geometrica ` e illustrata nelle
Figure 11.24 e 11.25.
Come nel caso del fascio di circonferenze nel piano (cfr. Par. 10.1.4) date due sfere:

1
: x
2
+ y
2
+ z
2
+ a
1
x + b
1
y + c
1
z + d
1
= 0,

2
: x
2
+ y
2
+ z
2
+ a
2
x + b
2
y + c
2
z + d
2
= 0,
la loro combinazione lineare, al variare dei parametri e :
(x
2
+ y
2
+ z
2
+ a
1
x + b
1
y + c
1
z + d
1
)
+(x
2
+ y
2
+ z
2
+ a
2
x + b
2
y + c
2
z + d
2
) = 0, , R,
(11.26)
rappresenta il fascio di sfere individuato da
1
e
2
. Si osservi che i parametri e
sono omogenei, vale a dire ` e sufciente individuare il loro rapporto per ottenere un solo
elemento del fascio. Si osservi, inoltre, che per = 0 si ha la sfera
2
e per = 0 si
558 Geometria Analitica nello Spazio
ottiene la sfera
1
. Da (11.26) si ha:
( + )x
2
+ ( + )y
2
+ ( + )z
2
+ (a
1
+ a
2
)x + (b
1
+ b
2
)y
+(c
1
+ c
2
)z + (d
1
+ d
2
) = 0.
(11.27)
Pertanto, se = = 1 e le due sfere
1
e
2
non sono concentriche, lequazione
(11.27) rappresenta il piano radicale individuato dalla coppia di sfere che quindi prende
il nome di piano radicale del fascio. Per = si trova in generale una sfera (anche se
non sempre con raggio reale). Come nel caso del fascio di circonferenze nel piano. anche
per il fascio di sfere si hanno le seguenti propriet` a legate alla posizione reciproca, prima
descritta, delle due sfere
1
e
2
:
1. Se
1
e
2
hanno il centro nello stesso punto C, il fascio generato da
1
e
2
` e
linsieme di tutte le sfere di centro C. Questo fascio non denisce alcun piano ra-
dicale, a meno di studiare le propriet` a dei fasci di sfere nellambito della Geometria
Proiettiva, non trattata in questo testo. Per la denizione e le maggiori propriet` a
degli Spazi Proiettivi si veda ad esempio [16].
2. Se
1
e
2
hanno centri diversi, siano, rispettivamente, C
1
e C
2
, il centro di ogni
sfera del fascio individuato da
1
e
2
appartiene alla retta passante per C
1
e
C
2
, detta lasse centrale. Inoltre lasse centrale ` e ortogonale al piano radicale.
La verica di quanto appena affermato ` e un semplice esercizio. Si distinguono i
seguenti casi.
2a. Se
1

2
` e una circonferenza (, tutti gli elementi del fascio individuato da

1
e da
2
contengono (, il fascio contiene il piano radicale di
1
e
2
e
tutte e sole le sfere contenti ( e aventi centro sullasse centrale (compresa la
sfera che ha ( come cerchio massimo e centro sul piano radicale stesso). La
situazione geometrica ` e descritta nella Figura 11.26.
2b. Se
1

2
sono tangenti nel punto P
0
, tutti gli elementi del fascio individuato
da
1
e da
2
sono tangenti in P
0
. In questo caso il fascio contiene il piano
radicale di
1
e
2
e tutte e sole le sfere tangenti a in P
0
(compresa
quella di centro P
0
e raggio nullo, che per convenzione si considera tangente
a in P
0
). La situazione geometrica ` e descritta nella Figura 11.27.
2c. Se le due sfere
1
e
2
non hanno punti in comune, il fascio da esse individua-
to contiene il loro piano radicale e tutte e sole le sfere aventi centro sullasse
centrale del fascio e nessun punto in comune tra di loro e con il piano radicale,
La situazione geometrica ` e descritta nella Figura 11.28.
Capitolo 11 559
Figura 11.26: Fascio di sfere passanti per una circonferenza
560 Geometria Analitica nello Spazio
Figura 11.27: Fascio di sfere tangenti in un punto
Capitolo 11 561
Figura 11.28: Fascio di sfere non aventi punti in comune
562 Geometria Analitica nello Spazio
Esempio 11.11 Lesercizio 11.14 pu` o essere risolto anche tramite la nozione di fascio di
sfere. Infatti la sfera passante per A = (3, 1, 1) e tangente al piano : x +y z 1 = 0
nel punto B = (1, 1, 1) appartiene al fascio di tutte le sfere tangenti a nel punto B,
individuato dal piano e dalla sfera di centro B e raggio 0, di equazione:
((x 1)
2
+ (y 1)
2
+ (z 1)
2
) + (x + y z 1) = 0, , R.
Imponendo il passaggio per il punto A si ha 4 + 2 = 0, da cui ponendo = 1 e
= 2 si ritrova la sfera:
x
2
+ y
2
+ z
2
4x 4y + 5 = 0.
Esercizio 11.18 Data la circonferenza ( del piano z + 1 = 0 di centro Q = (2, 3, 1)
e raggio r =

3, determinare le equazioni delle sfere passanti per ( e tangenti alla retta


t : x = y 3 = 0.
Soluzione Le sfere passanti per la circonferenza ( appartengono al fascio di sfere
equazione:
[(x 2)
2
+ (y 3)
2
+ (z + 1)
2
3] + (z + 1) = 0, , R,
o, equivalentemente (tenendo conto che in questo caso non si sta cercando il piano radicale
tra le soluzioni) di equazione:
x
2
+ y
2
+ z
2
4x 6y + 2z + 11 + k(z + 1) = 0, k R. (11.28)
con k = /. Intersecando la generica sfera del fascio, rappresentato per semplicit` a
mediante (11.28), con la retta t si ottiene lequazione di secondo grado in z:
z
2
+ (k + 2)z + 2 + k = 0,
che ha due soluzioni coincidenti se e solo se si annulla il suo discriminante:
= (k + 2)
2
4(k + 2),
cio` e se e solo se k = 2. Le sfere cercate hanno allora equazioni:
x
2
+ y
2
+ z
2
4x 6y + 2z + 11 2(z + 1) = 0.
Capitolo 11 563
11.10 Coordinate polari sferiche
Come nel caso del piano in cui sono state introdotte, per ogni punto P, oltre alla coordi-
nate cartesiane P = (x, y) anche le coordinate polari P = (, ) (cfr. Par. 9.3), in modo
analogo, nello spazio, si possono denire sistemi di coordinate diversi da quello cartesia-
no. In questo paragrafo saranno descritte le coordinate polari sferiche, che diventeranno
fondamentali per la rappresentazione parametrica di gure aventi un centro di simmetria,
come ad esempio la sfera, da cui la loro denominazione.
Un sistema di coordinate polari sferiche nello spazio ` e formato da:
1. un punto O, detto polo,
2. una retta orientata p passante per O, detta asse polare,
3. un semipiano di origine la retta p, detto semipiano polare.
Ad ogni punto P dello spazio (non appartenente allasse polare) si pu` o associare in modo
unico la terna di numeri (, , ), dove:
1. ` e la distanza d(O, P) dal punto P al polo ed ` e quindi un numero reale positivo;
2. [0, 2) ` e langolo della rotazione antioraria intorno alla retta p che il semipiano
deve compiere per sovrapporsi al semipiano individuato dalla retta p e dal punto
P ;
3. [0, ] ` e langolo tra la retta p ed il vettore

OP.
La terna di numeri (, , ) costituisce le coordinate polari sferiche di P. Per lanalogia
con il metodo comunemente usato per determinare la posizione dei punti sulla terra,
prende il nome di raggio vettore, ` e la longitudine e ` e la colatitudine essendo il com-
plementare della latitudine del punto P. La situazione geometrica ` e rappresentata nella
Figura 11.29.
Osservazione 11.7 Se il punto P appartiene allasse polare, ` e indeterminato e = 0
o = . Se P = O, e sono entrambi indeterminati.
Se si considera un riferimento cartesiano posizionato in modo opportuno rispetto al ri-
ferimento polare sferico si possono determinare, mediante semplici considerazioni geo-
metriche, le relazioni che intercorrono tra le coordinate cartesiane e le coordinate polari
sferiche di ogni punto P (non appartenente allasse polare). Precisamente si pongono:
a. il polo O coincidente con lorigine O del sistema di riferimento cartesiano 1 =
(O, x, y, z);
564 Geometria Analitica nello Spazio

O
P

p
Figura 11.29: Sistema di coordinate polari sferiche
Capitolo 11 565
b. lasse polare p coincidente con lasse z;
c. il semipiano polare coincidente con il semipiano coordinato yz (dalla parte delle
y positive).
x
y
z
P
P'
O

Figura 11.30: Coordinate cartesiane e coordinate polari sferiche di P


Sia P

il punto, proiezione ortogonale di P sul piano coordinato xy, come illustrato


nella Figura 11.30 la lunghezza della proiezione ortogonale del vettore

OP sul piano
coordinato xy ` e |

OP

| = sin e quindi le relazioni tra le coordinate cartesiane (x, y, z)


566 Geometria Analitica nello Spazio
e le coordinate polari sferiche (, , ) di P sono:

x = sin cos
y = sin sin
z = cos .
(11.29)
Rispetto al sistema di coordinate polari sferiche appena introdotto, la sfera di centro
O e raggio R ha equazione = R. Utilizzando il cambiamento di coordinate (11.29) si
trova per la rappresentazione parametrica (con parametri e ) data da:

x = Rsin cos
y = Rsin sin
z = Rcos , [0, 2), [0, ].
Quindi, la sfera di centro nel punto C = (, , ) e raggio R ha equazioni parametri-
che:

x = + Rsin cos
y = + Rsin sin
z = + Rcos , [0, 2), [0, ].
A tali equazioni si perviene operando mediante una traslazione degli assi, cio` e conside-
rando un nuovo riferimento cartesiano 1

= (C, X, Y, Z), con origine il centro C della


sfera e gli assi X, Y e Z passanti per C, paralleli e concordi rispettivamente a x, y e z.
Analogamente al caso delle traslazioni degli assi nel piano (cfr. Par. 9.4) le relazioni che
legano le coordinate del generico punto P rispetto ai due riferimenti sono:

x = + X
y = + Y
z = + Z.
11.11 Esercizi di riepilogo svolti
Esercizio 11.19 Date le tre rette:
r :

x y = 0
2x z + 5 = 0,
s :

x y + 6 = 0
x 2y + z 6 = 0,
t :

3x 2z + 2 = 0
3y + z 4 = 0,
determinare la retta incidente r e s e parallela a t.
Soluzione La retta cercata ` e lintersezione dei due piani
1
e
2
, dove
1
` e il piano per
r parallelo a t e
2
` e il piano per s parallelo a t. Per determinare lequazione ad esempio
del piano
1
si pu` o osservare che esso appartiene al fascio di piani di equazione:
(x y) + (2x z + 5) = 0.
Capitolo 11 567
Poich e ogni piano del fascio ` e ortogonale al vettore ( + 2, , ) e la retta t ` e
parallela al vettore t = (2, 1, 3), si ha che il piano cercato si ottiene imponendo la
condizione:
( + 2, , ) t = 3 = 0,
da cui ad esempio = 1, = 3. Per determinare
2
si procede in modo analogo
considerando il fascio di piani passanti per la retta s:

1
(x y + 6) +
1
(x 2y + z 6) = 0.
Esercizio 11.20 Piano assiale di un segmento Calcolare lequazione del piano as-
siale del segmento di estremi A = (3, 5, 1), B = (2, 3, 1).
Soluzione Il procedimento da usare ` e simile a quello spiegato nel Paragrafo 9.2 nel
caso di un asse di un segmento nel piano, in alternativa si pu` o determinare lequazione
del piano ortogonale ad AB nel suo punto medio. Imponendo, invece, che il piano assiale
sia il luogo dei punti P = (x, y, z) equidistanti da A e B si ha:

(x + 3)
2
+ (y 5)
2
+ (z 1)
2
=

(x 2)
2
+ (y + 3)
2
+ (z 1)
2
da cui segue che lequazione del piano assiale ` e 10x 16y + 21 = 0.
Esercizio 11.21 Punto simmetrico di un altro punto rispetto ad una retta Deter-
minare le coordinate del punto O

simmetrico dellorigine O rispetto alla retta


r :

x + y + z = 0,
x + y 1 = 0.
Soluzione Il punto medio M di O e O

` e il punto di intersezione della retta r con il


piano passante per O e ortogonale a r. Il piano ha equazione cartesiana x y = 0,
pertanto il punto medio M tra O e O

` e:
M =

1
2
,
1
2
, 1

,
quindi si ha O

= (1, 1, 2). La situazione geometrica ` e rappresentata nella Figura 11.31.


Esercizio 11.22 Retta simmetrica di unaltra retta rispetto ad un piano Data la
retta:
r :

x + y + z 1 = 0
x y = 0,
568 Geometria Analitica nello Spazio
O
H
O'
r
Figura 11.31: Simmetrico del punto O rispetto alla retta r
Capitolo 11 569
H
A
A'
K
r
Figura 11.32: Esercizio n. 11.20
570 Geometria Analitica nello Spazio
determinare le equazioni della retta s, simmetrica di r rispetto al piano:
: x + y z 1 = 0
e scrivere lequazione del piano che contiene sia r sia s.
Soluzione Sia K = r il punto di intersezione della retta r con il piano , di
coordinate:
K =

1
2
,
1
2
, 0

e sia A = (0, 0, 1) un punto qualsiasi di r. La retta s, simmetrica di r rispetto a , ` e


allora la retta passante per K e per il punto A

simmetrico di A rispetto al piano . Per


determinare il punto A

si pu` o osservare che il punto medio H tra A e A

` e lintersezione
della retta passante per A ortogonale al piano con il piano stesso. Quindi, risolvendo
il sistema lineare:

x = t
y = t
z = 1 t
x + y z 1 = 0,
si ottiene:
H =

2
3
,
2
3
,
1
3

.
Imponendo che H sia il punto medio tra A e A

si ha:
A

4
3
,
4
3
,
1
3

.
La retta s ` e allora la retta passante per K e A

. Il piano che contiene r e s ` e il piano


passante per i tre punti A, K e A

, la cui equazione cartesiana ` e:

x y z 1
1
2
1
2
0
4
3
4
3

1
3

= 0.
La situazione geometrica ` e illustrata nella Figura 11.32.
Esercizio 11.23 Determinare lequazione della sfera passante per i punti A = (1, 1, 2) e
B = (2, 1, 1) e tangente alla retta:
r :

3x 2z + 2 = 0
3y + z 4 = 0
nel punto H = (0, 1, 1).
Capitolo 11 571
Soluzione Il centro Q della sfera appartiene alla retta intersezione del piano
1
per H
ortogonale a r e del piano assiale
2
del segmento AB. Il piano
1
` e dunque ortogonale
al vettore n
1
= (2, 1, 3) ed ha equazione:
2(x 0) + (1)(y 1) + 3(z 1) = 0.
Il piano
2
invece, per quanto visto nellEsercizio 11.20, ` e il piano passante per il punto
medio M del segmento AB:
M =

3
2
, 1,
3
2

e ortogonale al vettore

AB = (1, 0, 1). Pertanto il punto Q
1

2
ha coordinate
(t, 5t 2, t), con t R. Imponendo che Q sia equidistante da A e da H si ottiene t = 1.
La sfera cercata ha quindi equazione:
(x 1)
2
+ (y 3)
2
+ (z 1)
2
= 5.
Esercizio 11.24 Circonferenza per tre punti Determinare le equazioni della circon-
ferenza passante per i tre punti A = (1, 1, 5), B = (2, 2, 1), C = (1, 2, 2).
Soluzione La circonferenza ` e lintersezione del piano per A, B, C con la sfera
che ha come centro lintersezione Q dei tre piani assiali relativi ai segmenti AB, AC e
BC. Pi ` u precisamente il piano ` e ortogonale al vettore:

AB

AC = (15, 3, 3)
e quindi ha equazione cartesiana : 5x y +z 9 = 0. La sfera ha centro nel punto
Q, intersezione dei quattro piani:

x + y 4z + 9 = 0
y + z 3 = 0
x + 4y z = 0
5x y + z 9 = 0
e raggio d(A, Q) =

6.
Esercizio 11.25 Dati i punti A = (2, 0, 0), B = (0, 2, 0), C = (0, 0, 2),
1. determinare il luogo dei punti equidistanti da A, B e C.
2. Tra tutte le sfere passanti per A, B e C determinare quella che ha volume minimo.
572 Geometria Analitica nello Spazio
Soluzione 1. Il luogo richiesto ` e dato dallinsieme dei punti P = (x, y, x) tali che:
d(P, A) = d(P, B) = d(P, C).
Si tratta, cio` e, della retta r in cui si intersecano i piani assiali dei segmenti AB, BC
e (ovviamente AC). Infatti da d
2
(P, A) = d
2
(P, B) segue:
(x 2)
2
+ y
2
+ z
2
= x
2
+ (y 2)
2
+ z
2
,
da cui:
x y = 0,
che ` e lequazione del piano
1
, piano assiale del segmento AB. Analogamente si
ricava lequazione del piano
2
, piano assiale del segmento BC:

2
: y z = 0.
La retta r =
1

2
ha, pertanto, equazioni parametriche:

x = t
y = t
z = t, t R.
2. Il centro Q di ogni sfera passante per i punti A, B, C appartiene alla retta r
determinata nel punto precedente. La sfera di volume minimo ` e quella di raggio
minimo, dove = |

AQ|. Per trovare il punto Q della retta r che rende minimo il


raggio si pu` o procedere in due modi.
a. Si osserva che, essendo il piano
1
ortogonale alla retta AB e il piano
2
ortogonale alla retta BC, la retta r ` e ortogonale al piano passante per i tre
punti A, B, C di equazione x + y + z 2 = 0 e lo interseca nel punto:
Q
0
=

2
3
,
2
3
,
2
3

,
che ` e il centro della sfera
0
di raggio minimo. Infatti, qualunque sia il punto
Q della retta r, con Q = Q
0
, si ha:
|

Q
0
A| < |

QA|
perch e Q
0
A ` e il cateto del triangolo rettangolo AQ
0
Q di ipotenusa QA. Il
raggio di
0
` e:

0
= |

Q
0
A| =
2

6
3
.
Capitolo 11 573
b. Se Q = (t, t, t), t R, ` e un punto della retta r, si ha:

2
= |

QA| = 3t
2
4t + 4.
Per determinare il raggio minimo si calcola il valore di t che annulla la deri-
vata prima di
2
:
d
2
dt
= 6t 4,
da cui si trova t = 2/3 e si verica che per questo valore la funzione
2
(t) ha
un minimo. Si perviene cos` ai risultati dedotti in precedenza.
Esercizio 11.26 Data la sfera : x
2
+ y
2
+ z
2
= 2,
1. studiare, al variare di k R, lintersezione di con il piano : y + z = k.
2. Posto k = 4, trovare il punto P di che ha distanza minima da .
Soluzione 1. Per studiare la posizione reciproca del piano con la sfera ` e sufcien-
te confrontare la distanza del centro C di dal piano con il raggio r di . Si
ha:
d(C, ) =
[ k[

2
, r =

2.
Segue che:
se k = 2 il piano ` e tangente alla sfera ;
se 2 < k < 2, il piano interseca la sfera in una circonferenza;
se k < 2 oppure k > 2 il piano ` e esterno alla sfera .
2. Poich e il piano : y +z = 4 ` e esterno alla sfera , il punto P richiesto appartiene
alla retta passante per il centro della sfera e ortogonale al piano . Si trova
P = (0, 2, 2).
Esercizio 11.27 Determinare le equazioni della circonferenza ( passante per il punto
A = (2, 1, 0) e tangente alla retta:
r :

x + y 2 = 0
2x + z 3 = 0
nel punto B = (0, 2, 3).
574 Geometria Analitica nello Spazio
Soluzione La circonferenza ( richiesta pu` o essere individuata come intersezione del
piano , passante per A e contenente r, con la sfera avente ( come cerchio massimo.
Il piano ha equazione:
x y + z 1 = 0.
Il centro C di , che coincide con il centro di (, ` e il punto comune ai piani ,
1
piano per B perpendicolare alla retta r e
2
piano assiale del segmento AB. Si trova
C = (7, 9, 3). Il raggio di ` e = d(C, A) = 7

2. Le equazioni della circonferenza


sono:
( :

x
2
+ y
2
+ z
2
14x 18y 6z + 41 = 0
x y + z 1 = 0.
Esercizio 11.28 Trovare le sfere tangenti nel punto A = (1, 1, 2) al piano:

1
: y + z 1 = 0,
che intersecano il piano
2
: z = 0 secondo circonferenze di raggio r = 1.
Soluzione Le sfere richieste sono elementi del fascio T individuato dalla sfera di
centro A e raggio uguale a 0 e dal piano
1
:
T : (x
2
+ y
2
+ z
2
2x + 2y 4z + 6) + (y + z 1) = 0.
La generica sfera del fascio ha centro nel punto:
Q =

1,
2 +
2
,
4
2

e raggio:
=

2
2
,
per = 0 si ha solo il piano
1
. Le sfere che intersecano il piano
2
secondo circonfe-
renze di raggio r = 1 sono quelle che vericano la condizione:
d
2
(Q, ) + r
2
=
2
,
cio` e:

4
2

2
+ 1 =
2
2
4
2
.
Si trova = 1, = 2 e anche = 1, = 10.
Capitolo 11 575
Esercizio 11.29 Fra tutte le sfere passanti per la circonferenza:
( :

x
2
+ y
2
+ z
2
9 = 0
2x + 4y + 4z 9 = 0
determinare quelle di raggio pari a 3

3.
Soluzione Le sfere cercate appartengono al fascio T di sfere passanti per la circonfe-
renza ( di equazione:
T : (x
2
+ y
2
+ z
2
9) + (2x + 4y + 4z 9) = 0, , R.
Poich e nella soluzione dellesercizio non potr` a assumere il valore 0, che corrisponde
al piano radicale del fascio, conviene, per semplicare i calcoli, riscrivere lequazione del
fascio di sfere usando il solo parametro k = /, vale a dire:
x
2
+ y
2
+ z
2
9 + k(2x + 4y + 4z 9) = 0, k R,
da cui si ottiene:
x
2
+ y
2
+ z
2
+ 2kx + 4ky + 4kz 9(1 + k) = 0, k R.
Il raggio r della generica sfera del fascio risulta vericare la relazione r
2
= 9k
2
+9(1+k).
Imponendo la condizione richiesta si ottiene k
2
+ (1 + k) 3 = 0 le cui soluzioni sono
k = 2 che danno luogo alle due sfere:

1
: x
2
+ y
2
+ z
2
4x 8y 8x + 9 = 0

2
: x
2
+ y
2
+ z
2
+ 2x + 4y + 4z 18 = 0,
che risolvono il problema.
11.12 Per saperne di pi ` u
11.12.1 Baricentro geometrico di punti
In questo paragrafo si introduce la denizione di baricentro (geometrico) di n punti nello
spazio e se ne studiano le propriet` a, per ottenere, come caso particolare, le formule me-
diante le quali si determinano le coordinate del punto medio di due punti, del baricentro
di un triangolo e del baricentro di un tetraedro.
576 Geometria Analitica nello Spazio
Denizione 11.1 Il baricentro (geometrico) dei punti P
1
, P
2
, . . . , P
n
dello spazio ` e il
punto G cos` denito:

OG =
1
n

OP
1
+

OP
2
+ . . . +

OP
n

, (11.30)
con O punto di S
3
ssato.
La denizione di baricentro di n punti, appena enunciata, sembra dipendere in modo
essenziale dalla scelta del punto O, invece il teorema che segue afferma il contrario.
Teorema 11.2 La denizione (11.30) di baricentro degli n punti P
1
, P
2
, . . . , P
n
non
dipende dal punto O scelto.
Dimostrazione Sia O

un punto di S
3
diverso da O, si ponga:

=
1
n

P
1
+

P
2
+ . . . +

P
n

, (11.31)
la tesi consiste nel dimostrare che G = G

. Tenendo conto che dalla denizione di somma


di vettori si ha per ogni punto P
i
con i = 1, 2, . . . , n:

P
i
=

OP
i
+

OO

,
da (11.31) segue:

OO

+
1
n

OP
1
+

OP
2
+ . . . +

OP
n

OO

OG,
da cui la tesi.
Essendo indifferente la scelta del punto O per la determinazione del baricentro di n
punti P
1
, P
2
, . . . , P
n
si pu` o scegliere O = G, infatti vale il seguente teorema la cui
dimostrazione ` e lasciata al Lettore per esercizio.
Teorema 11.3 G ` e il baricentro dei punti P
1
, P
2
, . . . , P
n
se e solo se:

GP
1
+

GP
2
+ . . . +

GP
n
= o, (11.32)
dove con o si indica il vettore nullo dello spazio vettoriale V
3
.
Si procede ora con la determinazione del baricentro di due punti, di tre punti e di quattro
punti come esempi della denizione e dei teoremi appena enunciati.
Capitolo 11 577
Baricentro di due punti P
1
e P
2
Da (11.32) si ha che il baricentro di due punti P
1
e
P
2
verica la relazione:

GP
1
+

GP
2
= o (11.33)
da cui segue che G ` e il punto medio del segmento di estremi P
1
e P
2
.
Baricentro di tre punti P
1
, P
2
e P
3
Da (11.32) segue che il baricentro di tre punti
P
1
, P
2
e P
3
verica la relazione:

GP
1
+

GP
2
+

GP
3
= o. (11.34)
Se G
1
` e il baricentro dei punti P
1
e P
2
, da (11.33) e da (11.34) si ottiene:

GP
1
+

GP
2
+

GP
3
=

G
1
P
1
+

G
1
G +

G
1
P
2
+

G
1
G +

G
1
P
3
+

G
1
P
1
= 3

G
1
G +

G
1
P
3
= o,
da cui:

G
1
P
3
= 3

GG
1
,
che esprime una ben nota propriet` a che caratterizza il baricentro di un triangolo, provando
cos` che la denizione (11.30) coincide con lusuale concetto di baricentro di un triangolo.
La situazione geometrica descritta ` e rappresentata nella Figura 11.33.
P
1
P
2
P
3
G
1
G
Figura 11.33: Baricentro dei tre punti P
1
, P
2
, e P
3
578 Geometria Analitica nello Spazio
Baricentro di quattro punti P
1
, P
2
, P
3
e P
4
Da (11.32) segue che il baricentro di
quattro punti P
1
, P
2
, P
3
e P
4
verica la relazione:

GP
1
+

GP
2
+

GP
3
+

GP
4
= o. (11.35)
Procedendo come nel caso del calcolo del baricentro di tre punti descritto in precedenza
e indicando con G
1
il baricentro dei tre punti P
1
, P
2
, P
3
si ottiene:

G
1
P
4
= 4

GG
1
,
che corrisponde ad una ben nota propriet` a geometrica che caratterizza il baricentro del
tetraedro di vertici P
1
, P
2
, P
3
e P
4
. La situazione geometrica ` e rappresentata nella Figura
11.34.
P
1
P
2
P
3
P
4
G
1
G
Figura 11.34: Baricentro dei quattro punti P
1
, P
2
, P
3
e P
4
Inne si osservi che dalla formula (11.30) si ottengono le espressioni in coordinate del
baricentro di due punti, di tre punti e di quattro punti elencate allinizio di questo capitolo.
Capitolo 11 579
11.12.2 Potenza di un punto rispetto ad una sfera
In questo paragrafo si introduce il concetto di potenza di un punto rispetto ad una sfera,
concetto analogo a quello di potenza di un punto rispetto ad una circonferenza nel piano
denito nel Paragrafo 10.6.1.
Denizione 11.2 La potenza di un punto P
0
= (x
0
, y
0
, z
0
) rispetto ad una sfera di
equazione x
2
+y
2
+z
2
2x2y 2z + = 0 ` e il numero reale p(P
0
) che si ottiene
sostituendo il valore delle coordinate del punto P
0
nellequazione della sfera, ossia:
p(P
0
) = x
2
0
+ y
2
0
+ z
2
0
2x
0
2y
0
2z + .
Il teorema che segue permette di interpretare geometricamente la potenza di un punto
rispetto ad una sfera.
Teorema 11.4 Data la sfera di centro C e raggio r, la potenza di un punto P
0
rispetto
a ` e data da:
p(P
0
) = d(P
0
, C)
2
r
2
dove d(P
0
, C) indica la distanza del punto P
0
dal centro C.
Dimostrazione La dimostrazione ` e ovvia tenendo conto che la sfera ` e il luogo dei
punti P tale che d(P, C)
2
= r
2
.
Osservazione 11.8 1. Bench e il teorema precedente sia di ovvia dimostrazione, esso
` e molto importante perch e assicura un metodo facile per individuare la posizione
dei punti nello spazio rispetto ad una sfera assegnata. Infatti la potenza di un punto
rispetto ad una sfera ` e un numero strettamente positivo se e solo se il punto ` e esterno
alla sfera, la potenza di un punto rispetto ad una sfera ` e uguale a 0 se e solo se il
punto giace sulla supercie sferica, la potenza ` e negativa se e solo se il punto ` e
interno alla supercie sferica. Per esempio, data la sfera:
: x
2
+ y
2
+ z
2
2x 4y 2z + 5 = 0,
si ha che il punto A = (2, 4, 3) ha potenza pari a 8 rispetto a e, quindi, ` e esterno
a , invece il punto B = (1, 3, 1) ha potenza pari a 0, quindi appartiene a . In
altri termini si pu` o immaginare che la sfera divida lo spazio in tre regioni: quel-
la dei punti di potenza zero (appartenenti alla supercie sferica), quella dei punti
con potenza negativa (interni alla supercie della sfera) e quella dei punti a potenza
positiva (esterni alla supercie della sfera). Si osservi inne che questa caratterizza-
zione dei punti dello spazio, rispetto ad una supercie assegnata, ` e gi` a stata ottenuta
nel Paragrafo 11.18 considerando un piano e la distanza, con segno, di ogni pun-
to dello spazio dal piano, e si pu` o dimostrare che ` e valida anche per altre superci
chiuse. Daltra parte, nel Paragrafo 10.6.1 ` e stata ricavata la stessa caratterizzazione
dei punti del piano rispetto ad una circonferenza.
580 Geometria Analitica nello Spazio
2.
`
E evidente che il luogo dei punti che hanno uguale potenza rispetto a due sfere
assegnate coincide con il piano radicale denito dalla due sfere (cfr. Par. 11.9).
Invece, lesercizio seguente ` e volto a determinare i punti di uguale potenza rispetto
a tre sfere.
Esercizio 11.30 Determinare il luogo dei punti P dello spazio aventi la stessa potenza
rispetto alle tre sfere:

1
: x
2
+ y
2
+ z
2
2y 4z +
11
4
= 0

2
: x
2
+ y
2
+ z
2
2x 2z
31
25
= 0

3
: x
2
+ y
2
+ z
2
4x 2y +
59
100
= 0.
Soluzione Il luogo dei punti richiesto ` e formato dai punti P = (x, y, z) che apparten-
gono allintersezione dei tre piani radicali determinati da
1
,
2
e
3
, vale a dire:

2x 2y 2z +
399
100
= 0
4x 4z +
216
100
= 0
2x + 2y 2z
183
100
= 0
I tre piani appartengono allo stesso fascio proprio, lasse di questo fascio ` e il luogo dei
punti richiesto. La situazione geometrica ` e rappresentata nella Figura 11.35.
Esercizio 11.31 Il luogo dei punti di uguale potenza rispetto a tre sfere assegnate ` e sem-
pre una retta?
11.12.3 Sfere in dimensione 4
In questo paragrafo si intende dare qualche cenno, molto intuitivo e a volte poco rigoroso,
di Geometria Analitica in dimensione maggiore di 3. Per una trattazione approfondita si
rimanda a testi pi` u avanzati, quali ad esempio [10] e [12].
Si immagini di costruire uno spazio di punti analogo a quanto descritto allinizio di que-
sto capitolo, basato per` o su uno spazio euclideo di dimensione 4 riferito ad una base
ortonormale B. Si denisce un riferimento cartesiano ssando un punto O a cui si im-
maginano applicati i vettori della base B, O ` e lorigine del riferimento. Ad ogni punto
Capitolo 11 581
Figura 11.35: Esercizio n. 11.29
582 Geometria Analitica nello Spazio
P di questo spazio si possono associare quattro coordinate cartesiane che coincidono con
le componenti del vettore

OP rispetto alla base B, sia, ad esempio P = (x, y, z, t). In
questo ambiente ` e quindi possibile, grazie al prodotto scalare, introdurre in modo total-
mente analogo a quanto visto nel caso della dimensione 3, il concetto di iperpiano, che
sar` a quindi rappresentato da unequazione lineare del tipo:
ax + by + cz + dt + e = 0, a, b, c, d, e R.
Lintersezione di due iperpiani non paralleli sar` a un piano (proprio lo stesso tipo di piano
caratterizzato dal Teorema 11.1 nel caso di S
3
), lintersezione di tre iperpiani opportuna-
mente scelti sar` a una retta.
La distanza tra due punti P
1
e P
2
` e pari alla norma del vettore

P
1
P
2
.
`
E quindi possibile, in
questo ambiente, che per analogia al caso dello spazio ordinario e del piano, si indicher` a
con S
4
, introdurre il concetto di ipersfera, denita come il luogo dei punti P tali da
mantenere ssa la distanza di P da un punto ssato C, il centro. Per esempio, lipersfera
di centro lorigine e raggio R ha equazione:
: x
2
+ y
2
+ z
2
+ t
2
= R
2
.
Lintersezione di una ipersfera con un iperpiano (se essi si intesecano) dar` a luogo alla
sfera introdotta nel Paragrafo 11.7.1. Si intende ora mettere in relazione lipersfera di
centro O e raggio 1 con il gruppo di matrici:
SU(2) = P C
2,2
[
t
P P = I, det(P) = 1
introdotto nel Paragrafo 5.5.2 e dimostrare che i due insiemi in realt` a coincidono. In altri
termini il gruppo SU(2), cos` come il gruppo U(1) (cfr. Cap. 9) ` e identicabile ad una
sfera opportuna.
Sia:
P =

z
1
z
2
z
3
z
4

, z
1
, z
2
, z
3
, z
4
C,
una generica matrice appartenente ad SU(2). La condizione:
t
P P =

z
1
z
3
z
2
z
4

z
1
z
2
z
3
z
4

1 0
0 1

si traduce nel sistema:


z
1
z
1
+ z
3
z
3
= 1
z
1
z
2
+ z
3
z
4
= 0
z
2
z
2
+ z
4
z
4
= 1.
(11.36)
Capitolo 11 583
Supponendo che tutti gli elementi della matrice P non siano nulli (si lasciano per esercizio
i vari casi particolari), dalla seconda equazione di (11.36) si ricava:
z
1
=
z
3
z
4
z
2
(11.37)
e:
z
3
=
z
1
z
2
z
4
. (11.38)
Sostituendo (11.37) nella condizione ulteriore:
det(P) = z
1
z
4
z
2
z
3
= 1 (11.39)
segue:
z
3
= z
2
.
Sostituendo (11.38) in (11.39) si ha anche:
z
1
= z
4
.
Di conseguenza si ottiene che le generiche matrici P di SU(2) devono essere del tipo:
P =

z
1
z
2
z
2
z
1

, det(P) = z
1
z
1
+ z
2
z
2
= 1.
Ponendo:
z
1
= x + iy, z
2
= z + it, x, y, z, t R,
e sostituendo nella condizione det(P) = 1 si ottiene:
z
1
z
1
+ z
2
z
2
= x
2
+ y
2
+ z
2
+ t
2
= 1,
pervendo cos` allidenticazione di SU(2) con lipersfera di centro O e raggio 1 in S
4
.
Mentre ` e facilmente intuibile che si possano denire ipersfere in spazi di punti associati a
spazi vettoriali di dimensione superiore a 4 non ` e in generale possibile identicare i loro
punti con gruppi di matrici. Infatti un famosissimo teorema (Teorema di Adams [12])
afferma che ci` o ` e solo possibile nei tre casi descritti in questo testo e precisamente U(1),
SU(2) e, ovviamente O(1) = 1, 1 che rappresenta la circonferenza sulla retta S
1
.
584 Geometria Analitica nello Spazio
Capitolo 12
Coni, Cilindri, Superci di Rotazione e
Quadriche
Questo capitolo non ` e da considerarsi in forma nale
Nel capitolo precedente si sono studiate le rappresentazioni in forma cartesiana e para-
metrica delle rette, dei piani, delle sfere e delle circonferenze nello spazio. Le rette e le
circonferenze sono esempi di curve, i piani e le sfere sono esempi di superci. In que-
sto capitolo si affronteranno, in generale, alcuni aspetti elementari della rappresentazione
delle curve e delle superci nello spazio, esaminandone facili problemi di intersezione
e di proiezione. In particolare, si studieranno le equazioni dei coni, dei cilindri e delle
superci di rotazione in due modi diversi a seconda della rappresentazione cartesiana o
parametrica di una curva che concorre alla loro determinazione. Si accenner` a, inoltre, allo
studio delle superci rigate. Invece si proporr` a in modo completo la classicazione delle
quadriche, che sono le superci rappresentabili mediante equazioni di secondo grado, con
una trattazione simile a quella gi` a vista nel Capitolo 10 nel caso delle coniche per la loro
riduzione in forma canonica. Questo capitolo vuole essere un primo approccio, a volte
solo intuitivo, come per esempio nel caso della denizione proposta di piano tangente ad
una supercie, allo studio delle curve e delle superci nello spazio, argomento di estrema
complessit` a ma di grande fascino, accresciuto ultimamente dalle sorprendenti applicazio-
ni che sono derivate dalla rappresentazione graca di curve e superci mediante adeguati
programmi di calcolo simbolico.
12.1 Cenni sulla rappresentazione di curve e superci
Nel Capitolo 11 si ` e visto che che un piano o una sfera, rispetto ad un sistema di riferi-
mento cartesiano 1 = (O, x, y, z), si possono rappresentare nei due modi seguenti:
585
586 Coni, Cilindri, Superci di Rotazione e Quadriche
1. in forma parametrica mediante tre equazioni in x, y, z contenenti due parametri
indipendenti.
2. In forma cartesiana, mediante ununica equazione nelle tre coordinate x, y, z.
Infatti, in generale tre equazioni con due parametri indipendenti u e v deniti su un
sottoinsieme D di R
2
del tipo:

x = x(u, v)
y = y(u, v)
z = z(u, v), u, v D R
2
rappresentano una supercie o dello spazio e si dicono equazioni parametriche di o.
Sono un esempio di rappresentazione parametrica di una supercie le equazioni para-
metriche del piano (11.3). Inoltre, una supercie si pu` o anche rappresentare mediante
unequazione del tipo:
f(x, y, z) = 0,
con f : R
3
R funzione qualsiasi, tale rappresentazione prende il nome di equazione
cartesiana della supercie.
Come gi` a visto per le rette e le circonferenze, una curva h nello spazio pu` o essere rap-
presentata, rispetto ad un riferimento cartesiano 1 = (O, x, y, z), in due modi diversi, o
come intersezione di due superci:
h :

f(x, y, z) = 0
g(x, y, z) = 0,
dove sia f sia g sono funzioni qualsiasi di dominio R
3
e codominio R, o in forma para-
metrica, mediante le equazioni parametriche date al variare di un solo parametro t in un
intervallo I di R:
h :

x = x(t)
y = y(t)
z = z(t), t I R.
In generale, non ` e semplice passare da una rappresentazione parametrica di una curva
o di una supercie alla sua equazione cartesiana o viceversa, potrebbero sorgere proble-
mi. Per esempio, anche nel caso pi ` u semplice delle curve piane, la curva di equazioni
parametriche:

x = 1 + t + t
5
y = 1 + 2t + 3t
5
z = 0, t R
Capitolo 12 587
non ha una ovvia rappresentazione in forma cartesiana. Anche la circonferenza appar-
tenente al piano xy, di centro lorigine e raggio r, che si pu` o rappresentare in forma
cartesiana come intersezione della sfera e del piano dati dal sistema:

x
2
+ y
2
r
2
= 0
z = 0,
pu` o costituire un problema, infatti essa ammette innite rappresentazioni parametriche,
anche molto dissimili, per esempio:

x = r cos t
y = r sin t
z = 0, t R,
oppure:

x = r
1 s2
1 + s
2
y = r
2s
1 + s
2
z = 0, s R.
12.2 Il cono
In questo paragrafo si introducono i coni come luoghi geometrici dello spazio deniti da
funzioni omogenee di grado k nelle variabili x, y, z. In particolare si studieranno i coni
circoscritti ad una sfera e la proiezione di una curva da un punto su di un piano.
Denizione 12.1 Sia h una curva nello spazio e V un punto non appartenente ad h. Il
cono di vertice V e direttrice h ` e il luogo delle rette che uniscono V ad ogni punto di
h. Le rette sono dette generatrici del cono e ogni curva (non solo h) che incontra tutte le
generatrici prende il nome di direttrice del cono.
Si procede ora con la determinazione delle equazioni cartesiane e parametriche del cono,
distinguendo i casi in cui la direttrice sia data come intersezione di due superci o in
forma parametrica.
Primo Caso Sia h la direttrice di un cono data dallintersezione di due superci nella
forma:
588 Coni, Cilindri, Superci di Rotazione e Quadriche
P
0
P
V
Figura 12.1: Generatrici del cono di vertice V e direttrice h

f(x, y, z) = 0
g(x, y, z) = 0,
sia P
0
= (x
0
, y
0
, z
0
) un punto di h e V = (, , ) il vertice del cono, la retta P
0
V
` e dunque unageneratrice del cono. Se P = (x, y, z) ` e il generico punto del cono, la
condizione di allineamento dei punti P
0
, P, V si ottiene dalle seguenti equazioni in forma
parametrica:

x
0
= + t(x )
y
0
= + t(y )
z
0
= + t(z ), t R,
dove le coordinate di P
0
variano su h, perci ` o:

f(x
0
, y
0
, z
0
) = 0
g(x
0
, y
0
, z
0
) = 0.
La situazione geometrica ` e rappresentata nella Figura 12.1. Eliminando i parametri x
0
, y
0
, z
0
e t dal sistema:

x
0
= + t(x )
y
0
= + t(y )
z
0
= + t(z )
f(x
0
, y
0
, z
0
) = 0
g(x
0
, y
0
, z
0
) = 0
Capitolo 12 589
si ottiene lequazione cartesiana del cono. Si osservi che, anche se esistono innite ge-
neratrici e innite direttrici, lequazione del cono cos` ottenuta non dipende dalla scelta
della direttrice e della generatrice.
Figura 12.2: Esercizio 12.1
Esercizio 12.1 Scrivere lequazione del cono avente come direttrice la curva:
h :

x
2
+ y
2
+ z
2
9 = 0
x + y 2 = 0
e vertice V = (0, 0, 0).
Soluzione Se P
0
= (x
0
, y
0
, z
0
) ` e un punto di h, i punti P
0
, P, V sono allineati se e solo
se:
590 Coni, Cilindri, Superci di Rotazione e Quadriche

x
0
= xt
y
0
= yt
z
0
= zt, t R,
da cui si perviene al sistema:

x
0
= xt
y
0
= yt
z
0
= zt
x
2
0
+ y
2
0
+ z
2
0
9 = 0
x
0
+ y
0
2 = 0.
Eliminando i parametri x
0
, y
0
, z
0
, segue:

t
2
(x
2
+ y
2
+ z
2
) 9 = 0
t(x + y) 2 = 0,
ricavando t dalla seconda equazione e sostituendo tale valore nella prima si ottiene:
5x
2
+ 5y
2
4z
2
+ 18xy = 0
che ` e lequazione del cono, rappresentato nella Figura 12.2.
Si osservi che lequazione del cono ottenuta nellesercizio precedente ` e di secondo grado
ed ` e omogenea in x, y, z nel senso che ` e somma di monomi dello stesso grado; la deni-
zione che segue chiarisce questo concetto e subito dopo si dimostra che ogni equazione
omogenea in x, y, z rappresenta un cono di vertice lorigine O = (0, 0, 0) del riferimento
cartesiano 1 = (O, x, y, z).
Denizione 12.2 Una funzione f : R
3
R nelle variabili x, y, z, si dice omogenea di
grado k, (k R), se:
f(tx, ty, tz) = t
k
f(x, y, z),
per ogni valore reale di t, x, y, z.
Esempio 12.1 1. I polinomi che sono somma di monomi dello stesso grado k e con
termine noto uguale a zero sono funzioni omogenee di grado k. Per esempio il
polinomio x
3
4y
3
xyz ` e una funzione omogenea di grado 3.
2. Ogni applicazione lineare f : R R ` e una funzione omogenea di grado 1.
Capitolo 12 591
3. Se : R
2
R ` e una funzione qualsiasi, allora la funzione:
f : R R (R 0) R, (x, y, z) f(x, y, z) =

x
z
,
y
z

` e omogenea di grado zero, vale a dire f(tx, ty, tz) = f(x, y, z) per ogni t reale.
Teorema 12.1 In un riferimento cartesiano 1 = (O, x, y, z), tutti e soli i luoghi geome-
trici dei punti P = (x, y, z) dello spazio tali che:
f(x, y, z) = 0,
dove f : R
3
R ` e una qualsiasi funzione omogenea di grado k (k R), rappresenta-
no un cono di vertice lorigine O.
Dimostrazione Sia P = (, , ) un punto della supercie o di equazione:
o : f(x, y, z) = 0,
con f funzione omogenea di grado k. La retta r che unisce il punto P con lorigine O
ha equazioni parametriche:
r :

x = t
y = t
z = t, t R,
cio` e le coordinate di ogni suo punto sono date da (t, t, t), al variare del parametro
t R. Per lomogeneit` a di f il punto (t, t, t) appartiene alla supercie o in quanto
f(t, t, t) = 0. Ne segue che la retta r giace sulla supercie o. Variando il punto
P sulla supercie segue che tutte le rette che uniscono P allorigine del riferimento O
giacciono sulla supercie stessa e ci` o prova che o ` e un cono con vertice in O.
Viceversa, si tratta di dimostrare che un cono di vertice lorigine O ` e rappresentato da
unequazione del tipo f(x, y, z) = 0, con f omogenea. Infatti se g(x, y, z) = 0 ` e
lequazione cartesiana di un cono di vertice O, allora:
h :

g(x, y, z) = 0
z 1 = 0
` e una direttrice del cono. Procedendo con il metodo descritto in precedenza per calcolare
lequazione cartesiana del cono di direttrice h e vertice lorigine O, si considera un punto
P
0
= (x
0
, y
0
, z
0
) appartenente ad h ossia:

g(x
0
, y
0
, z
0
) = 0
z
0
1 = 0
592 Coni, Cilindri, Superci di Rotazione e Quadriche
e si scrivono le equazioni parametriche della retta OP date da:

x
0
= tx
y
0
= ty
z
0
= tz, t R.
(12.1)
Dalle equazioni z
0
= 1 e da z
0
= tz segue:
t =
1
z
. (12.2)
Sostituendo in g(x
0
, y
0
, z
0
) = 0 le equazioni (12.1) e (12.2) si ha:
g(x
0
, y
0
, z
0
) = g

x
z
,
y
z
, 1

.
Ponendo:
f(x, y, z) = g

x
z
,
y
z
, 1

si ottiene che la funzione f, che denisce il cono, ` e una funzione omogenea di grado zero
(cfr. Es. 12.1).
Esempio 12.2 Lequazione x
2
+ y
2
= z
2
rappresenta il cono circolare retto di vertice
lorigine e asse lasse z. (cfr. Fig. 12.3).
-10
-5
0
5
10
-10
-5
0
5
10
-10
-5
0
5
10
-10
-5
0
5
10
-5
0
5
Figura 12.3: Esempio 12.2
Esempio 12.3 Si osservi che lequazione z =

x
2
+ y
2
rappresenta solo la met` a supe-
riore (verso il semiasse positivo delle quote) del cono descritto nellesempio precedente.
Capitolo 12 593
Osservazione 12.1 Lequazione di un cono di vertice V = (, , ) che non sia lorigine
del riferimento ` e anchessa determinata da una funzione con particolari propriet` a. Infatti
se si considera il riferimento 1

= (V, X, Y, Z) ottenuto mediante la traslazione del


riferimento 1 = (O, x, y, z) di equazioni:

x = + X
y = + Y
z = + Z
in cui lorigine del riferimento 1

coincide con il vertice V del cono, lequazione del


cono di vertice V, scritta nel riferimento 1

, ` e:
f(X, Y, Z) = 0,
con f : R
3
R funzione omogenea di grado k, k R. Sostituendo le equazioni della
traslazione si ha:
f(x , y , z ) = 0
che ` e lequazione del cono di vertice V nel riferimento 1, pertanto f ` e una funzione
omogenea di grado k nelle variabili (x , y , z ).
Per esempio (x 1)
2
+ (y + 1)
2
= z
2
` e lequazione del cono circolare retto con vertice
nel punto V = (1, 1, 0).
Secondo Caso Se la direttrice h del cono ` e data in forma parametrica:

x = x(t)
y = y(t)
z = z(t), t I R,
la retta passante per il punto generico P di h e per il vertice V ` e descritta dalle equazioni:

x = + s(x(t) )
y = + s(y(t) )
z = + s(z(t) ), s R,
(12.3)
che rappresentano le equazioni parametriche del cono di vertice V e direttrice h. Elimi-
nando da tali equazioni i parametri t ed s si ottiene lequazione cartesiana del cono.
Si osservi che se in (12.3)
1. si ssa t = t
0
si hanno le equazioni parametriche della generatrice P(t
0
)V ;
2. si ssa s = s
0
si hanno le equazioni parametriche di una curva direttrice.
594 Coni, Cilindri, Superci di Rotazione e Quadriche
Esercizio 12.2 Scrivere lequazione del cono di vertice V = (0, 0, 0) e direttrice la curva:
h :

x = t + 1
y = t 1
z = t
2
1, t R.
(12.4)
20
10
0
10
20
20
10
0
10
20
20
10
0
10
20
Figura 12.4: Esercizio 12.2
Soluzione Osservato che V / h, si considera il punto generico P = (t+1, t1, t
2
1)
di h e si scrivono le equazioni parametriche della retta PV :

x = (t + 1)s
y = (t 1)s
z = (t
2
1)s, t, s R,
Capitolo 12 595
che rappresentano anche le equazioni parametriche del cono. Questa rappresentazione ` e
molto utile, per esempio, per rappresentare gracamente il cono mediante programmi di
calcolo simbolico (cfr. Figura 12.4).
Per pervenire, invece, allequazione cartesiana del cono si deve procedere allelimina-
zione dei parametri t, s dalle equazioni parametriche, per esempio procedendo in questo
modo, da (12.4) si ha:
y
t 1
=
z
t
2
1
=
x
t + 1
,
ossia:

(t + 1)y (t 1)x = 0
(t + 1)z (t
2
1)x = 0,
dalla prima equazione si deduce:
t =
x + y
x y
,
che, sostituita nella seconda, da luogo allequazione cartesiana del cono:
2x
2
z 2xyz 4x
2
y = 0.
Esempio 12.4 Lequazione x +y +z = 0 rappresenta un piano passante per lorigine,
ma ` e anche un cono (infatti ` e unequazione omogenea). Il suo vertice ` e un punto qualsiasi
del piano , una direttrice ` e una qualsiasi circonferenza di avente il vertice nel suo
interno, oppure contenente il vertice. Si osservi che il cono di vertice un punto del piano
e direttrice una retta dello stesso piano non contenente il vertice ` e il piano stesso privato
di una retta (quale ?).
Esempio 12.5 Lequazione xyz = 0 rappresenta un cono essendo unequazione omoge-
nea. Daltra parte ` e anche lunione dei tre piani coordinati. Si pu` o vedere come il cono di
vertice lorigine e direttrice la curva:

xyz = 0
x
2
+ y
2
+ z
2
= 1,
sia lunione di tre circonferenze. Il cono considerato ` e rappresentato nella Figura 12.5
596 Coni, Cilindri, Superci di Rotazione e Quadriche
Figura 12.5: Esempio 12.5
12.2.1 Cono tangente ad una sfera
Dati una sfera di equazione x
2
+y
2
+z
2
+ax+by+cz+d = 0 e un punto V = (, , )
esterno a , si vuole determinare lequazione del cono di vertice V circoscritto alla sfera
, beninteso dopo aver risolto lesercizio che segue.
Esercizio 12.3 Come si fa a vericare che V ` e esterno a ?
Intersecando la generica retta passante per il vertice V, di equazioni parametriche:

x = + lt
y = + mt
z = + nt, t R,
con la sfera si ottiene unequazione di secondo grado nel parametro t. Si hanno due
intersezioni coincidenti (ossia la retta tangente a ) imponendo che il discriminante
dellequazione cos` ottenuta si annulli:
= 0 (12.5)
e questa non ` e altro che unequazione di secondo grado in l, m, n. Poich e:
Capitolo 12 597
x
l
=
y
m
=
z
n
si sostituisce a l : x , a m: y , a n: z . Tale sostituzione ` e possibile in quanto
lequazione (12.5) ` e omogenea. Si peviene cos` allequazione del cono cercata.
Figura 12.6: Esercizio 12.4
Esercizio 12.4 Scrivere lequazione del cono circoscritto alla sfera:
: x
2
+ y
2
+ z
2
1 = 0
di vertice V = (2, 0, 0).
Soluzione La generica retta r passante per V ha equazioni parametriche:

x = 2 + lt
y = mt
z = nt, t R.
Intersecando r con si ha lequazione di secondo grado:
(l
2
+ m
2
+ n
2
)t
2
+ 4lt + 3 = 0,
598 Coni, Cilindri, Superci di Rotazione e Quadriche
il cui discriminante ` e:

4
= l
2
3m
2
3n
2
= 0.
Con la sostituzione di x2, y, z al posto di l, m, n, rispettivamente, si ha lequazione del
cono cercata:
(x 2)
2
3y
2
3z
2
= 0.
Si osservi che si ottiene unequazione ` e omogenea in x 2, y, z, in accordo con lOsser-
vazione 12.1. La supercie ` e rappresentata nella Figura 12.6.
12.2.2 Proiezione di una curva da un punto su un piano
Data una curva h nello spazio la sua proiezione da un punto P su un piano ` e la curva
che si ottiene dallintersezione del piano con il cono di vertice V e direttrice h.
Esercizio 12.5 Proiettare la curva:
h :

x = t
y =
1
t
z = t
3
, t R 0
sul piano : x y + 2z 1 = 0 dal punto P = (2, 4, 6).
Soluzione Si scrivono le equazioni parametriche del cono:
( :

x = 2 + (t 2)s
y = 4 +

1
t
4

s
z = 6 + (t
3
+ 6)s, s R, t R 0,
per ottenere la curva proiezione richiesta si interseca il cono ( con il piano :
2 + (t 2)s 4

1
t
4

s 12 + 2(t
3
+ 6)s 1 = 0,
da cui segue:
s[t(t 2) 1 + 4t + 2t(t
3
+ 6)] = 15t.
Capitolo 12 599
-5
0
5
10
0
5
10
-20
-10
0
10
0
5
10
Figura 12.7: Esercizio 12.5
600 Coni, Cilindri, Superci di Rotazione e Quadriche
-1
0
1
2
-1
-0.5
0
0.5
1
0
5
10
-1
0
1
-1
-0.5
0
0.5
Figura 12.8: A caption, explaining that this is a test.
Si ricava s in funzione di t e si sostituisce nelle equazioni parametriche di (, perve-
nendo cos` alle equazioni parametriche della curva richiesta. La situazione geometrica ` e
rappresentata nella Figura 12.7.
12.3 Il cilindro
In questo paragrafo sono trattati i cilindri ed in particolare i cilindri aventi generatrici
parallele agli assi coordinati. Analogamente a quanto visto per il cono, si considererano i
cilindri circoscritti ad una sfera e la proiezione di una curva su di un piano, secondo una
direzione assegnata. Vengono poi presentate le coordinate cilindriche che non sono altro
che la naturale generalizzazione delle coordinate polari nel piano (cfr. Par. 9.3) al caso
dello spazio.
Denizione 12.3 Data una curva h nello spazio ed un vettore u, il cilindro di direttrice
h e generatrici parallele ad u ` e il luogo delle rette dello spazio passanti per tutti i punti
di h e parallele al vettore u.
Per determinare le equazioni del cilindro si procede come per il cono.
Primo Caso. (Rappresentazione cartesiana) Siano h la curva data nella forma:

f(x, y, z) = 0
g(x, y, z) = 0,
(12.6)
Capitolo 12 601
u = (l, m, n) un vettore e P
0
= (x
0
, y
0
, z
0
) un punto di h. La curva h ` e una direttrice
del cilindro mentre la retta per P
0
e parallela ad u ` e una generatrice del cilindro.
`
E
evidente che, sullo stesso cilindro, esistono innite direttrici e innite generatrici e che il
procedimento per ricavare lequazione del cilindro non dipende dalla scelta della direttrice
e della generatrice.
Le equazioni parametriche della retta per P
0
parallela ad u sono:

x = x
0
+ lt
y = y
0
+ mt
z = z
0
+ nt, t R,
dove le coordinate di P
0
vericano le identit` a :

f(x
0
, y
0
, z
0
) = 0
g(x
0
, y
0
, z
0
) = 0.
Considerando il sistema:

x = x
0
+ lt
y = y
0
+ mt
z = z
0
+ nt
f(x
0
, y
0
, z
0
) = 0
g(x
0
, y
0
, z
0
) = 0
ed eliminando i parametri x
0
, y
0
, z
0
, t, si ottiene lequazione cartesiana del cilindro.
Esempio 12.6 Determinare lequazione del cilindro avente generatrici parallele allasse
z e direttrice la circonferenza appartenente al piano 2x z = 0, di centro lorigine
0 = (0, 0, 0) e raggio 1.
La circonferenza ha equazioni:

2x z = 0
x
2
+ y
2
+ z
2
= 1.
Se P
0
= (x
0
, y
0
, z
0
) appartiene a , la retta per P
0
parallela allasse z ha equazioni:

x = x
0
y = y
0
z = z
0
+ t, t R
e si ha il sistema:
602 Coni, Cilindri, Superci di Rotazione e Quadriche
-0.4
-0.2
0
0.2
0.4
-1
-0.5
0
0.5
1
-2
-1
0
1
2
0.5
0
0.5
1
Figura 12.9: A caption, explaining that this is a test.

x = x
0
y = y
0
z = z
0
+ t
2x
0
z
0
= 0
x
2
0
+ y
2
0
+ z
2
0
1 = 0.
Eliminando i parametri x
0
, y
0
, z
0
si ottiene:

2x (z t) = 0
x
2
+ y
2
+ (z t)
2
1 = 0,
da cui, eliminando t tra le due equazioni, si ricava:
5x
2
+ y
2
= 1
che ` e lequazione del cilindro richiesta. La supercie ottenuta ` e rappresentata di seguito.
Secondo Caso. (Rappresentazione parametrica) La curva h ` e data in forma parametrica:
h :

x = x(t)
y = y(t)
z = z(t), t I R,
e sia u = (l, m, n). La retta per P = (x(t), y(t), z(t)), parallela ad u, ha equazioni:
Capitolo 12 603

x = x(t) + ls
y = y(t) + ms
z = z(t) + ns, s R,
che sono pure le equazioni parametriche del cilindro nei parametri s, t. Volendo deter-
minare lequazione cartesiana del cilindro basta eliminare s e t tra le suddette equazioni.
Come nel caso del cono, si osservi che, ssando t, si hanno le equazioni parametriche di
una direttrice, invece, ssando s, si hanno le equazioni parametriche di una generatrice.
Esempio 12.7 Determinare lequazione del cilindro avente generatrici parallele al vettore
v = (2, 1, 1) e direttrice la curva:
:

x = t
2
y = t
z = t 1, t R.
Detto (t
2
, t, t 1) il punto generico di , si scrivono le equazioni parametriche della
generica generatrice:

x = t
2
+ 2
y = t
z = t 1 +
che rappresentano anche le equazioni parametriche del cilindro. Si ottiene lequazione
cartesiana del cilindro:
x

y + z + 1
2

2
+ 2

y z 1
2

= 0,
eliminando i parametri t e dalle equazioni parametriche. La rappresentazione graca
del cilindro ` e stata, invece, ottenuta usando le sue equazioni parametriche.
12.3.1 Cilindri con assi paralleli agli assi coordinati
Nellequazione 5x
2
+ y
2
= 1 del cilindro ottenuta in un esempio precedente si osserva
che non compare la coordinata z. Ci ` o ` e necessario e sufciente afnch` e le generatrici
del cilindro siano parallele allasse z. Infatti se le generatrici sono parallele allasse z
e la direttrice ` e una curva ( : f(x, y) = 0, per ogni P
0
= (x
0
, y
0
, z
0
) ( anche
P

0
= (x
0
, y
0
, z
0
) ( per ogni valore di R.
Esempio 12.8 y = sin x la cui rappresentazione graca ` e la seguente:
604 Coni, Cilindri, Superci di Rotazione e Quadriche
-10
0
10
-5
0
5
-5
0
5
-10
0
10
Figura 12.10: A caption, explaining that this is a test.
-5
0
5
-10
-5
0
5
10
-1
-0.5
0
0.5
1
-5
0
5
Figura 12.11: A caption, explaining that this is a test.
Capitolo 12 605
-2
-1
0
1
2
-0.4
-0.2
0
0.2
0.4
-0.4
-0.2
0
0.2
0.4
-2
-1
0
1
-
-
Figura 12.12: A caption, explaining that this is a test.
-2
0
2
-4
-2
0
2
4
-2
0
2
-2
0
2
4
-2
0
2
4
Figura 12.13: A caption, explaining that this is a test.
Analogamente se le generatrici sono parallele allasse x e la direttrice ` e f(y, z) = 0,
lequazione cartesiana del cilindro e f(y, z) = 0.
Esempio 12.9 y
2
+ z
2
= 5 la cui rappresentazione graca ` e la seguente:
Oppure se le generatrici sono parallele allasse y e la direttrice ` e f(x, z) = 0 lequazione
cartesiana del cilindro ` e f(x, z) = 0.
Esempio 12.10 x
2
z
2
= 2 la cui rappresentazione graca ` e la seguente:
Se il cilindro ha direttrice la curva:
606 Coni, Cilindri, Superci di Rotazione e Quadriche
:

x = x(u),
y = y(u)
z = z(u), u I R,
e generatrici parallele allasse z, la sua equazione si ottiene eliminando il parametro u tra
le prime due equazioni parametriche.
Esempio 12.11 Scrivere lequazione cartesiana del cilindro avente direttrice la curva :
x = u
3
, y = u
2
, z = u,
u R e generatrici parallele allasse z.
Dalle equazioni della curva segue: x = u
3
, y = u
2
, quindi: x
2
= u
6
, y
3
= u
6
, allora:
x
2
y
3
= 0
` e lequazione cercata. La curva:

x
2
y
3
= 0
z = 0
` e la proiezione di sul piano xy. Il cilindro e la curva sono rappresentati nella gura
seguente.
Invece il cilindro che ha direttrice la curva:
:

F(x, y, z) = 0
G(x, y, z) = 0
e generatrici parallele allasse z, ha equazione cartesiana che si ottiene eliminando lin-
cognita z tra le equazioni cartesiane di .
Esempio 12.12 Determinare lequazione del cilindro che proietta la curva:
:

x
2
+ y
2
+ z
2
= 1
2x + y z = 0
parallelamente allasse z.
Lequazione richiesta ` e :
x
2
+ y
2
+ (2x + y)
2
= 1.
Si procede in modo analogo se le generatrici sono parallele agli altri assi coordinati.
Come nel caso del cono, anche per il cilindro si pu` o dimostrare un teorema che caratte-
rizza la sua equazione:
Capitolo 12 607
-5
0
5
0
1
2
3
4
-5
-2.5
0
2.5
5
-5
-2
0
2
Figura 12.14: A caption, explaining that this is a test.
Teorema 12.2 1. Sia r : a
1
x +b
1
y +c
1
z +d
1
= a
2
x +b
2
y +c
2
z +d
2
= 0 una retta,
intersezione di due piani
1
: a
1
x+b
1
y+c
1
z+d
1
= 0 e
2
: a
2
x+b
2
y+c
2
z+d
2
= 0
e sia (u, v) una funzione di due variabili. Allora lequazione
(a
1
x + b
1
y + c
1
z + d
1
, a
2
x + b
2
y + c
2
z + d
2
) = 0 (12.7)
rappresenta un cilindro con generatrici parallele a r.
2. Viceversa, se f(x, y, z) = 0 rappresenta un cilindro con generatrici parallele ad
una retta r, allora esiste una funzione di due variabili (u, v) tale che il cilindro
abbia equazione (12.7).
Per una sua dimostrazione si veda ad esempio S. Greco, P. Valabrega: Lezioni di Geome-
tria, Vol. II, '3.18.
1
12.3.2 Cilindro circoscritto ad una sfera
Dati una sfera : x
2
+y
2
+z
2
2x2y 2z + = 0 e un vettore u = (l, m, n), si
vuole lequazione del cilindro di generatrici parallele ad u e circoscritto a . La generica
retta parallela ad u e passante per un punto P = (x
0
, y
0
, z
0
) di ha equazioni:
1
io forse non inserirei la dimostrazione, ma citerei solo dove si puo trovare
608 Coni, Cilindri, Superci di Rotazione e Quadriche
Figura 12.15: A caption, explaining that this is a test.

x = x
0
+ lt
y = y
0
+ mt
z = z
0
+ nt, t R,
dove (x, y, z) sono le coordinate di un punto generico della retta, vale a dire le coordinate
del generico punto della supercie cercata.
Analogamente a quanto gi` a visto per il cono, se si interseca con detta retta si ottiene
unequazione di secondo grado in t, le cui soluzioni danno i punti di intersezione. Le
generatrici sono tangenti a se le intersezioni coincidono, ovvero se il discriminante
dellequazione ` e nullo. Lequazione in x, y, z che cos` si ottiene rappresenta, come ` e
visualizzato nella gura sottostante, il cilindro circoscritto a .
Esempio 12.13 Scrivere lequazione del cilindro circoscritto alla sfera : (x 1)
2
+
y
2
+ z
2
= 3 ed avente le generatrici parallele al vettore u = (1, 0, 1).
Le equazioni della retta passante per un punto P = (x
0
, y
0
, z
0
) generico di e con la
direzione di u sono date da:

x = x
0
+ t
y = y
0
z = z
0
+ t, t R.
Intersecando con r si ha:
x
2
+ t
2
+ 1 + 2xt 2x 2t + y
2
+ z
2
+ 2zt + t
2
3 = 0, ossia:
Capitolo 12 609
Figura 12.16: A caption, explaining that this is a test.
2t
2
+ 2(x 1 + z)t + (x
2
2x 2 + y
2
+ z
2
) = 0.
Si ha la tangenza tra r e se e solo se:

4
= (x + z 1)
2
2(x
2
+ y
2
+ z
2
2x 2) = 0
che ` e lequazione cercata.
Curiosit` a .
`
E ben nota la curva che si ottiene intersecando il cilindro circolare retto:
(x a)
2
+y
2
= a
2
con la sfera: x
2
+y
2
+z
2
= 4a
2
. La curva, rappresentata nella gura
seguente,
prende il nome di curva di Viviani, in quanto usata dallo studente di Galileo: Vincenzo
Viviani (1622-1703) per risolvere il seguente problema: Quanto misura il lato di quattro
nestre uguali, costruite su un emisfero in modo che la parte di esso rimanente abbia
larea di un quadrato? Per maggiori dettagli ed approfondimenti si consiglia il testo:
A. Gray: Modern Differential Geometry of Curves and Surfaces with Mathematica, CRC
Press 1998. (Attenzione, mettere in bibliograa e cambiare qui)
610 Coni, Cilindri, Superci di Rotazione e Quadriche
-40
-20
0
20
-20
-10
0
10
-20
-10
0
10
-40
-20
0
20
-10
0
10
Figura 12.17: A caption, explaining that this is a test.
12.3.3 Proiezione di una curva su un piano secondo una direzione
assegnata
Data una curva h nello spazio, la proiezione di h su un piano secondo la direzione di
u, vettore qualsiasi non parallelo a , ` e la curva ottenuta dallintersezione di con il
cilindro di direttrice h e generatrici parallele a u.
Esempio 12.14 Data la curva:
h :

x = 1 t
2
y = 2t
z = t + 2, t R,
(12.8)
determinare la proiezione ortogonale h

di h sul piano : x 2y = 0.
La curva h

` e lintersezione del piano con il cilindro avente le generatrici paralle-


le al vettore u = (1, 2, 0), ortogonale al piano , e direttrice h. Dalle equazioni
parametriche del cilindro:
( :

x = 1 t
2
+ s
y = 2t 2s
z = t + 2, t, s R
Capitolo 12 611
-40
-20
0
20
40
-20
0
20
-20
-10
0
10
20
-40
-20
0
20
-20
0
20
Figura 12.18: A caption, explaining that this is a test.
ricavando, dalla terza t = z 2 e dalla seconda s =
y + 2z 4
2
, quindi sostituendo
nella prima, si ottiene lequazione cartesiana del cilindro:
x = 1 (z 2)
2
+
2z 4 y
2
che messa a sistema con lequazione del piano d` a le equazioni cartesiane della curva
richiesta. Lintersezione tra il cilindro e il piano ` e rappresentata di seguito.
12.3.4 Coordinate cilindriche
Consideriamo il sistema di riferimento 1 = (0, i, j, k) dello spazio ordinario ed il ri-
ferimento polare del piano associato a quello cartesiano (O, i, j). Se (x, y, z) sono le
coordinate cartesiane di un punto P dello spazio (non appartenente allasse z) e (, )
sono le coordinate polari ordinarie della sua proiezione ortogonale P

sul piano z = 0,
la terna (, , z) prende il nome di coordinate cilindriche di P . Il relativo riferimento si
ottiene aggiungendo al riferimento polare del piano xy (che determina e ) lasse z
612 Coni, Cilindri, Superci di Rotazione e Quadriche
relativo al riferimento cartesiano associato. Si ha allora una corrispondenza biunivoca tra
i punti dello spazio e le terne ordinate (, , z), dove:
0, 0 < 2,
con leccezione dei punti dellasse z per i quali ` e indeterminata.
Le relazioni che legano le coordinate cilindriche alle cartesiane sono:

x = cos
y = sin
z = z;
per le formule inverse si trova:

x
2
+ y
2
tan =
y
x
z = z.
Osservazione 12.2 I punti P = (, , z), con = r costante, appartengono al cilindro
circolare ( di asse z e raggio r, perci ` o :
= r
rappresenta lequazione di ( in coordinate cilindriche. Le sue equazioni parametriche
sono:

x = r cos
y = r sin
z = t, t R, 0 < 2;
mentre ` e immediato vericare che x
2
+ y
2
= r
2
` e la sua equazione cartesiana.
Osservazione 12.3 Un punto P = (
0
,
0
, z
0
) ` e pertanto lintersezione di tre supercie:
un cilindro circolare retto di asse lasse z e raggio r =
0
, un semipiano per lasse z
formante un angolo
0
con il piano y = 0 e il piano z = z
0
, del relativo riferimento
cartesiano associato.
12.4 Supercie di rotazione
In generale:
Capitolo 12 613
Denizione 12.4 Data una retta a, una supercie S ` e una supercie di rotazione di asse
di rotazione a se S ` e lunione di circonferenze aventi il centro su a e contenute in piani
ortogonali ad a.
Quindi, per denizione, lintersezione della supercie con il piano passante per un ge-
nerico punto P S e ortogonale ad a ` e una circonferenza avente il centro su a. Tali
circonferenze prendono il nome di paralleli di S, mentre le curve ottenute intersecando S
con i piani passanti per a sono detti meridiani.
Esempio 12.15 1. Una sfera ` e una supercie di rotazione avente per asse una qua-
lunque retta passante per il suo centro.
2. Il cilindro x
2
+y
2
= 4 ` e una supercie di rotazione avente per asse lasse z. Infatti,
se P
0
= (x
0
, y
0
, z
0
) ` e un qualunque punto del cilindro, lintersezione del cilindro
con il piano : z = z
0
(piano per P
0
ortogonale allasse z) ` e la circonferenza
: z z
0
= x
2
+ y
2
4 = 0.
In questo paragrafo consideriamo le supercie ottenute da una rotazione completa di una
curva dello spazio (meridiano) attorno ad una retta (lasse di rotazione). Ad esempio sia
il cono che il cilindro si possono ottenere in questo modo.
Inoltre si esamina il caso particolare in cui la curva ` e piana, giace su un piano coordinato
e ruota attorno ad un asse coordinato.
Come esempi si considerano le rotazioni di: unellisse, uniperbole e una parabola attorno
ad un opportuno asse coordinato e si ottengono alcune supercie di rotazione che sono
casi particolari delle quadriche, oggetto del prossimo paragrafo.
Si esamina inne la rotazione attorno allasse z di una circonferenza posta sul piano
x = 0, avente il centro nel punto (0, a, 0) e raggio r, con r <a. La supercie che ne risulta
` ec detta toro o supercie torica ed ` e stata accuratamente illustrata con Mathematica.
Date una curva h e una retta a, la supercie che si ottiene dalla rotazione completa di
h intorno ad a ` e una supercie di rotazione con asse di rotazione a. Nella rotazione di
h intorno ad a, il generico punto P di h descrive una circonferenza, il parallelo, che si
pu` o ottenere dallintersezione del piano per P ortogonale ad a con la sfera di centro il
punto C di intersezione di con a e raggio PC. Al variare di P , il punto generico Q
della circonferenza descrive la supercie di rotazione.
Esempio 12.16 h ` e una retta incidente a. La supercie di rotazione ` e un cono.
Esempio 12.17 h ` e una retta parallela ad a. La supercie di rotazione ` e un cilindro.
614 Coni, Cilindri, Superci di Rotazione e Quadriche
-2
-1
0
1
2
-2
-1
0
1
2
0
1
2
3
4
-2
-1
0
1
2
-1
0
1
Figura 12.19: Una generica supercie di rotazione
-5
0
5
0
1
2
3
-5
0
5
a
h
0
1
2
3
-5
0
Figura 12.20: Le rette a e h
Capitolo 12 615
-10
-5
0
5
10
-10
-5
0
5
10
-10
-5
0
5
10
-10
-5
0
5
10
-5
0
5
Figura 12.21: Il cono
0.5 1 1.5 2
-2
-1
1
2
Figura 12.22: Le rette a e h
616 Coni, Cilindri, Superci di Rotazione e Quadriche
-1
-0.5
0
0.5
1
-1
-0.5
0
0.5
1
-2
-1
0
1
2
-1
-0.5
0
0.5
Figura 12.23: Le rette a e h
0
2.5
5
7.5
10
-2
0
2
-2
0
2
0
2.5
5
7.5
Figura 12.24: A caption, explaining that this is a test.
Capitolo 12 617
-5
-2.5
0
2.5
5
-5
-2.5
0
2.5
5
-2
0
2
-5
-2.5
0
2.5
5
Figura 12.25: A caption, explaining that this is a test.
Esempio 12.18 h e a sono rette sghembe. La supercie di rotazione ` e un iperboloide ad
una falda.
Esempio 12.19 Date le rette:
r :

2x y + z 4 = 0
y + z 2 = 0,
s :

x 1 = 0
x + z 1 = 0,
(12.9)
determinare la supercie generata dalla rotazione di r intorno a s e decidere di quale
supercie si tratta.
Il punto genenerico P(t) di r descrive, per rotazione, la circonferenza che si pu` o de-
scrivere come intersezione del piano per P(t) e ortogonale a s con la sfera di centro
C, punto di intersezione tra e s e raggio d(P(t), C).
Il punto generico P(t) di r ha coordinate (t + 1, t, t + 2); il piano per P(t) per-
pendicolare al vettore (0, 1, 0), parallelo a s ha equazione y t = 0. Il centro C
della circonferenza ` e lintersezione di con s e perci ` o C = (1, t, 0); il raggio ` e :
d(C, P(t)) =

t
2
+ (t + 2)
2
. Si pu` o allora scrivere come intersezione di con
:
:

y t = 0
(x 1)
2
+ (y t)
2
+ z
2
= t
2
+ (t + 2)
2
,
(12.10)
Leliminazione del parametro t tra le due equazioni porta alla supercie di rotazione, e
precisamente:
(x 1)
2
+ z
2
2(y 1)
2
2 = 0
618 Coni, Cilindri, Superci di Rotazione e Quadriche
-1
0
1
2
3
0
1
2
-2
-1
0
1
2
0
1
2
Figura 12.26: A caption, explaining that this is a test.
che ` e liperboloide ad una falda rappresentato di seguito:
Si sono cos` viste le supercie ottenute dalla rotazione di una retta qualsiasi intorno ad
unaltra retta.
Se la curva h che ruota ` e piana, si ha un caso particolare del precedente e la supercie si
pu` o scrivere a partire da h con un semplice accorgimento che sar` a illustrato di seguito.
Si consideri la rotazione di una curva del piano xz (meridiano) intorno allasse z.
Un punto generico di h:
h :

f(x, z) = 0
y = 0
` e P = (x, 0, z) ed il punto Q = (X, Y, Z) appartiene ad un parallelo passante per P .
Seguendo la teoria esposta nel caso generale, si individua il piano per P = (x, 0, z)
e perpendicolare al vettore k = (0, 0, 1) che ha equazione Z = z. La sfera ha centro
C = (0, 0, Z) e raggio d(P, C) =

x
2
= [x[. Allora il parallelo ha equazioni:

Z = z
X
2
+ Y
2
+ (Z Z)
2
= x
2
,
da cui:

x =

X
2
+ Y
2
z = Z.
Capitolo 12 619
-3 -2 -1 1 2 3
-1
-0.5
0.5
1
Figura 12.27: Iperbole
Per ottenere la supercie di rotazione sar` a sufciente sostituire nellequazione f(x, z) =
0 le espressioni:
x =

X
2
+ Y
2
, z = Z.
Esempio 12.20 Scrivere lequazione della supercie di rotazione delliperbole del piano
xz:

x
2
a
2

z
2
c
2
= 1
y = 0
intorno allasse z. Da quanto precede si ricava:
x
2
+ y
2
a
2

z
2
c
2
= 1
che ` e un iperboloide di rotazione ad una falda di seguito rappresentato.
Esempio 12.21 Rotazione dellellisse del piano xz:

x
2
a
2
+
z
2
c
2
= 1
y = 0
(12.11)
intorno allasse z. Al posto di x si sostituisce

x
2
+ y
2
e si ottiene:
x
2
+ y
2
a
2
+
z
2
c
2
= 1
ossia lellissoide di rotazione di seguito rappresentato.
620 Coni, Cilindri, Superci di Rotazione e Quadriche
-2
0
2
-2
0
2
-1
-0.5
0
0.5
1
-2
0
2
Figura 12.28: Iperboloide
-2 -1 1 2
-1
-0.5
0.5
1
Figura 12.29: Ellisse
Capitolo 12 621
-2
-1
0
1
2
-2
-1
0
1
2
-1
-0.5
0
0.5
1
-2
-1
0
1
Figura 12.30: Ellissoide
Esempio 12.22 Rotazione delliperbole del piano xz:

x
2
a
2

z
2
c
2
= 1
y = 0
intorno allasse x. Al posto di z si sostituisce

y
2
+ z
2
e si ottiene:
x
2
a
2

y
2
+ z
2
c
2
= 1
ossia liperboloide di rotazione a due falde di seguito rappresentato:
Esempio 12.23 Rotazione della parabola del piano xz:

x
2
a
2
= 2z
y = 0
intorno allasse z. Al posto di x si sostituisce

x
2
+ y
2
e si ha:
622 Coni, Cilindri, Superci di Rotazione e Quadriche
-2
0
2 -1
0
1
-1
0
1
-2
0
2
-
0
Figura 12.31: Iperboloide di rotazione a due falde
x
2
+ y
2
a
2
= 2z
ossia il paraboloide ellittico di rotazione di seguito rappresentato.
Denizione 12.5 Dicesi toro o supercie torica la supercie ottenuta dalla rotazione
di una circonferenza di raggio r intorno ad una retta appartenente al piano della
circonferenza a distanza a > r dal centro.
Osservazione 12.4 1) Se a = r si ha la sfera.
2) Se a < r si ha la supercie rappresentata di seguito:
Per ricavare lequazione del toro si deve procedere come segue. Si vuole ruotare la
circonferenza:
:

(y a)
2
+ z
2
= r
2
x = 0
di centro O

= (a, 0, 0) intorno allasse z.


Al posto di y si sostituisce

x
2
+ y
2
e quindi lequazione del toro ` e :
Capitolo 12 623
-4 -2 2 4
2
4
6
8
10
12
Figura 12.32: Parabola
-5
-2.5
0
2.5
5
-5
-2.5
0
2.5
5
0
5
10
-5
-2.5
0
2.5
Figura 12.33: Paraboloide
624 Coni, Cilindri, Superci di Rotazione e Quadriche
-4
-2
0
2
4
-4
-2
0
2
4
-1
-0.5
0
0.5
1
4
-2
0
2
Figura 12.34: A caption, explaining that this is a test.
-4
-2
0
2
4
-4
-2
0
2
4
-1
-0.5
0
0.5
1
-4
-2
0
2
Figura 12.35: A caption, explaining that this is a test.
-4 -2 0 2 4
-4
-2
0
2
4
-2
0
2
-4
-2
0
2
Figura 12.36: A caption, explaining that this is a test.
Capitolo 12 625
-4
-2
0
2
4
-2
0
2
4
-2
0
2
-4
-2
0
2
2
0
2
Figura 12.37: A caption, explaining that this is a test.
(

x
2
+ y
2
a)
2
+ z
2
= r
2
.
Si pu` o ottenere lo stesso risultato anche seguendo il metodo generale, ossia intersecando
il piano per P
0
= (0, y
0
, z
0
) ortogonale allasse z con la sfera di centro C =
(0, 0, z
0
) e raggio d(C, P
0
) = [y
0
[.

: z z
0
= 0
: x
2
+ y
2
+ (z z
0
)
2
= y
2
0
da cui y
0
=

x
2
+ y
2
che sostituita nellequazione di d` a lequazione del toro.
Esercizio 12.6 Determinare lequazione della supercie generata dalla rotazione della
parabola:
h :

y x
2
= 0
z = 0
intorno alla retta a : x = y z = 0.
Il punto generico P(t) di h ` e P(t) = (t, t
2
, 0); la retta a ` e parallela al vettore a =
(0, 1, 1). Il piano per P(t) ortogonale ad a ha equazione: y t
2
+z = 0. Si determina
il centro C del parallelo per P .
C :

y + z t
2
= 0
x = 0
y = z
626 Coni, Cilindri, Superci di Rotazione e Quadriche
da cui: C =

0,
t
2
2
,
t
2
2

, allora d(C, P) =

t
2
+
1
2
t
4
. Il parallelo ha equazioni:

y + z t
2
= 0
x
2
+

y
1
2
t
2

2
+

z
1
2
t
2

2
= t
2
+
1
2
t
4
.
Quindi la supercie richiesta ha equazione:
x
2
+
1
2
(y z)
2

1
2
(y + z)
2
(y + z) = 0.
12.5 Supercie rigate
I piani, i coni e i cilindri sono esempi particolari di superci rigate, cio` e di superci
formate da uninnit` a di rette. In generale, una supercie rigata o si individua mediante
una curva h che le appartenga (curva direttrice) associando, mediante unopportuna legge,
per ogni punto P
0
di h almeno una retta di o passante per P
0
. Equivalentemente, una
supercie S ` e rigata se per ogni punto della supercie esiste almeno una retta che sia tutta
contenuta in S e passante per questo punto.
Analogamente, una supercie si dice doppiamente rigata se essa unione di due famiglie
disgiunte di rette.
In equazioni: detto P(t) = (x(t), y(t), z(t)), t R un punto generico di h, si considera
la retta passante per P
0
parallela al vettore r(t) = (l(t), m(t), n(t)); pertanto il punto
generico Q della supercie rigata verica lequazione vettoriale parametrica:
Q(t, s) = P(t) + sr(t), t, s R,
da cui si ottengono come equazioni parametriche della supercie rigata:

x = x(t) + sl(t)
y = y(t) + sm(t)
z = s, 0 t < 2, v R.
Si osservi che il vettore r(t) = (l(t), m(t), n(t)), identicato con il punto dello spazio di
coordinate (l(t), m(t), n(t)), descrive a sua volta, al variare di t, una curva nello spazio.
Se P(t) si riduce ad un punto, allora la rigata diventa un cono; se r(t) ` e costante, allora
la rigata diventa un cilindro.
Capitolo 12 627
Esempio 12.24 1. Il cilindro circolare retto di raggio r ed asse z di equazioni para-
metriche:

x = r cos t
y = r sin t
z = s, s, t R
` e un esempio di rigata con curva direttrice la curva di equazioni parametriche
(cos t, sin t, 0).
2. La supercie rigata di equazioni parametriche:

x = as cos t
y = as sin t
z = bt, s, t R,
con a, b R, ` e detta elicoide rigato. In generale un elicoide ` e una supercie
invariante per tutti gli avvitamenti rispetto a un asse, con passo ssato, ovvero per
tutti i movimenti rigidi composti da una traslazione lungo lasse e una rotazione
intorno allasse aventi rapporto ssato. Vedremo nellultimo paragrafo altri esempi
di elicoidi.
2
3. Dalle due curve
P(t) = (cos(t), sin(t), 0),
r(t) =

cos
t
2
cos t, cos
t
2
sin t, sin
t
2

si ottiene una supercie rigata che contiene il nastro di M obius.


3
Vedremo nel paragrafo 12.6.2 altri esempi di supercie rigate.
Esercizio 12.7 Si consideri la supercie:
S :

x = 1 + uv
y = u
2
v + u
z = (u
2
+ 1)v, u, v R.
1. Stabilire se S ` e una rigata.
2. Decidere se esistono rette appartenenti ad S parallele al piano: y 2x = 0.
3. Posto v = 1, scrivere la proiezione ortogonale della curva di o, cos` ottenuta, sul
piano: z = 0. Provare che ` e una conica e ridurla a forma canonica.
628 Coni, Cilindri, Superci di Rotazione e Quadriche
-2
0
2
4
-5
0
5
-10
-5
0
5
10
-5
0
5
Figura 12.38: A caption, explaining that this is a test.
S ha la seguente rappresentazione graca.
Soluzione:
1. Se si considera u costante, allora v compare al primo grado. La supercie S si
pu` o anche pensare come luogo delle rette passanti per P = (1, u, 0) e parallele al
vettore (u, u
2
, u
2
+ 1).
2. Determinare le rette t parallele al piano y2x = 0 equivale a trovare u in modo che
i vettori (u, u
2
, u
2
+1) e (2, 1, 0) siano perpendicolari. Si ha che 2u +u
2
= 0,
da cui u = 0 e u = 2. In corrispondenza si hanno le due rette:
t
1
:

x = 1
y = 0
z = t, t R,
t
2
:

x = 1 + 2
y = 2 + 4
z = 5, R.
3. Posto v = 1 si ricava la curva:
h :

x = 1 + u
y = u
2
+ u
z = u
2
+ 1
2
Decidere se dire di piu..
3
inserire i graci
Capitolo 12 629
della quale si cerca la proiezione ortogonale sul piano z = 0. Eliminando u tra le
equazioni:

x = 1 + u
y = u
2
+ u
si ottiene la parabola di equazione: y = (x 1)
2
+ x 1.
12.6 Quadriche
In questo capitolo vengono studiate le quadriche come luoghi di punti dello spazio le cui
coordinate soddisfano una equazione algebrica di secondo grado nelle variabili x, y, z:
f(x, y, z) = 0, con f polinomio di secondo grado in x, y, z.
Come per le coniche (cfr. paragrafo
4
), si dimostra un analogo teorema che permette di
scrivere lequazione di una quadrica in forma canonica, rispetto ad un opportuno sistema
di riferimento.
Ogni quadrica propria viene poi studiata nei dettagli e corredata di equazioni parametri-
che.
Denizione 12.6 Fissato un sistema di riferimento cartesiano 1 = (O, i, j, k) = (O, x, y, z),
si chiama quadrica una supercie algebrica O rappresentata da unequazione di secondo
grado in x, y, z del tipo:
f(x, y, z) = a
11
x
2
+2a
12
xy+a
22
y
2
+2a
13
xz+2a
23
yz+a
33
z
2
+2a
14
x+2a
24
y+2a
34
z+a
44
= 0.
Lequazione precedente pu` o essere anche scritta nella forma:
f(x, y, z) =

x y z 1

B
t

x y z 1

= 0,
dove:
B =

a
11
a
12
a
13
a
14
a
12
a
22
a
23
a
24
a
13
a
23
a
33
a
34
a
14
a
24
a
34
a
44

.
Se ci limitiamo al gruppo di termini di secondo grado, ossia alla cosiddettta forma qua-
dratica Q(x, y, z) di f , si pu` o porre:
4
inserire il riferimento
630 Coni, Cilindri, Superci di Rotazione e Quadriche
Q(x, y, z) =

x y z

A
t

x y z

,
dove:
A =

a
11
a
12
a
13
a
12
a
22
a
23
a
13
a
23
a
33

.
Esempio 12.25 Il paraboloide ellittico di equazione:
x
2
+ y
2
a
2
= 2z
` e associato alle matrici:
B =

1
a
2
0 0 0
0
1
a
2
0 0
0 0 0 1
0 0 1 0

, A =

1
a
2
0 0
0
1
a
2
0
0 0 0

.
Esempio 12.26 Il cilindro di equazione:
x
2
z
2
= 2
` e associato alle matrici:
B =

1 0 0 0
0 0 0 0
0 0 1 0
0 0 0 2

, A =

1 0 0
0 0 0
0 0 1

.
Esempio 12.27 Le seguenti quadriche:
2x
2
+ 4y
2
2z
2
1 = 0
3x
2
+ 7y
2
2z = 0
sono associate, rispettivamente, alle matrici:
Capitolo 12 631
B =

2 0 0 0
0 4 0 0
0 0 2 0
0 0 0 1

, A =

2 0 0
0 4 0
0 0 2

e a:
B =

3 0 0 0
0 7 0 0
0 0 0 1
0 0 1 0

, A =

3 0 0
0 7 0
0 0 0

.
Il teorema che segue ci indica un metodo per scrivere in forma pi` u semplice le equazioni
delle quadriche, dette perci ` o equazioni delle quadriche in forma canonica, le quali meglio
si prestano a dedurne la loro forma e le propriet` a geometriche. Si osservi che il procedi-
mento che sar` a descritto ` e analogo a quello usato, nel caso della geometria analitica piana,
per ridurre le equazioni delle coniche a forma canonica.
Teorema 12.3 Sia O una quadrica, esiste un sistema di riferimento 1

= (O

, i

, j

, k

)
in cui O si rappresenta con una delle seguenti equazioni:
1) x
2
+ y
2
+ z
2
+ = 0,
2) x
2
+ y
2
+ 2z = 0,
(12.12)
dove , e sono gli autovalori della matrice A associata allequazione di O.
Dimostrazione. Il polinomio f(x, y, z) si pu` o anche scrivere come:
f(x, y, z) = Q(x, y, z) + L(x, y, z),
dove Q ` e la forma quadratica di f (ossia il polinomio omogeneo di secondo grado
in x, y, z) e L rappresenta un polinomio in x, y, z di grado 1. Allora esiste un
cambiamento di base ortonormale con matrice ortogonale P (si sceglie in modo tale
che det P = 1) per cui
t
PAP = D, D ` e una matrice diagonale avente gli autovalo-
ri di A sulla diagonale principale. Mediante il cambiamento di coordinate indotto da
P , ossia
t
(x, y, z) = P
t
(x

, y

, z

), la forma quadratica assume, nel nuovo riferimento


1

= (O, x

, y

, z

), la seguente espressione in forma canonica:


Q

(x

, y

, z

) =
t
(P
t
(x

, y

, z

))AP
t
(x

, y

, z

) = (x

, y

, z

)
t
PAP
t
(x

, y

, z

) = x
2
+
y
2
+ z
2
,
632 Coni, Cilindri, Superci di Rotazione e Quadriche
e perci ` o :
f

(x

, y

, z

) = x
2
+ y
2
+ z
2
+ L

(x

, y

, z

).
La matrice P ha determinato una rotazione degli assi x, y, z negli assi passanti per
lorigine e paralleli agli autovettori ottenuti (le cui componenti sono le colonne di P ).
Se = 0, si pu` o eliminare il termine di primo grado in x operando con una traslazione
lungo lasse x

(per esempio, con il metodo del completamento dei quadrati). Si ripete la


stessa operazione se = 0 e se = 0. Il cambiamento di riferimento effettuato risulta
essere, quindi, la composizione di una rotazione e di una traslazione.
Si possono presentare i seguenti casi:
1. tre autovalori non sono nulli, allora lequazione diventa di tipo 1);
2. due autovalori non sono nulli (per esempio e ) e la variabile (relativa a = 0),
per esempio z, compare a primo grado. Allora con una traslazione di assi si annulla
il termine noto e lequazione ` e del tipo 2);
3. un autovalore non ` e nullo, ossia lequazione ` e del tipo x
2
+ ay

+ bz

+ c = 0.
Con una rotazione nel piano y

intorno allasse x

e con una eventuale traslazione,


lequazione si riduce a x
2
z

= 0 che ` e ancora del tipo 2).


Si osservi che det A = det D, ma ` e facile dimostrare che anche det B non cambia
nonostante i cambiamenti di riferimento operati.
Denizione 12.7 Le quadriche per cui tutti i coefcienti delle equazioni 1) e 2) sono non
nulli si dicono proprie o non degeneri o non singolari, in questi casi, si ha det B = 0.
Sia O una quadrica propria che si rappresenta con unequazione di tipo 1), allora O ` e
una delle seguenti supercie:
1. ellissoide di equazione in forma canonica:
x
2
a
2
+
y
2
b
2
+
z
2
c
2
= 1,
la cui rappresentazione graca ` e la seguente:
La supercie ` e simmetrica rispetto ai piani coordinati (e di conseguenza anche ri-
spetto agli assi coordinati e allorigine). Ponendo nellequazione: y = z = 0, si
trova che lellissoide interseca lasse x nei punti:
Capitolo 12 633
-5
-2.5
0
2.5
5
-1
-0.5
0
0.5
1
-2
-1
0
1
2
-2.5
0
2.5
5
-
Figura 12.39: A caption, explaining that this is a test.
A = (a, 0, 0), A

= (a, 0, 0);
in modo analogo si trovano i punti:
B = (0, b, 0), B

= (0, b, 0), C = (0, 0, c), C

= (0, 0, c)
quali intersezioni con i rimanenti assi coordinati; i punti A, A

, B, B

e C, C

, cio` e
le intersezioni degli assi di simmetria ortogonale con la quadrica, si dicono i vertici
dellellissoide.
Poich` e le coordinate x, y, z dei punti dellellissoide sono tali da vericare le limi-
tazioni [ x [ a; [ y [ b; [ z [ c, la supercie ` e racchiusa dal parallelepipedo
rettangolo le cui facce sono determinate dai piani x = a, y = b, z = c.
Le sue sezioni con i piani x = h, a < h < a ;y = k, b < k < b ; z = l, c <
l < c, sono tutte ellissi.
Le equazioni parametriche dellellissoide sono:

x = a cos v cos u
y = b cos v sin u
z = c sin v, 0 u, v < 2.
2. ellissoide immaginario di equazione in forma canonica:

x
2
a
2

y
2
b
2

z
2
c
2
= 1.
634 Coni, Cilindri, Superci di Rotazione e Quadriche
-2
-1
0
1
2
-2
-1
0
1
2
-2
-1
0
1
2
-2
-1
0
1
2
-2
-1
0
1
2
Figura 12.40: A caption, explaining that this is a test.
3. iperboloide ad una falda di equazione in forma canonica:
x
2
a
2
+
y
2
b
2

z
2
c
2
= 1,
la cui rappresentazione graca ` e la seguente:
La supercie presenta le simmetrie gi` a riscontrate a proposito dellellissoide; esi-
stono perci ` o oltre ai tre piani di simmetria, tre assi di simmetria ed un centro; due
assi soltanto intersecano la quadrica ed i corrispondenti vertici hanno le coordinate:
(a, 0, 0), (0, b, 0).
Vedremo che liperboloide iperbolico ` e una supercie rigata e precisamente ` e co-
stituito da un doppio sistema di rette.
Capitolo 12 635
Le sue sezioni con i piani x = h, sono ellissi (delle quali la pi ` u piccola ha centro
nellorigine e viene detta linea di gola o linea di strizione), mentre le sue sezioni
con i piani y = k e z = l sono iperboli. I piani passanti per lasse z intersecano
liperboloide in iperboli i cui asintoti individuano un cono con vertice nellorigine,
detto cono asintotico, che ` e posto allinterno della supercie ed ha equazione:
x
2
a
2
+
y
2
b
2

z
2
c
2
= 0.
Le equazioni parametriche delliperboloide ad una falda sono:

x = a cosh v cos u
y = b cosh v sin u
z = c sinh v, 0 u < 2, v R.
4. iperboloide a due falde di equazione in forma canonica:
x
2
a
2

y
2
b
2

z
2
c
2
= 1,
la cui rappresentazione graca ` e la seguente:
Anche questa supercie ` e simmetrica rispetto ai piani, agli assi coordinati e al-
lorigine; ha un solo asse che la interseca nei vertici corrispondenti di coordinate
(a, 0, 0). Le sue sezioni: con i piani x = h, dove h > a e h < a, sono ellissi;
con i piani y = k e z = l sono iperboli, mentre i piani passanti per lasse x inter-
secano liperboloide in iperboli i cui asintoti costituiscono un cono (come illustrato
nella gura precedente) che racchiude la supercie al suo interno ed ha equazione:
x
2
a
2

y
2
b
2

z
2
c
2
= 0.
Le equazioni parametriche delliperboloide a due falde sono:

x = a cosh ucosh v
y = b sinh ucosh v
z = c sinh v, u, v R.
Ponendo a = b nelle equazioni i) e iii) si ottengono rispettivamente lellissoide
di rotazione e liperboloide ad una falda di rotazione, descritti precedentemente.
Analogamente, ponendo b = c nellequazione iv) si perviene alliperboloide a due
falde di rotazione.
636 Coni, Cilindri, Superci di Rotazione e Quadriche
-2
0
2
-2
-1
0
1
2
-2
-1
0
1
2
-2
0
2
-2
-1
0
1
Figura 12.41: A caption, explaining that this is a test.
Capitolo 12 637
-2
-1
0
1
2
-2
0
2
0
1
2
3
4
-2
-1
0
1
-2
0
2
Figura 12.42: A caption, explaining that this is a test.
Se O ` e una quadrica propria e si rappresenta con lequazione 2), allora si hanno i
seguenti casi:
5. paraboloide ellittico di equazione in forma canonica:
x
2
a
2
+
y
2
b
2
= 2z,
la cui rappresentazione graca ` e la seguente:
La supercie ` e simmetrica rispetto ai piani x = 0, y = 0 e allasse z, ` e contenu-
ta nel semispazio della semiretta positiva dellasse z ed ha perci` o un solo vertice
nellorigine.
Le sue sezioni con i piani x = h, h > 0, sono ellissi; x = 0 incontra il paraboloide
nellorigine ed ` e ivi tangente (cfr. Cap 5); i piani y = k e z = l intersecano il
paraboloide in parabole.
Le equazioni parametriche del paraboloide ellittico sono:

x = a u
y = b v
z =
1
2
(u
2
+ v
2
), u, v R.
638 Coni, Cilindri, Superci di Rotazione e Quadriche
-1
0
1
-1
0
1
-2
-1
0
1
2
-1
0
1
Figura 12.43: A caption, explaining that this is a test.
6. paraboloide iperbolico o a sella di equazione in forma canonica:
x
2
a
2

y
2
b
2
= 2z,
la cui rappresentazione graca ` e la seguente:
La supercie ` e simmetrica rispetto ai piani x = 0, y = 0, allasse z ed ` e intera-
mente costituita da un doppio sistema di rette, come vedremo successivamente nel
paragrafo 12.6.2. Le sue sezioni con i piani x = h e y = k sono parabole, mentre
le sezioni con i piani z = l sono iperboli i cui asintoti originano un cono degenere
di equazione:
x
2
a
2

y
2
b
2
= 0
(ossia due piani incidenti).
Le equazioni parametriche del paraboloide iperbolico sono:
Capitolo 12 639

x = a u
y = b v
z =
1
2
(u
2
v
2
), u, v R.
Ponendo a = b nella v) si ottiene il paraboloide di rotazione descritto precedente-
mente. La quadrica di equazione vi) non pu` o essere vista come generalizzazione di
una supercie di rotazione.
Se O ` e non propria o degenere, cio` e se uno dei coefcienti dellequazione in forma
canonica si annulla, allora ` e una delle seguenti supercie:
1. cono quadrico di equazione in forma canonica:
x
2
+ y
2
+ z
2
= 0
(corrispondente a = 0 e , , = 0). In questo caso la quadrica ` e un cono
oppure si riduce ad un punto se , e hanno lo stesso segno;
2. cilindro quadrico le cui equazioni, in forma canonica, possono essere dei seguenti
tre tipi:
x
2
a
2
+
y
2
b
2
= 1,
ossia il cilindro ellittico;
x
2
a
2

y
2
b
2
= 1,
ossia il cilindro iperbolico;
x
2
= 2py,
ossia il cilindro parabolico;
Le denominazioni dei tre tipi di cilindri quadrici dipendono dal fatto che ogni pia-
no, non parallelo ad una generatrice, interseca il cilindro rispettivamente secondo
unellisse, uniperbole, una parabola.
640 Coni, Cilindri, Superci di Rotazione e Quadriche
3. lunione di due piani incidenti, paralleli o coincidenti, con equazioni, in forma
canonica, ad esempio del tipo:
x
2
a
2

y
2
b
2
= 0
x
2
= a
2
x
2
= 0.
Le quadriche dei punti 1. e 2. sono anche dette quadriche singolari, mentre quelle del
punto 3. prendono anche il nome di quadriche spezzate.
Riassumendo si pu` o ottenere la: classicazione delle quadriche attraverso il rango delle
matrici A e B ad esse associate nel modo seguente:
Dette A e B le matrici associate allequazione di una quadrica, tenuto conto che il ran-
go di A (rank(A)) ed il rango di B (rank(B)) sono invarianti per rototraslazioni nello
spazio, si possono classicare le quadriche nel seguente modo:
rank(B) = 4

rank(A) = 3 : ellissoide, sfera, iperboloide ad una falda, iperboloide a due falde;


rank(A) = 2 : paraboloide ellittico, paraboloide iperbolico.
rank(B) = 3

rank(A) = 3 : cono;
rank(A) = 2 : cilindro.
rank(B) = 2

rank(A) = 2 : 2 piani incidenti, 2 piani isotropi;


rank(A) = 1 : 2 piani reali paralleli; 2 piani paralleli immaginari.
rank(B) = rank(A) = 1 : 2 piani reali coincidenti.
Esercizio 12.8 Ridurre in forma canonica la quadrica di equazione:
4x
2
+ 4xy + 4xz + 4y
2
+ 4yz + 4z
2
+ 4x + 4y + 8z + 3 = 0.
La matrice A associata alla quadrica ` e :
A =

4 2 2
2 4 2
2 2 4

,
i suoi autovalori, con le molteplicit` a , sono:

1
= 2, m

1
= 2;
2
= 8, m

2
= 1.
Capitolo 12 641
Una base ortonormale dei relativi autospazi ` e :
V

1
=

2
, 0,
1

6
,
2

6
,
1

, V

2
=

3
,
1

3
,
1

.
Pertanto le equazioni della rotazione degli assi sono:

x
y
z

= P

6
1

3
0
2

6
1

6
1

e lequazione della quadrica nel riferimento 1

= (O, x

, y

, z

) ` e :
2x
2
+ 2y
2
+ 8z
2
+

4 4 8

+ 3 = 0
ossia:
2x
2
+ 2y
2
+ 8z
2

2
x

6
y

+
16

3
z

+ 3 = 0.
Operando con il metodo del completamento dei quadrati si ha:
2

2
+ 2

2
+ 8

+
1

2
1 = 0.
Quindi, mediante la traslazione di equazioni:

X
Y
Z

6
1

,
642 Coni, Cilindri, Superci di Rotazione e Quadriche
la quadrica assume lequazione:
2X
2
+ 2Y
2
+ 8Z
2
= 1.
Si tratta, quindi, di un ellissoide di rotazione.
12.6.1 Piano tangente ad una quadrica e cenni al piano tangente ad
una supercie
Una retta r nello spazio si dice tangente ad una quadrica O se r ` e contenuta in O oppure
se lintersezione r O ` e formata da un solo punto con molteplicit` a due.
Dato un punto P
0
= (x
0
, y
0
, z
0
) di una quadrica propria O : f(x, y, z) = 0, le rette
tangenti a O nel punto P
0
formano un piano, detto piano tangente a O in P
0
. Si osservi
che nel caso di una quadrica propria ogni punto ` e non singolare, perch` e in ogni punto
P
0
O il vettore

f
x
(P
0
),
f
y
(P
0
),
f
z
(P
0
)

, detto gradiente di f in p
0
, ` e diverso dal
vettore nullo, dove con
f
x
,
f
y
,
f
z
si indicano rispettivamente le derivate parziali di f
rispetto a x, y e z. Ad esempio invece il vertice di un cono ` e un punto singolare.
5
Pi ` u in generale, intuitivamente il piano tangente ad una qualunque supercie S : f(x, y, z) =
0 in un suo punto non singolare P
0
, cio` e per cui

f
x
(P
0
),
f
y
(P
0
),
f
z
(P
0
)

= 0 pu` o
essere denito come il luogo delle rette tangenti in P
0
a tutte le curve della supercie
passanti per P
0
.
Vediamo ora di determinare lequazione del piano tangente ad una quadrica.
Abbiamo gi` a visto che nel caso della sfera (caso particolare di ellissoide)
: x
2
+ y
2
+ z
2
2x 2y 2z + = 0,
il piano tangente a in P
0
= (x
0
, y
0
, z
0
) ha equazione:
(x
0
)(x x
0
) + (y
0
)(y y
0
) + (z
0
)(z z
0
) = 0.
Questa ` e , infatti, lequazione del piano passante per P
0
e ortogonale alla retta CP
0
, dove
C = (, , ) ` e il centro di . Essa per` o assume una forma diversa, particolarmente
comoda; invero sviluppando i calcoli indicati si ottiene:
x
0
x + y
0
y + z
0
z x y z x
2
0
y
2
0
z
2
0
+ x
0
+ y
0
+ z
0
= 0
5
e meglio aggiungere qualcosa di pi ` u astratto??
Capitolo 12 643
e, tenuto conto dellappartenenza di P
0
a , segue:
x
0
x + y
0
y + z
0
z (x + x
0
) (y + y
0
) (z + z
0
) + = 0. (12.13)
Se si usa la notazione matriciale

x y z 1

B
t

x y z 1

= 0
con
B =

1 0 0
0 1 0
0 0 1

,
lequazione (12.13) del piano tangente in P
0
diventa:

x
0
y
0
z
0
1

B
t

x y z 1

= 0. (12.14)
Si pu` o provare che (12.14) rappresenta in generale lequazione del piano tangente ad una
quadrica:
O : a
11
x
2
+2a
12
xy+a
22
y
2
+2a
13
xz +a
33
z
2
+2a
23
yz +2a
14
x+2a
24
y+2a
34
z +a
44
= 0.
Infatti, dallintersezione di O con la generica retta r per P
0
:
r :

x = x
0
+ lt
y = y
0
+ mt
z = z
0
+ nt, t R,
poich` e P
0
O, con semplici calcoli si ottiene la seguente equazione di secondo grado in
t:
(a
11
l
2
+ 2a
12
lm + a
22
m
2
+ 2a
13
ln + a
33
n
2
+ 2a
23
mn)t
2
+
2[a
11
x
0
l +a
12
(x
0
m+y
0
l) +a
22
y
0
m+a
13
(x
0
n+z
0
l) +a
33
z
0
n+a
23
(y
0
n+z
0
m) +a
14
l +
a
24
m + a
34
n]t = 0.
Afnch` e la retta r sia tangente a O in P
0
, essa deve avere riunite in P
0
due intersezioni
con O, ci ` o implica che si annulli il coefciente di t nella precedente equazione, ossia:
a
11
x
0
l+a
12
(x
0
m+y
0
l)+a
22
y
0
m+a
13
(x
0
n+lz
0
)+a
33
z
0
n+a
23
(y
0
n+z
0
m)+a
14
l+a
24
m+a
34
n = 0.
Ora, tenendo conto delle equazioni parametriche della retta r e del fatto che P
0
appartiene
alla supercie O, svolgendo i calcoli, si ricava:
a
11
x x
0
+ a
22
y y
0
+ a
33
z z
0
+ a
12
(x
0
y + x y
0
) + a
13
(x
0
z + x z
0
) + a
23
(y
0
z + y z
0
)
+a
14
(x + x
0
) + a
24
(y + y
0
) + a
34
(z + z
0
) + a
44
= 0
che ` e lequazione del piano tangente cercata.
644 Coni, Cilindri, Superci di Rotazione e Quadriche
Osservazione 12.5 La particolarit` a di questultima equazione sta nel fatto che essa si pu` o
ricavare direttamente dallequazione di O mediante lo sdoppiamento di x
2
, y
2
, z
2
nei
prodotti x
0
x, y
0
y, z
0
z, di 2xy, 2xz, 2yz nelle somme xy
0
+ x
0
y, xz
0
+ x
0
z, yz
0
+ y
0
z
e di 2x, 2y, 2z nelle somme x + x
0
, y + y
0
, z + z
0
, rispettivamente, ossia applicando
allequazione di O la cosiddetta regola degli sdoppiamenti. Unosservazione analoga
vale, ovviamente, per lequazione del piano tangente alla sfera . Si osservi che la regola
degli sdoppiamenti pu` o essere applicata solo alle quadriche.
Lequazione del piano tangente ad una sfera : f(x, y, z) = 0 in un suo punto P
0
=
(x
0
, y
0
, z
0
) ` e anche data da:
f
x
(P
0
)(x x
0
) +
f
y
(P
0
)(y y
0
) +
f
z
(P
0
)(z z
0
) = 0, (12.15)
dove

f
x
(P
0
),
f
y
(P
0
),
f
z
(P
0
)

` e il vettore gradiente di f calcolato nel punto P


0
.
Pertanto, in generale per una supercie S di equazione cartesiana f(x, y, z) = 0, se per
un punto P
0
esistono e non sono nulle le derivate parziali di f , cio` e se

f
x
(P
0
),
f
y
(P
0
),
f
z
(P
0
)

=
0, il piano tangente a S in P
0
ha equazione (12.15).
Esempio 12.28 Sia o : x
2
+y
2
+z
2
6x +2y 6z +2 = 0 e sia P
0
= (1, 2, 1) un suo
punto. Determinare lequazione del piano tangente a o nel punto P
0
.
Le componenti del gradiente della funzione f(x, y, z) = x
2
+y
2
+z
2
6x+2y 6z +2
in P
0
sono:
f
x
(P
0
) = (2x6)(P
0
) = 4,
f
y
(P
0
) = (2y+2)(P
0
) = 6,
f
z
(P
0
) = (2z6)(P
0
) = 4.
Il piano tangente a o in P
0
ha perci ` o equazione:
2x 3y + 2z + 2 = 0.
12.6.2 Quadriche rigate
Si inizia con lo studio di due tra le quadriche proprie formate da rette, ossia liperboloide
iperbolico o iperboloide ad una falda ed il paraboloide iperbolico o paraboloide a sella.
Si prova che entrambe le supercie sono interamente costituite da un doppio sistema di
rette dette schiere di rette e se ne esaminano le propriet` a .
Per ognuna delle supercie considerate viene enunciato un teorema che ne fornisce una
legge di generazione.
Capitolo 12 645
-1
0
1
-1
0
1
-2
-1
0
1
2
-1
0
1
Figura 12.44: A caption, explaining that this is a test.
12.6.3 Il paraboloide iperbolico
Lequazione del paraboloide iperbolico:
{ :
x
2
a
2

y
2
b
2
= 2z
pu` o essere decomposta in questo modo:

x
a
+
y
b

x
a

y
b

= 2z;
oppure:
646 Coni, Cilindri, Superci di Rotazione e Quadriche
1)
x
a
+
y
b
=
2z
x
a

y
b
=
1
,
2)
x
a

y
b
=
2z
x
a
+
y
b
=
2
;
oppure:
1)

x
a
+
y
b
=
1
2z =
1

x
a

y
b

,
2)

x
a

y
b
=
2
2z =
2

x
a
+
y
b

;
Ciascun sistema rappresenta una retta che varia al variare di
i
, i = 1, 2 e d` a origine ad
una schiera di rette appartenenti al paraboloide iperbolico.
Si consideri, per esempio, la schiera di rette 1) . Tutte le rette, al variare di
1
, apparten-
gono al piano
x
a
+
y
b
=
1
, quindi appartengono a piani paralleli ma sono rette sghembe
perch` e i piani 2z =
1

x
a

y
b

che intersecano
x
a
+
y
b
=
1
non sono paralleli. Lo
stesso dicasi per 2). Inoltre, coppie di rette di schiere diverse sono complanari, per ogni
punto P
0
del paraboloide { esistono due rette (una di 1)) e una di 2)) passanti per P
0
e
interamente contenute in {, pertanto { ` e una supercie doppiamente rigata.
12.6.4 Liperboloide ad una falda
Lequazione delliperboloide ad una falda:
1 :
x
2
a
2
+
y
2
b
2

z
2
c
2
= 1
si pu` o anche scrivere:

x
a
+
z
c

x
a

z
c

1 +
y
b

1
y
b

.
Dalla precedente uguaglianza di due prodotti si ricavano, per esempio, le espressioni (si
osservi che ogni altra combinazione darebbe luogo alle stesse due espressioni):
Capitolo 12 647
-1
0
1
-1
0
1
-1
-0.5
0
0.5
1
-1
0
1
-1
0
1
Figura 12.45: A caption, explaining that this is a test.
1)
x
a

z
c
1 +
y
b
=
1
y
b
x
a
+
z
c
=
1
2)
x
a

z
c
1
y
b
=
1 +
y
b
x
a
+
z
c
=
2
ciascuna delle quali conduce alle famiglie di rette seguenti:
1)

x
a

z
c
=
1

1 +
y
b

1
y
b
=
1

x
a
+
z
c

;
2)

x
a

z
c
=
2

1
y
b

1 +
y
b
=
2

x
a
+
z
c

;
648 Coni, Cilindri, Superci di Rotazione e Quadriche
che, al variare di
1
,
2
R sono contenute nelliperboloide. Per ogni punto P
0
1 si
individuano due parametri
1
e
2
, di conseguenza si determinano due rette per P
0
, una
per ogni schiera: 1) e 2) appartenenti a 1, pertanto anche 1 ` e una supercie doppiamente
rigata.
Si considerino, ora, due rette r
1
e r

1
della stessa schiera, per esempio di 1), corrispondenti
ai parametri
1
e

1
e si si vuole studiare la loro posizione reciproca.
r
1
:

x
a

z
c
=
1

1 +
y
b

1
y
b
=
1

x
a
+
z
c

;
r

1
:

x
a

z
c
=

1 +
y
b

1
y
b
=

x
a
+
z
c

.
Esse non sono incidenti perch` e ogni punto P
0
di 1 determina un solo valore di
1
, quindi
una sola retta della schiera considerata. Non sono parallele, per la verica calcoliamone i
parametri direttori:
r
1
` e parallela al vettore:

i j k
1
a

1
b

1
c

1
a
1
b

1
c

2
1
+ 1
bc
,
2
1
ac
,
1 +
2
1
ab

;
r

1
` e parallela al vettore:

i j k
1
a

1
b

1
c

1
a
1
b

1
c

2
1
+ 1
bc
,
2

1
ac
,
1 +

2
1
ab

; (12.16)
allora le rette sono sghembe.
Capitolo 12 649
-4
-2
0
2
4
-4
-2
0
2
4
-4
-2
0
2
4
-4
-2
0
2
4
-4
-2
0
2
4
Figura 12.46: A caption, explaining that this is a test.
650 Coni, Cilindri, Superci di Rotazione e Quadriche
Esercizio 12.9
`
E data la quadrica O di equazione:
x
2
+ 2y
2
z
2
+ 4x 2y 6z 9 = 0.
1. Utilizzando il metodo del completamento dei quadrati precisare di che tipo di qua-
drica si tratta.
2. Vericare che il punto A = (1, 1, 0) appartiene ad O e determinare le equazioni
delle rette tangenti in A ad O e delle rette passanti per A e appartenenti ad O.
3. Scrivere lequazione del piano luogo delle rette tangenti ad O nel punto A e
vericare che si pu` o determinare mediante la regola degli sdoppiamenti applicata
allequazione di O in relazione al punto A.
Soluzione:
1. (x + 2)
2
4 + 2

y
1
2

1
2
(z + 3)
2
+ 9 9 = 0 ossia:
(x + 2)
2
+ 2

y
1
2

2
(z + 3)
2
=
9
2
;
o ` e un iperboloide ad una falda con centro nel punto

2,
1
2
, 3

.
2. Si verica immediatamente che A = (1, 1, 0) o. Scelta una retta qualsiasi r
per A:
r :

x = 1 + lt
y = 1 + mt
z = nt
la si interseca con O e si ottiene lequazione:
(l
2
+ 2m
2
n
2
)t
2
+ (6l 6m6n)t = 0;
la retta r ` e tangente ad O in A se e solo se t = 0 ` e soluzione doppia, se e solo se:
l mn = 0;
r ` e contenuta in O se e solo se:
Capitolo 12 651

l
2
+ 2m
2
n
2
= 0
l mn = 0;
da cui si hanno le due soluzioni:
a) :

m = 0
n = l,
b) :

m = 2l
n = 3l,
in corrispondenza alle quali le due rette r
1
, parallela a r
1
= (1, 0, 1) e r
2
parallela
a r
2
= (1, 2, 3) appartengono a O.
3. Il luogo delle rette per A (quindi di equazioni
x 1
l
=
y + 1
m
=
z
m
) tangenti a O
in A verica la relazione gi` a ottenuta: l mn = 0, da cui si ottiene:
(x 1) (y + 1) z = 0,
che coincide con lequazione del piano tangente alliperboloide in A ricavata con
la regola degli sdoppiamenti prima spiegata.
Esercizio 12.10 Dato liperboloide:
1 :
x
2
4
+
y
2
9
z
2
= 1,
1. ricavare le equazioni delle rette r e s delliperboloide che passano per P = (2, 3, 1)
1.
2. Scrivere lequazione del piano contenente r e s.
3. determinare i punti della retta r che hanno distanza dal punto P uguale alla loro
distanza dal piano xy.
Soluzione:
1. Si scrivono le equazioni della retta generica r per P = (2, 3, 1):
r :

x = 2 + lt
y = 3 + mt
z = 1 + nt, t R
e si vogliono determinare i parametri l, m, n afnch` e r appartenga ad 1.
652 Coni, Cilindri, Superci di Rotazione e Quadriche
(2 + lt)
2
4
+
(3 + mt)
2
9
(1 + nt)
2
= 1
da cui

l
2
4
+
m
2
9
n
2

t
2
+

l +
2
3
m2n

t = 0,
quindi

l +
2
3
m2n = 0
l
2
4
+
m
2
9
n
2
= 0
.
Le due soluzioni sono:

m = 0
l = 2n
,

m3n = 0
l = 0
in corrispondenza delle quali si hanno le rette: r per P = (2, 3, 1) parallela a
r = (2, 0, 1) e s per P = (2, 3, 1) parallela a s = (0, 3, 1).
Si perviene allo stesso risultato decomponendo lequazione delliperboloide:

x
2
z

x
2
+ z

1
y
3

1 +
y
3

e ricavando le equazioni delle due schiere di rette:


1)

x
2
z =
1

1
y
3

1 +
y
3
=
1

x
2
+ z

,
2)

x
2
z =
2

1 +
y
3

1
y
3
=
2

x
2
+ z

.
2. Il piano per P = (2, 3, 1) e parallelo ad r e a s ha equazione:

x 2 y 3 z 1
2 0 1
0 3 1

= 3x + 2y 6z 6 = 0.
3. Il punto generico della retta r ` e Q = (2 + 2t, 3, 1 + t) al quale si impone di avere
distanza da P uguale alla distanza dal piano xy.
Capitolo 12 653
d(P, Q) = d(P, z = 0),

4t
2
+ t
2
= [1 + t[ da cui t =
1

5
4
. I punti richiesti
sono i seguenti:
Q
1
=

5 +

5
2
, 3,
5 +

5
4

, Q
2
=

5
2
, 3,
5

5
4

.
Esercizio 12.11 Nello spazio sono date le rette sghembe:
r :

x = 0
y =
1
2
,
s :

x =
1
2
z = 0.
Determinare il luogo dei centri delle sfere tangenti a r e a s contemporaneamente.
Soluzione:
Il centro C = (x
0
, y
0
, z
0
) della sfera deve soddisfare la condizione d(C, r) = d(C, s).
Sia
1
il piano per C ortogonale ad r, esso ha equazione: z = z
0
e lintersezione di

1
con r ` e il punto A =

0,
1
2
, z
0

. Sia
2
il piano per C ortogonale a s, esso ha
equazione: x = x
0
e lintersezione di
2
con s ` e il punto B =

x
0
,
1
2
, 0

. Allora
d(C, r) = d(C, A) e d(C, s) = d(C, B), perci ` o da d(C, A) = d(C, B) si ottiene:
x
2
0
z
2
0
= 2y
0
che ` e lequazione cartesiana del paraboloide iperbolico. La situazione ` e rappresentata
nella gura seguente.
Teorema 12.4 Il paraboloide iperbolico si pu` o ottenere come luogo delle rette che si
appoggiano a due rette sghembe e sono tutte parallele ad un piano.
Esempio 12.29 Dati il piano : x y = 0 e le rette:
r :

x y

2z = 0

2x +

2y 1 = 0,
s :

x y +

2z = 0

2x + 2y + 1 = 0,
vericare che r e s sono sghembe e determinare il luogo delle rette che si appoggiano ad
r e a s contemporaneamente e sono parallele al piano .
654 Coni, Cilindri, Superci di Rotazione e Quadriche
-2
0
2
-2
0
2
-2
0
2
4
-2
0
2
-2
0
2
Figura 12.47: A caption, explaining that this is a test.
Capitolo 12 655
Si vede facilmente che le rette date sono sghembe perch` e giacciono su piani paralleli e
sono ottenute dallintersezione con altri due piani tra di loro non paralleli rispettivamente.
Le equazioni parametriche di r e di s sono:
r :

x =
1 + 2t
2

2
y =
1 2t
2

2
z = t, t R;
s :

x =
1 2t

2
y =
1 + 2t

2
z = t

, t

R.
La retta che unisce il punto generico di r con il punto generico di s ha perci ` o equazione:
x
1 + 2t
2

2
1 + 2t
2

2
+
1 + 2t

2
=
y
1 2t
2

2
1 2t
2

2
+
1 2t

2
=
z t
t t

,
che si semplica nellespressione seguente:
2

2x (1 + 2t)
2 + 2t + 2t

=
2

2y (1 2t)
2 2t 2t

=
z t
t t

.
Se si impone poi che tale retta sia parallela al piano , si ottiene t = t

, che permette di
scrivere lequazione precedente nella forma:
2

2x (1 + 2t) = 2

2y (1 2t) =
z t
t
e rappresenta la generica retta del luogo, al variare del parametro t. Essa si pu` o anche
scrivere come intersezione dei due piani:

2x (1 + 2t) 2

2y + (1 2t) = 0
t(2

y 1 + 2t) z + t = 0.
Dallequazione del primo piano si ricava:
2t =

2(x y)
e sostituendo lespressione di t nellequazione del secondo piano si perviene a:
x
2
y
2
= z,
che rappresenta il paraboloide iperbolico richiesto.
656 Coni, Cilindri, Superci di Rotazione e Quadriche
Teorema 12.5 Liperboloide iperbolico, o iperboloide ad una falda, ` e il luogo delle rette
che si appoggiano contemporaneamente a tre rette, sghembe a due a due.
Esempio 12.30 Date le rette:
r :

x = 0
y = 0
z = t,
s :

x = t

y = 1
z = 0,
h :

x = 1
y = t

z = 1, t, t

, t

R,
vericare che sono sghembe a due a due e determinare il luogo delle rette che si appog-
giano ad r, s ed h contemporaneamente.
`
E immediato vericare che le rette date sono a due a due sghembe.
La retta che unisce il punto generico di s con il punto generico di h ha equazione:
x t

+ 1
=
y 1
1 t

.
Se si impone che tale retta passi per il punto generico di r si ottengono le uguaglianze:
t

+ 1
=
1
1 t

= t,
che stabiliscono la condizione alla quale devono soddisfare i parametri t, t

e t

afnch` e
siano allineati tre punti di r, s ed h rispettivamente. Da esse si ottengono le relazioni:
t

=
t
1 t
, t

=
t 1
t
.
Sostituendo nellequazione della retta passante per i punti generici di s e di h, segue:
x
t
1 t
t
1 t
+ 1
=
y 1
1
t 1
t
= z,
o, con ovvie semplicazioni, lespressione:
x(1 t) t = t(y 1) = z
che rappresenta la generica retta del luogo richiesto, al variare del parametro t.
La retta precedente si pu` o scrivere come intersezione dei due piani:
Capitolo 12 657

x + z = t(x + 1)
t(y 1) = z,
dai quali si elimina facilmente il parametro t e si ottiene la seguente equazione cartesiana
del luogo:
o : xy + xz + yz x = 0.
Si tratta, evidentemente, di una quadrica che si pu` o identicare con la riduzione a forma
canonica della sua equazione. A tale scopo scriviamo la matrice della forma quadratica
di o che ` e:
A =

0
1
2
1
2
1
2
0
1
2
1
2
1
2
0

i cui autovalori, con le rispettive molteplicit` a , sono:

1
=
1
2
, m

1
= 2,
2
= 1, m

2
= 1.
Gli autospazi corrispondenti sono, rispettivamente:
V

1
= L(u
1
= (1, 1, 0), u
2
= (1, 0, 1)), V

2
= L((u
3
= (1, 1, 1)).
Utilizzando il processo di ortonormalizzazione di GramSchmidt per il primo autospazio
e calcolando il versore di u
3
si perviene ad una base ortonormale di autovettori, la cui
matrice ortogonale del cambiamento di base ` e :
P =

2
1

6
1

3
1

2
1

6
1

3
0
2

6
1

.
Operando il cambiamento di riferimento dato dalla rotazione di equazioni:
658 Coni, Cilindri, Superci di Rotazione e Quadriche

x
y
z

= P

si perviene allequazione della quadrica seguente:

1
2
x
2

1
2
y
2
+ z
2
+
1

2
x

6
y

3
z

= 0.
Procedendo con il metodo del completamento dei quadrati si ha:

1
2

1
2

+
1

2
+

1
2

2
+
1
4
= 0
ed applicando la traslazione di equazioni:

X
Y
Z

2
1

1
2

si ha lequazione della quadrica in forma canonica:


2X
2
+ 2Y
2
4Z
2
= 1.
Si tratta, pertanto, di un iperboloide ad una falda.
12.7 Esercizi svolti
Esercizio 12.12 Il conocuneo di Wallis. Sono dati una retta a, una circonferenza
situata in un piano , parallelo ad a, e con il centro sulla normale a condotta da un
punto di a ad un piano

perpendicolare ad a. determinare lequazione del luogo delle


rette che si appoggiano al cerchio , alla retta a e sono parallele a

.
Soluzione Poniamo a coincidente con lasse z del riferimento e la circonferenza sul
piano y = k, con centro sullasse y e raggio r. Detti P un punto generico di e Q un
punto generico di a, la retta PQ ha equazioni:
Capitolo 12 659
X
r cos
=
Y
k
=
Z z
r sin z
= t.
Se imponiamo che a sia parallela al piano z = 0, abbiamo:
r sin z = 0, z = r sin
e quindi le equazioni del conocuneo sono:

X = tr cos
Y = tk
Z = r sin , t R, 0 < 2.
Per ottenere lequazione cartesiana si ricava:

kX
rY
= cos
Z
r
= sin ,
quindi:
(kX)
2
(rY )
2
+
Z
2
r
2
= 1,
da cui si ottiene lequazione:
Z
2
Y
2
+ k
2
X
2
r
2
Y
2
= 0.
La rappresentazione graca della supercie appena descritta ` e la seguente:
Esercizio 12.13 Il conoide retto di Pl ucker. Si considerino unellisse c con le lunghezze
dei semiassi a, b legate dalla relazione a =

2b; il piano passante per lasse minore


AB di c ed inclinato di

4
sul piano di c; una retta r per A ed ortogonale a . (Si
osservi che c si proietta ortogonalmente in un cerchio sopra ). Determinare lequazione
del luogo delle rette che si appoggiano ad c e ad r e sono parallele al piano .
Seguono due rappresentazioni grache del conoide.
Soluzione Si scelga A come origine, AB ed r quali assi x e z rispettivamente. Detti
P = (b(1 cos ), b sin , b sin ) un punto generico di L e Q = (0, 0, ) un punto
generico di r, la retta PQ ha equazione:
660 Coni, Cilindri, Superci di Rotazione e Quadriche
Figura 12.48: A caption, explaining that this is a test.
Figura 12.49: A caption, explaining that this is a test.
Capitolo 12 661
-1
-0.5
0
0.5
1
-1
-0.5
0
0.5
1
-1
-0.5
0
0.5
1
-1
-0.5
0
0.5
-1
-0.5
0
0.5
Figura 12.50: A caption, explaining that this is a test.
x
b(1 cos )
=
y
b sin
= t.
Imponendo il parallelismo a (z = 0), si ricava: = b sin e le equazioni parametriche
del conoide sono:

x = tb(1 cos )
y = tb sin
z = b sin , t R, 0 < 2.
per ottenere lequazione cartesiana si procede in questo modo:
x
2
+y
2
= t
2
b
2
(1 +cos
2
2 cos +sin
2
) = t
2
b
2
(2 2 cos ) = 2tb[tb(1 cos )] =
2tbx.
Poich` e t =
y
z
, sostituendo si ottiene:
(x
2
+ y
2
)z = 2bxy.
Esercizio 12.14 La supercie dalla volta a sbieco. Si considerino due coniche (
1
e (
2
,
situate in piani diversi ed aventi due punti in comune. Sia poi d una retta che non incontri
le due coniche date. Provare che il luogo delle rette che si appoggiano contemporanea-
mente a (
1
, (
2
, d ` e una rigata, la cui equazione in forma implicita ` e un polinomio di sesto
grado in x, y, z.
Soluzione Come caso particolare si supponga che (
1
e (
2
siano due circonferenze uguali,
appartenenti a piani paralleli e non perpendicolari alla retta O
1
O
2
che unisce i loro centri.
662 Coni, Cilindri, Superci di Rotazione e Quadriche
Si consideri come direttrice la retta d normale ai due piani, contenenti le circonferenze, e
passante per il punto medio O del segmento O
1
O
2
, congiungente i loro centri. Per ragioni
di simmetria il cono che da O proietta (
1
contiene anche (
2
, e, quindi, fa parte della
rigata. Escludendolo, rimane una supercie di quarto grado detta dalla volta a sbieco.
Riferendoci ad assi cartesiani ortogonali, si prenda O come origine, la d quale asse y e
si faccia passare il piano z = 0 per O
1
ed O
2
. Siano:
(
1
:

x
2
+ z
2
2hx + h
2
r
2
= 0
y + k = 0,
(
2
:

x
2
+ z
2
+ 2hx + h
2
r
2
= 0
y k = 0,
(12.17)
le equazioni di (
1
e di (
2
. Il piano x = mz, passante per la retta d, incontra (
1
e (
2
,
rispettivamente nei punti P = (m, k, ) e Q = (m, k, ) con e che vericano le
equazioni:

(1 + m
2
)
2
2hm + h
2
r
2
= 0
=
2hm
1 + m
2
.
La retta PQ ha equazioni:

x = mz
( )(y + k) = 2k(z ).
Eliminando tra le ultime quattro equazioni i parametri m, e si ottiene lequazione
cercata:
[k(x
2
+ z
2
) + hxy]
2
k
2
[r
2
x
2
+ (r
2
h
2
)z
2
] = 0.
Nel graco che segue ` e rappresentata la volta a sbieco ottenuta ponendo k = 1, h =
2, r = 1.
Esercizio 12.15 Elicoide retto. Trovare il luogo delle rette che si appoggiano allelica
circolare cilindrica (di seguito rappresentata) di equazioni:

x = Rcos
y = Rsin
z = h, R,
(12.18)
e allasse z e sono parallele al piano xy, al variare del parametro reale .
Soluzione La retta generica del luogo passa per i punti:
Capitolo 12 663
Figura 12.51: A caption, explaining that this is a test.
Figura 12.52: A caption, explaining that this is a test.
664 Coni, Cilindri, Superci di Rotazione e Quadriche
(Rcos , Rsin , h), (0, 0, h)
ed ha perci ` o equazioni:
x Rcos
Rcos
=
Y Rsin
Rsin
= u, z = h.
Essa si pu` o anche scrivere nella forma parametrica seguente:

x = Rcos + uRcos
y = Rsin + uRsin
z = hu, u, R,
che rappresenta la supercie richiesta, al variare dei parametri reali e u, la cui rappre-
sentazione graca ` e la seguente:
Esercizio 12.16 Elicoide sviluppabile. Trovare lequazione della supercie rigata luogo
delle rette tangenti allelica circolare cilindrica di equazioni:

x = Rcos
y = Rsin
z = h
(12.19)
al variare del parametro reale .
Soluzione Il vettore tangente in un punto generico allelica ha componenti (Rsin , Rcos , h).
Allora la retta generica del luogo ha equazioni:
x Rcos
Rsin
=
y Rsin
Rcos
=
z h
h
= u
e, al variare dei parametri ed u, descrive la supercie le cui equazioni cartesiane
parametriche sono:

x = Rcos Ru sin
y = Rsin + Ru cos
z = h + hu, u, R,
e rappresentata di seguito.
Esercizio 12.17 Serpentino. Trovare lequazione del luogo geometrico descritto da una
circonferenza avente il centro nel punto generico dellelica:
:

x = Rcos
y = Rsin ,
z = h, R,
(12.20)
Capitolo 12 665
-10
0
10
-10
0
10
0
10
20
-10
0
10
-10
0
10
Figura 12.53: A caption, explaining that this is a test.
666 Coni, Cilindri, Superci di Rotazione e Quadriche
-5
0
5
-5
0
5
0
10
20
30
-5
0
5
Figura 12.54: A caption, explaining that this is a test.
Capitolo 12 667
raggio r e giacente sul piano ortogonale alla retta tangente alla curva , al variare del
parametro reale .
Soluzione Il piano per un punto C() dellelica e ortogonale al vettore tangente
C

() ha equazione: Rsin (x Rcos ) + Rcos (y Rsin ) + h(z h) = 0


che si pu` o anche scrivere: Rsin x Rcos y hz + h
2
= 0. Su individuiamo un
riferimento ortonormale come segue: un vettore parallelo a ` e u
1
= cos i + sin j; un
vettore u
2
parallelo a ed ortogonale a u
1
` e :
u
2
= u
1
(Rsin i + Rcos j + hk) = hsin i hcos j + Rk.
Perci ` o due versori ortogonali tra di loro e paralleli a sono:
v
1
=
u
1
|u
1
|
= cos i + sin j, v
2
=
u
2
|u
2
|
=
hsin i hcos j + Rk
h
2
+ R
2
Allora una rappresentazione vettoriale parametrica della circonferenza sul piano ` e
quindi:
P = C + r(cos uv
1
+ sin uv
2
),
ossia:
P = Rcos i+Rsin j+hk+r

cos u(cos i + sin j) + sin u

hsin i hcos j + Rk

h
2
+ R
2

dalla quale si ottiene la rappresentazione cartesiana parametrica di :

x = Rcos + r cos cos u +


rhsin sin u

h
2
+ R
2
y = Rsin + r sin cos u
rhcos sin u

h
2
+ R
2
z = h +
rRsin u

h
2
+ R
2
,
che, al variare di e u, descrive la supercie a serpentino qui rappresentata. Tale su-
percie ` e un elicoide circolare ed e un esempio di costruzione di un tubo lungo una
curva.
Esercizio 12.18 Vite di Saint Gilles. Trovare il luogo descritto da una circonferenza
avente il centro sul punto generico dellelica:
:

x = Rcos
y = Rsin
z = h, R,
(12.21)
668 Coni, Cilindri, Superci di Rotazione e Quadriche
-4
-2
0
2
4
-4
-2
0
2
4
0
5
10
15
-4
-2
0
2
Figura 12.55: A caption, explaining that this is a test.
Capitolo 12 669
raggio r e giacente su un piano passante per lasse z, al variare del parametro .
Soluzione
Il piano per il punto C() dellelica e passante per lasse z ha equazione: x sin
y cos = 0. Su individuiamo il seguente riferimento ortonormale: un vettore parallelo
a sia u
1
= cos i + sin j; un vettore parallelo a ed ortogonale a u
1
` e, ad esempio:
u
2
= u
1
(sin i cos j) = k. Perci` o due versori ortogonali tra di loro e paralleli a
sono:
v
1
=
u
1
|u
1
|
= cos i + sin j, v
2
=
u
2
|u
2
|
= k.
Allora una rappresentazione vettoriale parametrica della circonferenza sul piano ` e
quindi:
P = C + r(cos uv
1
+ sin uv
2
), (12.22)
ossia:
P = Rcos i + Rsin j + hk + r[cos u(cos i + sin j) sin uk],
dalla quale si ottiene la rappresentazione cartesiana parametrica di :

x = Rcos + r cos cos u


y = Rsin + r sin cos u
z = h r sin u,
(12.23)
che, al variare di e di u descrive la vite di Saint Gilles, che ` e un elicoide circolare,
rappresentata di seguito.
Esercizio 12.19 Colonna torsa. Trovare lequazione del luogo descritto da una circonfe-
renza avente il centro nel punto generico dellelica:
:

x = Rcos
y = Rsin
z = h, R,
(12.24)
raggio r e giacente su un piano ortogonale allasse z, al variare del parametro reale .
Soluzione Sul piano per il punto generico C() di ed ortogonale allasse z, possiamo
scegliere il riferimento ortonormale i, j. Di conseguenza, la rappresentazione vettoriale
parametrica della circonferenza di con centro C() e raggio r ` e :
P = C + r(cos ui + sin uj),
670 Coni, Cilindri, Superci di Rotazione e Quadriche
-5
0
5
-5
0
5
0
5
10
15
-5
0
5
Figura 12.56: A caption, explaining that this is a test.
Capitolo 12 671
-5
0
5
-5
0
5
0
5
10
15
-5
0
5
Figura 12.57: controllare che sia posizionata prima degli esercizi.
ossia:
P = Rcos i + Rsin j + hk + r cos ui + r sin uj,
dalla quale si ottiene la rappresentazione cartesiana parametrica:

x = Rcos + r cos u
y = Rsin + r sin u
z = h, u, R,
che, al variare dei parametri ed u, genera la colonna torsa di seguito rappresentata.
Detta supercie ` e un elicoide circolare.
672 Bibliograa
Bibliograa
[1] H. Anton, C. Rorres: Elementary Linear Algebra: Application Version, Editrice
Wiley, John & Sons, 1991.
[2] A. Baker: Matrix Groups: An Introduction to Lie Group Theory, Springer
Undergraduate Mathematics Series, Editrice Springer, London, 2002.
[3] R.Bellman: Introduction to Matrix Analysis, Editrice McGraw-Hill, New York,
1960.
[4] M. Bramanti, C. D. Pagani, S. Salsa: Matematica Calcolo Innitesimale e Algebra
Lineare, seconda edizione, Editrice Zanichelli, Bologna, 2004.
[5] H. Cartan: Elementary theory of analytic functions of one or several complex va-
riables translated from the French. Reprint of the 1973 edition. Dover Publications,
Inc., New York, 1995.
[6] F. Fava, F. Tricerri: Geometria e Algebra lineare, Editrice Levrotto e Bella, Torino,
1987.
[7] F. Fava: Lezioni di Geometria analitica, Editrice Levrotto e Bella, Torino, 1960.
[8] F. Fava: Lezioni di Geometria, Editrice Levrotto e Bella, Torino, 1973.
[9] F. Fava: Elementi di Algebra Lineare e Geometria, Editrice Levrotto e Bella, Torino,
1976.
[10] A. Gray, E. Abbena, S. Salamon: Modern Differential Geometry of Curves and
Surfaces with Mathematica, Third Edition, Editrice CRC Press, Boca Raton, 2006.
[11] S. Greco, P. Valabrega: Lezioni di Geometria, Voll.I e II, Editrice Levrotto e Bella,
Torino, 1999.
[12] B.C. Hall: Lie Groups, Lie Algebras and Representations, Graduate Texts in
Mathematics 222, Editrice Springer, New York, 2003.
673
674 Bibliograa
[13] S. Lang: Linear Algebra, Editrice Addison Wesley, New York, 1966.
[14] S. Roman: Advanced Linear Algebra, Editrice Springer, Berlin, 2008.
[15] A. Sanini: Lezioni di Geometria, Editrice Levrotto e Bella, Torino , 1993.
[16] E. Sernesi: Geometria 1 e 2, Editrice Bollati Boringhieri, 1989.
[17] M. Stoka: Corso di Geometria, Editrice Cedam, Padova, 1995.
[18] A. Sheldon, Linear Algebra Done Right, Editrice Springer, 1997.
[19] A. E. Taylor: Introduction to Functional Analysis, Editrice John Wiley & Sons,
Inc., New York; Chapman & Hall, Ltd., London, 1958.
Indice analitico
ker f nucleo di unapplicazione lineare f , 251
o vettore nullo di uno spazio vettoriale V , 135
A matrice coniugata di A C
m,n
, 195
x y z prodotto misto di x, y e z in V
3
, 377
A
1
matrice inversa di A, 41
A
ij
cofattore dellelemento a
ij
della matrice
A, 65
adj(A) matrice aggiunta della matrice A, 67
f

aggiunta di unapplicazione lineare f , 265


/(R
n,n
) sottospazio vettoriale delle matrici an-
tisimmetriche di ordine n, 45, 142
/H(C
n,n
) sottospazio vettoriale delle matrici
antihermitiane di ordine n, 196
aggiunta di unapplicazione lineare, 265
aggiunta di una matrice quadrata, 67
angolo tra due piani, 537
angolo tra due rette nel piano, 417
angolo tra due rette nello spazio, 537
angolo tra due vettori in (V, ), 207
angolo tra retta e piano, 537
anomalia, 398
applicazione lineare identica, 234
applicazione lineare nulla, 234
applicazione lineare tra due spazi vettoriali, 233
ascissa di un punto, 393
ascissa di un punto nello spazio, 504
asintoti delliperbole, 454
asse centrale, 553
asse centrale del fascio di circonferenze, 441
asse delle ascisse, 391
asse delle ascisse nello spazio, 503
asse delle ordinate, 391
asse delle ordinate nelo spazio, 503
asse delle quote, 503
asse di un segmento, 395, 424
asse polare, 398, 563
asse radicale del fascio di circonferenze, 441
automorsmo di uno spazio vettoriale, 254
autospazio, 296
autovalore, 295
autovettore, 295
baricentro di n punti, 576
baricentro di un tetraedro, 505
baricentro di un triangolo, 394
baricentro di un triangolo nel piano, 394
base di C
n
, 195
base di C
m,n
, 195
base di R
n
, 154
base di R
m,n
, 154
base di R
n
[x], 154
base di V
2
, 88
base di V
3
, 88
base di /(R
n,n
), 160
base di T(R
n,n
), 159
base di o(R
n,n
), 159
base di T (R
n,n
), 159
base di un piano vettoriale V
2
, 88
base di una retta vettoriale V
1
, 88
base di uno spazio vettoriale, 153
base duale, 274
base ortogonale in V
3
, 107
base ortogonale in uno spazio vettoriale eucli-
deo, 209
base ortogonale negativa, 117
base ortogonale positiva, 117
base ortonormale in V
1
, 107
base ortonormale in V
2
, 107
base ortonormale in V
3
, 107
675
676 Indice analitico
base ortonormale in in uno spazio vettoriale eu-
clideo, 209
base ortonormale negativa, 117
base ortonormale positiva, 117
base unitaria, 228
C campo dei numeri complessi, 136
C
n
spazio vettoriale delle nuple di numeri com-
plessi, 195
C
m,n
spazio vettoriale delle matrici con m ri-
ghe e n colonne ad elementi comples-
si, 195
g f composizione delle applicazioni lineari f
e g, 259
centro del fascio, 422
centro dellellisse, 447
circonferenza nel piano, 395, 431
circonferenza nello spazio, 548
circonferenza passante per tre punti nel piano,
437
classicazione delle coniche attraverso il rango
delle matrici A e B associate, 494
codominio di unapplicazione lineare, 233
coefciente angolare di una retta nel piano, 414
coefcienti di unequazione lineare, 15
coefcienti di una combinazione lineare di vet-
tori in V , 149
coefcienti di una combinazione lineare di vet-
tori in V
3
, 83
cofattore di un elemento di una matrice, 65
colatitudine, 563
combinazione lineare di vettori in V , 149
combinazione lineare di vettori in V
3
, 83
complemento ortogonale, 218
componenti di un vettore in V
1
, 90
componenti di un vettore in V
2
, 90
componenti di un vettore in V
3
, 90
componenti di un vettore rispetto ad una base,
155
composizione di applicazioni lineari, 259
coniche come intersezione di un cono con un
piano, 472
coniche come luoghi di punti nel piano, 473
coniche degeneri, 473
cono isotropo, 352
cono nello spazio, 587
cono tangente ad una sfera, 596
controimmagine di un sottospazio vettoriale, 249
coordinate polari generalizzate, 400
coordinate polari nel piano, 398
coordinate polari sferiche, 563
coseni direttori di un vettore in V
3
, 110
coseni direttori di una retta nel piano, 408
coseni direttori di una retta nello spazio, 514
criteri di diagonalizzazione, 306
Curva simmetrica rispetto allasse delle ascisse,
404
Curva simmetrica rispetto allasse delle ordina-
te, 403
Curva simmetrica rispetto allorigine, 404
T(R
n,n
) sottospazio vettoriale delle matrici dia-
gonali di ordine n, 34
det(A) determinante della matrice A, 55
dim(V ) dimensione di uno spazio vettoriale V ,
157
d(A, B) distanza tra due punti nel piano, 394
T(R
n,n
) sottospazio vettoriale delle matrici dia-
gonali di ordine n, 141
decomposizione di un vettore, 80
decomposizione spettrale, 308
determinante di n vettori, 379
determinante di una matrice quadrata, 55
diagonale principale di una matrice quadrata, 34
differenza di due vettori in V
3
, 80
dimensione di V
1
, 88
dimensione di V
3
, 88
dimensione di uno spazio vettoriale, 156
direttrice del cono, 587
direttrice della parabola, 463
direttrice di una conica, 475
direttrici dellellisse, 447
direttrici delliperbole, 453
direzione di un vettore in V
3
, 75
distanza di due punti nel piano, 394
distanza di un punto da un piano, 531
Indice analitico 677
distanza di un punto da una retta nel piano, 420
distanza di un punto da una retta nello spazio,
532
distanza tra due punti nel piano, 394
distanza tra due punti nello spazio, 505
Disuguaglianza di CauchySchwartz su uno spa-
zio vettoriale euclideo, 206
Disuguaglianza di CauchySchwartz su uno spa-
zio vettoriale euclideo complesso, 227
disuguaglianza di Cauchy-Schwarz per una for-
ma bilineare simmetrica denita posi-
tiva, 359
disuguaglianza di Minkowski per una forma bi-
lineare simmetrica denita positiva, 359
Disuguaglianza triangolare su uno spazio vetto-
riale euclideo, 206
Disuguaglianza triangolare su uno spazio vetto-
riale euclideo complesso, 227
dominio di unapplicazione lineare, 233
doppio prodotto vettoriale, 134
eccentricit` a dellellisse, 447
eccentricit` a delliperbole, 453
eccentricit` a di una conica, 475
elementi di una matrice, 33
ellisse in forma canonica, 447
ellisse, come luogo di punti nel piano, 445
endomorsmi simultaneamente diagonalizzabi-
li, 320
endomorsmo autoaggiunto, 266
endomorsmo hermitiano, 286
endomorsmo nullo, 234
endomorsmo semplice, 306
equazione caratteristica, 300
equazione cartesiana del cono assegnati il verti-
ce e una direttrice, 589
equazione cartesiana della retta nel piano, 409
equazione cartesiana di una supericie, 586
equazione della parabola in forma canonica, 464
equazione lineare, 15
equazione lineare omogenea, 16
equazione matriciale, 46
equazione segmentaria del piano, 512
equazione vettoriale, 187
equazione vettoriale omogenea, 187
equazione vettoriale parametrica di un piano nel-
lo spazio, 509
equazione vettoriale parametrica di una retta nel
piano, 407
equazione vettoriale parametrica di una retta nel-
lo spazio, 513
equazioni del cambiamento di base, 176
equazioni del cambiamento di base in V
3
, 98
equazioni di unapplicazione lineare, 240
equazioni parametriche della retta nel piano, 407
equazioni parametriche di un piano nello spa-
zio, 509
equazioni parametriche di una retta nello spa-
zio, 514
equazioni parametriche di una supercie, 586
espressione matriciale di una forma bilineare sim-
metrica, 338
espressione matriciale di una forma quadratica,
342
espressione polinomiale di una forma bilineare
simmetrica, 337
espressioni polinomiali equivalenti di una forma
quadratica, 361
(V, ) spazio vettoriale euclideo, 201
isomorsmo canonico tra uno spazio vetto-
riale V ed il suo spazio duale V

, 278
f(x) vettore immagine di x mediante unappli-
cazione lineare f , 233
f(H) immagine del sottospazio vettoriale H me-
diante lapplicazione lineare f , 246
f
1
(/) controimmagine di un sottospazio vet-
toriale / mediante unapplicazione li-
neare f , 249
T(R) spazio vettoriale delle funzioni reali di
variabile reale, 137
fasci di circonferenza nel piano, 440
fascio di sfere, 557
fascio improprio di piani, 527
fascio improprio di rette nel piano, 422
fascio proprio di piani, 527
678 Indice analitico
fascio proprio di rette nel piano, 422
forma plineare, 377
forma plineare antisimmetrica, 378
forma bilineare, 333
forma bilineare degenere, 349
forma bilineare complesso, 335
forma bilineare non degenere, 349
forma bilineare simmetrica, 335
forma canonica di una forma quadratica, 361
forma lineare, 272
forma lineare su uno spazio vettoriale comples-
so, 275
forma normale di una forma quadratica, 363
forma polare di una forma quadratica, 341
forma quadratica, 341
forma quadratica associata ad un endomorsmo
simmetrico, 382
forma quadratica associata ad una forma bili-
neare simmetrica, 341
forma quadratica denita positiva, 355
forma quadratica indenita, 355
forma quadratica ridotta in forma canonica, 361
forma quadratica ridotta in forma normale, 363
forma quadratica semidenita positiva, 355
Formula di Grassmann, 185
Formula di Grassmann , 163
funzione nulla, 137
funzione omogenea di grado k, 590
fuochi dellellisse, 445
fuochi delliperbole, 451
fuoco della parabola, 463
fuoco di una conica, 475
GL(n, R) gruppo lineare generale reale, 263
generatrice del cono, 587
gruppo commutativo, 36
gruppo delle rotazioni di V
2
, 262
gruppo lineare generale GL(n, R),, 263
gruppo ortogonale, 263
gruppo unitario, 294
H(C
n,n
) sottospazio vettoriale delle matrici her-
mitiane di ordine n, 196
I matrice unit` a , 35
imf sottospazio immagine, 247
id identit` a , 234
identit` a , 234
identit` a di Jacobi, 134
identit` a di Lagrange, 134
immagine di un sottospazio vettoriale mediante
unapplicazione lineare, 246
immagine di un sottospazio vettoriale mediante
unapplicazione lineare, 246
insieme libero di vettori, 152
insieme libero di vettori in V
3
, 84
intersezione di due sottospazi vettoriali, 143
iperbole equilatera, 458
iperbole in forma canonica, 453
iperbole, come luogo di punti nel piano, 451
iperpiano vettoriale, 178
isometria, 287
isomorsmo canonico tra V e V

., 278
isomorsmo canonico tra uno spazio vettoriale
ed il suo duale, 278
isomorsmo tra due spazi vettoriali, 254
L(V, W) spazio vettoriale delle applicazioni li-
neari da V in W, 258
L(v
1
, v
2
, . . . , v
k
) sottospazio vettoriale gene-
rato dai vettori v
1
, v
2
, . . . , v
n
, 149
L(x) retta vettoriale individuata dal vettore x,
83
L(x, y) piano vettoriale individuato dai vettori
x e y, 83
Legge dinerzia di Sylvester, 365
Lemma di Steinitz, 156, 186
longitudine, 563
luogo geometrico di punti nel piano, 395
M
B,B
() matrice associata ad una forma bili-
neare simmetrica rispetto alla base
B, 336
M
B,C
(f) matrice associata ad unapplicazione
lineare f rispetto alle basi B e (, 238
M
ij
minore dellelemento a
ij
della matrice A,
64
Indice analitico 679
matrice associata ad unapplicazione lineare, 238
matrice associata ad una forma bilineare sim-
metrica, 336
matrice associata ad una forma quadratica, 342
matrice colonna, 34
matrice completa, 20
matrice completa di un sistema lineare (A [ B),
21
matrice con m righe e n colonne, 33
matrice coniugata, 195
matrice dei coefcienti di un sistema lineare A,
20, 21
matrice dei coefcienti e temini noti, 20
matrice del cambiamento di base, 176
matrice del cambiamento di base in V
3
, 97
matrice diagonale, 34
matrice diagonalizzabile, 306
matrice inversa, 41
matrice normale, 330
matrice nulla, 34
matrice quadrata di ordine n, 34
matrice ridotta per colonne, 169
matrice ridotta per righe, 23
matrice riga, 34
matrice trasposta, 42
matrice unit` a , 35
matrici simultaneamente diagonalizzabili, 320
matrici anti-hermitiane, 196
matrici antisimmetriche, 45
matrici hermitiane, 196
matrici ortogonali, 45
matrici simili, 245
matrici simmetriche, 44
matrici triangolari inferiori, 44
matrici triangolari superiori, 43
matrici uguali, 35
matrici unitarie, 229
metodo degli scarti successivi, 158
metodo di riduzione di Gauss, 17
metodo di riduzione di GaussJordan, 26
minima distanza tra due rette sghembe, 534
minore di ordine k, 64
minore di un elemento di una matrice, 64
minori di NordOvest, 385
minori principali, 385
molteplicit` a di un autovalore, 304
N insieme dei numeri naturali, 138
^(A) nullspace della matrice A, 141
norma del vettore x in V
3
, 76
norma di un vettore in (V, ), 204
norma di un vettore in V
3
, 75
norma di un vettore su uno spazio vettoriale eu-
clideo complesso, 227
nucleo di unapplicazione lineare ker f , 251
nucleo di una forma bilineare simmetrica, 348
nullspace, 141
O(n) gruppo ortogonale delle matrici ortogo-
nali di ordine n, 45
x opposto del vettore x in uno spazio vetto-
riale V , 135
O matrice nulla, 34
omomorsmo tra due spazi vettoriali, 233
opposto di un vettore in V , 135
opposto di un vettore in V
3
, 78
ordinata di un punto, 393
ordinata di un punto nello spazio, 504
ordine di una matrice quadrata, 34
origine del riferimento cartesiano, 391
ortogonali rispetto ad una forma bilineare sim-
metrica, 344
P() polinomio caratterisico, 300
f prodotto di un numero reale per unappli-
cazione lineare f , 258
parabola, come luogo di punti nel piano, 463
parametri direttori di una retta nel piano, 407
parametri direttori di una retta nello spazio, 514
perpendicolare comune a due rette sghembe, 534
piani coordinati, 504
piano esterno ad una sfera, 542
piano passante per tre punti, 511
piano radicale, 553
piano secante una sfera, 542
piano tangente ad una sfera, 542
piano vettoriale in V
3
, 76, 83
680 Indice analitico
polinomio caratteristico, 300
polo, 563
polo del riferimento polare nel piano, 398
posizione reciproca di due circonferenze nel pia-
no, 437
posizione reciproca di due rette nello spazio, 525
posizione reciproca di due sfere, 553
posizione reciproca tra retta e piano, 523
potenza di un punto rispetto ad una sfera, 579
Primo Teorema di Laplace, 65
processo di ortonormalizzazione di GramSchmidt,
211
prodotto di matrici, 37, 259
prodotto di un numero reale per un vettore in
V
3
, 82
prodotto di un numero reale per unapplicazione
lineare, 258
prodotto di un numero reale per una matrice, 36
prodotto di una forma bilineare simmetrica per
uno scalare, 376
prodotto di uno scalare per un vettore in V , 136
prodotto hermitiano su uno spazio vettoriale com-
plesso, 225
prodotto misto x y z di tre vettori x, y e z
in V
3
, 120
prodotto scalare di due vettori in V
3
, 101
prodotto scalare su uno spazio vettoriale reale,
201
prodotto vettoriale x y di due vettori x ey in
V
3
, 113
proiezione di una curva da un punto su un piano,
598
proiezione su un sottospazio vettoriale, 235
proiezioni su sottospazi vettoriali, 235
punti imamginari nel piano, 427
punto medio di un segmento, 394
punto medio di un segmento nel piano, 394
Q forma quadratica, 341
Q campo dei numeri razionali, 136
quota di un punto nello spazio, 504
R
i
i-esima riga di una matrice, 20
R campo dei numeri reali, 15
R[x] spazio vettoriale dei polinomi in x a coef-
cienti reali, 138
R
n
spazio vettoriale delle n-uple di numeri rea-
li, 137
R
m,n
spazio vettoriale delle matrici con m ri-
ghe e n colonne, ad elementi reali, 33
R
n
[x] sottospazio vettoriale dei polinomi in x
a coefcienti reali di grado minore o
uguale a n, 140
rank(A) rango della matrice A, 25
f[
W
restrizione di unapplicazione lineare f ad
un sottospazio vettoriale J, 264
raggio vettore, 398, 563
rami delliperbole, 453
rango di una forma bilineare simmetrica, 350
rango di una matrice, 25, 50, 167
rango di una matrice ridotta per colonne, 169
rango di una matrice ridotta per righe, 24
rappresentante di un vettore in V
3
, 76
restrizione di unapplicazione lineare, 264
restrizione di una forma quadratica ad un sotto-
spazio vettoriale, 369
retta esterna ad una circonferenza nel piano, 432
retta esterna ad una sfera, 548
retta immaginaria coniugata nel piano, 427
retta immaginaria nel piano, 427
retta nel piano, 406
retta nel piano passante per un punto e ortogo-
nale ad un vettore, 408
retta nel piano passante per un punto parallela
ad un vettore, 406
retta per due punti distinti, 410
retta per un punto parallela ad un vettore, 406
retta per un punto perpendicolare ad un vettore,
408
retta reale nel piano, 427
retta secante una circonferenza nel piano, 436
retta secante una sfera, 548
retta simmetrica di una retta rispetto ad unaltra
retta, nel piano, 426
retta tangente ad una circonferenza in un suo
punto nel piano, 436
Indice analitico 681
retta tangente ad una sfera, 548
retta vettoriale in V
3
, 76, 83
rette bisettrici nel piano, 425
rette coincidenti nello spazio, 525
rette complanari, 525
rette incidenti nello spazio, 525
rette parallele nello spazio, 525
rette sghembe, 525
riferimento cartesiano nel piano, 391
riferimento cartesiano nello spazio, 503
riferimento polare nel piano, 398
riessione rispetto ad un iperpiano vettoriale,
292
rotazione in V
2
, 262
f +g somma di due applicazioni lineari f e g,
258
o(R
n,n
) sottospazio vettoriale delle matrici sim-
metriche di ordine n, 44
o(R
n,n
) sottospazio vettoriale delle matrici sim-
metriche di ordine n, 142
SO(2) gruppo ortogonale speciale di ordine 2,
262
scalari in V , 136
Secondo Teorema di Laplace, 66
segmenti orientati equipollenti, 131
segmento orientato, 75
segnatura di una forma quadratica, 365
semipiano polare, 563
sfera, 540
sfere secanti, 553
sfere tangenti, 553
signicato geometrico del prodotto scalare in V
3
,
104
signicato geometrico della norma del prodotto
vettoriale, 114
similitudine, 293
simmetria ortogonale rispetto ad un iperpiano
vettoriale, 292
sistema di generatori, 149
sistema lineare, 16
sistema lineare compatibile, 17
sistema lineare incompatibile, 17
sistema lineare omogeneo, 17
sistema lineare ridotto, 23
sistemi lineari equivalenti, 17
sistemi lineari in forma matriciale, 40
soluzione di un sistema lineare, 17
soluzione di unequazione lineare, 15
soluzione di unequazione vettoriale, 187
somma di k sottospazi vettoriali, 144
somma di applicazioni lineari, 258
somma di due forme bilineari simmetriche, 376
somma di due sottospazi vettoriali, 144
somma di matrici, 35
somma di vettori in V , 135
somma di vettori in V
3
, 77
somma diretta di k sottospazi vettoriali, 145,
147
somma diretta di due sottospazi vettoriali, 145,
146
sottospazi vettoriali improprii, 139
sottospazi vettoriali ortogonali rispetto ad una
forma bilineare simmetrica, 345
sottospazi vettoriali supplementari, 146
sottospazio immagine imf , 247
sottospazio invariante, 263
sottospazio ortogonale ad un sottospazio vetto-
riale rispetto ad una forma bilineare sim-
metrica, 345
sottospazio vettoriale, 139
sottospazio vettoriale dei polinomi R
n
[x], 140
sottospazio vettoriale delle matrici antisimme-
triche, 142, 146
sottospazio vettoriale delle matrici diagonali, 141
sottospazio vettoriale delle matrici simmetriche,
142, 146
sottospazio vettoriale delle matrici triangolari su-
periori, 141
sottospazio vettoriale nitamente generato, 150
span di v
1
, v
2
, . . . , v
k
: L(v
1
, v
2
, . . . , v
k
), 149
spazi vettoriali isomor, 254
spazio vettoriale C
n
, 194
spazio vettoriale C
m,n
, 195
spazio vettoriale Q, 137
spazio vettoriale R
n
, 137
682 Indice analitico
spazio vettoriale T(R), 137
spazio vettoriale biduale V

, 277
spazio vettoriale complesso, 136
spazio vettoriale dei polinomi R[x], 138
spazio vettoriale delle applicazioni lineari L(V, W),
258
spazio vettoriale delle colonne di una matrice,
166
spazio vettoriale delle matrici con m righe e n
colonne R
m,n
, 137
spazio vettoriale delle righe di una matrice, 166
spazio vettoriale duale di uno spazio vettoriale
complesso, 275
spazio vettoriale duale V

, 272
spazio vettoriale euclideo, 201
spazio vettoriale euclideo complesso, 225
spazio vettoriale nitamente generato, 150
spazio vettoriale pseudo-euclideo, 384
spazio vettoriale reale, 135
tr(A) traccia della matrice A, 54
t
f trasposta di unapplicazione lineare, 282
t
A trasposta della matrice A, 42
T (R
n,n
) sottospazio vettoriale delle matrici trian-
golari superiori di ordine n, 43
T (R
n,n
) sottospazio vettoriale delle matrici trian-
golari superiori di ordine n, 141
Teorema del completamento della base, 160
Teorema del Rango, 167, 189, 254
Teorema dellesistenza di una base, 156
Teorema della dimensione, 156
Teorema di CayleyHamilton, 325
Teorema di Cramer, 70
Teorema di Nullit` a pi ` u Rango, 170, 171
Teorema di Pitagora, 206
Teorema di Rouch eCapelli, 25, 188
Teorema fondamentale delle applicazioni linea-
ri, 236
teorema spettrale, 308
termine noto di unequazione lineare, 15
traccia di una matrice quadrata, 54
trasformazione lineare tra due spazi vettoriali,
233
trasformazione unitaria, 293
trasposta di unapplicazione lineare, 282
U(n) gruppo unitario, 294
unione di due sottospazi vettoriali, 143
V

spazio vettoriale biduale di V , 277


V

spazio vettoriale duale di V , 272


V

autospazio relativo allautvalore , 296


verso di un vettore in V
3
, 75
versore in V
3
, 76
vertice del cono, 587
vertice della parabola, 465
vertici dellellisse, 447
vertici delliperbole, 453
vettore

AB con rappresentante il segmento orien-


tato AB, 76
vettore controimmagine di un vettore mediante
unapplicazione lineare, 233
vettore immagine di un vettore mediante unap-
plicazione lineare, 233
vettore in V
3
, 76
vettore isotropo, 352
vettore nullo, 136
vettore nullo o di V
3
, 76
vettore proiezione ortogonale su un piano vetto-
riale in V
3
, 115
vettore proiezione ortogonale su un vettore in
V
3
, 104
vettori colonna di una matrice, 166
vettori complanari in V
3
, 78
vettori concordi in V
3
, 78
vettori discordi in V
3
, 78
vettori in V , 136
vettori in V
3
, 132
vettori linearmente dipendenti in V
3
, 84
vettori linearmente dipendenti in uno spazio vet-
toriale, 152
vettori linearmente indipendenti in V
3
, 84
vettori linearmente indipendenti in uno spazio
vettoriale, 152
vettori ortogonali in (V, ), 207
vettori paralleli in V
3
, 78
Indice analitico 683
vettori riga di una matrice, 166
J
1
J
2
. . . J
k
somma diretta di k sot-
tospazi vettoriali, 145
J

sottospazio ortogonale ad un sottospazio


vettoriale rispetto ad una forma bili-
neare simmetrica, 345
J
1
+ J
2
somma di due sottospazi vettoriali,
144
J
1
J
2
intersezione di due sottospazi vetto-
riali, 143
J
1
+ J
2
+ . . . + J
k
somma di k sottospazi
vettoriali, 144
J
1
J
2
somma diretta di due sottospazi vet-
toriali, 145

You might also like