Algebra Lineare e Geometria

dispense del corso
Prof. Ernesto Dedò
Dipartimento di Matematica
Politecnico di Milano
ernesto.dedo@polimi.it
II edizione
febbraio 2011
Queste dispense sono state composte con L
A
T
E
X.
Sono coperte da licenza Creative Commons
http://creativecommons.org/licenses/
by-nc/3.0/legalcode in particolare non ne è
permesso l’uso commerciale
Indice
Prefazione xi
I. Algebra lineare 1
1. Richiami di nozioni essenziali 3
1.1. Gli insiemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Relazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Il simbolo di sommatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Il principio di induzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5. Un po’ di calcolo combinatorio . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5.1. Permutazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5.2. Permutazioni con ripetizione . . . . . . . . . . . . . . . . . . . . . 8
1.5.3. Combinazioni e disposizioni . . . . . . . . . . . . . . . . . . . . . 8
2. I sistemi lineari: teoria elementare 11
2.1. Concetti introduttivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2. Risoluzione di un sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3. Matrici 15
3.1. Nomenclatura e prime operazioni . . . . . . . . . . . . . . . . . . . . . . 15
3.2. Operazioni sulle matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.1. Somma di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.2. Prodotto per uno scalare . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2.3. Combinazioni lineari di matrici . . . . . . . . . . . . . . . . . . . . 19
3.2.4. Prodotto tra matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.2.5. Potenza di una matrice quadrata . . . . . . . . . . . . . . . . . . . 22
3.3. Polinomi di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.4. Matrici a blocchi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.5. Applicazioni ai sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.5.1. Equivalenza di matrici . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.5.2. Risoluzione di un sistema . . . . . . . . . . . . . . . . . . . . . . . 26
3.6. L’algoritmo di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4. Spazi vettoriali 33
4.1. Definizioni e prime proprietà . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.2. Sottospazi e basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
ii Indice
5. Determinante e rango di una matrice. Matrice inversa 43
5.1. Definizioni di determinante . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.1.1. Definizione ricorsiva . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.1.2. Definizione classica . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.2. Proprietà del determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.3. Rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.3.1. Calcolo del rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.4. Matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.4.1. Definizione e proprietà . . . . . . . . . . . . . . . . . . . . . . . . . 51
6. Teoria dei sistemi lineari 53
6.1. Teoremi sui sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
7. Applicazioni lineari, prodotto scalare 57
7.1. Generalità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
7.1.1. Applicazioni lineari, matrici, sistemi . . . . . . . . . . . . . . . . . 60
7.2. Prodotto scalare, norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
7.2.1. Norma di un vettore in R
2
o R
3
. . . . . . . . . . . . . . . . . . . . 61
7.2.2. Prodotto scalare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
7.3. Generalizzazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
8. Matrici simili. Autovalori ed autovettori di una matrice quadrata 71
8.1. Matrici simili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
8.2. Autovalori ed autovettori di una matrice . . . . . . . . . . . . . . . . . . 72
9. Diagonalizzazione, matrici ortogonali 77
9.1. Diagonalizzazione di una matrice quadrata . . . . . . . . . . . . . . . . . 77
9.2. Martici ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
9.3. Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
9.4. Matrici hermitiane e matrici unitarie . . . . . . . . . . . . . . . . . . . . . 86
10. Polinomi di matrici 87
10.1. Teorema di Cayley Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . 87
10.1.1. Applicazioni del Teorema di Cayley–Hamilton . . . . . . . . . . . 89
10.2. Polinomio minimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
II. Geometria piana 93
11. La retta nel piano 95
11.1. Preliminari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
11.2. Altri tipi di equazione della retta . . . . . . . . . . . . . . . . . . . . . . . 96
11.3. Distanze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
11.3.1. Distanza di due punti . . . . . . . . . . . . . . . . . . . . . . . . . 98
11.3.2. Distanza di un punto da una retta . . . . . . . . . . . . . . . . . . 99
Indice iii
11.4. Fasci di rette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
11.5. Coordinate omogenee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
11.6. I sistemi di riferimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
11.6.1. Cambiamento del sistema di riferimento . . . . . . . . . . . . . . 101
11.6.2. Altri sistemi di riferimento . . . . . . . . . . . . . . . . . . . . . . 104
12. La circonferenza nel piano 105
12.1. Generalità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
12.1.1. Tangenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
12.2. Fasci di circonferenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
12.3. Circonferenza ed elementi impropri . . . . . . . . . . . . . . . . . . . . . 110
13. Le coniche 113
13.1. Coniche in forma generale . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
13.1.1. Riconoscimento di una conica . . . . . . . . . . . . . . . . . . . . . 118
13.2. Tangenti ad una conica in forma canonica . . . . . . . . . . . . . . . . . . 121
13.3. Conica per cinque punti . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
13.4. Le coniche in coordinate omogenee . . . . . . . . . . . . . . . . . . . . . . 122
13.5. Fasci di coniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
13.5.1. Generalità sui fasci di coniche . . . . . . . . . . . . . . . . . . . . . 124
13.6. Fasci e punti impropri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
III. Polarità piana 127
14. Proiettività ed involuzioni 129
14.1. Proiettività . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
14.2. Involuzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
15. Polarità piana 135
15.1. Polare di un punto rispetto ad una conica irriducibile . . . . . . . . . . . 135
15.2. Principali proprietà della polarità piana . . . . . . . . . . . . . . . . . . . 137
15.3. Elementi coniugati rispetto ad una conica irriducibile . . . . . . . . . . . 139
15.4. Triangoli autopolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
16. Centro ed assi 143
16.1. Centro e diametri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
16.2. Assi di una conica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
IV. Geometria dello spazio 149
17. Rette e piani nello spazio 151
17.1. Equazioni parametriche della retta nello spazio . . . . . . . . . . . . . . . 151
17.2. Equazione di un piano nello spazio . . . . . . . . . . . . . . . . . . . . . . 152
iv Indice
17.3. Parallelismo e perpendicolarità nello spazio . . . . . . . . . . . . . . . . . 153
17.4. La retta intersezione di due piani . . . . . . . . . . . . . . . . . . . . . . . 154
17.5. Fasci di piani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
17.6. Altri problemi su rette e piani . . . . . . . . . . . . . . . . . . . . . . . . . 157
17.6.1. Intersezione tra retta e piano . . . . . . . . . . . . . . . . . . . . . 157
17.6.2. Rette sghembe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
17.6.3. Distanze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
17.6.4. Angoli tra rette, tra piani, tra rette e piani . . . . . . . . . . . . . . 162
17.7. Simmetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
17.7.1. Simmetrie rispetto ad un punto . . . . . . . . . . . . . . . . . . . . 163
17.7.2. Simmetrie rispetto ad un piano . . . . . . . . . . . . . . . . . . . . 164
17.7.3. Simmetrie rispetto ad una retta . . . . . . . . . . . . . . . . . . . . 167
17.8. Coordinate omogenee nello spazio . . . . . . . . . . . . . . . . . . . . . . 168
18. Sui sistemi di riferimento 171
18.1. Rototraslazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
18.2. Coordinate polari e coordinate cilindriche . . . . . . . . . . . . . . . . . . 173
19. Linee e Superfici nello spazio 177
19.1. Superfici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
19.2. Linee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
20. Sfera e circonferenza nello spazio 183
20.1. La sfera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
20.2. Piani tangenti ad una sfera . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
20.3. Circonferenze nello spazio . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
20.4. Fasci di sfere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
21. Superfici rigate e di rotazione 187
21.1. Superfici rigate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
21.2. Superfici di rotazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
22. Cilindri , coni e proiezioni 191
22.1. Coni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
22.2. Cilindri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
22.3. Proiezioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
22.3.1. Riconoscimento di una conica nello spazio . . . . . . . . . . . . . 197
23. Superfici quadriche 199
23.1. Prime proprietà delle quadriche . . . . . . . . . . . . . . . . . . . . . . . . 199
23.2. Quadriche in forma canonica e loro classificazione . . . . . . . . . . . . . 200
23.3. Natura dei punti e riconoscimento di una quadrica . . . . . . . . . . . . . 206
23.3.1. Riduzione a forma canonica . . . . . . . . . . . . . . . . . . . . . . 208
23.3.2. I punti impropri delle quadriche . . . . . . . . . . . . . . . . . . . 209
Indice v
Indice analitico 212
Elenco delle figure
4.1. Matrici triangolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
7.1. Un sistema di riferimento cartesiano ortogonale . . . . . . . . . . . . . . 62
7.2. Un sistema di riferimento cartesiano ortogonale nello spazio . . . . . . . 63
7.3. La regola del parallelogrammo per la somma di vettori . . . . . . . . . . 63
11.1. Distanza di due punti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
11.2. Traslazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
11.3. Rotazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
11.4. Coordinate polari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
12.1. Tangente da P ad una circonferenza . . . . . . . . . . . . . . . . . . . . . 108
12.2. Fascio di circonferenze tangenti ad una retta . . . . . . . . . . . . . . . . 110
13.1. Le coniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
13.2. L’ellisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
13.3. L’iperbole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
13.4. La parabola . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
13.5. Esempio 13.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
13.6. Esempio 13.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
13.7. Esempio 13.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
15.1. Tangenti da un punto ad una conica . . . . . . . . . . . . . . . . . . . . . 138
15.2. Involuzione dei punti reciproci . . . . . . . . . . . . . . . . . . . . . . . . 140
15.3. Triangolo autopolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
16.1. Centro di simmetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
16.2. Centro graficamente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
16.3. Diametro coniugato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
16.4. Diametri e tangenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
17.1. Distanza di due punti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
17.2. Distanza di un punto da un piano . . . . . . . . . . . . . . . . . . . . . . 160
17.3. Distanza di un punto da una retta . . . . . . . . . . . . . . . . . . . . . . . 161
17.4. Simmetrica di una retta rispetto ad un piano . . . . . . . . . . . . . . . . 165
17.5. Simmetrico di un piano rispetto ad un piano . . . . . . . . . . . . . . . . 166
17.6. Simmetrico di un piano rispetto ad un piano parallelo . . . . . . . . . . . 167
17.7. Simmetrica di una retta rispetto ad un altra retta . . . . . . . . . . . . . . 167
viii Elenco delle figure
18.1. Coordinate polari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
18.2. Coordinate cilindriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
20.1. Circonferenza nello spazio . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
21.1. Superficie di rotazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
22.1. Cono . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
22.2. Cilindro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
22.3. Proiezione centrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
22.4. Proiezione parallela . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
23.1. Ellissoide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
23.2. Gli iperboloidi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
23.3. Paraboloide ellittico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
23.4. Paraboloide iperbolico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
Elenco delle tabelle
1. Lettere greche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xiii
2. Simboli matematici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xiv
1.1. Relazioni di equivalenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Relazioni d’ordine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3.1. Particolari matrici quadrate . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2. Proprietà della somma di matrici . . . . . . . . . . . . . . . . . . . . . . . 18
3.3. Proprietà del prodotto per uno scalare . . . . . . . . . . . . . . . . . . . . 19
3.4. Proprietà del prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . 21
4.1. Proprietà degli spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . 33
7.1. Proprietà della norma di un vettore . . . . . . . . . . . . . . . . . . . . . . 65
7.2. Proprietà della distanza di due punti . . . . . . . . . . . . . . . . . . . . . 65
7.3. Proprietà del prodotto scalare . . . . . . . . . . . . . . . . . . . . . . . . . 66
7.4. Proprietà delle forme bilineari . . . . . . . . . . . . . . . . . . . . . . . . . 69
13.1. Le forme canoniche dell’equazione di una conica . . . . . . . . . . . . . . 119
23.1. Forma canonica delle quadriche specializzate . . . . . . . . . . . . . . . . 201
23.2. Forma canonica delle quadriche non specializzate . . . . . . . . . . . . . 202
23.3. Riconoscimento di una quadrica non degenere . . . . . . . . . . . . . . . 207
Prefazione
MATHEMATICS
is one of essential emanations of the
human spirit – a thing to be valued in
and for itself – like art or poetery
1
.
Oswald Veblen-1924
2
Queste dispense contengono elementi di algebra lineare, con particolare riguardo
all’algebra delle matrici ed agli spazi vettoriali e di geometria analitica nel piano e nello
spazio in particolare lo studio delle coniche e delle quadriche, vi sono inoltre dei cenni
di geometria proiettiva; esse rispecchiano fedelmente il corso da me tenuto presso la
sede di Cremona del Politecnico di Milano. Sono corredate da numerosi esempi: alcuni
di applicazione della teoria svolta, altri di approfondimento della stessa.
In questa seconda edizione, oltre a correggere numerosi errori, sono stati aggiunti
i capitoli sulla polarità piana e sulle proprietà di centro ed assi di una conica; è stato
inoltre aggiunto l’indice analitico.
Consigli per affrontare meglio i corsi universitari di Matematica
COSE DA non FARE:
i) non studiare su appunti presi da altri: generalmente ciascuno prende
appunti a modo suo, mettendo in luce le cose che per lui sono più importanti
o più difficili: di solito queste non coincidono con quelle che a noi sembrano
più importanti o per noi sono più difficili;
ii) non studiare sui testi di scuola superiore: per bene che vada sono impostati
in maniera diversa e/o incompleti;
iii) non imparare a memoria le formule o le dimostrazioni dei teoremi: la
memoria tradisce molto più frequentemente del ragionamento: imparare a
ricostruirle;
iv) non aver paura di fare domande, ovviamente nei momenti opportuni: siete
qui apposta per imparare;
2
LA MATEMATICA è una delle essenziali emanazioni dello spirito umano, una cosa che va valutata in sè
e per sè, come l’arte o la poesia.
2
Oswald Veblen- 24 June 1880 Decorah, Iowa, USA–10 Aug 1960 Brooklyn, Maine, USA.
xii Prefazione
v) durante le lezioni non prendere freneticamente appunti: quello che spiega
il docente di solito c’è sui libri o sulle dispense, viceversa prendendo male
gli appunti c’è un alto rischio di perdere il filo della lezione;
vi) durante le esercitazioni non ricopiare pedissequamente la risoluzione degli
esercizi;
vii) non scoraggiarsi se, soprattutto all’inizio, sembra di non capire o sembra
che il docente “vada troppo in fretta,” seguendo i consigli si acquista presto
il ritmo;
viii) non perdere tempo: il fatto che all’università non ci siano compiti in classe
e interrogazioni è una grande tentazione per rimandare il momento in cui
“mettersi sotto” a studiare.
COSE DA FARE:
i) Precedere sempre la lezione: cercare di volta in volta sui libri gli argomenti
che il docente tratterà nella prossima lezione e cominciare a leggerli per
avere un’idea di che cosa si parlerà. In questo modo la lezione sarà più
efficace e chiarirà molti dei dubbi e delle perplessità rimaste.
ii) Iniziare a studiare dal primo giorno. La Matematica, soprattutto all’inizio,
necessita di una lunga “digestione”: di un ripensamento critico che non si
può fare all’ultimo momento.
iii) Studiare sempre con carta e penna a portata di mano, per poter rifare conti,
dimostrazioni, figure ecc.
iv) Se proprio si vuole farlo imparare a prendere appunti senza perdere il filo del
discorso: appuntare solo i concetti base su cui poi riflettere e ricostruire da
soli l’argomento; a esercitazioni appuntare solo il testo dell’esercizio ed il
risultato finale e rifarlo per conto proprio.
v) Imparare a rifare le dimostarzioni dei teoremi soffermandosi a riflettere sul
ruolo che giocano le varie ipotesi del teorema, magari creando controesempi
di situazioni in cui una o più delle ipotesi non valgono.
vi) Ricordarsi che per imparare la matematica occorre far funzionare il cervello,
e questo costa sempre un certo sforzo.
La tabella 1 a pagina xiii fornisce un elenco di tutte le lettere greche, maiuscole
e minuscole, con il loro nome in italiano
Mentre la tabella 2 a pagina xiv elenca i simboli maggiormente usati nel testo
BUON LAVORO!
xiii
Tabella 1. Lettere greche
minuscole maiuscole nome
α A alfa
β B beta
γ Γ gamma
δ ∆ delta
o ε E epsilon
ζ Z zeta
η H eta
θ o ϑ Θ theta
ι I iota
κ K kappa
λ Λ lambda
µ M mi
ν N ni
ξ Ξ csi
o O omicron
π Π pi
ρ o R ro
σ o ς Σ sigma
τ T tau
υ Υ ipsilon
φ o ϕ Φ fi
χ X chi
ψ Ψ psi
ω Ω omega
xiv Prefazione
Tabella 2. Simboli matematici
N insieme dei numeri naturali
Z insieme dei numeri interi
Q insieme dei numeri razionali
R insieme dei numeri reali
C insieme dei numeri complessi
∀ per ogni
∃ esiste
∃! esiste un unico
∈ appartiene ad un insieme
∪ unione di insiemi
∩ intersezione di insiemi
∑ somma
∏ prodotto
⊥ perpendicolare
', ` prodotto scalare
∞ infinito
℘ insieme delle parti
< minore
> maggiore
≤ minore o uguale
≥ maggiore o uguale
⊂ sottoinsieme proprio
⊆ sottoinsieme
⊕ somma diretta di insiemi
Ø insieme vuoto
Parte I.
Algebra lineare
1. Richiami di nozioni essenziali
In questo capitolo richiamiamo alcuni concetti e proprietà fondamentali, di cui
faremo largo uso nel seguito e che dovrebbero essere noti ed acquisiti dagli studi
precedenti. Pertanto questo capitolo va letto con attenzione e non saltato a pie’
pari. Se sussiste anche il minimo dubbio, lo studente deve correre rapidamente
ai ripari, riprendendo in mano i testi della scuola superiore.
1.1. Gli insiemi
Il concetto di insieme è un concetto primitivo. Diciamo che l’elemento a appar-
tiene all’insieme A e scriviamo a ∈ A se a è un elemento di A. Indichiamo con
il simbolo ∅ l’insieme vuoto cioè privo di elementi.
1
Due insiemi sono uguali se
sono formati dagli stessi elementi, indipendentemente dall’ordine.
Si dice che B è sottoinsieme di A e si scrive B ⊆ A se tutti gli elementi di B sono
anche elementi di A, in simboli
B ⊆ A ⇐⇒ ∀a ∈ B: a ∈ B ⇒ a ∈ A (1.1)
Se B = A e vale la (1.1), B si chiama sottoinsieme proprio di A e si scrive B ⊂ A.
È noto che l’insieme vuoto si considera sottoinsieme di ogni insieme, cioè che
∅ ⊆ A ∀A
Se A e B sono sottoinsiemi di uno stesso insieme U, si definisce
unione di A e B l’insieme C = A ∪ B tale che ∀a ∈ A e ∀b ∈ B sia
C ≡ ¦c[ c ∈ A oppure c ∈ B¦
cioè C è formato dagli elementi che appartengono ad A
oppure a B.
intersezione di A e B l’insieme C = A ∩ B tale che
C ≡ ¦c[ sia c ∈ A, sia c ∈ B¦
cioè C è l’insieme degli elementi che appartengono sia ad
A sia a B.
differenza tra A e B è l’insieme C = A ` B se C = ¦c[ c ∈ A, c ∈ B¦ cioè
l’insieme degli elementi di A che non appartengono a B.
Due insiemi tali che A ∩ B = ∅ si chiamano disgiunti.
1
Attenzione, questo simbolo è quello dell’insieme vuoto e non va usato per indicare lo 0 zero!’
4 Richiami di nozioni essenziali
1.2. Relazioni
Ricordiamo che in un insieme A è definita una relazione di equivalenza 1 se,
qualsiansi siano gli elementi a, b, c ∈ A, valgono le proprietà elencate nella
tabella 1.1
Tabella 1.1. Relazioni di equivalenza
a 1a riflessiva
a 1b ⇐⇒ b 1a simmetrica
a 1b e b 1c ⇒ a 1c transitiva
Per esempio è di equivalenza la relazione di parallelismo tra rette nel piano,
pur di considerare parallele anche due rette coincidenti, mentre non lo è quella
di perpendicolarità. (perché?)
Se in un insieme A è definita una relazione di equivalenza 1 chiamiamo
classe di equivalenza dell’elemento a l’insieme di tutti gli elementi di A che sono
equivalenti ad a. L’insieme di tutte le classi di equivalenza di A si chiama insieme
quoziente di A rispetto a 1.
Esempio 1.1. Per esempio, nell’insieme delle frazioni, la relazione
a
b
1
ka
kb
(k = 0)
è una relazione di equivalenza. I numeri razionali si possono definire come l’insieme
quoziente dell’insieme delle frazioni rispetto a 1 nel senso che il numero 0.5 rappresenta
tutta la classe di frazioni equivalenti ad
1
2
.
Esempio 1.2. La relazione di parallelismo definisce una direzione: passando al quoziente,
nell’insieme delle rette, rispetto alla relazione di parallelismo, si ottiene la direzione di
una retta.
In un insieme A è definita una relazione di ordine _ se per ogni a, b, c ∈ A
valgono le proprietà della tabella 1.2.
Tabella 1.2. Relazioni d’ordine
1. a _ b oppure b _ a proprietà di dicotomia
2. a _ a proprietà riflessiva
3. a _ b e b _ a ⇒ a = b proprietà antisimmetrica
4. a _ b e b _ c ⇒ a _ c proprietà transitiva
1.3 Il simbolo di sommatoria 5
Un insieme in cui valgono tutte le proprietà elencate nella tabella 1.2 nella
pagina precedente si chiama totalmente ordinato; in esso, data una qualunque
coppia a e b di elementi, in virtù della proprietà di dicotomia, si può sempre dire
se a _ b oppure b _ a cioè, come si suol dire, tutti gli elementi sono confrontabili.
Esistono, però, insiemi in cui è definita una relazione d’ordine cosiddetta parziale,
in cui non vale la proprietà 1 di dicotomia, cioè in cui non tutte le coppie di
elementi sono confrontabili, come mostra il seguente
Esempio 1.3. Nell’insieme N dei numeri naturali, diciamo che a _ b se a divide b.
Questa è una relazione d’ordine parziale, infatti valgono le proprietà 2.. . . 4. –verificarlo
per esercizio– ma non è totale perché esistono coppie di numeri non confrontabili, ad
esempio 3 e 5 non sono confrontabili, perché nè 3 divide 5, nè, viceversa, 5 divide 3.
1.3. Il simbolo di sommatoria
Spesso in Matematica una somma di più addendi viene indicata con il simbolo

,
in cui gli addendi sono indicati da una lettera dotata di un indice numerico
arbitrario, ad esempio
5

1
a
i
=

5
j=1
a
j
.
Le seguenti scritture sono equivalenti:
6

i=3
x
i
,
6

k=3
x
k
,
7

n=4
x
n−1
,
e rappresentano la somma x
3
+ x
4
+ x
5
+ x
6
.
L’indice di sommatoria può essere sottinteso, quando è chiaro dal contesto.
Dalle proprietà formali delle operazioni di somma e prodotto seguono subito
queste uguaglianze:
n

i=1
mx
i
= m
n

i=1
x
i
e
n

i=1
(x
i
+ y
i
) =
n

i=1
x
i
+
n

i=1
y
i
.
Si considerano spesso anche somme su più indici, per esempio

i=1...2
k=1...3
a
ik
che equivale a
a
11
+ a
12
+ a
13
+ a
21
+ a
22
+ a
23
6 Richiami di nozioni essenziali
e si verifica subito che è

i=1...2
k=1...3
a
ik
=
2

i=1

3

k=1
a
ik

=
3

k=1

2

i=1
a
ik

1.4. Il principio di induzione
Un procedimento di dimostrazione molto usato in Matematica, ed a cui ricor-
reremo diverse volte, è quello basato sul principio di induzione. Esso è soprattutto
adatto per dimostrare proprietà che dipendono dai numeri naturali.
DEFINIZIONE 1.1. Sia P
n
una proposizione che dipende da un numero naturale
n. Se
i) P
1
è verificata
ii) P
n
è vera
iii) P
n+1
è vera ogni volta che è vera P
n
allora P
n
è vera per qualunque numero naturale n.
Vediamo qualche semplicissimo esempio.
Esempio 1.4. Consideriamo i primi n numeri dispari e verifichiamo che per ogni intero
n si ha
1 +3 +5 + + (2n −1) = n
2
. (1.2)
La ( 1.2) è ovviamente vera per n = 1, quindi P
1
è vera. Supponiamo ora che essa sia vera
per un certo n = k, cioè che la somma dei primi k numeri dispari sia k
2
e dimostriamo
che in questo caso è vera anche per k +1. Per n = k +1 la ( 1.2) diventa
1 +3 +5 + + (2(k +1) −1) = (1 +3 +5 + +2k −1)
. .. .
k
2
+2k +1
1.2
=
k
2
+2k +1 = (k +1)
2
.
Dunque abbiamo fatto vedere che se la somma di k numeri dispari è k
2
ne segue che
quella di k +1 è (k +1)
2
. Essendo vera per k = 1 lo è per k = 2 quindi per k = 3 e così
via per ogni n.
Esempio 1.5. Vogliamo far vedere che
1 +2 +3 + + n =
n(n +1)
2
(1.3)
1.5 Un po’ di calcolo combinatorio 7
Per n = 2 la (1.3) è ovviamente vera; supponiamo che sia vera per n = k e dimostriamo
che in tal caso è vera anche per n = k +1. Infatti si ha:
1 +2 +3 + + k + (k +1) =
k(k +1)
2
+ k +1 =
=
k(k +1) +2k +2
2
=
k
2
+3k +2
2
=
(k +1)(k +2)
2
.
1.5. Un po’ di calcolo combinatorio
Come è noto, si chiama fattoriale di n (n > 1) e si scrive n! il prodotto dei primi
n interi
n! = 1 2 3 (n −1) n
e si pone, per definizione, 1! = 1 = 0!
1.5.1. Permutazioni
DEFINIZIONE 1.2. Si chiama permutazione di n oggetti un qualsiasi allineamen-
to di questi oggetti.
Per esempio contiamo quante sono le permutazioni delle tre lettere ¦a, b, c¦;
elenchiamole:
¦abc¦ ¦acb¦ ¦bac¦ ¦bca¦ ¦cab¦ ¦cba¦ quindi P
3
= 6
Generalizzando, quante sono le permutazioni P
n
di n oggetti? Osserviamo che
il primo oggetto si può scegliere in n modi diversi, mentre per il secondo, una
volta scelto il primo, posso operare n −1 scelte, per il terzo le scelte sono n −2 e
così via, quindi
P
n
= n! (1.4)
Consideriamo ora un’insieme I di n elementi. Scegliamo una permutazione f
degli elementi di I che considereremo fondamentale. Sia ora p = ¦x
1
, x
2
, . . . , x
n
¦
un’altra permutazione. Se accade che due elementi si succedano in p in ordine
inverso rispetto a come si succedono in f diciamo che essi formano una inversione
o uno scambio rispetto ad f . Una permutazione p si dice di classe pari rispetto
alla permutazione scelta come fondamentale f , se presenta un numero pari di
scambi, di classe dispari in caso opposto.
OSSERVAZIONE 1.1. Poiché scambiando due elementi si passa da una permu-
tazione di classe pari ad una di classe dispari, il numero delle permutazioni di
classe pari è uguale a quello delle permutazioni di classe dispari, cioè
n!
2
. Si può
anche notare che se una permutazione p è di classe pari rispetto ad una permuta-
zione fondamentale f , essa è di classe pari rispetto a qualunque permutazione q
a sua volta di classe pari rispetto ad f . 2
8 Richiami di nozioni essenziali
1.5.2. Permutazioni con ripetizione
Consideriamo ora il caso in cui gli n oggetti non siano tutti distinti, per esempio
consideriamo i 7 oggetti a
1
, a
2
, b
1
, b
2
, b
3
, c, d. Le permutazioni sono 7! = 5040 ma
sei i tre oggetti b coincidono avremo 3! permutazioni non distinguibili, quindi
il numero diminuirà a
7!
3!
=
5040
6
= 840; se inoltre sono uguali anche i due
elementi a abbiamo
7!
3! 2!
= 420.
Generalizzando, consideriamo l’insieme X ≡ ¦x
1
, x
2
, . . . , x
m
¦ se sappiamo che
l’oggetto x
1
è ripetuto n
1
volte, l’oggetto x
2
è ripetuto n
2
volte e così via (con
m

i=1
n
i
= n) si ha
P

=
n!
n
1
!n
2
! n
m
!
(1.5)
Nel caso particolare in cui fra gli n oggetti ce ne siano k uguali tra loro e gli altri
n −k pure uguali tra loro (ma non ai precedenti) la formula ( 1.5) diventa
P

n!
k!(n −k)!
1.5.3. Combinazioni e disposizioni
Se abbiamo n oggetti e vogliamo suddividerli in gruppi di k oggetti ognuno di
questi raggruppamenti si chiama combinazione di n oggetti a k a k se due di questi
raggruppamenti sono diversi quando differiscono per almeno un oggetto. Si
chiama invece disposizione di n oggetti a k a k ognuno di questi raggruppamenti
quando consideriamo diversi due di essi non solo se differiscono per almeno
un oggetto, ma anche se contengono gli stessi oggetti in ordine differente. Se
indichiamo rispettivamente con C
n,k
e D
n,k
il numero delle combinazioni e quello
delle disposizioni di n oggetti a k a k, dalla definizione segue subito che si ha
D
n,k
= k!C
n,k
Ripetendo il ragionamento fatto per determinare il numero delle permutazioni,
si ricava immediatamente che
D
n,k
= n(n −1)(n −2) (n −k +1)
e di conseguenza
C
n,k
=
n(n −1)(n −2) (n −k +1)
k!
1.5 Un po’ di calcolo combinatorio 9
moltiplicando numeratore e denominatore per (n −k)! si ottiene
C
n,k
=
n!
k!(n −k)!
=

n
k

che, come è noto, è il k–esimo coefficiente nello sviluppo della n–esima potenza
di un binomio e prende perciò il nome di coefficiente binomiale.
2. I sistemi lineari: teoria elementare
2.1. Concetti introduttivi
In questo capitolo supporremo sempre, salvo esplicito avviso contrario, di
trovarci nel campo reale R.
Un’equazione di primo grado è anche detta lineare; se è in una sola incognita
essa si può sempre porre nella forma
ax + b = 0 (2.1)
A questo punto notiamo che:
Se a = 0 essa ammette sempre l’unica soluzione x = −
b
a
;
se a = 0 e b = 0 non ammette soluzioni, mentre
se a = 0 e b = 0 essa è soddisfatta da ogni valore di x, quindi è più propriamente
un’identità.
Se, invece, un’equazione lineare ha due variabili le soluzioni sono in generale
infinite; per esempio consideriamo l’equazione
x + y = 1 (2.2)
essa ammette come soluzione la coppia x = 1, y = 0, la coppia x = 0, y = 1,
la coppia x =
1
2
, y =
1
2
. . . , e quindi, in generale, tutte le infinite coppie tali che
x = t, y = 1 − t ∀t ∈ R. Questa scrittura significa che per ogni valore del
parametro t esiste una soluzione
1
.
Sappiamo anche che una tale equazione rappresenta, nel piano riferito ad una
coppia di assi cartesiani ortogonali, una retta, i cui infiniti punti hanno coordinate
che sono le soluzioni dell’equazione.
Se ora consideriamo, accanto alla (2.2) anche l’equazione x −y = 1 e ci propo-
niamo di trovare, se esistono, dei valori di x e y che soddisfanno entrambe le equa-
zioni, abbiamo quello che si chiama un sistema lineare che si indica abitualmente
con la scrittura

x + y = 1
x −y = 0
. (2.3)
1
Attenzione, ogni soluzione è formata da una coppia ordinata di numeri reali.
12 I sistemi lineari: teoria elementare
Quindi un sistema di equazioni è, in generale, un insieme di equazioni di cui
si cercano le eventuali soluzioni comuni; un sistema si chiama lineare se tutte le
equazioni da cui è composto sono lineari.
Nel caso del sistema (2.3) si vede facilmente che la coppia

x =
1
2
, y =
1
2
¸
soddisfa entrambe le equazioni, quindi è una soluzione del sistema. Non è
difficile rendersi conto che essa è unica
2
.
Possono però accadere altri casi: consideriamo per esempio il sistema

x + y = 1
x + y = 2
(2.4)
È chiaro che le due equazioni si contraddicono l’una con l’altra, quindi il sistema
è impossibile. Nell’interpretazione geometrica data nella nota 2, le due rette le
cui equazioni formano il sistema (2.4) sono parallele, di conseguenza non hanno
alcun punto in comune.
Un altro caso è rappresentato, per esempio, dal sistema

x + y = 1
2x +2y = 2
(2.5)
In questo sistema appare chiaro che le due equazioni coincidono nel senso
che tutte le coppie soluzione della prima equazione lo sono anche della seconda,
quindi questo sistema ammette infinite soluzioni
3
.
Queste considerazioni si possono generalizzare al caso di sistemi con un
numero qualunque (finito) di incognite. Parleremo allora, nel caso generale, di
un sistema di m equazioni in n incognite
4
.

a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
= b
2
. . . . . . . . .
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
= b
m
(2.6)
La notazione che abbiamo usato nella (2.6) è la cosiddetta notazione a doppio
indice. Le incognite sono x
1
. . . x
n
i termini noti sono b
1
. . . b
m
.
Dagli esempi visti si può concludere che un sistema lineare di m equazioni in
n incognite può appartenere ad una ed una sola delle seguenti categorie:
2
Dal punto di vista geometrico basta pensare che in un sitema di riferimento cartesiano ortogonale le
equazioni lineari rappresentano rette, quindi esse, se si incontrano, hanno esattamente un punto in
comune.
3
Qui le due rette coincidono.
4
L’interpretazione geometrica, nel caso di più di due incognite non è così immediata.
2.2 Risoluzione di un sistema 13
sistema possibile questo a sua volta presenta due possibilità:
una sola soluzione costituita da una n–pla di valori.
infinite soluzioni dipendenti ciascuna da uno o più pa-
rametri, soluzioni che si possono deter-
minare assegnando opportuni valori ai
parametri.
5
sistema impossibile non esistono soluzioni comuni alle varie equazioni.
Ci proponiamo, oltre che di imparare a risolvere un sistema lineare, anche di
imparare a discuterlo, cioè a scoprire a priori (quindi senza doverlo risolvere), se è
risolubile o no, e quante sono le sue soluzioni.
2.2. Risoluzione di un sistema
Nelle scuole superiori avete imparato a risolvere semplici sistemi lineari con
vari metodi, che si basano tutti sull’idea di fondo che è quella di trovare un
sistema che abbia le stesse soluzioni di quello dato ma sia scritto in una forma
più semplice.
DEFINIZIONE 2.1. Due sistemi lineari di m equazioni in n incognite si dicono
equivalenti se hanno le stesse soluzioni, cioè se ogni n–pla che è soluzione dell’uno
lo è anche dell’altro.
Ad esempio i sistemi

x +3y = 7
2x −y = 0

(1 +6)x = 7
y = 2x

x = 1
y = 2
sono equivalenti, come si verifica facilmente.
Un’ottima tecnica per risolvere un sistema lineare è quella di trovare un si-
stema equivalente a quello dato ma con una struttura più semplice. Vedremo
nei prossimi capitoli come si possa passare da un sistema lineare ad uno equiva-
lente basandoci sull’osservazione che un sistema è definito quando sono dati i
vari coefficienti nelle rispettive posizioni: per far questo nel prossimo capitolo
introdurremo il concetto di matrice.
5
Talvolta chiamato impropriamente sistema indeterminato; locuzione che può trarre in inganno in quanto le
soluzioni, pur essendo infinite, possono essere determinate.
3. Matrici
Esistono molti metodi per applicare la strategia esposta alla fine del capitolo 2,
per la maggior parte dei quali è comodo introdurre uno strumento matematico
molto potente ed utilizzato nei più svariati campi della Matematica e di tutte le
Scienze: il calcolo matriciale.
3.1. Nomenclatura e prime operazioni
Osserviamo che un sistema è completamente determinato quando siano dati i
coefficienti ed i termini noti, nelle loro rispettive posizioni. Ad esempio, riferendoci
al sistema ( 2.6 a pagina 12), per tener conto dei coefficienti e delle loro posizioni
possiamo scrivere la tabella:
A =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
¸
¸
¸
¸
(3.1)
che chiamiamo matrice dei coefficienti e i termini noti possiamo incolonnarli
B =

b
1
b
2
.
.
.
b
m
¸
¸
¸
¸
ottenendo la matrice (o vettore) dei termini noti.
È anche importante, come vedremo, la matrice
C =

a
11
a
12
. . . a
1n
b
1
a
21
a
22
. . . a
2n
b
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
b
m
¸
¸
¸
¸
(3.2)
detta anche matrice completa, costruita a partire dalla A accostandole a destra la
colonna B dei termini noti, possiamo anche scrivere C = [A[B].
Più in generale chiamiamo matrice di tipo (m, n) una tabella di numeri, reali o
complessi, organizzata in m righe e n colonne. Indicheremo sempre, da ora in
16 Matrici
poi, le matrici con lettere latine maiuscole e gli elementi con lettere minuscole
dotate eventualmente di due indici che ne individuano la posizione nella tabella,
ad esempio scriveremo A = [a
ik
] dove 1 ≤ i ≤ m e 1 ≤ k ≤ n. L’elemento a
ik
sarà allora l’elemento che appartiene alla i–esima riga e alla k–esima colonna.
Ad esempio nella matrice A =

1 2 3
3 4 5
5 6 7
¸
¸
si ha a
32
= 6, in quanto il numero 6
è nella posizione (3, 2) cioè appartiene alla terza riga ed alla seconda colonna,
allo stesso modo si ha: a
23
= a
31
= 5.
Osserviamo che in alcuni testi le matrici sono indicate con

a b
c d

cioè con le
parentesi tonde, anzichè con
¸
a b
c d

.
Due matrici sono uguali quando sono dello stesso tipo e sono formate dagli
stessi elementi nelle stesse posizioni; formalmente scriviamo che se A = [a
ik
]
e B = [b
ik
] sono due matrici, A = B se e solo se sono dello stesso tipo e se
a
ik
= b
ik
∀i, k.
Come controesempio consideriamo le matrici
¸
1 2
3 4

e
¸
2 1
3 4

; esse, pur essen-
do formate dagli stessi elementi, non sono uguali.
Una matrice di tipo (m, n) in cui m = n, cioè in cui il numero delle righe è
uguale a quello delle colonne, si chiama quadrata di ordine n.
Se A = [a
ik
] è una matrice di tipo (m, n) chiamiamo trasposta di A la matrice
A
T
, di tipo (n, m) ottenuta scambiando ordinatamente le righe con le colonne
1
,
dunque B è la trasposta di A se b
ik
= a
ki
∀i, k.
Ad esempio se A =

1 2
3 4
5 6
¸
¸
si avrà A
T
=
¸
1 3 5
2 4 6

; ovviamente la trasposta
di una matrice di tipo (m, n) è una matrice di tipo (n, m) e la trasposta di una
matrice quadrata di ordine n è ancora quadrata dello stesso ordine. Sussiste
anche la proprietà (A
T
)
T
= A, cioè la trasposta della trasposta di una matrice A
è ancora la matrice A. La semplice dimostrazione di questa proprietà è lasciata
come esercizio al lettore.
Se A = A
T
(il che implica che A sia quadrata, dimostrarlo per esercizio)
diciamo che A è simmetrica; se invece A = −A
T
diciamo che A è emisimmetrica
2
.
1
La notazione A
T
per la trasposta di una matrice A non è univoca: a volte la trasposta viene indicata con
A
t
o con
t
A o anche con A
t
o in altri modi. Noi useremo sempre la notazione A
T
.
2
Qui, come faremo d’ora in poi, abbiamo indicato con −A (leggere, ovviamente, meno A) la matrice che si
ottiene da A cambiando segno a tutti i suoi elementi.
3.1 Nomenclatura e prime operazioni 17
Gli elementi a
ik
con i = k si chiamano elementi principali o elementi appartenenti
alla diagonale principale e la loro somma si chiama traccia della matrice, si indica
con trA e si ha quindi
trA =
n

1
a
ii
.
Per esempio se A è la matrice
¸
1 0
2 −3

la sua traccia è trA = 1 −3 = −2.
Sia ora A una matrice quadrata di ordine n; nella tabella 3.1 definiamo alcune
particolari matrici quadrate.
Tabella 3.1. Particolari matrici quadrate
diagonale se a
ik
= 0 per ogni i = k;
scalare se è diagonale e gli elementi principali (cioè gli
elementi a
ii
) sono uguali tra loro;
unità se è scalare e ∀i, a
ii
= 1; la indicheremo con I,
sottintendendo l’ordine quando non c’è ambiguità;
triangolare inferiore se ∀i > k si ha a
ik
= 0 cioè se tutti gli elementi al di
sopra della diagonale principale sono nulli;
triangolare superiore se ∀i < k si ha a
ik
= 0 cioè se tutti gli elementi al di
sotto della diagonale principale sono nulli.
Osserviamo esplicitamente che non si fà nessuna ipotesi sugli elementi princi-
pali di una matrice diagonale o triangolare: essi potrebbero a loro volta essere
tutti o in parte nulli.
Esempio 3.1. La matrice A =

1 0 0
0 0 0
0 0 9
¸
¸
è una matrice diagonale, mentre la ma-
trice B =

−2 0 0
0 −2 0
0 0 −2
¸
¸
è una matrice scalare e C =

3 0 0
1 2 0
0 2 0
¸
¸
è una matrice
triangolare.
Osserviamo anche che una matrice diagonale è sia triangolare inferiore sia
triangolare superiore.
18 Matrici
3.2. Operazioni sulle matrici
Ci proponiamo, in questo paragrafo, di introdurre un’“Algebra delle matrici”,
cioè di imparare a fare dei conti con le matrici; iniziamo con la somma di due
matrici.
3.2.1. Somma di matrici
Se A = [a
ik
] e B = [b
ik
] sono due matrici dello stesso tipo, diciamo che C = [c
ik
]
(dello stesso tipo di A e B) è la somma di A e B e scriviamo C = A + B se ogni
elemento di C è la somma degli elementi corrispondenti di A e B, cioè se si ha,
c
ik
= a
ik
+ b
ik
; ∀i, k.
La somma di matrici gode delle proprietà elencate nella tabella 3.2 nella quale
Tabella 3.2. Proprietà della somma di matrici
i) A + (B + C) = (A + B) + C proprietà associativa
ii) A + B = B + A proprietà commutativa
iii) A +0 = A esistenza elemento neutro
iv) A + (−A) = 0 esistenza opposto
v) (A + B)
T
= A
T
+ B
T
A e B sono matrici dello stesso tipo, e dove abbiamo indicato con 0 la matrice che
ha tutti gli elementi nulli che chiameremo matrice nulla. La verifica delle proprietà
della somma di matrici è quasi immediata e costituisce un utile esercizio per il
lettore volenteroso.
OSSERVAZIONE 3.1. Attenzione! non confondere il numero zero 0 con la matri-
ce zero (o matrice nulla), che noi indicheremo sempre col simbolo 0 (in grassetto);
osserviamo però che in alcuni testi ma soprattutto nella scrittura a mano, essa
viene spesso indicata con 0. 2
A proposito di simbologia ricordiamo che il simbolo ∅ indica l’insieme vuoto — cioè
l’insieme privo di elementi — ed unicamente a tale scopo va riservato e non il
numero 0, come invece molti hanno l’abitudine di fare. Questa confusione tra simboli
diversi rappresenta una pessima abitudine da perdere nel minor tempo possibile.
OSSERVAZIONE 3.2. La somma di matrici si estende facilmente al caso di un
numero qualsiasi di matrici, ed in modo analogo si estendono le proprietà
elencate nella tabella 3.2.2
3.2 Operazioni sulle matrici 19
3.2.2. Prodotto per uno scalare
Si introduce anche un prodotto esterno o prodotto per
3
uno scalare, prodotto tra
un numero ed una matrice: se α è un numero (o più precisamente uno scalare
4
) e
A = [a
ik
] è una matrice, si ha B = αA se
b
ik
= αa
ik
, ∀i, k.
Ovviamente, per il prodotto per uno scalare, valgono le proprietà elencate nella
tabella 3.3.
Tabella 3.3. Proprietà del prodotto per uno scalare
i) α0 = 0 = 0A;
ii) 1A = A;
iii) (αβ)A = α(βA) = β(αA);
iv) (α + β)A = αA + βA;
v) α(A + B) = αA + βB;
vi) αA = 0 =⇒ α = 0 oppure A = 0.
3.2.3. Combinazioni lineari di matrici
Le due operazioni di somma e di prodotto per uno scalare si combinano
nella definizione di combinazione lineare di matrici del tutto analoga a quella di
combinazione lineare di vettori che riprenderemo nel capitolo 4.
DEFINIZIONE 3.1. Siano date n matrici dello stesso tipo A
1
, A
2
, . . . , A
n
ed n
scalari. α
1
, α
2
, . . . , α
n
. Diciamo che la matrice B è combinazione lineare delle A
i
con
coefficienti α
i
se
B =
n

i=1
α
i
A
i
(3.3)
Ovviamente la combinazione lineare (3.3) dà la matrice nulla se tutti gli α
i
sono nulli.
DEFINIZIONE 3.2. Se una combinazione lineare di n matrici dà la matrice nulla
anche se non sono tutti nulli i coefficienti, cioè se
0 =
n

i=1
α
i
A
i
con qualche α
i
= 0
3
Attenzione, esiste anche il prodotto scalare –v. § 7.2.2 a pagina 65– da non confondere con quello che
introduciamo qui
4
Il termine “scalare” nasce dal fatto che, generalizzando, le matrici si possono definire su un campo
qualsiasi K, non necessariamente un campo numerico come R o C e da qui il nome di scalare, che indica
un elemento del campo K.
20 Matrici
diciamo che le matrici sono linearmente indipendenti. In caso contrario, cioè se
posso ottenere la matrice nulla solo se tutti i coefficienti sono nulli, diciamo che
le matrici sono linearmente dipendenti.
Sul concetto di dipendenza lineare sussiste il fondamentale
Teorema 3.1. Siano A
1
, A
2
, . . . , A
k
k matrici dello stesso tipo, esse sono linearmente
dipendenti se e solo se almeno una di esse si può scrivere come combinazione lineare delle
altre.
Dimostrazione. Se le matrici A
1
, . . . , A
k
sono linearmente dipendenti, allora esiste
una loro combinazione lineare che dà la matrice nulla senza che tutti i coefficienti
siano nulli, cioè α
1
A
1
+ α
2
A
2
+ + α
k
A
k
= 0. In virtù della proprietà commu-
tativa, possiamo supporre, senza ledere la generalità, che almeno α
1
= 0; allora
possiamo scrivere A
1
= −
1
α
1

2
A
2
+ + α
k
A
k
), quindi A
1
è combinazione
lineare delle rimanenti, e si ha: A
1
= −
k

i=2
α
i
α
1
A
i
.
Viceversa supponiamo che A =
k

i=2
α
i
A
i
, allora la combinazione lineare
A −α
2
A
2
− −α
k
A
k
= 0
dà la matrice nulla, ed almeno il primo coefficiente, quello di A, è diverso da
zero, dunque le matrici sono linearmente dipendenti.
3.2.4. Prodotto tra matrici
Il prodotto di matrici è un operazione meno intuitiva delle due precedenti.
Siano A e B, prese nell’ordine dato, due matrici di tipi rispettivamente (m, p) e
(p, n); diciamo prodotto righe per colonne o semplicemente prodotto delle matrici
A e B, nell’ordine dato, la matrice C = AB = [c
ik
] di tipo (m, n) se l’elemento
generico c
ik
è la somma dei prodotti degli elementi della i–esima riga di A per
gli elementi della k–esima colonna di B cioè
c
ik
=
p

j=1
a
ij
b
jk
OSSERVAZIONE 3.3. La definizione di prodotto di una matrice Aper una matrice
B implica che il numero delle colonne della prima matrice deve coincidere con il
numero delle righe della seconda; diciamo, in tal caso, che A è conformabile con
B.2
3.2 Operazioni sulle matrici 21
Esempio 3.2. Siano A(2, 2) =
¸
a b
c d

e B(2, 3) =
¸
x y z
u v w

allora A è conformabile
con B e si ha
C(2, 3) = AB =
¸
ax + bu ay + bv az + bw
cx + du cy + dv cz + dw

OSSERVAZIONE 3.4. Si vede subito che, in generale, se A è di tipo (m, p) e B è
di tipo (p, n) il prodotto AB è una matrice di tipo (m, n), mentre il prodotto BA
non ha senso, perché B non è conformabile con A. Se A è di tipo (n, p) e B di tipo
(p, n) il prodotto si può fare nei due sensi, ma dà luogo a due matrici quadrate
certamente diverse: infatti una è di ordine n ed una di ordine p. Infine, anche nel
caso in cui A e B siano entrambe quadrate dello stesso ordine n il prodotto AB
ed il prodotto BA, pur essendo entrambe matrici quadrate ancora di ordine n,
non sono, in generale, uguali, come mostra il seguente
Esempio 3.3. Se A =
¸
0 0
0 1

e B =
¸
0 0
1 0

si verifica subito che è
AB =
¸
0 0
1 0

ma BA =
¸
0 0
0 0

= 0 (3.4)
OSSERVAZIONE 3.5. La ( 3.4) mette in luce, oltre alla non commutatività del
prodotto di matrici, anche il fatto che per le matrici non vale la legge di annullamento
del prodotto cioè che il prodotto di due matrici può dare la matrice nulla senza che
nessuna delle due sia la matrice nulla.
Dunque per il prodotto di matrici non vale, in generale, la proprietà commutati-
va, tuttavia esistono coppie di matrici A e B tali che AB = BA: esse si chiamano
permutabili o si dice anche che commutano. Ad esempio la matrice I commuta con
tutte le matrici del suo stesso ordine.
Per il prodotto tra matrici valgono invece le proprietà elencate nella tabella 3.4;
Tabella 3.4. Proprietà del prodotto di matrici
i) A(BC) = (AB)C associativa
ii) (A + B)C = AC + BC C(A + B) = CA + CB distributive
iii) α(AB) = (αA)B = AαB = (AB)α associatività mista
iv) AI = I A = A esistenza elemento neutro
v) A0 = 0A = 0
vi) (AB)
T
= B
T
A
T
dove, ovviamente, in ciascun caso si sottintende che le uguaglianze valgono solo
se sono rispettate le conformabilità.
22 Matrici
OSSERVAZIONE 3.6. Osserviamo che il prodotto righe per colonne è in un certo
senso “privilegiato” rispetto agli altri analoghi (di ovvio significato) colonne per
righe, colonne per colonne o righe per righe, perché è l’unico dei quattro che
gode della proprietà associativa, come si verifica facilmente su esempi che il
lettore è invitato a trovare come utile esercizio
5
.
Applicando la definizione di prodotto tra matrici si vede anche che, per
esempio, il sistema 2.6 a pagina 12 si può scrivere nella forma, più comoda
Ax = b
dove Aè la matrice, di tipo (m, n), A =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
¸
¸
¸
¸
, x è una matrice di
tipo (n, 1) (matrice colonna), x =

x
1
x
2
.
.
.
x
n
¸
¸
¸
¸
e b una matrice di tipo (m, 1), b =

b
1
b
2
.
.
.
b
m
¸
¸
¸
¸
.
3.2.5. Potenza di una matrice quadrata
DEFINIZIONE 3.3. Si chiama potenza ennesima A
n
(n ∈ Z) di una matrice
quadrata A la matrice
A
n
=

A A A
. .. .
n volte
se n ≥ 2
A se n = 1
I se n = 0
Per la potenza di matrici valgono le usuali proprietà delle potenze, con l’at-
tenzione alla non commutatività del prodotto; in particolare, per esempio, si
avrà
A
m
A
n
= A
m+n
(A
m
)
n
= A
mn
;
ma in generale
(AB)
n
= A
n
B
n
così come per esempio (A ± B)
2
sarà in generale diverso da A
2
±2AB + B
2
,
a meno che, naturalmente, A e B non commutino; lo stesso si può dire per il
5
Il prodotto elemento per elemento non è soddisfacente, per esempio perché considerando i determinanti
(v. def. 5.2 a pagina 44) non sarebbe più vero il teorema 5.5 a pagina 47 che dice che il determinante di
un prodotto di matrici è uguale al prodotto dei determinanti.
3.3 Polinomi di matrici 23
prodotto (A + B)(A−B) che, nella forma A
2
−B
2
dipende essenzialmente dalla
commutatività.
Segnaliamo anche che esistono matrici non banali tali che A
2
= A e A
k
= 0;
esse si chiamano, rispettivamente, matrici idempotenti e matrici nilpotenti. Per
esempio la matrice
¸
1 1
0 0

è idempotente, mentre la matrice
¸
0 0
3 0

è nilpotente:
verificarlo per esercizio.
3.3. Polinomi di matrici
Dato un polinomio di grado n
a
0
x
n
+ a
1
x
2
+ + a
n−1
x + a
n
possiamo ora formalmente sostituire alla variabile x una matrice A ottenendo il
polinomio matriciale
a
0
A
n
+ a
1
A
2
+ + a
n−1
A + a
n
I.
Osserviamo che il “termine noto” di un polinomio corrisponde al coefficiente del
termine x
0
, da qui la sostituzione con A
0
= I. I polinomi di matrici sono molto
usati nella teoria delle matrici ed anche nelle altre Scienze.
3.4. Matrici a blocchi
Una matrice A può essere divisa, mediante linee orizzontali e/o verticali, in
sottomatrici che prendono il nome di blocchi. Naturalmente ogni matrice può
essere decomposta in blocchi in parecchi modi diversi, ad esempio la matrice
A =
¸
a b c
d e f

si può suddividere in blocchi, tra gli altri, nei seguenti modi:
¸
a b c
d e f

¸
a b c
d e f
¸ ¸
a b c
d e f
¸
Se A e B sono due matrici dello stesso tipo posso sempre suddividere entrambe
in blocchi dello stesso tipo, più precisamente possiamo supporre
A =

A
11
A
12
. . . A
1n
A
21
A
22
. . . A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
. . . A
mn
¸
¸
¸
¸
e B =

B
11
B
12
. . . B
1n
B
21
B
22
. . . B
2n
.
.
.
.
.
.
.
.
.
.
.
.
B
m1
B
m2
. . . B
mn
¸
¸
¸
¸
24 Matrici
dove le matrici A
ik
sono rispettivamente dello stesso tipo delle matrici B
ik
∀i, k.
A questo punto è ovvio, dalla definizione di somma tra matrici, che
A + B =

A
11
+ B
11
A
12
+ B
12
. . . A
1n
+ B
1n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A
m1
+ B
m1
A
m2
+ B
m2
. . . A
mn
+ B
mn
¸
¸
Allo stesso modo si può eseguire il prodotto per uno scalare a blocchi, moltipli-
cando ogni blocco per lo scalare.
Per il prodotto a blocchi, invece, occorre che le matrici siano decomposte in
blocchi a due a due conformabili, come illustra il seguente
Esempio 3.4. Siano A e B due matrici (A conformabile con B) divise a blocchi come
segue
A =

a b c
d e f
g h k
¸
¸
B =

x u
y v
z w
¸
¸
e chiamiamo
A
1
=
¸
a b
c d

A
2
=
¸
c
f

A
3
=

g h

A
4
=

k

B
1
=
¸
x
y

B
2
=
¸
u
v

B
3
=

z

B
4
=

w

allora possiamo scrivere
A =
¸
A
1
A
2
A
3
A
4

e B =
¸
B
1
B
2
B
3
B
4

ed il prodotto si può eseguire a blocchi in questo modo:
AB =
¸
A
1
B
1
+ A
2
B
3
A
1
B
2
+ A
2
B
4
A
3
B
1
+ A
4
B
3
A
3
B
2
+ A
4
B
4

come se i singoli blocchi fossero elementi delle matrici.
In generale se le matrici A e B sono decomposte in blocchi nel modo seguente
A =

A
11
A
12
. . . A
1n
A
21
A
22
. . . A
2p
.
.
.
.
.
.
.
.
.
.
.
.
A
q1
A
q2
. . . A
qp
¸
¸
¸
¸
e B =

B
11
B
12
. . . B
1r
B
21
B
22
. . . B
2r
.
.
.
.
.
.
.
.
.
.
.
.
B
p1
B
p2
. . . B
pr
¸
¸
¸
¸
ed i blocchi A
ij
sono conformabili con i blocchi B
jk
∀i, j, k allora si può eseguire a
blocchi il prodotto AB come se i singoli blocchi fossero elementi delle matrici.
3.5 Applicazioni ai sistemi lineari 25
OSSERVAZIONE 3.7. Il prodotto a blocchi è utile quando, per esempio, nelle
matrici A e/o B si possono individuare blocchi che formano la matrice nulla
oppure la matrice unità o anche nei seguenti casi:
i) Se A(m, p) e B(p, m) sono due matrici tali che A sia conformabile con B e se
indichiamo con B
1
, B
2
, . . . , B
n
le colonne di B, possiamo scrivere B a blocchi
come B =

B
1
B
2
. . . B
n

e quindi il prodotto AB si può scrivere
AB =

AB
1
AB
2
. . . AB
n

ii) Se ancora B =

B
1
B
2
. . . B
n

e D = diag(d
1
, d
2
, . . . , d
n
) allora
BD = DB =

d
1
B
1
d
2
B
2
. . . d
n
B
n

iii) Siano A e B quadrate e dello stesso ordine decomposte in blocchi nel modo
seguente
A =
¸
A
1
A
3
0 A
2

e B =
¸
B
1
B
3
0 B
2

dove A
1
e B
1
sono quadrate dello stesso ordine, allora si ha
AB =
¸
A
1
B
1
A
1
B
3
+ A
3
B
1
0 A
2
B
2

in particolare, se A
3
= B
3
= 0 si ha
¸
A
1
0
0 A
2
¸
B
1
0
0 B
2

=
¸
A
1
B
1
0
0 A
2
B
2

.
3.5. Applicazioni ai sistemi lineari
3.5.1. Equivalenza di matrici
Si chiamano operazioni elementari sulle righe (rispettivamente sulle colonne) di
una matrice le seguenti operazioni
i) scambio di due righe (colonne);
ii) moltiplicazione di una riga (colonna) per una costante k = 0;
iii) sostituzione di una riga (colonna) con la somma della riga (colonna) stessa
con un’altra moltiplicata per una costante k.
26 Matrici
DEFINIZIONE 3.4. Due matrici A e B si dicono equivalenti per righe (rispet-
tivamente per colonne) se B si ottiene da A eseguendo un numero finito di
operazioni elementari sulle righe (colonne).
Scriveremo che A ∼ B. È facile dimostrare –farlo come esercizio– che se A ∼ B
allora B ∼ A e che se A ∼ B e B ∼ C allora A ∼ C, cioè che la relazione ∼ è una
relazione di equivalenza.
Ed è importante il
Teorema 3.2. Se le matrici complete di due sistemi lineari sono equivalenti per righe
allora i sistemi sono equivalenti, cioè hanno le stesse soluzioni.
3.5.2. Risoluzione di un sistema
Vediamo ora, su un esempio, come si possa utilizzare il Teorema 3.2 per la
risoluzione di un sistema lineare.
Esempio 3.5. Consideriamo il sistema

x + y + z −t = 1
2x + y + z +3t = 2
x −y −z = 0
x + y + z −3t = −1
(3.5)
La matrice completa è la matrice
A =

1 1 1 −1 1
2 1 1 3 2
1 −1 −1 0 0
1 1 1 −3 −1
¸
¸
¸
¸
.
Se sommiamo alla II riga di A la prima moltiplicata per −2, alla II la I moltiplicata per
−1 ed alla IV la I moltiplicata per −1 otteniamo

1 1 1 −1 1
0 −1 −1 5 0
0 −2 −2 1 −1
0 0 0 −2 −2
¸
¸
¸
¸
;
ora se in questa nuova matrice sommiamo alla III riga la seconda moltiplicata per −2
troviamo

1 1 1 −1 1
0 −1 −1 5 0
0 0 0 −9 −1
0 0 0 −2 −2
¸
¸
¸
¸
.
3.5 Applicazioni ai sistemi lineari 27
Infine se sommiamo alla IV riga la II moltiplicata per −
2
9
risulta
B =

1 1 1 −1 1
0 −1 −1 5 0
0 0 0 −9 −1
0 0 0 0 −
16
9
¸
¸
¸
¸
¸
.
La matrice B è ottenuta mediante operazioni elementari dalla A quindi è ad essa equiva-
lente, allora, in virtù del Teorema 3.2 il sistema (3.5) ha le stesse soluzioni del sistema
che ha la B come matrice completa; cioè equivale al sistema

x + y + z −t = 1
−y −z +5t = 0
−9t = −1
0 = −
16
9
che è palesemente impossibile.
Nella risoluzione data nell’esempio 3.5 abbiamo “ridotto” la matrice A ad una
matrice equivalente “più semplice” nel senso precisato dalla seguente
DEFINIZIONE 3.5. Una matrice A di tipo (m, n) di elemento generico a
ij
si dice
ridotta (per righe) se in ogni riga che non contiene solo zeri esiste un elemento
a
ij
= 0 tale che per ogni k con i < k ≤ m si ha a
kj
= 0.
Il procedimento illustrato è sempre possibile in quanto sussiste il
Teorema 3.3. Sia A una matrice qualsiasi, allora esiste una matrice B ridotta per righe
equivalente alla A.
Possiamo ora introdurre ora il fondamentale concetto di rango di una matrice
6
.
DEFINIZIONE 3.6. Si dice rango (o caratteristica) di una matrice A il numero
delle righe di una matrice ridotta A
1
equivalente alla A che non contengono solo
zeri.
Scriveremo r(A) per indicare il rango della matrice A; notiamo che r(A) è un
numero intero positivo (nullo se e solo se A = 0) ed è tale che, se A è di tipo
(m, n), vale la relazione r(A) ≤ min(m, n).
Siccome la matrice ridotta per righe equivalente alla matrice A dipende dalle
operazioni elementari effettuate, essa non è unica, dunque la definizione (3.6)
6
Vedremo più avanti, a pagina 48, che il concetto di rango qui anticipato può essere definito in maniera
formalmente molto diversa a partire dalla definizione di determinante di una matrice quadrata.
28 Matrici
è ben posta solo se il numero delle righe che non contengono solo zeri di una
matrice ridotta A
i
equivalente ad A non dipende dalle operazioni elementari
effettuate sulla matrice A
i
. Infatti si può dimostrare il
Teorema 3.4. Siano A
1
e A
2
due matrici ridotte equivalenti alla stessa matrice A.
Allora il numero delle righe che non contengono solo zeri è lo stesso in A
1
e A
2
, cioè
r(A) = r(A
1
) = r(A
2
).
Con i concetti introdotti possiamo enunciare il fondamentale
Teorema 3.5 (di Rouché-Capelli).
7
Sia A la matrice dei coefficienti di un sistema
lineare e sia B la matrice completa, allora il sistema è possibile se e solo se
r(A) = r(B).
Una dimostrazione del Teorema 3.5 verrà data più avanti, a pagina 54.
Una soluzione di un sistema lineare di m equazioni in n incognite è costituita,
come abbiamo visto, da una n–pla ordinata di numeri. Abbiamo chiamato tale
n–pla vettore; possiamo pensare ad un vettore come una matrice di tipo (1, n)
(vettore riga) o (n, 1) (vettore colonna).
3.6. L’algoritmo di Gauss
Ricordiamo che un sistema lineare è costituito da un certo numero m di equa-
zioni in un certo numero n di incognite.
8
Una soluzione di un sistema lineare
è quindi costituita da una n–pla ordinata di valori che sostituita alle incognite
soddisfa tutte le m equazioni.
Come abbiamo visto, un sistema lineare può ammettere una o infinite soluzioni
oppure non esssere risolubile. Per risolvere un sistema lineare esistono vari metodi
elementari, ben noti, ma che diventano scomodi quando il numero delle incognite
è superiore a 2 o 3.
Un algoritmo spesso usato, che funziona sempre, è il cosiddetto algoritmo di
Gauss
9
.
L’agoritmo si basa sul seguente
Teorema 3.6 (di Gauss). Se un sistema lineare è ottenuto da un altro con una delle
seguenti operazioni:
i) scambio di due equazioni
ii) moltiplicazione di ambo i membri di un’equazione per una costante non nulla
7
Eugene ROUCHE’, 1832, Somméres, Gard (Francia) – 1910, Lunelle (Francia).
Alfredo CAPELLI, 1855, Milano – 1910, Napoli.
8
Non si esclude, a priori, che possa essere m = n.
9
Karl Fredrich Gauss 1777 (Brunswick) - 1855 (Göttingen) uno dei più grandi matematici di tutti i tempi.
3.6 L’algoritmo di Gauss 29
iii) un’equazione è sostituita dalla somma di se stessa con un multiplo di un’altra.
allora i due sistemi hanno le stesse soluzioni.
e verrà illustrato mediante alcuni esempi.
Esempio 3.6. Sia da risolvere il sistema

3x
3
= 9
x
1
+5x
2
−2x
3
= 2
1
3
x
1
+2x
2
= 3
Possiamo effettuare le seguenti operazioni:
i) scambiamo la prima riga con la terza:

1
3
x
1
+2x
2
= 3
x
1
+5x
2
−2x
3
= 2
3x
3
= 9
;
ii) moltiplichiamo la prima riga per 3:

x
1
+6x
2
= 9
x
1
+5x
2
−2x
3
= 2
3x
3
= 9
;
iii) aggiungiamo la prima riga moltiplicata per −1 alla seconda:

x
1
+6x
2
= 9
−x
2
−2x
3
= −7
3x
3
= 9
.
Ormai il sistema è risolto: dalla terza equazione si ha x
3
= 3 da cui x
2
= 1 e x
1
= 3.
L’algoritmo di Gauss funziona anche quando il numero delle equazioni è
diverso dal numero delle incognite m = n
Esempio 3.7. Sia dato il sistema

x +3y = 1
2x + y = −3
2x +2y = −2
30 Matrici
in cui m > n. Aggiungendo alla seconda ed alla terza riga la prima moltiplicata per −2
si ha il sistema equivalente

x +3y = 1
−5y = −5
−4y = −4
.
A questo punto è già chiaro che l’unica soluzione è x = −2 e y = 1. In ogni caso,
proseguendo l’algoritmo si può aggiungere alla terza riga la seconda moltiplicata per −
4
5
ottenendo

x +3y = 1
−5y = −5
0 = 0
.
L’ultima uguaglianza è un’identità a riprova del fatto che le equazioni sono ridondanti.
Nel caso in cui il sistema fosse impossibile procedendo con l’algoritmo si arriva
ad una contraddizione.
Esempio 3.8. Sia dato il sistema

x +3y = 1
2x + y = −3
2x +2y = 0
Sempre aggiungendo alla seconda ed alla terza riga la prima moltiplicata per −2 si ha il
sistema equivalente

x +3y = 1
−5y = −5
−4y = −2
;
a questo punto, però, aggiungendo alla terza riga la seconda moltiplicata per −
4
5
si
ottiene

x +3y = 1
−5y = −5
0 = 2
.
Quindi una palese contraddizione: possiamo concludere dunque che il sistema dato
non ammette soluzioni, o, come più comunemente ma meno propriamente si dice, è
impossibile.
Un sistema lineare può anche avere infinite soluzioni:
3.6 L’algoritmo di Gauss 31
Esempio 3.9. Consideriamo il sistema

x + y = 4
2x +2y = 8
ed applicando l’algoritmo di
Gauss (sommando alla seconda riga la prima moltiplicata per −2) si ottiene

x + y = 4
0 = 0
da cui si vede che la seconda equazione è inutile, quindi la soluzione è data da tutte le
infinite coppie di numeri che hanno come somma 4, che possiamo scrivere, ad esempio,
come x = t y = 4 −t.
4. Spazi vettoriali
Avete già sentito parlare di vettori, probabilmente avrete visto i vettori in
Fisica, visualizzati come segmenti orientati. Completiamo e formalizziamo ora
le nozioni viste.
4.1. Definizioni e prime proprietà
In generale diamo la seguente
DEFINIZIONE 4.1. Chiamiamo spazio vettoriale su R e indichiamo con R
n
l’in-
sieme delle n–ple ordinate di numeri reali ed indichiamo conv ciascuna di queste
n–ple, cioè v = [x
1
, x
2
, . . . , x
n
], chiediamo inoltre che in R
n
siano definite due
operazioni: la somma componente per componente cioè
[x
1
, x
2
, . . . , x
n
] + [y
1
, y
2
, . . . , y
n
] = [x
1
+ y
1
, x
2
+ y
2
, . . . , x
n
+ y
n
]
ed un prodotto esterno o prodotto per uno scalare
α[x
1
, x
2
, . . . , x
n
] = [αx
1
, αx
2
, . . . , αx
n
]
dove α è un numero reale qualsiasi. Chiamiamo vettori le n–ple e scalari i numeri
da cui essi sono formati.
Le proprietà di queste due operazioni sono elencate nella Tabella 4.1, in cui α e
β sono numeri reali e v e w sono n–ple di numeri reali.
Tabella 4.1. Proprietà degli spazi vettoriali
i) v + ( w +u) = (v + w) +u associatività della somma
ii) v + w = w +v commutatività della somma
iii) 0 +v =v esistenza del vettore nullo
iv) v + (−v) = 0 esistenza del vettore opposto
v) α(v + w) = αv + α w distributività rispetto alla somma di vettori
vi) (α + β)v = αv + βv distributività rispetto alla somma di scalari
vii) α(βv) = (αβ)v associatività mista
viii) 1 v =v esistenza dell’unità
ix) 0 v = 0
34 Spazi vettoriali
Si verifica immediatamente che lo spazio vettoriale R
n
soddisfa alle proprietà
indicate in Tabella 4.1 nella pagina precedente, in cui abbiamo indicato con 0 il
vettore nullo, cioè quello che ha tutte le componenti uguali a 0 e con −v il vettore
opposto di v cioè quello le cui componenti sono gli opposti delle componenti di
v.
Si può generalizzare il concetto di spazio vettoriale su un campo qualsiasi K
dando la seguente
DEFINIZIONE 4.2. Uno spazio vettoriale V su K è costituito da un insieme V e
da un campo K; sugli elementi
1
di V sono definite due operazioni, una somma
ed un prodotto esterno, che godono delle proprietà i) . . . vii), elencate nella
tabella 4.1 nella pagina precedente in cui v e w sono elementi di V e α, β ∈ K.
Gli elementi di uno spazio vettoriale V si chiamano vettori, e scalari gli elementi
del campo su cui esso è costruito.
Esempi di spazi vettoriali diversi da R
n
sono (verificarlo per esercizio
2
):
• Le matrici di tipo (m, n) rispetto alle operazioni di somma e prodotto per
uno scalare definite nel capitolo 3.
• I polinomi in una indeterminata sul campo reale, rispetto alle usuali somma
e prodotto per uno scalare.
Riprendiamo ora un concetto fondamentale, già introdotto per le matrici nel
§ 3.2.3 a pagina 19
DEFINIZIONE 4.3. Come per le matrici, si dice che il vettore w è combinazione
lineare dei k vettori v
1
, v
2
, . . . , v
k
se esistono k scalari α
1
, α
2
, . . . , α
k
tali che
w =
k

i=1
α
i
v
i
. (4.1)
Fissiamo ora k vettori e consideriamo la loro combinazione lineare
0 =
k

i=1
α
i
v
i
. (4.2)
È ovvio che la (4.2) è verificata quando tutti gli α
i
sono nulli. Può però accadere
che una combinazione lineare di vettori dia il vettore nullo senza che tutti i
coefficienti siano nulli. In tal caso i vettori si chiamano linearmente dipendenti in
caso contrario, cioè se la (4.2) vale solo quando tutti gli α
i
sono nulli, si dice che i
vettori sono linearmente indipendenti, quindi diamo la seguente
1
Sulla natura degli elementi di V non si fa nessuna ipotesi.
2
Per verificare che un insieme V è uno spazio vettoriale bisogna verificare anzitutto che la somma di due
elementi di V appartenga ancora a V e che il prodotto di un elemento di V per uno scalare sia ancora un
elemento di V, poi che valgano le proprietà i)—vii) della tabella 4.1 nella pagina precedente.
4.2 Sottospazi e basi 35
DEFINIZIONE 4.4. n vettori si dicono linearmente dipendenti se esiste una loro
combinazione lineare
n

i=1
α
i
v
i
uguale al vettore nullo, senza che siano tutti nulli i coefficienti α
i
Ad esempio i vettori v = [1, 2, 1], w = [2, 0, −1] e u = [3, 2, 0] sono linearmente
dipendenti, infatti si ha v + w −u = 0. Invece i vettori e
1
= [1, 0, 0], e
2
= [0, 1, 0]
e e
3
= [0, 0, 1], che chiameremo anche vettori fondamentali, sono linearmente
indipendenti.
Sul concetto di dipendenza lineare sussiste il fondamentale
Teorema 4.1. Siano v
1
, v
2
, . . . v
k
k vettori, essi sono linearmente dipendenti se e solo se
almeno uno di essi si può scrivere come combinazione lineare degli altri.
Esso è del tutto analogo al Teorema 3.1 a pagina 20 e si dimostra allo stesso
modo.
Valgono, per la dipendenza ed indipendenza lineare, le seguenti proprietà:
i) Se un insieme di vettori contiene il vettore nullo, esso è un insieme dipen-
dente, infatti, ad esempio, 0 v +1 0 è una combinazione lineare non banale che
genera il vettore nullo.
ii) Aggiungendo un vettore qualsiasi ad un insieme linearmente dipendente,
si ottiene ancora un insieme linearmente dipendente, infatti, se, per esempio,
v
1
, v
2
. . . , v
k
sono linearmente dipendenti significa che ∑
k
1
α
i
v
i
= 0 con qualche
α
i
= 0 e quindi la combinazione lineare α
1
v
1
+ α
2
v
2
+ + α
k
v
k
+0 v
k+1

il vettore nullo qualunque sia v
k+1
sempre con gli stessi coefficienti non nulli.
iii) Togliendo da un insieme indipendente un vettore qualsiasi si ottiene ancora
un insieme indipendente, infatti se v
1
, . . . , v
n
sono indipendenti, significa che

n
1
α
i
v
i
= 0 solo quando ∀i, α
i
= 0 quindi, a maggior ragione si ha ∑
n−1
1
α
i
v
i
= 0
solo quando ∀i, α
i
= 0.
4.2. Sottospazi e basi
DEFINIZIONE 4.5. Sia V uno spazio vettoriale. Un sottoinsieme W ⊆ V si
chiama sottospazio di V se, rispetto alle stesse operazioni definite in V, è a sua
volta uno spazio vettoriale.
36 Spazi vettoriali
In altre parole W è sottospazio di V se in esso continuano a valere le proprietà
delle operazioni definite in V.
Ad esempio in R
3
il sottoinsieme W formato dai vettori le cui componenti sono
numeri dispari non è un sottospazio, perché la somma di due vettori cosiffatti è
un vettore le cui componenti sono numeri pari e dunque non appartiene a W.
Mentre invece lo è quello dei vettori che hanno, per esempio, la terza componente
nulla.
In generale per verificare che un certo sottoinsieme W di uno spazio vettoriale
V sia un sottospazio basta verificare che sia soddisfatta la seguente proprietà
• W è “chiuso” rispetto alle combinazioni lineari, cioè ogni combinazione lineare
di vettori di W è ancora un vettore di W.
Infatti le proprietà degli spazi vettoriali (quelle elencate nella Tabella 4.1 a
pagina 33) valgono in W in quanto valgono in V e W ⊆ V.
Si osserva subito che una immediata conseguenza di questa proprietà è che
il vettore nullo 0 appartiene a qualunque sottospazio (infatti si ha 0 v = 0
qualunque sia v).
Se ora consideriamo un certo numero k di vettori v
1
, v
2
, . . . , v
k
di uno spazio
vettoriale V e formiamo tutte le loro possibili combinazioni lineari otteniamo,
come è facile verificare, uno spazio vettoriale W sottospazio di V, cioè W ⊆ V. I
vettori v
i
si chiamano, in questo caso, generatori di W.
DEFINIZIONE 4.6. Un insieme di generatori linearmente indipendenti di uno
spazio vettoriale V prende il nome di base di V.
Sulle basi è fondamentale il teorema
Teorema 4.2. Se V è uno spazio vettoriale e B è una sua base, ogni vettore di V si può
scrivere in maniera unica come combinazione lineare dei vettori di B.
Dimostrazione. Sia B ≡ ¦e
1
, . . . ,e
n
¦ la base considerata, allora ogni vettore v ∈
V si scrive come combinazione lineare degli e
i
in quanto questi ultimi sono
generatori, inoltre, se, per assurdo, v si potesse scrivere in due modi diversi come
combinazione lineare dei vettori di B, si avrebbe sia v =
n

1
α
i
e
i
sia v =
n

1
β
i
e
i
con qualche α
i
= β
i
, in tal caso, sottraendo membro a membro, si avrebbe la
combinazione lineare
0 =


i
− β
i
)e
i
(4.3)
ma poichè, per ipotesi, gli e
i
in quanto vettori di una base, sono linearmente
indipendenti, si ha che tutti i coefficienti della combinazione (4.3) devono essere
nulli, e quindi ∀i, α
i
= β
i
.
4.2 Sottospazi e basi 37
Se in uno spazio vettoriale esiste una base B formata da n vettori, allora
possiamo sostituire p ≤ n vettori di B con altrettanti vettori indipendenti ed
ottenere ancora una base, come precisa il
Teorema 4.3. Sia V uno spazio vettoriale e B = ¦e
1
,e
2
, . . .e
n
¦ una sua base. Se
v
1
, v
2
, . . . v
p
sono p ≤ n vettori indipendenti, allora si possono scegliere n − p vettori
di B in modo che l’insieme ¦v
1
, v
2
, . . . , v
p
,e
p+1
, . . . ,e
n
¦ sia ancora una base per V.
Dimostrazione. Dobbiamo far vedere che i vettori
¦v
1
, v
2
, . . . , v
p
,e
p+1
, . . . ,e
n
¦
sono indipendenti e che generano tutto V. Poiché i v
i
sono indipendenti, fra di
essi non c’è il vettore nullo. Inoltre v
1
è un vettore di V quindi
v
1
=
n

1
α
i
e
i
(4.4)
in quanto gli e
i
formano una base. Mostriamo che ¦v
1
,e
2
, . . . ,e
n
¦ formano a
loro volta una base: consideriamo una loro combinazione lineare che dia il
vettore nullo, sia β
1
v
1
+ β
2
e
2
+ + β
n
e
n
= 0. Se β
1
= 0 allora si ha β
2
e
2
+
+ β
n
e
n
= 0 e dall’indipendenza dei vettori e
i
segue che ∀i, β
i
= 0. Se fosse
invece β
1
= 0 potrei scrivere v
1
= −
1
β
1
n

2
β
i
e
i
ma ricordando che vale la (4.4) e
per l’unicità della rappresentazione di un vettore mediante gli elementi di una
base, concludiamo che i vettori sono indipendenti. Allo stesso modo si procede
sostituendo di volta in volta un’altro vettore v
i
ad uno della base.
Dalla definizione 4.6 segue inoltre che qualunque insieme di vettori indipen-
denti generatori V costituisce una base per V, quindi che uno stesso spazio
vettoriale V ha infinite basi; di più sussiste anche il
Teorema 4.4. Sia V uno spazio vettoriale, se una base di V è formata da n vettori, allora
qualunque base è formata da n vettori.
Dimostrazione. Infatti è facile vedere che qualunque (n −k)–pla di vettori non
può generare tutto V e viceversa che ogni insieme di n +1 vettori è formato da
vettori linearmente dipendenti in quanto ogni vettore di V si esprime, in virtù
del Teorema 4.2, come combinazione lineare degli n vettori della base, quindi
l’n +1–esimo non può essere indipendente dagli altri.
Il numero n dei vettori di una base non dipende allora dalla scelta della base
stessa, ma caratterizza lo spazio V e prende il nome di dimensione di V.
Lo spazio vettoriale costituito dal solo vettore nullo ha, per convenzione,
dimensione 0. Si può anche osservare che se V è uno spazio vettoriale di di-
mensione n allora qualsiasi insieme di k < n vettori indipendenti può essere
completato ad una base di V aggiungendo altri n −k vettori indipendenti.
38 Spazi vettoriali
OSSERVAZIONE 4.1. Da quanto detto si deduce anche che in uno spazio vet-
toriale V di dimensione n, qualunque n–pla di vettori indipendenti forma una
base per V.
OSSERVAZIONE 4.2. Tutti gli spazi vettoriali fin qui considerati hanno dimensio-
ne n finita, ma è facile rendersi conto che esistono spazi vettoriali che non hanno
dimensione finita, per esempio se V = P(x) è l’insieme dei polinomi in una
ideterminata sul campo reale con le usuali operazioni di somma e di prodotto per
uno scalare si vede subito che V è uno spazio vettoriale; tuttavia se si suppone
che esistano p polinomi che generano V e se n è il grado massimo di questi
polinomi, è ovvio che nessun polinomio di grado m > n può essere generato
da questi. Quindi V = P(x) rappresenta un’esempio di spazio vettoriale di
dimensione infinita. Noi ci occuperemo quasi esclusivamente di spazi vettoriali
di dimensione finita.
Sorge il problema di come si possa, in uno stesso spazio vettoriale V, passare
da una base ad un’altra, cioè quali siano le relazioni che legano i vettori di una
base a quelli di un’altra. Siano B¦e
1
, . . . ,e
n
¦ e B
/
¦

f
1
, . . . ,

f
n
¦ due basi distinte
di uno stesso spazio vettoriale V. I vettori

f
i
, in quanto vettori di V si esprimono
come combinazione lineare dei vettori e
i
di B, quindi si ha il sistema lineare:

f
1
= a
11
e
1
+ a
12
e
2
+ + a
1n
e
n

f
2
= a
21
e
1
+ a
22
e
2
+ + a
2n
e
n
. . . . . . . . . . . . . . . . . . . . . . . . . . .

f
n
= a
n1
e
1
+ a
n2
e
2
+ + a
nn
e
n
(4.5)
La matrice dei coefficienti del sistema (4.5)
A =

a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
¸
¸
¸
¸
costituisce la matrice di passaggio dalla base B alla base B
/
.
È facile verificare che l’intersezione insiemistica V ∩W di sottospazi è a sua
volta un sottospazio (dimostrarlo per esercizio); due spazi vettoriali V e W
hanno sempre in comune almeno il vettore nullo, nel caso in cui questo sia
l’unico vettore in comune si dice che sono disgiunti e si scrive V ∩ W = ¦0¦:
abbiamo già osservato che l’insieme formato dal solo vettore nullo è considerato
uno spazio vettoriale. Invece l’unione di due sottospazi non è detto sia un
sottospazio: infatti potrebbe non essere chiusa rispetto alle combinazioni lineari,
come mostra il seguente
4.2 Sottospazi e basi 39
Esempio 4.1. Consideriamo in R
3
i due sottospazi V = ¦[x, y, z] [ x = y¦ formato
dai vettori di R
3
che hanno le prime due componenti uguali e W = ¦[x, y, z] [ z = 0¦,
formato dai vettori di R
3
che hanno la terza componente nulla, allora si ha
V ∪W = ¦[x, y, z] [ x = y oppure z = 0¦
e se prendiamo v = [0, 0, 1] ∈ V e w = [1, 0, 0] ∈ W osserviamo che sia v sia w
appartengono a V ∪ W, ma il vettore v + w = [1, 0, 1] non ha uguali le prime due
componenti nè ha la terza componente nulla, quindi v + w ∈ V ∪W. Dunque l’insieme
V ∪W non è chiuso rispetto alla somma e di conseguenza non è un sottospazio di R
3
.
Sulla dimensione dei sottospazi di uno spazio vettoriale sussiste anche il
Teorema 4.5. Sia V uno spazio vettoriale di dimensione n e sia W un suo sottospazio
allora
i) W ha dimensione finita
ii) dim(W) ≤ dim(V)
iii) se dim(W) = dim(V) allora W = V
Dimostrazione. Se W = ¦0¦ la i) e la ii) sono ovvie. Sia quindi w = ¦0¦ e
sia w
1
un vettore di W, se w
1
genera W allora dimW = 1 e poiché in V vi è
almeno un vettore indipendente segue che dimV ≥ 1 e quindi la i) e la ii) sono
dimostrate. Se invece w
1
non genera W allora esiste in W almeno un altro vettore
w
2
indipendente da w
1
. Se w
1
e w
2
generano W allora dim(W) = 2 e, come
nel caso precedente dim(V) ≥ 2 e così via. Il procedimento ha termine per
un certo numero m ≤ n grazie al fatto che in V non possono esserci più di n
vettori indipendenti. Se inoltre dim(W) = dim(V) significa che W è generato
da n vettori indipendenti, che per l’oservazione 4.1 generano anche V, quindi è
dimostrata anche la iii).
Un’altra operazione tra sottospazi è la somma di sottospazi.
DEFINIZIONE 4.7. Se V e U sono due sottospazi di uno stesso spazio vettoriale
diciamo che W è somma di U e V se i vettori di W sono tutti e soli quelli che si
esprimono come somma di un vettore di U e di uno di V cioè
W = U + V = ¦ w[ w =u +v, con u ∈ U, v ∈ V¦
Si dimostra facilmente (farlo per esercizio) che la somma di sottospazi è a
sua volta un sottospazio. Naturalmente non è detto che la scomposizione del
vettore w sia unica, questo avviene, però, se e solo se i due spazi sono disgiunti;
in questo caso diciamo che la somma è diretta e scriviamo
U ⊕V.
Sussiste infatti il
40 Spazi vettoriali
Teorema 4.6. Siano U e W due sottospazi di V, e sia v ∈ V; allora la scomposizione
v =u + w con u ∈ U e w ∈ W è unica se e solo se V = U ⊕W.
Dimostrazione. Sia V = U ⊕W; per definizione di somma di sottospazi esiste
una coppia di vettori u ∈ U e w ∈ W tali che v = u + w; dobbiamo dimostrare
che tale coppia è unica, infatti se fosse anche v =u
/
+ w
/
(con u
/
∈ U e w
/
∈ W)
si avrebbe u + w =u
/
+ w
/
e quindi u −u
/
= w
/
− w, da cui segue che il vettore
u −u
/
appartenendo sia a U che a W e di conseguenza alla loro intersezione è il
vettore nullo; dunque dev’essere u =u
/
e w = w
/
.
Viceversa supponiamo che sia v =u + w in un unico modo e facciamo vedere
che U ∩ W = ¦0¦. Supponiamo per assurdo che esista un vettore z ∈ U ∩ W
diverso dal vettore nullo, allora anche i vettori u +z e w −z, appartenenti
rispettivamente a U e W avrebbero come somma v contro l’ipotesi dell’unicità
della decomposizione.
Sulla dimensione dello spazio somma di due sottospazi vale la relazione (di
Grassmann
3
)
dim(U + V) = dimU + dimV −dim(U ∩ V), (4.6)
che diventa, se la somma è diretta,
dim(U ⊕V) = dimU + dimV.
cioè la dimensione della somma diretta di due sottospazi è uguale alla somma
delle loro dimensioni.


• •
• • •
• • • •
¸
¸
¸
¸
. .. .
n elementi
Figura 4.1. Matrici triangolari
Esempio 4.2. Sia T
n
lo spazio vettoriale delle matrici triangolari alte e sia T
n
quello
delle triangolari basse. Vogliamo verificare la (4.6). Osserviamo che T
n
∩ T
n
= D
n
dove
con D
n
abbiamo indicato lo spazio vettoriale delle matrici diagonali e che M
n
= T
n
+ T
n
lo spazio vettoriale delle matrici quadrate è somma (non diretta) di quello delle matrici
triangolari basse e di quello delle matrici triangolari alte. Dalla figura 4.1 si vede subito
che gli elementi non certamente nulli in T
n
ed in T
n
sono: 1 nella prima riga 2 nella
3
Herrmann Günther GRASSMANN, 1809, Stettino (Germania-odierna Polonia) – 1877, Stettino (Germania-
odierna Polonia).
4.2 Sottospazi e basi 41
seconda ecc. quindi in totale si ha 1 +2 + + n =
n(n +1)
2
; dunque possiamo dire
che dim(T
n
) = dim(T
n
) =
n(n +1)
2
, inoltre dim(D
n
) = n e dim(M
n
) = n
2
ed
infatti, applicando la ( 4.6 a fronte), si ha
n
2
=
n(n +1)
2
+
n(n +1)
2
−n.
5. Determinante e rango di una matrice.
Matrice inversa
Sia M
n
l’insieme delle matrici quadrate di ordine n ed A ∈ M
n
. Il determinante
di A è il valore di una funzione che ha come dominio M
n
e come codominio R
o C (a seconda che gli elementi di A siano numeri reali o complessi
1
), quindi
det : M
n
→R oppure det : M
n
→C.
5.1. Definizioni di determinante
Definiremo il determinante di una matrice quadrata prima in maniera ricorsiva
poi in maniera classica.
5.1.1. Definizione ricorsiva
Definiamo il determinante in maniera ricorsiva, cominciando con il definire il
determinante di una matrice di ordine 2 ed osservando come si può estendere
questa definizione al caso di una matrice di ordine qualsiasi.
DEFINIZIONE 5.1. Sia A =
¸
a b
c d

quadrata di ordine 2, allora il determinante
di A è det(A) = ad −bc.
Esempio 5.1. Il determinante della matrice A =
¸
1 −2
3 1

è det(A) =

1 −2
3 1

=
1 1 −(−2) 3 = 7.
Osserviamo che il determinante della matrice A =
¸
x y
z t

si può indicare in
uno qualsiasi dei seguenti modi: det A, det(A), [A[,

x y
z t

.
Diamo ora una definizione ricorsiva che permette di calcolare il determinante
di una matrice di ordine qualsiasi quando si sappia calcolare il determinante di
una matrice di ordine 2.
Per far questo introduciamo prima una notazione: se A è quadrata di ordine n
chiameremo minore complementare dell’elemento a
ik
e lo indicheremo con M
ik
il
1
Se le matrici sono definite su un campo qualsiasi K il codominio sarà K.
44 Determinante e rango di una matrice. Matrice inversa
determinante della sottomatrice che si ottiene da A cancellando la i–esima riga
e la k–esima colonna. Chiamiamo poi complemento algebrico dell’elemento a
ik
(e
lo indicheremo con A
ik
) il determinante della sottomatrice (di ordine n −1) che
si ottiene da A cancellando la i–esima riga e la k–esima colonna, con il proprio
segno se i + k è pari, col segno opposto se i + k è dispari, cioè
A
ik
= (−1)
i+k
M
ik
.
Esempio 5.2. Se A =

a b c
1 2 3
x y z
¸
¸
allora il complemento algebrico dell’elemento a
11
= a
è A
11
=

2 3
y z

= 2z − 3y e quello dell’elemento a
23
= 3 è A
23
= −

a b
x y

=
−(ay −bx) = bx −ay.
DEFINIZIONE 5.2. Sia A una matrice quadrata di ordine n: si ha
det(A) =
n

k=1
a
ik
A
ik
(5.1)
cioè il determinante è la somma dei prodotti degli elementi di una linea (riga o
colonna) per i rispettivi complementi algebrici.
La definizione 5.2 ci dice, in sostanza, che per calcolare il determinante di una
matrice quadrata di ordine n, possiamo calcolare un certo numero (al massimo
n) di determinanti di matrici di ordine n −1, a loro volta questi si determinano
calcolando al più n −1 determinanti di matrici di ordine n −2 e così via, quindi,
in pratica, basta saper calcolare il determinante di una matrice di ordine 2 con
la definizione 5.1 nella pagina precedente ed applicare la ricorsione data nella
definizione 5.2.
Esempio 5.3. Sia da calcolare il determinante di A =

1 0 −1
2 1 3
0 −1 1
¸
¸
; prendiamo in
considerazione la prima riga: abbiamo che il determinante di A è uguale a
1

1 3
−1 1

−0

2 3
0 1

+ (−1)

2 1
0 −1

= 1 4 −0 2 + (−1)(−2) = 6. Avremmo
potuto pervenire allo stesso risultato scegliendo un’altra qualsiasi riga o colonna (si
consiglia di provare per esercizio).
5.1.2. Definizione classica
DEFINIZIONE 5.3. Se A è una matrice quadrata di ordine n, chiamiamo prodotto
associato ad A il prodotto di n elementi di A presi in modo tale che in ciascuno di
essi non ci siano due elementi appartenenti alla stessa riga od alla stessa colonna.
5.1 Definizioni di determinante 45
Esempio 5.4. Se A =

a b c
1 2 3
x y z
¸
¸
sono prodotti associati, per esempio i prodotti a2z e
b1z ma non a1y e neppure c3x
Se consideriamo la generica matrice di ordine n
A =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
¸
¸
¸
¸
un prodotto associato può essere indicato con a
1k
1
a
2k
2
a
nk
n
che abbiamo or-
dinato in ordine crescente rispetto ai primi indici e dove ¦k
1
k
2
. . . k
n
¦ è una
opportuna permutazione dei secondi indici.
Possiamo ora dare la definizione classica di determinante
DEFINIZIONE 5.4. Si chiama determinante della matrice quadrata A la somma
di tutti i possibili prodotti associati ad A, presi ciascuno con il proprio segno
o con il segno opposto a seconda che la permutazione dei secondi indici sia di
classe pari o di classe dispari, cioè, formalmente
det A =

(−1)
t
a
1k
1
a
2k
2
a
nk
n
dove la somma è estesa a tutte le permutazioni dei secondi indici e t è il numero
degli scambi che la permutazione dei secondi indici presenta rispetto alla prima.
Con questa impostazione la definizione 5.2 a fronte diventa un teorema che
prende il nome di
Teorema 5.1 (Primo teorema di Laplace
2
). Sia A una matrice quadrata di ordine n:
si ha
det(A) =
n

k=1
a
ik
A
ik
(5.1)
cioè il determinante è la somma dei prodotti degli elementi di una linea (riga o colonna)
per i rispettivi complementi algebrici.
Faremo uso anche del
Teorema 5.2 (Secondo teorema di Laplace). La somma dei prodotti degli elementi
di una linea (riga o colonna) per i complementi algebrici degli elementi di una linea
parallela è nulla, cioè

j
a
ij
A
kj
= 0. (5.2)
2
Pierre-Simon Laplace,23 Marzo 1749 in Beaumont-en-Auge, Normandia, Francia-5 March 1827 in Parigi,
Francia
46 Determinante e rango di una matrice. Matrice inversa
5.2. Proprietà del determinante
Dalla definizione 5.2 si ricava, come già detto, che calcolare il determinante
di una matrice di ordine n equivale a calcolare al più n determinanti di ordine
n −1 e quindi al più n(n −1) di ordine n −2 e così via. È possibile ridurre e
semplificare di molto questi calcoli applicando alcune proprietà dei determinanti
che si dimostrano facilmente e che sono elencate nel:
Teorema 5.3. Sia A una matrice quadrata di ordine n, allora sussistono le seguenti
proprietà:
i) det(A) = det(A
T
).; cioè il determinante di una matrice è uguale a quello della
sua trasposta.
ii) Scambiando tra loro due colonne
3
di A si ottiene una matrice B tale che det(B) =
−det(A).
iii) Se una colonna di A è nulla, allora det(A) = 0 e la matrice si chiama singolare.
iv) Se ad una colonna di A si somma una combinazione lineare di altre colonne, si
ottiene una matrice B tale che det(B) = det(A).
v) Se due colonne di A sono uguali allora A è singolare, cioè det(A) = 0.
vi) Moltiplicando per un numero α una colonna di A si ottiene una matrice B tale che
det(B) = α det(A).
vii) Se due colonne di A sono proporzionali allora A è singolare.
viii) Se B = αA allora det(B) = α
n
det(A).
ix) Il determinante di una matrice triangolare (in particolare diagonale) è il prodotto
dei suoi elementi principali.
Dimostrazione. Diamo un cenno della dimostrazione di alcune delle proprietà: i)
è insita nella definizione 5.2; per quanto riguarda la ii) si osserva che scambiando
tra loro due colonne cambia la parità di i + k e quindi il segno del determinante;
per la iii) basta pensare di sviluppare il determinante rispetto alla colonna nulla;
la v) è conseguenza della ii) (perché?); per la vi) basta sviluppare il determinante
rispetto alla colonna moltiplicata per α; la vii) è conseguenza della vi) e della v);
la viii) segue dalla vi) notando che ogni colonna è moltiplicata per α la ix) deriva
dalla definizione classica e dal fatto che nelle matrici triangolari l’unico prodotto
associato non certamente nullo è quello formato dagli elementi principali.
3
In forza della proprietà i), tutto quello che da qui in poi diciamo sulle colonne vale anche sulle righe.
5.2 Proprietà del determinante 47
Osserviamo che applicazioni successive della proprietà iv) del Teorema 5.3
ci permettono di passare dalla matrice A ad un altra matrice avente lo stesso
determinante di A e che ha una linea formata da elementi tutti nulli tranne al più uno.
Dunque per calcolare det(A) possiamo limitarci a calcolare un solo determinante
di ordine n −1; iterando il procedimento possiamo calcolare il determinante di
A calcolando un solo determinante di ordine 2.
Esempio 5.5. Consideriamo la matrice A =

1 1 −1
1 2 −1
1 1 1
¸
¸
; se alla seconda riga sot-
traiamo la prima otteniamo la matrice B =

1 1 −1
0 1 0
1 1 1
¸
¸
che ha lo stesso determinan-
te di A e che possiamo sviluppare secondo gli elementi della seconda riga ottenendo
det(A) = det(B) = 1

1 −1
1 1

= 2
Dal Teorema 5.3 nella pagina precedente si ricava anche l’importante risultato
dato dal
Teorema 5.4. Una matrice è singolare se e solo se le sue colonne (righe) formano un
sistema di vettori linearmente dipendenti.
Dimostrazione. Se i vettori colonna sono linearmente dipendenti allora uno di
essi è combinazione lineare degli altri, quindi la matrice è singolare per la pro-
prietà. . . , viceversa se det(A) = 0 allora, per le proprietà. . . i vettori che formano
le colonne di A. . .
Per il prodotto di matrici vale il seguente teorema, di cui diamo solo l’enunciato
Teorema 5.5 (di Binet
4
). Se A e B sono due matrici quadrate dello stesso ordine, allora
det(A B) = det(A) det(B). (5.3)
Il teorema 5.5 si estende facilmente ad un numero qualsiasi di matrici quadrate
dello stesso ordine.
ATTENZIONE l’analogo del Teorema di Binet per la somma di matrici in generale
non vale cioè si ha che, in generale,
det(A + B) = det(A) +det(B). (5.4)
Come esercizio verificare la ( 5.4) su qualche esempio.
4
Jacques Philippe Marie BINET,2 Feb 1786 in Rennes, Bretagne, France–12 May 1856 in Paris, France
48 Determinante e rango di una matrice. Matrice inversa
Consideriamo ora il determinante
V(a
1
, . . . , a
n
) =

1 a
1
a
2
1
. . . a
n−1
1
1 a
2
a
2
2
. . . a
n−1
2
. . . . . . . . . . . . . . .
1 a
n
a
2
n
. . . a
n−1
n

in cui la prima colonna è formata da tutti 1 (a
0
i
∀i) e le altre colonne sono le
successive potenze della seconda colonna; esso prende il nome di determinante di
Vandermonde
5
; si verifica molto facilmente (farlo, come esercizio) che:
V(a
1
, . . . , a
n
) = (a
2
−a
1
)(a
3
−a
1
) . . .
. . . (a
3
−a
2
) . . .
. . . . . .
. . . . . . (a
n
−a
n−1
).
Dunque il
Teorema 5.6. Il determinante di Vandermonde è uguale a zero se e solo se almeno due
dei suoi argomenti sono uguali.
5.3. Rango di una matrice
Siamo ora in grado di dare un’altra definizione di rango, formalmente diversa
dalla definizione 3.6 a pagina 27, ma che si dimostra facilmente essere ad essa
equivalente. Per far ciò dobbiamo premettere una definizione
DEFINIZIONE 5.5. Se A è di tipo (m, n) (quindi non necessariamente quadrata),
si chiama minore di ordine k (k ≤ min(m, n)) il determinante di una qualunque
sottomatrice quadrata di A formata da k righe e k colonne di A.
ATTENZIONE non è richiesto che le k righe e le k colonne siano adiacenti.
Esempio 5.6. Se A =

a b c
1 2 3
x y z
¸
¸
allora sono minori del secondo ordine i determinanti

2 3
y z

oppure

a c
x z

invece il determinante

a b
1 3

non lo è.
DEFINIZIONE 5.6. [di rango] Si chiama rango o caratteristica di una matrice di
tipo (m, n) l’ordine massimo dei minori non nulli che si possono estrarre da A.
5
Alexandre-Théophile Vandermonde, 28 Feb 1735 in Paris, France – 1 Jan 1796 in Paris, France
5.3 Rango di una matrice 49
Osserviamo esplicitamente che la definizione di rango si applica ad una matrice
qualsiasi, non necessariamente quadrata, mentre si parla di determinante solo per le
matrici quadrate.
La definizione 5.6 nella pagina precedente significa dunque che se dalla matrice
A possiamo estrarre un minore di ordine k non nullo e tutti i minori di ordine
più grande di k sono nulli, allora r(A) = k.
Dalla definizione segue subito che se A è quadrata di ordine n allora essa ha
rango n se e solo se è non singolare, e che, se A è di tipo (m, n), vale la relazione,
già vista, r(A) ≤ min(m, n).
Esempio 5.7. sia A =

1 2 3 4
0 1 0 3
3 1 4 2
¸
¸
; si osserva subito che r(A) ≤ 3, ma si vede
anche che il minore formato dalle prime tre colonne è diverso da 0, dunque r(A) = 3.
Osserviamo che per il rango di una matrice valgono, tra le altre, le seguenti
proprietà, che si ricavano immediatamente dal Teorema 5.3 a pagina 46 e dal
Teorema 5.4 a pagina 47.
Teorema 5.7. Due importanti proprietà del rango di una matrice sono:
i) Due matrici ottenute una dall’altra mediante uno scambio di righe o colonne hanno
lo stesso rango,
ii) Il rango di una matrice è uguale al numero di righe o di colonne linearmente
indipendenti presenti nella matrice stessa.
Sempre dalle proprietà dei determinanti e da quelle del rango (Teoremi 5.3 a
pagina 46, 5.4 a pagina 47 e 5.7, rispettivamente) segue l’importante
Teorema 5.8. Se la matrice A ha rango r e b è un vettore colonna, allora la matrice A[b,
ottenuta completando la A con la colonna b, ha rango r se e solo se b è combinazione
lineare delle colonne di A.
Dimostrazione. l’aggiunta di una colonna non può far diminuire il rango e lo
aumenta se e solo se la colonna è indipendente dalle altre.
5.3.1. Calcolo del rango
Per calcolare il rango di una matrice di tipo (m, n) dobbiamo esaminare tutti i
minori di ordine k = min(m, n): se ce n’è uno non nullo il rango è k, se invece
sono tutti nulli passeremo ad esaminare quelli di ordine k −1 e così via; oppure,
se “vediamo” un minore di ordine p < k non nullo esamineremo tutti quelli di
ordine p +1: se sono tutti nulli il rango è p altrementi sarà r ≥ p +1 e così via.
Questo procedimento può essere molto abbreviato applicando il Teorema di
Kroneker 5.9 nella pagina successiva, al quale dobbiamo però premettere la
50 Determinante e rango di una matrice. Matrice inversa
DEFINIZIONE 5.7. Sia A una matrice qualsiasi e sia M una sua sottomatrice;
orlare M significa completare la sottomatrice M con una riga ed una colonna di
A non appartenenti a M.
Ovviamente la sottomatrice M non è detto sia formata da righe o colonne che
in A sono adiacenti, pertanto la riga e la colonna che completano possono anche
essere “interne” come nel seguente
Esempio 5.8. Se A è la matrice

1 2 3 4 5
a b c d e
x y z k t
¸
¸
, una sua sottomatrice è M =
¸
3 5
z t

che può essere orlata con la seconda riga e la quarta colonna di A ottenendo

3 4 5
c d e
z k t
¸
¸
oppure con la seconda riga e, per esempio la prima colonna, ottenendo

1 3 5
a c e
x z t
¸
¸
.
Siamo ora in grado di enunciare (senza dimostrazione) il seguente utlissimo
Teorema 5.9 (di Kroneker
6
). Se in una matrice A esiste un minore M non nullo di
ordine p e tutti i minori che orlano M sono nulli, allora il rango di A è p.
Il teorema 5.9 permette quindi di limitare il controllo dei minori di ordine p +1
a quelli che orlano il minore M.
Ad esempio vogliamo il rango della matrice A =

1 0 3 2
2 3 0 1
3 3 3 3
¸
¸
. Si osserva
subito che il minore M =
¸
3 0
3 3

è diverso da 0, quindi 2 ≤ r(A) ≤ 3. In
virtù del Teorema 5.9 possiamo limitarci a controllare se sono nulli i due minori
del terz’ordine che orlano M (anziché controllare tutti e quattro i minori del
terz’ordine di A); i minori che ci interessano sono quelli formati dalla I, II e III
colonna e dalla II, III e IV, cioè: M
1
=

1 0 3
2 3 0
3 3 3
¸
¸
e M
2
=

0 3 2
3 0 1
3 3 3
¸
¸
entrambi
palesemente nulli, in quanto in entrambi la terza riga è la somma delle prime
due, dunque r(A) = 2.
Una proprietà del rango del prodotto di due matrici, spesso utile nelle applica-
zioni. è espressa dal seguente
6
Leopold KRONEKER, 1813, Liegnitz, Prussia – 1881, Berlino.
5.4 Matrice inversa 51
Teorema 5.10. Il rango del prodotto di due matrici A e B non supera il rango di
ciascuna delle due, cioè r(A B) ≤ r(A) e r(A B) ≤ r(B), che equivale a scrivere
r(AB) ≤ min (r(A), r(B)) .
5.4. Matrice inversa
5.4.1. Definizione e proprietà
Sia A una matrice quadrata di ordine n; una matrice B tale che
A B = B A = I
prende il nome di inversa di A.
Una matrice che ammette inversa è detta invertibile. Sorge il problema di
stabilire quali siano le matrici invertibili e quante inverse esse abbiano.
Al primo quesito risponde il seguente
Teorema 5.11. Una matrice A è invertibile se e solo se è non singolare, cioè se e solo se
det(A) = 0.
Dimostrazione. Se A ammette come inversa B allora AB = I e dal Teorema (di
Binet) 5.5 a pagina 47 si ha
det(A B) = det(A) det(B) = det(I) = 1
dunque, per la legge di annullamento del prodotto, nè A nè B possono essere
singolari.
Viceversa, supponiamo che det(A) = 0, consideriamo la matrice A

, detta
matrice dei complementi algebrici, il cui elemento generico α
ik
è il complemento
algebrico dell’elemento a
ki
, cioè α
ik
= A
ki
. Allora se c
ik
è il generico elemento
della matrice AA

si ha
c
ik
=

j
a
ij
α
jk
=

j
a
ij
A
kj
=
=

det A se i = k, primo Teorema di Laplace 5.1
0 se i = k, secondo Teorema di Laplace 5.2
;
questo significa che
A A

=

det(A) 0 . . . 0
0 det(A) . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . det(A)
¸
¸
¸
¸
= det(A) I
e quindi che la matrice
A

det(A)
è un’inversa di A.
52 Determinante e rango di una matrice. Matrice inversa
Al secondo quesito risponde il
Teorema 5.12. Se l’inversa di A esiste, essa è unica.
Dimostrazione. Dimostriamo il teorema per assurdo e supponiamo che B e C
siano due inverse di A; allora si ha: AB = I = AC ma anche, moltiplicando
a sinistra per B, B(AB) = B(AC) e, per l’associatività del prodotto di matrici,
(BA)B = (BA)C da cui B = C.
L’unica inversa di una matrice invertibile A sarà, d’ora in poi, indicata con
A
−1
.
Le principali proprietà delle matrici invertibili sono date dal
Teorema 5.13. Per le matrici invertibili valgono le seguenti proprietà:
i) Se A è invertibile, allora AB = AC implica B = C.
ii) Se A è invertibile, allora BA = CA implica B = C.
iii) Se A e B sono due matrici quadrate tali che AB = 0 allora sussiste uno ed uno
solo dei seguenti casi
a) né A né B sono invertibili.
b) A è invertibile, e allora B è la matrice nulla.
c) B è invertibile, e allora A è la matrice nulla.
iv) Se A e B sono invertibili, allora il prodotto AB è invertibile e si ha (AB)
−1
=
B
−1
A
−1
;
Dimostrazione. i) Basta moltiplicare a sinistra ambo i membri per A
−1
.
ii) Basta moltiplicare a destra ambo i membri per A
−1
.
iii) Se AB = 0 almeno una delle due matrici è singolare per il Teorema di Binet
( 5.5 a pagina 47).
iv) Infatti, dal teorema di Binet si ricava che il prodotto di matrici non singolari
è non singolare e si può scrivere
B
−1
A
−1
AB = B
−1
(A
−1
A)B = B
−1
B = I
in cui abbiamo applicato l’associatività del prodotto.
Concludiamo il capitolo osservando che anche per le matrici non singolari si
può parlare di potenza ad esponente negativo, definendo A
−h
come l’inversa
di A
h
. Per esercizio dimostrare che A
−h
pensata come inversa di A
h
è anche la
potenza h–esima di A
−1
.
6. Teoria dei sistemi lineari
Abbiamo ora in mano tutti gli strumenti necessari per completare lo studio
dei sistemi lineari; in particolare per decidere quando un sistema è possibile e
quante soluzioni ammette, cioè per studiare la teoria dei sistemi lineari.
Ricordiamo che, per l’appunto, questa teoria si riferisce solo ai sistemi lieari, e non è
applicabile a sistemi di grado superiore al primo.
6.1. Teoremi sui sistemi lineari
Cominciamo a considerare il caso particolare di un sistema in cui il numero
delle equazioni (diciamo n) è uguale a quello delle incognite. In questo caso
sussiste il
Teorema 6.1 (di Cramer).
1
Un sistema lineare di n equazioni in n incognite Ax = b la
cui matrice dei coefficienti sia non singolare ammette una ed una sola soluzione costituita
dalla n–pla
x
1
=
det(A
1
)
det(A)
, x
2
=
det(A
2
)
det(A)
, . . . , x
n
=
det(A
n
)
det(A)
,
dove A
i
è la matrice ottenuta dalla A sostituendo al posto della i–esima colonna la
colonna dei termini noti.
Dimostrazione. Il sistema può essere scritto, in forma matriciale, come Ax =
b e la matrice A è, per ipotesi, non singolare, dunque esiste A
−1
. Allora si
ha, moltiplicando a sinistra per A
−1
entrambi i membri, A
−1
Ax = A
−1
b e
quindi x = A
−1
b. Ma ricordando che A
−1
=
A

det(A)
si ha x =
1
det(A)
A

b;
osserviamo ora che A

b è un vettore colonna, ciascuno dei componenti del quale
è, ricordando la definizione 5.2 a pagina 44, il det(A
i
).
Per un generico sistema lineare, in cui il numero delle equazioni non è neces-
sariamente uguale a quello delle incognite, vale il Teorema ( 3.5 a pagina 28) di
Rouché-Capelli, di cui qui diamo una dimostrazione basata sulla definizione di
rango 5.6 a pagina 48 che abbiamo visto nel capitolo precedente.
Ricordiamo l’enunciato del Teorema 3.5:
1
Gabriel CRAMER, 1704, Ginevra – 1752, Bagnols sur Céze (Francia).
54 Teoria dei sistemi lineari
Teorema (3.5 di Rouché–Capelli). Sia Ax = b un sistema lineare di m equazioni in
n incognite; esso ammette soluzioni se e solo se r(A) = r(A[b) dove con A[b abbiamo
indicato la matrice ottenuta da A completandola con la colonna dei termini noti.
Dimostrazione. Sia
Ax = b (6.1)
un sistema lineare di m equazioni in n incognite e immaginiamo di scrivere la
matrice A = [A
1
A
2
. . . A
n
] scomposta in blocchi formati ciascuno da una delle
sue colonne, che indicheremo con A
i
. Allora la relazione (6.1) si può scrivere
come

A
1
x
1
+

A
2
x
2
+

A
n
x
n
=

b
e quindi ci dice che il sistema è possibile se e solo se b è combinazione lineare
delle colonne A
i
. Ma allora, in virtù del Teorema 5.8 a pagina 49 questo accade
se e solo se il rango di A è uguale al rango della matrice completa.
Segue anche, sia dal Teorema 3.5, sia dalla definizione di rango data nel
precedente capitolo, che se un sistema possibile ha rango r, esistono esattamente
r equazioni e r incognite indipendenti, dunque le altre m −r equazioni sono
combinazione lineare delle r indipendenti e non dicono nulla di nuovo, quindi
si possono trascurare, e le altre n −r incognite si possono considerare come
parametri; dunque
OSSERVAZIONE 6.1. Un sistema lineare possibile di mequazioni in n incognite in
cui il rango della matrice dei coefficienti sia r < n ammette ∞
n−r
soluzioni, cioè
infinite soluzioni dipendenti da n −r parametri. Se r = n il sistema equivale ad
un sistema di r equazioni in r incognite con matrice dei coefficienti non singolare,
quindi ammette una ed una sola soluzione per il Teorema di Cramer ( 6.1 nella
pagina precedente).
Se il vettore

b = 0 è il vettore nullo, il sistema Ax = 0 si chiama omogeneo.
Segue immediatamente dalla definizione (e dal teorema 3.5) che un sistema
omogeneo è sempre possibile ed ammette sempre come soluzione banale il
vettore nullo. Siamo quindi interessati ad eventuali soluzioni non banali (dette
anche autosoluzioni). Una semplice conseguenza del Teorema di Cramer (6.1) è il
Corollario 6.2. Un sistema omogeneo di n equazioni in n incognite Ax = 0 ammette
soluzioni non banali se e solo se det(A) = 0.
Poichè aggiungendo ad una matrice una colonna nulla il rango non cambia,
segue dal teorema di Rouché-Capelli ( 3.5 a pagina 28) e dall’Osservazione 6.1, il
Corollario 6.3. Un sistema omogeneo di m equazioni in n incognite ammette autosolu-
zioni se e solo se r(A) < n.
6.1 Teoremi sui sistemi lineari 55
Se il rango della matrice dei coefficienti è r allora il sistema possiede n −r
soluzioni indipendenti, nel senso che tutte le altre, che, ricordiamo, sono infinite,
sono combinazioni lineari delle precedenti.
Esempio 6.1. Consideriamo il sistema

hx + z = h
(h +2)x +3y = 3
(h −2)y + z = h −1
.
Si tratta di un sistema di tre equazioni in tre incognite, applichiamo quindi il Teorema di
Cramer. Il determinante dei coefficienti è:

h 0 1
h+2 3 0
0 h−2 1

= (h −1)(h +4).
Quindi per h = 1 e h = −4 il sistema ammette una ed una sola soluzione:
x =

h 0 1
3 3 0
h −1 h −2 1

(h −1)(h +4)
, y =

h h 1
h +2 3 0
0 h −1 1

(h −1)(h +4)
, z =

h 0 h
h +2 3 3
0 h −2 h −1

(h −1)(h +4)
.
Per h = 1 si ha

x + z = 1
x + y = 1
y −z = 0
che ammette le ∞
1
soluzioni x = k, y = 1 −k, z = 1 −k.
Per h = −4 il sistema diventa

4x −z = 4
2x −3y = −3
6y −z = 5
in cui la matrice dei coefficienti ha rango 2 mentre quella completa ha rango 3, pertanto
il sistema è impossibile.
Esempio 6.2. Discutiamo il sistema

hx + (h +2)y = 0
(h +2)y = h
(h +1)x = 1
di tre equazioni in due incognite. Se la matrice completa (di ordine 3) non è singolare,
ha rango 3 e quindi il sistema è impossibile, perché la matrice dei coefficienti è di tipo
56 Teoria dei sistemi lineari
(3, 2), e di conseguenza ha rango al più uguale a 2; quindi i valori di h per cui il sistema
può essere possibile sono da ricercare solo tra quelli che annullano il determinante della
matrice completa, nel nostro caso h = 0 e h = −2. Per tutti gli altri valori il sistema è
certamente impossibile. Per h = 0 il sistema diventa

y = 0
y = 0
x = 1
e quindi la soluzione è x = 1, y = 0; per h = −2 si ha

x = 0
0 = −2
−x = 1
manifestamente impossibile (verificare che in questo caso i due ranghi sono diversi).
OSSERVAZIONE 6.2. Consideriamo un sistema lineare S : Ax = b; il sistema
lineare omogeneo Ax = 0 che ha la stessa matrice dei coefficienti si chiama
sistema omogeneo associato a S. Se si conoscono la soluzione generale x
0
del
sistema omogeneo associato ed una soluzione particolare x
1
del sistema S, la
soluzione generale di quest’ultimo si può esprimere come
x = x
0
+ x
1
(6.2)
Infatti, ricordando che Ax
0
= 0, si ha A(x
0
+x
1
) = Ax
0
+ Ax
1
= b e, viceversa
se Ax = b si ha A(x − x
1
) = Ax − Ax
1
= 0, e quindi, posto x
0
= x − x
1
si ha
x = x
0
+ x
1
.
Esempio 6.3. Si consideri il sistema

x +2y +2z = 4
2x + y + z = 2
,
di due equazioni in tre incognite la cui matrice dei coefficienti ha rango 2, che ammette
dunque ∞
1
soluzioni. Si vede subito che una soluzione particolare è data dalla terna
x = 0, y = 1, z = 1. Per trovare la soluzione generale consideriamo il sistema
omogeneo ad esso associato che è:

x +2y +2z = 0
2x + y + z = 0
la cui soluzione generale è x = 0, y = t, z = −t dunque la soluzione generale del
sistema dato sarà x = 0, y = 1 + t, z = 1 −t.
7. Applicazioni lineari, prodotto scalare
Il concetto di applicazione o funzione
1
è uno dei più importanti e dei più
generali di tutta la Matematica. Abitualmente una funzione tra spazi vettoriali si
chiama più propriamente applicazione.
7.1. Generalità
Ricordiamo che usualmente si scrive f : A → B oppure A
f
→B intendendo dire
che stiamo considerando la funzione f dell’insieme A nell’insieme B.
L’elemento y = f (x) appartiene a B e si chiama immagine di x mediante f ,
viceversa, l’elemento x di A di cui y è immagine si chiama controimmagine di y.
L’insieme A si chiama dominio della funzione f , e si indica con dom f e l’insieme
B si chiama codominio di f . Dunque una funzione è data quando sono dati: la
legge rappresentata dalla f , il dominio ed il codominio.
L’insieme di tutti gli elementi del codominio che sono immagini di qualche
elemento del dominio A si chiama immagine di f e lo denoteremo con Im
A
( f ),
talvolta sottintendendo, nella notazione, il dominio di f .
Da quanto detto si ha subito che Im( f ) ⊆ B.
Se accade che Im( f ) = B la funzione si chiama suriettiva; cioè una funzione è
suriettiva se tutti gli elementi del codominio hanno una controimmagine.
Se invece due elementi distinti dell’insieme di definizione hanno sempre
immagini distinte, cioè se
∀x = x
/
∈ de f ( f ) =⇒ f (x) = f (x
/
)
allora la funzione si chiama iniettiva.
Una funzione che sia suriettiva ed iniettiva è detta biiettiva o biunivoca.
Osserviamo che la suriettività dipende dal codominio, mentre l’iniettività dal
dominio della funzione.
Ad esempio la funzione f : R →R data da f (x) = x
2
non è iniettiva, infatti,
per esempio f (−3) = f (3) = 9 cioè esistono elementi distinti del dominio che
hanno la stessa immagine e non è nemmeno suriettiva, perché, per esempio,
−1 appartiene al codominio di f ma non ha controimmagine nel dominio; se
ora invece cambiamo il codominio e consideriamo sempre la sessa funzione
1
Sono moltissimi i sinonimi del vocabolo funzione, alcuni usati più propriamente in contesti particolari,
tra i tanti ricordiamo applicazione, trasformazione, corrispondenza, mappa, operatore, morfismo, ecc.
58 Applicazioni lineari, prodotto scalare
f : R →R
+
con f (x) = x
2
allora la f non è iniettiva ma è suriettiva; viceversa
se cambiamo il dominio, la funzione f : R
+
→R data da f (x) = x
2
è iniettiva
ma non suriettiva.
Se dominio e codominio sono spazi vettoriali su uno stesso campo K (che
indicheremo, rispettivamente, con V e W), si dice che f : V → W è un’applicazione
lineare o un Omomorfismo tra due spazi V e W se f conserva le combinazioni lineari,
cioè se ∀v
1
, v
2
∈ V e ∀α ∈ K, dove K è il campo su cui è costruito lo spazio
vettoriale si ha:
−−−−−−→
f (v
1
+v
2
) =
−−−→
f (v
1
) +
−−−→
f (v
2
),
−−−→
f (αv) = α
−−→
f (v)
che si può scrivere anche come
−−−−−−−−→
f (αv
1
+ βv
2
) = α
−−−→
f (v
1
) + β
−−−→
f (v
2
),
Esempio 7.1. L’applicazione R
2
→ R
2
che associa al vettore v = [x, y] il vettore
−−→
f (v) = [y, x
2
] non è lineare, come è facile verificare. Infatti se v = [a, b] e w = [c, d]
si avrà
−−→
f (v) = [b, a
2
] e
−−→
f ( w) = [d, c
2
] e quindi
−−→
f (v) +
−−→
f ( w) = [b + d, a
2
+ c
2
] che è
diverso da
−−−−−→
f (v + w) = [b + d, (b + d)
2
].
Invece l’applicazione f : R →R tale che [x, y] → [x + y, x −y] è lineare ma questa
verifica la lasciamo come esercizio.
Abbiamo già parlato dell’immagine di f , che è un sottoinsieme del codominio;
è anche importante il sottoinsieme del dominio dato dalla
DEFINIZIONE 7.1. Si chiama nucleo dell’applicazione V
f
→W e si indica con
Ker f
2
il sottoinsieme di V formato dagli elementi che hanno come immagine lo
zero di W:
Ker f = ¦v ∈ V[
−−→
f (v) = 0
W
¦
È molto facile dimostrare il
Teorema 7.1. Il nucleo di un’applicazione lineare V
f
→W tra due spazi vettoriali V e W
è un sottospazio di V.
2
Dalla parola inglese kernel che significa, appunto, nucleo.
7.1 Generalità 59
Dimostrazione. Basta far vedere che il nucleo è chiuso rispetto alle combinazioni
lineari: infatti se v
1
e v
2
sono vettori del nucleo, si ha, sfruttando la linearità di f ,
−−−−−−−−→
f (αv
1
+ βv
2
) = α
−−−→
f (v
1
) + β
−−−→
f (v
2
) = α0
W
+ β0
W
= 0
W
quindi anche αv
1
+ βv
2
è un vettore del nucleo.
Da questo teorema segue anche, ovviamente, che il vettore nullo appartiene al
nucleo.
Altrettanto facile è dimostrare il
Teorema 7.2. L’immagine dell’applicazione lineare V
f
→W è un sottospazio di W.
Dimostrazione. La dimostrazione è lasciata come esercizio . . . basta far vedere che
l’immagine è. . . .
Il nucleo e l’immagine di un’applicazione lineare sono legati all’iniettività ed
alla suriettività dal
Teorema 7.3. Un’applicazione lineare V
f
→W è:
i) suriettiva se e solo se Imf = W,
ii) iniettiva se e solo se Ker f = ¦0
V
¦ cioè il nucleo consiste solo nel vettore nullo.
Dimostrazione. la i) segue dalla definizione di suriettività. Dimostriamo quindi
la ii). Sia f iniettiva, allora, poiché il vettore nullo appartiene al nucleo si ha
−−−→
f (0
V
) = 0
W
e, per l’iniettività, non può esistere un altro vettore v tale che
−−→
f (v) = 0
W
conv = 0
V
.
Viceversa sia Ker f = ¦0
V
¦ e sia
−−−→
f (v
1
) =
−−−→
f (v
2
) allora si ha, per la linearità di f ,
−−−→
f (v
1
) −
−−−→
f (v
2
) =
−−−−−−→
f (v
1
−v
2
) = 0
W
e quindi v
1
−v
2
∈ Ker f , dunque, per l’ipotesi,
v
1
−v
2
= 0
V
da cui v
1
=v
2
, quindi l’applicazione è iniettiva.
Naturalmente non tutte le applicazioni lineari sono iniettive o suriettive, per
esempio l’applicazione R
2
−→R
2
che manda il vettore [x, y] nel vettore [x +y, 0]
non è iniettiva, perché il nucleo è formato da tutti i vettori del tipo [a, −a], nè
suriettiva, perché il vettore [a, b] con b = 0 non è immagine di alcun vettore del
dominio.
Esistono anche applicazioni lineari che sono simultaneamente suriettive ed
iniettive, tali applicazioni, come abbiamo detto prendono il nome di applicazioni
biunivoche o isomorfismi; ad esempio l’applicazione M
2
→ R
4
che associa alla
matrice quadrata
¸
a b
c d

il vettore [a, b, c, d] è un isomorfismo (dimostrarlo per
esercizio).
60 Applicazioni lineari, prodotto scalare
Se f : V → W e
−−→
f (v) = w può esistere una applicazione g : W → V tale che
−−→
g( w) =v in tal caso si dice che g è l’applicazione inversa di f e si indica con f
−1
.
È molto utile nelle applicazioni il
Teorema 7.4. Se f : V → W vale la relazione
dim(V) = dim(ker f ) + dim(Imf )
cioè la somma tra dimensione del nucleo di una applicazione lineare e la dimensione
dell’immagine uguaglia la dimensione di V.
Dimostrazione. Sia U uno spazio supplementare di Ker f cioè sia U tale che V =
Ker f ⊕U, e sia dim(U) = s. Sia inoltre B
/
= ¦

e
/
1
, . . . ,

e
/
q
¦ una base di V tale che i
suoi primi s vettori costituiscano una base di U ed i successivi q −s vettori siano
una base per ker f : dimostriamo che i vettori
−−→
f (

e
/
1
), . . . ,
−−→
f (

e
/
s
) sono linearmente
indipendenti. Da a
1
f (

e
/
1
) + + a
s
f (

e
/
s
) = 0
W
segue, per la linearità di f , che
è f (a
1

e
/
1
+ + a
s

e
/
s
) = 0
W
, dunque a
1
e
/
1
+ + a
s
e
/
s
∈ ker( f ) ∩ U e quindi,
tenendo conto che la somma di sottospazi considerata è una somma diretta, si
ottiene che a
1
e
/
1
+ + a
s
e
/
s
= 0
V
e dalla indipendenza lineare degli e
i
si ottiene
che a
1
= a
2
= = a
s
= 0.
7.1.1. Applicazioni lineari, matrici, sistemi
È facile rendersi conto che un’applicazione lineare f tra due spazi vettoriali V
e W è nota quando si sa come si trasformano i vettori di una base di V; in altre
parole quando si conoscono i trasformati mediante f dei vettori di una base di V.
Consideriamo una base B = ¦e
1
,e
2
, . . . ,e
n
¦ di V ed una base B
/
= ¦e
/
1
e
/
2
, . . . , e
/
m
¦
di W, se
−−→
f (e
1
), . . . ,
−−→
f (e
n
) sono i trasformati mediante la f dei vettori di Bè chiaro
che ciascuno di essi, appartenendo a W, si scrive come combinazione lineare dei
vettori di B
/
, dunque si ha il sistema

−−→
f (e
1
) = a
11
e
/
1
+ a
12
e
/
2
+ + a
1m
e
/
m
−−→
f (e
2
) = a
21
e
/
1
+ a
22
e
/
2
+ + a
2m
e
/
m
. . . . . . . . . . . . . . . . . . . . . . . . . . .
−−→
f (e
n
) = a
n1
e
/
1
+ a
n2
e
/
2
+ + a
nm
e
/
m
La matrice dei coefficienti di questo sistema lineare
Γ =

a
11
a
12
. . . a
1m
a
21
a
22
. . . a
2m
.
.
.
.
.
. . . .
.
.
.
a
n1
a
n2
. . . a
nm
¸
¸
¸
¸
,
7.2 Prodotto scalare, norma 61
di tipo (n, m), è quella che si chiama matrice associata all’applicazione f rispetto alle
basi B e B
/
, in cui n e m sono rispettivamente le dimensioni di V e di W.
Esempio 7.2. Consideriamo l’applicazione f : R
2
→ R
2
che manda il vettore v =
[x, y] nel vettore
−−→
f (v) = [x + y, 0] essa è lineare (verificarlo per esercizio), inoltre si ha
e
1
= [1, 0] −→ [1, 0] =e
/
1
e
2
= [0, 1] −→ [1, 0] =e
/
1
e quindi la matrice associata a f rispetto alle basi canoniche è Γ =
¸
1 0
1 0

.
Esempio 7.3. Sia ora f : R
3
→R
2
tale che [x, y, z] → [x + z, y + z]. Si ha
e
1
= [1, 0, 0] −→ [1, 0] =e
/
1
e
2
= [0, 1, 0] −→ [0, 1] =e
/
2
e
3
= [0, 0, 1] −→ [1, 1] =e
/
1
+e
/
2
dunque la matrice associata a questa applicazione, rispetto alle basi canoniche, è

1 0
0 1
1 1
¸
¸
.
Scegliendo basi diverse la matrice associata ad f ovviamente cambia, però,
ricordando che anche il cambiamento di base si rappresenta mediante una ma-
trice, si capisce che la matrice Γ
/
associata ancora ad f rispetto a due nuove
basi è legata alla Γ dalla relazione Γ
/
= MΓN dove M e N sono le matrici del
cambiamento di base in V ed in W.
Le matrici associate ad una applicazione lineare, rispetto a qualunque scelta
di basi, hanno tutte lo stesso rango, di più, nel caso particolare in cui V ≡ W le
matrici associate ad una stessa applicazione lineare sono tutte simili
3
. Si può
anche dimostrare che se A è la matrice associata all’applicazione f : V → W la
dimensione dell’immagine di f è il rango di A cioè
r(A) = dim(Imf )
rispetto ad una qualunque coppia di basi.
7.2. Prodotto scalare, norma
7.2.1. Norma di un vettore in R
2
o R
3
Riprendiamo ora lo studio dei vettori da un punto di vista più geometrico. È
noto, per esempio dalla Fisica, che spesso è comodo visualizzare un vettore del
3
Il concetto di matrici simili verrà introdotto nel paragrafo 8.2 a pagina 72.
62 Applicazioni lineari, prodotto scalare
piano o dello spazio come una “frecciolina”, caratterizzata da una lunghezza,
una direzione ed un verso (o orientamento); si vede subito che se il vettore
v è spiccato dall’origine, esso è completamente individuato dal suo secondo
estremo.
Abbiamo già visto che i punti di una retta orientata possono essere messi in
corrispondenza biunivoca con i numeri reali; se ora consideriamo, invece, due
rette, per comodità perpendicolari, e fissiamo su ciascuna di esse un’unità di
misura (in genere la stessa), ad ogni punto del piano corrisponde una coppia
ordinata di numeri reali, come illustrato nella Figura 7.1. Così facendo abbiamo
fissato quello che si chiama un sistema di riferimento cartesiano
4
ortogonale.
Figura 7.1. Un sistema di riferimento cartesiano ortogonale
Nello spazio la generalizzazione non è immediata: bisogna considerare come
assi tre rette orientate concorrenti
5
e a due a due perpendicolari e chiamare
coordinate cartesiane del punto P le tre distanze di P dai tre piani che queste rette
a due a due formano; se le tre rette si chiamano rispettivamente x, y e z si ha,
per esempio: x
P
= distanza (P, yz), dove, con yz abbiamo indicato il piano
individuato dai due assi y e z .
Il punto P può anche essere visto come il secondo estremo di un vettore
spiccato dall’origine, che, come già detto, è completamente individuato dalle sue
coordinate; in R
2
scriviamo quindi
−→
OP =v = [x, y], in cui x, y sono le coordinate
4
da Cartesio: Renée DESCARTES, 1569, La Haye (Francia) – 1650, Stoccolma (Svezia).
5
cioè passanti tutte e tre per un medesimo punto.
7.2 Prodotto scalare, norma 63
cartesiane del punto P(x, y) nel sistema di riferimento scelto, mettendo così in
luce che si tratta di un vettore del piano, cioè di R
2
.
Figura 7.2. Un sistema di riferimento cartesiano ortogonale nello spazio
In modo analogo parliamo di vettori nello spazio come di vettori di R
3
:
−→
OP =
v = [x, y, z] in cui le coordinate cartesiane del punto P(x, y, z) sono x, y, z. vedi
la figura 7.2
Le operazioni tra vettori che abbiamo imparato a conoscere nei paragrafi
precedenti si visualizzano tra i vettori geometrici. La somma di due vettori si
definisce con la regola del parallelogrammo vedi la figura 7.3
Figura 7.3. La regola del parallelogrammo
per la somma di vettori
64 Applicazioni lineari, prodotto scalare
Per il prodotto di un vettore per uno scalare λ prendiamo in considerazione i
tre casi seguenti:
λ > 0 allora λOP è il vettore OP con la lunghezza moltiplicata per λ;
λ = 0 allora λOP è il vettore nullo;
λ < 0 allora λOP è il vettore OP con la lunghezza moltiplicata per [λ[ e di verso
opposto.
Queste operazioni corrispondono alle operazioni già viste
λ[x, y] = [λx, λy]
e
[x, y] + [x
/
, y
/
] = [x + x
/
, y + y
/
]
in R
2
e
λ[x, y, z] = [λx, λy, λz]
e
[x, y, z] + [x
/
, y
/
, z
/
] = [x + x
/
, y + y
/
, z + z
/
]
in R
3
.
Anche i concetti di dipendenza ed indipendenza lineare hanno una facile inter-
pretazione geometrica, infatti si vede subito che in R
2
due vettori sono linearmente
dipendenti se e solo se stanno su una stessa retta ed in R
3
tre vettori se e solo se sono
complanari.
Se identifichiamo gli elementi dello spazio vettoriale R
2
con i segmenti orien-
tati spiccati dall’origine, nel piano riferito ad un sistema di coordinate cartesiane
ortogonali, si nota che ad ogni vettore di R
2
risulta associato un numero reale
non negativo: la lunghezza del segmento OP. Definiamo allora la norma di un
vettore v = [x, y] ∈ R
2
come
|v| = |[x, y]| =

x
2
+ y
2
(7.1)
e in R
3
|v| = |[x, y, z]| =

x
2
+ y
2
+ z
2
. (7.2)
La norma verifica le proprietà elencate nella tabella 7.1 nella pagina successiva,
dove, per noi, V ≡ R
2
oppure V ≡ R
3
(in realtà si puo dare una definizione di
norma e di prodotto scalare in uno spazio vettoriale qualsiasi, e non solo in R
n
come vedremo più avanti).
Le prime tre proprietà sono banali; la quarta è la disuguaglianza triangolare
che abbiamo già visto.
7.2 Prodotto scalare, norma 65
Tabella 7.1. Proprietà della norma di un vettore
i) |v| ≥ 0 ∀v ∈ V;
ii) |v| = 0 ⇐⇒ v = 0 ∀v ∈ V;
iii) |λv| = [λ[ |v| ∀v ∈ V e ∀λ ∈ R;
iv) |u +v| ≤ |u| +|v|, ∀u, v ∈ V.
Dalle proprietà della norma appare chiaro come si può definire una distanza
in R
2
o in R
3
. Infatti se poniamo
d(u, v) = |u −v| (7.3)
si verifica immediatamente che valgono per ogni u, v, w le proprietà elencate
nella tabella 7.2 (caratterizzanti una distanza).
Tabella 7.2. Proprietà della distanza di due punti
i) d(u, v) ≥ 0; ∀u, v
ii) d(u, v) = 0 ⇐⇒ v = u; ∀v = u
iii) d(u, v) = d(v, u); ∀u, v
iv) d(u, v) ≤ d(u, w) + d(w, v). ∀v, u, w
Osserviamo esplicitamente che se si identificano R
3
e R
2
con lo spazio ed il
piano riferiti a coordinate cartesiane ortogonali, la distanza definita dalla (7.3)
coincide con quella usualmente definita.
7.2.2. Prodotto scalare
Definiamo prodotto scalare
6
di due vettori v = [x
1
, y
1
] e w = [x
2
, y
2
] di R
2
il
numero reale
'v, w` = '[x
1
, y
1
], [x
2
, y
2
]` = x
1
x
2
+ y
1
y
2
=

x
1
y
1

¸
x
2
y
2

=v w
T
(7.4)
e in R
3
il numero reale
'v, w` = '[x
1
, y
1
, z
1
], [x
2
, y
2
, z
2
]` = x
1
x
2
+y
1
y
2
+z
1
z
2
=

x
1
y
1
z
1

x
2
y
2
z
2
¸
¸
=v w
T
(7.5)
6
Da non confondere con il prodotto per uno scalare: si noti che il prodotto scalare ', ` associa ad una
coppia ordinata di vettori un numero reale, mentre il prodotto per uno scalare associa ad una coppia
scalare–vettore un vettore.
66 Applicazioni lineari, prodotto scalare
Occorre precisare che, formalmente, il prodotto scalare come è stato definito
dalle (7.4) e (7.5) equivale al prodotto v w
T
, pensando v come matrice costituita
da una sola riga e w
T
come matrice di una sola colonna. In realtà questa equi-
valenza è solo formale, in quanto, in quest’ultimo caso, otteniamo una matrice
composta da un solo elemento: uno scalare
7
(v. nota 4 a pagina 19), che, in virtù
dell’isomorfismo tra M
1
ed R, possiamo ritenere equivalenti.
Per esempio
'[4, 3, −1], [0, −3, 4]` = 4 0 +3(−3) + (−1)4 = −13
oppure
¸
2
3

,
¸
−3
1

= 2(−3) +3 1 = −3
(nel secondo esempio abbiamo usato vettori colonna, per sottolineare l’assoluta
intercambiabilità, in questo contesto, delle due notazioni).
Il prodotto scalare è legato alla norma dalla relazione

'u, u` = |u| . (7.6)
Inoltre valgono le proprietà elencate nella tabella 7.3 semplicissime da dimostrare
Tabella 7.3. Proprietà del prodotto scalare
i) 'u, u` ≥ 0 ∀u ∈ V
ii) 'u, u` = 0 ⇐⇒ u = 0 ∀u ∈ V
iii) 'u, v` = 'v, u` ∀u, v ∈ V
iv) 'λv, u` = λ 'v, u` = 'u, λv` ∀u, v ∈ V e ∀λ ∈ R
v) 'u, v + w` = 'u, v` +'u, w` ∀u, v, w ∈ V
tenendo conto della definizione, e la cui dimostrazione è proposta come esercizio.
Sussiste il seguente
Teorema 7.5. Siano u e v due vettori di R
2
o di R
3
e si considerino i segmenti orientati
ad essi associati nel piano o nello spazio riferiti a sistemi di coordinate ortogonali. Allora
'u, v` = |u| |v| cos ϕ (7.7)
dove ϕ ∈ [0, π] è l’ampiezza dell’angolo fra i due segmenti.
7
nel nostro caso un numero reale.
7.2 Prodotto scalare, norma 67
Dimostrazione. La dimostrazione è un’immediata conseguenza del Teorema del
coseno e delle proprietà del prodotto scalare.
Esempio 7.4. Siano dati in R
2
i due vettori u = [1, −3] e v = [2, 5], vogliamo
conoscere l’angolo ϕ che formano i segmenti orientati ad essi associati; il loro prodotto
scalare è 'u, v` = 1 2 + (−3)5 = −13. Inoltre |u| =

10 e |v| =

29 dunque
l’angolo fra i due segmenti orientati sarà tale che cos ϕ =
'u, v`
|u| |v|
= −
13

290
;
osservando che −

3
2
< −
13

290
< −

2
2
si deduce che

4
< ϕ <

6
.
Un vettore u = [a, b, c] si dice unitario o versore se ha norma 1, cioè se |u| = 1,
quindi se a
2
+ b
2
+ c
2
= 1.
Dal Teorema 7.5 si ricava che le componenti a, b e c di u sono i coseni degli
angoli che u forma con i versori fondamentali e
1
= [1, 0, 0], e
2
= [0, 1, 0] ed
e
3
= [0, 0, 1] e prendono il nome di coseni direttori del vettore u.
Ogni vettore non nullo può essere normalizzato dividendolo per la propria
norma, infatti è facile verificare che

v
|v|

=
|v|
|v|
= 1.
Due vettori diversi dal vettore nullo si dicono perpendicolari o ortogonali se
l’ampiezza dell’angolo tra u e v è ϕ =
π
2
.
Segue immediatamente dal Teorema 7.5 che
'u, v` = 0 ⇐⇒ ϕ =
π
2
con u = 0, v = 0 (7.8)
scriveremo dunque v ⊥u ⇐⇒ 'u, v` = 0 cioè due vettori sono ortogonali se e solo
se il loro prodotto scalare è nullo
Il discorso si generalizza:
DEFINIZIONE 7.2. Si dice che n vettori v
1
, v
2
, . . . , v
n
sono mutuamente ortogonali
se

v
i
, v
j

= 0 (7.9)
per ogni i, j con i, j = 1 . . . n.
Se i v
i
sono anche normalizzati (cioè sono dei versori) diciamo che sono
ortonormali.
Una base ortogonale è una base costituita da vettori mutuamente ortogonali.; se
i vettori sono anche normalizzati, abbiamo a che fare con una base ortonormale.
Osserviamo che vettori ortogonali sono sempre indipendenti, mentre non vale
in generale il viceversa. (Verificarlo per esercizio)
68 Applicazioni lineari, prodotto scalare
Esempio 7.5. In R
3
la base B = ¦[1, 3, 1], [−1, 0, 1], [6, −4, 6]¦ è una base ortogonale
ma non ortonormale (verificarlo per esercizio).
Sappiamo che in uno spazio vettoriale ogni vettore si può esprimere come com-
binazione lineare dei vettori di una base; se la base è ortogonale o ortonormale,
si possono determinare in maniera semplice i coefficienti della combinazione
lineare:
Teorema 7.6. Sia ¦e
1
,e
2
,e
3
¦ una base ortogonale, allora v = λ
1
e
1
+ λ
2
e
2
+ λ
3
e
3
in
cui
λ
i
=
'v,e
i
`
'e
i
,e
i
`
; (7.10)
se invece la base è ortonormale
λ
i
= 'v,e
i
` .
Esempio 7.6. Sia B la base ortogonale
B = ¦e
1
= [1, 3, 1],e
2
= [−1, 0, 1],e
3
= [6, −4, 6]¦
dell’esempio 7.5: abbiamo 'e
1
,e
1
` = 11, 'e
2
,e
2
` = 2, 'e
3
,e
3
` = 88. Se v = [3, 2, 5]
usando i risultati trovati e la (7.10) si ha
v =
'v,e
1
`
11
e
1
+
'v,e
2
`
2
e
2
+
'v,e
3
`
88
e
3
=
=
14
11
e
1
+e
2
+
5
11
e
3
.
Dal punto di vista geometrico la (7.10) significa che 'v,e
i
`e
i
è la componente
del vettore v nella direzione di e
i
o anche che è la proiezione ortogonale di v sulla
retta su cui giace il vettoree
i
. Come è noto la proiezione ortogonale ha lunghezza
|v| [ cos ϕ
i
[; lo stesso risultato si trova applicando il teorema 7.5:
|'v,e
i
`e
i
| = [ 'v,e
i
` [ |e
i
| = |v| |e
i
|
2
[ cos ϕ
i
[ = |v| [ cos ϕ
i
[.
7.3. Generalizzazioni
Il concetto di prodotto scalare è molto più generale di quello qui definito (che
è il prodotto scalare standard in uno spazio vettoriale isomorfo a R
2
od a R
3
).
Ricordiamo che si chiama prodotto cartesiano di due insiemi V e W e si indica
con V W l’insieme delle coppie ordinate (v, w) essendo v ∈ V, e w ∈ W.
In generale dati due spazi vettoriali sul medesimo campo K un’applicazione g
da V W a K per cui valgano le proprietà elencate nella tabella 7.4
7.3 Generalizzazioni 69
Tabella 7.4. Proprietà delle forme bilineari
i) g(v
1
+ v
2
, w) = g(v
1
, w) + g(v
2
, w) ∀v
1
, v
2
∈ V, w ∈ W
ii) g(v, w
1
+ w
2
) = g(v, w
1
) + g(v, w
2
) ∀v ∈ V, w
1
, w
2
∈ W
iii) g(αv, w) = g(v, αw) = αg(v, w) ∀v ∈ V, w ∈ W, α ∈ K
si chiama applicazione o forma bilineare (nel senso che è lineare rispetto a
tutt’e due le variabili; nello stesso senso si parla talvolta anche anche di forma
multilineare). Un’applicazione bilineare tale che si abbia
g(v, w) = g(w, v) ∀v ∈ V, w ∈ W
si chiama simmetrica. Un’ applicazione bilineare simmetrica g : V V →R per
cui sia
i) g(v, w) ≥ 0 ∀v, w ∈ V
ii) g(v, v) = 0 ⇐⇒ v = 0
si chiama prodotto scalare e si preferisce indicare g(v, w) con 'v, w` . Uno spazio
vettoriale in cui sia stato definito un prodotto scalare si chiama euclideo.
Come utile esercizio, il lettore verifichi che il prodotto scalare standard defi-
nito nel paragrafo precedente è una forma bilineare simmetrica che gode delle
proprietà i) e ii)
Come esempio si verifichi che in R
2
è un prodotto scalare
'x, y` = [x
1
, x
2
]
¸
2 1
1 5

¸
y
1
y
2

.
Ovviamente due vettori ortogonali rispetto ad un prodotto scalare possono
non esserlo rispetto ad un altro. Quando parleremo di vettori ortogonali senza
precisare rispetto a quale prodotto scalare ci riferiremo sempre al prodotto scalare
standard.
Per i prodotti scalari vale il
Teorema 7.7. Sia V uno spazio vettoriale euclideo, cioè uno spazio vettoriale dotato di
un prodotto scalare, allora si ha:
'u, v` =
1
2
('u +v, u +v` −'u, u` −'v, v`)
la dimostrazione, che il lettore è invitato a scrivere in maniera esplicita, è un
semplice calcolo basato sulla bilinearità e sulla simmetria del prodotto scalare.
Sia V uno spazio vettoriale euclideo e sia U un suo sottospazio. Indichiamo con
U

l’insieme di tutti i vettori di V che sono ortogonali a vettori di U (rispetto ad
un fissato prodotto scalare) e lo chiamiamo complemento ortogonle di U (rispetto a
quel certo prodotto scalare)
8. Matrici simili. Autovalori ed autovettori di
una matrice quadrata
8.1. Matrici simili
Siano A e B due matrici quadrate di ordine n
DEFINIZIONE 8.1. Diciamo che la matrice A è simile alla matrice B se esiste
una matrice di passaggio P, non singolare, tale che
P
−1
AP = B. (8.1)
Si vede subito che
Teorema 8.1. La similitudine di matrici è una relazione di equivalenza.
Dimostrazione. Infatti ogni matrice è simile a se stessa (basta prendere, nella (8.1)
come matrice di passaggio la matrice I); ricordando che P = (P
−1
)
−1
si ricava
subito che se A è simile a B con matrice di passaggio P allora B sarà simile
ad A con matrice di passaggio P
−1
; infine da P
−1
AP = B e Q
−1
BQ = C si ha
Q
−1
P
−1
APQ = C dunque, ricordando che (PQ)
−1
= Q
−1
P
−1
si conclude che
A è simile a C con matrice di passaggio PQ.
È immediato dimostrare il
Teorema 8.2. Due matrici simili hanno lo stesso determinante.
Dimostrazione. Siano A e B le due matrici. Dalla formula 8.1 e dal teorema di
Binet 5.5 a pagina 47 si ricava che
det(P
−1
AP) = det B
det(P
−1
) det A det P = det B
e la tesi segue immediatamente dal fatto che det(P
−1
) det P = 1.
Attenzione! L’inverso del Teorema 8.2 non vale: cioè esistono matrici che
hanno lo stesso determinante e non sono simili. È un utile esercizio trovare degli
esempi di questo fatto.
72 Matrici simili. Autovalori ed autovettori di una matrice quadrata
8.2. Autovalori ed autovettori di una matrice
Sia ora A una matrice quadrata di ordine n, per esempio associata ad un
endomorfismo
1
, e consideriamo la relazione
Ax = λx (8.2)
con x = 0. La (8.2) in sostanza dice che applicando al vettore x la matrice A si
ottiene un vettore proporzionale ad x, cioè che x non cambia direzione.
Fissata la A ci chiediamo se esistono degli scalari λ e dei vettori x per cui
valga la (8.2), cioè, fissata la trasformazione, ci chiediamo se ci sono vettori che,
trasformati, non cambiano direzione.
Gli scalari λ che compaiono nella (8.2) si chiamano autovalori o valori propri ed
i vettori x si chiamano autovettori o vettori propri della matrice A.
È lecito ora porsi la domanda: fissata una matrice A esistono autovalori?
quanti? ed autovettori?
Per rispondere a queste domande riscriviamo la (8.2) nella forma
λx − Ax = 0
equivalente a
(λI − A)x = 0 (8.3)
che rappresenta un sistema lineare omogeneo di n equazioni in n incognite la
cui matrice dei coefficienti è la matrice λI − A. Sappiamo che un tale sistema
ammette soluzioni non banali se e solo se il determinante della matrice dei
coefficienti è nullo.
Il determinante della matrice dei coefficienti del sistema (8.2) è ovviamente
funzione di λ
det(λI − A) =

λ −a
11
−a
12
−a
13
. . . −a
1n
−a
21
λ −a
22
−a
23
. . . −a
2n
−a
31
−a
32
λ −a
33
. . . −a
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
−a
n1
−a
n2
−a
n3
. . . λ −a
nn

e si può scrivere come polinomio in λ
ϕ(λ) = det(λI − A) = λ
n
+ c
1
λ
n−1
+ c
2
λ
n−2
+ + c
n−1
λ + c
n
(8.4)
che è un polinomio di grado n nella variabile λ con coefficiente direttore
2
uguale
a 1, che prende il nome di polinomio caratteristico della matrice A ed i cui zeri
sono tutti e soli gli autovalori di A.
1
Ricordiamo che si chiama endomorfismo un’applicazione lineare f : V → V di uno spazio vettoriale su
se stesso.
2
cioè coefficiente del termine di grado massimo
8.2 Autovalori ed autovettori di una matrice 73
Il coefficiente di λ
n
proviene solo dal prodotto degli elementi principali ed è
quindi uguale a 1; i vari successivi coefficienti c
1
. . . c
n
di ϕ(λ) si possono trovare
sviluppando normalmente il determinante di λI − A oppure tenendo conto del
legame tra di essi ed i minori estratti dalla matrice A (Teorema 8.7 nella pagina
successiva).
Per il Teorema fondamentale dell’Algebra sappiamo che ogni polinomio di
grado n ha, nel campo complesso, esattamente n radici contate ciascuna con la
propria molteplicità, dunque sussiste il
Teorema 8.3. Una matrice quadrata di ordine n ha, nel campo complesso C, esattamente
n autovalori, ciascuno contato con la propria molteplicità.
Una banale ed immediata conseguenza è che se anche la matrice A ha tutti
gli elementi reali, i suoi autovalori possono essere in tutto o in parte numeri
complessi.
Se λ
1
, λ
2
, . . . , λ
s
(s ≤ n) sono gli autovalori distinti di A e k
1
, k
2
, . . . , k
s
ri-
spettivamente le loro molteplicità algebriche (quindi
s

j=1
k
j
= n), chiamiamo
l’espressione

λ
1
λ
2
. . . λ
s
k
1
k
2
. . . k
s

lo spettro della matrice A. In essa sotto ad ogni autovalore è indicata la sua
molteplicità come radice del polinomio caratteristico (molteplicità algebrica).
Vale il
Teorema 8.4. Due matrici simili A e B hanno lo stesso polinomio caratteristico.
Dimostrazione. Sia B = P
−1
AP: si ha necessariamente
[λI −B[ = [λI −P
−1
AP[ = [P
−1
λIP −P
−1
AP[ =
= [P
−1
(λI − A)P[ = [P
−1
[[λI − A[[P[
= [λI − A[
e quindi i polinomi caratteristici sono uguali.
OSSERVAZIONE 8.1. Dal Teorema 8.4 segue che due matrici simili hanno gli
stessi autovalori con le stesse molteplicità, quindi lo stesso spettro.
OSSERVAZIONE 8.2. ATTENZIONE Il Teorema 8.4 non è invertibile!, cioè due ma-
trici che hanno lo stesso polinomio caratteristico possono anche non essere simili,
per esempio le matrici A =
¸
0 0
0 0

e B =
¸
0 1
0 0

hanno entrambe polinomio
caratteristico ϕ(λ) = λ
2
ma la A, essendo la matrice nulla, è simile solo a se
stessa.
74 Matrici simili. Autovalori ed autovettori di una matrice quadrata
Sugli autovalori valgono le proprietà espresse dai seguenti teoremi
Teorema 8.5. Se λ
1
, λ
2
, . . . , λ
n
sono gli n autovalori di A e se c
n
è il termine noto del
polinomio caratteristico di A sussiste la relazione
det(A) = (−1)
n
c
n
= λ
1
λ
2
λ
n
.
Dimostrazione. Infatti si ha, tenendo conto della (8.4):
ϕ(λ) = det(λI − A) = λ
n
+ c
1
λ
n−1
+ + c
n
=
= (λ −λ
1
)(λ −λ
2
) (λ −λ
n
)
relazione che vale ∀λ e quindi, in particolare, anche per λ = 0. Per questo valore
si ha
det(−A) = c
n
= (−λ
1
)(−λ
2
) (−λ
n
)
cioè (−1)
n
det(A) = c
n
= (−1)
n
λ
1
λ
2
λ
n
che è la tesi.
Ne segue il
Corollario 8.6. Una matrice è singolare se e solo se ha almeno un autovalore nullo.
OSSERVAZIONE 8.3. Da quanto detto si ricava anche che in una matrice triango-
lare (in particolare diagonale) gli autovalori coincidono con gli elementi della
diagonale principale.
DEFINIZIONE 8.2. Sia A una matrice quadrata; chiamiamo minore principale di
ordine k e lo indichiamo con M
k
il determinante di una sottomatrice quadrata di
ordine k i cui elementi principali sono solo elementi principali di A.
Esempio 8.1. I minori principali di ordine 2 della matrice

a b c
1 2 3
d e f
¸
¸
sono

a c
d f

,

a b
1 2

e

2 3
e f

ma non, ad esempio

1 2
d e

perché i suoi elementi principali non sono
tutti elementi principali di A
Si dimostra allora che
Teorema 8.7. Se
ϕ(λ) = λ
n
+ c
1
λ
n−1
+ + c
n−1
λ + c
n
è il polinomio caratteristico di una matrice A, allora
c
k
= (−1)
k

M
k
(8.5)
dove la somma è estesa a tutti i minori principali di ordine k estratti da A.
8.2 Autovalori ed autovettori di una matrice 75
Quindi c
i
è –a meno del segno– la somma dei minori principali di ordine i,
da cui, per esempio, c
1
= −tr(A); c
2
è la somma di tutti i minori principali di
ordine 2 e così via.
Inoltre sussiste il
Teorema 8.8. Se λ è un autovalore di molteplicità k allora
r(λI − A) ≥ n −k. (8.6)
Il numero n −r(λI − A) è il numero delle soluzioni indipendenti del sistema
(8.2), cioè degli autovettori indipendenti associati all’autovalore λ, che prende il
nome di molteplicità geometrica dell’autovalore. Un autovalore per cui la molte-
plicità algebrica sia uguale a quella geometrica, cioè per il quale vale il segno =
nella (8.6), si chiama regolare. Segue subito da questa definizione e dal teorema
8.8 il
Teorema 8.9. Ogni autovalore semplice è regolare.
Dimostrazione. Infatti r(λI − A) < n in quanto det(λI − A) = 0 e dal Teorema
8.8 segue che è r ≥ n −1 dunque n −1 ≤ r < n da cui r = n −1.
Siano ora x e y due autovettori della matrice Aassociati entrambi all’autovalore
λ; sussiste il
Teorema 8.10. Ogni combinazione lineare di autovettori di A associati a λ è un
autovettore di A associato a λ.
Dimostrazione. Siano Ax = λx e Ay = λy, consideriamo il vettore αx + βy e
vogliamo dimostrare che anch’esso è autovettore associato a λ. Si ha, infatti
A(αx + βy) = Aαx + Aβy = αAx + βAy = αλx + βλy = λ(αx + βy).
Quindi l’insieme degli autovettori associati ad un autovalore, con l’aggiunta
del vettore nullo, costituisce uno spazio vettoriale, che prende il nome di autospa-
zio associato a λ e la molteplicità geometrica dell’autovalore, che corrisponde al
numero degli autovettori indipendenti, è la dimensione di questo autospazio.
Per il Teorema 8.8 si ha subito che la molteplicità geometrica di un autovalore λ
non supera quella algebrica e la uguaglia se e solo se λ è regolare.
Vale il
Teorema 8.11. Siano λ
1
, λ
2
, . . . , λ
s
s autovalori distinti di A (s ≤ n) e siano x
1
, x
2
, . . . , x
s
s autovettori associati ordinatamente ai λ
i
. Allora i vettori x
i
sono linearmente indipen-
denti.
76 Matrici simili. Autovalori ed autovettori di una matrice quadrata
Di conseguenza gli autospazi associati ad ogni autovalore sono disgiunti, e
la loro somma è un sottospazio V
/
dello spazio vettoriale V in cui è definito
l’endomorfismo rappresentato dalla matrice A.
Da quanto detto segue facilmente che gli autovalori di A sono tutti regolari se
e solo se V
/
= V.
Sussiste anche il
Teorema 8.12. Se x è autovettore di A associato all’autovalore λ allora esso è anche
autovettore di A
k
associato all’autovalore λ
k
∀k > 0.
Dimostrazione. Da Ax = λx si ricava, moltiplicando a sinistra per A,
A
2
x = Aλx = λAx = λλx = λ
2
x
e quindi x è autovettore di A associato all’autovalore λ
2
. Iterando il procedimen-
to si perviene alla tesi.
9. Diagonalizzazione, matrici ortogonali
9.1. Diagonalizzazione di una matrice quadrata
Una matrice quadrata si dice diagonalizzabile se è simile ad una matrice diago-
nale, cioè se esiste una matrice non singolare P tale che
P
−1
AP = ∆
con ∆ matrice diagonale.
Ci proponiamo ora di stabilire dei criteri di diagonalizzabilità, il che equivale
a dare delle condizioni necessarie e sufficienti per stabilire quali sono tutte e sole le
matrici diagonalizzabili.
Sussiste a questo proposito il
Teorema 9.1. Una matrice quadrata A di ordine n è diagonalizzabile se e solo se ammette
n autovettori indipendenti.
Dimostrazione. Siano X
1
, X
2
, . . . , X
n
n autovettori indipendenti di A e siano asso-
ciati rispettivamente agli autovalori λ
1
, λ
2
, . . . , λ
n
. Indichiamo con P = [X
1
X
2
. . . X
n
]
la matrice che ha come colonne gli X
i
; allora, ricordando i punti i) e ii) dell’osser-
vazione 3.7 a pagina 25, sussistono le uguaglianze
AP =

AX
1
AX
2
. . . AX
n

(9.1)
P diag(λ
1
, λ
2
, . . . , λ
n
) =

λ
1
X
1
λ
2
X
2
. . . λ
n
X
n

poiché gli X
i
sono autovettori di A associati ordinatamente agli autovalori λ
i
,
per ogni i si ha AX
i
= λ
i
X
i
, dalla (9.1) segue che
AP = P diag(λ
1
, λ
2
, . . . , λ
n
)
ed essendo P non singolare, in quanto formata da vettori indipendenti segue che
P
−1
AP = diag(λ
1
, λ
2
, . . . , λ
n
) (9.2)
quindi se A ammette n autovettori indipendenti, essa è diagonalizzabile.
Viceversa se A è diagonalizzabile esistono una matrice invertibile P ed una
matrice diagonale ∆ = diag(λ
1
, λ
2
, . . . , λ
n
) tali che
AP = P∆
78 Diagonalizzazione, matrici ortogonali
ma se chiamiamo X
1
, X
2
, . . . , X
n
le colonne di P, dalla (9.2) e ricordando ancora
l’osservazione 3.7, otteniamo
A

X
1
X
2
. . . X
n

=

X
1
X
2
. . . X
n

diag(λ
1
, λ
2
, . . . , λ
n
),
da cui

AX
1
AX
2
. . . AX
n

=

λ
1
X
1
λ
2
X
2
. . . λ
n
X
n

e quindi, per ogni i, si ha AX
i
= λ
i
X
i
, dunque gli X
i
sono autovettori di A
linearmente indipendenti.
OSSERVAZIONE 9.1. Il Teorema 9.1 significa, in sostanza, che una matrice che
rappresenta un endomorfismo di uno spazio vettoriale V è diagonalizzabile se e
solo se esiste una base formata da autovettori di V. Cioè se V = V
1
⊕V
2
⊕ ⊕V
k
dove i V
i
sono gli autospazi associati, ordinatamente, agli autovalori λ
i
.
OSSERVAZIONE 9.2. Le matrici P che trasformano la A in una matrice diagonale
sono tutte (e sole) quelle formate da n autovettori indipendenti di A, quindi sono
infinite.
OSSERVAZIONE 9.3. Se diag(λ
1
, λ
2
, . . . , λ
n
) è una qualunque matrice diagonale
simile ad A, i suoi elementi principali sono tutti (e soli) gli autovalori di A.
OSSERVAZIONE 9.4. Una matrice diagonalizzabile è univocamente determinata
dai suoi autovettori e dai suoi autovalori.
Abbiamo detto che l’avere lo stesso polinomio caratteristico non basta affinché
due matrici siano simili, tuttavia
Teorema 9.2. Se A e B sono entrambe diagonalizzabili, esse sono simili se e solo se
hanno lo stesso polinomio caratteristico.
Dimostrazione. Se A e B sono simili, hanno lo stesso polinomio caratteristico per
il Teorema 8.4, viceversa se A e B hanno lo stesso polinomio caratteristico esse
hanno gli stessi autovalori con le stesse molteplicità; dunque sono entrambe
simili alla medesima matrice diagonale, e quindi simili tra loro.
Per verificare se due matrici A e B sono simili è necessario, anzittutto, con-
trollare che abbiano lo stesso polinomio caratteristico; a questo punto possono
accadere tre casi: o sono entrambe diagonalizzabili, e allora per il Teorema 9.2
sono simili tra loro, oppure una è diagonalizzabile e l’altra no, e allora non
sono simili, oppure ancora nessuna delle due è diagonalizzabile, e allora occorre
ricorrere a metodi più sofisticati.
Un’altra condizione necessaria e sufficiente per la diagonalizzabilità, meno
semplice da dimostrare ma più comoda da usare, è quella espressa dal
Teorema 9.3. Una matrice è diagonalizzabile se e solo se ha tutti gli autovalori regolari.
9.2 Martici ortogonali 79
Poiché un autovalore semplice è regolare (vedi Teorema 8.9 a pagina 75) dal
Teorema 9.3 segue immediatamente il
Corollario 9.4. Una matrice è diagonalizzabile se tutti i suoi autovalori sono distinti.
OSSERVAZIONE 9.5 (ATTENZIONE!). Il viceversa del corollario 9.4 non vale,
cioè una matrice può essere diagonalizzabile anche se i suoi autovalori non sono
tutti distinti, basta che infatti siano tutti regolari (Teorema 9.3).
Esempio 9.1. Sia A =
¸
a a +1
a +3 a +2

. Vogliamo vedere per quali valori di a essa è
diagonalizzabile. Il polinomio caratteristico di A è ϕ(λ) = λ
2
−(2a + 2)λ + a(a +
2) −(a +3)(a +1). Le radici di ϕ(λ) sono −1 e 2a +3, che coincidono se e solo se
a = −2, quindi per a = −2 la matrice è diagonalizzabile perché i due autovalori sono
distinti, qundi semplici entrambi; per a = −2 la matrice diventa
¸
−2 −1
1 0

il cui
polinomio caratteristico è (λ +1)
2
cioè ammette l’autovalore −1 doppio. Esso è regolare
se r(−I − A) = 0 il che palesemente non è. Concludiamo dunque che la matrice A è
diagonalizzabile per ogni a = −2.
Esempio 9.2. Vogliamo determinare per quali valori dei parametri è diagonalizzabile la
matrice

1 0 0
a 0 0
b a 1
¸
¸
.
Si vede subito (A è triangolare) che gli autovalori sono 0 semplice e 1 doppio. L’autovalore
0 è regolare in quanto semplice. Esaminiamo la regolarità di 1. Esso è regolare quando
r(I − A) = 3 −2 = 1; la matrice 1I − A è

0 0 0
−a 1 0
−b −a 0
¸
¸
il cui unico minore del
second’ordine non certamente nullo è
¸
−a 1
−b −a

esso però si annulla per a
2
+ b = 0,
dunque per questi valori, e solo per questi, A è diagonalizzabile.
9.2. Martici ortogonali
DEFINIZIONE 9.1. Diciamo che una matrice U è ortogonale se è reale e se
UU
T
= U
T
U = I. (9.3)
Sulle matrici ortogonali sussiste il
80 Diagonalizzazione, matrici ortogonali
Teorema 9.5. Una matrice U è ortogonale se e solo se le sue colonne formano un sistema
ortonormale di vettori.
Dimostrazione. Infatti la relazione (9.3) implica che se U = [u
ik
] e U
T
= [u
ki
] si ha
δ
ik
= ∑
j
u
ji
u
jk
dove il generico elemento del prodotto è l’elemento generico della
matrice I cioè δ
ik
=

1 se i = k
0 se i = k
ovvero le colonne di U formano un sistema
ortonormale.
Sulle matrici ortogonali vale il
Teorema 9.6. Sia U una matrice ortogonale. Allora:
i) det(U) = ±1;
ii) U è invertibile e U
−1
= U
T
;
iii) U
T
è ortogonale.
Dimostrazione. Essendo U
T
U = I si ha det(U) det (U
T
) = 1 ma siccome det(U) =
det (U
T
) si ha det
2
(U) = 1 da cui det(U) = ±1. Il punto ii) segue dal precedente
e dall’unicità della matrice inversa. Il punto iii) dal fatto che (U
T
)
T
= U
Se U e V sono due matrici ortogonali, allora la matrice W = UV è ortogonale,
infatti WW
T
= UV(UV)
T
= UVV
T
U
T
= I.
Se A è una matrice diagonalizzabile e tra le matrici che la diagonalizzano esiste
una matrice ortogonale, diciamo che A è ortogonalmente diagonalizzabile.
Dimostriamo ora il
Teorema 9.7. Gli autovalori di una matrice reale simmetrica sono reali
Dimostrazione. Sia A simmetrica: si ha A = A
T
. Se λ è un autovalore di A ed x
un autovettore ad esso associato si ha:
λx = Ax (9.4)
da cui segue subito che è λx
T
= (Ax)T = x
t
A
T
= x
T
A. Allora, utilizzando
ancora la (9.4),
λx
T
X = x
T
Ax = x
T
λx = λx
T
x;
poiché x
T
x = 0 in quanto x autovettore, concludiamo che λ = λ e quindi che λ
è reale.
Possiamo ora enunciare il
Teorema 9.8. Una matrice reale simmetrica è sempre ortogonalmente diagonalizzabile.
9.2 Martici ortogonali 81
Questo significa che una matrice A simmetrica e reale è sempre diagonalizza-
bile cioè che tra le varie matrici che la diagonalizzano se ne può sempre trovare
almeno una ortogonale.
OSSERVAZIONE 9.6. Vogliamo esplicitamente notare che l’ipotesi del Teorema
9.8 che la matrice sia reale è essenziale, infatti, per esempio, la matrice simmetrica
A =
¸
2i 1
1 0

non è neanche diagonalizzabile (verificarlo per esercizio).
Anche l’inverso del Teorema 9.8 è vero, cioè
Teorema 9.9. Una matrice ortogonalmente simile ad una matrice diagonale reale è
simmetrica.
Dimostrazione. Se U
T
AU = ∆ trasponendo si ha (U
T
AU)
T
= ∆
T
ma ∆ è simme-
trica, quindi U
T
A
T
U = ∆ = U
T
AU da cui, moltiplicando a destra per U
T
e a
sinistra per U segue che A = A
T
.
Un altro teorema utile soprattutto nelle applicazioni è il
Teorema 9.10. Se x e y sono due autovettori della matrice A associati rispettivamente
agli autonvalori λ e µ con λ = µ allora x e y sono ortogonali.
Dimostrazione. Dalle ipotesi abbiamo che λx = Ax e µy = Ay Siccome A è
simmetrica e quindi λ reale (per il Teorema 9.7 a fronte) dalla prima uguaglianza
segue che λx
T
= x
T
A e quindi anche λx
T
Y = x
T
AY, ma tenendo conto della
seconda, si ha λx
T
y = µx
T
y quindi (λ −µ)x
T
y = 0. Poiché λ = µ segue che
x
T
y = 0
Vediamo ora, su esempi, come si può costruire una matrice ortogonale che
diagonalizza una data matrice simmetrica.
Esempio 9.3. Sia A =

0 1 1
1 0 1
1 1 0
¸
¸
. Il polinomio caratteristico di A è λ
3
−3λ −2 e
quindi gli autovalori sono λ
1
= λ
2
= −1 e λ
3
= 2. Il sistema

λx −y −z = 0
−x + λy −z = 0
−x −y + λz = 0
fornisce gli autovettori di A. Per λ = −1 abbiamo la famiglia di autovettori

α
β
−α − β
¸
¸
con α e β non entrambi nulli, e per λ = 2 l’autovettore

γ
γ
γ
¸
¸
con γ = 0. Dovremo
82 Diagonalizzazione, matrici ortogonali
scegliere due autovettori associati a λ
1
ed uno associato a λ
3
, quindi possiamo costruire
la matrice

α α
/
γ
β β
/
γ
−α − β −α
/
− β
/
γ
¸
¸
che dobbiamo rendere ortogonale scegliendo opportuni valori per i parametri α, α
/
, β, β
/
e γ. Per il Teorema 9.10 l’ultima colonna è ortogonale a ciascuna delle altre due, quindi
basta imporre la condizione αα
/
+ ββ
/
+ (α + β)(α
/
+ β
/
) = 0 che equivale a
2αα
/
+2ββ
/
+ αβ
/
+ βα
/
= 0.
Poniamo α = 0 allora β(2β
/
+ α
/
) = 0 e poiché, in questo caso dev’essere β = 0
bisognerà prendere al pha
/
= −2β
/
. Se scegliamo allora β = 1, β
/
= 1 e γ =
1 otteniamo la matrice

0 −2 1
1 1 1
−1 1 1
¸
¸
le cui colonne sono a due a due ortogonali.
Normalizzando le colonne otteniamo la matrice

0
−2

6
1

3
1

2
1

6
1

3
−1

2
1

6
1

3
¸
¸
¸
¸
che è una matrice ortogonale che diagonalizza la A.
Esempio 9.4. Consideriamo ora la matrice A =

1 0 0
0 2 3
0 3 2
¸
¸
. È facile verificare che i
suoi autovalori soni λ
1
= 1, λ
2
= −1 e λ
3
= 5 a cui sono associati, rispettivamente,
gli autovettori

h
0
0
¸
¸

0
j
−j
¸
¸

0
k
k
¸
¸
che sono ortogonali, in quanto associati ad autovalori distinti (ancora il Teorema 9.10
nella pagina precedente). Se scegliamo h = k = j = 1 otteniamo la matrice P =

1 0 0
0 1 1
0 −1 1
¸
¸
che diagonalizza la A ma non è ortogonale, in quanto le sue colonne non
sono normalizzate. Normalizzando si ottiene

1 0 0
0
1

2
1

2
0
−1

2
1

2
¸
¸
¸
che è la matrice cercata.
9.3 Forme quadratiche 83
9.3. Forme quadratiche
Un polinomio omogeneo di grado m nelle variabili x
1
, x
2
, . . . x
n
si chiama forma
di grado m. In particolare se il polinomio è di secondo grado parleremo di forma
quadratica.
Esempio 9.5. Si consideri il polinomio
Φ(x, y, z) = 2x
2
+10xy +9y
2
+6xz
esso è una forma quadratica; osserviamo che si può anche scrivere come
Φ(x, y, z) = 2x
2
+5xy +5yx +9y
2
+3xz +3zx (9.5)
spezzando i termini rettangolari
In generale un polinomio di secondo grado in n variabili si può scrivere nella
forma
Φ(x
1
, x
2
, . . . , x
n
) =
1...n

i,k
a
ik
x
i
x
k
. (9.6)
con a
ik
= a
ki
.
In tal modo possiamo associare ad ogni forma quadratica in n variabili una
matrice simmetrica A = [a
ik
] di ordine n e possiamo scrivere
Φ = X
T
AX
dove X
T
= [x
1
, x
2
, . . . , x
n
]
Quindi, per esempio, la matrice associata alla forma (9.5) dell’esempio 9.5 è la
A =

2 5 3
5 9 0
3 0 0
¸
¸
.
Esempio 9.6. La matrice associata alla forma
Φ ≡ x
2
+2xy −4yz +3z
2
sarà la matrice simmetrica
A =

1 1 0
1 0 −2
0 −2 3
¸
¸
Si chiama rango della forma quadratica Φ il rango della matrice ad essa
associata.
Se si opera sulle variabili una trasformazione lineare di matrice B si ottiene
una nuova forma quadratica Ψ la cui matrice associata sarà B
T
AB da cui risulta
84 Diagonalizzazione, matrici ortogonali
ovvio che le due forme hanno lo stesso rango. Si chiama forma canonica ogni
forma quadratica la cui matrice associata è diagonale, quindi una forma canonica
sarà:
Φ = a
11
x
2
1
+ a
22
x
2
2
+ + a
nn
x
2
x
cioè una somma di quadrati.
Ci poniamo il problema: È possibile, mediante una trasformazione lineare invertibile,
ridurre una forma quadratica qualsiasi a forma canonica?
Consideriamo la forma quadratica Φ(x, y) = 5x
2
+4xy +2y
2
.
La generica trasformazione lineare

x = au + bv
y = cu + dv
la trasforma in
5(au + bv)
2
+4(au + bv)(cu + dv) +2(cu + dv)
2
(9.7)
che diventa
(5a
2
+4ac +2c
2
)u
2
+
(10ab +4ad +4bc +4cd)uv+
(5b
2
+4bd +2d
2
)v
2
(9.8)
Si vede subito che la riducono a forma canonica tutte quelle trasformazioni con
ad = bc per cui è nullo il coefficiente del termine rettangolare della (9.8), cioè
deve essere
10ab +4ad +4bc +4cd = 0
Questo si può ottenere in infiniti modi, per esempio ponendo a = 1, b = 2, c =
−2, d = 1 otteniamo la forma canonica
Φ = 5u
2
+30v
2
mentre se prendiamo a = 0, b = 1, c = 2, d = −1 abbiamo la forma canonica
Φ = 8u
2
+3v
2
Sulla riduzione a forma canonica di una forma quadratica sussiste il teorema
9.3 Forme quadratiche 85
Teorema 9.11 (di Lagrange). Ogni forma quadratica a coefficienti complessi (reali) di
rango r > 0 si può ridurre, mediante una trasformazione lineare invertibile a coefficienti
complessi (reali) alla forma canonica
c
1
x
2
1
+ c
2
x
2
2
+ + c
n
x
2
n
dove i c
i
sono numeri complessi (reali) non tutti nulli.
Se la forma quadratica è in particolare reale il teorema di Lagrange si precisa
meglio:
Teorema 9.12. Ogni forma quadratica reale Φ = X
T
AX si può ridurre, mediante una
trasformazione ortogonale
1
, alla forma canonica
Ψ = λ
1
x
2
1
+ λ
2
x
2
2
+ + λ
n
x
2
n
dove λ
1
, λ
2
, . . . , λ
n
sono gli autovalori di A.
Dimostrazione. Infatti essendo A reale simmetrica, esiste una matrice ortogonale
U tale che U
T
AU = diag(λ
1
, λ
2
, . . . , λ
n
)
OSSERVAZIONE 9.7. Se la forma quadratica ha rango r allora gli autovalori non
nulli di A sono esattamente r
OSSERVAZIONE 9.8. Se la riduzione a forma canonica viene effettuata mediante
una generica trasformazione lineare invertibile, non necessariamente ortogonale,
non si può garantire che i coefficienti siano gli autovalori di A, ad esempio
la forma (9.5) Φ = 5x
2
+ 4xy + 2y
2
può essere ridotta a forma canonica in
Ψ = 8u
2
+3v
2
ma gli autovalori di A sono 1 e 6.
Si chiama indice di una forma quadratica Φ = X
T
AX il numero p ≥ 0 degli
autovalori positivi di A.
Vale il
Teorema 9.13. Ogni forma canonica Ψ ottenuta da una forma quadratica reale Φ
mediante una trasformazione lineare invertibile ha il numero dei coefficienti positivi
uguale all’indice p di Φ.
Una forma quadratica Φ(x
1
, x
2
, . . . , x
n
) si dice definita positiva (rispettivamen-
te semidefinita positiva) se per ogni scelta delle variabili, non tutte nulle, si ha
Φ(x
1
, x
2
, . . . , x
n
) > 0 (rispettivamente Φ(x
1
, x
2
, . . . , x
n
) ≥ 0 ).
Vale il
Teorema 9.14. Una forma quadratica Φ = X
T
AX è definita positiva se e solo se tutti
gli autovalori di A sono positivi.
1
Cioè la cui matrice è ortogonale
86 Diagonalizzazione, matrici ortogonali
Analogamente si parla di forme quadratiche definite (semidefinite) negative
Vale anche l’analogo del teorema 9.14:
Teorema 9.15. Una forma quadratica Φ = X
T
AX è definita negativa se e solo se tutti
gli autovalori di A sono negativi.
Naturalmente esistono forme quadratiche la cui matrice ha sia autovalori
positivi, sia autovalori negativi cioè nè definite positive nè definite negative.
Qualcuno chiama queste forme non definite.
9.4. Matrici hermitiane e matrici unitarie
DEFINIZIONE 9.2. Una matrice A si chiama hermitiana (o autoaggiunta) se A =
A
T
..
DEFINIZIONE 9.3. Una matrice U si chiama unitaria se U
T
U = I.
DEFINIZIONE 9.4. Una matrice si chiama normale se AA
T
= A
T
A cioè se
commuta con la sua coniugata trasposta (detta anche aggiunta).
OSSERVAZIONE 9.9. È ovvio dalle definizioni che le matrici reali simmetriche
sono matrici hermitiane reali e che le matrici ortogonali sono matrici unitarie
reali.
OSSERVAZIONE 9.10. Le matrici hermitiane e quelle unitarie sono particolari
matrici normali.
Teorema 9.16. Una matrice è unitariamente simile ad una matrice diagonale se e solo
se è normale
OSSERVAZIONE 9.11. Ne scende che ogni matrice reale, permutabile con la sua tra-
sposta, è diagonalizzabile in particolare che ogni matrice ortogonale è diagonalizzabile
Con lo stesso procedimento usato per le matrici simmetriche reali nel Teore-
ma 9.10 a pagina 81 si dimostra il
Teorema 9.17. Gli autovalori di una matrice hermitiana sono reali.
Segue anche che
Teorema 9.18. Ogni matrice hermitiana è unitariamente simile ad una matrice diago-
nale reale
Sussiste anche il
Teorema 9.19. Una matrice A è normale se e solo se esiste un polinomio f (λ) tale che
A
T
= f (A)
Segue il
Corollario 9.20. Una matrice reale A è permutabile con la sua trasposta se e solo se
quest’ultima si può esprimere come polinomio in A
10. Polinomi di matrici
Come abbiamo visto nel paragrafo 3.3 a pagina 23 si definisce un polinomio di
matrici (o polinomio matriciale) come segue: se
p(λ) = c
1
λ
n
+ c
2
λ
n−1
+ + c
n
λ + c
n+1
è un polinomio di grado n nella variabile λ, possiamo formalmente sostituire a
λ la matrice quadrata A ed ottenere il polinomio matriciale
p(A) = c
1
A
n
+ c
2
A
n−1
+ + c
n
A + c
n+1
I. (10.1)
OSSERVAZIONE 10.1. Ovviamente p(A) è a sua volta una matrice quadrata dello
stesso ordine di A e che si ottiene sviluppando i conti nella (10.1); notiamo anche
che il coefficiente c
n+1
è in realtà coefficiente di λ
0
e quindi, nella sostituzione
formale che operiamo, diventa coefficiente di A
0
= I
10.1. Teorema di Cayley Hamilton
Introduciamo ora un Teorema, che va sotto il nome di Teorema di Cayley
1
- Hamilton
2
che ha parecchie applicazioni,e non solo nell’ambito dell’Algebra
Lineare.
Abbiamo già accennato che una matrice quadrata A si può sempre ridurre a
forma triangolare eseguendo su di essa operazioni elementari sulle righe o sulle
colonne, quindi possiamo aggiungere che ogni matrice quadrata è “triangolariz-
zabile” cioè è simile ad una matrice triangolare che ha come elementi principali
gli autovalori di A. Dunque esiste una matrice non singolare P, tale che
P
−1
AP = T
con T matrice triangolare.
Esempio 10.1. Consideriamo ora tre matrici triangolari, per esempio alte, per semplicità
di ordine tre, B
1
, B
2
e B
3
tali che ∀i in B
i
sia nullo l’i–esimo elemento principale. Per
1
Arthur CAYLEY, 1821, Richmond, Inghilterra - 1895, Cambridge, Inghillterra.
2
William HAMILTON, 1788, Glasgow, Scozia -1856, Edimburgo, Scozia.
88 Polinomi di matrici
esempio siano
B
1
=

0 a
1
b
1
0 c
1
d
1
0 0 e
1
¸
¸
B
2
=

a
2
b
2
c
2
0 0 d
2
0 0 e
2
¸
¸
B
3
=

a
3
b
3
c
3
0 d
3
e
3
0 0 0
¸
¸
Un facile calcolo mostra che
B
1
B
2
B
3
= 0
L’esempio 10.1 è solo un caso particolare di quanto percisa il seguente
Lemma 10.1. Siano B
1
, B
2
, . . . , B
n
n matrici triangolari alte di ordine n tali che, per
ogni i = 1, . . . , n, l’elemento b
ii
della i–esima matrice B
i
sia nullo. allora il prodotto
delle matrici B
i
dà la matice nulla, cioè
B
1
B
2
B
n
= 0
Dimostrazione. Decomponiamo in blocchi ciascuna matrice B
i
in modo che sia
B
i
=
¸
H
i
k
i
L
i
M
i

.
Se prendiamo H
1
di tipo (1, 1), H
2
di tipo (1, 2), H
3
di tipo (2, 3) . . . H
n−1
di
tipo (n −2, n −1) ed H
n
di tipo (n −1, n) si può moltiplicare a blocchi ciascuna
matrice per la successiva. Osservando inoltre che le matrici L
i
sono tutte nulle in
forza del fatto che le B
i
sono triangolari alte, si constata facilmente che il prodotto
B
2
B
3
B
n−1
è una matrice ripartita a blocchi della forma
¸
P Q
0 R

; inoltre, per
come sono state costruite, si ha B
1
=
¸
0 H
1
0 K
1

e B
n
=
¸
H
n
K
n
0 0

.
Si ha quindi
B
1
B
2
B
n
=
¸
0 H
1
0 K
1
¸
P Q
0 R
¸
H
n
K
n
0 0

che dà, evidentemente, la matrice nulla.
Siamo ora in grado di dimostrare il
Teorema 10.2 (di Cayley-Hamilton). Ogni matrice quadrata è radice del proprio
polinomio caratteristico. Cioè se ϕ
A
(λ) = λ
n
+ c
1
λ
n−1
+ + c
n−1
λ + c
n
è il
polinomio caratteristico della matrice quadrata A, allora vale la relazione matriciale
A
n
+ c
1
A
n−1
+ + c
n−1
A + c
n
I = 0 (10.2)
10.1 Teorema di Cayley Hamilton 89
Dimostrazione. Sia A quadrata di ordine n e siano λ
1
, λ
2
, . . . , λ
n
i suoi autovalori.
Poiché A è triangolarizzabile, esste una matrice P tale che
P
−1
AP = B =

λ
1
b
12
b
1n
0 λ
2
b
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 λ
n
¸
¸
¸
¸
Se ora poniamo, ∀i = 1 . . . n B
i
= B −λ
i
I si riconosce subito che le matrici B
i
hanno le caratteristiche richieste dal lemma 10.1 a fronte, inoltre si ha:
(A −λ
1
I)(A −λ
2
I) (A −λ
n
I) =
= PP
−1
(A −λ
1
I)PP
−1
(A −λ
2
I)PP
−1
PP
−1
(A −λ
n
I)PP
−1
=
= P(B −λ
1
I)(B −λ
2
I) (A −λ
n
I) =
= PB
1
B
2
B
n
P
−1
quindi
(A −λ
1
I)(A −λ
2
I) (A −λ
n
I) = 0 (10.3)
e siccome il polinomio caratteristico di A si può scrivere come
ϕ(λ) = (λ −λ
1
)(λ −λ
2
) (λ −λ
n
) (10.4)
sostituendo formalmente la matrice A nella ( 10.4) in virtù della ( 10.3) si perviene
alla tesi.
OSSERVAZIONE 10.2 (ATTENZIONE). Il Teorema 10.2 nella pagina precedente
non è invertibile questo significa che se una matrice quadrata di ordine n è radice
di un certo polinomio p(x) cioè se si ha che p(A) = 0 non è detto che p(λ) sia il
polinomio caratteristico di A.
Esempio 10.2. Come esempio di quanto affermato nell’osservazione 10.2, consideriamo
la matrice A = I
2
essa è radice del polinomio matriciale A
2
− 3A + 2I ma il suo
polinomio caratteristico è, come si vede immediatamente, ϕ(λ) = λ
2
−2λ +1
10.1.1. Applicazioni del Teorema di Cayley–Hamilton
Se ϕ
A
(λ) = λ
n
+ c
1
λ
n−1
+ + c
n−1
λ + c
n
è il polinomio caratteristico della
matrice A, quadrata, di ordine n il Teorema 10.2 nella pagina precedente ci
assicura che
A
n
+ c
1
A
n−1
+ + c
n−1
A + c
n
I = 0 (10.5)
cioè che le successive potenze di A dalla 0 alla n sono linearmente dipendenti e
quindi, per esempio, che
A
n
= −(c
1
A
n−1
+ + c
n−1
A + c
n
I)
90 Polinomi di matrici
cioè che la potenza n–esima di A si può scrivere come combinazione lineare delle
potenze di grado inferiore e che i coefficienti di questa combinazione lineare
sono proprio i coefficienti del polinomio caratteristico. Inoltre sappiamo che se
A è invertibile c
n
= 0 e quindi si può scrivere
I = −
1
c
n
(A
n
+ c
1
A
n−1
+ + c
n−1
A)
da cui, moltiplicando ambo i membri per A
−1
si ottiene
A
−1
= −
1
c
n
(A
n−1
+ c
1
A
n−2
+ + c
n−1
I) (10.6)
La (10.6) ci dice che la matrice inversa di una matrice invertibile A è combinazione
lineare delle potenze di A e che i coefficienti della combinazione lineare si ricavano
facilmente da quelli del polinomio caratteristico di A.
Esempio 10.3. Vogliamo calcolare l’inversa della matrice A =

1 0 −1
1 1 1
2 0 1
¸
¸
usando
il Teorema di Cayley-Hamilton, cioè usando la ( 10.6). Il polinomio caratteristico di A
sarà ϕ(λ) = λ
3
+ aλ
2
+ bλ + c. Essendo a = −tr(A) = −3, b =

1 0
1 1

+

1 2
0 1

+

1 −1
2 1

= 5 e c = −det A = −3 esso diventa
ϕ(λ) = λ
3
−3λ
2
+5λ −3,
quindi A
3
−3A
2
+5A−3I = 0 da cui A =
1
3
A
2
−A+
5
3
I. Allora si ricava facilmente
che A
2
=

−1 0 −2
4 1 1
4 0 1
¸
¸
e quindi che A
−1
=
1
3

1 0 1
1 3 −2
−2 0 1
¸
¸
.
10.2. Polinomio minimo
Nell’Osservazione 10.2 nella pagina precedente e nell’esempio successivo
abbiamo visto che una matrice può essere anche radice di un polinomio diverso
dal suo polinomio caratteristico.
DEFINIZIONE 10.1. Si chiama polinomio minimo della matrice quadrata A e si
indica con µ(λ) il polinomio di grado minimo e di coefficiente direttore
3
uguale
a 1 che ammette A come radice.
3
Ricordiamo la nota 2 a pagina 72.
10.2 Polinomio minimo 91
È facile dimostrare che il polinomio minimo esiste ed è unico: l’esistenza è
garantita dal Teorema 10.2 a pagina 88 e l’unicità si dimostra per assurdo – farlo
per esercizio.
Vale inoltre il
Teorema 10.3. Il polinomio minimo µ(λ) di una matrice quadrata A divide tutti i
polinomi che ammettono A come radice, quindi, in particolare, divide il polinomio
caratteristico di A.
Dimostrazione. Sia p(λ) un polinomio che ammette A come radice; cioè sia
p(A) = 0 Se dividiamo p(λ) per µ(λ) otteniamo un quoziente ed un resto,
cioè
p(λ) = q(λ)µ(λ) + r(λ) (10.7)
se r(λ) = 0 abbiamo la tesi, se invece fosse r(λ) = 0, la (10.7) porterebbe alla
identità matriciale
p(A) = q(A)µ(A) + r(A)
dalla quale, tenendo conto che p e µ ammettono A come radice, segue che
r(A) = 0, ma siccome r è un polinomio di grado inferiore a µ e µ è quello
di grado minimo che ammette A come radice, segue che r è identicamente
nullo.
Dal Teorema 10.3 segue subito che il polinomio minimo divide anche il poli-
nomio caratteristico, e che, quindi, le sue radici sono anche radici di ϕ(λ), cioè
sono autovalori di A, come precisato dal
Teorema 10.4. Le radici del polinomio minimo µ(λ) di una matrice A sono tutti e soli
gli autovalori di A con molteplicità non maggiori di quelle che hanno come radici del
polinomio caratteristico ϕ(λ).
Questo significa, per esempio, che se una matrice ammette come polinomio
caratteristico ϕ(λ) = (λ −1)
2
(λ −2) il suo polinomio minimo può essere solo
ϕ(λ) stesso oppure (λ −1)(λ −2).
Si può anche dimostrare che
Teorema 10.5. Due matrici simili hanno lo stesso polinomio minimo.
Naturalmente esistono matrici che, pur avendo lo stesso polinomio minimo,
non sono simili, anzi, che non hanno nemmeno lo stesso polinomio caratteristico,
come si vede nel seguente
Esempio 10.4. Siano A =

0 0 0
0 1 1
0 0 1
¸
¸
e B =

0 0 0
0 0 0
0 0 1
¸
¸
. Si vede subito che entrambe
hanno come polinomio minimo µ(λ) = λ
2
− λ , infatti A
2
= A e B
2
= B, ma
ϕ
A
(λ) = λ(λ −1)
2
mentre ϕ
B
(λ) = λ
2
(λ −1).
92 Polinomi di matrici
Anche l’avere lo stesso polinomio caratteristico non garantisce affatto che i
polinomi minimi siano uguali come si vede nel seguente
Esempio 10.5. Consideriamo le matrici A =

0 0 0
1 0 0
2 3 0
¸
¸
e B =

0 0 0
1 0 0
2 0 0
¸
¸
. Tutte e
due hanno come polinoimio caratteristico ϕ(λ) = λ
3
, ma siccome si vede subito che
B
2
= 0 si ha µ
B
(λ) = λ
2
mentre essendo A
3
= 0 = A
2
si ha µ
A
(λ) = ϕ(λ) = λ
3
.
OSSERVAZIONE 10.3. Il polinomio minimo di una matrice diagonale D
n
avente
t ≤ n autovalori distinti è (λ −λ
1
)(λ −λ
2
) (λ −λ
t
). Verificarlo con un facile
calcolo.
Riferendoci a questa osservazione possiamo dimostrare il
Teorema 10.6. Una matrice A è diagonalizzabile se e solo se il suo polinomio minimo
ammette solo radici sempilici.
Dimostrazione. Dimostriamo, per semplicità, solo la parte “solo se”. Sia A dia-
gonalizzabile, allora essa è simile ad una matrice diagonale il cui polinomio
minimo, per l’osservazione precedente, è privo di radici multiple, quindi la tesi
segue dal teorema 10.5.
Il Teorema 10.6 fornisce un altro potente criterio per stabilire se sono diago-
nalizzabili matrici di cui è facile determinare il polinomio minimo. Ad esempio
si ricava da esso che ogni matrice idempotente, cioè per cui sia A
2
= A che ha
quindi come polinomio minimo λ
2
−λ è diagonalizzabile.
Parte II.
Geometria piana
11. La retta nel piano
11.1. Preliminari
In un sistema di riferimento cartesiano ortogonale è noto dagli studi precedenti
che una retta si rappresenta con un’equazione lineare
ax + by + c = 0, (11.1)
in cui a e b non siano entrambi nulli. È anche noto che, se la retta non è parallela
all’asse y, si può scrivere anche nella forma, cosiddetta canonica
y = mx + q. (11.2)
È altresì noto che la forma canonica (11.2) dell’equazione di una retta mette in
luce la “pendenza” della retta: il coefficiente m, che si chiama coefficiente angolare,
rappresenta la tangente goniometrica dell’angolo che la retta forma con l’asse x:
dunque se indichiamo con ϕ l’ampiezza di quest’angolo, si ha m = tan ϕ.
Da un altro punto di vista una retta r è determinata da un vettore v che ne fissa
la direzione e da un punto P
0
∈ r: un punto P appartiene alla retta r se e solo se
il segmento PP
0
ha la stessa direzione di v.
Siano ora (x
0
, y
0
) le coordinate di P
0
e (x, y) le coordinate di P, il punto P
appartiene a r se e solo se il vettore [x − x
0
, y − y
0
] ed il vettore v = [−b, a]
sono linearmente dipendenti, cioè se e solo se a(x − x
0
) = −b(y − y
0
) cioè
ax + by = ax
0
+ by
0
da cui si ottiene la (11.1) ponendo c = −ax
0
−by
0
.
Dunque la retta di equazione ax + by = 0 ha la direzione del vettore v =
[−b, a].
Poiché '[−b, a], [a, b]` = −ab + ba = 0, possiamo anche affermare che la
retta ax + by + c = 0 è ortogonale al vettore w = [a, b]; i numeri −b e a sono
noti come parametri direttori della retta, essi sono definiti a meno di un fattore
di proporzionalità non nullo. Normalizzando il vettore v si ottiene il vettore

v
/
= [−b
/
, a
/
] in cui −b
/
e a
/
sono proprio i coseni degli angoli che la retta
(orientata) forma con la direzione positiva degli assi coordinati e si chiamano
coseni direttori della retta.
Da quanto detto segue il
Teorema 11.1. Sia r la retta di equazione ax + by + c = 0 allora:
i) r è parallela all’asse x se e solo se a = 0,
96 La retta nel piano
ii) r è parallela all’asse y se e solo se b = 0,
iii) se r
1
è la retta di equazione a
1
x + b
1
y + c
1
= 0 allora r è parallela a r
1
se e solo se
ab
1
= ba
1
,
iv) r e r
1
sono perpendicolari se e solo se
aa
1
+ bb
1
= 0.
OSSERVAZIONE 11.1. L’equazione della retta è, ovviamente, definita a meno di
un fattore di proporzionalità non nullo, nel senso che le equazioni ax +by +c = 0
e kax + kby + kc = 0 rappresentano la stessa retta ∀k = 0 ∈ R. D’ora in
avanti parleremo comunque, come si fa abitualmente, dell’equazione di una
retta (usando l’articolo determinativo), sottintendendo che ci riferiamo ad una
qualsiasi delle possibili equazioni della retta, di solito quella la cui scrittura è più
semplice, tuttavia questa proprietà non va dimenticata, perché il non tenerne
conto può portare a gravi errori, soprattutto nelle applicazioni.
Esempio 11.1. Scriviamo l’equazione della retta perpendicolare al vettore [5, 1] e pas-
sante per il punto (−1, 2). Si vede subito che la retta ha un’equazione della forma
5x + y + c = 0 e che passa per il punto (−1, 2) se e solo se 5 (−1) +2 + c = 0, da
cui c = 3 e quindi la retta cercata ha equazione 5x + y +3 = 0.
Esempio 11.2. Vogliamo l’equazione della retta che passa per i punti A(4, 1) e B(3, 2).
Sia essa di equazione ax + by + c = 0; si ha, imponendo il passaggio per il primo punto
a(x −4) + b(y −1) = 0 e per il secondo a(3 −4) + b(2 −1) = 0 ⇐⇒ −a + b =
0 ⇐⇒ a = b, dunque , scegliendo a = 1 si ha x + y = 5, risultato a cui si poteva
pervenire direttamente, osservando che 5 è proprio la somma dell’ascissa e dell’ordinata
sia di A che di B.
Si può dimostrare anche che se a
1
x + b
1
y + c
1
= 0 e a
2
x + b
2
y + c
2
= 0 sono
due rette che formano un angolo ϕ si ha
cos ϕ =
['[a
1
, b
1
], [a
2
, b
2
]`[
|[a
1
, b
1
]| |[a
2
, b
2
]|
=
[a
1
a
2
+ b
1
b
2
[

a
2
1
+ b
2
1

a
2
2
+ b
2
2
11.2. Altri tipi di equazione della retta
L’equazione
x
p
+
y
q
= 1 (11.3)
è un’equazione lineare e rappresenta quindi una retta; è facile vedere che in
questa forma l’equazione della retta (che è detta equazione segmentaria) mette in
11.2 Altri tipi di equazione della retta 97
risalto le intercette sugli assi, precisamente la retta di equazione (11.3) interseca
gli assi coordinati nei punti P(p, 0) e Q(0, q). Viceversa la retta che passa per i
punti (2, 0) e (0, −3) ha equazione
x
2
+
y
−3
= 1 cioè 3x −2y −6 = 0
Per esempio la retta 3x −4y = 12 si scrive anche, dividendo entrambi i membri
per 12, nella forma
x
4
+
y
−3
= 1 mettendo in evidenza che passa per i punti
P(4, 0) e Q(0, −3).
Abbiamo visto che una retta r del piano che passa per il punto P
0
(x
0
, y
0
) ed ha
la direzione del vettore u = [p, q] è l’insieme dei punti (x, y) tali che il vettore
v = [x −x
0
, y −y
0
] sia linearmente dipendente dal vettore u; ma sappiamo anche
che due vettori sono linearmente dipendenti se e solo se sono proporzionali,
quindi dev’essere v = λ u, da cui

x = x
0
+ λp
y = y
0
+ λq
(11.4)
le (11.4) si chiamano equazioni parametriche della retta; ogni punto della retta ha
coordinate espresse dalle (11.4), e per ogni valore del parametro nelle (11.4) si
ottiene un punto della retta. Le componenti p e q del vettore u sono una coppia
1
di parametri direttori della retta.
Ad esempio se vogliamo le equazioni parametriche della retta
r ≡ 3x −2y = 2
possiamo cominciare scegliendo un punto di r, per esempio P(0, −1). La retta
data ha direzione del vettore [2, 3] e quindi abbiamo le equazioni parametriche

x = 2t
y = 3t −1
. (11.5)
OSSERVAZIONE 11.2. Nel sistema (11.5) abbiamo chiamato t il parametro: il
nome è ovviamente arbitrario, ed è consuetudine indicarlo con la lettera t, ma lo
studente dovrebbe abituarsi a lavorare con una rappresentazione parametrica
della retta in cui il parametro può essere indicato da una lettera qualsiasi.
OSSERVAZIONE 11.3. Mentre l’equazione cartesiana di una retta r è unica a me-
no di un fattore di proporzionalità non nullo, come notato nell’osservazione 11.1
a fronte, le equazioni parametriche di una stessa retta possono assumere aspetti
molto diversi. Per esempio la retta di equazioni parametriche (11.5) si può anche
1
Abbiamo già osservato che anche i parametri direttori sono definiti a meno di una costante moltiplicativa
non nulla.
98 La retta nel piano
scrivere con le equazioni parametriche

x =
2 + t
3
y =
t
2
. (11.6)
Viceversa per passare dalle equazioni parametriche ad un’equazione cartesiana
si può procedere in vari modi: dando due valori al parametro si ottengono due
punti della retta, poi si scrive l’equazione della retta per i due punti trovati,
oppure si può eliminare il parametro dalle equazioni, trovando un’equazione
cartesiana della retta data. Per esempio se r ha equazioni parametriche

x = 2t
y = 2t −1
sottraendo membro a membro le due equazioni si ottiene l’equazione cartesiana
della r che è x −y = 1 .
11.3. Distanze
11.3.1. Distanza di due punti
.
Figura 11.1. Distanza di due punti
La distanza di due punti nel piano segue da una immediata applicazione del
Teorema di Pitagora, infatti dalla figura 11.1 si nota subito che la distanza d tra
i punti A(x
1
, y
1
) e B(x
2
, y
2
) è l’ipotenusa di un triangolo rettangolo i cui cateti
sono AC = x
2
−x
1
e BC = y
2
−y
1
da cui
d =

(x
2
−x
1
)
2
+ (y
2
−y
1
)
2
11.4 Fasci di rette 99
11.3.2. Distanza di un punto da una retta
È noto che la distanza del punto P di coordinate (x
0
, y
0
) dalla retta di equazione
ax + by + c = 0 è
d =
[ax
o
+ bx = +c[

a
2
+ b
2
.
11.4. Fasci di rette
L’insieme di tutte le rette del piano che passano per un punto P prende il nome
di fascio
2
di rette che ha come centro o sostegno il punto P. L’equazione globale di
tutte le rette del fascio F che ha per sostegno P si può ottenere facilmente come
combinazione lineare non banale delle equazioni di due qualsiasi rette di F.
Questo significa che se abbiamo due rette distinte r e r
/
entrambe passanti per P
e rispettivamente di equazioni ax + by + c = 0 e a
/
x + b
/
y + c
/
= 0 l’equazione
λ(ax + by + c) + µ(a
/
x + b
/
y + c
/
) = 0 (11.7)
rappresenta tutte e sole le rette che passano per P se λ e µ non sono entrambi
nulli. Infatti per ogni coppia di valori (non entrambi nulli) di λ e µ, la ( 11.7)
rappresenta una retta passante per P. Viceversa una qualunque retta per P è
rappresentata da un’equazione del tipo ( 11.7), cioè qualunque retta per P è
individuata da una particolare coppia di valori di λ e µ.
OSSERVAZIONE 11.4. L’equazione (11.7) è omogenea (rispetto ai parametri λ e
µ) cioè è definita a meno di un fattore di proporzionalità non nullo. Può essere
comodo scriverla, invece, usando un solo parametro, per esempio nella forma
k(ax + by + c) + (a
/
x + b
/
y + c
/
) = 0 (11.8)
in cui abbiamo posto k =
λ
µ
. In questo caso, però, quando µ = 0 il parametro
k perde di significato, e quindi l’equazione del fascio, nella forma (11.8) non
rappresenta tutte le rette del fascio, mancando quella per cui µ = 0, cioè la retta
ax + by + c = 0. Se si considera, però, che lim
µ→0
k = ∞, si può accettare il valore
infinito per il parametro k, convenendo che in questo caso la (11.8) rappresenta
la retta ax + by + c = 0.
I fasci sono uno strumento molto potente e comodo: vediamo un primo
esempio.
Esempio 11.3. Vogliamo scrivere l’equazione della la retta che passa per i punti A(1, 0)
e B(2, −3). Essa appartiene al fascio che ha per sostegno, per esempio, il punto A e
quindi di equazione
x −1 + ky = 0 (11.9)
2
Il concetto di fascio –di rette, di piani, di circonferenze. . . – è molto generale e lo incontreremo ancora.
100 La retta nel piano
ottenuta come combinando linearmente le equazioni x = 1 e y = 0 delle rette parallele
agli assi passanti per A. La retta cercata si otterà imponendo il passaggio della generica
retta del fascio per il punto P, quindi sostituendo le coordinate di P nella (11.9), cioè
scrivendo 2 −1 −3k = 0 da cui si ottiene k =
1
3
ed ottenendo quindi l’equazione
3x + y −3 = 0.
Esempio 11.4. Vogliamo l’equazione della retta passante per P(1, 0) e perpendicolare
alla retta 3x −2y +1 = 0. Scriviamo l’equazione del fascio di rette per P; essa sarà:
λx + µ(y −1) = 0
per la condizione di perpendicolarità si avrà 3λ −2µ = 0 da cui, per esempio, λ = 2 e
µ = 3 a cui corrisponde la retta 2x +3y −3 = 0
11.5. Coordinate omogenee
Siccome due rette non parallele hanno in comune un punto e due rette parallele
una direzione, fà comodo, in certi contesti, assimilare una direzione ad un punto
“improprio” o punto “all’infinito”. Con questa convenzione due rette distinte
nel piano hanno sempre un punto (proprio o improprio) in comune, quindi due
rette sono parallele se (e solo se) hanno in comune un punto improprio. I punti
impropri verrano denotati con P

.
Sorge il problema di come “coordinatizzare” i punti impropri. Nel piano,
come sappiamo, un punto al finito può essere rappresentato da una coppia
ordinata di numeri reali, per poter rappresentare anche i punti impropri conviene
utilizzare una terna di coordinate, cosiddette omogenee, precisamente, se P(X, Y)
attribuiamo a P le tre coordinate, non tutte nulle, x, y e u legate alle precedenti
dalla relazione
X =
x
u
e Y =
y
u
(11.10)
Possiamo allora dire che P ha coordinate omogenee x, y, u e scriviamo P(x : y : u).
Se u = 0 possiamo scrivere che P(X, Y) ha coordinate omogenee P(X : Y : 1), per
esempio possiamo attribuire all’origine le coordinate omogenee O = (0 : 0 : 1); i
punti impropri saranno allora tutti e soli quelli la cui terza coordinata omogenea
è nulla.
OSSERVAZIONE 11.5. Le coordinate omogenee di un punto sono definite a
meno di un fattore di proporzionalità, questo significa che il punto di coordinate
omogenee P(3 : 2 : 1) coincide con il punto di coordinate omogenee P(6 : 4 : 2),
e quindi che un punto a coordinate razionali si può sempre considerare come un
punto a coordinate omogenee intere: per esempio il punto proprio P =

1
5
,
3
5

ha coordinate omogenee P(1 : 3 : 5)
11.6 I sistemi di riferimento 101
Consideriamo ora l’equazione della retta: in coordinate non omogenee essa
sarà aX + bY + c = 0: applicando le ( 11.10 a fronte) diventerà ax + by + cu = 0
ed avrà come punto improprio il punto per cui u = 0 che sarà dunque P

(−b :
a : 0).
In questo contesto, l’equazione u = 0 rappresenta tutti e soli i punti la cui
terza coordinata omogenea è nulla, quindi tutti (e soli) i punti impropri, essendo
un’equazione lineare possiamo dire che essa rappresenta una retta, precisamente
la retta impropria, cioè il luogo dei punti impropri del piano. Concludiamo il
paragrafo con la seguente
OSSERVAZIONE 11.6. Un sistema lineare omogeneo di tre equazioni in tre inco-
gnite può sempre essere interpretato geometricamente, in coordinate omogenee,
come la ricerca dell’eventuale punto comune di tre rette.
Il seguente esempio chiarisce la situazione.
Esempio 11.5. Il sistema

hx −y + hu = 0
hx −y −u = 0
x −hy + u = 0
è lineare omogeneo, quindi ammette la soluzione banale (0 : 0 : 0) che non rappresenta
alcun punto. La matrice dei coefficienti è:

h −1 h
h −1 −1
1 −h 1
¸
¸
; essa ha rango r = 3 per
h = ±1, ha r = 2 per h = 1 e r = 1 per h = −1 quindi per h = ±1 le rette non hanno
in comune alcun punto nè proprio nè improprio, per h = 1 ci sono ∞
1
soluzioni, che
sono le coordinate omogenee di uno ed un solo punto (proprio o improprio) e per h = −1
ci sono ∞
2
soluzioni che rappresentano le coordinate omogenee dei punti di una retta;
quindi le tre rette coincidono.
11.6. I sistemi di riferimento
11.6.1. Cambiamento del sistema di riferimento
Abbiamo visto che un sistema di riferimento cartesiano ortogonale è deter-
minato da un’origine O, che corrisponde al punto di coordinate (0, 0) e dai
due versori fondamentali degli assi u
1
e u
2
e che il punto P(x, y, ) è rappresen-
tato dal vettore OP = xu
1
+ yu
2
, cioè è una combinazione lineare dei versori
fondamentali.
Se P(x, y) è il generico punto del piano e se si effettua una traslazione di assi
che porta l’origine nel nuovo punto O
/
(α, β), le coordinate (x
/
, y
/
) di P rispetto
102 La retta nel piano
ai nuovi assi saranno:

x
/
= x + α
y
/
= y + β
Ci si rende conto molto facilmente che le traslazioni sono trasformazioni lineari
di R
2
in sè che conservano le distanze –verificarlo per esercizio–.
Figura 11.2. Traslazione
Ci si può chiedere che cosa succede delle coordinate di P(x, y) quando si
cambia il sistema di riferimento, prendendo altri due vettori indipendenti come
base. Questo significa effettuare una rotazione del sistema di riferimento. Al
punto P saranno associati altri due numeri (x
/
, y
/
) e ci si chiede qual è il legame
tra queste coppie di numeri.
Si effettua in questo modo un cambiamento di base nello spasio vettoriale R
2
che, come sappiamo, è rappresentato da una matrice quadrata di ordine 2.
Se consideriamo i cambiamenti di sistema di riferimento che lasciano ferma
l’origine (escludiamo il caso noto delle traslazioni di assi), osserviamo che se P
ha coordinate (x, y) in un sistema di riferimento e (x
/
, y
/
) nell’altro, le equazioni
che legano le coordinate di P nei due sistemi di riferimento sono date dal sistema

x = ax
/
+ by
/
y = cx
/
+ dy
/
(11.11)
o, in forma più compatta da
x = Ax
/
(11.12)
dove x =
¸
x
y

e x
/
=
¸
x
/
y
/

ed A =
¸
a b
c d

,
Dimostriamo ora il
11.6 I sistemi di riferimento 103
Figura 11.3. Rotazione
Teorema 11.2. Si consideri un cambiamento di sistema di riferimento che lascia ferma
l’origine, quindi rappresentato dalle equazioni (11.12) e che conservi la distanza di due
punti
3
. Allora la matrice A è ortogonale e siamo in presenza di una rotazione di assi vedi
Figura 11.3
Dimostrazione. Sia P(x
0
, y
0
) un punto. Senza ledere la generalità, possiamo
supporre che il secondo punto sia l’origine O(0, 0) (se non lo fosse possiamo
effettuare prima una opportuna traslazione di assi). La distanza d di P da O è

x
2
0
+ y
2
0
quindi deve essere d
2
= x
2
0
+ y
2
0
= x
/2
0
+ y
/2
0
. Ma si ha
x
2
0
+ y
2
0
= = (ax
/
0
+ by
/
0
)
2
+ (cx
/
0
+ dy
/
0
)
2
=
= a
2
x
/2
0
+ b
2
x
/2
0
+2abx
/
0
y
/
0
+ c
2
x
/2
0
+ d
2
x
/2
0
+2cdx
/
0
y
/
0
=
= (a
2
+ c
2
)x
/2
0
+ (b
2
+ d
2
)y
/2
0
+2(ab + cd)x
/
0
y
/
0
.
che è uguale a x
/2
0
+ y
/2
0
se e solo se

a
2
+ c
2
= 1
b
2
+ d
2
= 1
ab + cd = 0
che sono le condizioni per cui A è ortogonale.
3
cioè se la distanza di due punti P e Q è d nel sistema non accentato, essa resta d in quello accentato
104 La retta nel piano
11.6.2. Altri sistemi di riferimento
Presentiamo ora un altro sistema di riferimento che può essere comodo in
varie circostanze.
Figura 11.4. Coordinate polari
Parliamo delle coordinate polari nel piano. Sia P un punto distinto dall’origine
e siano (x, y) le sue coordinate in un sistema di riferimento cartesiano. Se
ρ =

x
2
+ y
2
è la distanza di P dall’origine, e ϑ l’angolo che ol vettore

OP forma
con l’asse, si vede subito dalla figura 11.4 che si ha

x = ρ cos ϑ
y = ρ sin ϑ
con ρ > 0, 0 ≤ ϑ < 2π.
Possiamo allora dire che il punto P ha coordinate polari (ρ, ϑ) . Se P coincide con
l’origine, ovviamente ϑ non è definito, e possiamo dire che esso è individuato
dalla sola coordinata ρ = 0.
OSSERVAZIONE 11.7. Mentre le coordinate polari sono rappresentate da una
coppia ordinata di numeri reali che rappresentano due lunghezze, i due numeri
reali che rappresentano le coordinate polari, invece, sono rispettivamente una
lunghezza e l’ampiezza di un angolo (misurata in radianti).
12. La circonferenza nel piano
12.1. Generalità
Consideriamo un riferimento cartesiano ortogonale. La distanza tra i punti
P(x
1
, y
1
) e Q(x
2
, y
2
) è, come è noto,
d =

(x
1
−x
2
)
2
+ (y
1
−y
2
)
2
.
Sappiamo che una circonferenza Γ di centro C(x
0
, y
0
) e raggio r è l’insieme dei
punti del piano che distano r da C.
Per trovare l’equazione della circonferenza basta tradurre in equazione la
definizione, cioè, se P(x, y) è un punto qualsiasi del piano, esso sta sulla circon-
ferenza se e solo se la sua distanza da C è r; cioè
r =

(x −x
0
)
2
+ (y −y
0
)
2
da cui
(x −x
0
)
2
+ (y −y
0
)
2
= r
2
(12.1)
che assume la più usuale forma
x
2
+ y
2
+ ax + by + c = 0 (12.2)
pur di porre a = −2x
0
, b = −2y
0
e c = x
2
0
+ y
2
0
−r
2
.
Ma si può anche far vedere che ogni equazione del tipo (12.2) rappresenta
una circonferenza. Infatti, confrontando la (12.1) con la (12.2) si vede subito
che essa rappresenta la circonferenza di centro C


a
2
, −
b
2

e di raggio r =

a
2
+ b
2
−4c
2
purché si abbia
a
2
+ b
2
−4c > 0. (12.3)
Esempio 12.1. La circonferenza che ha centro nel punto C(1, 0) e raggio r =

2 ha
equazione (x −1)
2
+ y
2
= 2 che, sviluppata, diventa x
2
+ y
2
−2x −1 = 0
106 La circonferenza nel piano
Esempio 12.2. Sia γ la circonferenza
2x
2
+2y
2
−4x −8y +1 = 0. (12.4)
Vogliamo trovarne centro e raggio. L’equazione (12.4) si può scrivere anche nella forma
(canonica) x
2
+ y
2
−2x −4y +
1
2
da cui si ha subito che il centro ha coordinate C(1, 2)
ed il raggio è r =

4+16−2
2
=
3

2
2
OSSERVAZIONE 12.1. È comodo rimuovere l’eccezione (12.3) in modo da poter
affermare che tutte le equazioni del tipo (12.2) cioè tutte le equazioni di secondo
grado in cui manca il termine rettangolare ed in cui i coefficienti di x
2
ed y
2
sono uguali
rappresentano una circonferenza. Per far ciò bisogna ampliare il piano cartesiano
con i punti a coordinate complesse e quindi ammettere che sia una circonferenza
anche la curva rappresentata dall’equazione
x
2
+ y
2
= 0
che ha un solo punto reale, e rappresenta la circonferenza con centro nell’origine
e raggio nullo o peggio, l’equazione
x
2
+ y
2
+1 = 0
che rappresenta la circonferenza, completamente immaginaria, di centro l’origine
e raggio immaginario r = i.
La circonferenza nel piano ha anche un’interessante rappresentazione parame-
trica: se il centro è il punto C(x
0
, y
0
) ed il raggio è r si ha che cos ϕ =
x −x
0
r
e
sin ϕ =
y −y
0
r
dove ϕ è l’angolo che il raggio CP forma con la direzione dell’asse
x. Dunque la circonferenza che ha centro in C(x
0
, y
0
) e raggio r ha equazioni
parametriche

x = x
0
+ r cos ϕ
y = y
0
+ r sin ϕ
. (12.5)
Due circonferenze possono intersecarsi, essere esterne una all’altra, essere
interne una all’altra o tangenti, internamente od esternamente.
Esempio 12.3. Siano γ
1
≡ x
2
+ y
2
−2x = 0 e γ
2
≡ 2x
2
+2y
2
−y = 0. Vogliamo
trovare le loro intersezioni. Si osserva subito che passano entrambe per l’origine, quindi
o sono ivi tangenti o sono secanti. Si potrebbe stabilirlo esaminando la relazione che c’è
tra la distanza dei centri e la somma o la differenza dei raggi, ma qui ci interessano le
intersezioni. Dobbiamo studiare quindi il sistema

x
2
+ y
2
−2x = 0
2x
2
+2y
2
−y = 0
equivalente a

x
2
+ y
2
−2x = 0
x
2
+ y
2

1
2
= 0
12.1 Generalità 107
e anche, sottraendo membro a membro, al sistema

x
2
+ y
2
−2x = 0
−2x +
1
2
y = 0
che fornisce le soluzioni x
1
= 0 y
1
= 0 e x
2
=
2
17
y
2
=
8
17
.
Una retta ed una circonferenza hanno in comune due punti: se i due punti
sono reali e distinti la retta è secante, se sono reali e coincidenti la retta è tangente
se sono immaginarie la retta è esterna
12.1.1. Tangenti
Per determinare l’equazione di una tangente può essere utile ricordare una
proprietà elementare illustrata nella figura 12.1 nella pagina successiva
Teorema 12.1. Siano P un punto e γ una circonferenza. Se P è esterno a γ da P escono
due e due sole tangenti alla circonferenza, invece se P ∈ γ la tangente è una sola.
Si può dimostrare il
Teorema 12.2. Sia γ : (x −x
0
)
2
+ (y −y
0
)
2
= r
2
l’equazione di una circonferenza e
sia T(x
1
, y
1
) ∈ Γ. Allora la retta tangente a γ in T ha equazione
(x −x
1
)(x
1
−x
0
) + (y −y
1
)(y
1
−y
0
) = 0 (12.6)
Dimostrazione. Poiché la tangente passa per P, essa ha equazione a(x − x
1
) +
b(y − y
1
) = 0. Questa retta deve essere perpendicolare alla retta PC cioè al
vettore [x
1
−x
0
, y
1
−y
0
] e quindi possiamo porre a = x
1
−x
0
e b = y
1
−y
0
.
Nel caso di P esterno per trovare le tangenti uscenti da P si può procedere
come nel seguente
Esempio 12.4. Vogliamo determinare le tangenti alla circonferenza γ ≡ x
2
+ y
2

2x = 0 passanti per P(0, 2). (v. fig. 12.1 nella pagina seguente). La γ ha centro nel
punto C(1, 0) e raggio r = 1. Si nota subito da questo fatto che una delle tangenti è
l’asse y. Per trovare l’altra tangente si può procedere in vari modi
i) Nel fascio di rette che ha per sostegno P si scelgono quelle a distanza 1 da C.
ii) L’equazione canonica della generica retta per P è y = mx +2. Quindi, intersecan-
do con la γ si ha il sistema:

y = mx +2
x
2
+y
2
−2x = 0
108 La circonferenza nel piano
Figura 12.1. Tangente da P ad una circonferenza
che ammette come equazione risolvente x
2
+ (mx + 2)
2
−2x = 0 che diventa,
con semplici passaggi,
(m
2
+1)x
2
+2(2m−1)x +4 = 0. (12.7)
La (12.7) ammette due soluzioni coincidenti quando

4
= (2m−1)
2
−4(m
2
+1) = 0
cioè quando −4m−3 = 0 da cui si ha la retta y = −
3
4
x +2 cioè 3x +4y −2 = 0.
OSSERVAZIONE 12.2. Nell’esempio 12.4 nella pagina precedente abbiamo tro-
vato una sola retta: questo è dovuto al fatto che abbiamo usato l’equazione
canonica che, come è noto, non individua rette parallele all’asse y.
12.2. Fasci di circonferenze
L’insieme di tutte le circonferenze che passano per due punti fissi A e B si
chiama fascio di circonferenze ed i due punti prendono il nome di punti base del
fascio se γ
1
e γ
2
sono due circonferenze di equazioni rispettive
x
2
+ y
2
+ a
1
x + b
1
y + c
1
= 0 (12.8)
e
x
2
+ y
2
+ a
2
x + b
2
y + c
2
= 0 (12.9)
si vede subito che l’equazione
λ(x
2
+ y
2
+ a
1
x + b
1
y + c
1
) + µ(x
2
+ y
2
+ a
2
x + b
2
y + c
2
) = 0 (12.10)
12.2 Fasci di circonferenze 109
rappresenta, per λ = −µ ancora una circonferenza che passa per A e B. Per
λ = −µ la (12.10) rappresenta una retta passante per A e B che è detta asse
radicale del fascio e che può esser considerata la circonferenza di raggio massimo
(infinito) del fascio. Quindi
Teorema 12.3. Le equazioni di tutte e sole le circonferenze del fascio che ha per sostegno
i punti A e B si ottengono come combinazione lineare non banale di quelle di due
qualsiansi circonferenze passanti per A e B.
Come abbiamo osservato, l’asse radicale, che appartiene al fascio perché si
ottiene ponendo λ = −µ nella (12.10), viene considerato come una circonferenza
di raggio infinito, e come tale viene spesso usato per scrivere l’equazione del
fascio stesso.
Facendo riferimento all’osservazione 11.4 a pagina 99 notiamo che anche i fasci
di circonferenze si possono descrivere con un solo parametro non omogeneo,
pur di tener conto delle condizioni elencate appunto nell’osservazione 11.4.
Esempio 12.5. Se vogliamo scrivere l’equazione della circonferenza che passa per i tre
punti A(1, 0), B(3, 0) e C(2, 3) possiamo scrivere anzittutto l’equazione del fascio che
passa per A e B combinando linearmente due qualsiasi circonferenze per A e B: le più
comode sono quella di raggio massimo (cioè l’asse radicale, di equazione y = 0) e quella
di raggio minimo, cioè quella che ha per diametro AB, quindi centro nel punto O(2, 0) e
raggio 1 cioè di equazione (x −2)
2
+ y
2
= 1, da cui l’equazione del fascio
x
2
+ y
2
−4x + λy +3 = 0
dove, in accordo con quanto detto nell’osservazione 11.4 di pag 99, abbiamo usato un solo
parametro, ovviamente posto nella posizione più comoda. A questo punto la circonferenza
che cerchiamo sarà quella del fascio che passa per il punto C, cioè quella per cui
2
2
+3
2
−4 2 +3λ +3 = 0.
I due punti base del fascio possono anche essere coincidenti: è il caso di un
fascio di circonferenze tangenti in un punto ad una retta (Fig. 12.2). In questo
caso la circonferenza di raggio massimo è sempre l’asse radicale, cioè la retta
tangente, e quella di raggio minimo si riduce alla circonferenza (immaginaria)
che ha centro nel punto e raggio nullo.
Esempio 12.6. Vogliamo l’equazione del fascio di circonferenze tangenti nel punto
P(1, 2) alla retta di equazione y = 2x.
Possiamo combinare linearmente l’equazione della retta con quella della circonferenza
che ha centro in P e raggio 0, che è: (x −1)
2
+ (y −2)
2
= 0 ottenendo l’equazione del
fascio
(x −1)
2
+ (y −2)
2
+ λ(2x −y) = 0
110 La circonferenza nel piano
Figura 12.2. Fascio di circonferenze tangenti ad una retta
Si parla di fascio anche quando le due circonferenze hanno in comune so-
lo punti immaginari, questo è il caso, per esempio, di fasci di circonferenze
concentriche.
Esempio 12.7. Per esempio il fascio di circonferenze che hanno centro nel punto C(1, 0)
può essere rappresentato dall’equazione
(x −1)
2
+ y
2
+ k[(x −1)
2
+ y
2
−1
ottenuto combinando linearmente la circonferenza di raggio nullo e quella di raggio 1,
entrambe con centro in C.
12.3. Circonferenza ed elementi impropri
Il problema delle intersezioni di due circonferenze dà luogo, come abbiamo
visto, ad un sistema di quarto grado (due equazioni di secondo), tuttavia le
soluzioni, reali o complesse che siano, sono al più due. La ragione di questo
strano fatto risiede nella considerazione dell’esistenza di due punti impropri che
appartengono a tutte le circonferenze del piano, le cui equazioni, in coordinate
omogenee sono
x
2
+ y
2
+ axu + byu + cu
2
= 0.
Essi sono i punti di coordinate omogenee (1 : ±i : 0) che, come si verifica
immediatamente, soddisfano l’equazione di una qualsiasi circonferenza; essi
prendono il nome di punti ciclici del piano.
Esempio 12.8. Nel caso di un fascio di circonferenze concentriche, ad esempio (scrivendo
le equazioni in coordinate omogenee)
γ
1
≡ x
2
+ y
2
−2xu +2yu −3u
2
= 0 e γ
2
≡ x
2
+ y
2
−2xu +2yu = 0
12.3 Circonferenza ed elementi impropri 111
se cerchiamo l’asse radicale otteniamo l’equazione 3u
2
= 0, cioè la retta impropria
contata due volte. Questo sigifica che tutte le circonferenze di questo fascio sono tangenti
alla retta impropria nei punti ciclici.
13. Le coniche
In questo paragrafo esamineremo le principali proprietà di alcune curve piane
note con il nome di coniche
1
e cioè delle curve che vanno sotto il nome di ellisse,
parabola ed iperbole.
Figura 13.1. Le coniche
In generale se O è un punto fissato del piano ed r una retta non passante per O
chiamiamo conica il luogo dei punti P tali che la distanza PO sia ε > 0 volte la
distanza tra P ed r. Il numero ε che si chiama eccentricità della conica viene spesso
indicato anche con la lettera e
2
. Una conica si chiama ellisse se ε < 1, parabola se
ε = 1 e iperbole se ε > 1. (Fig.13.1)
Nello specifico possiamo dire che
DEFINIZIONE 13.1. Dati due punti F
1
e F
2
del piano, si chiama ellisse (Fig. 13.2)
di fuochi F
1
e F
2
l’insieme dei punti P del piano tali che sia costante la somma
delle distanze di P da F
1
e F
2
d(PF
1
) + d(PF
2
) = 2a
dove a è una costante tale che 2a > d(F
1
F
2
).
1
Il nome deriva dal fatto che l’ellisse, la parabola e l’iperbole sono sezioni piane di un cono circolare.
2
Da non confondere con il numero e = 2, 71 . . . di Nepero, base dei logaritmi naturali
114 Le coniche
Figura 13.2. L’ellisse
Determiniamo l’equazione dell’ellisse scegliendo il sistema di riferimento in
modo che i fuochi abbiano coordinate F
1
(−c, 0) e F
2
(c, 0), tenendo conto che
è 0 < c < a. Precisamente dimostriamo che l’ellisse che ha fuochi F
1
e F
2
ha
equazione
x
2
a
2
+
y
2
b
2
= 1. (13.1)
dove b =

a
2
−c
2
.
Sia P(x, y); allora deve essere
2a = d(PF
1
) + d(PF
2
) =

(x + c)
2
+ y
2
+

(x −c)
2
+ y
2
.
Da cui
(x + c)
2
+ y
2
=

2a −

(x −c)
2
+ y
2

2
= 4a
2
+ (x −c)
2
+ y
2
−4a

(x −c)
2
+ y
2
e quindi
4a

(x −c)
2
+ y
2
= 4(a
2
−cx)
da cui
a
2
(x
2
−2xc + c
2
+ y
2
) = (a
2
−cx)
2
= a
4
−2a
2
xc + c
2
x
2
(a
2
−c
2
)x
2
+ a
2
y
2
= a
2
(a
2
−c
2
) ⇐⇒
x
2
a
2
+
y
2
a
2
−c
2
= 1
e la (13.1) segue ponendo b
2
= a
2
−c
2
.
115
OSSERVAZIONE 13.1. Per come è stato definito segue naturalmente che b < a;
se b = a si ottiene una circonferenza e se b > a si scambiano il ruolo della x e y e
dunque si ottiene l’ellisse di fuochi (0, ±c).
Per esempio vogliamo determinare i fuochi dell’ellisse di equazione
4x
2
+ y
2
= 1.
Possiamo scriverla nella forma
x
2

1
2

2
+ y
2
= 1
da cui si ricava immediatamente che a =
1
2
e b = 1; essendo b > a si ottiene c =

b
2
−a
2
e dunque c =

1 −
1
4
=

3
2
e quindi F
1

0, −

3
2

e F
2

0,

3
2

.
Tenendo presente l’equazione (13.1) si vede subito che si può porre
x
a
= cos ϕ
e
y
b
= sin ϕ da cui si ottengono le comode equazioni parametriche dell’ellisse

x = a cos ϕ
y = b sin ϕ
ϕ
0
≤ ϕ ≤ ϕ
0
+2π. (13.2)
Figura 13.3. L’iperbole
DEFINIZIONE 13.2. Dati nel piano due punti F
1
e F
2
si chiama iperbole di
fuochi F
1
e F
2
l’insieme dei punti P del piano tali che è costante il valore della
differenza delle distanze di P da F
1
e F
2
[d(PF
1
) −d(PF
2
)[ = 2a
dove a è una costante che soddisfa la relazione 2a < d(F
1
F
2
).
116 Le coniche
Se F
1
(−c, 0) e F
2
(c, 0) si ottiene, con calcoli del tutto analoghi a quelli svolti
precedentemente – e che lasciamo per esercizio al lettore – che l’iperbole avente
fuochi in F
1
e F
2
ha equazione
x
2
a
2

y
2
b
2
= 1 (13.3)
dove c =

a
2
+ b
2
.
Si osserva anche che per grandi valori di [x[, l’iperbole “si avvicina”alle due
rette di equazioni ay = ±bx, infatti dalla (13.3) si ha
ay = ±

−a
2
b
2
+ b
2
x
2
,
da cui, se y > 0
ay −b[x[ =

−a
2
b
2
+ b
2
x
2
−b [x[
=
(

−a
2
b
2
+ b
2
x
2
+ b [x[)(

−a
2
b
2
+ b
2
x
2
−b [x[)

−a
2
b
2
+ b
2
x
2
+ b [x[
=
−a
2
b
2
b [x[ +

−a
2
b
2
+ b
2
x
2
.
questa è una quantità che diventa sempre più piccola al crescere di [x[. Le rette
di equazioni y = ±
b
a
x si chiamano asintoti dell’iperbole.
3
Figura 13.4. La parabola
Consideriamo ora la parabola.
3
Il concetto generale di asintoto di una curva è stato chiarito nei corsi di Analisi.
13.1 Coniche in forma generale 117
DEFINIZIONE 13.3. Dati nel piano un punto F ed una retta r tali che F ∈ r, una
parabola di fuoco F e direttrice r è l’insieme dei punti P del piano equidistanti
da F e da r cioè:
d(FP) = d(Pr).
Per trovarne l’equazione canonica (v. Fig. 13.4 nella pagina precedente) sia
p > 0, se F

p
2
, 0

allora r ha equazione x = −
p
2
e l’equazione della parabola è:
y
2
= 2px (13.4)
infatti
d(PF) =

x −
p
2

2
+ y
2
e
d(P, r) =

x +
p
2

da cui
x
2
+ px +
p
2
4
= x
2
− px +
p
2
4
+ y
2
che, semplificata, è la (13.4).
Dalle equazioni che abbiamo trovato notiamo che l’ellisse e l’iperbole sono
curve simmetriche: esse posseggono due assi di simmetria tra loro ortogonali
che nel nostro caso coincidono con gli assi del sistema di riferimento, quindi
hanno anche un centro di simmetria, che coincide con il punto di incontro degli
assi e che, in forma canonica, è l’origine del sistema di riferimento; la parabola,
invece, ha un solo asse di simmetria che,in forma canonica, coincide con l’asse x
e quindi non ha un centro di simmetria.
Quelle che abbiamo esaminato sono le cosiddette equazioni canoniche delle
coniche, cioè quelle in cui appunto gli assi di simmetria delle coniche coincidono
con gli assi coordinati, per le coniche a centro e con l’asse x per la parabola. Se
ciò non accade la forma dell’equazione può essere molto diversa.
13.1. Coniche in forma generale
In generale l’equazione di una conica è una generica equazione di secondo
grado, quindi ha la forma
ax
2
+ bxy + cy
2
+ dx + ey + f = 0 (13.5)
con a, b, c non tutti nulli; oppure, in forma matriciale,
xAx
T
= 0
118 Le coniche
dove x è il vettore

x y 1

ed A è la matrice simmetrica
A =

a
b
2
d
2
b
2
c
e
2
d
2
e
2
f
¸
¸
OSSERVAZIONE 13.2. Tra le equazioni della forma (13.5) dobbiamo accettare
anche equazioni del tipo x
2
+ y
2
= 0 (circonferenza che ha un solo punto reale,
già vista) o x
2
+2y
2
+1 = 0 (ellisse completamente immaginaria) oppure x
2

2y
2
= 0 spezzata nelle due rette reali x +

2y = 0 e x −

2y = 0 ed altre
“stranezze” del genere. Quindi, per completezza, dobbiamo chiamare coniche
anche curve a punti di coordinate complesse o curve spezzate in coppie di rette,
queste ultime prendono anche il nome di coniche degeneri.
13.1.1. Riconoscimento di una conica
Sorge allora il problema di “riconoscere” la conica, cioè di sapere se l’equazione
( 13.5 nella pagina precedente) rappresenti un’ellisse, un’iperbole o una parabola,
degenere o no.
Il problema del riconoscimento di una conica si può affrontare in vari modi; per
i nostri scopi possiamo notare subito che la (13.5) rappresenta una circonferenza
se e solo se b = 0 e a = c. Inoltre, nel caso generale, si dimostra che mediante
un opportuno cambiamento di sistema di riferimento l’equazione (13.5) si può
portare in una delle tre forme canoniche ( 13.1 a pagina 114), ( 13.3 a pagina 116)
e ( 13.4 nella pagina precedente) che non contengono il termine “rettangolare”
4
.
Se il polinomio a primo membro della (13.5) si scompone in fattori lineari, la
conica è detta degenere e spezzata in due rette (reali o immaginarie, coincidenti
o no). Si verifica facilmente, con passaggi elementari ma un po’ laboriosi, che
una conica degenere rimane tale in qualunque sistema di riferimento cartesiano
ortogonale; quindi l’essere degenere è un carattere invariante rispetto ad una
qualsiasi rototraslazione di assi. Un’altra caratteristica invariante di una conica è
la sua natura, cioè il fatto di essere un’ellisse piuttosto che una parabola od un
iperbole, equilatera o no.
Questi caratteri invarianti si traducono in termini algebrici esaminando la
matrice A vista nel paragrafo precedente, e la sua sottomatrice formata dalle
prime due righe e dalle prime due colonne: B =
¸
a
b
2
b
2
c

. Si può infatti dimostrare
che
Teorema 13.1. Una conica è degenere se e solo se I
3
= det A = 0; la conica è una
parabola se I
2
= det B = 0; è un ellisse se I
2
> 0 ed è un’iperbole se I
2
< 0. In
4
In realtà le equazioni canoniche dell’ellisse e dell’iperbole non contengono nemmeno termini lineari, ma
questi ultimi si possono facilmente eliminare con una traslazione degli assi.
13.1 Coniche in forma generale 119
particolare se la traccia di B cioè I
1
= a + c = 0 è nulla si tratta di una iperbole
equilatera.
OSSERVAZIONE 13.3. Dal teorema 13.1 a fronte si vede dunque che la natura
di una conica è completamente determinata solo dai coefficienti dei termini
di secondo grado della sua equazione ed in particolare che la conica è una
parabola se e solo se il complesso dei termini di secondo grado è il quadrato di
un opportuno binomio.
OSSERVAZIONE 13.4. Osserviamo anche che la parabola degenera in due rette
reali parallele (eventualmente sovrapposte
5
: per esempio quelle rappresentate
dall’equazione x
2
= 0); l’ellisse degenera in due rette incidenti entrambe prive
di punti reali (tranne il loro punto di intersezione) infine l’iperbole degenere è
costituita da due rette reali incidenti in un punto, che sono perpendicolari se e
solo se l’iperbole è equilatera.
Si può anche dimostrare che con un’opportuna rototraslazione di assi l’equa-
zione generica di una conica ( 13.5 a pagina 117) si può sempre portare in una ed
una sola forme canoniche elencate nella tabella 13.1.
Tabella 13.1. Le forme canoniche dell’equazione di una conica
x
2
a
2
+
y
2
a
2
= 1 (ellisse reale)
x
2
a
2
+
y
2
a
2
= −1 (ellisse immaginaria)
x
2
a
2
+
y
2
a
2
= 0 (ellisse degenere)
x
2
a
2

y
2
a
2
= 1 (iperbole non degenere)
x
2
a
2

y
2
a
2
= 0 (iperbole degenere)
y
2
= 2px (parabola non degenere)
y
2
= 0 (parabola degenere)
In riferimento alla tabella 13.1, notiamo che:
i) Nei due casi dell’ellisse, se a = b si ha una circonferenza, rispettivamente
reale o immaginaria.
ii) Nell’ellisse immaginaria se a = b si ha la circonferenza di raggio nullo,
degenere in due rette immaginarie: di equazioni x ±iy = 0 che si chiamano
rette isotrope.
iii) Nell’equazione dell’iperbole se a = b si ha l’iperbole equilatera.
5
in questo caso si parla spesso di una retta contata due volte
120 Le coniche
Osserviamo anche che operare la rotazione che riduce a forma canonica l’equa-
zione di una conica equivale a diagonalizzare ortogonalmente la matrice A, il
che è sempre possibile, essendo A simmetrica (vedi Teorema 9.8 a pagina 80).
Esempio 13.1. Sia da riconoscere la conica
x
2
−4xy +4y
2
+ x −2y = 0. (13.6)
Si vede subito che la (13.6) si può scrivere come (x − 2y)
2
+ x − 2y = 0, quindi,
poiché il complesso dei termini di secondo grado è un quadrato, si tratta di una parabola;
inoltre, raccogliendo opportunamente la (13.6) si scrive anche (x −2y)(x −2y +1) = 0
dunque è degenere. del resto si vede anche subito che la matrice A =

1 −2
1
2
−2 4 −1
1
2
−1 0
¸
¸
è
singolare.
Figura 13.5. Esempio 13.2
Esempio 13.2. Vogliamo riconoscere la conica di equazione x
2
−2xy +6y
2
−2x = 0.
La matrice dei coefficienti è A =

1 −1 −1
−1 6 0
−1 0 0
¸
¸
che non è singolare. Si vede subito
che la sottomatrice B =
¸
1 −1
−1 6

ha determinante uguale a 5 quindi positivo: si tratta
dunque di un’ellisse non degenere (vedi Figura 13.5).
13.2 Tangenti ad una conica in forma canonica 121
13.2. Tangenti ad una conica in forma canonica
Sia γ una conica. Una retta r ha in comune con γ al massimo due punti, infatti
il sistema formato dalle equazioni della retta e della conica ammette al più due
soluzioni, in quanto la risolvente del sistema è al più di secondo grado. Questi
due punti, però, possono essere distinti, reali o complessi oppure coincidenti. In
questo caso diciamo che la retta r è tangente alla conica γ.
Nel caso delle equazioni in forma canonica si verifica agevolmente che se
P(x
0
, y
0
) è un punto appartenente alla conica l’equazione della tangente in P
alla conica è, per le coniche reali a centro,
xx
0
a
2
±
yy
0
b
2
= 1 (13.7)
ovviamente con il segno + se si tratta di un’ellise e con il segno − se si tratta
di un’iperbole. ed invece per la parabola in forma canonica l’equazione della
tangente in P è:
yy
0
= p(x + x
0
). (13.8)
ATTENZIONE Le (13.7) e (13.8) rappresentano le tangenti solo se P appartiene
alla conica e quest’ultima è scritta in forma canonica.
13.3. Conica per cinque punti
L’equazione generica della conica ( 13.5 a pagina 117) è un’equazione che
dipende da sei coefficienti omogenei
6
; quindi imporre il passaggio per un punto
dà luogo ad una equazione in sei variabili. Dunque il passaggio per cinque punti
distinti P
i
(x
i
, y
i
), i = 1 . . . 5 dà luogo al sistema

ax
2
1
+ bx
1
y
1
+ cy
2
1
+ dx
1
+ ey
1
+ f
1
= 0
ax
2
2
+ bx
2
y
2
+ cy
2
2
+ dx
2
+ ey
2
+ f
2
= 0
ax
2
3
+ bx
3
y
3
+ cy
2
3
+ dx
3
+ ey
3
+ f
3
= 0
ax
2
4
+ bx
4
y
4
+ cy
2
4
+ dx
4
+ ey
4
+ f
4
= 0
ax
2
5
+ bx
5
y
5
+ cy
2
5
+ dx
5
+ ey
5
+ f
5
= 0
che è lineare omogeneo di 5 equazioni nelle 6 incognite a, b, c, d, e ed f . Allora
se il rango della matrice dei coefficienti è massimo, cioè, detta A la matrice dei
coefficienti, se r(A) = 5 il sistema ammette ∞
1
soluzioni, cioè infinite soluzioni
che differiscono solo di un fattore di proporzionalità. Quanto qui esposto si
traduce nel
6
cioè, ricordiamo, definiti a meno di un fattore di proporzionalità non nullo.
122 Le coniche
Teorema 13.2. Per cinque punti, a tre a tre non allineati, passa una ed una sola conica
non degenere.
Dimostrazione. Se i cinque punti sono a tre a tre non allineati le equazioni sono
indipendenti quindi il sistema ammette ∞
1
soluzioni, infatti, se così non fosse,
cioè se una delle equazioni fosse combinazione lineare delle altre quattro, si
avrebbe che tutte le coniche che passano per quattro punti A B C D passerebbero
anche per il quinto E, il che è assurdo, perché la conica che si spezza nelle rette
AB e CD dovrebbe passare per E che per ipotesi non può appartenere nè alla retta
AB nè alla CD. L’unica conica che passa per i cinque punti è anche irriducibile,
perché se così non fosse almeno tre dei cinque punti sarebbero allineati.
Le condizioni poste non vietano che due dei cinque punti coincidano. In tal
caso la conica è tangente ad una retta passante per i due punti coincidenti (e per
nessuno dei rimanenti). Di più le coppie di punti coincidenti possono essere due,
in tal caso la conica sarà tangente a due rette che passano ciascuna per una delle
coppie di punti coincidenti.
13.4. Le coniche in coordinate omogenee
In coordinate omogenee, cioè lavorando nel piano ampliato con gli elementi
impropri, l’equazione ( 13.5 a pagina 117) si scrive
ax
2
+ bxy + cy
2
+ dxu + eyu + f u
2
= 0 (13.9)
Per riconoscere la natura di una conica è più elegante studiarne il comporta-
mento all’infinito, intersecandola con la retta impropria. Infatti segue dalle
considerazioni svolte sin qui, che una retta ed una conica hanno sempre due
punti in comune, distinti o coincidenti, reali o meno, propri o impropri.
Una rototraslazione di assi, che, come abbiamo visto, non altera la natura di
una conica, manda punti propri in punti propri e punti impropri in punti impro-
pri, quindi la natura di una conica equivale al suo comportamento all’infinito,
che possiamo esaminare sulle equazioni canoniche.
Per
x
2
a
2
±
y
2
b
2
= u
2
i punti impropri sono quelli delle due rette
x
2
a
2
±
y
2
b
2
= 0
e cioè, rispettivamente

1 : ±i
b
a
: 0

per l’ellisse e

1 : ±
b
a
: 0

per l’iperbole,
dunque l’iperbole ha due punti impropri reali e distinti: quelli dei suoi asintoti mentre
i punti impropri dell’ellisse sono immaginari.
Per quanto riguarda l’equazione y
2
= 2pxu della parabola si ha y
2
= 0 che
equivale all’asse x contato due volte, quindi la parabola è tangente alla retta
impropria nel punto X

(1 : 0 : 0). Nel caso generale l’intersezione tra una
13.4 Le coniche in coordinate omogenee 123
parabola e la retta impropria produce il sistema

ax
2
+ bxu + cy
2
= 0
u = 0
in cui la prima equazione è il quadrato di un binomio (αx + βy) e quindi la
parabola avrà il punto improprio (β : −α : 0).
Dunque possiamo concludere che:
L’ellisse non ha punti impropri reali.
La parabola è tangente alla retta impropria nel suo punto improprio.
L’iperbole ha due punti impropri reali e distinti, in direzione ortogonale se e
solo se essa è equilatera.
Figura 13.6. Esempio 13.3
Esempio 13.3. Vogliamo riconoscere la natura della conica γ che in coordinate non
omogenee ha equazione x
2
+3xy −y
2
+ x −2 = 0. Se passiamo a coordinate omogenee
e intersechiamo la γ con la retta impropria u = 0 otteniamo il sistema

x
2
+3xy −y
2
+ xu −2u
2
= 0
u = 0
equivalente a

x
2
+3xy −y
2
= 0
u = 0
Dividendo la prima equazione per x
2
otteniamo i coefficienti angolari delle rette in cui
è spezzata la conica del secondo sistema: m
2
−3m−1 = 0 che ammette le due radici
reali e distinte m
12
=


13
2
, quindi la conica, avendo i due punti impropri reali e
distinti P

(2 : 3 +

13 : 0) e Q

(2 : 3 −

13 : 0) è un’iperbole; di più poiché i due
punti impropri sono in direzioni ortogonali, si tratta di un’iperbole equilatera. (Vedi
figura 13.6)
124 Le coniche
Esempio 13.4. Riconosciamo la conica x
2
+ xy + 2y
2
+ x − 1 = 0. Passando a
coordinate omogenee ed intersecando con la retta impropria, abbiamo x
2
+ xy +2y
2
= 0
da cui 1 + m +2m
2
= 0 che ha radici complesse, quindi la conica è un’ellisse, come si
vede dalla figura 13.7)
Figura 13.7. Esempio 13.4
13.5. Fasci di coniche
In questo capitolo estenderemo al caso delle coniche il concetto di fascio
già visto per le rette e le circonferenze come insieme di enti geometrici le cui
equazioni dipendono linearmente da una coppia di parametri omogenei o da un
solo parametro non omogeneo.
13.5.1. Generalità sui fasci di coniche
Chiamiamo fascio di coniche generato da due coniche γ
1
e γ
2
, che si incontrano
in quatto punti (reali o no, propri o impropri, a tre a tre non allineati ma eventual-
mente a due a due coincidenti) l’insieme F di tutte le coniche la cui equazione
si ottiene come combinazione lineare non banale delle equazioni di γ
1
e γ
2
. In
tale situazione chiamiamo punti base del fascio i quattro punti comuni a γ
1
e γ
2
. Si
verifica facilmente che tutte e sole le coniche di F passano per tutti e quattro i
punti base.
Per quattro punti a tre a tre non allineati passano sei rette, che, opportuna-
mente considerate a due a due, formano le (uniche) tre coniche degeneri di F.
Osserviamo inoltre che imporre ad una conica di passare per quattro punti non
allineati vuol dire fornire quattro condizioni lineari indipendenti.
13.5 Fasci di coniche 125
Per scrivere l’equazione del fascio di coniche che ha come punti base i punti A,
B, C e D basta combinare linearmente le equazioni di due qualsiansi di queste
coniche; in generale le più comode sono quelle degeneri; esse sono tre: quella
spezzata nella coppia di rette AB e CD che indicheremo con AB CD, la AC BD
e la AD BC possiamo usare due di queste per scrivere l’equazione del fascio.
Se due dei quattro punti base coincidono si ha una condizione di tangenza: è
il caso del fascio di coniche tangenti in un punto ad una data retta e passanti per
altri due punti.
Ci possono essere anche due coppie di punti coincidenti: in tal caso si parla di
fascio di coniche bitangenti, cioè di coniche tangenti in un punto P ad una retta r
ed in un punto Q ad una seconda retta s.
Se le due coniche da cui partiamo per costruire il fascio hanno rispettivamente
equazioni:
γ
1
≡ a
1
x
2
+ b
1
xy + c
1
y
2
+ d
1
x + e
1
y + f
1
= 0
γ
2
≡ a
2
x
2
+ b
2
xy + c
2
y
2
+ d
2
x + e
2
y + f
2
= 0
l’equazione del fascio sarà:
λ(a
1
x
2
+ b
1
xy + c
1
y
2
+ d
1
x + e
1
y + f
1
)+
+µ(a
2
x
2
+ b
2
xy + c
2
y
2
+ d
2
x + e
2
y + f
2
) = 0 (13.10)
L’equazione (13.5.1) può assumere anche la forma
(λa
1
+ µa
2
)x
2
+ (λb
1
+ µb
2
)xy + (λc
1
+ µc
2
)y
2
+
+(λd
1
+ µd
2
)x + (λe
1
+ µe
2
)y + λf
1
+ µf
2
= 0 (13.11)
Ci chiediamo quando l’equazione (13.5.1) rappresenta un’iperbole equilatera.
Ricordiamo che una conica ax
2
+ bxy + cy
2
+ dx + ey + f = 0 è un’iperbole
equilatera se e solo se a + c = 0 quindi nella (13.11) se e solo se λa
1
+ µa
2
+
λc
1
+ µc
2
= 0. Questa è un’equazione lineare che può ammettere una sola
soluzione, oppure essere identicamente verificata (se a
1
+ c
1
= a
2
+ c
2
= 0) o
non ammettere soluzioni (se, ad esempio, a
1
+ c
1
= 0, a
2
+ c
2
= 0).; quindi in
un fascio di coniche possono esserci esattamente una iperbole equilatera, solo
iperboli equilatere o nessuna iperbole equilatera.
Analogamente possiamo dire che la (13.11) rappresenta una parabola se e solo
se
(λb
1
+ µb
2
)
2
+4(λa
1
+ µa
2
)(λc
1
+ µc
2
) = 0 (13.12)
L’equazione (13.12) può ammettere esattamente due soluzioni reali, distinte o
coincidenti, e allora nel fascio ci sono due parabole distinte o coincidenti
7
oppure
essere identicamente soddisfatta, e allora si tratta di un fascio di parabole o
impossibile, e allora si tratta di un fascio di coniche che non contiene parabole.
7
eventualmente degeneri
126 Le coniche
Esempio 13.5. Cerchiamo se esistono parabole passanti per i punti comuni alle coniche
γ
1
≡ x
2
+ y
2
= 4 e γ
2
≡ x
2
−2xy −y
2
+2x = 0 (circonferenza e iperbole equilatera
non degenere). Il fascio individuato dalle due coniche ha equazione λ(x
2
+ y
2
−4) +
µ(x
2
−2xy − y
2
+ 2x) = 0 che si può anche scrivere come x
2
−2xy − y
2
+ 2x +
k(x
2
+ y
2
−4) = 0 o anche come
(k +1)x
2
−2xy + (k −1)y
2
+2x −4k = 0
Per avere una parabola dovrà essere (k +1)(k −1) −1 = 0 da cui k = ±

2. Quindi
si hanno due parabole, di equazioni rispettive
(1 +

2)x
2
−2xy −(1 +

2)y
2
+2x −4

2 = 0
(1 −

2)x
2
−2xy −(1 −

2)y
2
+2x +4

2 = 0
13.6. Fasci e punti impropri
Le questioni riguardanti le coniche per quattro o cinque punti hanno senso
anche quando uno o due dei punti sono impropri; ad esempio se si dice che
una conica ammette un asintoto parallelelo ad una retta r data, si intende che
la conica passa per il punto improprio R

della retta r; se si conosce proprio
l’equazione dell’asintoto, allora le condizioni sono due: il passaggio per il punto
improprio e la tangenza ivi alla retta asintoto.
La circonferenza è una particolare conica che viene individuata dando solo tre
condizioni lineari indipendenti; questo fatto si spiega considerando che, come
abbiamo detto alla fine del capitolo12 tutte le circonferenze del piano passano
per due punti: i punti ciclici. Un fascio di circonferenze secanti è dunque un caso
particolare di quello delle coniche per quattro punti distinti.
Per quanto riguarda l’asse radicale di un fascio di circonferenze, esaminiamo
che cosa accade in coordinate omogenee intersecando due circonferenze: si ha il
sistema

x
2
+ y
2
+ axu + byu + cu
2
= 0
x
2
+ y
2
+ αxu + βyu + γu
2
= 0
.
Sottraendo membro a membro e raccogliendo opportunamente si ha l’equazione
u [(a −α)x + (b − β)y + c −γ] = 0
che è l’equazione di una conica spezzata nella retta impropria e in un altra retta,
quella che abbiamo chiamato l’asse radicale del fascio.
Parte III.
Polarità piana
14. Proiettività ed involuzioni
Chiamiamo forma proiettiva di prima specie qualunque insieme di enti geometrici
la cui equazione è definita al variare di due parametri lineari omogenei od uno
non omogeneo che possa però assumere anche il valore infinito: le rette, viste
come insieme di punti (punteggiate) sono forme di prima specie, così come lo
sono i fasci di rette o di coniche.
In questo capitolo ci occuperemo di particolari trasformazioni tra forme di
prima specie dette proiettività e di un particolare ed importante tipo di tali
trasformazioni dette involuzioni.
14.1. Proiettività
Si considerino due rette proiettive (cioè completate con il loro punto improprio
e pensate come insieme di punti) r e r
/
. Su ciascuna di esse si può fissare un
sistema di ascisse in modo che (x : u) siano le coordinate omogenee del generico
punto P ∈ r e (x
/
: u
/
) quelle del generico punto P
/
∈ r
/
. Chiamiamo proiettività
tra r ed r
/
la corrispondenza biunivoca π che associa al punto P(x : u) di r il
punto P
/
di r
/
di coordinate

ρx
/
= ax + bu
ρu
/
= cx + du
(14.1)
con ac −bd = 0 e ρ ∈ R, ρ = 0. Facendo nel sistema (14.1) il rapporto membro a
membro e passando dalle coordinate omogenee a quelle ordinarie si ottiene
x
/
=
ax + b
cx + d
(14.2)
che è la forma più usata per descrivere una proiettività. Esse valgono soltanto
per i punti propri, infatti il corrispondente del punto P

(1 : 0) dalla (14.1) ha
coordinate tali che sia

ρx
/
= a
ρy
/
= c
e se c = 0 si ha P
/
(a : c) cioè P
/

a
c

mentre
se è c = 0 si ottiene il punto di coordinate omogenee P
/
(a : 0) cioè il punto
improprio della retta r
/
. Esso può anche essere determinato, usando la (14.2),
come x
/
= lim
x→0
ax + b
cx + d
. In modo analogo si osserva che il punto di r che ha come
130 Proiettività ed involuzioni
corrispondente il punto improprio di r
/
è P(−d : c), dunque per c = 0 si ha
P


d
c

e per c = 0 si ha il punto improprio di r.
Un altro modo per rappresentare una proiettività si può ricavare eliminando il
denominatore nella (14.2) ottenendo una relazione del tipo
αxx
/
+ βx + γx
/
+ δ = 0 (14.3)
con la condizione αδ − βγ = 0.
Se nella ( 14.1 nella pagina precedente) lasciamo cadere la condizione ad −bc =
0 si perde la biunivocità, come mostra il seguente
Esempio 14.1. Si consideri la corrispondenza x
/
=
2x−4
−x+2
in cui, appunto, è ad −bc =
2 2 −(−4) (−1) = 0. possiamo scrivere x
/
=
2(x−2)
−(x−2)
e quindi x
/
= −2 per ogni
x = 2 mentre per x = 0 si ha la forma di indecisione
0
0
che corrisponde alla coppia di
coordinate omogenee nulle ma non rappresenta alcun punto.
Esempio 14.2. Consideriamo la proiettività x
/
=
x−1
x+1
e calcoliamo il corrispondente
di qualche punto. Ad A(1) corrisponde il punto A
/
di ascissa x
/
=
1−1
1+1
= 0, al punto
B(−1) il punto di ascissa x
/
=
−1−1
−1+1
= ∞ cioè il unto improprio della retta r
/
ed al
punto P

improprio della r il punto di ascissa x
/
= lim
x→∞
x−1
x+1
= 1
Nel caso in cui le due rette (o più in generale le due forme) coincidano, cioè,
come si suol dire, la proiettività sia tra forme sovrapposte si chiamano uniti o fissi i
punti che sono corrispondenti di se stessi.
Esempio 14.3. Vogliamo trovare i punti uniti della priiettività di equazione xx
/
−x −
2x
/
= 0. Un punto è unito se e solo se è corrispondente di se stesso, cioè se x = x
/
.
Tenendo conto di questa condizione si ottiene l’equazione x
2
−3x = 0 da cui i due punti
uniti O(0) ed A(3).
Dall’esempio precedente si vede che, se nella (14.3) è α = 0 la ricerca dei punti
uniti si riconduce alla ricerca delle radici di un’equazione di secondo grado,
quindi una proiettività può avere:
• due punti uniti distinti (proiettività iperbolica)
• un punto unito doppio (proiettività parabolica)
• nessun punto unito (proiettività ellittica)
Nel caso in cui sia α = 0 si verifica facilmente che un punto unito è il punto
improprio: infatti da βx + γx
/
+ δ = 0 si ha x
/
=
−βx−δ
γ
(qui γ è sicuramente
14.2 Involuzioni 131
non nullo perche se no sarebbe αβ −γδ = 0 e non avremmo una proiettività)
e quindi lim
x→∞
−βx−δ
γ
= ∞. L’altro punto unito sarà, se β = −γ x = −
δ
β+γ
e se
β = −γ il punto improprio è un punto unito doppio.
Ogni proiettività è rappresentata da un’equazione omogenea che dipende da 4
coefficienti, quindi è perfettamente determinata quando sono date tre coppie di
punti corrispondenti (uniti o meno):
Esempio 14.4. Vogliamo l’equazione della proiettività che ammette come punti uniti i
punti A(0), B(1) e fa corrispondere al punto C(2) il punto C
/
(−1). Le condizioni poste,
sostituite nella (14.3), danno luogo al sistema

δ = 0
α + β + γ + δ = 0
−2α +2β −γ + δ = 0
da cui si ricava
δ = 0, α = 3β e γ = −4β e quindi l’equazione della proiettività è 3xx
/
+ x −4x
/
= 0.
Finora abbiamo considerato proiettività tra rette (punteggiate), ma come abbia-
mo detto, si possono considerare allo stesso modo proiettività tra fasci di rette
o di coniche, in questo caso le coordinate (omogenee) del singolo elemento del
fascio sono i parametri che lo individuano nel fascio stesso.
Esempio 14.5. Sia F il fascio λx + µy = 0 di rette per l’origine e F
/
λ
/
(x −1) +
µ
/
y = 0 quello delle rette per P(1, 0), e sia π la corrispondenza che associa ad ogni retta
r di F la retta r
/
di F
/
ad esssa perpendicolare. Per la condizione di perpendicolarità si
deve avere λµ
/
+ λ
/
µ = 0 cioè

ρλ
/
= −µ
ρµ
/
= λ
che diventa, utilizzando nei due fasci un
solo parametro non omogeneo e scrivendo : y = mx e F
/
: y = m
/
(x −1) m
/
= −
1
m
cioè mm
/
−1 = 0. Si hanno quindi delle relazioni analoghe alle (14.1), (14.2) ed (14.3);
dunque la relazione di ortogonalità definisce una proiettività tra i due fasci considerati.
Le rette, pensate come punteggiate ed i fasci (di rette o di coniche) vengono
globalmente indicate, in questo contesto, come forme di prima specie. D’ora in
avanti, salvo avviso contrario, sottintendiamo di estendere a tutte le forme di
prima specie le considerazioni che facciamo per le punteggiate.
14.2. Involuzioni
Se in una proiettività π tra forme di prima specie sovrapposte si ha una coppia
di punti A e B tale che π(A) = B =⇒ π(B) = A si dice che la coppia è involutoria
o che i punti si corrispondono in doppio modo.
DEFINIZIONE 14.1. Una proiettività tra forme di prima specie sovrapposte in
cui ogni coppia di elementi è involutoria si chiama involuzione
132 Proiettività ed involuzioni
L’equazione di una involuzione si può scrivere, in analogia con la (14.3) come
αxx
/
+ β(x + x
/
) + δ = 0 (14.4)
che è un’equazione simmetrica, cioè non cambia scambiando x con x
/
.
Lemma 14.1. Se in una proiettività di equazione (14.3) esiste una coppia involutoria,
allora si ha β = γ e quindi la proiettività è in particolare una involuzione.
Dimostrazione. Infatti se a x
1
, ascissa di un punto non unito corrisponde x
2
= x
1
si ha αx
1
x
2
+ βx
1
+ γx
2
+ δ = 0, ma poiché anche x
1
corrisponde ad x
2
si avrà
anche αx
2
x
1
+ βx
2
+ γx
1
+ δ = 0; sottraendo membro a membro otteniamo
β(x
1
−x
2
) + γ(x
2
−x
1
) = 0 da cui (x
1
−x
2
)(β −γ) = 0 e poiché x
2
= x
1
deve
essere β −γ = 0, quindi la proiettività è un’involuzione.
Per le involuzioni sussiste il
Teorema 14.2. La proiettività di equazione (14.3) è un’involuzione se e soltanto se
β = γ.
Dimostrazione. Se β = γ, risolvendo la (14.3) sia rispetto ad x che ad x
/
si ha
x
/
=
βx + δ
αx + β
e x =
βx
/
+ δ
αx
/
+ β
quindi ogni coppia di punti è involutoria; viceversa se la proiettività è un’involu-
zione, allora ogni coppia di punti è involutoria e quindi, per il lemma 14.1 si ha
β = γ.
Segue immediatamente dal Lemma 14.1 e dal Teorema 14.2.
Corollario 14.3. Una proiettivitàπ tra forme di prima specie sovrapposte che ammet-
ta una coppia involutoria è una involuzione, cioè tutte le coppie di elementi che si
corrispondono in π sono involutorie
Dimostrazione.
L’equazione (14.4) dipende da tre coefficienti omogenei, quindi essa è univoca-
mente determinata da due coppie di punti corrispondenti
1
, in particolare un’involu-
zione è univocamente determinata dai suoi punti uniti.
Anche le involuzioni si possono classificare in base ai loro punti uniti: precisa-
mente un’involuzione è
iperbolica se ammette due punti uniti reali e distinti;
ellittica se non ha punti uniti reali.
1
Due punti che si corrispondono in una involuzione vengono anche spesso detti punti coniugati
14.2 Involuzioni 133
Non esistono involuzioni paraboliche, infatti ponendo nella 14.4 x = x
/
si ottiene
l’equazione di secondo grado αx
2
+2βx + δ = 0 il cui discirminante ∆ = 4β
2

4αγ = 4(B
2
−αγ) non si annulla mai perché dev’essere αδ − βγ = 0 e quindi,
siccome si tratta di una involuzione αδ − β
2
= 0
Vediamo ora qualche esempio
Esempio 14.6. Calcoliamo i punti uniti dell’involuzione xx
/
+ 1 = 0. Si perviene
all’equazione x
2
+1 = 0 che non ha radici (in R). Quindi l’involuzione non ha punti
uniti reali ed è dunque ellittica.
Esempio 14.7. Troviamo l’equazione dell’involuzione che ha come punti uniti A(0) e
B(1). Le coordinate dei punti uniti sono soluzioni dell’equazione x
2
−x = 0 da cui si
ottiene xx
/

1
2
(x + x
/
) = 0.
Esempio 14.8. Sia data, in un fascio di rette, l’involuzione che fa corrispondere alla
retta di coefficiente angolare m = 3 quella di coefficiente angolare m
/
= ∞e che ammette
come unita la retta per cui m = 1. Vogliamo trovare l’altra retta unita. Dalla relazione
m
/
= −
βm+δ
αm+β
, tenendo conto delle condizioni date si hanno le relazioni 3α + β =
0 e 1 = −
β+δ
α+β
che danno luogo al sistema

α +2β = −δ
3α + β = 0
che ha come soluzione

δ = 5α
β = −3α
. L’involuzione cercata ha dunque equazione mm
/
−3(m + m
/
) +5 = 0.
Ponendo m = m
/
si ha l’equazione ai punti uniti m
2
−6m +5 = 0, le cui soluzioni
sono m = 1, che sapevamo, ed m = 5, coefficiente angolare dell’altra retta unita.
15. Polarità piana
In questo capitolo esamineremo e studieremo una particolare corrispondenza
biunivoca tra punti e rette del piano indotta da una conica.
15.1. Polare di un punto rispetto ad una conica irriducibile
Sia data una conica irriducibile
1
γ che, come già visto, può essere rappresentata,
in coordinate omogenee, dall’equazione
f (x, y, u) = a
11
x
2
+2a
12
xy + a
2
y
2
+2a
13
xu +2a
23
yu + a
33
u
2
= 0 (15.1)
o anche, in notazione matriciale
xAx
T
= 0 (15.2)
dove x = [x, y, u] ed A = [a
ik
] è la matrice simmetrica dei coefficienti della (15.1).
DEFINIZIONE 15.1. Chiamiamo polare del punto P(x
0
: t
0
: u
0
) rispetto alla co-
nica di equazione (15.1) la retta che può scriversi indifferentemente
2
in ciascuna
delle due seguenti forme
x

∂ f
∂x

P
+ y

∂ f
∂y

P
+ u

∂ f
∂u

P
= 0 (15.3)
x
0

∂ f
∂x

+ y
0

∂ f
∂y

+ u
0

∂ f
∂u

= 0 (15.4)
Si vede subito che anche la (15.4) rappresenta una retta in quanto è sicu-
ramente un’equazione lineare e che le tre derivate parziali non si annullano
contemporaneamente in alcun punto del piano. Inoltre si può dimostrare che
la corrispondenza che associa ad ogni punto del piano la sua polare rispetto ad
una conica γ è biunivoca.
Se la retta r è la polare del punto P il punto P si chiama polo della retta r rispetto
alla conica γ.
1
Da qui in poi, e per tutto il capitolo, anche se non espressamente detto, le coniche prese in esame dovranno
essere considerate, salvo esplicito avviso contrario, irriducibili.
2
L’equivalenza delle due forme dell’equazione della polare si può facilmente verificare sostituendo
semplicemente nella (15.4) le espressioni delle tre derivate parziali del polinomio di cui alla (15.1)
calcolate in un punto generico.
136 Polarità piana
Se la conica è data con l’equazione (15.2), l’equazione della polare è data da
xA x
0T
= 0 oppure x
0
Ax
T
(15.5)
dove x
0
è il vettore [x
0
, y
0
, u
0
]; l’equivalenza delle due forme nella (15.5) deriva
dal fatto che A è simmetrica, si ha infatti xA x
0T
= x
0T
T
A
T
x
T
= x
0
Ax
T
.
L’equivalenza delle (15.5) con le (15.3) ed (15.4) può essere ricavata con sem-
plici calcoli osservando che le righe della matrice A (e quindi anche le colonne,
essendo A simmetrica) sono i coefficienti delle tre derivate parziali del polinomio
a primo membro della (15.1) rispetto ad x, y e u rispettivamente.
Esempio 15.1. Vogliamo calcolare la polare del punto P(1 : 0 : 1) rispetto all’iperbole
di equazione x
2
−xy + xu −u
2
= 0. Applicando la (15.4) si ottiene 1 (2x −y + u) +
0 (−x) +1 (x −2u) = 0 e quindi l’equazione della polare è 3x −2y −2u = 0
Come si vede dall’esempio 15.1 è spesso più comodo usare la forma (15.4)
piuttosto che la (15.3), che torna utile in casi come quello del seguente
Esempio 15.2. Vogliamo determinare il punto proprio, di ascissa unitaria, che rispettto
all’ellisse irriducibile γ di equazione f (x, y, u) = x
2
+ 4y
2
− u
2
= 0 ha la polare
perpendicolare rispetto a quella del punto P(−1, 1). La polare di P rispetto a γ ha
equazione
[x, y, u]

1 0 0
0 4 0
0 0 −1
¸
¸

−1
1
1
¸
¸
= 0
cioè [x, y, u]

−1
4
−1
¸
¸
= 0 da cui x − 4y + u = 0; sia ora A(1, t) il generico punto
proprio del piano di ascissa unitaria: i coefficienti di x e y nell’equazione della sua polare
sono a =

∂ f
∂x

A
e b =

∂ f
∂y

A
; le due polari sono perpendicolari se e soltanto se è
1

∂ f
∂x

A
−4

∂ f
∂y

A
= 0 cioè (2x)
A
−4(8y)
A
= 0 da cui 2 −32t = 0 e quindi
t =
1
16
. Il punto cercato è allora A

1,
1
16

.
Dare una coppia polo–polare, cioè un punto e la sua polare rispetto ad una co-
nica, significa imporre sui coefficienti dell’equazione della conica due condizioni
lineari indipendenti.
Esempio 15.3. Consideriamo le coniche che ammettono come polare del punto X

(1 :
0 : 0) la retta di equazione y +1 = 0. Pensiamo alla conica nella forma 15.1 nella pagina
precedente: l’equazione

∂ f
∂x

1 +

∂ f
∂y

0 +

∂ f
∂u

0 = 0 che diventa a
11
x + a
12
y +
a
13
u = 0 dovrà essere quella della retta data, quindi si deve avere a
11
= 0 = a
12
−a
13
dunque proprio due condizioni lineari indipendenti.
15.2 Principali proprietà della polarità piana 137
Si può dimostrare che se P appartiene alla conica (e soltanto in questo caso)
la sua polare rispetto alla conica è la tangente in P alla conica: diventa allora
molto semplice trattare molte questioni di tangenza mediante lo strumento della
polarità. Ad esempio la tangente nell’origine ad una conica γ si può pensare
come la polare dell’origine (0 : 0 : 1) cioè il complesso dei termini lineari del
polinomio che rappresenta la γ. Inoltre gli asintoti di un’iperbole sono le tangenti
all’iperbole stessa nei suoi punti impropri, quindi possono essere determinati
come le polari di questi ultimi.
Esempio 15.4. Vogliamo gli asintoti dell’iperbole 6x
2
−5xy + y
2
−2xu = 0. I suoi
punti impropri sono P

(1 : 2 : 0) e Q

(1 : 3 : 0). Gli asintoti, che sono le polari di
tali punti, avranno rispettivamente equazioni 1 (12x −5y −2u) +2 (−5x +2y) =
0 e 1 (12x − 5y − 2u) + 3 (−5x + 2y) = 0, cioè, in coordinate non omogenee
2x −y −2 = 0 e 3x −y +2 = 0
15.2. Principali proprietà della polarità piana
Sussiste il seguente fondamentale
Teorema 15.1 (Legge di reciprocità o di Plücker). Se la polare del punto P rispetto
ad una conica irriducibile γ : f (x, y, u) = 0 passa per il punto Q allora la polare di Q
rispetto alla medesima conica passa per il punto P.
Dimostrazione. Scriviamo l’equazione della polare di P rispetto a γ nella forma
(15.3):
x

∂ f
∂x

P
+ y

∂ f
∂y

P
+ u

∂ f
∂u

P
= 0
per ipotesi essa passa per Q(x
1
, : y
1
: z
1
) quindi la
x
1

∂ f
∂x

P
+ y
1

∂ f
∂y

P
+ u
1

∂ f
∂u

P
= 0 (15.6)
è un’identità. Scriviamo ora l’equazione della polare di Q nella forma (15.4):
x
1

∂ f
∂x

+ y
1

∂ f
∂y

+ u
1

∂ f
∂u

= 0
che, grazie alla (15.6), è soddisfatta dalle coordinate di P.
I seguenti corollari sono immediate conseguenze della legge di reciprocità
(Teorema 15.1)
Corollario 15.2. Se il polo Q della retta q appartiene alla retta p allora il polo P di p
appartiene alla retta q.
138 Polarità piana
Corollario 15.3. Se il punto P si muove su una retta r, allora la polare di P descrive il
fascio di rette che ha per sostegno il polo R di r.
Corollario 15.4. Se una retta r descive un fascio che ha per sostegno il punto P allora il
suo polo descrive una retta che è la polare di P.
La legge di reciprocità ci fornisce un metodo comodo per determinare le
coordinate del polo di una retta:
Esempio 15.5. Date la retta r : x +y −3u = 0 e la parabola x
2
−2xy +y
2
−2xu = 0
vogliamo determinare il polo R di r. Per la legge di reciprocità le polari di due qualsiasi
punti di r passano per il polo di r, quindi possiamo scegliere su r due punti comodi,
per esempio il punto improprio P

(1 : −1 : 0) ed il punto (proprio) Q(3 : 0 : 1).
La polare di P

ha equazione 2x −2y − u = 0 mentre la polare di Q ha equazione
2x −3y −3u = 0. Il punto cercato, in quanto intersezione delle due polari, avrà le
coordinate che sono soluzione del sistema

2x −2y −u = 0
2x −3y −3u = 0
e cioè R


3
2
: −2 : 1

che si può anche scrivere come R(−3 : −4 : 2).
Dalle proprietà della polarità piana segue anche il
Teorema 15.5. Per un punto P non appartenente ad una conica γ passano esattamente
due tangenti alla γ, reali o meno.
Figura 15.1. Tangenti da un punto ad una conica
Dimostrazione. Riferiamoci alla Figura 15.1. Siano Q e R le intersezioni della
polare di P con la conica
3
, allora la polare di Q è tangente alla conica, perché
3
Nel piano ampliato con elementi impropri ed elementi immaginari una retta ed una conica hanno sempre
due punti in comune, a meno che il punto non appartenga alla conica.
15.3 Elementi coniugati rispetto ad una conica irriducibile 139
Q sta sulla conica e passa per P per la legge di reciprocità. In modo analogo si
può dire che la polare di R, a sua volta tangente, passa anch’essa per P. Quindi
per P passano almeno due tangenti alla conica. Dimostriamo che sono solo due.
Supponiamo, per assurdo che anche la retta PT sia tangente alla conica; sempre
per la legge di reciprocità, il punto T deve stare sulla polare di P e sulla conica,
quindi, ricordando che una conica ed una retta hanno in comune al massimo
due punti, esso deve coincidere con Q o con R.
Dal teorema 15.5 segue ovviamente che
Teorema 15.6. la polare rispetto ad una conica irriducibile γ di un punto P non
appartenente ad essa congiunge i punti di tangenza delle tangenti passanti per P.
Questo risultato si può sfruttare per scrivere in maniera rapida ed elegante le
equazioni delle tangenti condotte da un punto ad una conica.
Esempio 15.6. Sia γ la conica di equazione x
2
−2xy + x −1 = 0; si vogliano le
tangenti alla γ uscenti dall’origine. La polare dell’origine ha, in coordinate omogenee,
equazione x −2u = 0; essa ha in comune con la conica il punto improprio ed il punto
di coordinate (8 : 5 : 4). Le tangenti cercate, che congiungono tali punti con O hanno
rispettivamente equazioni x = 0 e 5x −8y = 0
15.3. Elementi coniugati rispetto ad una conica irriducibile
Diciamo che il punto A è coniugato o reciproco del punto B rispetto ad una
conica irriducibile γ se la polare di A passa per B. Poiché, in questo caso, in virtù
della legge di reciprocità (Teorema 15.1 a pagina 137) anche la polare di B passa
per A possiamo dire che i due punti sono (mutuamente) reciproci rispetto a γ.
In modo analogo diciamo che due rette a e b sono reciproche se il polo dell’una
sta sull’altra. Dalle considerazioni precedenti risulta evidente che il luogo dei
punti reciproci, rispetto ad una conica irriducibile γ, di un punto P è la polare di
P rispetto a γ. Analogamente le rette reciproche di una retta a sono quelle del
fascio che ha per sostegno il polo di a.
Esempio 15.7. Vogliamo il punto reciproco dell’origine rispetto alla conica γ : x
2

y
2
− u
2
= 0 che appartiene all’asse x. Poiché la polare dell’origine rispetto a γ è
la retta impropria, il punto cercato sarà il punto improprio dell’asse x, cioè il punto
X

(1 : 0 : 0).
Da quanto detto segue anche che fissata una conica irriducibile γ ed una retta
r non tangente a γ,
Teorema 15.7. I punti di r reciproci rispetto a γ si corrispondono in una involuzione,
detta dei punti reciproci o dei punti coniugati i cui punti uniti sono gli eventuali
punti di intersezione reali tra la retta e la conica.
140 Polarità piana
(a) involuzione iperbolica, retta secante (b) involuzione ellittica,retta esterna
Figura 15.2. Involuzione dei punti reciproci
La natura di questa involuzione permette di distinguere le rette non tangenti
alla conica in: secanti, se l’involuzione è iperbolica, ed esterne se essa è ellittica.
È escluso il caso in cui la retta sia tangente in T alla conica, perché in tal caso non
si avrebbe un’involuzione, in quanto ogni punto di r sarebbe reciproco di T. La
situazione è illustrata nella figure 15.2, in particolare nelle figure 15.2(a) e 15.2(b).
Vale anche, dualmente, il
Teorema 15.8. Le rette di un fascio F avente per sostegno il punto P non appartenente
ad una conica γ che siano reciproche rispetto alla stessa γ si corrispondono in una
involuzione le cui rette unite sono le eventualirette reali passanti per P e tangenti alla γ.
Dimostriamo ora il
Teorema 15.9. Una conica γ è il luogo dei punti che appartengono alla propria polare,
cioè sono autoconiugati rispetto alla γ
Dimostrazione. Se P ∈ γ, la sua polare rispetto alla conica è la tangente in P alla
conica, quindi passa per P.
Viceversa supponiamo che P(x
0
: y
0
: u
0
) appartenga alla propria polare ri-
spetto alla conica γ : f (x, y, u) = 0. Sostituendo le coordinate di P nell’equazione
della polare, si deve avere
x
0

∂ f
∂x

P
+ y
0

∂ f
∂y

P
+ u
0

∂ f
∂u

P
= 0
Ma essendo f (x, y, u) omogenea, dal Teorema di Eulero
4
sulle funzioni omogenee
segue che x

∂ f
∂x

+ y

∂ f
∂y

+ u

∂ f
∂u

= 2f (x, y, u) e quindi f (x
0
, y
0
, u
0
) = 0.
4
Noto teorema di Analisi sulle funzioni omogene.
15.4 Triangoli autopolari 141
Esempio 15.8. Se per una conica γ non degenere l’involuzione delle rette reciproche
nel fascio che ha per sostegno l’origine O(0, 0) ha equazione mm
/
+ (m + m
/
) = 0,
allora le tangenti condotte da O alla conica, che sono le rette unite dell’involuzione, si
possono determinare come le rette i cui coefficienti angolari sono soluzioni dell’equazione
m
2
−2m = 0, cioè m = 0 ed m = 2 e sono quindi le rette y = 0 e y = 2x.
15.4. Triangoli autopolari
DEFINIZIONE 15.2. Si chiama autopolare per una conica irriducibile γ un trian-
golo
5
tale che ogni vertice sia il polo del lato opposto.
Nella figura 15.3 il triangolo PQR è autopolare per l’ellisse.
Tenendo conto del fatto che la polare di un punto esterno ad una conica taglia
la conica stessa in due punti reali e distinti, mentre quella di un punto interno
non ha punti reali in comune con la conica, è facile verificare che un triangolo
autopolare ha sempre esattamente un vertice interno alla conica e due esterni ad
essa, inoltre può accadere che uno o due dei vertici di un triangolo autopolare
siano punti impropri. Nel primo caso, il lato opposto al vertice improprio è un
diametro della conica, nel secondo il vertice proprio è il centro della stessa.
Figura 15.3. Triangolo autopolare
5
In Geometria proiettiva un triangolo è una figura piana costituita da tre rette non concorrenti, (cioè non
passanti tutte tre per un medesimo punto) e non da tre segmenti come in Geometria elementare. Le tre
rette si dicono lati del triangolo ed i tre punti (propri od impropri che siano) in cui le rette si intersecano a
due a due sono chiamati vertici del triangolo.
142 Polarità piana
L’insieme di tutte le coniche che ammettono un certo triangolo come autopolare
è costituito da ∞
2
coniche e come tale prende il nome di rete di coniche, questo
equivale a dire che dare un triangolo autopolare per una conica equivale a
dare tre condizioni lineari indipendenti, infatti, pur essendo date tre coppie
polo–polare (quindi sei condizioni) per la legge di reciprocità (Teorema 15.1 a
pagina 137) le condizioni indipendenti sono solo tre.
Si può dimostrare che l’equazione complessiva della rete di coniche che ammet-
ta come autopolare il triangolo di vertici A, B e C si ottiene come combinazione
lineare dei quadrati delle equazioni dei tre lati, cioè, in forma simbolica,
λAB
2
+ µAC
2
+ νBC
2
= 0 (15.7)
Anche in questo caso, invece di usare tre parmetri omogenei, se ne possono usare
due non omogenei, ad esempio h =
λ
ν
e k =
µ
ν
, perdendo così le coniche che
si ottengono dalla (15.7) per ν = 0: in questo caso, tuttavia, non è necessario
pensare di riammetterle per il valore ν = ∞ in quanto le questioni relative alla
polarità riguardano solo coniche irriducibili: nella (15.7) non può annullarsi
nessuno dei tre coefficienti. Si dimostra che in realtà vale anche il viceversa, cioè
nessuna delle coniche della rete considerata individuata dai valori non nulli dei
tre parametri è degenere.
Esempio 15.9. Vogliamo determinare l’equazione dell’iperbole che ammette come auto-
polare il triangolo formato dagli assi coordinati e dalla retta di equazione x +2y −1 = 0
e come asintoto la retta x +2y +2 = 0.
Abbiamo tre condizioni fornite dal triangolo autopolare e due dall’asintoto (tangente
nel punto improprio, quindi coppia polo–polare). La rete di coniche che ammette il
triangolo dato come autopolare ha equazione λx
2
+µy
2
+ν(x +2y −1)
2
= 0 la polare
di P

(2 : −1 : 0), punto improprio dell’asintoto, rispetto alla generica conica della
rete ha equazione (λ + 2ν)x + (µ + 4ν)y −4ν = 0, che coincide con la retta data
quando λ +2µ =
µ+4ν
2
=
−4ν
2
cioè quando λ = −4ν e µ = −8ν. La conica ha dunque
equazione −4x
2
−8y
2
+ (x +2y −1)
2
= 0 che diventa facilmente 3x
2
−4xy +4y
2
+
2x +4y −1 = 0.
Nella discussione del precedente esempio abbiamo usato tre parametri omo-
genei invece di due non omogenei per ricordare, ancora una volta come due
rette coincidano quando le due equazioni siano individuate da due polinomi
non necessariamente uguali ma anche solo proporzionali.
16. Centro, diametri ed assi di una conica
irriducibile
In questo capitolo vediamo come le proprietà della polarità piana viste nel
capitolo precedente possano essere utilmente utilizzate per determinare ulteriori
elementi di una conica, notevoli da un punto di vista geometrico e già accennati
in modo elementare nei precedenti capitoli sulle coniche.
16.1. Centro e diametri di una conica
DEFINIZIONE 16.1. Se γ è una conica irriducibile chiamiamo centro di γ il polo
della retta impropria rispetto a γ. Chiamiamo diametro di γ una qualunque retta
che passi per il centro, cioè, per la legge di reciprocità la polare di un qualunque
punto improprio.
La parabola, in quanto tangente alla retta impropria nel suo punto improprio,
ha centro improprio: il punto improprio del suo asse. Ne segue che la parabola
ha tutti i diametri paralleli, in quanto passanti tutti per il medesimo punto
improprio.
L’ellisse e l’iperbole, invece, hanno centro proprio (e sono dette anche coni-
che a centro), infatti se esso fosse improprio, sarebbe autoconiugato, visto che
apparterrebbe alla propria polare e dunque per il Teorema 15.9 a pagina 140
apparterrebbe alla conica e la sua polare, la retta impropria, sarebbe tangente
alla conica, contro l’ipotesi che sia un’ellisse od un’iperbole.
Si mostra facilmente che il polo della retta impropria è centro di simmetria
per una conica a centro, cioè ogni corda AB che passa per C è tale che C sia il
punto medio di AB. (vedi Figura 16.1 nella pagina seguente). Si può facilmente
verificare questo fatto considerando la conica in forma canonica, cioè operando
una rototraslazione del sistema di riferimento, trasformazione che non altera
le proprietà della polarità piana. In questo caso la conica assume equazione
a
11
x
2
+ a
22
y
2
+ a
33
= 0. Una qualunque retta per il centro , che qui è l’origi-
ne, ha equazione y = mx da cui l’equazione (a
11
− a
22
m
2
)x
2
+ a
33
= 0 che è
un’equazione di secondo grado tale che la semisomma delle radici è nulla.
Esempio 16.1. Vogliamo trovare il centro della conica x
2
− xy + x −3 = 0. Basta
intersecare le polari di due punti impropri qualsiansi, per esempio i punti impropri degli
144 Centro ed assi
Figura 16.1. Polo della retta impropria, centro di simmetria
assi coordinati X

(1 : 0 : 0) e Y

(0 : 1 : 0). Le polari sono le rette 2x −y +1 = 0 e
x = 0 il punto comune è soluzione del sistema

2x −y +1 = 0
x = 0
e cioè il punto C(0, 1)
I diametri di una conica irriducibile formano un fascio, proprio se la conica
è a centro ed improprio se la conica è una parabola. Riveste una particolare
importanza, in questo fascio, l’involuzione che ad ogni diametro fà corrispondere
il suo coniugato essa prende il nome di involuzione dei diametri coniugati: due
diametri sono coniugati se e soltanto se il polo dell’uno è il punto improprio
dell’altro.
Gli asintoti di una iperbole sono gli elementi uniti di tale involuzione, essendo
diametri ed autoconiugati (tangenti alla conica, quindi contenenti il loro polo).
Più in generale possiamo dire che l’involuzione dei diametri coniugati di una conica
γ è ellittica se e solo se la γ è un’ellisse ed è iperbolica se e solo se essa è un’iperbole.
Quindi l’esame dell’involuzione dei diametri coniugati fornisce un ulteriore
strumento per il riconoscimento di una conica.
Si può inoltre dimostrare che ogni diametro di una conica a centro dimezza le corde
in direzione coniugata cioè ogni diametro è asse di simmetria obliqua.
Questo risultato permette di determinare graficamente il centro di una conica
ed il diametro coniugato ad un diametro dato, come mostrano i seguenti esempi
e le seguenti figure.
Esempio 16.2. Vogliamo determinare graficamente il centro della conica γ di Figu-
ra 16.2. Tracciamo due rette a e b parallele che intersecano la conica, e siano A e B e,
rispettivamente A
/
e B
/
i punti di intersezione delle rette con la conica. Indicati con M
ed N i punti medi delle corde AB e A
/
B
/
rispettivamente.; tracciamo la retta MN. Essa
è un diametro (coniugato alla direzione delle rette a e b); se indichiamo con C e D i punti
16.1 Centro e diametri 145
Figura 16.2. Determinazione grafica del centro di una conica
di intersezione di questo diametro con la conica, il centro è il punto medio della corda
CD.
Esempio 16.3. Vogliamo determinare il diametro coniugato al diametro d nella conica
γ di Figura 16.3. Tracciamo una retta parallela alla d che intersechi la conica. Siano A
e B le due intersezioni della retta con la conica. e sia M il punto medio di AB allora la
retta CM è il diametro coniugato cercato.
Figura 16.3. Determinazione grafica del diametro coniugato
Dimostriamo ora l’importante
Teorema 16.1. Sia
a
11
x
2
+2a
12
xy + a
22
y
2
+2a
13
xu +2a
23
yu + a
33
= 0
l’equazione di una conica irriducibile γ, allora l’equazione dell’involuzione dei diametri
coniugati di γ è
a
22
mm
/
+ a
12
(m + m
/
) + a
11
= 0 (16.1)
146 Centro ed assi
Dimostrazione. Consideriamo due qualsiansi diametri della conica e supponiamo
che abbiano coefficienti angolarei m e m
/
rispettivamente e pertanto passino
per i punti impropri P

(1 : m : 0) e Q

(1 : m
/
: 0), essi sono coniugati se
e soltanto se la polare p di P

(1 : m : 0) passa per Q

(1 : m
/
: 0). La p
ha equazione 2a
11
x + 2a
12
y + 2a
13
+ m(2a
12
x + 2a
22
y + 2a
23
) = 0 che diventa
(a
11
+ ma
12
)x + (ma
22
+ a
12
)y + a
13
+ ma
23
= 0; essa passerrà per Q

(1 : m
/
: 0)
se e solo se è a
11
+ma
12
+m
/
(ma
22
+ a
12
) = 0 che con facili passaggi si riconduce
alla (16.1)
Esempio 16.4. La conica di equazione 3x
2
−2xy + y
2
−3x + y −7 = 0 ammette
come involuzione dei diametri coniugati l’equazione mm
/
−(m + m
/
) +3 = 0. Le rette
unite hanno coefficienti angolari che sono soluzioni dell’equazione m
2
−2m +3 = 0
che non sono reali. L’involuzione è perciò ellittica e quindi la conica è un’ellisse.
Se la conica è una circonferenza l’equazione si riduce a
mm
/
+1 = 0 (16.2)
relazione che si chiama anche involuzione circolare, viceversa ogni conica che
ammetta la (16.2) come involuzione dei diametri coniugati è una circonferenza.
Osserviamo anche che la (16.2) è la relazione che lega due rette ortogonali quindi
in una circonferenza i diametri coniugati sono ortogonali e viceversa ogni conica
per cui tutti i diametri ortogonali sono coniugati è una circonferenza.
È facile verificare che le tangenti agli estremi A e B di un diametro d sono
parallele al diametro coniugato (v. fig. 16.4) infatti d è la polare del punto
improprio P

di d
/
e quindi le tangenti alla conica in A e B passano per P

.
Figura 16.4. Tangenti agli estremi di un diametro
Osserviamo anche che ogni coppia di diametri coniugati forma, con la retta
impropria un triangolo autopolare, infatti la polare dell’intersezione di due
16.2 Assi di una conica 147
diametri, che è il centro della conica, è la retta impropria e la polare del punto
improprio di ciascun diametro è quello ad esso coniugato. Se chiamiamo r e s
i due diametri coniugati, la rete di coniche che ammette queste due rette come
diametri coniugati ha equazione λr
2
+ µs
2
+ νu
2
= 0.
Esempio 16.5. La conica che ammette le rette r ed s rispettivamente di equazioni y = x
e y = −2x +1 come diametri coniugati e passa per A(1, 2) e B(0, 2) può essere cercata
nella rete di coniche che ha equazione α(x −y)
2
+ β(2x + y −1)
2
+1 = 0; imponendo
il passaggio per i due punti dati si ottiene il sistema

α +9β +1 = 0
4α + β +1 = 0
che ha come
soluzione α = −
8
35
e β = −
3
35
da cui l’equazione della conica 20x
2
−4xy +11y
2

12x −6y −32 = 0 che è un’ellisse.
16.2. Assi di una conica
Si dice asse di una conica un diametro proprio che sia coniugato alla direzione
ad esso ortogonale; per quanto detto prima un asse dimezza le corde in direzione
ortogonale, quindi è asse di simmetria ortogonale.
Per una parabola P tutti i diametri sono paralleli e passano per il punto im-
proprio di P di conseguenza l’asse è la polare del punto improprio in direzione
ortogonale a quello di P; quindi la parabola ha un solo asse.
Consideriamo ora una conica a centro γ e siano a un suo asse e a
/
il diametro
coniugato ad a. Per definizione di asse il polo di a è il punto improprio di a
/
,
quindi , per la legge di reciprocità il polo di a
/
è il punto improprio di a dunque
anche A
/
è un asse di γ. Abbiamo così dimostrato il
Teorema 16.2. Se una conica a centro possiede un asse, ne possiede almeno un altro
Di più, gli assi di una conica a centro diversa da una circonferenza sono
esattamente due. Infatti, se nella ( 16.1 a pagina 145) poniamo m
/
= −
1
m
otteniamo
−a
22
+ a
12

m−
1
m

+ a
11
= 0
che diventa
a
12
m
2
+ (a
11
−a
22
)m−a
12
= 0 (16.3)
Per a
12
= 0 la (16.3) ammette due radici reali e distinte, quindi la conica ammette
esattamente una coppia di assi. Se invece è a
12
= 0 e a
11
= a
22
l’equazione (16.3)
si abbassa di grado ed ammette una radice nulla: si hanno quindi anche in questo
caso esattamente due assi, di coefficienti angolari m = 0 e m = ∞.
Infine se è a
12
= 0 e a
11
= a
22
cioè se la conica è una circonferenza, la (16.3)
diventa un’identità in accordo col fatto che l’involuzione circolare è l’involuzione
dei diametri coniugati della circonferenza, per la quale, dunque, tutti i dia<ametri
sono assi.
148 Centro ed assi
Esempio 16.6. Vogliamo gli assi della conica γ : x
2
+ xy −2 = 0. In questo caso
la (16.3) diventa m
2
+ m −1 = 0 che ha come radici m =
−1±

5
2
: gli assi della γ
possono essere determinati o come polari dei due punti impropri

1 :
−1±

5
2
: 0

oppure
osservando che il centro di γ è l’origine in quanto la sua equazione manca dei termini
lineari. Dunque gli assi sono le rette di equazioni y =
−1±

5
2
x.
Parte IV.
Geometria dello spazio
17. Rette e piani nello spazio
17.1. Equazioni parametriche della retta nello spazio
Quanto detto nel paragrafo 11.2 a pagina 96 sulle equazioni parametriche della
retta nel piano si generalizza facilmente al caso di rette nello spazio, precisamente
diciamo che, nello spazio, una retta che passa per il punto P(x
0
, y
0
, z
0
) ed ha
la direzione del vettore u = [a, b, c] è l’insieme dei punti P(x, y, z) tali che il
vettore [x −x
0
, y −y
0
, z −z
0
] sia proporzionale al vettore [a, b, c], ottenendo così
le equazioni parametriche di una retta nello spazio.

x = x
0
+ at
y = y
0
+ bt
z = z
0
+ ct
(17.1)
Osserviamo che in questo caso l’eliminazione del parametro porta a due equa-
zioni cartesiane, quindi non è possibile descrivere una retta
1
nello spazio mediante
una sola equazione cartesiana. La direzione della retta è data da quella del vettore
[a, b, c] le cui componenti si chiamano parametri direttori di r.
Esempio 17.1. Vogliamo le equazioni parametriche della retta che passa per i punti
P(3, 1, 0) e Q(0, −1, 1). Essa ha la direzione del vettore [3, 1, 0] −[0, −1, 1] = [3, 2, −1]
e quindi le sue equazioni parametriche sono

x = 3 +3t
y = 1 +2t
z = −t
.
OSSERVAZIONE 17.1. Da quanto detto discende che i parametri direttori di una
retta sono definiti a meno di un fattore di proporzionalità non nullo, in accordo
col fatto che il vettore v = [a, b, c] ha la stessa direzione del vettore [ka, kb, kc] se
k = 0. Se invece di v consideriamo il versore v
/
=
v
|v|
le componenti di v
/
sono
i cosiddetti coseni direttori della retta, infatti sono proprio i coseni degli angoli
2
che la retta forma con la direzione positiva degli assi coordinati.
1
In generale una linea.
2
Dobbiamo precisare che nello spazio si parla di angolo ϕ tra due rette orientate r ed s anche se esse non si
incontrano e non sono parallele – cioè sono, come si suol dire, sghembe – quando formano l’angolo ϕ
le rette r
/
e s
/
, rispettivamente parallele ed equiverse ad r ed s e passanti per un medesimo punto, per
esempio l’origine del sistema di riferimento.
152 Rette e piani nello spazio
Esempio 17.2. Vogliamo trovare i coseni direttori della retta
r :

x = 1 + t
y = −2t
z = −t
.
Una terna di parametri direttori è 1, −2, −1 e quindi,normalizzando i parametri direttori
otteniamo i coseni direttori che sono, ordinatamente,
1

1 +4 +1
,
−2

6
,
−1

6
Esempio 17.3. Vogliamo scrivere le equazioni parametriche delle rette che passano per
il punto P(1, 2, 3) e non tagliano il piano xy. Ogni retta che non taglia il piano xy ha la
direzione di un qualunque vettore del piano xy diverso dal vettore nullo, cioè [a, b, 0] con
a e b non contemporaneamente nulli; allora le equazioni parametriche delle rette cercate
saranno

x = 1 + at
y = 2 + bt
z = 3
.
17.2. Equazione di un piano nello spazio
Un piano π è orientato quando in esso è dato il verso delle rotazioni positive.
Per consuetudine una retta n ortogonale ad un piano orientato, detta anche
normale, è orientata in modo che un osservatore in piedi sul piano π dalla parte
positiva di n veda le rotazioni positive sul piano operare in senso antiorario.
Sia ora dato un punto P(x
0
, y
0
, z
0
) ∈ π e la sua normale n a π, di parametri
direttori a , b, e c e passante per P. Osserviamo che il generico punto Q(x, y, z)
appartiene a π se e solo se appartiene a rette passanti per π ortogonali ad n. Una
terna di parametri direttori della generica retta per P è x − x
0
, y −y
0
e z −z
0
quindi deve essere
a(x −x
0
) + b(y −y
0
) + c(z −z
0
) = 0
Che diventa
ax + by + cz + d = 0 (17.2)
pur di porre d = −ax
0
−by
0
−cz
0
. Abbiamo così dimostrato il
Teorema 17.1. Nelllo spazio tutte e sole le equazioni della forma 17.2 rappresentano un
piano in cui a, b e c sono numeri non tutti e tre nulli
3
.
Si suol dire che a, b e c sono i parametri direttori del piano, cioè i parametri
direttori di un piano coincidono con quelli di una sua qualsiasi normale.
3
in quanto parametri direttori di una retta
17.3 Parallelismo e perpendicolarità nello spazio 153
OSSERVAZIONE 17.2. Abbiamo visto che i numeri a, b e c non devono essere
tutti e tre nulli. Tuttavia da quanto visto si può dedurre che:
• Se uno dei tre è nullo l’equazione (17.2) rappresenta un piano parallelo
all’asse avente lo stesso nome della variabile che manca.
• Se due dei tre sono nulli, il piano rappresentato dalla (17.2) è parallelo al
piano individuato dai due assi delle variabili che mancano.
Esempio 17.4. Il piano 2x −y +3 = 0 è parallelo all’asse z ed interseca il piano xy
lungo la retta di equazioni

2x −y +3 = 0
z = 0
mentre il piano x = 5 è parallelo al piano yz.
17.3. Parallelismo e perpendicolarità nello spazio
Nel paragrafo 11.1 a pagina 95 abbiamo visto dei criteri per stabilire quando
nel piano due rette sono parallele o perpendicolari; discuteremo ora l’analogo
problema nello spazio.
Due rette si dicono parallele se hanno la stessa direzione
4
; due piani si dicono
paralleli se non hanno punti in comune o se coincidono; un piano ed una retta si
dicono paralleli se non hanno punti in comune o se la retta giace sul piano. Vale
il
Teorema 17.2. I piani π
1
e π
2
di equazioni rispettive a
1
x + b
1
y + c
1
z + d
1
= 0
e a
2
x + b
2
y + c
2
z + d
2
= 0 sono paralleli se e solo se i vettori u = [a
1
, b
1
, c
1
] e
v = [a
2
, b
2
, c
2
] sono proporzionali, cioè se u = kv con k = 0, quindi se
a
1
= ka
2
; b
1
= kb
2
; c
1
= kc
2
k = 0. (17.3)
Se inoltre d
1
= kd
2
i piani sono coincidenti; inoltre π
1
e π
2
sono ortogonali se e solo se
'[a
1
, b
1
, c
1
], [a
2
, b
2
, c
2
]` = 0. (17.4)
cioè se e solo se
a
1
a
2
+ b
1
b
2
+ c
1
c
2
= 0 (17.5)
Analogo teorema vale per le rette nello spazio:
4
Abbiamo già visto che è comodo considerare parallele anche due rette coincidenti, in modo che la
relazione di parallelismo sia una relazione di equivalenza.
154 Rette e piani nello spazio
Teorema 17.3. Le rette
r
1
:

x = x
1
+ a
1
t
y = y
1
+ b
1
t
z = z
1
+ c
1
t
e r
2
:

x = x
2
+ a
2
t
y = y
2
+ b
2
t
z = z
2
+ c
2
t
sono parallele se e solo se i vettori u = [a
1
, b
1
, c
1
] e v = [a
2
, b
2
, c
2
] sono proporzionali,
cioè se e solo se u = kv con k = 0, quindi se vale la (17.3).
Inoltre r
1
e r
2
sono ortogonali se e solo se vale la (17.5)
OSSERVAZIONE 17.3. Ribadiamo (vedi nota 2 a pagina 151) che nello spazio
due rette perpendicolari possono anche non intersecarsi, cioè essere sghembe!
Teorema 17.4. Sia r la retta di equazioni

x = x
0
+ a
1
t
y = y
0
+ b
1
t
z = z
0
+ c
1
t
e π il piano di equazione a
2
x + b
2
y + c
2
z + d
2
= 0 allora r e π sono paralleli se e solo
se '[a
1
, b
1
, c
1
], [a
2
, b
2
, c
2
]` = 0 e sono perpendicolari se e solo se i vettori u = [a
1
, b
1
, c
1
]
e v = [a
2
, b
2
, c
2
] sono proporzionali, cioè se u = kv con k = 0, quindi se vale la (17.3).
Dunque le relazioni di parallelismo e perpendicolarità tra due rette o tra
due piani nello spazio per così dire si “scambiano” nel caso di parallelismo e
perpendicolarità tra una retta ed un piano; ciò avviene perché per un piano π di
equazione
ax + by + cz + d = 0
le componenti del vettore [a, b, c] formano, come abbiamo visto, una terna di
parametri direttori di una retta ortogonale a π.
17.4. La retta intersezione di due piani
Siano dati i due piani
a
1
x + b
1
y + c
1
z + d
1
= 0 (π
1
)
a
2
x + b
2
y + c
2
z + d
2
= 0 (π
2
)
Per quanto detto finora essi saranno non paralleli se i vettori v
1
= [a
1
, b
1
, c
1
] e
v
2
= [a
2
, b
2
, c
2
] sono linearmente indipendenti. Dal punto di vista geometrico,
due piani non paralleli hanno in comune una retta, in accordo col fatto che
P(x, y, z) ∈ π
1
∩ π
2
se e solo se (x, y, z) è soluzione del sistema

a
1
x + b
1
y + c
1
z + d
1
= 0
a
2
x + b
2
y + c
2
z + d
2
= 0
(17.6)
17.4 La retta intersezione di due piani 155
Dal teorema 3.5 a pagina 28 segue che, nell’ipotesi che i piani non siano
paralleli, questo sistema è possibile, dato che, se chiamiamo A la matrice dei
coefficienti e B quella completa, si ha r(A) = r(B) = 2, dunque il sistema
ammette ∞
1
soluzioni che sono effettivamente i punti di una retta nello spazio.
Dunque una retta può essere individuata come intersezione di due piani.
Esempio 17.5. Sia data la retta
r :

x + y + z = 1
x −z = 0
; (17.7)
i vettori [1, 1, 1] e [1, 0, −1] sono linearmente indipendenti dunque i piani non sono
paralleli ed il sistema rappresenta una retta. Per trovare le equazioni parametriche di
questa retta possiamo osservare che il sistema equivale a

y +2z = 1
x = z
e quindi una possibile soluzione è data da

x = t
y = 1 −2t
z = t
che sono le coordinate del generico punto di r e quindi rappresentano una terna di
equazioni parametriche della retta.
OSSERVAZIONE 17.4. Le soluzioni del sistema (17.7) si possono anche scrivere
come

x =
1 −t
2
y = t
z =
1 −t
2
ed in altri infiniti modi, significativamente diversi, ciascuno dei quali rappresenta
una terna di equazioni parametriche della r.
Se accade che r(A) = 1, cioè che i vettori v
1
= [a
1
, b
1
, c
1
] e v
2
= [a
2
, b
2
, c
2
]
sono linearmente dipendenti, i due piani sono paralleli se r(B) = 2 e addirittura
coincidenti se r(B) = 1; nel primo caso il sistema risulta impossibile, infatti
i piani non si incontrano, nel secondo il sistema ammette ∞
2
soluzioni, cioè i
due piani π
1
e π
2
coincidono e qualunque punto di essi ha coordinate che sono
soluzioni del sistema.
156 Rette e piani nello spazio
OSSERVAZIONE 17.5. Sia data la retta
r :

ax + by + cz + d = 0
a
/
x + b
/
y + c
/
z + d
/
= 0
la retta r
/
parallela ad r (quindi avente gli stessi parametri direttori) e passante
per l’origine è:
r
/
:

ax + by + cz = 0
a
/
x + b
/
y + c
/
z = 0
(17.8)
Poiché r
/
passa per l’origine, una terna di parametri direttori di r
/
è data dalle
coordinate di un suo punto qualsiasi, che sono quindi le soluzioni del sistema
lineare omogeneo (17.8) e quindi proporzionali ai tre minori

a b
a
/
b
/

, −

a c
a
/
c
/

e

b c
b
/
c
/

estratti dalla matrice dei coefficienti.
Quanto detto nell’Osservazione 17.5 rappresenta un modo pratico e veloce per
trovare una terna di parametri direttori di una retta scritta come intersezione di
due piani, senza passare alle sue equazioni parametriche.
17.5. Fasci di piani
L’insieme di tutti i piani che passano per una stessa retta si chiama fascio di
piani
Teorema 17.5. Se π
1
: a
1
x + b
1
y + c
1
z + d
1
= 0 e π
2
: a
2
x + b
2
y + c
2
z + d
2
= 0
sono due piani non paralleli che definiscono la retta r, l’equazione del generico piano
passante per r è
λ(a
1
x + b
1
y + c
1
z + d
1
) + µ(a
2
x + b
2
y + c
2
z + d
2
) = 0 (17.9)
cioè l’equazione del fascio di piani che ha per sostegno la retta r si ottiene come combina-
zione lineare delle equazioni di due piani qualsiasi passanti per r.
Una conseguenza del Teorema 17.5 è che qualunque coppia di piani appar-
tenenti al fascio
5
di equazione (17.9) rappresenta la retta r le cui equazioni
cartesiane possono essere dunque molto differenti.
OSSERVAZIONE 17.6. Come già più volte osservato, nella pratica può essere
comodo usare un solo parametro non omogeneo invece di due omogenei, con le
solite avvertenze sul valore infinito del parametro.
5
Osserviamo che ogni piano del fascio è individuato da una coppia di coefficienti λ e µ della (17.9),
anch’essi definiti a meno di un fattore di proporzionalità non nullo.
17.6 Altri problemi su rette e piani 157
OSSERVAZIONE 17.7. Ha senso anche parlare di fasci di piani paralleli: com-
binando linearmente le equazioni di due piani paralleli si ottengono piani le
cui equazioni differiscono solo per il termine noto. Essi definiscono una retta
impropria dello spazio.
17.6. Altri problemi su rette e piani
Esaminiamo in questo paragrafo, prevalentemente su esempi, alcuni altri
problemi sulle rette e sui piani nello spazio.
17.6.1. Intersezione tra retta e piano
Siano dati il piano di equazione ax + by + cz + d = 0 e la retta di equazioni

x = x
0
+ αt
y = y
0
+ βt
z = z
0
+ γt
Piano e retta hanno un solo punto comune se e solo se retta e piano non sono
paralleli, cioè se e solo se aα + bβ + cγ = 0 : in questo caso, sostituendo rispetti-
vamente x, y, z nell’equazione del piano si ottiene un valore di t che, sostituito a
sua volta nelle equazioni della retta dà le coordinate del punto di intersezione.
Esempio 17.6. Si considerino il piano π : 3x −y + z −1 = 0 e la retta
r :

x = t
y = t −1
z = 2t
sostituendo le coordinate del generico punto della retta nell’equazione del piano, si ottiene
3t −t +1 +2t −1 = 0 da cui t = 0 e dunque l’intersezione è π ∩ r = P(0, −1, 0).
Se la retta è data come intersezione di due piani gli eventuali punti comuni tra
piano e retta sono le soluzioni del sistema formato dalle tre equazioni; piano e
retta hanno un solo punto in comune se e solo se tale sistema ammette una ed
una sola soluzione, cioè se r(A) = 3, il che equivale a dire che det A = 0, se con
A abbiamo indicato la matrice dei coefficienti del sistema.
Esempio 17.7. La retta
r) ≡

x = y
y = z
158 Rette e piani nello spazio
ed il piano α ≡ x −2y +3z −1 = 0 hanno in comune il punto le cui coordinate sono
la soluzione del sistema

x −y = 0
y −z = 0
x −2y +3z = 1
cioè P =

1
2
,
1
2
,
1
2

.
Se r(A) = 2 ed il sistema è possibile, allora r ∈ π, altrimenti se il sistema è
impossibile r e π non hanno punti in comune, quindi sono paralleli. Osserviamo
che è sempre r(A) = 1 altrementi i tre piani coinciderebbero e non sarebbe
individuata alcuna retta.
17.6.2. Rette sghembe
Due rette che non hanno punti in comune e non sono parallele, cioè due
rette non complanari, si dicono sghembe. Se entrambe le rette sono date come
intersezione di due piani, esse sono sghembe se non sono parallele e se il sistema
formato dalle quattro equazioni è impossibile.
Esempio 17.8. Le rette
r :

x + z = 0
y −z = 1
e s :

2x + y = 1
x +2z = 0
non sono parallele; consideriamo allora il sistema formato dalle quattro equazioni:

x + z = 0
y −z = 1
2x + y = 1
x +2z = 0
la matrice dei coefficienti sarà A =

1 0 1
0 1 −1
2 1 0
1 0 2
¸
¸
¸
¸
che ha rango 3 e quella completa sarà
B =

1 0 1 0
0 1 −1 1
2 1 0 1
1 0 2 0
¸
¸
¸
¸
, anch’essa di rango 3, dunque il sistema ammette una soluzione,
quindi le rette si incontrano, dunque sono complanari e quindi non sghembe. L’equazione
del piano che le contiene entrambe si può determinare in vari modi, per esempio trovando
17.6 Altri problemi su rette e piani 159
il fascio F di piani per una delle due e, scelto un punto comodo P sull’altra (ovviamente
diverso dal punto di intersezione), scrivere l’equazione del piano di F passante per P;
oppure, determinato il punto Q comune alle due rette, scegliere un punto comodo R ∈ r
(R ≡ Q) ed uno comodo S ∈ s (S ≡ Q) e poi determinando il piano per i tre punti Q, R
ed S.
Se una delle rette è data come intersezione di due piani e l’altra con le sue equa-
zioni parametriche basta sostituire l’espressione del parametro nelle equazioni
dei due piani.
Esempio 17.9. Siano date le rette
r :

x = t
y = 2t
z = 1 −3t
ed s :

x + y −z = 0
x + z = 1
si ha, sostituendo le coordinate del generico punto di r nelle equazioni due piani che
formano s, il sistema

t +2t −1 +3t = 0
t +1 −3t = 1
che diventa

6t = 1
2t = 0
formato da due equazioni palesemente in contraddizione, quindi il sistema è impossibile
e concludiamo che le rette sono sghembe.
17.6.3. Distanze
Figura 17.1. Distanza di due punti
160 Rette e piani nello spazio
• Distanza di due punti: dalla figura 17.1 si vede subito che se sono dati i
punti P(x
1
, y
1
, z
1
) e Q(x
2
, y
2
, z
2
), la distanza PQ è l’ipotenusa del triangolo
rettangolo che ha come cateti la differenza delle quote z
1
−z
2
e la distanza
delle proiezioni ortogonali P
1
e Q
1
rispettivamente di P e Q sul piano xy.
Sul piano xy dal Teorema di Pitagora si ricava immediatamente che la
distanza P
1
(x
1
, y
1
) −Q
1
(x
2
, y
2
) è
d(P
1
Q
1
) =

(x
1
−x
2
)
2
+ (y
1
−y
2
)
2
.
e quindi un’ulteriore applicazione del Teorema di Pitagora fornisce la
distanza di due punti nello spazio:
d(PQ) =

(x
1
−x
2
)
2
+ (y
1
−y
2
)
2
+ (z
1
−z
2
)
2
.
Figura 17.2. Distanza di un punto da un piano
• Distanza di un punto da un piano: (fig. 17.2) se π : ax + by + cz + d = 0 è
l’equazione del piano allora la distanza di P(x
0
, y
0
, z
0
) da π è:
[ax
0
+ by
0
+ cz
0
+ d[

a
2
+ b
2
+ c
2
(17.10)
infatti distanza si può calcolare considerando la perpendicolare al piano
per P e, chiamando Q l’intersezione di questa retta con il piano, calcolando
la distanza PQ.
La retta perpendicolare a π passante per il punto P ha equazioni

x = x
0
+ at
y = y
0
+ bt
z = z
0
+ ct
,
17.6 Altri problemi su rette e piani 161
dunque Q(x
0
+ at, y
0
+ bt, z
0
+ ct) è il punto di intersezione di tale retta
con π, e la sua distanza da P è
[t[

a
2
+ b
2
+ c
2
, (17.11)
se appartiene a π, cioè se
a(x
0
+ at) + b(y
0
+ bt) + c(z
0
+ ct) + d = 0
⇐⇒ t(a
2
+ b
2
+ c
2
) = −(ax
0
+ by
0
+ cz
0
+ d)
⇐⇒ t = −
ax
0
+ by
0
+ cz
0
+ d
a
2
+ b
2
+ c
2
.
Sostituendo questo valore nella formula 17.11 che esprime la distanza di P
da Q si ha la 17.10 nella pagina precedente.
Figura 17.3. Distanza di un punto da una retta
• Distanza di un punto da una retta: (v. fig. 17.3) siano P un punto e r una retta
tali che P ∈ r, il piano che passa per P ed è perpendicolare a r incontra la
retta r in un punto R (che è la proiezione ortogonale di P su r) la distanza del
punto dalla retta sarà allora la distanza PR.
• Distanza di piani paralleli: se π
1
: ax + by + cz + d
1
= 0 e π
2
: ax + by + cz +
d
2
= 0 sono due piani paralleli, allora la loro distanza è:
[d
1
−d
2
[

a
2
+ b
2
+ c
2
(17.12)
162 Rette e piani nello spazio
Infatti se P(x
0
, y
0
, z
0
) ∈ π
1
, è evidente che la distanza cercata è d(Pπ
2
) cioè
[ax
0
+ by
0
+ cz
0
+ d
2
[

a
2
+ b
2
+ c
2
=
[d
2
−d
1
[

a
2
+ b
2
+ c
2
• Distanza di due rette sghembe: se r
1
e r
2
sono due rette sghembe, si vede
facilmente che esistono due punti P ∈ r
1
e Q ∈ r
2
tali che la retta PQ è
perpendicolare sia ad r
1
che ad r
2
. La distanza PQ è la distanza delle due
rette. Dal punto di vista geometrico, però è più comodo considerare il
piano σ passante per r
1
e parallelo a r
2
; la distanza cercata sarà quella di un
qualsiasi punto P ∈ r
2
da σ.
Esempio 17.10. Vogliamo calcolare la distanza delle rette sghembe dell’esempio 17.9
a pagina 159. Calcoliamo l’equazione del piano per s parallelo ad r di cui una terna di
parametri direttori è (1, 2, −3). Il fascio di piani che ha per sostegno s ha equazione
x + y −z + k(x + z −1) = 0. Dovrà essere k +1 +2 −3(k −1) = 0 da cui k = 3,
quindi il piano cercato ha equazione 4x + y +2z −3 = 0. La distanza richiesta sarà la
distanza di questo piano da un punto qualsiasi della r, per esempio il punto P(0, 0, 1)
(corrispondente al valore t = 0) che è
1

21
.
17.6.4. Angoli tra rette, tra piani, tra rette e piani
Siano π
1
: a
1
x + b
1
y + c
1
z + d
1
= 0 e π
2
: a
2
x + b
2
y + c
2
z + d
2
= 0 due
piani. L’ampiezza ϕ ∈

0,
π
2

dell’angolo tra π
1
e π
2
è, se v = [a
1
, b
1
, c
1
] e
w = [a
2
, b
2
, c
2
], tale che:
cos ϕ =
'v, w`
|v| | w|
.
Essa deriva dalla formula che dà l’angolo tra due vettori e dal fatto che se α è
l’angolo tra v e w, essendo rispettivamente v e w ortogonali ai due piani, si ha
ϕ = α se α ≤
π
2
e ϕ = π −α se α >
π
2
e quindi cos ϕ = [ cos α[.
Siano ora
r :

x = x
1
+ a
1
t
y = y
1
+ b
1
t
z = z
1
+ c
1
t
e s :

x = x
2
+ a
2
s
y = y
2
+ b
2
s
z = z
2
+ c
2
s
due rette nello spazio; e sia ϕ l’angolo da esse formato
6
, con ϕ ∈

0,
π
2

; se esse
sono parallele diremo che ϕ = 0, in generale indicando con v = [a
1
, b
1
, c
1
] e
w = [a
2
, b
2
, c
2
] si ha
cos ϕ =
'v, w`
|v| | w|
.
6
Ricordiamo, ancora una volta, che non è necessario che r e s si incontrino.
17.7 Simmetrie 163
Concludiamo considerando una retta
r :

x = x
1
+ at
y = y
1
+ bt
z = z
1
+ ct
ed un piano π : αx + βy + γz + δ = 0, se v = [a, b, c] e w = [α, β, γ] e ϕ ∈

0,
π
2

è l’angolo tra la retta ed il piano, si ha
sin ϕ =
'v, w`
|v| | w|
(17.13)
Infatti, detto ψ ∈

0,
π
2

l’angolo tra r e la normale al piano, si ha
cos ψ =
'v, w`
|v| | w|
e poiché ϕ =
π
2
−ψ si ha cos ψ = sin ϕ e quindi la (17.13).
17.7. Simmetrie
In questo paragrafo presentiamo, per lo più mediante esempi, alcuni problemi
nello spazio riguardanti le simmetrie rispetto a punti a rette ed a piani.
17.7.1. Simmetrie rispetto ad un punto
Siano P e Q due punti distinti dello spazio; il simmetrico P
/
di P rispetto a Q è
il punto
7
appartenente alla retta PQ e tale che Q sia punto medio del segmento
PP
/
.
Sia P un punto dello spazio e sia f una figura, la figura f
/
simmetrica di f
rispetto a P è il luogo dei punti simmetrici rispetto a P dei punti di f .
Esempio 17.11. Vogliamo il simmetrico A
/
del punto A(1, 0, 0) rispetto al punto
M(−1, 2, 1). Dalla definizione si ha

x
M
=
x
A
+ x
A
/
2
y
M
=
y
A
+ y
A
/
2
z
M
=
z
A
+ z
A
/
2
da cui

x
A
/ = 2x
M
−x
A
y
A
/ = 2y
M
−x
A
z
A
/ = 2z
M
−z
A
;
7
unico
164 Rette e piani nello spazio
quindi, nel caso in esame,

x
A
/ = 2(−1) −1 = −3
y
A
/ = 2 2 −0 = 4
z
A
/ = 2 1 −0 = 2
da cui A
/
(−3, 4, 2).
Esempio 17.12. Sia data la retta
r :

x = t +1
y = 2t
z = t −1
.
Vogliamo le equazioni della retta r
/
simmetrica di r rispetto al punto P(1, −1, 2) che
è costituito dal luogo dei punti simmetrici di quelli di r rispetto a P. Esso sarà, come
è facile dimostrare, una retta parallela ad r. Scegliamo due punti “comodi” su r, per
esempio quello per cui t = 0 cioè A(1, 0, 1) e quello per t = 1, cioè B(2, 2, 0). La retta
cercata è quella che passa per A
/
e B
/
, simmetrici di A e B rispettivamente. Procedendo
come nell’esercizio 17.11 nella pagina precedente troviamo A
/
(1, −2, 5) e B
/
(0, −4, 4) e
dunque sarà
r
/
:

x = −t
y = −4 −2t
z = 4 −t
.
Esempio 17.13. Per determinare l’equazione del piano π
/
simmetrico di π : x −y +
z = 0 rispetto a T(2, −1, 0) consideriamo il generico punto P(x, y, z), scriviamo le
coordinate del suo simmetrico P
/
rispetto a T procedendo come nell’esercizio 17.11 nella
pagina precedente ed otteniamo x + x
/
= 2x
T
, y + y
/
= 2y
T
e z + z
/
= 2z
T
da cui

x = 4 −x
/
y = −2 −y
/
z = −z
/
.
Poiché P sta su π se e solo se x −y +z = 0 si ha che le coordinate di P
/
devono soddisfare
l’equazione 4 − x
/
+2 + y
/
−z
/
= 0 che si può scrivere come x
/
−y
/
+ z
/
−6 = 0 e
che rappresenta un piano parallelo a π.
17.7.2. Simmetrie rispetto ad un piano
Siano P un punto e π un piano tali che P / ∈ π; chiamiamo proiezione ortogonale
di P su π il punto H intersezione tra π stesso e la retta per P perpendicolare a π.
Il simmetrico di un punto P rispetto ad un piano π è il simmetrico di P rispetto
ad H. Come nel caso della simmetria rispetto ad un punto
8
anche in questo caso
8
detta anche simmetria centrale
17.7 Simmetrie 165
si dimostra che la simmetrica di una retta rispetto ad un piano è una retta ed il
simmetrico di un piano rispetto ad un piano è ancora un piano.
Figura 17.4. Simmetrica di una retta rispetto ad un piano
Esempio 17.14. Vogliamo le equazioni della retta simmetrica di
r :

x = t
y = t
z = t
rispetto al piano π : x −y + z = 0. La retta taglia il piano nell’origine. La retta cercata
sarà dunque (vedi figura 17.4) la congiungente dell’origine con il punto P
/
simmetrico
rispetto al piano di un qualsiasi punto P ∈ r diverso dal punto comune (nel nostro caso
l’origine O(0, 0, 0). Scegliamo, per esempio P(1, 1, 1). La retta per P ortogonale a π ha
equazioni
9

x = 1 + τ
y = 1 −τ
z = 1 + τ
da cui si ha 1 + τ −(1 −τ) +1 + τ = 0 e quindi H

2
3
,
4
3
,
2
3

dunque le coordinate di
P
/
sono

x
P
/ = 2
2
3
−1 =
1
3
y
P
/ = 2
4
3
−1 =
5
3
z
P
/ = 2
2
3
−1 =
1
3
9
Usiamo un parametro diverso, il parametro τ per evitare equivoci. È ovvio che il nome del parametro è
del tutto arbitrario
166 Rette e piani nello spazio
allora la retta r
/
, che congiunge O con H ha equazioni

x =
1
3
k
y =
5
3
k
z =
1
3
k
che possiamo anche scrivere (vedi la nota 9 )

x = α
y = 5α
z = α
.
Figura 17.5. Simmetrico di un piano rispetto ad un piano
Esempio 17.15. Per determinare l’equazione del piano α
/
simmetrico di α : x = 1
rispetto a π : x − y − z = 0 conviene utilizzare la teoria dei fasci di piani, infatti
il piano cercato passerà per la retta r intersezione tra α e π (v. Fig. 17.5). Dunque
l’equazione di α
/
sarà del tipo x − y − z + k(x −1) = 0. Il valore di k può essere
determinato procedendo come nel caso precedente: se consideriamo su α un punto, per
esempio P(1, 0, 0) la sua proiezione H su π stando sulla retta

x = 1 + t
y = −t
z = −t
perpendicolare a π e passante per P risulta individuata da t = −
1
3
quindi è H =

2
3
,
1
3
,
1
3

. Dunque il simmetrico P
/
di P sarà P
/
(
1
3
,
2
3
,
2
3
) e sostituendo le sue coordinate
nell’equazione del fascio si ottiene, con semplici calcoli, l’equazione del piano α
/
che è
x +2y +2z −3 = 0.
17.7 Simmetrie 167
Figura 17.6. Simmetrico di un piano rispetto ad un piano parallelo
Figura 17.7. Simmetrica di una retta rispetto ad un altra retta
Nel caso in cui i due piani siano paralleli, vedi fig. 17.6 si può anche, per
esempio, considerare la loro distanza: se essa è d basta scrivere l’equazione del
piano a distanza d da α.
17.7.3. Simmetrie rispetto ad una retta
Se P è un punto dello spazio ed r una retta che non lo contiene, chiamando H
la proiezione ortogonale di P su r, il simmetrico P
/
di P rispetto ad r è il punto
dello spazio simmetrico di P rispetto ad H.
La retta r’ simmetrica di r rispetto ad s si determina (v. fig. 17.7) considerando
i simmetrici di due punti di r
168 Rette e piani nello spazio
Esempio 17.16. Vogliamo le equazioni della rettta r
/
simmetrica di
r :

x = 1
y = t
z = −t
rispetto ad s :

x = z
y = 0
.
Si verifica subito che le due rette date sono sghembe; per determinare r
/
occorre e basta
determinare i simmetrici di due punti comodi di r e scrivere le equazioni della retta che li
congiunge: per esempio siano P(1, 0, 0) e Q(1, 1, −1) (corrispondenti, rispettivamente,
ai valori t = 0 e t = 1) i due punti: i due simmetrici sono, come si ricava facilmente
P
/
(0, 0, −
1
2
) e Q
/
(−1, −1, 1) dunque una terna di parametri direttori di s
/
è 1, 1, −
3
2
quindi la retta s
/
ha equazioni

x = 2t −1
y = 2t +−1
z = −3t +1
17.8. Coordinate omogenee nello spazio
In analogia con quanto visto nel piano, si può introdurre una sistema di
coordinate omogenee anche nello spazio: i punti saranno definiti da quaterne
di coordinate omogenee. Quando la quarta coordinata omogenea (anche qui
indicata con la lettera u) sarà non nulla si avrà a che fare con punti dello spazio
ordinario, mentre, anche qui, i punti la cui quarta coordinata è nulla verranno
detti impropri o all’infinito e corrisponderanno, nello spazio ordinario, alle varie
direzioni di rette parallele. Saremo dunque in presenza di uno spazio ampliato
con i punti impropri, cioè i punti per cui u = 0 costituenti il cosiddetto piano
improprio. Su ogni piano di equazione ax + by + cz + du = 0 esisterà una retta
impropria, che sarà l’intersezione del piano stesso con il piano improprio e che
avrà quindi equazioni

ax + by + cz + du = 0
u = 0
o anche

ax + by + cz = 0
u = 0
Su ogni retta r ci sarà un punto improprio, intersezione tra le rette improprie dei
piani passanti per r come mostra il seguente
Esempio 17.17. Determiniamo le coordinate del punto improprio della retta
r :

x = 1 + t
y = 2t
z = −t
.
17.8 Coordinate omogenee nello spazio 169
In coordinate cartesiane avremo
r :

y = 2x −2
z = −x +1
che in coordinate omogenee diventa r :

2x −y −2u = 0
x + z −u = 0
.
Intersecando con il piano improprio si ottiene

y = 2x
z = −x
u = 0
da cui le coordinate del punto improprio P

(1 : 2 : −1 : 0) che è il punto comune alle
rette improprie dei due piani y = 2x e z = −x le cui equazioni sono

2x −y = 0
u = 0
e

x + z = 0
u = 0
.
Nello spazio ampliato con gli elementi impropri il termine “complanarità” è
sinonimo di “incidenza”: incidenza in un punto proprio per le rette incidenti
dello spazio ordinario, ed in un punto improprio per rette parallele.
In questo contesto risulta semplice l’interpretazione geometrica di sistemi
lineari in quattro incognite come insiemi di piani
Esempio 17.18. Vogliamo vedere se le rette
r :

x + ky −z = −2
2x + kz = −1
ed s :

x +3y + (k −1)z = −1
(k +1)y + z = k
sono sghembe. Dopo averle riscritte in coordinate omogenee, avremo a che fare con
un sistema lineare omogeneo di quattro equazioni in quattro incognite che indicherà
la complanarità delle rette, quando ammette autosoluzioni, ed il loro essere sghembe,
quando ammetterà solo la soluzione banale
10
.
Quindi, nel nostro caso, avremo il sistema

x + ky −z = −2
2x + kz = −1
x +3y + (k −1)z = −1
(k +1)y + z = k
di matrice dei coefficienti A :

1 k −1 2
0 2 k −1
1 3 k −1 1
0 k +1 1 −k
¸
¸
¸
¸
iIl cui rango è r = 4 per k = ±1, r = 3 per k = −1 ed r = 2 per k = −1. Questo
significa che per k = ±1 il sistema non ha autosoluzioni, quindi i piani non hanno,
nello spazio ampliato con i punti impropri, alcun punto in comune: le due rette sono
10
La quaterna di coordinate omogenee (0 : 0 : 0 : 0) non rappresenta alcun punto.
170 Rette e piani nello spazio
dunque sghembe; per k = −1 ci sono ∞
1
soluzioni, dunque esattamente
11
un punto di
intersezione, proprio o improprio (basta risolvere il sistema per scoprirlo, cioè per scoprire
se le rette sono effettivamente incidenti o parallele); per k = 1 ci sono ∞
2
soluzioni,
dunque le due rette coincidono e sono, ovviamente complanari.
Concludiamo il paragrafo notando che l’introduzione dei punti impropri dello
spazio permette di rimuovere, tra le altre, la dissimmetria nella trattazione dei
fasci di piani passanti per una retta o paralleli, dal momento che, in questo
contesto, i piani paralleli passano tutti per una medesima retta impropria.
11
Anche le coordinate omogenee dei punti dello spazio sono definite a meno di un fattore di proporzionalità.
18. Sui sistemi di riferimento
In questo capitolo ci occuperemo di alcune particolari trasformazioni del
sistema di riferimento cartesiano ortogonale in sè e forniremo poi un breve
cenno ad altri possibili sistemi di riferimento diversi da quello cartesiano, ma
usati spesso in vari settori della Matematica, nelle altre Scienze e nella Tecnologia.
18.1. Rototraslazioni
Risulta quasi immediato verificare che una trasformazione di assi, cioè il
passaggio da un sistema di riferimento monometrico ad un altro con gli assi
paralleli ed equiversi a quelli del precedente e con la stessa unità di misura
1
è
descritto dalle equazioni
2

x
/
= x −α
y
/
= y − β
z
/
= z −γ
(18.1)
dove (α, β, γ) sono le coordinate della nuova origine nel sistema di riferimento
iniziale; x, y, z sono le coordinate del generico punto in questo sistema e le
coordinate accentate sono le coordinate nel nuovo sistema di riferimento.
Le traslazioni conservano le distanze: se due punti hanno distanza d rispetto ad
un sistema di riferimento, essi hanno distanza d rispetto a qualsiasi altro sistema
traslato rispetto al primo quindi non vi è cambiamento di unità di misura.
Per quanto riguarda le rotazioni vale un teorema, analogo al Teorema 11.2
a pagina 103, e che si dimostra con la stessa tecnica, secondo cui la matrice di
una rotazione è una matrice ortogonale. Più precisamente, con considerazioni
puramente geometriche, si fà vedere che le equazioni di questa trasformazione
sono:
1
Noi considereremo sempre le trasformazioni geometriche nel modo cosiddetto passivo, nel senso, cioè,
che saranno sempre gli assi del sistema di riferimento e non i punti a muoversi: risulterebbe interessante
trattare l’argomento anche in modo contrario, ma ciò comporterebbe un livello di astrazione superiore
che esula dagli scopi di queste dispense.
2
cioè tali equazioni legano le coordinate di un punto generico dello spazio nel vecchio sistema di
riferimento a quelle del nuovo
172 Sui sistemi di riferimento

x
/
= x cos α
1
+ y cos β
1
+ z cos γ
1
y
/
= x cos α
2
+ y cos β
2
+ z cos γ
2
z
/
= x cos α
3
+ y cos β
3
+ z cos γ
3
(18.2)
dove cos α
1
, cos β
1
, cos γ
1
; cos α
2
, cos β
2
, cos γ
2
; cos α
3
, cos β
3
, cos γ
3
sono,
rispettivamente, i coseni direttori dei nuovi assi rispetto ai vecchi. Poiché la
matrice dei coefficienti è la matrice
Γ =

cos α
1
cos β
1
cos γ
1
cos α
2
cos β
2
cos γ
2
cos α
3
cos β
3
cos γ
3
¸
¸
che è ortogonale, la matrice inversa è
Γ
−1
= Γ
T
=

cos α
1
cos α
2
cos α
3
cos β
1
cos β
2
cos β
3
cos γ
1
cos γ
2
cos γ
3
¸
¸
da cui si ricavano facilmente le equazioni della trasformazione inversa.
La composizione di una rotazione e di una traslazione è ancora una isometria
3
che prende il nome di rototraslazione, le cui equazioni si ottengono mettendo
insieme la (18.1) e la (18.2) con il sistema

x
/
= x cos α
1
+ y cos β
1
+ z cos γ
1
+ a
y
/
= x cos α
2
+ y cos β
2
+ z cos γ
2
+ b
z
/
= x cos α
3
+ y cos β
3
+ z cos γ
3
+ c
(18.3)
OSSERVAZIONE 18.1. La composizione di una rotazione e di una traslazione
non è, in generale, commutativa; cioè applicando prima la rotazione e poi la
traslazione si ottiene in generale un risultato diverso da quello che si ottiene
applicando prima la traslazione e poi la rotazione.
Esempio 18.1. Consisderiamo la trasformazione
τ :

x
/
= x +2
y
/
= y −1
z
/
= z −2
e la rotazione :

x
//
=
1

2
x
/

1

2
y
/
y
//
=
1

2
x
/
+
1

2
y
/
z
//
= z
/
3
cioè una trasformazione dello spazio in sè che conserva le distanze.
18.2 Coordinate polari e coordinate cilindriche 173
sostituendo si ha :

x
//
=
1

2
(x +2) −
1

2
(y −1) =
1

2
x −
1

2
y +
3

2
y
//
=
1

2
(x +2) +
1

2
(y −1) =
1

2
x +
1

2
y +
3

2
z
//
= z −2
Facendo agire, invece le due trasformazioni in ordine inverso, cio è eseguendo prima la
rotazione e poi la traslazione, si ha
:

x
/
=
1

2
x −
1

2
y
y
/
=
1

2
x +
1

2
y
z
/
= z
e τ :

x
//
= x
/
+2
y
//
= y
/
−1
z
//
= z
/
−2
si ottiene facilmente

x
//
=
1

2
x −
1

2
y +2
y
//
=
1

2
x +
1

2
y −1
z
//
= z −2
che differisce dalla precedente.
18.2. Coordinate polari e coordinate cilindriche
Anche per i punti dello spazio si parla, come nel piano, di coordinate polari.
Vediamo come si possono introdurre e come si passa da un sistema polare ad
uno cartesiano e viceversa.
Fissato nello spazio un sistema di coordinate cartesiane ortogonali
4
(v. fi-
gura 18.1 nella pagina successiva), consideriamo come asse polare l’asse z e la
semiretta ortogonale all’asse polare coincidente con la direzione positiva del-
l’asse x; otteniamo un semipiano ω giacente sul piano xy che prende il nome di
semipiano polare.
Ciò posto un qualunque punto P dello spazio individua un segmento OP = ρ
detto raggio vettore di P, inoltre il vettore

OP (che ha quindi norma ρ) forma,
4
Nello spazio, come, del resto anche nel piano, si può, ovviamente, introdurre un riferimento polare anche
in assenza di uno cartesiano preesistente; qui preferiamo invece partire da un sistema cartesiano, in
quanto siamo interessati alla determinazione del legame tra le coordinate di un punto in sistemi di
riferimento diversi in qualche modo però legati tra loro.
174 Sui sistemi di riferimento
Figura 18.1. Coordinate polari
con l’asse polare, un angolo ϑ detto colatitudine o angolo (o distanza) zenitale di P
(ovviamente si ha 0 ≤ ϑ ≤ π), infine il semipiano individuato da P e dall’asse
polare forma, con il semipiano ω un angolo ϕ detto azimut o longitudine di P (si
ha 0 ≤ ϕ ≤ 2π). A volte, invece della colatitudine ϑ si considera la latitudine
ψ =
π
2
−ϑ che è l’angolo formato dal raggio vettore con il piano equatoriale ε
passante per O e perpendicolare all’asse polare.
In tal modo ogni punto P viene individuato dalle sue coordinate polari
5
(ρ, ϑ, ϕ)
o (ρ, ψ, ϕ) molto usate, specialmente in Geografia ed in Astronomia.
Osservando ancora la figura 18.1 si possono facilmente scrivere le formule di
passaggio dalle coordinate polari alle cartesiane e viceversa. Infatti se con Q e Z
si indicano le proiezioni ortogonali di P sul piano xy e sull’asse z rispettivamente
e con X e Y le proiezioni ortogonali di P sugli assi x e y, si hanno le formule
OZ = z = ρ cos ϑ, OQ = ρ sin ϑ, = X = x = OQcos ϕ = ρ sin ϑ cos ϕ e
XQ = OY = y = OQsin ϕ = ρ sin ϑ sin ϕ, quindi

x = ρ sin ϑ cos ϕ
y = ρ sin ϑ sin ϕ
z = ρ cos ϑ
5
In questo modo, infatti, ogni punto dello spazio viene individuato da una ed una sola terna di numeri; fà
eccezione l’origine del riferimento, per cui si ha ρ = 0 e ϕ e ϑ indeterminati
18.2 Coordinate polari e coordinate cilindriche 175
e, all’inverso, come è facile verificare,

ρ =

x
2
+ y
2
+ z
2
ϑ = arccos
z

x
2
+ y
2
+ z
2
mentre, noti ρ e ϑ si ottiene ϕ, con le relazioni
cos ϕ =
x
ρ sin ϑ
e sin ϕ =
y
ρ sin ϑ
Un altro tipo di coordinate per individuare un punto P dello spazio, che, in un
certo senso, è una via di mezzo tra quelle cartesiane e quelle polari è costituito
da quelle che si chiamano coordinate cilindriche: un punto P è rappresentato dalle
coordinate polari della sua proiezione Q sul piano xy (vedi figura 18.2) e dalla
quota z
0
= z di P.
Figura 18.2. Coordinate cilindriche
Dunque si ha ρ
0
= OQ e ϑ =

XOQ detti rispettivamente distanza orizzontale
e azimut. Le coordinate cilindriche di P sono allora (ρ
0
, ϑ, z
0
) e le formule di
passaggio si ricavano immediatamente dalla definizione:

x = ρ
0
cos ϑ
y = ρ
0
sin ϑ
z = z
0
e, all’inverso, ρ
0
=

x
2
+ y
2
e, noto ρ
0
si può calcolare ϑ dalle relazioni cos ϑ =
x
ρ
0
e sin ϑ =
y
ρ
0
.
19. Linee e Superfici nello spazio
In questo capitolo vedremo come si rappresentano in generale linee e superfici
nello spazio.
19.1. Superfici
DEFINIZIONE 19.1. Si chiama superficie il luogo dei punti dello spazio, che
riferito ad un sistema di coordinate cartesiane ortogonali, soddisfano ad un
equazione cartesiana
f (x, y, z) = 0 (19.1)
o ad una terna di equazioni parametriche

x = g(u, v)
y = h(u, v)
z = i(u, v)
(19.2)
dove nella (19.1) la f è funzione reale di al più tre variabili, in genere reali e
nella (19.2) g, h ed i sono tre funzioni reali di al più due variabili.
Nella definizione 19.1 si parla di funzioni qualsiasi, che quindi possono dar
luogo a superfici anche molto lontane dal concetto intuitivo che abbiamo di
superficie.
La superficie più semplice è il piano che, come abbiamo visto, è rappresentato
da un’equazione cartesiana lineare, ax + by + cz + d = 0 purché i coefficienti a,
b e c non siano tutti e tre nulli, ma anche da una terna di equazioni parametriche
lineari

x = x
0
+ αu + βv
y = y
0
+ γu + δv
z = z
0
+ u + ζv
(19.3)
con α, γ, non tutti e tre nulli ed ugualmente non contemporaneaamente nulla
la terna (β, δ, ζ). Le equazioni (19.2) rappresentano effettivamente un piano,
perché eliminando da esse i due parametri u e v si ottiene una equazione (ed una
sola) lineare.
178 Linee e Superfici nello spazio
OSSERVAZIONE 19.1. Mentre l’equazione cartesiana di un piano è sempre li-
neare e, viceversa in un sistema di riferimento cartesiano ogni equazione lineare
rappresenta un piano, le equazioni parametriche di un piano possono anche non
essere lineari, addirittura non algebiche.
Esempio 19.1. Mostriamo infatti che il sistema

x = u
3
+log v
y = 2u
3
+3 log v
z = 3u
3
+7 log v
rappresenta un piano. Per far ciò basta eliminare i due parametri u e v ricavando
u
3
e log v dalle prime due equazioni: si ottiene u
3
= 3x −y e, similmente, log v =
y −2x; sostituendo poi i valori trovati nella terza equazione, si perviene all’equazione
cartesiana 5x −4y + z = 0 che rappresenta appunto un piano. Per la precisione in
questo caso si dovrebbe parlare di un piano privato di una semiretta, infatti, poiché v è
argomento di logaritmo, dev’essere v > 0 e cioè y −2x > 0 quindi bisognerebbe scrivere

5x−4y+z =0
y−2x >0
.
Tra le superfici di equazione ( 19.1 nella pagina precedente) esistono, ad
esempio, anche quelle rappresentate dall’equazione
x
2
+ y
2
+ z
2
= k (19.4)
che per k > 0 rappresentano una superficie reale, quella formata da tutti (e
soli) i punti che distano

k dall’origine: si tratta di una sfera, superficie di
cui parleremo diffusamente nel prossimo capitolo. Ma se k = 0 si ottiene una
superficie che ha un solo punto reale, l’origine O(0, 0, 0) e se k < 0 nessun punto
della superficie, che per comodità chiamiamo ancora sfera, è reale.
Quindi anche nel caso dello spazio occorre accettare superfici formate solo da
punti a coordinate complesse, ossevando, di passata, che anche le superfici reali
contengono, in generale punti a coordinate complesse.
L’equazione cartesiana di una superficie, equazione ( 19.1 nella pagina prece-
dente) si può, sotto certe ipotesi
1
esplicitare, cioè scrivere nella forma
z = ϕ(x, y) (19.5)
che in molte occasioni può essere più comoda.
DEFINIZIONE 19.2. Una superficie si dice algebrica di ordine n se può essere rap-
presentata da un equazione di tipo (19.1) in cui il primo membro è un polinomio
di grado n. Le superfici che non possono essere rappresentate in questo modo si
chiamano trascendenti.
1
che qui non importa precisare: si tratta di un noto teorema di Analisi sulle funzioni implicite di più
variabili.
19.2 Linee 179
Quindi, per esempio, esaminando ancora un caso patologico, e seguendo la
definizione 19.2 la superficie di equazione x = 0 deve essere considerata diversa
dalla superficie x
2
= 0 pur essendo entrambe formate dagli stessi punti.
Sia ora f (x, y, z) = 0 una superficie algebrica di ordine n e sia r una generica
retta di equazioni parametriche

x = x
0
+ at
y = y
0
+ bt
z = z
0
+ ct
.
Le intersezioni di r con la superficie sono ovviamente le soluzioni dell’equazione
f (x
0
+ at, y
0
+ bt, z
0
+ ct) = 0 (19.6)
che è un polinomio uguagliato a zero nella variabile t e di grado non maggiore
di n, il quale, per il Teorema Fondamentale dell’Algebra, ammette m ≤ n radici,
reali o complesse contate con le debite molteplicità. Quindi possiamo concludere
che una retta ed una superficie algebrica di ordine n hanno al più n punti in
comune.
Una retta si dice tangente alla superficie se l’equazione (19.6) risolvente l’inter-
sezione ammette almeno una radice multipla. Questa radice è costituita dalle
coordinate del punto di tangenza.
Una retta tangente può ovviamente intersecare la superficie anche in altri punti
diversi da quello di tangenza o addirittura essere tangente in più punti.
DEFINIZIONE 19.3. Un punto P di un a superficie algebrica Σ si dice multiplo
per la superficie Σ se ogni retta passante per P è tangente a Σ.
19.2. Linee
Una linea (o curva) L nello spazio può essere rappresentata da equazioni
parametriche del tipo
L ≡

x = f (t)
y = g(t)
z = h(t)
(19.7)
che individuano le coordinate del generico punto di L al variare del parametro t.
Se proviamo ad eliminare il parametro dalle equazioni (19.7) otteniamo sempre
due equazioni cartesiane, quindi una curva può anche essere rappresentata come
intersezione di due superfici.
Se tutti i punti di una curva appartengono ad un medesimo piano la curva si
dice piana, nel caso opposto si parla di curva sghemba o gobba. Un esempio di
curva gobba è fornito dal filetto di una comune vite.
180 Linee e Superfici nello spazio
Per stabilire se una linea è piana oppure gobba, si può procedere in vari modi,
a seconda di come è rappresentata la linea:
• Se la linea è individuata dall’intersezione di due superfici, cioè da un
sistema di due equazioni cartesiane, allora si può cercare di trovare un
sistema equivalente che contenga un’equazione lineare. Se lo si trova allora
si può affermare che la curva è piana e l’equazione lineare trovata è quella
del piano che la contiene. Ovviamente il fatto di non riuscire a trovare il
sistema più semplice non sempre garantisce che non esista e quindi non
garantisce che la curva sia gobba.
• Se la curva, invece, è data mediante le sue equazioni parametriche (caso
peraltro a cui ci si può sempre ricondurre, ed in generale con relativa facilità)
basta sostituire le coordinate del punto generico della cuva ( 19.7 nella
pagina precedente) nell’equazione del generico piano ax + by + cz + d = 0
ottenendo
a f (t) + b g(t) + c g(t) + d = 0 (19.8)
La curva è piana se e solo se la (19.8) è identicamente verificata, cioè è
verificata da ogni valore del parametro t.
Nel caso in cui il primo membro dell’equazione (19.8) sia un polinomio di
grado n la condizione è verificata se e solo se ogni coefficiente del polinomio
(compreso quindi anche il termine noto) è nullo. Ponendo uguali a zero
tutti i coefficienti si ottiene un sistema lineare omogeneo di k ≤ n + 1
equazioni nelle quattro incognite a, b, c e d. La curva è piana se e solo se
un tale sistema ammette autosoluzioni, cioè se e solo se la matrice dei suoi
coefficienti ha rango < 4.
Esempio 19.2. Sia data la curva di equazioni

x
2
+ y
2
+ z
2
−3x +2y + z −1 = 0
x
2
+ y
2
+ z
2
−x +1 = 0
sottraendo membro a membro si ottiene il sistema equivalente

x
2
+ y
2
+ z
2
−3x +2y + z −1 = 0
−2x +2y + z +2 = 0
quindi la curva è piana ed appartiene al piano 2x −2y −z −2 = 0.
Esempio 19.3. Sia data la curva di equazioni parametriche

x = t
2
+ t
y = t −1
z = t
2
−2t
.
19.2 Linee 181
Vogliamo vedere se è piana.
In questo caso la (19.8) diventa a(t
2
+ t) + b(t − 1) + c(t
2
− 2t) + d = 0 che,
ordinando il polinomio, diventa (a + c)t
2
+ (a + b −2c)t + d −b = 0, identicamente
verificata se e solo se il sistema

a + c = 0
a + b −2c = 0
d −b = 0
ammette autosoluzioni, il che accade, in quanto il rango della matrice dei coefficienti è
palesemente non maggiore di 3. L’equazione del piano si ottiene facilmente: i coefficienti
sono, ordinatamente, una di queste autosoluzioni.
Esempio 19.4. Sia L la linea

x = t
3
y = t
3
+ t
2
z = t
si ha at
3
+ b(t
3
+ t
2
) + ct + d = 0 cioè (a + b)t
3
+ bt
2
+ ct + d = 0 da cui il sistema

a + b = 0
b = 0
c = 0
d = 0
che non ammette autosoluzioni, quindi possiamo concludere che la curva
non è piana.
20. Sfera e circonferenza nello spazio
20.1. La sfera
Si chiama sfera il luogo dei punti dello spazio equidistanti da un punto fissato.
Se tale punto è C(α, β, γ) e la distanza è R ≥ 0 si vede subito che, indicando con
P(x, y, z) un generico punto dello spazio, l’equazione della sfera è
(x −α)
2
+ (y − β)
2
+ (z −γ)
2
= R
2
(20.1)
che diventa
x
2
+ y
2
+ z
2
−2αx −2βy −2γz + α
2
+ β
2
+ γ
2
−R
2
= 0
Viceversa l’equazione
x
2
+ y
2
+ z
2
+ ax + by + cz + d = 0 (20.2)
caratterizzata dal fatto di avere i coefficienti dei termini quadratici uguali e
non contenere termini rettangolari rappresenta la sfera con centro nel punto
C =


a
2
, −
b
2
, −
c
2

e raggio R =
1
2

a
2
+ b
2
+ c
2
−4d come si può facilmente
mostrare con ragionamenti analoghi a quelli effettuati per la circonferenza nel
piano. Ampliando lo spazio con i punti a coordinate complesse, come abbiamo
fatto per il piano, possiamo eliminare nella (20.1) l’eccezione R ≥ 0 ed affermare
che ogni equazione della forma (20.2) rappresenta una sfera nello spazio.
20.2. Piani tangenti ad una sfera
Esaminiamo ora, su esempi, come si possa determinare l’equazione del piano
tangente
1
ad una sfera in un suo punto P.
Esempio 20.1. Sia data la sfera Σ ≡ x
2
+ y
2
+ z
2
− 2x − 2y = 0 che ha centro
nel punto C(1, −1, 0) e raggio R =

2. Vogliamo l’equazione del piano π tangente
nell’origine O(0, 0, 0) alla Σ. Il piano cercato è perpendicolare alla retta OC che ha
parametri direttori 1, −1, 0 , quindi possiamo scegliere questi parametri direttori per π;
poiché, infine π passa per l’origine, la sua equazione è: x −y = 0.
1
Il piano tangente ad una superficie in un suo punto P può essere inteso come il luogo delle rette tangenti
in P alla superficie.
184 Sfera e circonferenza nello spazio
Notiamo, per inciso, che si può mostrare che il piano tangente nell’origine ad
una sfera
2
è rappresentato dall’equazione che si ottiene eguagliando a zero il
complesso dei termini lineari dell’equazione che la rappresenta.
Esempio 20.2. Siano Σ la sfera di equazione x
2
+ y
2
+ z
2
= 1 ed r di equazioni

x = 3
z = 0
. Vogliamo gli eventuali piani tangenti a Σ e passanti per r.
Si vede subito che la sfera data ha centro nell’origine e raggio R = 1 i piani cercati
appartengono allora al fascio che ha per sostegno la retta r, cioè al fascio x + λz −3 = 0
ed hanno distanza 1 dall’origine, quindi dev’essere
3

1+λ
2
= 1 da cui si ricava λ =
±2

2.; in accordo con il fatto che i piani tangenti ad una sfera e passanti per una retta
sono al più due.
20.3. Circonferenze nello spazio
L’intersezione di una sfera Σ con un piano π rappresenta una circonferenza,
reale, se il piano taglia la sfera in punti reali, cioè se la sua distanza dal centro è
minore del raggio R, ridotta ad un solo punto se il piano è tangente, cioè se la
distanza è R e immaginaria se il piano non taglia la sfera, cioè se la distanza è
maggiore di R, e viceversa ogni circonferenza dello spazio può essere vista come
l’intersezione di un piano con una sfera. Quindi, in generale, una circonferenza
si può rappresentare nello spazio con le equazioni
Figura 20.1. Circonferenza nello spazio
γ ≡

x
2
+ y
2
+ z
2
+ ax + by + cz + d = 0
αx + βy + γz + δ = 0
(20.3)
2
anzi, ad una qualsiasi superficie algebrica.
20.4 Fasci di sfere 185
Ci proponiamo di calcolare le coordinate del centro e la lunghezza del raggio di
γ. Se indichiamo con C e R rispettivamente il centro ed il raggio della sfera Σ,
è facile rendersi conto (vedi Figura 20.1) che il centro C
/
della γ è la proiezione
ortogonale di C sul piano π, quindi si può determinare come intersezione tra il
piano π e la retta ad esso perpendicolare passante per C. Per quanto rigurada
il raggio r della circonferenza, osservando sempre la figura 20.1, il Teorema di
Pitagora ci permette di scrivere che R
2
= r
2
+ d
2
, dove con d abbiamo indicato
la distanza di c dal piano π da cui immediatamente r =

R
2
−d
2
.
Esempio 20.3. Siano date le equazioni

x
2
+ y
2
+ z
2
−2x +2y −z = 0
x + y −z = 0
che rappresentano l’intersezione della sfera di centro C

1, −1,
1
2

e raggio R =
3
2
con
il piano x + y −z ; esse rappresentano una circonferenza reale, infatti il piano taglia la
sfera in punti reali dato che la distanza d di π da C è
[1 −1 −
1
2
[

3
, quindi d =
1
2

3
< R.
Dunque r =

9
4

1
12
=
1
2

26
3
. Per trovare le coordinate del centro di γ osserviamo
che una terna di parametri direttori del piano è 1, 1, −1, quindi la retta perpendicolare
al piano passante per C avrà equazioni

x = 1 + t
y = −1 + t
z =
1
2
−t
intersecandola con il piano si
ottiene 1 +t −1 +t −
1
2
+t = 0 da cui t =
1
6
cui corrisponde il punto C
/

7
6
, −
5
6
,
1
3

centro della circonferenza data.
20.4. Fasci di sfere
L’insieme F di tutte e sole le sfere che passano per una data circonferenza γ
(reale o completamente immaginaria, degenere in un punto o meno) e dal piano
che la contiene costituisce quello che si chiama un fascio di sfere
3
il piano che ne fà
parte si chiama piano radicale del fascio e la circonferenza data si chiama sostegno
del fascio. Il luogo dei centri delle sfere di F risulta ovviamente costituito dalla
retta che passa per il centro di γ ed è ortogonale al piano su cui γ giace.
3
Anche qui, come nel caso delle circonferenze del piano, si considerano anche altri tipi di fasci: i fasci
costituiti dalle sfere tangenti un piano dato in un punto dato (e qui la circonferenza sostegno ha raggio
nullo) o le sfere che hanno un dato centro.
186 Sfera e circonferenza nello spazio
In modo del tutto analogo ai fasci di piani si dimostra che l’equazione di tutti e
soli gli elementi di un fascio di sfere si scrive come combinazione lineare non banale di
quelle di due qualsiasi di esse.
Esempio 20.4. Sia data la circonferenza γ intersezione delle due sfere

x
2
+ y
2
+ z
2
−2x −2y = 0
x
2
+ y
2
+ z
2
+ x −2y + z −1 = 0
Il fascio che ha per sostegno la γ ha equazione
λ(x
2
+ y
2
+ z
2
−2x −2y) + µ(x
2
+ y
2
+ z
2
+ x −2y + z −1) = 0
che, come al solito e con le solite avvertenze sull’eventuale valore infinito del parametro,
si può scrivere, con un parametro solo, nella forma
x
2
+ y
2
+ z
2
−2x −2y + k(x
2
+ y
2
+ z
2
+ x −2y + z −1) = 0 (20.4)
che diventa
(k +1)(x
2
+ y
2
+ z
2
) + (k −2)x +−2(k +1)y + kz −k = 0.
Per k = −1 la (20.4) diventa 3x + z −1 = 0 che è l’equazione del piano radicale del
fascio. Essa si ottiene comunque sottraendo membro a membro le equazioni della γ.
Esempio 20.5. Vogliamo l’equazione di una sfera che ha raggio R =

6
2
e passa per la
circonferenza di equazioni
γ :

x
2
+ y
2
+ z
2
−x = 1
x + y −z +1 = 0
.
Le sfere che soddisfano tali condizioni son al massimo due ed appartengono al fascio F
che ha per sostegno la γ, la cui equazione è
x
2
+ y
2
+ z
2
−x −1 + k(x + y −z +1) = 0
L’equazione della generica sfera di F si può scrivere come
x
2
+ y
2
+ z
2
+ (k −1)x + ky −kz + k −1 = 0
e quindi il suo raggio è
R =
1
2

(k −1)
2
+ k
2
+ k
2
−4(k −1)
Uguagliando R al valore dato si ottiene un’equazione le cui soluzioni sono i raggi cercati.
21. Superfici rigate e di rotazione
21.1. Superfici rigate
Si dice rigata una superficie Σ tale che per ogni suo punto passi almeno una
retta reale tutta contenuta in Σ. Le rette che formano la Σ si chiamano generatrici
ed ogni linea che appartiene a Σ ed incontra ogni generatrice si chiama (Curva)
direttrice. Per esempio è rigata la supeficie Σ di equazione
xy −z
2
+1 = 0 (21.1)
infatti l’equazione (21.1) si può scrivere
x y = (z +1)(z −1)
che ammette le stesse soluzioni dell’insieme costituito dai due sistemi di rette

x = k(z −1)
ky = z −1

x = h(z +1)
ky = z +1
;
al variare dei parametri h e k queste sono rette che giacciono per intero sulla
superficie e si verifica che per ogni punto della (21.1) passa almeno una di queste
rette, quindi la superficie è rigata.
È facile scrivere le equazioni parametriche di una superficie rigata quando
siano date una direttrice L ed un sistema di generatrici: se le equazioni della
direttrice sono
L =

x = f (t)
y = g(t)
z = h(t)
,
per ogni punto P
t
( f (t), g(t), h(t)) di essa passa una generatrice i cui parametri
direttori a(t), b(t), c(t) dipendono da P
t
. La generatrice passante per P
t
ha
quindi equazioni

x = f (t) + a(t)τ
y = g(t) + b(t)τ
z = h(t) + c(t)τ
. (21.2)
188 Superfici rigate e di rotazione
Il sistema (21.2), pensato come sistema nella sola incognita τ rappresenta la
generica generatrice, mentre pensato come sistema nelle due incognite t e τ
rappresenta la superficie rigata cercata.
Naturalmente per avere l’equazione cartesiana della superficie bisogna elimi-
nare i due parametri t e τ, cosa che può comportare conti un po’ laboriosi.
In particolare se f , g ed h sono funzioni lineari di t ed a, b e c funzioni costanti,
si ha a che fare con le equazioni parametriche di un piano: lasciamo come
esercizio al lettore la costruzione di un esempio in cui si possano chiaramente
individuare la direttrice e le generatrici di una superficie rigata costituita da un
piano.
Esempio 21.1. Cerchiamo l’equazione della superficie rigata che ha come direttrice la
“cubica gobba” di equazioni
1

x = t
y = t
2
z = t
3
e come generatrici rette di parametri direttori 1, 1, 1.
Scriveremo allora il sistema

x = t + τ
y = t
2
+ τ
z = t
3
+ τ
che costituiscono una terna di equazioni parametriche della superficie cercata.
Eliminando i parametri per passare alla forma cartesiana della superficie otteniamo,
dopo qualche calcolo, lungo ma non difficile, l’equazione
(x −y)
3
−(y −z)(x −2y + z) = 0.
21.2. Superfici di rotazione
Si chiama di rotazione o rotonda una superficie Σ (fig. 21.1 nella pagina successi-
va) ottenuta facendo ruotare una linea L attorno ad una retta r, detta di solito
asse di rotazione.
Per scrivere l’equazione di una tale superficie basta considerare il generico
punto P ∈ L ed imporre che sul piano π passante per P ed ortogonale a r
esso descriva una circonferenza con centro l’intersezione tra r e π. In questo
modo si ottengono due equazioni (di una sfera e del piano π); ambedue queste
equazioni dipendono dal parametro che individua la posizione di P sulla linea
L; eliminando questo parametro si ottiene l’equazione della superficie.
1
Questo esempio mostra che la direttrice può anche non essere una curva piana.
21.2 Superfici di rotazione 189
Figura 21.1. Superficie di rotazione
Esempio 21.2. Vogliamo l’equazione cartesiana della superficie che si ottiene facendo
ruotare la linea L di equazioni parametriche

x = (t −1)
2
y = 0
z = t
(21.3)
attorno alla retta r di equazioni

x = 1
y = 1
.
Un punto generico dello spazio P appartiene alla L se e solo se le sue coordinate soddi-
sfano la (21.3) e quindi sono P

(t −1)
2
, 0, t

; il piano π passante per P e ortogonale
ad r ha equazione z = t. La circonferenza è individuata tagliando il piano P con una
qualunque sfera avente centro C su r e raggio CP. Prendendo C(1, 1, 0) si ha l’equazione
della sfera
(x −1)
2
+ (y −1)
2
+ z
2
=

(t −1)
2
−1

2
+1 + t
2
ottenendo così la circonferenza di equazioni

(x −1)
2
+ (y −1)
2
+ z
2
=

(t −1)
2
−1

2
+1 + t
2
z = t
190 Superfici rigate e di rotazione
In questo caso è particolarmente semplice l’eliminazione del parametro, dopo la quale,
con opportune semplificazioni, si ottiene l’equazione
(x −1)
2
+ (y −1)
2
+ z
2
(z −2)
2
−1 = 0
che rappresenta la superficie di rotazione cercata.
22. Cilindri , coni e proiezioni
22.1. Coni
DEFINIZIONE 22.1. Fissati nello spazio un punto V ed una curva algebrica
1
L,
si chiama cono
2
di vertice V e direttice L l’insieme di tutte e sole le rette passanti
per V e secanti la L (Figura 22.1)
Figura 22.1. Cono
Ricordiamo che un’equazione intera, cioè polinomiale in tre variabili f (x, y, z) =
0 si dice omogenea di grado k se accade che
f (tx, ty, tz) = t
k
f (x, y, z) ∀t ∈ R, ∀(x, y, z) ∈ R
3
il che equivale a dire che il polinomio f (x, y, z) è costituito da monomi tutti dello
stesso grado. A questo punto si può dimostrare facilmente che
Teorema 22.1. Le equazioni omogenee intere nelle incognite x, y, z rappresentano tutti
e soli i coni con il vertice nell’origine.
1
cioè rappresentabile mediante l’intersezione di due superfici algebriche.
2
La nozione di cono si potrebbe estendere anche al caso di direttrici non algebriche, ma in questo caso
occorrerebbe fare alcune precisazioni che appesantirebbero la trattazione.
192 Cilindri , coni e proiezioni
Dimostrazione. Infatti, supponiamo che l’equazione f (x, y, z) = 0 sia omogenea
e che il punto P(x
0
, y
0
, z
0
) appartenga alla superficie da essa rappresentata,
cioè sia tale che f (x
0
, y
0
, z
0
) = 0; allora, pioiché la f è omogenea, è anche
f (tx
0
, ty
0
, tz
0
) = 0 ∀t ∈ R, quindi ogni punto della retta

x = x
0
t
y = y
0
t
z = z
0
t
,
che congiunge P con l’origine, appartiene alla superficie, la quale risulta quindi
un cono con vertice nell’origine.
Viceversa se f (x, y, z) = 0 rappresenta un cono con vertice nell’origine, vuol
dire che quando P(x
0
, y
0
, z
0
) appartiene al cono, ad esso appartiene l’intera retta
che congiunge P con O e cioè la retta di equazioni

x = x
0
t
y = y
0
t
z = z
0
t
,
il che significa che f (x
0
, y
0
, z
0
) = 0 = f (tx
0
, ty
0
, tz
0
) = 0 ∀t ∈ R e ∀(x, y, z) ∈ R,
quindi la f è omogenea.
Segue immediatamente il più generale
Corollario 22.2. Le equazioni omogenee nelle tre incognite x −α, y − β, z −γ rappre-
sentano tutti e soli i coni con vertice nel punto V(α, β, γ).
Dimostrazione. Basta operare la traslazione d’assi che porta l’origine nel punto
V.
Abbiamo visto che un cono è dato quando siano dati il vertice ed una direttrice,
vediamo come sfruttare questo fatto per scriverne l’equazione.
Sia V(a, b, c) il vertice e L la direttrice di equazioni

f (x, y, z) = 0
g(x, y, z) = 0
.
Se P(x
0
, y
0
, z
0
) è un punto del cono esso dovrà stare su una retta che passa per V
e che taglia la direttrice. La generica retta per V ha equazioni

x = a −(x
0
−a)t
y = b −(y
0
−b)t
z = c −(z
0
−c)t
(22.1)
22.1 Coni 193
Per imporre il fatto che la retta (22.1) tagli la direttrice, basta sostituire nelle
equazioni della L i valori datti dalle (22.1) ed eliminare il parametro dalle due
equazioni.
Esempio 22.1. Vogliamo l’equazione del cono che ha vertice in V(0, 1, 0) e come
direttrice la circonferenza di equazioni

x
2
+ y
2
+ z
2
−2x = 0
x −2y +3z = 0
.
Se P(x
0
, y
0
, z
0
) è un punto generico, esso sta sul cono deve anzittutto appartenere alla
retta PV che ha equazioni

x = x
0
t
y = 1 + (y
0
−1)t
z = z
0
t
;
poi la retta PV deve tagliare la direttrice, quindi si ha il sistema:

(x
0
t)
2
+ (1 + (y
0
−1)t)
2
+ (z
0
t)
2
−2(x
0
t) = 0
x
0
t −2(1 + (y
0
−1)t) +3z
0
t = 0
.
Eliminando il parametro t dalle due equazioni si ottiene la relazione che deve intercorrere
tra le coordinate di P affiché quest’ultimo stia su rette passanti per V che intersecano
la direttrice, cioè affinché P stia sul cono cercato. Nel nostro caso, con facili conti si
trova l’equazione x
2
−13z
2
+8x(y −1) −6xz = 0 che è effettivamente omogenea nelle
differenze tra le coordinate x, y, z e le coordinate del vertice.
Quando il vertice è nell’origine è semplice verificare l’omogeneità, quando
invece il vertice è un altro punto occorre spesso raccogliere opportunamente i
termini.
Alcuni coni sono di rotazione, perché ottenuti dalla rotazione di una retta
attorno ad un’altra ad essa incidente
Esempio 22.2. Siano r e s rispettivamente le rette di equazioni

x = t
y = t
z = t
e

x = −t
y = t
z = 3t
;
vogliamo l’equazione del cono che si ottiene facendo ruotare la retta r attorno alla s. Tale
cono avrà come vertice il punto comune a r e s e si potrà anche scrivere come superficie
di rotazione.
OSSERVAZIONE 22.1. Otteniamo un cono se e solo se le rette sono incidenti; se
sono parallele otteniamo, come vedremo tra poco, un cilindro, se sono sghembe
una superficie del second’ordine detta iperboloide.
194 Cilindri , coni e proiezioni
22.2. Cilindri
DEFINIZIONE 22.2. Fissata nello spazio una curva algebrica γ ed una retta r che
interseca γ si chiama cilindro di direttrice γ e generatrice r la superficie (rigata)
formata da tutte e sole le rette parallele ad r che intersecano la γ. (Figura 22.2).
Figura 22.2. Cilindro
Quindi il cilindro è ben di più del cilindro circolare che siamo abituati a
conoscere.
OSSERVAZIONE 22.2. Si vede subito che ogni equazione del tipo
f (x, y) = 0 (22.2)
rappresenta, nello spazio, un cilindro con le generatrici parallele all’asse z ed
avente come generatrice sul piano xy la curva di equazioni

f (x, y) = 0
z = 0
;
infatti si verifica subito che, se P(x
0
, y
0
) è un punto le cui coordinate soddisfano
l’equazione (22.2), allora (e solo allora) qualunque punto della retta

x = x
0
y = y
0
(che è la generica retta parallela all’asse z passante per P) soddisfa l’equazio-
ne (22.2).
22.3 Proiezioni 195
Quindi, generalizzando l’osservazione 22.2, possiamo dire che un’equazione in
due variabili rappresenta sempre, nello spazio, un cilindro con le generatrici parallele
alla variabile che manca.
Per scrivere l’equazione di un cilindro con le generatrici in direzione generica,
cioè non necessariamente parallelle ad uno degli assi coordinati, si può sfruttare
la definizione, vale a dire che si può pensare al fatto che un generico punto
P(x
0
, y
0
, z
0
) dello spazio appartiene al cilindro se e solo se sta su una retta
parallela alla generatrice che interseca la curva direttrice.
Esempio 22.3. Vogliamo l’equazione del cilindro con le generatrici parallele alla retta
r di equazioni x = y = z che taglia il piano xy sulla parabola di equazione y
2
= x ed
avente come direttrice la curva

y
2
= x
z = 0
.
Sia P(x
0
, y
0
, z
0
) un generico punto dello spazio; la retta passante per P e parallela ad r
ha equazioni

x = x
0
+ t
y = y
0
+ t
z = z
0
+ t
.
Il punto P appartiene al cilindro se e soltanto se quest’ultima retta taglia la parabola.
Quindi deve essere verificato il sistema

(y
0
+ t)
2
= x
0
+ t
z
0
+ t = 0
.
Eliminando, con semplici calcoli, il parametro t dalle due equazioni del sistema si ottiene
la relazione che deve intercorrere tra le coordinate di P perché questi appartenga al
cilindro: (y −z)
2
= x −z
OSSERVAZIONE 22.3. Esistono, ovviamente, cilindri rotondi, cioè che hanno
una direttrice formata da una circonferenza. La loro equazione si può anche
scrivere come quella di una superficie di rotazione.
OSSERVAZIONE 22.4. Non sempre i calcoli per l’eliminazione del parametro
sono così immediati come nell’esempio 22.3: a volte possono essere piuttosto
lunghi e laboriosi.
22.3. Proiezioni
DEFINIZIONE 22.3. Si chiama proiezione di una curva γ da un punto V sul piano α
l’intersezione tra il piano α stesso ed il cono avente vertice in V e come direttrice
γ. (v. figura 22.3 nella pagina seguente)
196 Cilindri , coni e proiezioni
Figura 22.3. Proiezione centrale
Figura 22.4. Proiezione parallela
Si chiama proiezione di una curva γ dalla direzione della retta r sul piano α (v.
fig. 22.4) l’intersezione tra il piano α stesso ed il clindro avente γ come generatrice
e generatrici parallele a r.
Dalla definizione 22.3 escludiamo, per evitare casi patologici, che V ∈ α oppure
r sia parallela ad α.
Esempio 22.4. Cerchiamo le equazioni della proiezione della curva
γ ≡

x = y
2
+1
z = x +1
dall’origine O(0, 0, 0) sul piano x = 1.
Il cono che ha vertice nell’origine e come direttrice la γ ha equazione (verificarlo per
esercizio)
y
2
+ x(x −z) + (x −z)
2
= 0
22.3 Proiezioni 197
evidentemente omogenea nelle tre variabili. quindi la curva proiezione può essere
individuata dal sistema

y
2
+ x(x −z) + (x −z)
2
= 0
x = 1
.
Se sostituiamo nella prima equazione il valore di x dato dalla seconda, otteniamo la
stessa curva, rappresentata però come intersezione di un cilindro con le generatrici
perpendicolari al piano:

y
2
+ z
2
−3z +2 = 0
x = 1
.
22.3.1. Riconoscimento di una conica nello spazio
Si può mostrare che nello spazio ogni conica irriducibile può essere vista come
sezione piana di un cono circolare. Più precisamente se tagliamo un cono rotondo
tale che la generatrice formi un angolo α con l’asse di rotazione con un piano
non passante per il vertice e che formi un angolo β con lo stesso asse di rotazione
otteniamo rispettivamente
• una parabola se α = β
• un’ellisse se α < β
• un’iperbole se α > β
Si può inoltre mostrare che qualunque sezione piana di una superficie del secon-
do ordine è una conica, eventualmente degenere. Per riconoscerla, si può usare
il seguente teorema, che enunciamo senza dimostrazione.
Teorema 22.3. Ogni proiezione parallela di una conica non ne altera la natura, se
effettuata da una direzione non parallela al piano su cui giace la conica stessa.
Quindi per studiare la natura di una conica nello spazio basta proiettarla, se
possibile, su uno dei piani coordinati
3
.
Esempio 22.5. Vogliamo riconoscere la conica di equazioni:

x
2
+ xy + z
2
−x +1 = 0
x −y −z = 0
3
ovviamente se la conica giace già su un piano parallelo ad uno dei piani coordinati questo non è possibile,
ma in tal caso il riconoscimento procede come già abbiamo visto nel piano.
198 Cilindri , coni e proiezioni
Eliminando dal sistema una delle incognite, per esempio la z, si ottiene l’equazione del
cilindro che proietta la conica ortogonalmente al piano xy, che ha quindi equazione
x
2
+ xy + (x −y)
2
−x +1 = 0, la proiezione sarà dunque.

x
2
+ xy + (x −y)
2
−x +1 = 0
z = 0
che sul piano xy rappresenta un’ellisse; dunque la conica data è un’ellisse.
23. Superfici quadriche
In questo capitolo parleremo delle superfici algebriche del secondo ordine, cioè
rappresentabili con equazioni polinomiali di secondo grado, classsifficandole,
indicando le loro forme canoniche, ed alcuni procedimenti atti ad ottenere il loro
riconoscimento.
23.1. Prime proprietà delle quadriche
DEFINIZIONE 23.1. Si chiama superficie quadrica o più brevemente quadrica
ogni superficie rappresentata, nello spazio riferito ad un sistema di coordinate
cartesiane ortogonali, da un’equazione di secondo grado nelle variabili x, y e z.
Per esempio abbiamo già visto che sono quadriche le sfere ed alcune superfici,
per esempio quelle che si ottengono dalla rotazione di una retta intorno ad
un’altra retta.
La più generale equazione di secondo grado in x, y e z ha la forma
ax
2
+ by
2
+ cz
2
+ dxy + exz + f yz + gx + hy + iz + l = 0. (23.1)
che dipende da 10 coefficienti omogenei (cioè definiti a meno di un fattore di
proporzionalità non nullo) e quindi da 9 coefficienti non omogenei. Partendo
dal fatto che per determinare questi nove coefficienti occorre e basta imporre 9
condizioni lineaari indipendenti, si può dimostrare in modo analogo a come si è
fatto per le coniche, che
Teorema 23.1. Per 9 punti, a 4 a 4 non complanari, passa una ed una sola quadrica
irriducibile.
Come abbiamo fatto per le coniche nel piano, possiamo associare ad una
quadrica una matrice simmetrica costruita a partire dai suoi coefficienti:
A =

a
d
2
e
2
g
2
d
2
b
f
2
h
2
e
2
f
2
c
i
2
g
2
h
2
i
2
l
¸
¸
¸
¸
¸
200 Superfici quadriche
In tal modo possiamo riscrivere l’equazione di una generica quadrica ( 23.1 nella
pagina precedente) nel seguente modo
xAx
T
= 0 (23.2)
essendo x il vettore [x, y, z, 1].
Il rango della matrice A, invariante per rototraslazioni, ci fornisce molte in-
formazioni sulla quadrica. Se il determinante di A è uguale a zero diciamo che
la quadrica è specializzata con indice di specializzazione uguale a 4 −r(A): si
dimostra che una quadrica non specializzata non ha punti multipli e che una
quadica specializzata con indice di specializzazione uguale a 1 (o, come si dice
specializzata una volta, cioè per cui è r(A) = 3 è un cono o un cilindro quadrico.
Se è un cono, ammette come unico punto multiplo il suo vertice, mentre se è un
cilindro non possiede punti multipli al finito.
Si può inoltre provare che se l’indice di specializzazione è maggiore di 1, cioè
se r(A) ≤ 2 la quadrica è riducibile: più precisamente se r(A) = 2 la quadrica
è spezzata in una coppia di piani distinti, e, se tali piani non sono paralleli, la
superficie ammette come punti multipli tutti e soli i punti della retta comune ai
due piani, mentre se r(A) = 1 si ha una coppia di piani coincidenti.
Esempio 23.1. La quadrica di equazione
x
2
+ y
2
+ z
2
+2xy −2xz −2yz −5x −5y +5z +6 = 0
è spezzata. Infatti è facile vedere che la matrice
A =

1 1 −1 −
5
2
1 1 −1 −
5
2
−1 −1 1
5
2

5
2

5
2
5
2
6
¸
¸
¸
¸
ha rango 1. Del resto la sua equazione diventa facilmente
(x + y −z)
2
−5(x + y −z) +6 = 0
che si scompone in
[(x + y −z) −2] [(x + y −z) −3] = 0
che mette in luce i due piani paralleli in cui è spezzata.
23.2. Quadriche in forma canonica e loro classificazione
L’equazione di una qualunque quadrica si può ricondurre, con una opportuna
trasformazione del sistema di riferimento, ad una ed una sola delle forme canoni-
che elencate nella tabella 23.1 nella pagina successiva che riguarda le quadriche
specializzate e 23.2 a pagina 202 che riguarda quelle non specializzate.
23.2 Quadriche in forma canonica e loro classificazione 201
Tabella 23.1. Forma canonica delle quadriche specializzate
irriducibili
x
2
a
2
+
y
2
b
2
+
z
2
c
2
= 0 cono quadrico immaginario
x
2
a
2
+
y
2
b
2
+
z
2
c
2
= 0 cono quadrico reale
x
2
a
2
+
y
2
b
2
= 1 cilindro quadrico a sezione ellittica
x
2
a
2

y
2
b
2
= 1 cilindro quadrico a sezione iperbolica
x
2
a
2
+
y
2
b
2
= −1 cilindro quadrico completamente immaginario
y
2
= 2px, p = 0 cilindro quadrico a sezione parabolica
riducibili
x
2
a
2

y
2
b
2
= 0 piani reali incidenti
x
2
a
2
+
y
2
b
2
= 0 piani immaginari incidenti
y
2
= a
2
, a = 0 Piani reali paralleli
y
2
= −a
2
, a = 0 Piani immaginari paralleli
y
2
= 0 piani reali coincidenti
OSSERVAZIONE 23.1. In riferimento alle tabelle citate osserviamo che le quadri-
che dette a centro sono quelle che ammettono un centro di simmetria che, nella
forma canonica, è l’origine del riferimento, mentre il paraboloide a sella è così
chiamato a causa della sua caratteristica forma. A pagina 204 trovate le figure
delle quadriche. La denominazione completamente immaginaria è riservata a su-
perfici su cui non vi sono punti a coordinate reali, mentre la dizione immaginaria
si riferisce a quelle superfici per cui i punti a coordinate reali sono al massimo
quelli di una retta: nel caso del cono immaginario il vertice ha coordinate reali,
mentre la quadrica di equazione
x
2
a
2
+
y
2
b
2
= 0 si spezza nei due piani di equazioni
x
a
±i
y
b
= 0 che hanno in comune una retta reale, l’asse z. Aggiungiamo che
la denominazione ellittica o iperbolica dipende dalla natura dei loro punti (vedi
§ 23.3 a pagina 206); invece i cilindri vengono distinti a seconda della natura
delle coniche che si ottengono intersecandoli con un piano perpendicolare alle
generatrici.
È semplice verificare che, tra le quadriche non specializzate, vi sono superfici
rigate: esse sono l’iperboloide ed il paraboloide iperbolici.
202 Superfici quadriche
Tabella 23.2. Forma canonica delle quadriche non specializzate
a centro
x
2
a
2
+
y
2
b
2
+
z
2
c
2
= 1 ellissoide reale
x
2
a
2
+
y
2
b
2
+
z
2
c
2
= −1 ellissoide completamente immaginario
x
2
a
2
+
y
2
b
2

z
2
c
2
= 1 iperboloide iperbolico (o ad una falda)
x
2
a
2

y
2
b
2

z
2
c
2
= 1 iperboloide ellittico ( a due falde)
non a centro
x
2
a
2
+
y
2
b
2
= 2pz, p = 0 paraboloide ellittico
x
2
a
2

y
2
b
2
= 2pz, p = 0 paraboloide iperbolico (o a sella)
Esempio 23.2. La forma canonica del paraboloide a sella, che è
x
2
a
2

y
2
b
2
= 2pz
si può anche scrivere nella forma

x
a

y
b

x
a
+
y
b

= 2p z
e quindi si vede subito che su di esso ci sono due sistemi di rette, definiti, al variare dei
parametri k e h dai sistemi

x
a

y
b
= kz
k

x
a
+
y
b

= 2p
e

x
a
+
y
b
= 2hp
h

x
a

y
b

= z
Riferendoci ancora alla forma canonica delle quadriche, possiamo notare che
tutte le volte che vi figurano coefficienti uguali per due delle tre incognite si ha
a che fare con una quadrica ottenuta dalla rotazione di una opportuna curva
attorno all’asse con il nome della terza incognita.
Possiamo infine dare equazioni parametriche
1
delle quadriche non specializ-
zate (tabella 23.2):
1
A questo punto dev’essere chiaro che queste non sono le uniche possibili equazioni parametriche delle
quadriche, bensì quelle maggiormente usate.
23.2 Quadriche in forma canonica e loro classificazione 203
• il sistema

x = a cos ϑ cos ϕ
y = b cos ϑ sin ϕ
z = c sin ϑ
(con 0 ≤ ϕ < 2π e 0 ≤ ϑ < 2π) rappresenta un ellissoide reale: se
a = b = c = R si ha la sfera di centro nell’origine e raggio R.
• il sistema

x = a cosh ϕ cos ϑ
y = b cosh ϕ sin ϑ
z = c sinh ϕ
(con 0 ≤ ϑ < 2π e ϕ ∈ R) rappresenta un iperboloide ad una falda.
• il sistema

x = a cos ϑ
y = b sin ϑ cosh ϕ
z = c sin ϑ sinh ϕ
(con 0 ≤ ϑ < 2π e ϕ ∈ R) rappresenta un iperboloide a due falde.
• il sistema

x = at
y = bs
z =
t
2
+ s
2
2p
(con s, t ∈ R) rappresenta un paraboloide ellittico.
• il sistema

x = at
y = bs
z =
t
2
−s
2
2p
(con s, t ∈ R) rappresenta un paraboloide iperbolico.
204 Superfici quadriche
Figura 23.1. Ellissoide
Figura 23.2. Gli iperboloidi
23.2 Quadriche in forma canonica e loro classificazione 205
Figura 23.3. Paraboloide ellittico
Figura 23.4. Paraboloide iperbolico
206 Superfici quadriche
23.3. Natura dei punti e riconoscimento di una quadrica
Poiché le quadriche sono superfici del second’ordine, le loro intersezioni con
un piano sono delle coniche. Se P(x
0
, y
0
, z
0
) è un punto semplice di una qua-
drica irriducibile Σ e se consideriamo i vettori p = [x
0
, y
0
, z
0
, 1] e x = [x, y, z, 1]
allora l’equazione pAx
T
= 0, dove A è la matrice dei coefficienti della quadrica,
rappresenta il piano tangente in P alla quadrica.
Si può anche provare che l’intersezione tra una quadrica ed il piano tangente
in un suo punto semplice P è sempre una conica degenere in una coppia di rette;
a questo proposito sussiste la
DEFINIZIONE 23.2. Un punto P di una quadrica Σ si dice parabolico, ellittico
o iperbolico a seconda che il piano tangente in P tagli la quadrica secondo ri-
spettivamente due rette coincidenti, due rette immaginarie o due rette distinte.
Si dimostra anche che tutti i punti di una quadrica hanno la stessa natura, cioè
sono tutti di uno ed uno solo dei tre tipi considerati e che i diversi tipi sono
discriminati dal segno del determinante della matrice A dei coefficienti della
conica: precisamente i punti sono iperbolici se det A > 0, ellittici se det A < 0 e
parabolici se det A = 0.
Uno dei modi per riconoscere una quadrica passa attraverso lo studio della
natura dei suoi punti:
• Una quadrica a punti iperbolici è ovviamente rigata e non specializzata,
quindi può essere solo un paraboloide a sella oppure un iperboloide ad una
falda: i due casi si distinguono osservando se la sottomatrice B di A formata
dai termini di secondo grado (cioè dalle prime tre righe e dalle prime tre
colonne di A) ammette o no un autovalore nullo, cioè se det B = 0.
• Se i punti sono ellittici si ha a che fare con un paraboloide ellittico, un
ellissoide od un iperboloide a due falde, anche qui i tre casi si discriminano
osservando il determinante di B, precisamente se [B[ = 0 si tratta del
paraboloide, se det B > 0 la quadrica è un ellissoide, se invece det B < 0 si
tratta dell’iperboloide.
• una quadrica a punti parabolici è sempre specializzata.
I casi esaminati sono riassunti nella tabella 23.3 nella pagina successiva.
Concludiamo il paragrafo dicendo che per distinguere i vari cilindri quadrici (a
sezione ellittica, iperbolica o parabolica), si possono considerare i tre autovalori
della matrice B introdotta prima: se uno di essi è nullo e gli altri sono discordi, la
quadrica è un cilindro a sezione iperbolica, mentre se sono concordi il cilindro è a
sezione ellittica, se invece gli autovalori nulli sono due, la quadrica è un cilindro
a sezione parabolica
2
.
2
Non è difficile dimostrare che gli autovalori di B non possono essere tutti e tre nulli.
23.3 Natura dei punti e riconoscimento di una quadrica 207
Tabella 23.3. Riconoscimento di una quadrica non degenere
Punti iperbolici det A > 0
[B[ = 0 Paraboloide iperbolico
[B[ < 0 Iperboloide ad una falda
[B[ > 0 Ellissoide completamente immaginario
Punti ellittici det A < 0
[B[ = 0 Paraboloide ellittico
[B[ < 0 Iperboloide a due falde
[B[ > 0 Ellissoide reale
Punti parabolici det A = 0
[B[ = 0 Cilindro quadrico
[B[ < 0 Cono quadrico reale
[B[ > 0 Cono quadrico immaginario
Esempio 23.3. Vogliamo riconoscere la quadrica di equazione xy − z = 0. La sua
matrice dei coefficienti è
A =

1
1
2
0 0
1
2
0 0 0
0 0 0 −
1
2
0 0 −
1
2
0
¸
¸
¸
¸
che, come si verifica subito, ha det A =
1
16
> 0, quindi è una quadrica irriducibile non
specializzata ed a punti iperbolici, fatto che si può anche constatare tenendo conto che il
piano tangente nell’origine ad una qualsiasi superficie algebrica ha come equazione il
complesso dei termini di primo grado; intersecando questo piano con la quadrica, si vede
subito che l’intersezione è spezzata nelle due rette

x = 0
z = 0
e

y = 0
z = 0
reali e distinte, quindi l’origine è un punto iperbolico, di conseguenza la quadrica è a
punti iperbolici. La matrice B =

0
1
2
0
1
2
0 0
0 0 0
¸
¸
è singolare e di rango 2, quindi la quadrica
è un paraboloide iperbolico.
Esempio 23.4. Consideriamo la quadrica x
2
+ 2xy −2xz −2 = 0. La matrice dei
coefficiienti è:

1 1 −1 0
1 0 0 0
−1 0 0 0
0 0 0 −2
¸
¸
¸
¸
208 Superfici quadriche
singolare e di rango 3: si tratta di una quadrica irriducibile specializzata una sola volta;
la matrice B =

1 1 −1
1 0 0
−1 0 0
¸
¸
è singolare e di rango 2, quindi abbiamo a che fare con
un cilindro a sezione ellittica o iperbolica: siccome gli autovalori non nulli di B sono
soluzioni dell’equazione λ
2
−λ −2 = 0 essi sono discordi, quindi la quadrica è un
cilindro a sezione iperbolica.
23.3.1. Riduzione a forma canonica
Per ridurre a forma canonica l’equazione di una quadrica osserviamo prima di
tutto che la matrice B relativa ai termini di secondo grado è reale e simmetrica,
quindi, in virtù del teorema 9.8 a pagina 80, è diagonalizzabile; la matrice che la
diagonalizza si costruisce, come abbiamo visto, a partire da una base ortonormale
di B
È facile dimostrare che ciascuno dei tre autovettori che formano la base ammet-
te come componenti i coseni direttori degli assi della quadrica: ciò significa che
esiste sempre una rototraslazione che porta ad un sistema di riferimento i cui assi
coincidono con gli assi di simmetria della quadrica, e quindi l’equazione assume
una delle forme elencate nelle tabelle 23.1 a pagina 201 e 23.2 a pagina 202.
Esempio 23.5. Supponiamo di aver già operato la la rotazione del riferimento che porta
la forma quadratica dell’equazione di una quadrica Σ a forma canonica, quindi idi
aver a che fare, ad esempio con la quadrica rappresentata, in un opportuno sistema di
riferimento, dall’equazione
x
2
−2y
2
+ z
2
−2x + y +3 = 0
(per i passaggi necessari basta ricordare come ridurre a forma canonica una forma
quadratica: vedi § 9.3 a pagina 83). I tre autovalori della forma quadratica sono non
nulli, il che equivale a dire che il suo determinante [B[ è diverso da zero. Σ è dunque una
conica a centro. Cerchiamo allora la traslazione del riferimento

x = X + x
0
y = Y + y
0
z = Z + z
0
che porta la sua equazione ad una delle forme canoniche: avremo così, sostituendo
(X + x
0
)

2(Y + y
0
) + (Z + z
0
)
2
−2(X + x
0
) + (Y + y
0
) +3 = 0
cioè, semplificando
X
2
−2Y
2
+Z
2
+2(x
0
−1)X−(4y
0
−1)Y+2z
0
Z+x
2
0
−2y
2
0
+z
2
0
−2x
0
+y
0
+3 = 0.
23.3 Natura dei punti e riconoscimento di una quadrica 209
Per eliminare i termini lineari occorre e basta avere

x
0
−1 = 0
4y
0
−1 = 0
2z
0
= 0
e quindi X
2
−2Y
2
+ Z
2
+
17
8
= 0 da cui la forma

X
2
17
8
+
Y
2
17
16

Z
2
17
8
= 1
ne segue anche che il centro ha coordinate C(1,
1
4
, 0).
Operiamo ora la trasformazione

x
/
= Z
y
/
= X
z
/
= Y
che, come si verifica subito è una rotazione in quanto la sua matrice è ortogonale a
determinante positivo e che ha lo scopo di cambiare il nome agli assi da cui:
x
/2
17
16

y
/2
17
8

z
/2
17
8
= 1
si tratta quindi di un iperboloide ellittico o a due falde.
23.3.2. I punti impropri delle quadriche
Se consideriamo, come abbiamo fatto nel piano, lo spazio ampliato con i
suoi punti impropri, sorgono alcune questioni interessanti che qui brevemente
accenniamo. Ad esempio in questa ambientazione coni e cilindri non sono più
distinguibili, nel senso che i cilindri sono particolari coni il cui vertice è il punto
improprio della retta generatrice. Nella stessa ottica, la quadrica di equazione
x
2
−1 che si spezza nei due piani paralleli π
1
: x + 1 = 0 e π
2
: x −1 = 0
ammette come punti multipli tutti e soli quelli della retta impropria r

: π
1
∩ π
2
.
Se P(x
0
: y
0
: z
0
: u
0
) è un punto semplice (e ρ = [x
0
, y
0
, z
0
, u
0
] il vettore delle
sue coordinate) della quadrica irriducibile Σ di equazione
f (x, y, z, u) = a
11
x
2
+ + a
33
z
2
+
+2a
12
xy + + a
13
xz+
+2a
14
xu + + a
34
zu + a
44
u
2
= 0 (23.3)
210 Superfici quadriche
che si scrive anche
xAx
T
= 0 (23.4)
allora si dimostra che il piano tangente in P ha come equazione una delle quattro
seguenti forme che si possono dimostrare equivalenti:
x

∂ f
∂x

P
+ y

∂ f
∂y

P
+ z

∂ f
∂z

P
+ u

∂ f
∂u

P
= 0 (23.5)
x
0
∂ f
∂x
+ y
0
∂ f
∂y
+ z
0
∂ f
∂z
+ u
0
∂ f
∂u
= 0 (23.6)
ρAx
T
(23.7)
xAρ
T
(23.8)
Un semplicissimo calcolo (che proponiamo come esercizio al lettore) mostra che
le (23.5. . . 23.8) sono equazioni lineari che rappresentano il medesimo piano: per
l’appunto il piano tangente in P alla Σ.
Per riconoscere una quadrica irriducibile Σ si può allora studiare l’intersezione
della Σ con il piano improprio π

: u = 0: si tratta ovviamente di una conica, che
prende il nome di conica all’infinito della Σ e che è rappresentata dalle equazioni

a
11
x
2
+ a
12
y
2
+ a
33
z
2
+2a
12
xy + a
13
xz + a
23
yz = 0
u = 0
(23.9)
o, similmente il cono che la proietta dall’origine, detto cono asintotico per la
quadrica, la cui equazione è la prima delle due del sistema (23.9).
La conica all’infinito è:
reale e non degenere per gli iperboloidi ed il cono quadrico reale;
immaginaria non degenere per gli ellissoidi ed il cono quadrico immagi-
nario;
degenere in due rette reali ed incidenti per il paraboloide iperbolico ed il cilindro
quadrico a sezione iperbolica;
degenere in due rette immaginarie per il paraboloide ellittico e l’ellissoide, ma
anche per il cilindro quadrico a sezione ellit-
tica completamente immaginario.
degenere in due rette reali coincidenti per il cilindro quadrico a sezione parabolica.
Esempio 23.6. Consideriamo la quadrica di equazione xy = z. In coordinate omogenee,
la sua intersezione con il piano improprio ha equazioni

xy −zu = 0
u = 0
equivalente a

xy = 0
u = 0
23.3 Natura dei punti e riconoscimento di una quadrica 211
cioè le due rette improprie reali e incidenti

x = 0
u = 0
e

y = 0
u = 0
quindi si tratta di un paraboloide iperbolico o di un cilindro a sezione iperbolica. Se
esaminiamo il rango della matrice A =
1
2

0 1 0 0
1 0 0 0
0 0 0 1
0 0 1 0
¸
¸
¸
¸
si vede immediatamente che
è det A = 0 quindi la quadrica non è specializzata dunque si tratta di un paraboloide
iperbolico.
Vale la pena di notare in conclusione che, come già accadeva nel piano, l’am-
pliamento dello spazio con i punti impropri permette di eliminare fastidiose
dissimmetrie.
Indice analitico
A
Angolo di due rette
nel piano, 96
nello spazio, 151
Applicazione, 57
biiettiva, 57
biunivoca, 57
iniettiva, 57
inversa, 60
lineare, 58
suriettiva, 57
Asintoti di un’iperbole, 116
Asse
di una conica, 147
Autosoluzioni
di un sistema omogeneo, 54
Autospazio, 75
Autovalori, 72
regolari, 75
Autovettori, 72
B
Base, 36
ortogonale, 67
ortonormale, 67
Binet
Teorema di, 47
C
Caratteristica
vedi Rango 48
Cayley-Hamilton
Teorema di, 88
Centro
di una conica, 143
Cilindri, 194
Circonferenza
nello spazio, 184
Codominio, 57
Coefficiente angolare, 95
Coefficiente binomiale, 9
Combinazione lineare
di matrici, 19
di vettori, 34
Combinazioni, 8
Complemento algebrico, 44
Coni, 191
Conica all’infinito, 210
Conica per cinque punti, 121
Coniche, 113
Coniche a centro, 143
Coniche degeneri, 118
Cono asintotico, 210
Controimmagine, 57
Coordinate
cilindriche, 173
polari
nello spazio, 173
Coordinate omogenee
nello spazio, 168
Coordinate polari
nel piano, 104
Coppia involutoria, 131
Coseni direttori, 151
di un vettore, 67
Cramer
Teorema di, 53
Curva
214 Indice analitico
direttrice, 187
gobba, 179
sghemba, 179
D
Determinante, 43
definizione classica, 45
Definizione ricorsiva, 43
proprietà, 46
Diametro
di una conica, 143
Dimensione
di uno spazio vettoriale, 37
Disposizioni, 8
Distanza
di due vettori, 65
proprietà, 65
Distanze nello spazio, 159
di due punti, 160
di due rette sghembe, 162
di piani paralleli, 161
di un punto da un piano, 160
di un punto da una retta, 161
Dominio, 57
E
Eccentricità di una conica, 113
Ellisse, 113
Ellissoide, 202
Endomorfismo, 72
Equazione
del piano, 152
della circonferenza
nel piano, 105
della retta
canonica, 95
normale, 95
segmentaria, 96
omogenea, 191
Equazioni canoniche
delle coniche, 117, 119
Equazioni parametriche
dell’ellisse, 115
della circonferenza, 106
di una retta
nel piano, 97
nello spazio, 151
F
Fasci
di sfere, 185
Fascio
di circonferenze, 108
di coniche, 124
di piani, 156
di rette, 99
Forma bilineare, 69
proprietà, 69
Forma canonica
delle quadriche non specializza-
te, 202
delle quadriche specializzate, 201
Forma proiettiva di prima specie, 129
Forma quadratica
definita negativa, 86
definita positiva, 85
semidefinita negativa, 86
semidefinita positiva, 85
Forme quadratiche, 83
Funzione, 57
G
Gauss
algoritmo di , 28
Generatori
di uno spazio vettoriale, 36
Generatrici, 187
Grassmann
formula di, 40
I
Immagine, 57
Insieme, 3
differenza, 3
intersezione, 3
parzialmente ordinato, 5
Indice analitico 215
sottoinsieme, 3
totalmente ordinato, 5
unione, 3
vuoto, 3
Intersezione tra retta e piano, 157
Invarianti
di una conica, 118
Inversa
di un’applicazione lineare, 60
Involuzione
circolare, 146
dei diametri coniugati, 144
dei punti coniugati, 140
dei punti reciproci, 140
Involuzioni, 131
ellittiche, 132
iperboliche, 132
Iperbole, 115
Iperboloide
ellittico, 202
iperbolico, 202
Isomorfismo, 59
K
Kroneker
Teorema di, 50
L
Lagrange
Teorema di, 85
Laplace
primo teorema di, 45
secondo teorema di, 45
Linee nello spazio, 179
M
Matrice, 15
aggiunta, 86
associata ad una forma quadrati-
ca, 83
autoaggiunta, 86
dei complementi algebrici, 51
del cambiamento di base, 38
diagonale, 17
diagonale principale, 17
diagonalizzabile, 77
elementi principali, 17
elevazione a potenza, 22
emisimmetrica, 16
hermitiana, 86
inversa, 51
invertibile, 51
normale, 86
nulla, 18
operazioni elementari
sulle colonne, 25
sulle righe, 25
orlare, 50
ortogonale, 79
ortogonalmente diagonalizzabi-
le, 80
quadrata, 16
ridotta, 27
scalare, 17
simmetrica, 16
singolare, 46
traccia di una, 17
trasposta, 16
triangolare, 17
unità, 17
unitaria, 86
Matrice associata
ad un’applicazione lineare, 61
Matrici
a blocchi, 23
conformabili, 20
equivalenti, 25
idempotenti, 23
invertibili, proprietà, 52
linearmente dipendenti, 20
linearmente indipendenti, 20
nilpotenti, 23
polinomi di, 23
prodotto, 20
prodotto per uno scalare, 19
216 Indice analitico
simili, 71
somma, 18
uguali, 16
Minore, 48
complementare, 43
principale, 74
Molteplicità
algebrica, 73
geometrica, 75
N
Natura dei punti di una quadrica,
206
Norma di un vettore, 64
proprietà, 65
Nucleo
di un’applicazione lineare, 58
O
Omomorfismo, 58
P
Paraboloide
ellittico, 202
iperbolico, 202
Parallelismo e perpendicolarità
tra due piani nello spazio, 153
tra due rette nello spazio, 154
tra un piano ed una retta nello
spazio, 154
Parallelismo e perpendicolarità nello
spazio, 153
Parametri direttori
di un piano, 152
di una retta, 151
di una retta nel piano, 95
Permutazione, 7
con ripetizione, 8
scambio, 7
Piano tangente
ad una sfera, 183
Plücker
legge di, 137
Polare di un punto, 135
Polinomio caratteristico, 72
Polinomio minimo, 90
Polo, 135
Principio di induzione, 6
Prodotto associato, 44
Prodotto cartesiano
di due insiemi, 68
Prodotto scalare
in R
n
, 65
in generale, 69
proprietà, 66
Proiettività, 129
ellittica, 130
iperbolica, 130
parabolica, 130
Proiezione ortogonale, 164
Proiezioni, 195
centrali, 195
parallele, 196
Pundi base di un fascio
di coniche, 124
Punti
coniugati, 139
ellittici, 206
iperbolici, 206
multipli, 179
parabolici, 206
reciproci, 139
Punti base di un fascio
di circonferenze, 108
Punti ciclici, 110
Punti impropri
di una quadrica, 209
Punti uniti, 130
Punto improprio, 100
Q
Quadriche, 199
Quadriche in forma canonica
loro classificazione, 200
Indice analitico 217
R
Rango
calcolo del, 49
di una forma quadratica, 83
di una matrice, 27, 48
proprietà, 49
Reciprocità
legge di, 137
Regola del parallelogrammo, 63
Relazioni, 4
d’ordine, 4
di equivalenza, 4
insieme quoziente, 4
Retta impropria, 101
Rette
punteggiate, 129
Rette isotrope, 119
Rette sghembe, 158
Riconoscimento di una conica
nello spazio, 197
Riconoscimento di una quadrica non
degenere, 207
Riduzione a forma canonica
dell’equazione di una quadrica,
208
Rototraslazioni, 171
Rouché-Capelli
Teorema di, 28, 54
S
Sfera, 183
Simmetrie, 163
rispetto ad un piano, 164
rispetto ad un punto, 163
rispetto ad una retta, 167
Sistema di riferimento
nel piano, 62
nello spazio, 62
Sistema lineare, 11
omogeneo, 54
risoluzione elementare, 13
soluzioni, 12
Sistemi lineari
teoria dei, 53
Somma
di sottospazi, 39
Somma diretta
di sottospazi, 39
∑ sommatoria, 5
Sostegno
di un fascio, 99
Sottospazio, 35
Spazi vettoriali
proprietà, 33
Spazio euclideo, 69
Spazio vettoriale, 34
su R, 33
Spettro
di una matrice, 73
Superfici, 177
di rotazione, 188
rigate, 187
Superficie
algebrica, 178
T
Tangente
ad una superficie, 179
Tangenti
ad una circonferenza, 107
Tangenti ad una conica
in forma canonica, 121
Triangoli autopolari, 141
V
Vandermonde
determinante di, 48
Versore, 67
Vettore
unitario, 67
Vettori
disgiunti, 38
fondamentali, 35
linearmente dipendenti, 35
linearmente indipendenti, 34
ortogonali, 67
ortonormali, 67

A Queste dispense sono state composte con L TEX. Sono coperte da licenza Creative Commons http://creativecommons.org/licenses/ by-nc/3.0/legalcode in particolare non ne è permesso l’uso commerciale

. . 3. . . . 3. . . . 3. . . . . .1. . . . . . . . . . . . . . . . . . . . . 3. . . . Prodotto per uno scalare . . . . . . . 3. . . . . . . . . . Un po’ di calcolo combinatorio . .5. . . . . 1. . .5.3. . . . . . . . .2. . . . . . . Il simbolo di sommatoria . . . . . . 4. . . . . . . . . . . . . . 3. 3. . . . . . . . . . Algebra lineare 1. . . 3. . . .2. . . . . . . . . . . . . Definizioni e prime proprietà . . . .5. Risoluzione di un sistema . . . . 1. . . . . 1. . . . . . Potenza di una matrice quadrata 3. . . . . . . 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2. . . . . . . . . . . . . . Matrici a blocchi . .1. . . . . . . . . 4. . . .2. . . . . . . 3. . . . .5. . . . .2. . . . . 3. . . . . . 3. .1. . . . . . . .1. . . .1. . . . . . . . . . . . . . .1.5. . Polinomi di matrici . . . . . . . . . . . . . . . .4. . . Applicazioni ai sistemi lineari . . . . . . 1. . .3. . . . . . . . . . . . .2. . . . . . . . . . . . . . . . . Permutazioni con ripetizione 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1. . . . . . . . . . . . . . . . . . . . . . . . Combinazioni e disposizioni . . Equivalenza di matrici . . . . Concetti introduttivi . . .2. . . . . . . . . . . . . . 3.4. . . . . . . . .3. . 2. . . Gli insiemi . . . . . . . Relazioni . . . . . . . . . Somma di matrici .2. . .5. . . . . . 33 35 . . . . . . . . . . . I sistemi lineari: teoria elementare 2. . . . . . . . Combinazioni lineari di matrici . .Indice Prefazione xi I. 15 18 18 19 19 20 22 23 23 25 25 26 28 33 4. L’algoritmo di Gauss . . . . . . . . . . . . . . Matrici 11 13 15 3. . . . . . . . . . .2. . . . . . . . . . . . . . . . . . Il principio di induzione . . . . . .4. . . . .5. . . .2. . . . . . . . . Nomenclatura e prime operazioni . . . . . . . 1 3 1. . . . . . . Richiami di nozioni essenziali 3 4 5 6 7 7 8 8 11 2. . . . . . . . . . . . . Spazi vettoriali . .3. . . . .6. . . . . . . 1. . . . . . . . . . . . . Sottospazi e basi . . . . . . . . . .2. Permutazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Operazioni sulle matrici . . . . . . . . . . . . Risoluzione di un sistema . . . . .5. . . . . . . . . . . . . . . . . . . . . . .2. . . . . . . . Prodotto tra matrici . . . .

93 95 11. . . . . . . . . . . 6. . . . . . . . . . . . . .1. . . . .3. . . . . . .2. . . . . . . . . . . . . . . . .1. . . . .2. . . . . . . . . . . . . . . . .2. . . . . . . Distanze . . . . . . . . . . . . . . . . . . . . . . . . Prodotto scalare . . . . . . . Generalità .1. . . . . . Matrici simili. . . . . . . . . . . . . Diagonalizzazione di una matrice quadrata Martici ortogonali . . . Distanza di un punto da una retta . . . . . . . . . matrici. . . . . . . 43 43 44 46 48 49 51 51 53 6. . . . . . . . . . . . . . . . . . .1.2. . . . . . . . . . . . . . . . . . . . . . . Matrice inversa . . . . . . . . . . . . . . . . . . . . . . Matrici simili . . . . . . . . . . . . . . . . . . Norma di un vettore in R2 o R3 . .2. 77 79 83 86 87 10. . .1. . . . . . . . . . . . . Distanza di due punti .3. . . . 5. . . . . . . . Calcolo del rango . . . . . . . . . . .1. . . . . . Altri tipi di equazione della retta . 87 89 90 II. . La retta nel piano 95 96 98 98 99 . . . . . . . . Forme quadratiche . . . . . Polinomi di matrici 10. . . . . . . 8. . . . . . . . . . . . . . . Teoremi sui sistemi lineari . . . . . . . . . . . .3. Preliminari . . . Matrici hermitiane e matrici unitarie . . . Definizioni di determinante . . . . . . . . . . . . Applicazioni del Teorema di Cayley–Hamilton .2. . . . . . . . . .2. . . . . 5. . . . . . . . . . . . . . . . . . . . . . 5. . . . . . . . .1. . . . . . . . . . . . . . . . . . . . .3. . . . .1. . Polinomio minimo . . . .1. . . . 7. .1. . Applicazioni lineari. . . . . . . . . . . . . . . . . . . . 5. . .1. . . . . . . . . . . . . . . . . . . .1. . . . . . . . . .1. . . . . . . . . . Autovalori ed autovettori di una matrice quadrata 8. . . . . . . Teorema di Cayley Hamilton .4.ii 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10. . Prodotto scalare. . . . . .1. . . . . . Autovalori ed autovettori di una matrice . . . . . . . . . . 57 60 61 61 65 68 71 8. .4. . . . . . . . . . . . 10. . Definizione ricorsiva . . . . Definizione e proprietà . . . . . . .2. . . . . . . . . .2. . norma . . . . . . 5. 9. . . . .3. . prodotto scalare 53 57 7. . . . . . .3. 11. . . . . 7. . . . .1. . . . . . . 9. . 11. . . . . sistemi 7. . . . . .3. . . . . Determinante e rango di una matrice. Generalizzazioni . . matrici ortogonali 71 72 77 9. . . . . . . . . Rango di una matrice . . . . Diagonalizzazione. . . . . . . . 11. . .1. . . . . . . . . . . . . . . . . . . . . . .2. . . . . . . . 5. .2. . . Proprietà del determinante . . . . 9. . . . . . . . . . . Teoria dei sistemi lineari . . 11. .1. . . . . . . . . 7. . . Definizione classica . . Geometria piana 11. . . . . . 7. 7. . . . . . . . . . . . . . . . . . . . 5. . . . . . . . . . . . . . . . . . . . . . . . . 9. . Matrice inversa Indice 43 5. . . . . . . . . . . . . . . . . . . . . . . . Applicazioni lineari. . . .4. . . . .1.

. . . . .2. Cambiamento del sistema di riferimento 11. . . . .6.3. .6. . . . . . . . . . . . . . . . . . . . . . . La circonferenza nel piano 12. . . . . . Le coniche . . . . . . . . . . . Triangoli autopolari . Riconoscimento di una conica . . . . 13. . .3. . . . Elementi coniugati rispetto ad una conica irriducibile 15. . . I sistemi di riferimento . . . 99 100 101 101 104 105 11. . . . 13. . . . . 129 14. . . . . . . . . . . . . . . . . . . . . . . Principali proprietà della polarità piana . . . .1. Le coniche in coordinate omogenee . . . . . . . . . Assi di una conica . . . . . . . . . . . . . . . 11. . . . . . . . . . . . . . . Coniche in forma generale . . . .1. . . . . . . . . . . . . . . . . . . . . 15. . . .2.1. . . . Rette e piani nello spazio 149 151 17. . . . Fasci e punti impropri . . . . . 135 137 139 141 143 16. . . . . . . . . 13. . .Indice iii . . . . . . . . Centro e diametri . . . . . . . . . . . . . . . .5. . . . . Generalità . . . . . . . . . .2. . Fasci di coniche . . . Conica per cinque punti . . . . . . . Polare di un punto rispetto ad una conica irriducibile 15. . . . . . .1. . . . . . . Fasci di circonferenze . . . . . . . Equazioni parametriche della retta nello spazio . Tangenti ad una conica in forma canonica 13. . . . . . 12. .1. . . . Equazione di un piano nello spazio . 105 107 108 110 113 13. . . . . . . . . Circonferenza ed elementi impropri 13. . . . . . . . . . . . . . . . . . . . . . . . . .4. . . . . . . . . . . . . . . . . . . . . . . . . .2. . . . . . . . . . . . . . . .5. .2. 152 . . . . . .4.1. . Tangenti . . . 11. . . . . . .1. . . . . . . . . 16. . . . Fasci di rette .1. . . . . . . . . . . . . . . . . . 13. . . . . . . . . . .3. . Centro ed assi . . . . . 147 IV. 11. . . . . . . . . . . . . . .1.1. . . . . . . . . 13. . . 13.6. . . . . . . . . 12. . . . . . . Altri sistemi di riferimento . . 143 16. . . . . . .2. . Polarità piana 135 15. . . . . . . . . . . . . . . . . . . . . . .1. . . . . . . . . . . . . . . . . . . . . . Proiettività ed involuzioni 127 129 14. . . Coordinate omogenee . . . . 12. . . . 117 118 121 121 122 124 124 126 III. . . . . . Generalità sui fasci di coniche .2. . . . . Involuzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Proiettività . . . . . . . . .4. . . . . . . . . . . . . . 12. . . . . . . . . . . . . . . . . . . . . . . . .5. . . . . Geometria dello spazio 17. . . . . . . Polarità piana 14. . . . . . . . . . . . . . . . . . . . . . .6. . . . . . . . . . .1. . . . . . . . 151 17. . 131 15. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . 23. . . . . . . . . . . . . . . . . . . .6. . . . . . . . . . . . Cilindri . . .2. . . . Prime proprietà delle quadriche . Linee . . . . tra rette e piani 17. . . . . . . . . . Fasci di sfere . . . . .1. . . . . . . . . . . . . . . . . . . . . . . .1. Superfici rigate e di rotazione . . . . . . . . . . . . . . . .6. . . . . . . . . 23. . Coordinate omogenee nello spazio . Rette sghembe . . . . . . . . . . . . . . 17. . . Simmetrie rispetto ad un punto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23. . . .2. . . . . . . . . . . Superfici rigate . . . . . Superfici di rotazione . . .2. . . . . . . . . . . . 188 22. coni e proiezioni 191 22. . . . . . 199 200 206 208 209 . . . . . . . . . Fasci di piani . . . . .1. . . . . . . . . . . . . . . .2. . . . 20. . . . . . . . 17. 153 154 156 157 157 158 159 162 163 163 164 167 168 171 18. .7. . . . . . . . . . . . . . . . . Riconoscimento di una conica nello spazio 23. . . . . . . . . . Quadriche in forma canonica e loro classificazione . 187 21. . . . . . . . . Piani tangenti ad una sfera 20. . . . . . . . . . . . . . . . . . . 17. . . 18. . . . 191 194 195 197 199 23. . . . . . . . . . . . . . . . . . . . Parallelismo e perpendicolarità nello spazio . . .1. . . . . . . . . Sfera e circonferenza nello spazio 183 20. . . .2. . . . .3. . . . . . . . . . . . . . . . . . . 183 183 184 185 187 21. . . . . .1. . . . Proiezioni . . . . . . . . .3. . Natura dei punti e riconoscimento di una quadrica . 17. . .6. . . . .iv 17. . . . . . . . . . 17. . .6. . . . . . . . . . . . . . . . . . .2. . . . . . . Superfici . . . . . . . . . . . . . . . . 21. . . . .2. . Superfici quadriche . . . . . 22. . . . . . . . . . . . . . . . . . . . Riduzione a forma canonica . . . . . . . .1. . . . . . . . . . . Distanze . . . . . . . . . . . . 22. . . . . . . . . . . Altri problemi su rette e piani . I punti impropri delle quadriche . . . . . . . . . .1. . . . 173 19. . . . 17. . . . . . . . . 22. . . . . . . . . . .4. . . . . . . . . . . . . . . . . .3. . . .3. 17. . . Rototraslazioni . . . . . . . Linee e Superfici nello spazio 177 19. . La sfera . . . . . . . . . . . . . . . . Coordinate polari e coordinate cilindriche . . . . . . . . . . . . 17. . .6. . . . Cilindri . . . . . . . . . . . . . . . . . . Coni . .3. . . . . 23. . . . . . . . . . . . . . . . . . Angoli tra rette. . . . . Simmetrie rispetto ad una retta . . . . . . . . . . . . . . .8. . . . . . . . .7. . . . . . . . Simmetrie rispetto ad un piano . Sui sistemi di riferimento Indice .1. .3. Simmetrie . . . . 171 18. . . . . . . La retta intersezione di due piani . . . . . . . .3. . . . . . . . . . . . . . . . . . . . . . . . .4.2. . . . . . . . . . . . . . . . . . .5. . 177 19.1. . . . .3. .3. . . . . . .1. . . . .7. . . . . . . . . . . . . . . 17. . . . . . . . . . . . tra piani. . . 179 20. . . . . . . . . . . . Circonferenze nello spazio 20. .2. . . . . . . .7. . . 17. . . . . Intersezione tra retta e piano . . . . . . . . . . . . . . .4. . . . . .

Indice v 212 Indice analitico .

.

. . Distanza di un punto da un piano . . . .4 . .4. . Simmetrica di una retta rispetto ad un piano . . . . 13. . . .2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3. . . Involuzione dei punti reciproci . . . . . . . . . . . . 13. . . . . . . . .2. . . . . . . . . . . . . . . . . . L’iperbole . . . . . . . . . . . . La regola del parallelogrammo per la somma di vettori . . . . . . . . . . 108 12. . . . . . . . . .2. . . . . Simmetrico di un piano rispetto ad un piano . . . . . . . . . 17. . . . . . . . . Traslazione . . . . . . . Fascio di circonferenze tangenti ad una retta . . . . . . . . . . . . . .Elenco delle figure 4. . . . . . .4. . . . . . . . . . . . . . . 17. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 16. . . . . . . . . . . . . . . . . . . . . .1. . . .2. . 17. . . . Diametri e tangenti . . . . . . . . . . . . . . . . .3. . . 16. . . .6. . . . . . . . . Matrici triangolari . . . . . Tangente da P ad una circonferenza . . . . . . . . . . . . . . .5. . . . . Triangolo autopolare . . . . . . . 13. . . . La parabola 13. . . . . . . . . . . . . . . . . . . . . . . . . . 7. . . . . . . . 17. . . . . . . . Centro di simmetria . . . . . . . . . . . . . . . . . . . . . . . . .1. . . . . . Un sistema di riferimento cartesiano ortogonale . . . . . . . . . .4. . 11. . Le coniche . . . . . . . . . . . . . . . 98 . . . . . . . . . . . . . . . . . . . . . .1. . . . 7. . . . . . . . . . . . . . . . . . 11. . 110 13. . . . . . . . . . . . . . . . . . .3. . . . . . . . . . . . . . . . . . . . 104 12. . . Esempio 13. . . . . .2. . . . . . . . . . . . . . . . . . . L’ellisse . 16. . . . . . 102 . . . . 11. . .6. . . Esempio 13. 138 15. . . Simmetrico di un piano rispetto ad un piano parallelo 17. . . . . . . . Simmetrica di una retta rispetto ad un altra retta . . . . . . . . . . . . . . . . Esempio 13. . Rotazione . . . . . . . . . . . . . . . . . . . . Distanza di due punti . . . . . 140 15. . . .7. 17. . . . .1. . . . . . . . . . . . . . . . . .3 13.1. . . . . . . . 40 62 63 63 . .1. Distanza di due punti 11. . . . . . . .3. . . . . . . . . . . . . . . .2. . . . . . . . . . . . . . . . . Diametro coniugato . . . . . . . . . . . . . . 7.7. . 144 145 145 146 159 160 161 165 166 167 167 17. . . . . . Tangenti da un punto ad una conica . . . . . . . . . . . . . .1. . . . . . . . . . . . . . . . . . . . . . . . . .2. . . . . . . . . . . . . . . . . . . . . . . Un sistema di riferimento cartesiano ortogonale nello spazio . . . . . . . . . .3. . . . .2 13. Coordinate polari . . . . . .4. . . . . . . . . . . .3. . . . 113 114 115 116 120 123 124 15. . . . . . . . . . . . . . . .5. . . . Distanza di un punto da una retta . . . . . . Centro graficamente 16.1. . . . . . 103 . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . 184 21. . . . . . . . 23. . . . . Coordinate cilindriche . . . . . . . . . . 191 194 196 196 204 204 205 205 23. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Proiezione parallela . . . . . . . . . . . . . . .2. 189 22. . . . . . . . . . . .3. .1. . . Coordinate polari . . . . . . . . . . . . . . . Ellissoide . . . . . 174 18. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1. . Circonferenza nello spazio . . . 22. . . . . . . . . . .3. .2. . . . Paraboloide iperbolico . . . . . . . . . . . . . . . . . . . . . . Paraboloide ellittico . . . . . . . . . . . . . . . . . . . 175 20. Cilindro . .4.1. . . . . . . . .1. . . . . . . . . . . . . . . . . Gli iperboloidi . . . . . . Cono . . . . . . . . . . . .viii Elenco delle figure 18. . .4. . . Proiezione centrale 22. . . . . . . . . . . . . . . . . . . . . . Superficie di rotazione . . . . . . . . . 23. . . . .2. . . . . . . . . . . . . . . . . . . . . . . 23. . . . . . . . . .1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22. . . . . .

. . . . . . . Proprietà degli spazi vettoriali . . 4. . . . . . Forma canonica delle quadriche non specializzate . . . . .4. . . . . . . .Elenco delle tabelle 1. . 13. . . Proprietà della distanza di due punti Proprietà del prodotto scalare . . . . . . . 207 . . . . . . . . . Relazioni d’ordine . . . . . . 7. . Relazioni di equivalenza . . . . . . . . 202 23. . . . . Le forme canoniche dell’equazione di una conica . . . . 3. . . . . Forma canonica delle quadriche specializzate . . . . . . . . . . .3. . . . . . . . . . . .2. . . . . . . . . . . . . . . . . . . . . . . . . 7. . . . . . . . . . . . . . . . . . . . Riconoscimento di una quadrica non degenere . . . . . . . . . . . . . 2. . . . . . . . . . . . . . . . Proprietà del prodotto per uno scalare Proprietà del prodotto di matrici . . . .1. . . . . . . . . . . . . . . 7. . . . 201 23. . . . . . .1. . . . . . . Proprietà delle forme bilineari . . . xiii xiv 4 4 17 18 19 21 33 65 65 66 69 1. . . . . . . . . Proprietà della norma di un vettore . . . . . . . . Simboli matematici . . . . . . . . . . . . . . . . . . . . . . . . . . Particolari matrici quadrate . . . . . . 3. . . . . . . . . .2.1. . . . . . . . . . . . . . . . 3. . . . Proprietà della somma di matrici . .4. . . . . . . . . . . . . . . . .3. . . . . .2. . . . . . .1. . . . . . . . . . . . . . . . . . . . . . . .1. . . . . . .3. . . . . . . . . 7. . . .2. . . . . . . . . Lettere greche . . . . . . . 3. . . .1. . . . . . . . . . . . . . . . . . . . . . . . . 119 23. . . . . 1. . . .

.

è stato inoltre aggiunto l’indice analitico. In questa seconda edizione. 2 LA MATEMATICA è una delle essenziali emanazioni dello spirito umano. Sono corredate da numerosi esempi: alcuni di applicazione della teoria svolta.24 June 1880 Decorah. USA–10 Aug 1960 Brooklyn. . come l’arte o la poesia. sono stati aggiunti i capitoli sulla polarità piana e sulle proprietà di centro ed assi di una conica. mettendo in luce le cose che per lui sono più importanti o più difficili: di solito queste non coincidono con quelle che a noi sembrano più importanti o per noi sono più difficili. iv) non aver paura di fare domande. Iowa. ovviamente nei momenti opportuni: siete qui apposta per imparare. iii) non imparare a memoria le formule o le dimostrazioni dei teoremi: la memoria tradisce molto più frequentemente del ragionamento: imparare a ricostruirle. vi sono inoltre dei cenni di geometria proiettiva. Consigli per affrontare meglio i corsi universitari di Matematica C OSE DA non FARE : i) non studiare su appunti presi da altri: generalmente ciascuno prende appunti a modo suo. esse rispecchiano fedelmente il corso da me tenuto presso la sede di Cremona del Politecnico di Milano. ii) non studiare sui testi di scuola superiore: per bene che vada sono impostati in maniera diversa e/o incompleti. Oswald Veblen-19242 Queste dispense contengono elementi di algebra lineare. USA. una cosa che va valutata in sè e per sè. altri di approfondimento della stessa. con particolare riguardo all’algebra delle matrici ed agli spazi vettoriali e di geometria analitica nel piano e nello spazio in particolare lo studio delle coniche e delle quadriche. 2 Oswald Veblen.Prefazione MATHEMATICS is one of essential emanations of the human spirit – a thing to be valued in and for itself – like art or poetery1 . oltre a correggere numerosi errori. Maine.

sembra di non capire o sembra che il docente “vada troppo in fretta. magari creando controesempi di situazioni in cui una o più delle ipotesi non valgono. iv) Se proprio si vuole farlo imparare a prendere appunti senza perdere il filo del discorso: appuntare solo i concetti base su cui poi riflettere e ricostruire da soli l’argomento. maiuscole e minuscole. a esercitazioni appuntare solo il testo dell’esercizio ed il risultato finale e rifarlo per conto proprio. La tabella 1 a pagina xiii fornisce un elenco di tutte le lettere greche. La Matematica. In questo modo la lezione sarà più efficace e chiarirà molti dei dubbi e delle perplessità rimaste. vi) Ricordarsi che per imparare la matematica occorre far funzionare il cervello. necessita di una lunga “digestione”: di un ripensamento critico che non si può fare all’ultimo momento. vii) non scoraggiarsi se.” seguendo i consigli si acquista presto il ritmo. vi) durante le esercitazioni non ricopiare pedissequamente la risoluzione degli esercizi. C OSE DA FARE : i) Precedere sempre la lezione: cercare di volta in volta sui libri gli argomenti che il docente tratterà nella prossima lezione e cominciare a leggerli per avere un’idea di che cosa si parlerà. ii) Iniziare a studiare dal primo giorno. dimostrazioni. v) Imparare a rifare le dimostarzioni dei teoremi soffermandosi a riflettere sul ruolo che giocano le varie ipotesi del teorema. soprattutto all’inizio. figure ecc. per poter rifare conti. e questo costa sempre un certo sforzo. viceversa prendendo male gli appunti c’è un alto rischio di perdere il filo della lezione. soprattutto all’inizio. viii) non perdere tempo: il fatto che all’università non ci siano compiti in classe e interrogazioni è una grande tentazione per rimandare il momento in cui “mettersi sotto” a studiare. iii) Studiare sempre con carta e penna a portata di mano.xii Prefazione v) durante le lezioni non prendere freneticamente appunti: quello che spiega il docente di solito c’è sui libri o sulle dispense. con il loro nome in italiano Mentre la tabella 2 a pagina xiv elenca i simboli maggiormente usati nel testo B UON L AVORO ! .

xiii Tabella 1. Lettere greche minuscole α β γ δ oε ζ η θoϑ ι κ λ µ ν ξ o π ρo σoς τ υ φoϕ χ ψ ω maiuscole A B Γ ∆ E Z H Θ I K Λ M N Ξ O Π R Σ T Υ Φ X Ψ Ω nome alfa beta gamma delta epsilon zeta eta theta iota kappa lambda mi ni csi omicron pi ro sigma tau ipsilon fi chi psi omega .

Simboli matematici N Z Q R C ∀ ∃ ∃! ∈ ∪ ∩ ∑ ∏ ⊥ ·. · ∞ ℘ < > ≤ ≥ ⊂ ⊆ ⊕ Ø insieme dei numeri naturali insieme dei numeri interi insieme dei numeri razionali insieme dei numeri reali insieme dei numeri complessi per ogni esiste esiste un unico appartiene ad un insieme unione di insiemi intersezione di insiemi somma prodotto perpendicolare prodotto scalare infinito insieme delle parti minore maggiore minore o uguale maggiore o uguale sottoinsieme proprio sottoinsieme somma diretta di insiemi insieme vuoto .xiv Prefazione Tabella 2.

Algebra lineare .Parte I.

.

Gli insiemi Il concetto di insieme è un concetto primitivo.1. intersezione di A e B l’insieme C = A ∩ B tale che C ≡ {c| sia c ∈ A. lo studente deve correre rapidamente ai ripari.1. Pertanto questo capitolo va letto con attenzione e non saltato a pie’ pari. 1. sia c ∈ B} cioè C è l’insieme degli elementi che appartengono sia ad A sia a B. Indichiamo con il simbolo ∅ l’insieme vuoto cioè privo di elementi. si definisce l’insieme C = A ∪ B tale che ∀ a ∈ A e ∀b ∈ B sia C ≡ {c| c ∈ A oppure c ∈ B} cioè C è formato dagli elementi che appartengono ad A oppure a B.1). Diciamo che l’elemento a appartiene all’insieme A e scriviamo a ∈ A se a è un elemento di A. indipendentemente dall’ordine. questo simbolo è quello dell’insieme vuoto e non va usato per indicare lo 0 zero!’ . è l’insieme C = A \ B se C = {c| c ∈ A. riprendendo in mano i testi della scuola superiore.1 Due insiemi sono uguali se sono formati dagli stessi elementi. Richiami di nozioni essenziali In questo capitolo richiamiamo alcuni concetti e proprietà fondamentali. Si dice che B è sottoinsieme di A e si scrive B ⊆ A se tutti gli elementi di B sono anche elementi di A. 1 Attenzione. di cui faremo largo uso nel seguito e che dovrebbero essere noti ed acquisiti dagli studi precedenti. differenza tra A e B Due insiemi tali che A ∩ B = ∅ si chiamano disgiunti. in simboli B ⊆ A ⇐⇒ ∀ a ∈ B : a ∈ B ⇒ a ∈ A (1. c ∈ B} cioè l’insieme degli elementi di A che non appartengono a B. cioè che ∅⊆A unione di A e B ∀A Se A e B sono sottoinsiemi di uno stesso insieme U. È noto che l’insieme vuoto si considera sottoinsieme di ogni insieme. Se sussiste anche il minimo dubbio.1) Se B = A e vale la (1. B si chiama sottoinsieme proprio di A e si scrive B ⊂ A.

4

Richiami di nozioni essenziali

1.2. Relazioni
Ricordiamo che in un insieme A è definita una relazione di equivalenza se, qualsiansi siano gli elementi a, b, c ∈ A, valgono le proprietà elencate nella tabella 1.1
Tabella 1.1. Relazioni di equivalenza

a a a

a b ⇐⇒ b a beb c ⇒a

c

riflessiva simmetrica transitiva

Per esempio è di equivalenza la relazione di parallelismo tra rette nel piano, pur di considerare parallele anche due rette coincidenti, mentre non lo è quella di perpendicolarità. (perché?) Se in un insieme A è definita una relazione di equivalenza chiamiamo classe di equivalenza dell’elemento a l’insieme di tutti gli elementi di A che sono equivalenti ad a. L’insieme di tutte le classi di equivalenza di A si chiama insieme quoziente di A rispetto a . Esempio 1.1. Per esempio, nell’insieme delle frazioni, la relazione a b ka ( k = 0) kb

è una relazione di equivalenza. I numeri razionali si possono definire come l’insieme quoziente dell’insieme delle frazioni rispetto a nel senso che il numero 0.5 rappresenta tutta la classe di frazioni equivalenti ad 1 . 2 Esempio 1.2. La relazione di parallelismo definisce una direzione: passando al quoziente, nell’insieme delle rette, rispetto alla relazione di parallelismo, si ottiene la direzione di una retta. In un insieme A è definita una relazione di ordine valgono le proprietà della tabella 1.2.
Tabella 1.2. Relazioni d’ordine

se per ogni a, b, c ∈ A

1. 2. 3. 4.

a a a a

b oppure b a a beb a⇒a=b beb c⇒a c

proprietà di dicotomia proprietà riflessiva proprietà antisimmetrica proprietà transitiva

1.3 Il simbolo di sommatoria

5

Un insieme in cui valgono tutte le proprietà elencate nella tabella 1.2 nella pagina precedente si chiama totalmente ordinato; in esso, data una qualunque coppia a e b di elementi, in virtù della proprietà di dicotomia, si può sempre dire se a b oppure b a cioè, come si suol dire, tutti gli elementi sono confrontabili. Esistono, però, insiemi in cui è definita una relazione d’ordine cosiddetta parziale, in cui non vale la proprietà 1 di dicotomia, cioè in cui non tutte le coppie di elementi sono confrontabili, come mostra il seguente Esempio 1.3. Nell’insieme N dei numeri naturali, diciamo che a b se a divide b. Questa è una relazione d’ordine parziale, infatti valgono le proprietà 2.. . . 4. –verificarlo per esercizio– ma non è totale perché esistono coppie di numeri non confrontabili, ad esempio 3 e 5 non sono confrontabili, perché nè 3 divide 5, nè, viceversa, 5 divide 3.

1.3. Il simbolo di sommatoria
Spesso in Matematica una somma di più addendi viene indicata con il simbolo

∑,
in cui gli addendi sono indicati da una lettera dotata di un indice numerico arbitrario, ad esempio

∑ a i = ∑ j =1 a j .
1

5

5

Le seguenti scritture sono equivalenti:

i =3

∑ xi ,

6

k =3

∑ xk ,

6

n =4

∑ x n −1 ,

7

e rappresentano la somma x3 + x4 + x5 + x6 . L’indice di sommatoria può essere sottinteso, quando è chiaro dal contesto. Dalle proprietà formali delle operazioni di somma e prodotto seguono subito queste uguaglianze:

i =1

∑ mxi = m ∑ xi
i =1

n

n

e

i =1

∑ ( xi + yi ) = ∑ xi + ∑ yi .
i =1 i =1

n

n

n

Si considerano spesso anche somme su più indici, per esempio
i =1...2 k=1...3

aik

che equivale a a11 + a12 + a13 + a21 + a22 + a23

6

Richiami di nozioni essenziali

e si verifica subito che è

i =1...2 k=1...3

aik =

i =1

∑ ∑ aik
k =1

2

3

=

k =1

∑ ∑ aik
i =1

3

2

1.4. Il principio di induzione
Un procedimento di dimostrazione molto usato in Matematica, ed a cui ricorreremo diverse volte, è quello basato sul principio di induzione. Esso è soprattutto adatto per dimostrare proprietà che dipendono dai numeri naturali. DEFINIZIONE 1.1. Sia Pn una proposizione che dipende da un numero naturale n. Se i) P1 è verificata ii) Pn è vera iii) Pn+1 è vera ogni volta che è vera Pn allora Pn è vera per qualunque numero naturale n. Vediamo qualche semplicissimo esempio. Esempio 1.4. Consideriamo i primi n numeri dispari e verifichiamo che per ogni intero n si ha 1 + 3 + 5 + · · · + (2n − 1) = n2 . (1.2) La ( 1.2) è ovviamente vera per n = 1, quindi P1 è vera. Supponiamo ora che essa sia vera per un certo n = k, cioè che la somma dei primi k numeri dispari sia k2 e dimostriamo che in questo caso è vera anche per k + 1. Per n = k + 1 la ( 1.2) diventa 1 + 3 + 5 + · · · + (2(k + 1) − 1) = (1 + 3 + 5 + · · · + 2k − 1) +2k + 1 =
k2 1.2

k2 + 2k + 1 = (k + 1)2 . Dunque abbiamo fatto vedere che se la somma di k numeri dispari è k2 ne segue che quella di k + 1 è (k + 1)2 . Essendo vera per k = 1 lo è per k = 2 quindi per k = 3 e così via per ogni n. Esempio 1.5. Vogliamo far vedere che 1+2+3+···+n = n ( n + 1) 2 (1.3)

1.5 Un po’ di calcolo combinatorio

7

Per n = 2 la (1.3) è ovviamente vera; supponiamo che sia vera per n = k e dimostriamo che in tal caso è vera anche per n = k + 1. Infatti si ha: k ( k + 1) +k+1 = 2 k2 + 3k + 2 (k + 1)(k + 2) k (k + 1) + 2k + 2 = = . = 2 2 2 1 + 2 + 3 + · · · + k + ( k + 1) =

1.5. Un po’ di calcolo combinatorio
Come è noto, si chiama fattoriale di n (n > 1) e si scrive n! il prodotto dei primi n interi n! = 1 · 2 · 3 · · · (n − 1) · n e si pone, per definizione, 1! = 1 = 0!
1.5.1. Permutazioni

DEFINIZIONE 1.2. Si chiama permutazione di n oggetti un qualsiasi allineamento di questi oggetti. Per esempio contiamo quante sono le permutazioni delle tre lettere { a, b, c}; elenchiamole:

{ abc} { acb} {bac} {bca} {cab} {cba} quindi P3 = 6 Generalizzando, quante sono le permutazioni Pn di n oggetti? Osserviamo che il primo oggetto si può scegliere in n modi diversi, mentre per il secondo, una volta scelto il primo, posso operare n − 1 scelte, per il terzo le scelte sono n − 2 e così via, quindi Pn = n! (1.4) Consideriamo ora un’insieme I di n elementi. Scegliamo una permutazione f degli elementi di I che considereremo fondamentale. Sia ora p = { x1 , x2 , . . . , xn } un’altra permutazione. Se accade che due elementi si succedano in p in ordine inverso rispetto a come si succedono in f diciamo che essi formano una inversione o uno scambio rispetto ad f . Una permutazione p si dice di classe pari rispetto alla permutazione scelta come fondamentale f , se presenta un numero pari di scambi, di classe dispari in caso opposto. OSSERV AZIONE 1.1. Poiché scambiando due elementi si passa da una permutazione di classe pari ad una di classe dispari, il numero delle permutazioni di classe pari è uguale a quello delle permutazioni di classe dispari, cioè n! . Si può 2 anche notare che se una permutazione p è di classe pari rispetto ad una permutazione fondamentale f , essa è di classe pari rispetto a qualunque permutazione q a sua volta di classe pari rispetto ad f . 2

3! · 2! Generalizzando. per esempio consideriamo i 7 oggetti a1 . c.5) diventa P∗ n! k!(n − k )! 1. consideriamo l’insieme X ≡ { x1 . l’oggetto x2 è ripetuto n2 volte e così via (con i =1 ∑ ni = n) si ha P∗ = n! n1 !n2 ! · · · nm ! (1. Si chiama invece disposizione di n oggetti a k a k ognuno di questi raggruppamenti quando consideriamo diversi due di essi non solo se differiscono per almeno un oggetto. x2 .k = n(n − 1)(n − 2) · · · (n − k + 1) e di conseguenza Cn.k = k!Cn.2.k e Dn.5.3.k = n(n − 1)(n − 2) · · · (n − k + 1) k! . si ricava immediatamente che Dn. . a2 . b1 . Le permutazioni sono 7! = 5040 ma sei i tre oggetti b coincidono avremo 3! permutazioni non distinguibili. Permutazioni con ripetizione Consideriamo ora il caso in cui gli n oggetti non siano tutti distinti. Se indichiamo rispettivamente con Cn. ma anche se contengono gli stessi oggetti in ordine differente.5) m Nel caso particolare in cui fra gli n oggetti ce ne siano k uguali tra loro e gli altri n − k pure uguali tra loro (ma non ai precedenti) la formula ( 1. se inoltre sono uguali anche i due il numero diminuirà a 3! 6 7! elementi a abbiamo = 420. Combinazioni e disposizioni Se abbiamo n oggetti e vogliamo suddividerli in gruppi di k oggetti ognuno di questi raggruppamenti si chiama combinazione di n oggetti a k a k se due di questi raggruppamenti sono diversi quando differiscono per almeno un oggetto.k Ripetendo il ragionamento fatto per determinare il numero delle permutazioni.8 Richiami di nozioni essenziali 1. quindi 5040 7! = = 840. d. xm } se sappiamo che l’oggetto x1 è ripetuto n1 volte.5. . b2 .k il numero delle combinazioni e quello delle disposizioni di n oggetti a k a k. . dalla definizione segue subito che si ha Dn. . b3 .

. è il k–esimo coefficiente nello sviluppo della n–esima potenza di un binomio e prende perciò il nome di coefficiente binomiale. come è noto.1.k = n! = k!(n − k )! n k che.5 Un po’ di calcolo combinatorio 9 moltiplicando numeratore e denominatore per (n − k )! si ottiene Cn.

.

in generale. y = 0. y = 1 − t ∀t ∈ R. a se a = 0 e b = 0 non ammette soluzioni. un’equazione lineare ha due variabili le soluzioni sono in generale infinite. (2. se esistono. per esempio consideriamo l’equazione x+y = 1 (2. y = 1 . invece. di trovarci nel campo reale R. accanto alla (2. Questa scrittura significa che per ogni valore del parametro t esiste una soluzione1 . quindi è più propriamente un’identità. la coppia x = 1 . Sappiamo anche che una tale equazione rappresenta. .2. abbiamo quello che si chiama un sistema lineare che si indica abitualmente con la scrittura x+y = 1 .3) x−y = 0 1 Attenzione. se è in una sola incognita essa si può sempre porre nella forma ax + b = 0 A questo punto notiamo che: Se a = 0 b essa ammette sempre l’unica soluzione x = − .1) Se. ogni soluzione è formata da una coppia ordinata di numeri reali.2) anche l’equazione x − y = 1 e ci proponiamo di trovare. i cui infiniti punti hanno coordinate che sono le soluzioni dell’equazione. . . tutte le infinite coppie tali che 2 2 x = t. dei valori di x e y che soddisfanno entrambe le equazioni. Un’equazione di primo grado è anche detta lineare. y = 1. nel piano riferito ad una coppia di assi cartesiani ortogonali. e quindi. Se ora consideriamo.1. una retta. la coppia x = 0. mentre se a = 0 e b = 0 essa è soddisfatta da ogni valore di x. .2) essa ammette come soluzione la coppia x = 1. I sistemi lineari: teoria elementare 2. salvo esplicito avviso contrario. (2. Concetti introduttivi In questo capitolo supporremo sempre.

quindi esse. . un sistema si chiama lineare se tutte le equazioni da cui è composto sono lineari.5) In questo sistema appare chiaro che le due equazioni coincidono nel senso che tutte le coppie soluzione della prima equazione lo sono anche della seconda. di conseguenza non hanno alcun punto in comune.. Un altro caso è rappresentato.    am1 x1 + am2 x2 + · · · + amn xn = bm La notazione che abbiamo usato nella (2.. Parleremo allora..4) È chiaro che le due equazioni si contraddicono l’una con l’altra. quindi il sistema è impossibile.. bm . 3 Qui le due rette coincidono. di un sistema di m equazioni in n incognite4 .12 I sistemi lineari: teoria elementare Quindi un sistema di equazioni è. se si incontrano. .6) è la cosiddetta notazione a doppio indice. y = 1 2 2 soddisfa entrambe le equazioni..3) si vede facilmente che la coppia x = 1 . Nel caso del sistema (2. Le incognite sono x1 .. 4 L’interpretazione geometrica. quindi è una soluzione del sistema. per esempio. un insieme di equazioni di cui si cercano le eventuali soluzioni comuni. xn i termini noti sono b1 .. le due rette le cui equazioni formano il sistema (2. in generale. dal sistema x+y = 1 2x + 2y = 2 (2.4) sono parallele. .   a11 x1 + a12 x2 + · · · + a1n xn = b1    a x +a x +···+a x = b 22 2 2n n 2 21 1 (2. Possono però accadere altri casi: consideriamo per esempio il sistema x+y = 1 x+y = 2 (2. Queste considerazioni si possono generalizzare al caso di sistemi con un numero qualunque (finito) di incognite. nel caso di più di due incognite non è così immediata. hanno esattamente un punto in comune. . 2 . Nell’interpretazione geometrica data nella nota 2..6)  . quindi questo sistema ammette infinite soluzioni3 . Dagli esempi visti si può concludere che un sistema lineare di m equazioni in n incognite può appartenere ad una ed una sola delle seguenti categorie: Dal punto di vista geometrico basta pensare che in un sitema di riferimento cartesiano ortogonale le equazioni lineari rappresentano rette. Non è difficile rendersi conto che essa è unica2 . nel caso generale.

soluzioni che si possono determinare assegnando opportuni valori ai parametri. Un’ottima tecnica per risolvere un sistema lineare è quella di trovare un sistema equivalente a quello dato ma con una struttura più semplice. pur essendo infinite.5 sistema impossibile non esistono soluzioni comuni alle varie equazioni. possono essere determinate. infinite soluzioni dipendenti ciascuna da uno o più parametri. Ci proponiamo. locuzione che può trarre in inganno in quanto le soluzioni. anche di imparare a discuterlo.2. 5 Talvolta chiamato impropriamente sistema indeterminato.2 Risoluzione di un sistema 13 sistema possibile questo a sua volta presenta due possibilità: una sola soluzione costituita da una n–pla di valori. Ad esempio i sistemi x + 3y = 7 2x − y = 0 (1 + 6) x = 7 y = 2x x=1 y=2 sono equivalenti. se è risolubile o no. .2. Vedremo nei prossimi capitoli come si possa passare da un sistema lineare ad uno equivalente basandoci sull’osservazione che un sistema è definito quando sono dati i vari coefficienti nelle rispettive posizioni: per far questo nel prossimo capitolo introdurremo il concetto di matrice. come si verifica facilmente. cioè a scoprire a priori (quindi senza doverlo risolvere).1. che si basano tutti sull’idea di fondo che è quella di trovare un sistema che abbia le stesse soluzioni di quello dato ma sia scritto in una forma più semplice. cioè se ogni n–pla che è soluzione dell’uno lo è anche dell’altro. Risoluzione di un sistema Nelle scuole superiori avete imparato a risolvere semplici sistemi lineari con vari metodi. 2. DEFINIZIONE 2. oltre che di imparare a risolvere un sistema lineare. e quante sono le sue soluzioni. Due sistemi lineari di m equazioni in n incognite si dicono equivalenti se hanno le stesse soluzioni.

.

. . . am1 am2 . nelle loro rispettive posizioni. . È anche importante. Matrici Esistono molti metodi per applicare la strategia esposta alla fine del capitolo 2. am1 am2 . . . costruita a partire dalla A accostandole a destra la colonna B dei termini noti. .3. Nomenclatura e prime operazioni Osserviamo che un sistema è completamente determinato quando siano dati i coefficienti ed i termini noti.   . .  .6 a pagina 12). 3. per tener conto dei coefficienti e delle loro posizioni possiamo scrivere la tabella:   a11 a12 . (3.  b1 b2  . . . amn che chiamiamo matrice dei coefficienti e i termini noti possiamo incolonnarli   b1  b2  B= . n) una tabella di numeri. . . . . possiamo anche scrivere C = [ A| B]. .  .  . la matrice  a11 a12 . . Indicheremo sempre. riferendoci al sistema ( 2.  . . . a2n C= .2) amn bm detta anche matrice completa. organizzata in m righe e n colonne. .  . . Più in generale chiamiamo matrice di tipo (m. a2n  A= . . a1n  a21 a22 . per la maggior parte dei quali è comodo introdurre uno strumento matematico molto potente ed utilizzato nei più svariati campi della Matematica e di tutte le Scienze: il calcolo matriciale. . .1) . bm ottenendo la matrice (o vettore) dei termini noti. . . (3. Ad esempio. .   . . come vedremo. a1n  a21 a22 . .1. reali o complessi. . . da ora in .

come faremo d’ora in poi. meno A) la matrice che si ottiene da A cambiando segno a tutti i suoi elementi. esse. dunque B è la trasposta di A bik = aki ∀i. anzichè con . m) ottenuta scambiando ordinatamente le righe con le colonne1 . dimostrarlo per esercizio) diciamo che A è simmetrica. abbiamo indicato con − A (leggere. di tipo (n. pur essen3 4 3 4 do formate dagli stessi elementi. cioè in cui il numero delle righe è uguale a quello delle colonne. non sono uguali. n) chiamiamo trasposta di A la matrice A T .   1 2 3 Ad esempio nella matrice A = 3 4 5 si ha a32 = 6. A = B se e solo se sono dello stesso tipo e se aik = bik ∀i. m) e la trasposta di una matrice quadrata di ordine n è ancora quadrata dello stesso ordine. se  1 2 1 3 5 Ad esempio se A = 3 4 si avrà A T = . Sussiste anche la proprietà ( A T ) T = A. k. 2) cioè appartiene alla terza riga ed alla seconda colonna. in quanto il numero 6 5 6 7 è nella posizione (3. Se A = A T (il che implica che A sia quadrata. se invece A = − A T diciamo che A è emisimmetrica2 . n) in cui m = n. 2 Qui. c d Due matrici sono uguali quando sono dello stesso tipo e sono formate dagli stessi elementi nelle stesse posizioni. ad esempio scriveremo A = [ aik ] dove 1 ≤ i ≤ m e 1 ≤ k ≤ n. a b Osserviamo che in alcuni testi le matrici sono indicate con cioè con le c d a b parentesi tonde. Se A = [ aik ] è una matrice di tipo (m. k. allo stesso modo si ha: a23 = a31 = 5. La semplice dimostrazione di questa proprietà è lasciata come esercizio al lettore. L’elemento aik sarà allora l’elemento che appartiene alla i–esima riga e alla k–esima colonna. 1 La notazione A T per la trasposta di una matrice A non è univoca: a volte la trasposta viene indicata con At o con t A o anche con At o in altri modi. si chiama quadrata di ordine n. . formalmente scriviamo che se A = [ aik ] e B = [bik ] sono due matrici. Noi useremo sempre la notazione A T . 1 2 2 1 Come controesempio consideriamo le matrici e . ovviamente la trasposta 2 4 6 5 6 di una matrice di tipo (m. Una matrice di tipo (m.16 Matrici poi. n) è una matrice di tipo (n. le matrici con lettere latine maiuscole e gli elementi con lettere minuscole dotate eventualmente di due indici che ne individuano la posizione nella tabella. cioè la trasposta della trasposta di una matrice A è ancora la matrice A. ovviamente.

 . se ∀i > k si ha aik = 0 cioè se tutti gli elementi al di sopra della diagonale principale sono nulli. 1 n Per esempio se A è la matrice 1 0 la sua traccia è trA = 1 − 3 = −2. 2 −3 Sia ora A una matrice quadrata di ordine n.3. la indicheremo con I.  1 0 0 Esempio 3.1. se è diagonale e gli elementi principali (cioè gli elementi aii ) sono uguali tra loro. La matrice A = 0 0 0 è una matrice diagonale. nella tabella 3. aii = 1. mentre la ma0 0 9     −2 0 0 3 0 0 0 è una matrice scalare e C = 1 2 0 è una matrice trice B =  0 −2 0 0 −2 0 2 0 triangolare. se è scalare e ∀i.1 definiamo alcune particolari matrici quadrate.1.1 Nomenclatura e prime operazioni 17 Gli elementi aik con i = k si chiamano elementi principali o elementi appartenenti alla diagonale principale e la loro somma si chiama traccia della matrice. Osserviamo anche che una matrice diagonale è sia triangolare inferiore sia triangolare superiore. Particolari matrici quadrate diagonale scalare unità triangolare inferiore triangolare superiore se aik = 0 per ogni i = k. Osserviamo esplicitamente che non si fà nessuna ipotesi sugli elementi principali di una matrice diagonale o triangolare: essi potrebbero a loro volta essere tutti o in parte nulli. se ∀i < k si ha aik = 0 cioè se tutti gli elementi al di sotto della diagonale principale sono nulli. Tabella 3. sottintendendo l’ordine quando non c’è ambiguità. si indica con trA e si ha quindi trA = ∑ aii .

2. k.2 nella quale Tabella 3. La verifica delle proprietà della somma di matrici è quasi immediata e costituisce un utile esercizio per il lettore volenteroso. di introdurre un’“Algebra delle matrici”.18 Matrici 3. osserviamo però che in alcuni testi ma soprattutto nella scrittura a mano. OSSERV AZIONE 3. ∀i.1. Proprietà della somma di matrici i) ii ) iii ) iv) v) A + ( B + C ) = ( A + B) + C A+B = B+A A+0 = A A + (− A) = 0 ( A + B ) T = A T + BT proprietà associativa proprietà commutativa esistenza elemento neutro esistenza opposto A e B sono matrici dello stesso tipo. iniziamo con la somma di due matrici.2. ed in modo analogo si estendono le proprietà elencate nella tabella 3. Questa confusione tra simboli diversi rappresenta una pessima abitudine da perdere nel minor tempo possibile. e dove abbiamo indicato con 0 la matrice che ha tutti gli elementi nulli che chiameremo matrice nulla. come invece molti hanno l’abitudine di fare.2. che noi indicheremo sempre col simbolo 0 (in grassetto). Operazioni sulle matrici Ci proponiamo. in questo paragrafo. Somma di matrici Se A = [ aik ] e B = [bik ] sono due matrici dello stesso tipo. cioè se si ha. 3. cioè di imparare a fare dei conti con le matrici. 2 A proposito di simbologia ricordiamo che il simbolo ∅ indica l’insieme vuoto — cioè l’insieme privo di elementi — ed unicamente a tale scopo va riservato e non il numero 0.1. Attenzione! non confondere il numero zero 0 con la matrice zero (o matrice nulla). La somma di matrici si estende facilmente al caso di un numero qualsiasi di matrici. essa viene spesso indicata con 0. cik = aik + bik . La somma di matrici gode delle proprietà elencate nella tabella 3. diciamo che C = [cik ] (dello stesso tipo di A e B) è la somma di A e B e scriviamo C = A + B se ogni elemento di C è la somma degli elementi corrispondenti di A e B.2. OSSERV AZIONE 3.2.2 .

1A = A.3. An ed n scalari. A2 . Siano date n matrici dello stesso tipo A1 . Se una combinazione lineare di n matrici dà la matrice nulla anche se non sono tutti nulli i coefficienti.2. αA = 0 =⇒ α = 0 oppure A = 0. Tabella 3.1. Ovviamente. le matrici si possono definire su un campo qualsiasi K. § 7. .3. per il prodotto per uno scalare. Diciamo che la matrice B è combinazione lineare delle Ai con coefficienti αi se B= i =1 ∑ αi Ai n (3. α( A + B) = αA + βB. .2.3) dà la matrice nulla se tutti gli αi sono nulli. . non necessariamente un campo numerico come R o C e da qui il nome di scalare. . .2.2. i =1 ∑ αi Ai con qualche αi = 0 n esiste anche il prodotto scalare –v. DEFINIZIONE 3. Proprietà del prodotto per uno scalare i) ii ) iii ) iv) v) vi ) α0 = 0 = 0A. che indica un elemento del campo K. generalizzando. k. . Combinazioni lineari di matrici Le due operazioni di somma e di prodotto per uno scalare si combinano nella definizione di combinazione lineare di matrici del tutto analoga a quella di combinazione lineare di vettori che riprenderemo nel capitolo 4.2. . si ha B = αA se bik = αaik .3. αn .2 Operazioni sulle matrici 19 3. prodotto tra un numero ed una matrice: se α è un numero (o più precisamente uno scalare4 ) e A = [ aik ] è una matrice. valgono le proprietà elencate nella tabella 3. α1 . . . (α + β) A = αA + βA. DEFINIZIONE 3. α2 .3) Ovviamente la combinazione lineare (3.2 a pagina 65– da non confondere con quello che introduciamo qui 4 Il termine “scalare” nasce dal fatto che.3. (αβ) A = α( βA) = β(αA). cioè se 0= 3 Attenzione. Prodotto per uno scalare Si introduce anche un prodotto esterno o prodotto per3 uno scalare. ∀i. 3.

la matrice C = AB = [cik ] di tipo (m. allora 1 possiamo scrivere A1 = − (α2 A2 + · · · + αk Ak ). quindi A1 è combinazione α1 k α lineare delle rimanenti. 3. cioè α1 A1 + α2 A2 + · · · + αk Ak = 0. nell’ordine dato. . è diverso da zero. . La definizione di prodotto di una matrice A per una matrice B implica che il numero delle colonne della prima matrice deve coincidere con il numero delle righe della seconda. possiamo supporre. che A è conformabile con B. . Siano A e B. ed almeno il primo coefficiente. prese nell’ordine dato.3. A2 . . In caso contrario. . senza ledere la generalità. Prodotto tra matrici Il prodotto di matrici è un operazione meno intuitiva delle due precedenti. Dimostrazione. Ak sono linearmente dipendenti.4.1.2. n). . allora la combinazione lineare i =2 k A − α2 A2 − · · · − α k A k = 0 dà la matrice nulla. Se le matrici A1 . in tal caso. e si ha: A1 = − ∑ i Ai . Sul concetto di dipendenza lineare sussiste il fondamentale Teorema 3. due matrici di tipi rispettivamente (m.20 Matrici diciamo che le matrici sono linearmente indipendenti. allora esiste una loro combinazione lineare che dà la matrice nulla senza che tutti i coefficienti siano nulli. . α i =2 1 Viceversa supponiamo che A = ∑ αi Ai . . Siano A1 .2 . quello di A. diciamo prodotto righe per colonne o semplicemente prodotto delle matrici A e B. diciamo. che almeno α1 = 0. Ak k matrici dello stesso tipo. p) e ( p. esse sono linearmente dipendenti se e solo se almeno una di esse si può scrivere come combinazione lineare delle altre. dunque le matrici sono linearmente dipendenti. In virtù della proprietà commutativa. diciamo che le matrici sono linearmente dipendenti. n) se l’elemento generico cik è la somma dei prodotti degli elementi della i–esima riga di A per gli elementi della k–esima colonna di B cioè cik = j =1 ∑ aij bjk p OSSERV AZIONE 3. cioè se posso ottenere la matrice nulla solo se tutti i coefficienti sono nulli.

Si vede subito che. n) il prodotto AB è una matrice di tipo (m. .4. Per il prodotto tra matrici valgono invece le proprietà elencate nella tabella 3. Se A è di tipo (n.2 Operazioni sulle matrici 21 Esempio 3.4) AB = OSSERV AZIONE 3. p) e B di tipo ( p.4. La ( 3. pur essendo entrambe matrici quadrate ancora di ordine n.5.4. come mostra il seguente Esempio 3. ma dà luogo a due matrici quadrate certamente diverse: infatti una è di ordine n ed una di ordine p. ovviamente.4) mette in luce. Infine. uguali. mentre il prodotto BA non ha senso. anche nel caso in cui A e B siano entrambe quadrate dello stesso ordine n il prodotto AB ed il prodotto BA. in generale. p) e B è di tipo ( p.2. n) il prodotto si può fare nei due sensi. anche il fatto che per le matrici non vale la legge di annullamento del prodotto cioè che il prodotto di due matrici può dare la matrice nulla senza che nessuna delle due sia la matrice nulla. oltre alla non commutatività del prodotto di matrici. perché B non è conformabile con A. tuttavia esistono coppie di matrici A e B tali che AB = BA: esse si chiamano permutabili o si dice anche che commutano. 2) = con B e si ha a b x y z e B(2. in ciascun caso si sottintende che le uguaglianze valgono solo se sono rispettate le conformabilità. 3) = allora A è conformabile c d u v w ax + bu ay + bv az + bw cx + du cy + dv cz + dw C (2. n). Tabella 3.3. Dunque per il prodotto di matrici non vale. se A è di tipo (m. in generale. Siano A(2. 3) = AB = OSSERV AZIONE 3. non sono.3. in generale. Ad esempio la matrice I commuta con tutte le matrici del suo stesso ordine. Se A = 0 0 0 0 eB= si verifica subito che è 0 1 1 0 0 0 1 0 ma BA = 0 0 =0 0 0 (3. Proprietà del prodotto di matrici i) ii ) iii ) iv) v) vi ) A( BC ) = ( AB)C ( A + B)C = AC + BC C ( A + B) = CA + CB α( AB) = (αA) B = AαB = ( AB)α AI = I A = A A0 = 0A = 0 ( AB)T = BT AT associativa distributive associatività mista esistenza elemento neutro dove. la proprietà commutativa.

 e b una matrice di tipo (m. come si verifica facilmente su esempi che il lettore è invitato a trovare come utile esercizio5 . 1). ma in generale ( AB)n = An · Bn così come per esempio ( A ± B)2 sarà in generale diverso da A2 ± 2AB + B2 . colonne per colonne o righe per righe. . a meno che.. 1) (matrice colonna). . .22 Matrici OSSERV AZIONE 3. . x =  .6 a pagina 12 si può scrivere nella forma. A =  .  . . più comoda Ax = b  a11  a21 dove A è la matrice. amn am1 am2 . il sistema 2.2 a pagina 44) non sarebbe più vero il teorema 5.   a12 a22 . Potenza di una matrice quadrata DEFINIZIONE 3. perché è l’unico dei quattro che gode della proprietà associativa. per esempio. per esempio. A e B non commutino.  . lo stesso si può dire per il 5 Il prodotto elemento per elemento non è soddisfacente. in particolare..6.2. di tipo (m.  a1n a2n  . 5. si avrà Am · An = Am+n ( Am )n = Am·n . b =  . .  . Si chiama potenza ennesima An (n ∈ Z) di una matrice quadrata A la matrice   A · A · · · · · A se n ≥ 2    n volte n A = se n = 1 A   I se n = 0 Per la potenza di matrici valgono le usuali proprietà delle potenze.   x1 b1  x2   b2  tipo (n.3. . naturalmente.  . Osserviamo che il prodotto righe per colonne è in un certo senso “privilegiato” rispetto agli altri analoghi (di ovvio significato) colonne per righe. . . x è una matrice di . con l’attenzione alla non commutatività del prodotto.  . . . Applicando la definizione di prodotto tra matrici si vede anche che. . xn bm 3.5 a pagina 47 che dice che il determinante di un prodotto di matrici è uguale al prodotto dei determinanti. def... . per esempio perché considerando i determinanti (v. n). .5.

Bmn e Am1 Am2 . .  B12 B22 . . Polinomi di matrici Dato un polinomio di grado n a 0 x n + a 1 x 2 + · · · + a n −1 x + a n possiamo ora formalmente sostituire alla variabile x una matrice A ottenendo il polinomio matriciale a0 An + a1 A2 + · · · + an−1 A + an I.. . nei seguenti modi: d e f a b c d e f a b c d e f a b c d e f Se A e B sono due matrici dello stesso tipo posso sempre suddividere entrambe in blocchi dello stesso tipo.  . ...  A1n A2n  . . . esse si chiamano. rispettivamente.  . I polinomi di matrici sono molto usati nella teoria delle matrici ed anche nelle altre Scienze. . ad esempio la matrice a b c A= si può suddividere in blocchi. mediante linee orizzontali e/o verticali.  . .  B1n B2n  .3 Polinomi di matrici 23 prodotto ( A + B)( A − B) che. . .. Bm1 Bm2 . Osserviamo che il “termine noto” di un polinomio corrisponde al coefficiente del termine x0 . Segnaliamo anche che esistono matrici non banali tali che A2 = A e Ak = 0. ... 3. in sottomatrici che prendono il nome di blocchi.3. . Per 1 1 0 0 esempio la matrice è idempotente. Naturalmente ogni matrice può essere decomposta in blocchi in parecchi modi diversi.4. . . mentre la matrice è nilpotente: 0 0 3 0 verificarlo per esercizio.  . da qui la sostituzione con A0 = I. nella forma A2 − B2 dipende essenzialmente dalla commutatività. più precisamente possiamo supporre A11  A21 A= . matrici idempotenti e matrici nilpotenti. . . tra gli altri.3.  A12 A22 ..  . Matrici a blocchi Una matrice A può essere divisa. . 3. . . Amn B11  B21 B= .  .. . .

. . . A2p   B21 B22 .4. . come illustra il seguente Esempio 3. che   A11 + B11 A12 + B12 . . .  . . . . . . . . . moltiplicando ogni blocco per lo scalare. Am1 + Bm1 Am2 + Bm2 . . Amn + Bmn Allo stesso modo si può eseguire il prodotto per uno scalare a blocchi. . . . . . . j. . B p1 B p2 . B1r  A21 A22 . . In generale se le matrici A e B sono decomposte in blocchi nel modo seguente     A11 A12 . . . . . B2r  A= . .  e B= . . . . . k.  . . . . . . . . . . . . Siano A e B due matrici (A conformabile con B) divise a blocchi come segue     a b c x u A = d e f  B = y v  g h k z w e chiamiamo A1 = B1 = a b c d x y A2 = B2 = c f u v A3 = g h B3 = z A4 = k B4 = w allora possiamo scrivere A= A1 A2 A3 A4 e B= B1 B2 B3 B4 ed il prodotto si può eseguire a blocchi in questo modo: AB = A1 B1 + A2 B3 A1 B2 + A2 B4 A3 B1 + A4 B3 A3 B2 + A4 B4 come se i singoli blocchi fossero elementi delle matrici. . . . . . . Aqp ed i blocchi Aij sono conformabili con i blocchi Bjk ∀i. . . Per il prodotto a blocchi. k allora si può eseguire a blocchi il prodotto AB come se i singoli blocchi fossero elementi delle matrici.  . . . . . B pr Aq1 Aq2 . . . .24 Matrici dove le matrici Aik sono rispettivamente dello stesso tipo delle matrici Bik ∀i. . . A1n B11 B12 . . .  .  . . . . A1n + B1n A + B = . . . . invece. dalla definizione di somma tra matrici. . . . . occorre che le matrici siano decomposte in blocchi a due a due conformabili. . . . . A questo punto è ovvio.

iii) Siano A e B quadrate e dello stesso ordine decomposte in blocchi nel modo seguente A1 A3 B B3 A= e B= 1 0 A2 0 B2 dove A1 e B1 sono quadrate dello stesso ordine. allora si ha AB = A1 B1 A1 B3 + A3 B1 0 A2 B2 in particolare. . . m) sono due matrici tali che A sia conformabile con B e se indichiamo con B1 . se A3 = B3 = 0 si ha A1 0 0 A2 0 B1 0 A1 B1 = .3. d2 . Bn e quindi il prodotto AB si può scrivere AB = AB1 AB2 . dn ) allora dn Bn BD = DB = d1 B1 d2 B2 . nelle matrici A e/o B si possono individuare blocchi che formano la matrice nulla oppure la matrice unità o anche nei seguenti casi: i) Se A(m. . ABn Bn e D = diag(d1 . . 0 B2 0 A2 B2 3. . ii) Se ancora B = B1 B2 . iii) sostituzione di una riga (colonna) con la somma della riga (colonna) stessa con un’altra moltiplicata per una costante k. Applicazioni ai sistemi lineari 3. . . Equivalenza di matrici Si chiamano operazioni elementari sulle righe (rispettivamente sulle colonne) di una matrice le seguenti operazioni i) scambio di due righe (colonne).5. Il prodotto a blocchi è utile quando.1. . .5. . . . . Bn le colonne di B. per esempio. . p) e B( p. ii) moltiplicazione di una riga (colonna) per una costante k = 0. . possiamo scrivere B a blocchi come B = B1 B2 . . B2 .7.5 Applicazioni ai sistemi lineari 25 OSSERV AZIONE 3. .

su un esempio. 0 0 0 −9 −1 0 0 0 −2 −2 . cioè che la relazione ∼ è una relazione di equivalenza. Esempio 3. Ed è importante il Teorema 3. Se le matrici complete di due sistemi lineari sono equivalenti per righe allora i sistemi sono equivalenti. come si possa utilizzare il Teorema 3. Due matrici A e B si dicono equivalenti per righe (rispettivamente per colonne) se B si ottiene da A eseguendo un numero finito di operazioni elementari sulle righe (colonne).4.2 per la risoluzione di un sistema lineare.26 Matrici DEFINIZIONE 3. A= 1 −1 −1 0 0 1 1 1 −3 −1 Se sommiamo alla II riga di A la prima moltiplicata per −2. cioè hanno le stesse soluzioni. alla II la I moltiplicata per −1 ed alla IV la I moltiplicata per −1 otteniamo   1 1 1 −1 1 0 −1 −1 5 0  .5. Risoluzione di un sistema Vediamo ora. È facile dimostrare –farlo come esercizio– che se A ∼ B allora B ∼ A e che se A ∼ B e B ∼ C allora A ∼ C.2.5.2. 0 −2 −2 1 −1 0 0 0 −2 −2 ora se in questa nuova matrice sommiamo alla III riga la seconda moltiplicata per −2 troviamo   1 1 1 −1 1 0 −1 −1 5 0  . Scriveremo che A ∼ B. 3.5) La matrice completa è la matrice   1 1 1 −1 1 2 1 1 3 2 . Consideriamo il sistema   x+y+z−t    2x + y + z + 3t  x−y−z    x + y + z − 3t =1 =2 =0 = −1 (3.

che il concetto di rango qui anticipato può essere definito in maniera formalmente molto diversa a partire dalla definizione di determinante di una matrice quadrata. Nella risoluzione data nell’esempio 3. se A è di tipo (m. allora.6.2 il sistema (3. Il procedimento illustrato è sempre possibile in quanto sussiste il Teorema 3.3. allora esiste una matrice B ridotta per righe equivalente alla A. Possiamo ora introdurre ora il fondamentale concetto di rango di una matrice6 . .6) 6 Vedremo più avanti. a pagina 48. Sia A una matrice qualsiasi. in virtù del Teorema 3. n). vale la relazione r ( A) ≤ min(m. essa non è unica. notiamo che r ( A) è un numero intero positivo (nullo se e solo se A = 0) ed è tale che. n).  16  0 0 0 0 − 9 La matrice B è ottenuta mediante operazioni elementari dalla A quindi è ad essa equivalente. n) di elemento generico aij si dice ridotta (per righe) se in ogni riga che non contiene solo zeri esiste un elemento aij = 0 tale che per ogni k con i < k ≤ m si ha akj = 0. Si dice rango (o caratteristica) di una matrice A il numero delle righe di una matrice ridotta A1 equivalente alla A che non contengono solo zeri.5 Applicazioni ai sistemi lineari 27 2 Infine se sommiamo alla IV riga la II moltiplicata per − risulta 9   1 1 1 −1 1 0 −1 −1 5 0   B = 0 0 0 −9 −1 . dunque la definizione (3.3.5 abbiamo “ridotto” la matrice A ad una matrice equivalente “più semplice” nel senso precisato dalla seguente DEFINIZIONE 3.5. DEFINIZIONE 3.5) ha le stesse soluzioni del sistema che ha la B come matrice completa. Una matrice A di tipo (m. cioè equivale al sistema  x+y+z−t = 1    −y − z + 5t = 0  −9t = −1     16  0=− 9 che è palesemente impossibile. Siccome la matrice ridotta per righe equivalente alla matrice A dipende dalle operazioni elementari effettuate. Scriveremo r ( A) per indicare il rango della matrice A.

L’algoritmo di Gauss Ricordiamo che un sistema lineare è costituito da un certo numero m di equazioni in un certo numero n di incognite. Milano – 1910. Come abbiamo visto. Con i concetti introdotti possiamo enunciare il fondamentale Teorema 3. Una soluzione di un sistema lineare di m equazioni in n incognite è costituita.28 Matrici è ben posta solo se il numero delle righe che non contengono solo zeri di una matrice ridotta Ai equivalente ad A non dipende dalle operazioni elementari effettuate sulla matrice Ai . n) (vettore riga) o (n. 1) (vettore colonna). 1855. ma che diventano scomodi quando il numero delle incognite è superiore a 2 o 3. 8 Non si esclude. cioè r ( A ) = r ( A1 ) = r ( A2 ).1855 (Göttingen) uno dei più grandi matematici di tutti i tempi.8 Una soluzione di un sistema lineare è quindi costituita da una n–pla ordinata di valori che sostituita alle incognite soddisfa tutte le m equazioni. Siano A1 e A2 due matrici ridotte equivalenti alla stessa matrice A. Lunelle (Francia). da una n–pla ordinata di numeri. Se un sistema lineare è ottenuto da un altro con una delle seguenti operazioni: i) scambio di due equazioni ii) moltiplicazione di ambo i membri di un’equazione per una costante non nulla ROUCHE’. 3. ben noti.6. a priori. Abbiamo chiamato tale n–pla vettore. è il cosiddetto algoritmo di Gauss9 . 1832. 7 Eugene . Somméres.5 (di Rouché-Capelli). che funziona sempre. come abbiamo visto. un sistema lineare può ammettere una o infinite soluzioni oppure non esssere risolubile. Alfredo CAPELLI. Infatti si può dimostrare il Teorema 3. Un algoritmo spesso usato. che possa essere m = n.6 (di Gauss). allora il sistema è possibile se e solo se r ( A ) = r ( B ). L’agoritmo si basa sul seguente Teorema 3.4. a pagina 54. Gard (Francia) – 1910. Per risolvere un sistema lineare esistono vari metodi elementari. possiamo pensare ad un vettore come una matrice di tipo (1. Allora il numero delle righe che non contengono solo zeri è lo stesso in A1 e A2 .5 verrà data più avanti. Napoli. 9 Karl Fredrich Gauss 1777 (Brunswick) . 7 Sia A la matrice dei coefficienti di un sistema lineare e sia B la matrice completa. Una dimostrazione del Teorema 3.

Sia dato il sistema   x + 3y = 1  2x + y = −3   2x + 2y = −2 .  1  3x3 = 9 iii) aggiungiamo la prima riga moltiplicata per −1 alla seconda:    x1 + 6x2 = 9 − x2 − 2x3 = −7 .6.7.3.   3x3 = 9 Ormai il sistema è risolto: dalla terza equazione si ha x3 = 3 da cui x2 = 1 e x1 = 3.  x1 + 5x2 − 2x3 = 2   3x3 = 9 ii) moltiplichiamo la prima riga per 3:   x1 + 6x2 = 9  x + 5x2 − 2x3 = 2 .6 L’algoritmo di Gauss 29 iii) un’equazione è sostituita dalla somma di se stessa con un multiplo di un’altra. e verrà illustrato mediante alcuni esempi. Sia da risolvere il sistema  3x3 = 9    x1 + 5x2 − 2x3 = 2  1   x1 + 2x2 = 3 3 Possiamo effettuare le seguenti operazioni: i) scambiamo la prima riga con la terza:  1   x1 + 2x2 = 3  3 . L’algoritmo di Gauss funziona anche quando il numero delle equazioni è diverso dal numero delle incognite m = n Esempio 3. Esempio 3. allora i due sistemi hanno le stesse soluzioni.

è impossibile.8. come più comunemente ma meno propriamente si dice. Sia dato il sistema   x + 3y = 1  2x + y = −3   2x + 2y = 0 Sempre aggiungendo alla seconda ed alla terza riga la prima moltiplicata per −2 si ha il sistema equivalente   x + 3y = 1  −5y = −5 .   0=0 L’ultima uguaglianza è un’identità a riprova del fatto che le equazioni sono ridondanti. Esempio 3.30 Matrici in cui m > n. aggiungendo alla terza riga la seconda moltiplicata per − 4 si 5 ottiene   x + 3y = 1  −5y = −5 . Nel caso in cui il sistema fosse impossibile procedendo con l’algoritmo si arriva ad una contraddizione. però. o.   −4y = −2 a questo punto. In ogni caso. Un sistema lineare può anche avere infinite soluzioni: . proseguendo l’algoritmo si può aggiungere alla terza riga la seconda moltiplicata per − 4 5 ottenendo   x + 3y = 1  −5y = −5 . Aggiungendo alla seconda ed alla terza riga la prima moltiplicata per −2 si ha il sistema equivalente   x + 3y = 1  −5y = −5 .   0=2 Quindi una palese contraddizione: possiamo concludere dunque che il sistema dato non ammette soluzioni.   −4y = −4 A questo punto è già chiaro che l’unica soluzione è x = −2 e y = 1.

che possiamo scrivere. Consideriamo il sistema .3. come x = t y = 4 − t.6 L’algoritmo di Gauss 31 x+y = 4 ed applicando l’algoritmo di 2x + 2y = 8 x+y = 4 Gauss (sommando alla seconda riga la prima moltiplicata per −2) si ottiene 0=0 da cui si vede che la seconda equazione è inutile. Esempio 3. quindi la soluzione è data da tutte le infinite coppie di numeri che hanno come somma 4. ad esempio.9.

.

. . xn ] = [αx1 . probabilmente avrete visto i vettori in Fisica. .4. . in cui α e β sono numeri reali e v e w sono n–ple di numeri reali. . x2 . .1. Spazi vettoriali Avete già sentito parlare di vettori.1. . Definizioni e prime proprietà In generale diamo la seguente DEFINIZIONE 4. . .1. . . xn ]. . . αxn ] dove α è un numero reale qualsiasi. . . Proprietà degli spazi vettoriali i) ii ) iii ) iv) v) vi ) vii ) viii ) ix ) v + (w + u) = (v + w) + u v+w = w+v 0+v = v v + (−v) = 0 α(v + w) = αv + αw (α + β)v = αv + βv α( βv) = (αβ)v 1·v = v 0·v = 0 associatività della somma commutatività della somma esistenza del vettore nullo esistenza del vettore opposto distributività rispetto alla somma di vettori distributività rispetto alla somma di scalari associatività mista esistenza dell’unità . Completiamo e formalizziamo ora le nozioni viste. αx2 .1. y n ] = [ x1 + y1 . Chiamiamo spazio vettoriale su R e indichiamo con Rn l’insieme delle n–ple ordinate di numeri reali ed indichiamo con v ciascuna di queste n–ple. x2 . . visualizzati come segmenti orientati. . . y2 . . . Tabella 4. chiediamo inoltre che in Rn siano definite due operazioni: la somma componente per componente cioè [ x1 . 4. Le proprietà di queste due operazioni sono elencate nella Tabella 4. x2 + y2 . x n + y n ] ed un prodotto esterno o prodotto per uno scalare α[ x1 . cioè v = [ x1 . . x n ] + [ y1 . x2 . . Chiamiamo vettori le n–ple e scalari i numeri da cui essi sono formati. . .

k (4.3. in cui abbiamo indicato con 0 il vettore nullo. .3 a pagina 19 DEFINIZIONE 4. In tal caso i vettori si chiamano linearmente dipendenti in caso contrario. β ∈ K.2) è verificata quando tutti gli αi sono nulli. Può però accadere che una combinazione lineare di vettori dia il vettore nullo senza che tutti i coefficienti siano nulli.1) Fissiamo ora k vettori e consideriamo la loro combinazione lineare 0= i =1 ∑ αi vi . . • I polinomi in una indeterminata sul campo reale. . n) rispetto alle operazioni di somma e prodotto per uno scalare definite nel capitolo 3. cioè quello che ha tutte le componenti uguali a 0 e con −v il vettore opposto di v cioè quello le cui componenti sono gli opposti delle componenti di v. vk se esistono k scalari α1 . . si dice che i vettori sono linearmente indipendenti.1 nella pagina precedente.2. quindi diamo la seguente 1 Sulla 2 Per natura degli elementi di V non si fa nessuna ipotesi. Riprendiamo ora un concetto fondamentale. . Uno spazio vettoriale V su K è costituito da un insieme V e da un campo K. che godono delle proprietà i ) . vii ). poi che valgano le proprietà i)—vii) della tabella 4. si dice che il vettore w è combinazione lineare dei k vettori v1 . . rispetto alle usuali somma e prodotto per uno scalare.34 Spazi vettoriali Si verifica immediatamente che lo spazio vettoriale Rn soddisfa alle proprietà indicate in Tabella 4. αk tali che w= i =1 ∑ αi vi . verificare che un insieme V è uno spazio vettoriale bisogna verificare anzitutto che la somma di due elementi di V appartenga ancora a V e che il prodotto di un elemento di V per uno scalare sia ancora un elemento di V.1 nella pagina precedente in cui v e w sono elementi di V e α. . e scalari gli elementi del campo su cui esso è costruito. . elencate nella tabella 4. una somma ed un prodotto esterno. sugli elementi1 di V sono definite due operazioni. cioè se la (4. Gli elementi di uno spazio vettoriale V si chiamano vettori. già introdotto per le matrici nel § 3.1 nella pagina precedente. . v2 . . α2 .2) È ovvio che la (4. . Come per le matrici.2) vale solo quando tutti gli αi sono nulli. Esempi di spazi vettoriali diversi da Rn sono (verificarlo per esercizio2 ): • Le matrici di tipo (m. Si può generalizzare il concetto di spazio vettoriale su un campo qualsiasi K dando la seguente DEFINIZIONE 4.2. k (4.

infatti. Esso è del tutto analogo al Teorema 3. ad esempio. senza che siano tutti nulli i coefficienti αi Ad esempio i vettori v = [1. vk sono linearmente dipendenti significa che ∑1 αi vi = 0 con qualche αi = 0 e quindi la combinazione lineare α1 v1 + α2 v2 + · · · + αk vk + 0 · vk+1 dà il vettore nullo qualunque sia vk+1 sempre con gli stessi coefficienti non nulli. è a sua volta uno spazio vettoriale. Siano v1 . . Sottospazi e basi DEFINIZIONE 4. . 1]. . . 0] e e3 = [0. . 0] sono linearmente dipendenti. sono linearmente indipendenti.1. iii) Togliendo da un insieme indipendente un vettore qualsiasi si ottiene ancora un insieme indipendente. per esempio. vk k vettori. 1. Valgono. 0 · v + 1 · 0 è una combinazione lineare non banale che genera il vettore nullo. −1] e u = [3. 0. e2 = [0. esso è un insieme dipendente. ii) Aggiungendo un vettore qualsiasi ad un insieme linearmente dipendente. infatti si ha v + w − u = 0. 1].4. . si ottiene ancora un insieme linearmente dipendente. per la dipendenza ed indipendenza lineare. 2. . Invece i vettori e1 = [1.5. infatti. αi = 0 quindi. 2.2. .1 a pagina 20 e si dimostra allo stesso modo. . che chiameremo anche vettori fondamentali. infatti se v1 . Sia V uno spazio vettoriale. . essi sono linearmente dipendenti se e solo se almeno uno di essi si può scrivere come combinazione lineare degli altri. v2 . Un sottoinsieme W ⊆ V si chiama sottospazio di V se. w = [2. αi = 0. 0. se. significa che n n ∑1 αi vi = 0 solo quando ∀i.4.2 Sottospazi e basi 35 DEFINIZIONE 4. k v1 . vn sono indipendenti. le seguenti proprietà: i) Se un insieme di vettori contiene il vettore nullo. Sul concetto di dipendenza lineare sussiste il fondamentale Teorema 4. 0]. v2 . n vettori si dicono linearmente dipendenti se esiste una loro combinazione lineare i =1 ∑ αi vi n uguale al vettore nullo. a maggior ragione si ha ∑1 −1 αi vi = 0 solo quando ∀i. 0. 4. . rispetto alle stesse operazioni definite in V.

1 a pagina 33) valgono in W in quanto valgono in V e W ⊆ V.36 Spazi vettoriali In altre parole W è sottospazio di V se in esso continuano a valere le proprietà delle operazioni definite in V. la terza componente nulla. 1 1 n n . sono linearmente indipendenti. en } la base considerata. . v2 . ogni vettore di V si può scrivere in maniera unica come combinazione lineare dei vettori di B. Infatti le proprietà degli spazi vettoriali (quelle elencate nella Tabella 4. allora ogni vettore v ∈ V si scrive come combinazione lineare degli ei in quanto questi ultimi sono generatori. in questo caso. cioè W ⊆ V. . Sulle basi è fondamentale il teorema Teorema 4. Se V è uno spazio vettoriale e B è una sua base. αi = β i . Ad esempio in R3 il sottoinsieme W formato dai vettori le cui componenti sono numeri dispari non è un sottospazio. . vk di uno spazio vettoriale V e formiamo tutte le loro possibili combinazioni lineari otteniamo. uno spazio vettoriale W sottospazio di V. . perché la somma di due vettori cosiffatti è un vettore le cui componenti sono numeri pari e dunque non appartiene a W.2. in tal caso. DEFINIZIONE 4. Se ora consideriamo un certo numero k di vettori v1 . e quindi ∀i. si ha che tutti i coefficienti della combinazione (4. I vettori vi si chiamano. sottraendo membro a membro.3) ma poichè. In generale per verificare che un certo sottoinsieme W di uno spazio vettoriale V sia un sottospazio basta verificare che sia soddisfatta la seguente proprietà • W è “chiuso” rispetto alle combinazioni lineari. Un insieme di generatori linearmente indipendenti di uno spazio vettoriale V prende il nome di base di V.6. si avrebbe la combinazione lineare 0 = ∑ ( α i − β i ) ei (4. . se. . come è facile verificare. generatori di W. Dimostrazione. Mentre invece lo è quello dei vettori che hanno. Si osserva subito che una immediata conseguenza di questa proprietà è che il vettore nullo 0 appartiene a qualunque sottospazio (infatti si ha 0 · v = 0 qualunque sia v). gli ei in quanto vettori di una base. per ipotesi. v si potesse scrivere in due modi diversi come combinazione lineare dei vettori di B. inoltre. si avrebbe sia v = ∑ αi ei sia v = ∑ β i ei con qualche αi = β i . per esempio. Sia B ≡ {e1 . .3) devono essere nulli. cioè ogni combinazione lineare di vettori di W è ancora un vettore di W. per assurdo. .

e p +1 . . e2 . . Dobbiamo far vedere che i vettori { v 1 . Dimostrazione. . quindi l’n + 1–esimo non può essere indipendente dagli altri. . se una base di V è formata da n vettori. . per convenzione. .4) e β1 2 per l’unicità della rappresentazione di un vettore mediante gli elementi di una base. . dimensione 0. e p+1 . Dalla definizione 4. quindi che uno stesso spazio vettoriale V ha infinite basi. ma caratterizza lo spazio V e prende il nome di dimensione di V. Se β 1 = 0 allora si ha β 2 e2 + · · · + β n en = 0 e dall’indipendenza dei vettori ei segue che ∀i. . fra di essi non c’è il vettore nullo. v p . Allo stesso modo si procede sostituendo di volta in volta un’altro vettore vi ad uno della base. . come precisa il Teorema 4. . v 2 . Inoltre v1 è un vettore di V quindi v1 = ∑ α i ei 1 n (4. Lo spazio vettoriale costituito dal solo vettore nullo ha.2. Sia V uno spazio vettoriale e B = {e1 . allora qualunque base è formata da n vettori. in virtù del Teorema 4. . e2 . . .2 Sottospazi e basi 37 Se in uno spazio vettoriale esiste una base B formata da n vettori. . v p sono p ≤ n vettori indipendenti. . . . sia β 1 v1 + β 2 e2 + · · · + β n en = 0. en } sia ancora una base per V. . β i = 0. di più sussiste anche il Teorema 4.4) in quanto gli ei formano una base.6 segue inoltre che qualunque insieme di vettori indipendenti generatori V costituisce una base per V. allora si possono scegliere n − p vettori di B in modo che l’insieme {v1 . . v2 . v2 . en } formano a loro volta una base: consideriamo una loro combinazione lineare che dia il vettore nullo. e n } sono indipendenti e che generano tutto V. . v p . allora possiamo sostituire p ≤ n vettori di B con altrettanti vettori indipendenti ed ottenere ancora una base. Si può anche osservare che se V è uno spazio vettoriale di dimensione n allora qualsiasi insieme di k < n vettori indipendenti può essere completato ad una base di V aggiungendo altri n − k vettori indipendenti. come combinazione lineare degli n vettori della base. . Dimostrazione. concludiamo che i vettori sono indipendenti. . . Infatti è facile vedere che qualunque (n − k)–pla di vettori non può generare tutto V e viceversa che ogni insieme di n + 1 vettori è formato da vettori linearmente dipendenti in quanto ogni vettore di V si esprime. Se v1 .3.4.4. . . Poiché i vi sono indipendenti. Mostriamo che {v1 . . Sia V uno spazio vettoriale. . Se fosse 1 n invece β 1 = 0 potrei scrivere v1 = − ∑ β i ei ma ricordando che vale la (4. en } una sua base. Il numero n dei vettori di una base non dipende allora dalla scelta della base stessa.

in quanto vettori di V si esprimono come combinazione lineare dei vettori ei di B. OSSERV AZIONE 4. .  ..2. ....38 Spazi vettoriali OSSERV AZIONE 4. . in uno stesso spazio vettoriale V... en } e B { f 1 . Noi ci occuperemo quasi esclusivamente di spazi vettoriali di dimensione finita.. . Quindi V = P ( x ) rappresenta un’esempio di spazio vettoriale di dimensione infinita. .. .. Da quanto detto si deduce anche che in uno spazio vettoriale V di dimensione n.. . f n } due basi distinte di uno stesso spazio vettoriale V.. an1 an2 · · ·  a1n a2n  . . . nel caso in cui questo sia l’unico vettore in comune si dice che sono disgiunti e si scrive V ∩ W = {0}: abbiamo già osservato che l’insieme formato dal solo vettore nullo è considerato uno spazio vettoriale. Sorge il problema di come si possa. I vettori f i . ..1. come mostra il seguente . tuttavia se si suppone che esistano p polinomi che generano V e se n è il grado massimo di questi polinomi.  . .. ann costituisce la matrice di passaggio dalla base B alla base B . ma è facile rendersi conto che esistono spazi vettoriali che non hanno dimensione finita... Tutti gli spazi vettoriali fin qui considerati hanno dimensione n finita. .. passare da una base ad un’altra.. .  .. per esempio se V = P ( x ) è l’insieme dei polinomi in una ideterminata sul campo reale con le usuali operazioni di somma e di prodotto per uno scalare si vede subito che V è uno spazio vettoriale. . è ovvio che nessun polinomio di grado m > n può essere generato da questi.     f n = an1 e1 + an2 e2 + · · · + ann en La matrice dei coefficienti del sistema (4. È facile verificare che l’intersezione insiemistica V ∩ W di sottospazi è a sua volta un sottospazio (dimostrarlo per esercizio). . cioè quali siano le relazioni che legano i vettori di una base a quelli di un’altra....5)  a11 a12 · · ·  a21 a22 · · · A= . Invece l’unione di due sottospazi non è detto sia un sottospazio: infatti potrebbe non essere chiusa rispetto alle combinazioni lineari... qualunque n–pla di vettori indipendenti forma una base per V...5) .. due spazi vettoriali V e W hanno sempre in comune almeno il vettore nullo. Siano B {e1 . quindi si ha il sistema lineare:   f 1 = a11 e1 + a12 e2 + · · · + a1n en     f 2 = a21 e1 + a22 e2 + · · · + a2n en (4.

Se V e U sono due sottospazi di uno stesso spazio vettoriale diciamo che W è somma di U e V se i vettori di W sono tutti e soli quelli che si esprimono come somma di un vettore di U e di uno di V cioè W = U + V = {w|w = u + v.7. DEFINIZIONE 4. z] | x = y} formato dai vettori di R3 che hanno le prime due componenti uguali e W = {[ x. se e solo se i due spazi sono disgiunti. come nel caso precedente dim(V ) ≥ 2 e così via. Sia V uno spazio vettoriale di dimensione n e sia W un suo sottospazio allora i) W ha dimensione finita ii) dim(W ) ≤ dim(V ) iii) se dim(W ) = dim(V ) allora W = V Dimostrazione. se w1 genera W allora dimW = 1 e poiché in V vi è almeno un vettore indipendente segue che dimV ≥ 1 e quindi la i ) e la ii ) sono dimostrate.1. con u ∈ U. y. Sussiste infatti il . Se invece w1 non genera W allora esiste in W almeno un altro vettore w2 indipendente da w1 .5. allora si ha V ∪ W = {[ x.2 Sottospazi e basi 39 Esempio 4. questo avviene. in questo caso diciamo che la somma è diretta e scriviamo U ⊕ V. Se W = {0} la i ) e la ii ) sono ovvie. z] | z = 0}. Se w1 e w2 generano W allora dim(W ) = 2 e. Naturalmente non è detto che la scomposizione del vettore w sia unica. Sulla dimensione dei sottospazi di uno spazio vettoriale sussiste anche il Teorema 4. 1] ∈ V e w = [1. quindi è dimostrata anche la iii ). quindi v + w ∈ V ∪ W. 0] ∈ W osserviamo che sia v sia w appartengono a V ∪ W. ma il vettore v + w = [1. Consideriamo in R3 i due sottospazi V = {[ x. Sia quindi w = {0} e sia w1 un vettore di W. Dunque l’insieme V ∪ W non è chiuso rispetto alla somma e di conseguenza non è un sottospazio di R3 . Il procedimento ha termine per un certo numero m ≤ n grazie al fatto che in V non possono esserci più di n vettori indipendenti.4. formato dai vettori di R3 che hanno la terza componente nulla.1 generano anche V. Se inoltre dim(W ) = dim(V ) significa che W è generato da n vettori indipendenti. 1] non ha uguali le prime due componenti nè ha la terza componente nulla. y. v ∈ V } Si dimostra facilmente (farlo per esercizio) che la somma di sottospazi è a sua volta un sottospazio. però. z] | x = y oppure z = 0} e se prendiamo v = [0. 0. che per l’oservazione 4. y. Un’altra operazione tra sottospazi è la somma di sottospazi. 0. 0.

.2. cioè la dimensione della somma diretta di due sottospazi è uguale alla somma delle loro dimensioni.1 si vede subito che gli elementi non certamente nulli in T n ed in Tn sono: 1 nella prima riga 2 nella 3 Herrmann Günther GRASSMANN. e sia v ∈ V. che diventa. Dimostrazione. Dalla figura 4.6). allora anche i vettori u + z e w − z. dunque dev’essere u = u e w = w . per definizione di somma di sottospazi esiste una coppia di vettori u ∈ U e w ∈ W tali che v = u + w.6. Vogliamo verificare la (4. Stettino (Germania- odierna Polonia).40 Spazi vettoriali Teorema 4. Sia T n lo spazio vettoriale delle matrici triangolari alte e sia Tn quello delle triangolari basse. Matrici triangolari Esempio 4. Supponiamo per assurdo che esista un vettore z ∈ U ∩ W diverso dal vettore nullo. Viceversa supponiamo che sia v = u + w in un unico modo e facciamo vedere che U ∩ W = {0}. se la somma è diretta.6) Figura 4. dim(U ⊕ V ) = dimU + dimV. allora la scomposizione v = u + w con u ∈ U e w ∈ W è unica se e solo se V = U ⊕ W. da cui segue che il vettore u − u appartenendo sia a U che a W e di conseguenza alla loro intersezione è il vettore nullo.   • • •    • • •  • • • • n elementi (4. Sia V = U ⊕ W. Siano U e W due sottospazi di V.1. infatti se fosse anche v = u + w (con u ∈ U e w ∈ W) si avrebbe u + w = u + w e quindi u − u = w − w. dobbiamo dimostrare che tale coppia è unica. appartenenti rispettivamente a U e W avrebbero come somma v contro l’ipotesi dell’unicità della decomposizione. Stettino (Germania-odierna Polonia) – 1877. 1809. Sulla dimensione dello spazio somma di due sottospazi vale la relazione (di Grassmann3 ) dim(U + V ) = dimU + dimV − dim(U ∩ V ). Osserviamo che T n ∩ Tn = Dn dove con Dn abbiamo indicato lo spazio vettoriale delle matrici diagonali e che Mn = T n + Tn lo spazio vettoriale delle matrici quadrate è somma (non diretta) di quello delle matrici triangolari basse e di quello delle matrici triangolari alte.

2 2 n ( n + 1) . si ha n2 = n ( n + 1) n ( n + 1) + − n. quindi in totale si ha 1 + 2 + · · · + n = n ( n + 1) che dim( Tn ) = dim( T n ) = .4.2 Sottospazi e basi 41 seconda ecc. applicando la ( 4. dunque possiamo dire 2 .6 a fronte). inoltre dim( Dn ) = n e dim( Mn ) = n2 ed 2 infatti.

.

Per far questo introduciamo prima una notazione: se A è quadrata di ordine n chiameremo minore complementare dell’elemento aik e lo indicheremo con Mik il Osserviamo che il determinante della matrice A = 1 Se a b quadrata di ordine 2.1. 5. | A|. z t Diamo ora una definizione ricorsiva che permette di calcolare il determinante di una matrice di ordine qualsiasi quando si sappia calcolare il determinante di una matrice di ordine 2. x y si può indicare in z t x y uno qualsiasi dei seguenti modi: det A. 5. cominciando con il definire il determinante di una matrice di ordine 2 ed osservando come si può estendere questa definizione al caso di una matrice di ordine qualsiasi. allora il determinante c d 1 −2 1 −2 è det( A) = = 3 1 3 1 le matrici sono definite su un campo qualsiasi K il codominio sarà K.1. Sia A = di A è det( A) = ad − bc. DEFINIZIONE 5.1.1. Il determinante di A è il valore di una funzione che ha come dominio Mn e come codominio R o C (a seconda che gli elementi di A siano numeri reali o complessi1 ). . Esempio 5.5. Determinante e rango di una matrice. Definizione ricorsiva Definiamo il determinante in maniera ricorsiva.1. Matrice inversa Sia Mn l’insieme delle matrici quadrate di ordine n ed A ∈ Mn . Il determinante della matrice A = 1 · 1 − (−2) · 3 = 7. Definizioni di determinante Definiremo il determinante di una matrice quadrata prima in maniera ricorsiva poi in maniera classica. . quindi det : Mn → R oppure det : Mn → C. det( A).

2.3. Se A = x y z 2 3 a b è A11 = = 2z − 3y e quello dell’elemento a23 = 3 è A23 = − = y z x y −( ay − bx ) = bx − ay. Sia da calcolare il determinante di A = 2 0 −1 1 considerazione la prima riga: abbiamo che il determinante di A è uguale a 1 3 2 3 2 1 1· −0· + (−1) · = 1 · 4 − 0 · 2 + (−1)(−2) = 6. col segno opposto se i + k è dispari.1 nella pagina precedente ed applicare la ricorsione data nella definizione 5.1. Avremmo −1 1 0 1 0 −1 potuto pervenire allo stesso risultato scegliendo un’altra qualsiasi riga o colonna (si consiglia di provare per esercizio). 5. Definizione classica DEFINIZIONE 5. basta saper calcolare il determinante di una matrice di ordine 2 con la definizione 5.2. cioè Aik = (−1)i+k Mik .1) cioè il determinante è la somma dei prodotti degli elementi di una linea (riga o colonna) per i rispettivi complementi algebrici. con il proprio segno se i + k è pari. a loro volta questi si determinano calcolando al più n − 1 determinanti di matrici di ordine n − 2 e così via. chiamiamo prodotto associato ad A il prodotto di n elementi di A presi in modo tale che in ciascuno di essi non ci siano due elementi appartenenti alla stessa riga od alla stessa colonna. Chiamiamo poi complemento algebrico dell’elemento aik (e lo indicheremo con Aik ) il determinante della sottomatrice (di ordine n − 1) che si ottiene da A cancellando la i–esima riga e la k–esima colonna. La definizione 5. Matrice inversa determinante della sottomatrice che si ottiene da A cancellando la i–esima riga e la k–esima colonna. in pratica. DEFINIZIONE 5. possiamo calcolare un certo numero (al massimo n) di determinanti di matrici di ordine n − 1.2. Sia A una matrice quadrata di ordine n: si ha det( A) =  k =1 ∑ aik Aik n (5. Se A è una matrice quadrata di ordine n.3. prendiamo in Esempio 5.  a b c  1 2 3 allora il complemento algebrico dell’elemento a11 = a Esempio 5. quindi.44 Determinante e rango di una matrice.2. . che per calcolare il determinante di una matrice quadrata di ordine n.   1 0 −1 1 3 . in sostanza.2 ci dice.

5. . .4. per esempio i prodotti a2z e x y z b1z ma non a1y e neppure c3x Se consideriamo la generica matrice di ordine n   a11 a12 . . a2n  A= . cioè. . j 2 Pierre-Simon Laplace. Francia . La somma dei prodotti degli elementi di una linea (riga o colonna) per i complementi algebrici degli elementi di una linea parallela è nulla. . ann un prodotto associato può essere indicato con a1k1 a2k2 · · · ankn che abbiamo ordinato in ordine crescente rispetto ai primi indici e dove {k1 k2 . an1 an2 . Faremo uso anche del Teorema 5. Francia-5 March 1827 in Parigi. Si chiama determinante della matrice quadrata A la somma di tutti i possibili prodotti associati ad A. Sia A una matrice quadrata di ordine n: si ha det( A) = k =1 ∑ aik Aik n (5. . .   . Possiamo ora dare la definizione classica di determinante DEFINIZIONE 5. .2 (Secondo teorema di Laplace). a1n  a21 a22 . . . Con questa impostazione la definizione 5. .1 Definizioni di determinante 45  a b c Esempio 5.  .4.2) ∑ aij Akj = 0. .23 Marzo 1749 in Beaumont-en-Auge. k n } è una opportuna permutazione dei secondi indici. formalmente det A =  ∑(−1)t · a1k1 a2k2 · · · ankn dove la somma è estesa a tutte le permutazioni dei secondi indici e t è il numero degli scambi che la permutazione dei secondi indici presenta rispetto alla prima. . . cioè (5. . presi ciascuno con il proprio segno o con il segno opposto a seconda che la permutazione dei secondi indici sia di classe pari o di classe dispari.1) cioè il determinante è la somma dei prodotti degli elementi di una linea (riga o colonna) per i rispettivi complementi algebrici.1 (Primo teorema di Laplace2 ). . Se A =  1 2 3 sono prodotti associati.2 a fronte diventa un teorema che prende il nome di Teorema 5. . Normandia.

Diamo un cenno della dimostrazione di alcune delle proprietà: i ) è insita nella definizione 5. iii) Se una colonna di A è nulla. si ottiene una matrice B tale che det( B) = det( A). iv) Se ad una colonna di A si somma una combinazione lineare di altre colonne. . cioè det( A) = 0. È possibile ridurre e semplificare di molto questi calcoli applicando alcune proprietà dei determinanti che si dimostrano facilmente e che sono elencate nel: Teorema 5. per quanto riguarda la ii ) si osserva che scambiando tra loro due colonne cambia la parità di i + k e quindi il segno del determinante.. allora sussistono le seguenti proprietà: i) det( A) = det( A T ). ix) Il determinante di una matrice triangolare (in particolare diagonale) è il prodotto dei suoi elementi principali.2. v) Se due colonne di A sono uguali allora A è singolare. per la vi ) basta sviluppare il determinante rispetto alla colonna moltiplicata per α. cioè il determinante di una matrice è uguale a quello della sua trasposta. tutto quello che da qui in poi diciamo sulle colonne vale anche sulle righe. vi) Moltiplicando per un numero α una colonna di A si ottiene una matrice B tale che det( B) = α det( A).2. Proprietà del determinante Dalla definizione 5. Sia A una matrice quadrata di ordine n. la vii ) è conseguenza della vi ) e della v). la viii ) segue dalla vi ) notando che ogni colonna è moltiplicata per α la ix ) deriva dalla definizione classica e dal fatto che nelle matrici triangolari l’unico prodotto associato non certamente nullo è quello formato dagli elementi principali. viii) Se B = αA allora det( B) = αn det( A). la v) è conseguenza della ii ) (perché?).2 si ricava. allora det( A) = 0 e la matrice si chiama singolare. vii) Se due colonne di A sono proporzionali allora A è singolare.3. come già detto. Matrice inversa 5. 3 In forza della proprietà i ). che calcolare il determinante di una matrice di ordine n equivale a calcolare al più n determinanti di ordine n − 1 e quindi al più n(n − 1) di ordine n − 2 e così via. Dimostrazione.46 Determinante e rango di una matrice. per la iii ) basta pensare di sviluppare il determinante rispetto alla colonna nulla. ii) Scambiando tra loro due colonne3 di A si ottiene una matrice B tale che det( B) = − det( A).

5 (di Binet4 ). 4 Jacques (5. det( A + B) = det( A) + det( B). Dunque per calcolare det( A) possiamo limitarci a calcolare un solo determinante di ordine n − 1.4. . allora det( A · B) = det( A) · det( B). i vettori che formano le colonne di A.3 nella pagina precedente si ricava anche l’importante risultato dato dal Teorema 5.5. .   1 1 −1 Esempio 5. France . in generale. Come esercizio verificare la ( 5. Una matrice è singolare se e solo se le sue colonne (righe) formano un sistema di vettori linearmente dipendenti. Se A e B sono due matrici quadrate dello stesso ordine. di cui diamo solo l’enunciato Teorema 5.3) Il teorema 5. Per il prodotto di matrici vale il seguente teorema. iterando il procedimento possiamo calcolare il determinante di A calcolando un solo determinante di ordine 2. se alla seconda riga sot1 1 1   1 1 −1 0 1 0 che ha lo stesso determinantraiamo la prima otteniamo la matrice B = 1 1 1 te di A e che possiamo sviluppare secondo gli elementi della seconda riga ottenendo 1 −1 det( A) = det( B) = 1 =2 1 1 Dal Teorema 5. France–12 May 1856 in Paris.2 Feb 1786 in Rennes.4) su qualche esempio.2 Proprietà del determinante 47 Osserviamo che applicazioni successive della proprietà iv) del Teorema 5. ATTENZIONE l’analogo del Teorema di Binet per la somma di matrici in generale non vale cioè si ha che.3 ci permettono di passare dalla matrice A ad un altra matrice avente lo stesso determinante di A e che ha una linea formata da elementi tutti nulli tranne al più uno.5. . . per le proprietà. Dimostrazione. (5. . .4) Philippe Marie BINET. Consideriamo la matrice A = 1 2 −1 . quindi la matrice è singolare per la proprietà. Se i vettori colonna sono linearmente dipendenti allora uno di essi è combinazione lineare degli altri. . viceversa se det( A) = 0 allora.5 si estende facilmente ad un numero qualsiasi di matrici quadrate dello stesso ordine. Bretagne.

. ( a n − a n −1 ).... n)) il determinante di una qualunque sottomatrice quadrata di A formata da k righe e k colonne di A. y z x z 1 3 DEFINIZIONE 5.. France . . .. .6 a pagina 27. Dunque il Teorema 5. si chiama minore di ordine k (k ≤ min(m. ... . n) (quindi non necessariamente quadrata). 28 Feb 1735 in Paris.. Se A =  1 2 3 allora sono minori del secondo ordine i determinanti x y z 2 3 a c a b oppure invece il determinante non lo è.. .5. 5 Alexandre-Théophile Vandermonde..   a b c Esempio 5. 5. ( a3 − a2 ) . ( a2 − a1 )( a3 − a1 ) .3. ATTENZIONE non è richiesto che le k righe e le k colonne siano adiacenti.6.. ma che si dimostra facilmente essere ad essa equivalente.. .48 Determinante e rango di una matrice. a n ) = . [di rango] Si chiama rango o caratteristica di una matrice di tipo (m.. ... Se A è di tipo (m... France – 1 Jan 1796 in Paris. n) l’ordine massimo dei minori non nulli che si possono estrarre da A. . n a 1 −1 n a 2 −1 . an a2 1 a2 2 . . Il determinante di Vandermonde è uguale a zero se e solo se almeno due dei suoi argomenti sono uguali. a2 n . . .... .6. a n ) = .. Rango di una matrice Siamo ora in grado di dare un’altra definizione di rango. . come esercizio) che: V ( a1 . . . . . Per far ciò dobbiamo premettere una definizione DEFINIZIONE 5.6. 1 a1 a2 . a n −1 n in cui la prima colonna è formata da tutti 1 (a0 ∀i) e le altre colonne sono le i successive potenze della seconda colonna. .. formalmente diversa dalla definizione 3... esso prende il nome di determinante di Vandermonde5 . si verifica molto facilmente (farlo. . Matrice inversa Consideriamo ora il determinante 1 1 V ( a1 .

r ( A) ≤ min(m. già vista. al quale dobbiamo però premettere la . Calcolo del rango Per calcolare il rango di una matrice di tipo (m. Questo procedimento può essere molto abbreviato applicando il Teorema di Kroneker 5.7. allora la matrice A|b. rispettivamente) segue l’importante Teorema 5. Sempre dalle proprietà dei determinanti e da quelle del rango (Teoremi 5. se “vediamo” un minore di ordine p < k non nullo esamineremo tutti quelli di ordine p + 1: se sono tutti nulli il rango è p altrementi sarà r ≥ p + 1 e così via. ottenuta completando la A con la colonna b.3 a pagina 46. 5. ha rango r se e solo se b è combinazione lineare delle colonne di A.4 a pagina 47 e 5. n). n). l’aggiunta di una colonna non può far diminuire il rango e lo aumenta se e solo se la colonna è indipendente dalle altre. se invece sono tutti nulli passeremo ad esaminare quelli di ordine k − 1 e così via. Dalla definizione segue subito che se A è quadrata di ordine n allora essa ha rango n se e solo se è non singolare. Osserviamo che per il rango di una matrice valgono. mentre si parla di determinante solo per le matrici quadrate.6 nella pagina precedente significa dunque che se dalla matrice A possiamo estrarre un minore di ordine k non nullo e tutti i minori di ordine più grande di k sono nulli.1. La definizione 5. si osserva subito che r ( A) ≤ 3. ma si vede 3 1 4 2 anche che il minore formato dalle prime tre colonne è diverso da 0.3. Due importanti proprietà del rango di una matrice sono: i) Due matrici ottenute una dall’altra mediante uno scambio di righe o colonne hanno lo stesso rango. allora r ( A) = k. 5.3 a pagina 46 e dal Teorema 5. che si ricavano immediatamente dal Teorema 5. n) dobbiamo esaminare tutti i minori di ordine k = min(m. n): se ce n’è uno non nullo il rango è k. e che.9 nella pagina successiva. vale la relazione.5.8. sia A = 0 1 0 3.4 a pagina 47.3 Rango di una matrice 49 Osserviamo esplicitamente che la definizione di rango si applica ad una matrice qualsiasi. ii) Il rango di una matrice è uguale al numero di righe o di colonne linearmente indipendenti presenti nella matrice stessa. se A è di tipo (m. Se la matrice A ha rango r e b è un vettore colonna.7. tra le altre. dunque r ( A) = 3. oppure. le seguenti proprietà. Teorema 5.7. non necessariamente quadrata.   1 2 3 4 Esempio 5. Dimostrazione.

Una proprietà del rango del prodotto di due matrici. . quindi 2 ≤ r ( A) ≤ 3. pertanto la riga e la colonna che completano possono anche essere “interne” come nel seguente   1 2 3 4 5 3 5 Esempio 5.9 (di Kroneker6 ). spesso utile nelle applicazioni. Sia A una matrice qualsiasi e sia M una sua sottomatrice.   1 0 3 2 Ad esempio vogliamo il rango della matrice A = 2 3 0 1. x z t Siamo ora in grado di enunciare (senza dimostrazione) il seguente utlissimo Teorema 5. Se in una matrice A esiste un minore M non nullo di ordine p e tutti i minori che orlano M sono nulli. ottenendo  a c e . Il teorema 5.9 possiamo limitarci a controllare se sono nulli i due minori del terz’ordine che orlano M (anziché controllare tutti e quattro i minori del terz’ordine di A). Liegnitz. una sua sottomatrice è M = z t x y z k t   3 4 5 che può essere orlata con la seconda riga e la quarta colonna di A ottenendo  c d e  z k t   1 3 5 oppure con la seconda riga e. II e III     1 0 3 0 3 2 colonna e dalla II. Matrice inversa DEFINIZIONE 5. allora il rango di A è p. Ovviamente la sottomatrice M non è detto sia formata da righe o colonne che in A sono adiacenti. III e IV. Prussia – 1881. in quanto in entrambi la terza riga è la somma delle prime due. dunque r ( A) = 2. Si osserva 3 3 3 3 3 0 subito che il minore M = è diverso da 0. 1813. è espressa dal seguente 6 Leopold KRONEKER. cioè: M1 = 2 3 0 e M2 = 3 0 1 entrambi 3 3 3 3 3 3 palesemente nulli. Se A è la matrice  a b c d e .8. per esempio la prima colonna.50 Determinante e rango di una matrice. orlare M significa completare la sottomatrice M con una riga ed una colonna di A non appartenenti a M.7. Berlino.9 permette quindi di limitare il controllo dei minori di ordine p + 1 a quelli che orlano il minore M. i minori che ci interessano sono quelli formati dalla I. In 3 3 virtù del Teorema 5.

4.. 0 0 . . . Al primo quesito risponde il seguente Teorema 5. .1. cioè αik = Aki . A · A∗ =  .11.. una matrice B tale che A·B = B·A = I prende il nome di inversa di A. Una matrice A è invertibile se e solo se è non singolare.4 Matrice inversa 51 Teorema 5.4. Il rango del prodotto di due matrici A e B non supera il rango di ciascuna delle due. Allora se cik è il generico elemento della matrice AA∗ si ha cik = ∑ aij α jk = ∑ aij Akj = j j = questo significa che det A 0 se i = k.2 det( A) 0 . Sorge il problema di stabilire quali siano le matrici invertibili e quante inverse esse abbiano. .5 a pagina 47 si ha det( A · B) = det( A) · det( B) = det( I ) = 1 dunque. . det( A)    = det( A) · I  A∗ è un’inversa di A. supponiamo che det( A) = 0. 5.  0 det( A) .5. Una matrice che ammette inversa è detta invertibile.1 . se i = k. Definizione e proprietà Sia A una matrice quadrata di ordine n.  . secondo Teorema di Laplace 5. . nè A nè B possono essere singolari.10. il cui elemento generico αik è il complemento algebrico dell’elemento aki . che equivale a scrivere r ( AB) ≤ min (r ( A). .. Dimostrazione. cioè r ( A · B) ≤ r ( A) e r ( A · B) ≤ r ( B). per la legge di annullamento del prodotto. . consideriamo la matrice A∗ . Matrice inversa 5. det( A) .. detta matrice dei complementi algebrici. . . .  e quindi che la matrice 0 0 . primo Teorema di Laplace 5. Se A ammette come inversa B allora AB = I e dal Teorema (di Binet) 5. Viceversa. r ( B)) . cioè se e solo se det( A) = 0.

dal teorema di Binet si ricava che il prodotto di matrici non singolari è non singolare e si può scrivere B−1 A−1 AB = B−1 ( A−1 A) B = B−1 B = I in cui abbiamo applicato l’associatività del prodotto. indicata con A −1 . ii) Se A è invertibile. .5 a pagina 47). Dimostrazione.13. allora BA = CA implica B = C. essa è unica. Per esercizio dimostrare che A−h pensata come inversa di Ah è anche la potenza h–esima di A−1 . Matrice inversa Al secondo quesito risponde il Teorema 5. per l’associatività del prodotto di matrici. allora AB = AC implica B = C. b) A è invertibile. Concludiamo il capitolo osservando che anche per le matrici non singolari si può parlare di potenza ad esponente negativo. d’ora in poi. c) B è invertibile. ( BA) B = ( BA)C da cui B = C. B( AB) = B( AC ) e. iv) Se A e B sono invertibili. e allora A è la matrice nulla. moltiplicando a sinistra per B. iv) Infatti. definendo A−h come l’inversa di Ah . Per le matrici invertibili valgono le seguenti proprietà: i) Se A è invertibile. Le principali proprietà delle matrici invertibili sono date dal Teorema 5. ii) Basta moltiplicare a destra ambo i membri per A−1 . e allora B è la matrice nulla. iii) Se AB = 0 almeno una delle due matrici è singolare per il Teorema di Binet ( 5. allora il prodotto AB è invertibile e si ha ( AB)−1 = B −1 A −1 . Dimostrazione. L’unica inversa di una matrice invertibile A sarà. i) Basta moltiplicare a sinistra ambo i membri per A−1 .12. iii) Se A e B sono due matrici quadrate tali che AB = 0 allora sussiste uno ed uno solo dei seguenti casi a) né A né B sono invertibili. Dimostriamo il teorema per assurdo e supponiamo che B e C siano due inverse di A. allora si ha: AB = I = AC ma anche. Se l’inversa di A esiste.52 Determinante e rango di una matrice.

Ginevra – 1752. det( A) .2 a pagina 44. In questo caso sussiste il Teorema 6. il det( Ai ). ciascuno dei componenti del quale è. det( A) dove Ai è la matrice ottenuta dalla A sostituendo al posto della i–esima colonna la colonna dei termini noti. Per un generico sistema lineare. di cui qui diamo una dimostrazione basata sulla definizione di rango 5. come Ax = b e la matrice A è.6. 1 Un sistema lineare di n equazioni in n incognite Ax = b la cui matrice dei coefficienti sia non singolare ammette una ed una sola soluzione costituita dalla n–pla x1 = det( A1 ) .5 a pagina 28) di Rouché-Capelli. moltiplicando a sinistra per A−1 entrambi i membri. per ipotesi. per l’appunto. Il sistema può essere scritto. 6. Ricordiamo che. e non è applicabile a sistemi di grado superiore al primo. xn = det( An ) .1 (di Cramer). Teoremi sui sistemi lineari Cominciamo a considerare il caso particolare di un sistema in cui il numero delle equazioni (diciamo n) è uguale a quello delle incognite. in cui il numero delle equazioni non è necessariamente uguale a quello delle incognite.5: 1 Gabriel CRAMER.6 a pagina 48 che abbiamo visto nel capitolo precedente. non singolare.. ricordando la definizione 5. . Ricordiamo l’enunciato del Teorema 3. det( A) x2 = det( A2 ) . Ma ricordando che A−1 = si ha x = A∗ b. Dimostrazione. Bagnols sur Céze (Francia). vale il Teorema ( 3. det( A) det( A) osserviamo ora che A∗ b è un vettore colonna. in particolare per decidere quando un sistema è possibile e quante soluzioni ammette. A−1 Ax = A−1 b e A∗ 1 quindi x = A−1 b. in forma matriciale. ..1. Allora si ha. questa teoria si riferisce solo ai sistemi lieari. cioè per studiare la teoria dei sistemi lineari. 1704. dunque esiste A−1 . Teoria dei sistemi lineari Abbiamo ora in mano tutti gli strumenti necessari per completare lo studio dei sistemi lineari.

il Corollario 6.1 nella pagina precedente).5) che un sistema omogeneo è sempre possibile ed ammette sempre come soluzione banale il vettore nullo. Sia Ax = b un sistema lineare di m equazioni in n incognite. Poichè aggiungendo ad una matrice una colonna nulla il rango non cambia.1. e le altre n − r incognite si possono considerare come parametri. che indicheremo con Ai . quindi si possono trascurare.54 Teoria dei sistemi lineari Teorema (3.1) si può scrivere come A1 x1 + A2 x2 + · · · A n x n = b e quindi ci dice che il sistema è possibile se e solo se b è combinazione lineare delle colonne Ai . Se r = n il sistema equivale ad un sistema di r equazioni in r incognite con matrice dei coefficienti non singolare. Siamo quindi interessati ad eventuali soluzioni non banali (dette anche autosoluzioni). quindi ammette una ed una sola soluzione per il Teorema di Cramer ( 6.5 di Rouché–Capelli).1) un sistema lineare di m equazioni in n incognite e immaginiamo di scrivere la matrice A = [ A1 A2 . . Un sistema omogeneo di m equazioni in n incognite ammette autosoluzioni se e solo se r ( A) < n. esistono esattamente r equazioni e r incognite indipendenti. Un sistema lineare possibile di m equazioni in n incognite in cui il rango della matrice dei coefficienti sia r < n ammette ∞n−r soluzioni. il sistema Ax = 0 si chiama omogeneo. dunque OSSERV AZIONE 6. Se il vettore b = 0 è il vettore nullo. esso ammette soluzioni se e solo se r ( A) = r ( A|b) dove con A|b abbiamo indicato la matrice ottenuta da A completandola con la colonna dei termini noti. sia dalla definizione di rango data nel precedente capitolo. in virtù del Teorema 5. Ma allora.5. Sia Ax = b (6. .1. .8 a pagina 49 questo accade se e solo se il rango di A è uguale al rango della matrice completa. segue dal teorema di Rouché-Capelli ( 3.2. Una semplice conseguenza del Teorema di Cramer (6. An ] scomposta in blocchi formati ciascuno da una delle sue colonne.1) è il Corollario 6.3. dunque le altre m − r equazioni sono combinazione lineare delle r indipendenti e non dicono nulla di nuovo. Allora la relazione (6. Un sistema omogeneo di n equazioni in n incognite Ax = 0 ammette soluzioni non banali se e solo se det( A) = 0. cioè infinite soluzioni dipendenti da n − r parametri. Segue anche. Dimostrazione. sia dal Teorema 3. Segue immediatamente dalla definizione (e dal teorema 3. che se un sistema possibile ha rango r.5 a pagina 28) e dall’Osservazione 6.

ha rango 3 e quindi il sistema è impossibile. Se la matrice completa (di ordine 3) non è singolare.6. z = 1 − k. applichiamo quindi il Teorema di Cramer. Consideriamo il sistema   hx + z = h  (h + 2) x + 3y = 3 . sono infinite. Esempio 6. Per h = −4 il sistema diventa   4x − z = 4  2x − 3y = −3   6y − z = 5 in cui la matrice dei coefficienti ha rango 2 mentre quella completa ha rango 3. x= (h − 1)(h + 4) Per h = 1 si ha h h 1 h+2 3 0 0 h−1 1 y= . che. Discutiamo il sistema   hx + (h + 2)y = 0  ( h + 2) y = h   ( h + 1) x = 1 di tre equazioni in due incognite. pertanto il sistema è impossibile.1 Teoremi sui sistemi lineari 55 Se il rango della matrice dei coefficienti è r allora il sistema possiede n − r soluzioni indipendenti.1. Il determinante dei coefficienti è: h 0 1 h +2 3 0 0 h −2 1 = (h − 1)(h + 4).   ( h − 2) y + z = h − 1 Si tratta di un sistema di tre equazioni in tre incognite. sono combinazioni lineari delle precedenti. nel senso che tutte le altre. ricordiamo. (h − 1)(h + 4) che ammette le ∞1 soluzioni x = k. y = 1 − k. perché la matrice dei coefficienti è di tipo . Quindi per h = 1 e h = −4 il sistema ammette una ed una sola soluzione: h 0 1 3 3 0 h−1 h−2 1 . Esempio 6. (h − 1)(h + 4)  x+z = 1  x+y = 1  y−z = 0 h 0 h h+2 3 3 0 h−2 h−1 z= .2.

2) Infatti. z = 1. OSSERV AZIONE 6. Consideriamo un sistema lineare S : Ax = b. y = 0. Esempio 6.3. y = t.56 Teoria dei sistemi lineari (3. e di conseguenza ha rango al più uguale a 2. z = 1 − t. per h = −2 si ha   x=0  0 = −2   −x = 1 manifestamente impossibile (verificare che in questo caso i due ranghi sono diversi). . viceversa se Ax = b si ha A( x − x1 ) = Ax − Ax1 = 0. Se si conoscono la soluzione generale x0 del sistema omogeneo associato ed una soluzione particolare x1 del sistema S .2. il sistema lineare omogeneo Ax = 0 che ha la stessa matrice dei coefficienti si chiama sistema omogeneo associato a S . y = 1 + t. che ammette dunque ∞1 soluzioni. z = −t dunque la soluzione generale del sistema dato sarà x = 0. Per trovare la soluzione generale consideriamo il sistema omogeneo ad esso associato che è: x + 2y + 2z = 0 2x + y + z = 0 la cui soluzione generale è x = 0. y = 1. si ha A( x0 + x1 ) = Ax0 + Ax1 = b e. 2x + y + z = 2 di due equazioni in tre incognite la cui matrice dei coefficienti ha rango 2. la soluzione generale di quest’ultimo si può esprimere come x = x0 + x1 (6. Si consideri il sistema x + 2y + 2z = 4 . Per tutti gli altri valori il sistema è certamente impossibile. 2). posto x0 = x − x1 si ha x = x0 + x1 . ricordando che Ax0 = 0. Si vede subito che una soluzione particolare è data dalla terna x = 0. nel nostro caso h = 0 e h = −2. e quindi. Per h = 0 il sistema diventa  y = 0  y=0  x = 1 e quindi la soluzione è x = 1. quindi i valori di h per cui il sistema può essere possibile sono da ricercare solo tra quelli che annullano il determinante della matrice completa.

e si indica con dom f e l’insieme B si chiama codominio di f . 7. viceversa. alcuni usati più propriamente in contesti particolari. Generalità Ricordiamo che usualmente si scrive f : A → B oppure A→ B intendendo dire che stiamo considerando la funzione f dell’insieme A nell’insieme B. Osserviamo che la suriettività dipende dal codominio. l’elemento x di A di cui y è immagine si chiama controimmagine di y. perché. talvolta sottintendendo. Se accade che Im( f ) = B la funzione si chiama suriettiva.7. Abitualmente una funzione tra spazi vettoriali si chiama più propriamente applicazione. per esempio f (−3) = f (3) = 9 cioè esistono elementi distinti del dominio che hanno la stessa immagine e non è nemmeno suriettiva. L’elemento y = f ( x ) appartiene a B e si chiama immagine di x mediante f . Applicazioni lineari. L’insieme di tutti gli elementi del codominio che sono immagini di qualche elemento del dominio A si chiama immagine di f e lo denoteremo con Im A ( f ). cioè una funzione è suriettiva se tutti gli elementi del codominio hanno una controimmagine. morfismo. tra i tanti ricordiamo applicazione. prodotto scalare Il concetto di applicazione o funzione1 è uno dei più importanti e dei più generali di tutta la Matematica. Dunque una funzione è data quando sono dati: la legge rappresentata dalla f . corrispondenza. cioè se f ∀ x = x ∈ de f ( f ) =⇒ f ( x ) = f ( x ) allora la funzione si chiama iniettiva. infatti. Una funzione che sia suriettiva ed iniettiva è detta biiettiva o biunivoca. ecc. nella notazione.1. Ad esempio la funzione f : R → R data da f ( x ) = x2 non è iniettiva. Se invece due elementi distinti dell’insieme di definizione hanno sempre immagini distinte. il dominio ed il codominio. Da quanto detto si ha subito che Im( f ) ⊆ B. operatore. L’insieme A si chiama dominio della funzione f . il dominio di f . mappa. mentre l’iniettività dal dominio della funzione. trasformazione. −1 appartiene al codominio di f ma non ha controimmagine nel dominio. per esempio. se ora invece cambiamo il codominio e consideriamo sempre la sessa funzione 1 Sono moltissimi i sinonimi del vocabolo funzione. .

prodotto scalare f : R → R+ con f ( x ) = x2 allora la f non è iniettiva ma è suriettiva. Invece l’applicazione f : R → R tale che [ x. con V e W). − → −− −→ − f (αv) = α f (v) che si può scrivere anche come − −−−−−−− → − → −− − → −− f ( α v1 + β v2 ) = α f ( v1 ) + β f ( v2 ). Il nucleo di un’applicazione lineare V →W tra due spazi vettoriali V e W è un sottospazio di V. nucleo. (b + d)2 ]. è anche importante il sottoinsieme del dominio dato dalla DEFINIZIONE 7. y] → [ x + y. Esempio 7.1. L’applicazione R2 → R2 che associa al vettore v = [ x. b] e w = [c.58 Applicazioni lineari. cioè se ∀v1 . v2 ∈ V e ∀α ∈ K. a2 + c2 ] che è − −−−− → diverso da f (v + w) = [b + d. x2 ] non è lineare. appunto. come è facile verificare. Infatti se v = [ a.1. d] −→ − −→ − −→ − → − − si avrà f (v) = [b. y] il vettore −→ − f (v) = [y. c2 ] e quindi f (v) + f (w) = [b + d. Abbiamo già parlato dell’immagine di f . la funzione f : R+ → R data da f ( x ) = x2 è iniettiva ma non suriettiva. si dice che f : V → W è un’applicazione lineare o un Omomorfismo tra due spazi V e W se f conserva le combinazioni lineari. rispettivamente. che è un sottoinsieme del codominio. x − y] è lineare ma questa verifica la lasciamo come esercizio. Se dominio e codominio sono spazi vettoriali su uno stesso campo K (che indicheremo. . Si chiama nucleo dell’applicazione V →W e si indica con Ker f 2 il sottoinsieme di V formato dagli elementi che hanno come immagine lo zero di W: −→ − Ker f = {v ∈ V | f (v) = 0W } È molto facile dimostrare il Teorema 7. a2 ] e f (w) = [d. 2 Dalla f f parola inglese kernel che significa.1. viceversa se cambiamo il dominio. dove K è il campo su cui è costruito lo spazio vettoriale si ha: − −−−−− → − → − → −− −− f ( v1 + v2 ) = f ( v1 ) + f ( v2 ).

y] nel vettore [ x + y. Un’applicazione lineare V →W è: i) suriettiva se e solo se Im f = W. Sia f iniettiva. − a]. La dimostrazione è lasciata come esercizio . ovviamente. 0] non è iniettiva. − → − → −− −− Viceversa sia Ker f = {0V } e sia f (v1 ) = f (v2 ) allora si ha. allora. b. L’immagine dell’applicazione lineare V →W è un sottospazio di W. perché il nucleo è formato da tutti i vettori del tipo [ a. Altrettanto facile è dimostrare il Teorema 7. . come abbiamo detto prendono il nome di applicazioni biunivoche o isomorfismi. perché il vettore [ a. d] è un isomorfismo (dimostrarlo per c d esercizio). . Basta far vedere che il nucleo è chiuso rispetto alle combinazioni lineari: infatti se v1 e v2 sono vettori del nucleo.2. tali applicazioni. . per l’iniettività. la i ) segue dalla definizione di suriettività. poiché il vettore nullo appartiene al nucleo si ha − → −− f (0V ) = 0W e. b] con b = 0 non è immagine di alcun vettore del dominio. ii) iniettiva se e solo se Ker f = {0V } cioè il nucleo consiste solo nel vettore nullo. per la linearità di f . − −−−−−−− → − → −− − → −− f (αv1 + βv2 ) = α f (v1 ) + β f (v2 ) = α0W + β0W = 0W quindi anche αv1 + βv2 è un vettore del nucleo. si ha. . basta far vedere che l’immagine è. v1 − v2 = 0V da cui v1 = v2 .7. per l’ipotesi. quindi l’applicazione è iniettiva. ad esempio l’applicazione M2 → R4 che associa alla a b matrice quadrata il vettore [ a.3.1 Generalità 59 Dimostrazione. Il nucleo e l’immagine di un’applicazione lineare sono legati all’iniettività ed alla suriettività dal Teorema 7. − → − → − −− −− −−−−− → f (v1 ) − f (v2 ) = f (v1 − v2 ) = 0W e quindi v1 − v2 ∈ Ker f . Dimostriamo quindi la ii ). f f . dunque. . per esempio l’applicazione R2 −→ R2 che manda il vettore [ x. Da questo teorema segue anche. sfruttando la linearità di f . non può esistere un altro vettore v tale che −→ − f (v) = 0W con v = 0V . Dimostrazione. Naturalmente non tutte le applicazioni lineari sono iniettive o suriettive. nè suriettiva. Dimostrazione. Esistono anche applicazioni lineari che sono simultaneamente suriettive ed iniettive. che il vettore nullo appartiene al nucleo. c.

. che è f ( a1 e 1 + · · · + as e s ) = 0W . si scrive come combinazione lineare dei vettori di B . È molto utile nelle applicazioni il Teorema 7. se f (e1 ).. . si ottiene che a1 e1 + · · · + as es = 0V e dalla indipendenza lineare degli ei si ottiene che a1 = a2 = · · · = as = 0. f (es ) sono linearmente indipendenti. a2m  Γ= . . matrici. . en } di V ed una base B = {e1 e2 . . . ... .1.. . Dimostrazione. em } −→ − −−→ di W. . . . .1. .. per la linearità di f . . dunque si ha il sistema  −→ −  f (e1 ) = a11 e + a12 e + · · · + a1m em  2 1   −→  −  f (e2 ) = a21 e1 + a22 e2 + · · · + a2m em  . anm .60 Applicazioni lineari. . Da a1 f (e1 ) + · · · + as f (es ) = 0W segue. Sia inoltre B = {e1 . .. tenendo conto che la somma di sottospazi considerata è una somma diretta. e2 .... . Sia U uno spazio supplementare di Ker f cioè sia U tale che V = Ker f ⊕ U. f (en ) sono i trasformati mediante la f dei vettori di B è chiaro che ciascuno di essi. .. . Applicazioni lineari. a1m  a21 a22 . Se f : V → W vale la relazione dim(V ) = dim(ker f ) + dim( Im f ) cioè la somma tra dimensione del nucleo di una applicazione lineare e la dimensione dell’immagine uguaglia la dimensione di V.. in altre parole quando si conoscono i trasformati mediante f dei vettori di una base di V... ..    −−→   f (en ) = an1 e1 + an2 e2 + · · · + anm em La matrice dei coefficienti di questo sistema lineare   a11 a12 . e sia dim(U ) = s. appartenendo a W... .. . .4... . eq } una base di V tale che i suoi primi s vettori costituiscano una base di U ed i successivi q − s vettori siano −→ − −→ − una base per ker f : dimostriamo che i vettori f (e1 )..... ..  . . 7. . prodotto scalare −→ − Se f : V → W e f (v) = w può esistere una applicazione g : W → V tale che −→ − g(w) = v in tal caso si dice che g è l’applicazione inversa di f e si indica con f −1 . Consideriamo una base B = {e1 .. .  . sistemi È facile rendersi conto che un’applicazione lineare f tra due spazi vettoriali V e W è nota quando si sa come si trasformano i vettori di una base di V. an1 an2 . . dunque a1 e1 + · · · + as es ∈ ker ( f ) ∩ U e quindi.. . .. . ..

però. 0] essa è lineare (verificarlo per esercizio). 0] −→ [0. Prodotto scalare. in cui n e m sono rispettivamente le dimensioni di V e di W.2. rispetto alle basi canoniche. è 0 1 . è quella che si chiama matrice associata all’applicazione f rispetto alle basi B e B . 0. Si ha e1 = [1. norma 7. 0] = e1 e2 = [0.2 a pagina 72.  7. inoltre si ha e1 = [1. 1. 1] −→ [1. Consideriamo l’applicazione f : R2 → R2 che manda il vettore v = −→ − [ x.2. 0. È noto. Sia ora f : R3 → R2 tale che [ x. m). ricordando che anche il cambiamento di base si rappresenta mediante una matrice. 1 1 Scegliendo basi diverse la matrice associata ad f ovviamente cambia.2.1. 0] = e1 e quindi la matrice associata a f rispetto alle basi canoniche è Γ = 1 0 . Norma di un vettore in R2 o R3 Riprendiamo ora lo studio dei vettori da un punto di vista più geometrico. Si può anche dimostrare che se A è la matrice associata all’applicazione f : V → W la dimensione dell’immagine di f è il rango di A cioè r ( A) = dim( Im f ) rispetto ad una qualunque coppia di basi. per esempio dalla Fisica. Le matrici associate ad una applicazione lineare. y + z]. Esempio 7. si capisce che la matrice Γ associata ancora ad f rispetto a due nuove basi è legata alla Γ dalla relazione Γ = MΓN dove M e N sono le matrici del cambiamento di base in V ed in W. hanno tutte lo stesso rango. nel caso particolare in cui V ≡ W le matrici associate ad una stessa applicazione lineare sono tutte simili3 . rispetto a qualunque scelta di basi. 0] = e1 e2 = [0. norma 61 di tipo (n. .3. che spesso è comodo visualizzare un vettore del 3 Il concetto di matrici simili verrà introdotto nel paragrafo 8. 0] −→ [1. 1] = e2 e3 = [0. di più.2 Prodotto scalare. y] nel vettore f (v) = [ x + y. y. 1 0 Esempio 7. 0] −→ [1. 1] = e1 + e2  1 0 dunque la matrice associata a questa applicazione. z] → [ x + z. 1] −→ [1.7.

esso è completamente individuato dal suo secondo estremo. per comodità perpendicolari. y sono le coordinate 4 da 5 cioè Cartesio: Renée DESCARTES. una direzione ed un verso (o orientamento). yz). come illustrato nella Figura 7. se ora consideriamo.62 Applicazioni lineari. per esempio: x P = distanza ( P. se le tre rette si chiamano rispettivamente x. come già detto. caratterizzata da una lunghezza. passanti tutte e tre per un medesimo punto. prodotto scalare piano o dello spazio come una “frecciolina”. dove. Un sistema di riferimento cartesiano ortogonale Nello spazio la generalizzazione non è immediata: bisogna considerare come assi tre rette orientate concorrenti5 e a due a due perpendicolari e chiamare coordinate cartesiane del punto P le tre distanze di P dai tre piani che queste rette a due a due formano. Stoccolma (Svezia). La Haye (Francia) – 1650. in cui x. Il punto P può anche essere visto come il secondo estremo di un vettore spiccato dall’origine. due rette. 1569. in R2 scriviamo quindi OP = v = [ x. ad ogni punto del piano corrisponde una coppia ordinata di numeri reali. Così facendo abbiamo fissato quello che si chiama un sistema di riferimento cartesiano4 ortogonale. e fissiamo su ciascuna di esse un’unità di misura (in genere la stessa). invece. che.1. y]. Abbiamo già visto che i punti di una retta orientata possono essere messi in corrispondenza biunivoca con i numeri reali.1. è completamente individuato dalle sue − → coordinate. . si vede subito che se il vettore v è spiccato dall’origine. con yz abbiamo indicato il piano individuato dai due assi y e z . Figura 7. y e z si ha.

y) nel sistema di riferimento scelto. La regola del parallelogrammo per la somma di vettori .2 Prodotto scalare. z] in cui le coordinate cartesiane del punto P( x.2 Le operazioni tra vettori che abbiamo imparato a conoscere nei paragrafi precedenti si visualizzano tra i vettori geometrici. norma 63 cartesiane del punto P( x. y. mettendo così in luce che si tratta di un vettore del piano. y. La somma di due vettori si definisce con la regola del parallelogrammo vedi la figura 7. y. Figura 7.7. vedi la figura 7.3 Figura 7. cioè di R2 . z. z) sono x.3. Un sistema di riferimento cartesiano ortogonale nello spazio − → In modo analogo parliamo di vettori nello spazio come di vettori di R3 : OP = v = [ x.2.

dove. z] + [ x . Se identifichiamo gli elementi dello spazio vettoriale R2 con i segmenti orientati spiccati dall’origine. Le prime tre proprietà sono banali. z ] = [ x + x . y + y . x 2 + y2 (7. λy.2) La norma verifica le proprietà elencate nella tabella 7. λ = 0 allora λOP è il vettore nullo. (7. e non solo in Rn come vedremo più avanti). y] = [λx. λy] e [ x. y . z] = [λx. λ < 0 allora λOP è il vettore OP con la lunghezza moltiplicata per |λ| e di verso opposto. y. z + z ] in R3 . y] ∈ R2 come v = [ x.1) . z] = x 2 + y2 + z2 . Anche i concetti di dipendenza ed indipendenza lineare hanno una facile interpretazione geometrica. y. per noi. Definiamo allora la norma di un vettore v = [ x. λz] e [ x. y ] = [ x + x . si nota che ad ogni vettore di R2 risulta associato un numero reale non negativo: la lunghezza del segmento OP. y] = e in R3 v = [ x. nel piano riferito ad un sistema di coordinate cartesiane ortogonali. la quarta è la disuguaglianza triangolare che abbiamo già visto.64 Applicazioni lineari. y. V ≡ R2 oppure V ≡ R3 (in realtà si puo dare una definizione di norma e di prodotto scalare in uno spazio vettoriale qualsiasi. prodotto scalare Per il prodotto di un vettore per uno scalare λ prendiamo in considerazione i tre casi seguenti: λ > 0 allora λOP è il vettore OP con la lunghezza moltiplicata per λ. Queste operazioni corrispondono alle operazioni già viste λ[ x. y + y ] in R2 e λ[ x. infatti si vede subito che in R2 due vettori sono linearmente dipendenti se e solo se stanno su una stessa retta ed in R3 tre vettori se e solo se sono complanari.1 nella pagina successiva. y] + [ x .

≤ d(u. [ x2 . y2 ] = x1 x2 + y1 y2 = x1 y1 e in R3 il numero reale v. = d(v.5) x2 = vwT y2 (7. v ∀v = u ∀u. y1 . ∀u. w le proprietà elencate nella tabella 7.3) coincide con quella usualmente definita. y1 ]. 7.2 Prodotto scalare.3) si verifica immediatamente che valgono per ogni u. v).2 (caratterizzanti una distanza). Proprietà della distanza di due punti i) ii ) iii ) iv) d(u. [ x2 .2. Tabella 7. ∀v ∈ V e ∀λ ∈ R. la distanza definita dalla (7. u). w = [ x1 . Proprietà della norma di un vettore i) ii ) iii ) iv) v ≥0 v = 0 ⇐⇒ v = 0 λv = |λ| · v u+v ≤ u + v .2. v. v) d(u. norma 65 Tabella 7. = 0 ⇐⇒ v = u. Prodotto scalare Definiamo prodotto scalare6 di due vettori v = [ x1 .2. ∀v ∈ V. ∀v ∈ V. .1.4) 6 Da non confondere con il prodotto per uno scalare: si noti che il prodotto scalare ·. v) d(u. v ∈ V. y2 ] di R2 il numero reale v. z2 ] = x1 x2 + y1 y2 + z1 z2 = x1 y1 z1   x2  y2  = v w T z2 (7. Infatti se poniamo d(u. w = [ x1 .7. v ∀v. v) = u − v (7. w) + d(w. w Osserviamo esplicitamente che se si identificano R3 e R2 con lo spazio ed il piano riferiti a coordinate cartesiane ortogonali. v) ≥ 0. y2 . · associa ad una coppia ordinata di vettori un numero reale. u. ∀u. Dalle proprietà della norma appare chiaro come si può definire una distanza in R2 o in R3 . z1 ]. v) d(u. mentre il prodotto per uno scalare associa ad una coppia scalare–vettore un vettore. y1 ] e w = [ x2 .

7) nostro caso un numero reale. 4] = 4 · 0 + 3(−3) + (−1)4 = −13 oppure 2 −3 . il prodotto scalare come è stato definito dalle (7. w ∈ V tenendo conto della definizione. v. e la cui dimostrazione è proposta come esercizio. v = u · v cos ϕ dove ϕ ∈ [0. in quanto. u λv. in virtù dell’isomorfismo tra M1 ed R. Per esempio [4. v = v. prodotto scalare Occorre precisare che. nota 4 a pagina 19). pensando v come matrice costituita da una sola riga e wT come matrice di una sola colonna. 7 nel (7. v ∈ V e ∀λ ∈ R ∀u. Proprietà del prodotto scalare i) ii ) iii ) iv) v) u. −3. che. u = λ v. Allora u. u = u. possiamo ritenere equivalenti.66 Applicazioni lineari. 3 1 = 2(−3) + 3 · 1 = −3 (nel secondo esempio abbiamo usato vettori colonna.3 semplicissime da dimostrare Tabella 7. .5) equivale al prodotto vwT . v + u. 3. v ∈ V ∀u. λv u.4) e (7.3. in questo contesto. w ∀u ∈ V ∀u ∈ V ∀u. delle due notazioni). per sottolineare l’assoluta intercambiabilità. u = u . π ] è l’ampiezza dell’angolo fra i due segmenti. formalmente. Siano u e v due vettori di R2 o di R3 e si considerino i segmenti orientati ad essi associati nel piano o nello spazio riferiti a sistemi di coordinate ortogonali. v + w = u. In realtà questa equivalenza è solo formale. Sussiste il seguente Teorema 7.5. Il prodotto scalare è legato alla norma dalla relazione u. in quest’ultimo caso. (7.6) Inoltre valgono le proprietà elencate nella tabella 7. [0. u = 0 ⇐⇒ u = 0 u. otteniamo una matrice composta da un solo elemento: uno scalare7 (v. u ≥ 0 u. −1].

0. j con i.7. v 13 l’angolo fra i due segmenti orientati sarà tale che cos ϕ = = −√ . <− 2 2 4 6 290 Un vettore u = [ a. Si dice che n vettori v1 . 0]. . La dimostrazione è un’immediata conseguenza del Teorema del coseno e delle proprietà del prodotto scalare. (Verificarlo per esercizio) . v = 1 · 2 + (−3)5 = −13.8) u.2. vogliamo conoscere l’angolo ϕ che formano i segmenti orientati ad essi associati. Osserviamo che vettori ortogonali sono sempre indipendenti. abbiamo a che fare con una base ortonormale. 1] e prendono il nome di coseni direttori del vettore u. . Ogni vettore non nullo può essere normalizzato dividendolo per la propria v v = = 1. v2 . mentre non vale in generale il viceversa.4. n. u · v 290 √ √ 13 3π 5π 3 2 osservando che − < −√ si deduce che <ϕ< . 0] ed e3 = [0. cioè se u = 1. 2 Segue immediatamente dal Teorema 7. 1.2 Prodotto scalare. b e c di u sono i coseni degli angoli che u forma con i versori fondamentali e1 = [1. quindi se a2 + b2 + c2 = 1. .5 che u. v = 0 ⇐⇒ ϕ = scriveremo dunque v ⊥ u ⇐⇒ se il loro prodotto scalare è nullo Il discorso si generalizza: π con u = 0. v = 0 cioè due vettori sono ortogonali se e solo DEFINIZIONE 7. infatti è facile verificare che v v Due vettori diversi dal vettore nullo si dicono perpendicolari o ortogonali se π l’ampiezza dell’angolo tra u e v è ϕ = . b.9) per ogni i. v = 0 2 (7. Dal Teorema 7.5 si ricava che le componenti a. Se i vi sono anche normalizzati (cioè sono dei versori) diciamo che sono ortonormali. 5]. j = 1 . . vn sono mutuamente ortogonali se vi . v j = 0 (7. . Esempio 7. Inoltre u = 10 e v = 29 dunque u. c] si dice unitario o versore se ha norma 1.. norma. Una base ortogonale è una base costituita da vettori mutuamente ortogonali. . il √ prodotto loro √ scalare è u. e2 = [0. norma 67 Dimostrazione. −3] e v = [2. 0. Siano dati in R2 i due vettori u = [1. se i vettori sono anche normalizzati.

e3 . prodotto scalare Esempio 7. e2 = [−1. 1]. [6. 3. ei ei è la componente del vettore v nella direzione di ei o anche che è la proiezione ortogonale di v sulla retta su cui giace il vettore ei .5: abbiamo e1 . e3 e2 + e3 = 2 88 5 e3 . e3 = 88. [−1. −4. ei . 0. 0. ei | · ei = v · ei 2 · | cos ϕi | = v · | cos ϕi |. 2. lo stesso risultato si trova applicando il teorema 7. e2 = 2. 5] usando i risultati trovati e la (7. 6]} è una base ortogonale ma non ortonormale (verificarlo per esercizio).6.5: v.10) significa che v. Sia B la base ortogonale B = {e1 = [1. e2 . In generale dati due spazi vettoriali sul medesimo campo K un’applicazione g da V × W a K per cui valgano le proprietà elencate nella tabella 7. Esempio 7. 3. 11 Dal punto di vista geometrico la (7. e3 = [6. e3 } una base ortogonale. si possono determinare in maniera semplice i coefficienti della combinazione lineare: Teorema 7.6. 7.3. w) essendo v ∈ V. Generalizzazioni Il concetto di prodotto scalare è molto più generale di quello qui definito (che è il prodotto scalare standard in uno spazio vettoriale isomorfo a R2 od a R3 ).68 Applicazioni lineari. 1]. ei λi = . Come è noto la proiezione ortogonale ha lunghezza v · | cos ϕi |. Sia {e1 . 1]. se la base è ortogonale o ortonormale. Se v = [3. Ricordiamo che si chiama prodotto cartesiano di due insiemi V e W e si indica con V × W l’insieme delle coppie ordinate (v. (7. −4.5. 6]} dell’esempio 7. e2 v. ei se invece la base è ortonormale λi = v.10) si ha v = v. ei ei = | v. 1].10) ei . e w ∈ W. e1 e1 + 11 14 e1 + e2 + = 11 v. e2 . allora v = λ1 e1 + λ2 e2 + λ3 e3 in cui v. Sappiamo che in uno spazio vettoriale ogni vettore si può esprimere come combinazione lineare dei vettori di una base. e1 = 11.4 . In R3 la base B = {[1.

w ∈ W si chiama simmetrica. Uno spazio vettoriale in cui sia stato definito un prodotto scalare si chiama euclideo. w ∈ W ∀v ∈ V. w2 ) g(αv. y = [ x1 . w) = g(w. w ) = g ( v1 . w1 ) + g(v. v) ∀v ∈ V. x2 ] · 2 1 y · 1 . w ∈ W. w ) + g ( v2 .4.7. Sia V uno spazio vettoriale euclideo e sia U un suo sottospazio. il lettore verifichi che il prodotto scalare standard definito nel paragrafo precedente è una forma bilineare simmetrica che gode delle proprietà i ) e ii ) Come esempio si verifichi che in R2 è un prodotto scalare x. Un’applicazione bilineare tale che si abbia g(v. nello stesso senso si parla talvolta anche anche di forma multilineare). v ) 2 la dimostrazione. cioè uno spazio vettoriale dotato di un prodotto scalare. Sia V uno spazio vettoriale euclideo.3 Generalizzazioni 69 Tabella 7. Come utile esercizio. Proprietà delle forme bilineari i) ii ) iii ) g ( v1 + v2 . è un semplice calcolo basato sulla bilinearità e sulla simmetria del prodotto scalare. w) ≥ 0 ∀v. w ) g(v.7. w1 . w) = g(v. w ∈ V ii) g(v. allora si ha: 1 ( u + v. u + v − u. w2 ∈ W ∀v ∈ V. Indichiamo con ⊥ l’insieme di tutti i vettori di V che sono ortogonali a vettori di U (rispetto ad U un fissato prodotto scalare) e lo chiamiamo complemento ortogonle di U (rispetto a quel certo prodotto scalare) u. α ∈ K si chiama applicazione o forma bilineare (nel senso che è lineare rispetto a tutt’e due le variabili. w1 + w2 ) = g(v. w) ∀v1 . 1 5 y2 Ovviamente due vettori ortogonali rispetto ad un prodotto scalare possono non esserlo rispetto ad un altro. v = . Quando parleremo di vettori ortogonali senza precisare rispetto a quale prodotto scalare ci riferiremo sempre al prodotto scalare standard. w) con v. Un’ applicazione bilineare simmetrica g : V × V → R per cui sia i) g(v. v) = 0 ⇐⇒ v = 0 si chiama prodotto scalare e si preferisce indicare g(v. che il lettore è invitato a scrivere in maniera esplicita. w . v2 ∈ V. αw) = αg(v. u − v. Per i prodotti scalari vale il Teorema 7.

.

(8. Dimostrazione. Attenzione! L’inverso del Teorema 8.1 e dal teorema di Binet 5.2 non vale: cioè esistono matrici che hanno lo stesso determinante e non sono simili. Si vede subito che Teorema 8. nella (8. È immediato dimostrare il Teorema 8.1) . Infatti ogni matrice è simile a se stessa (basta prendere.1. Matrici simili. infine da P−1 AP = B e Q−1 BQ = C si ha Q−1 P−1 APQ = C dunque.2.1) come matrice di passaggio la matrice I).1.5 a pagina 47 si ricava che det( P−1 AP) = det B det( P−1 ) · det A · det P = det B e la tesi segue immediatamente dal fatto che det( P−1 ) det P = 1. Diciamo che la matrice A è simile alla matrice B se esiste una matrice di passaggio P. Matrici simili Siano A e B due matrici quadrate di ordine n DEFINIZIONE 8.1. non singolare.8. È un utile esercizio trovare degli esempi di questo fatto. ricordando che P = ( P−1 )−1 si ricava subito che se A è simile a B con matrice di passaggio P allora B sarà simile ad A con matrice di passaggio P−1 . Siano A e B le due matrici. Dalla formula 8. La similitudine di matrici è una relazione di equivalenza. Autovalori ed autovettori di una matrice quadrata 8. tale che P−1 AP = B. Dimostrazione. ricordando che ( PQ)−1 = Q−1 P−1 si conclude che A è simile a C con matrice di passaggio PQ. Due matrici simili hanno lo stesso determinante.

fissata la trasformazione. cioè. Sappiamo che un tale sistema ammette soluzioni non banali se e solo se il determinante della matrice dei coefficienti è nullo. ..4) .. . . . Autovalori ed autovettori di una matrice quadrata 8. . . . che prende il nome di polinomio caratteristico della matrice A ed i cui zeri sono tutti e soli gli autovalori di A. λ − ann che è un polinomio di grado n nella variabile λ con coefficiente direttore2 uguale a 1. ci chiediamo se ci sono vettori che. . Fissata la A ci chiediamo se esistono degli scalari λ e dei vettori x per cui valga la (8. e consideriamo la relazione Ax = λx (8. . − a1n − a2n − a3n .3) che rappresenta un sistema lineare omogeneo di n equazioni in n incognite la cui matrice dei coefficienti è la matrice λI − A. che si chiama endomorfismo un’applicazione lineare f : V → V di uno spazio vettoriale su se stesso. . . trasformati... . . Autovalori ed autovettori di una matrice Sia ora A una matrice quadrata di ordine n. . Il determinante della matrice dei coefficienti del sistema (8.2) si chiamano autovalori o valori propri ed i vettori x si chiamano autovettori o vettori propri della matrice A. .72 Matrici simili. La (8.. cioè che x non cambia direzione.2) con x = 0. . . È lecito ora porsi la domanda: fissata una matrice A esistono autovalori? quanti? ed autovettori? Per rispondere a queste domande riscriviamo la (8. Gli scalari λ che compaiono nella (8.2. per esempio associata ad un endomorfismo1 . 2 cioè coefficiente del termine di grado massimo 1 Ricordiamo .2). − an1 − an2 − an3 e si può scrivere come polinomio in λ ϕ(λ) = det(λI − A) = λn + c1 λn−1 + c2 λn−2 + · · · + cn−1 λ + cn (8. non cambiano direzione.2) nella forma λx − Ax = 0 equivalente a (λI − A) x = 0 (8. .2) è ovviamente funzione di λ λ − a11 − a12 − a13 − a21 λ − a22 − a23 − a32 λ − a33 det(λI − A) = − a31 .2) in sostanza dice che applicando al vettore x la matrice A si ottiene un vettore proporzionale ad x..

cn di ϕ(λ) si possono trovare sviluppando normalmente il determinante di λI − A oppure tenendo conto del legame tra di essi ed i minori estratti dalla matrice A (Teorema 8. . . essendo la matrice nulla. Sia B = P−1 AP: si ha necessariamente |λI − B| = |λI − P−1 AP| = | P−1 λIP − P−1 AP| = = | P−1 (λI − A) P| = | P−1 ||λI − A|| P| = |λI − A| e quindi i polinomi caratteristici sono uguali. ciascuno contato con la propria molteplicità.8. k s rispettivamente le loro molteplicità algebriche (quindi ∑ k j = n).2 Autovalori ed autovettori di una matrice 73 Il coefficiente di λn proviene solo dal prodotto degli elementi principali ed è quindi uguale a 1. è simile solo a se stessa. λs ks lo spettro della matrice A. esattamente n autovalori.4 non è invertibile!. . Vale il Teorema 8.7 nella pagina successiva). . OSSERV AZIONE 8. 0 0 0 1 per esempio le matrici A = eB = hanno entrambe polinomio 0 0 0 0 caratteristico ϕ(λ) = λ2 ma la A. . Una matrice quadrata di ordine n ha. In essa sotto ad ogni autovalore è indicata la sua molteplicità come radice del polinomio caratteristico (molteplicità algebrica). . nel campo complesso C.2. Una banale ed immediata conseguenza è che se anche la matrice A ha tutti gli elementi reali. i suoi autovalori possono essere in tutto o in parte numeri complessi. cioè due matrici che hanno lo stesso polinomio caratteristico possono anche non essere simili. chiamiamo j =1 s l’espressione λ1 λ2 . OSSERV AZIONE 8. Se λ1 . dunque sussiste il Teorema 8. Due matrici simili A e B hanno lo stesso polinomio caratteristico.4.4 segue che due matrici simili hanno gli stessi autovalori con le stesse molteplicità. ATTENZIONE Il Teorema 8. . . . i vari successivi coefficienti c1 .1. Per il Teorema fondamentale dell’Algebra sappiamo che ogni polinomio di grado n ha. λ2 . . . quindi lo stesso spettro. nel campo complesso. . λs (s ≤ n) sono gli autovalori distinti di A e k1 . k1 k2 . . Dimostrazione. esattamente n radici contate ciascuna con la propria molteplicità. . k2 . .3. Dal Teorema 8.

I minori principali di ordine 2 della matrice 1 2 3  sono . Ne segue il Corollario 8. Sia A una matrice quadrata.2. Se ϕ ( λ ) = λ n + c 1 λ n −1 + · · · + c n −1 λ + c n è il polinomio caratteristico di una matrice A.4): ϕ(λ) = det(λI − A) = λn + c1 λn−1 + · · · + cn = = (λ − λ1 )(λ − λ2 ) · · · (λ − λn ) relazione che vale ∀λ e quindi.3. Se λ1 . d f d e f a b 2 3 1 2 e ma non. in particolare.1. . ad esempio perché i suoi elementi principali non sono 1 2 e f d e tutti elementi principali di A Si dimostra allora che Teorema 8. allora ck = (−1)k ∑ Mk dove la somma è estesa a tutti i minori principali di ordine k estratti da A. anche per λ = 0. DEFINIZIONE 8. Infatti si ha. Dimostrazione. . λ2 . Autovalori ed autovettori di una matrice quadrata Sugli autovalori valgono le proprietà espresse dai seguenti teoremi Teorema 8.74 Matrici simili.6. Per questo valore si ha det(− A) = cn = (−λ1 )(−λ2 ) · · · (−λn ) cioè (−1)n det( A) = cn = (−1)n λ1 λ2 · · · λn che è la tesi.5) . OSSERV AZIONE 8. (8.5. Da quanto detto si ricava anche che in una matrice triangolare (in particolare diagonale) gli autovalori coincidono con gli elementi della diagonale principale.7. chiamiamo minore principale di ordine k e lo indichiamo con Mk il determinante di una sottomatrice quadrata di ordine k i cui elementi principali sono solo elementi principali di A. . λn sono gli n autovalori di A e se cn è il termine noto del polinomio caratteristico di A sussiste la relazione det( A) = (−1)n cn = λ1 · λ2 · · · λn . tenendo conto della (8. Una matrice è singolare se e solo se ha almeno un autovalore nullo.   a b c a c Esempio 8. .

.6). Segue subito da questa definizione e dal teorema 8. costituisce uno spazio vettoriale. . . da cui. λ2 . Vale il Teorema 8. è la dimensione di questo autospazio. c2 è la somma di tutti i minori principali di ordine 2 e così via. che prende il nome di molteplicità geometrica dell’autovalore. Siano ora x e y due autovettori della matrice A associati entrambi all’autovalore λ. infatti A(αx + βy) = Aαx + Aβy = αAx + βAy = αλx + βλy = λ(αx + βy). . .8 segue che è r ≥ n − 1 dunque n − 1 ≤ r < n da cui r = n − 1. che corrisponde al numero degli autovettori indipendenti.2).9. Si ha.2 Autovalori ed autovettori di una matrice 75 Quindi ci è –a meno del segno– la somma dei minori principali di ordine i. . consideriamo il vettore αx + βy e vogliamo dimostrare che anch’esso è autovettore associato a λ. Quindi l’insieme degli autovettori associati ad un autovalore. Allora i vettori xi sono linearmente indipendenti.8 si ha subito che la molteplicità geometrica di un autovalore λ non supera quella algebrica e la uguaglia se e solo se λ è regolare.8. xs s autovettori associati ordinatamente ai λi .11.8. per esempio. si chiama regolare. sussiste il Teorema 8. cioè degli autovettori indipendenti associati all’autovalore λ. con l’aggiunta del vettore nullo. Infatti r (λI − A) < n in quanto det(λI − A) = 0 e dal Teorema 8. Ogni combinazione lineare di autovettori di A associati a λ è un autovettore di A associato a λ. Siano Ax = λx e Ay = λy. Inoltre sussiste il Teorema 8. Se λ è un autovalore di molteplicità k allora r (λI − A) ≥ n − k.6) Il numero n − r (λI − A) è il numero delle soluzioni indipendenti del sistema (8. Ogni autovalore semplice è regolare. x2 .8 il Teorema 8. Per il Teorema 8. . Siano λ1 .10. (8. . cioè per il quale vale il segno = nella (8. che prende il nome di autospazio associato a λ e la molteplicità geometrica dell’autovalore. λs s autovalori distinti di A (s ≤ n) e siano x1 . Dimostrazione. . Un autovalore per cui la molteplicità algebrica sia uguale a quella geometrica. c1 = −tr ( A). Dimostrazione.

Se x è autovettore di A associato all’autovalore λ allora esso è anche autovettore di Ak associato all’autovalore λk ∀k > 0. Autovalori ed autovettori di una matrice quadrata Di conseguenza gli autospazi associati ad ogni autovalore sono disgiunti. Da Ax = λx si ricava.76 Matrici simili. e la loro somma è un sottospazio V dello spazio vettoriale V in cui è definito l’endomorfismo rappresentato dalla matrice A. . A2 x = Aλx = λAx = λλx = λ2 x e quindi x è autovettore di A associato all’autovalore λ2 .12. Dimostrazione. moltiplicando a sinistra per A. Iterando il procedimento si perviene alla tesi. Da quanto detto segue facilmente che gli autovalori di A sono tutti regolari se e solo se V = V. Sussiste anche il Teorema 8.

.1) segue che AP = P · diag(λ1 . .7 a pagina 25. λ2 . . essa è diagonalizzabile. Viceversa se A è diagonalizzabile esistono una matrice invertibile P ed una matrice diagonale ∆ = diag(λ1 . . λ2 . . Indichiamo con P = [ X1 X2 . λn ) = AX1 AX2 . Dimostrazione. . il che equivale a dare delle condizioni necessarie e sufficienti per stabilire quali sono tutte e sole le matrici diagonalizzabili. allora. . . .2) quindi se A ammette n autovettori indipendenti. dalla (9. Xn n autovettori indipendenti di A e siano associati rispettivamente agli autovalori λ1 . .1. Diagonalizzazione di una matrice quadrata Una matrice quadrata si dice diagonalizzabile se è simile ad una matrice diagonale. λ 1 X1 λ 2 X2 . Ci proponiamo ora di stabilire dei criteri di diagonalizzabilità.1) poiché gli Xi sono autovettori di A associati ordinatamente agli autovalori λi . . λn ) ed essendo P non singolare. . Diagonalizzazione. Siano X1 . matrici ortogonali 9. . . Xn ] la matrice che ha come colonne gli Xi . AXn λ n Xn (9. . λ2 . . .1. . . Sussiste a questo proposito il Teorema 9. per ogni i si ha AXi = λi Xi . Una matrice quadrata A di ordine n è diagonalizzabile se e solo se ammette n autovettori indipendenti. λ2 . λn . . in quanto formata da vettori indipendenti segue che P−1 AP = diag(λ1 . . . sussistono le uguaglianze AP = P · diag(λ1 . . X2 . . . cioè se esiste una matrice non singolare P tale che P−1 AP = ∆ con ∆ matrice diagonale.9. . ricordando i punti i) e ii) dell’osservazione 3. λ2 . . λn ) (9. . . . λn ) tali che AP = P∆ .

a questo punto possono accadere tre casi: o sono entrambe diagonalizzabili. . .4. . . Una matrice è diagonalizzabile se e solo se ha tutti gli autovalori regolari. Se A e B sono entrambe diagonalizzabili. dunque sono entrambe simili alla medesima matrice diagonale. dunque gli Xi sono autovettori di A linearmente indipendenti. λn ). OSSERV AZIONE 9. . OSSERV AZIONE 9. Dimostrazione. . agli autovalori λi .3. . Abbiamo detto che l’avere lo stesso polinomio caratteristico non basta affinché due matrici siano simili. in sostanza. e allora per il Teorema 9. λ2 . . viceversa se A e B hanno lo stesso polinomio caratteristico esse hanno gli stessi autovalori con le stesse molteplicità. controllare che abbiano lo stesso polinomio caratteristico. Xn · diag(λ1 .7. meno semplice da dimostrare ma più comoda da usare. . . Le matrici P che trasformano la A in una matrice diagonale sono tutte (e sole) quelle formate da n autovettori indipendenti di A. ordinatamente. si ha AXi = λi Xi . Per verificare se due matrici A e B sono simili è necessario. . hanno lo stesso polinomio caratteristico per il Teorema 8. λn ) è una qualunque matrice diagonale simile ad A.2. da cui AX1 AX2 . otteniamo A X1 X2 . Se A e B sono simili. esse sono simili se e solo se hanno lo stesso polinomio caratteristico. e allora occorre ricorrere a metodi più sofisticati. . . .2. i suoi elementi principali sono tutti (e soli) gli autovalori di A. quindi sono infinite. Xn le colonne di P. anzittutto. . oppure ancora nessuna delle due è diagonalizzabile. AXn = λ1 X1 λ2 X2 .2 sono simili tra loro.3. . matrici ortogonali ma se chiamiamo X1 . OSSERV AZIONE 9. Una matrice diagonalizzabile è univocamente determinata dai suoi autovettori e dai suoi autovalori. . è quella espressa dal Teorema 9. .4. per ogni i. Un’altra condizione necessaria e sufficiente per la diagonalizzabilità. Se diag(λ1 .1 significa. e quindi simili tra loro. λ n Xn e quindi. λ2 . Cioè se V = V1 ⊕ V2 ⊕ · · · ⊕ Vk dove i Vi sono gli autospazi associati. X2 . . . . che una matrice che rappresenta un endomorfismo di uno spazio vettoriale V è diagonalizzabile se e solo se esiste una base formata da autovettori di V. X n = X1 X2 .1.2) e ricordando ancora l’osservazione 3. e allora non sono simili. tuttavia Teorema 9. Il Teorema 9. dalla (9. OSSERV AZIONE 9.78 Diagonalizzazione. oppure una è diagonalizzabile e l’altra no.

Martici ortogonali DEFINIZIONE 9.2. Vogliamo vedere per quali valori di a essa è a+3 a+2 diagonalizzabile.1. A è diagonalizzabile. −b − a dunque per questi valori. L’autovalore 0 è regolare in quanto semplice. per a = −2 la matrice diventa il cui 1 0 polinomio caratteristico è (λ + 1)2 cioè ammette l’autovalore −1 doppio. Il polinomio caratteristico di A è ϕ(λ) = λ2 − (2a + 2)λ + a( a + 2) − ( a + 3)( a + 1). qundi semplici entrambi. OSSERV AZIONE 9.3 segue immediatamente il Corollario 9. a a+1 .3) .2. Concludiamo dunque che la matrice A è diagonalizzabile per ogni a = −2.4 non vale. Sia A = Esempio 9. b a 1 Si vede subito (A è triangolare) che gli autovalori sono 0 semplice e 1 doppio. Il viceversa del corollario 9.3). Diciamo che una matrice U è ortogonale se è reale e se UUT = UT U = I. Esso è regolare se r (− I − A) = 0 il che palesemente non è. Esempio 9.9 a pagina 75) dal Teorema 9. basta che infatti siano tutti regolari (Teorema 9.5 (ATTENZIONE!).4.2 Martici ortogonali 79 Poiché un autovalore semplice è regolare (vedi Teorema 8. Una matrice è diagonalizzabile se tutti i suoi autovalori sono distinti. la matrice 1I − A è −b − a 0 −a 1 second’ordine non certamente nullo è esso però si annulla per a2 + b = 0. cioè una matrice può essere diagonalizzabile anche se i suoi autovalori non sono tutti distinti.1. 0 0 0 − a 1 0 il cui unico minore del r ( I − A) = 3 − 2 = 1.9. Vogliamo determinare per quali valori dei parametri è diagonalizzabile la matrice   1 0 0  a 0 0 . Esaminiamo la regolarità di  Esso è regolare quando 1. quindi per a = −2 la matrice è diagonalizzabile perché i due autovalori sono −2 −1 distinti. che coincidono se e solo se a = −2. 9. e solo per questi. Le radici di ϕ(λ) sono −1 e 2a + 3. Sulle matrici ortogonali sussiste il (9.

Sia A simmetrica: si ha A = A T . iii) UT è ortogonale. Se λ è un autovalore di A ed x un autovettore ad esso associato si ha: λx = Ax (9. Dimostrazione. Sulle matrici ortogonali vale il Teorema 9. concludiamo che λ = λ e quindi che λ è reale. Sia U una matrice ortogonale. matrici ortogonali Teorema 9. Una matrice U è ortogonale se e solo se le sue colonne formano un sistema ortonormale di vettori.4). Essendo UT U = I si ha det(U ) det (UT ) = 1 ma siccome det(U ) = det (UT ) si ha det2 (U ) = 1 da cui det(U ) = ±1. Il punto iii ) dal fatto che (UT ) T = U Se U e V sono due matrici ortogonali.6. allora la matrice W = UV è ortogonale. poiché x T x = 0 in quanto x autovettore.5. Dimostriamo ora il Teorema 9. Possiamo ora enunciare il Teorema 9.7. utilizzando ancora la (9. ii) U è invertibile e U −1 = UT . Allora: i) det(U ) = ±1. diciamo che A è ortogonalmente diagonalizzabile. Infatti la relazione (9. infatti WWT = UV (UV ) T = UVVT UT = I.8. Il punto ii ) segue dal precedente e dall’unicità della matrice inversa. .4) 1 se i = k ovvero le colonne di U formano un sistema 0 se i = k da cui segue subito che è λx T = ( Ax ) T = x t A T = x T A. Allora. λx T X = x T Ax = x T λx = λx T x. Gli autovalori di una matrice reale simmetrica sono reali Dimostrazione. Dimostrazione.80 Diagonalizzazione. Se A è una matrice diagonalizzabile e tra le matrici che la diagonalizzano esiste una matrice ortogonale. Una matrice reale simmetrica è sempre ortogonalmente diagonalizzabile.3) implica che se U = [uik ] e UT = [uki ] si ha δik = ∑ j u ji u jk dove il generico elemento del prodotto è l’elemento generico della matrice I cioè δik = ortonormale.

9.2 Martici ortogonali

81

Questo significa che una matrice A simmetrica e reale è sempre diagonalizzabile cioè che tra le varie matrici che la diagonalizzano se ne può sempre trovare almeno una ortogonale. OSSERV AZIONE 9.6. Vogliamo esplicitamente notare che l’ipotesi del Teorema 9.8 che la matrice sia reale è essenziale, infatti, per esempio, la matrice simmetrica 2i 1 A= non è neanche diagonalizzabile (verificarlo per esercizio). 1 0 Anche l’inverso del Teorema 9.8 è vero, cioè Teorema 9.9. Una matrice ortogonalmente simile ad una matrice diagonale reale è simmetrica. Dimostrazione. Se UT AU = ∆ trasponendo si ha (UT AU ) T = ∆ T ma ∆ è simmetrica, quindi UT A T U = ∆ = UT AU da cui, moltiplicando a destra per UT e a sinistra per U segue che A = A T . Un altro teorema utile soprattutto nelle applicazioni è il Teorema 9.10. Se x e y sono due autovettori della matrice A associati rispettivamente agli autonvalori λ e µ con λ = µ allora x e y sono ortogonali. Dimostrazione. Dalle ipotesi abbiamo che λx = Ax e µy = Ay Siccome A è simmetrica e quindi λ reale (per il Teorema 9.7 a fronte) dalla prima uguaglianza segue che λx T = x T A e quindi anche λx T Y = x T AY, ma tenendo conto della seconda, si ha λx T y = µx T y quindi (λ − µ) x T y = 0. Poiché λ = µ segue che xT y = 0 Vediamo ora, su esempi, come si può costruire una matrice ortogonale che diagonalizza una data matrice simmetrica.   0 1 1 Esempio 9.3. Sia A = 1 0 1. Il polinomio caratteristico di A è λ3 − 3λ − 2 e 1 1 0   λx − y − z = 0  quindi gli autovalori sono λ1 = λ2 = −1 e λ3 = 2. Il sistema − x + λy − z = 0   − x − y + λz = 0   α fornisce gli autovettori di A. Per λ = −1 abbiamo la famiglia di autovettori  β  −α − β   γ γ con γ = 0. Dovremo con α e β non entrambi nulli, e per λ = 2 l’autovettore γ

82

Diagonalizzazione, matrici ortogonali

scegliere due autovettori associati a λ1 ed uno associato a λ3 , quindi possiamo costruire la matrice   α α γ  β β γ −α − β −α − β γ che dobbiamo rendere ortogonale scegliendo opportuni valori per i parametri α, α , β, β e γ. Per il Teorema 9.10 l’ultima colonna è ortogonale a ciascuna delle altre due, quindi basta imporre la condizione αα + ββ + (α + β)(α + β ) = 0 che equivale a 2αα + 2ββ + αβ + βα = 0. Poniamo α = 0 allora β(2β + α ) = 0 e poiché, in questo caso dev’essere β = 0 bisognerà prendere al pha = −2β . Se scegliamo allora β = 1, β = 1 e γ =  0 −2 1  1 1 1 le cui colonne sono a due a due ortogonali. 1 otteniamo la matrice −1 1 1 Normalizzando le colonne otteniamo la matrice   − 1 0 √2 √ 6 3  1 1  1 √ √ √   2 6 3
− √1 2
1 √ 6 1 √ 3

che è una matrice ortogonale che diagonalizza la A. 

 1 0 0 Esempio 9.4. Consideriamo ora la matrice A = 0 2 3. È facile verificare che i 0 3 2 suoi autovalori soni λ1 = 1, λ2 = −1 e λ3 = 5 a cui sono associati, rispettivamente, gli autovettori       h 0 0 0  j k 0 −j k che sono ortogonali, in quanto associati ad autovalori distinti (ancora il Teorema 9.10 nella pagina precedente). Se scegliamo h = k = j = 1 otteniamo la matrice P =   1 0 0 0 1 1 che diagonalizza la A ma non è ortogonale, in quanto le sue colonne non 0 −1 1 sono normalizzate. Normalizzando si ottiene   1 0 0 1 1 0 √ √    0
2 − √1 2 2 1 √ 2

che è la matrice cercata.

9.3 Forme quadratiche

83

9.3. Forme quadratiche
Un polinomio omogeneo di grado m nelle variabili x1 , x2 , . . . xn si chiama forma di grado m. In particolare se il polinomio è di secondo grado parleremo di forma quadratica. Esempio 9.5. Si consideri il polinomio Φ( x, y, z) = 2x2 + 10xy + 9y2 + 6xz esso è una forma quadratica; osserviamo che si può anche scrivere come Φ( x, y, z) = 2x2 + 5xy + 5yx + 9y2 + 3xz + 3zx spezzando i termini rettangolari In generale un polinomio di secondo grado in n variabili si può scrivere nella forma Φ ( x1 , x2 , . . . , x n ) =
1...n i,k

(9.5)

∑ aik xi xk .

(9.6)

con aik = aki . In tal modo possiamo associare ad ogni forma quadratica in n variabili una matrice simmetrica A = [ aik ] di ordine n e possiamo scrivere Φ = XT AX dove XT = [ x1 , x2 , . . . , xn ] Quindi, per  esempio, la matrice associata alla forma (9.5) dell’esempio 9.5 è la  2 5 3 5 9 0. A= 3 0 0 Esempio 9.6. La matrice associata alla forma Φ ≡ x2 + 2xy − 4yz + 3z2 sarà la matrice simmetrica  1 1 0 0 −2 A = 1 0 −2 3 

Si chiama rango della forma quadratica Φ il rango della matrice ad essa associata. Se si opera sulle variabili una trasformazione lineare di matrice B si ottiene una nuova forma quadratica Ψ la cui matrice associata sarà BT AB da cui risulta

84

Diagonalizzazione, matrici ortogonali

ovvio che le due forme hanno lo stesso rango. Si chiama forma canonica ogni forma quadratica la cui matrice associata è diagonale, quindi una forma canonica sarà: 2 2 Φ = a11 x1 + a22 x2 + · · · + ann x2 x cioè una somma di quadrati. Ci poniamo il problema: È possibile, mediante una trasformazione lineare invertibile, ridurre una forma quadratica qualsiasi a forma canonica? Consideriamo la forma quadratica Φ( x, y) = 5x2 + 4xy + 2y2 . La generica trasformazione lineare x = au + bv y = cu + dv la trasforma in 5( au + bv)2 + 4( au + bv)(cu + dv) + 2(cu + dv)2 che diventa (9.7)

(5a2 + 4ac + 2c2 )u2 + (10ab + 4ad + 4bc + 4cd)uv+ (5b2 + 4bd + 2d2 )v2 (9.8)
Si vede subito che la riducono a forma canonica tutte quelle trasformazioni con ad = bc per cui è nullo il coefficiente del termine rettangolare della (9.8), cioè deve essere 10ab + 4ad + 4bc + 4cd = 0 Questo si può ottenere in infiniti modi, per esempio ponendo a = 1, b = 2, c = −2, d = 1 otteniamo la forma canonica Φ = 5u2 + 30v2 mentre se prendiamo a = 0, b = 1, c = 2, d = −1 abbiamo la forma canonica Φ = 8u2 + 3v2 Sulla riduzione a forma canonica di una forma quadratica sussiste il teorema

. Ogni forma quadratica reale Φ = XT AX si può ridurre. Una forma quadratica Φ( x1 . xn ) ≥ 0 ). Ogni forma canonica Ψ ottenuta da una forma quadratica reale Φ mediante una trasformazione lineare invertibile ha il numero dei coefficienti positivi uguale all’indice p di Φ. . 1 Cioè la cui matrice è ortogonale . . Si chiama indice di una forma quadratica Φ = XT AX il numero p ≥ 0 degli autovalori positivi di A. .14. . . . . xn ) > 0 (rispettivamente Φ( x1 . x2 . .3 Forme quadratiche 85 Teorema 9. . esiste una matrice ortogonale U tale che UT AU = diag(λ1 . Infatti essendo A reale simmetrica. x2 .11 (di Lagrange). . non si può garantire che i coefficienti siano gli autovalori di A. λn sono gli autovalori di A. . λ2 . . Se la forma quadratica è in particolare reale il teorema di Lagrange si precisa meglio: Teorema 9. . . si ha Φ( x1 .12. xn ) si dice definita positiva (rispettivamente semidefinita positiva) se per ogni scelta delle variabili.7. Ogni forma quadratica a coefficienti complessi (reali) di rango r > 0 si può ridurre. . x2 . λ2 .5) Φ = 5x2 + 4xy + 2y2 può essere ridotta a forma canonica in Ψ = 8u2 + 3v2 ma gli autovalori di A sono 1 e 6. non necessariamente ortogonale. mediante una trasformazione ortogonale1 . Vale il Teorema 9. non tutte nulle.13. .8. Una forma quadratica Φ = XT AX è definita positiva se e solo se tutti gli autovalori di A sono positivi. Se la riduzione a forma canonica viene effettuata mediante una generica trasformazione lineare invertibile. λn ) OSSERV AZIONE 9. Vale il Teorema 9. Dimostrazione. . alla forma canonica 2 2 2 Ψ = λ1 x1 + λ2 x2 + · · · + λ n x n dove λ1 . mediante una trasformazione lineare invertibile a coefficienti complessi (reali) alla forma canonica 2 2 2 c1 x1 + c2 x2 + · · · + c n x n dove i ci sono numeri complessi (reali) non tutti nulli.9. . ad esempio la forma (9. Se la forma quadratica ha rango r allora gli autovalori non nulli di A sono esattamente r OSSERV AZIONE 9. .

20.10 a pagina 81 si dimostra il Teorema 9. permutabile con la sua trasposta. Qualcuno chiama queste forme non definite. Una matrice A è normale se e solo se esiste un polinomio f (λ) tale che AT = f ( A) Segue il Corollario 9. 9.17. sia autovalori negativi cioè nè definite positive nè definite negative.19. È ovvio dalle definizioni che le matrici reali simmetriche sono matrici hermitiane reali e che le matrici ortogonali sono matrici unitarie reali.11. è diagonalizzabile in particolare che ogni matrice ortogonale è diagonalizzabile Con lo stesso procedimento usato per le matrici simmetriche reali nel Teorema 9. Ne scende che ogni matrice reale. Le matrici hermitiane e quelle unitarie sono particolari matrici normali.2. Naturalmente esistono forme quadratiche la cui matrice ha sia autovalori positivi.14: Teorema 9. OSSERV AZIONE 9.3. Una matrice A si chiama hermitiana (o autoaggiunta) se A = A T . OSSERV AZIONE 9. DEFINIZIONE 9.16. Gli autovalori di una matrice hermitiana sono reali. Una matrice U si chiama unitaria se U T U = I.18. DEFINIZIONE 9. Una matrice è unitariamente simile ad una matrice diagonale se e solo se è normale OSSERV AZIONE 9.10.9.4. Una forma quadratica Φ = XT AX è definita negativa se e solo se tutti gli autovalori di A sono negativi. Matrici hermitiane e matrici unitarie DEFINIZIONE 9. Una matrice si chiama normale se AA T = A T A cioè se commuta con la sua coniugata trasposta (detta anche aggiunta).4.. Teorema 9. Segue anche che Teorema 9.15. matrici ortogonali Analogamente si parla di forme quadratiche definite (semidefinite) negative Vale anche l’analogo del teorema 9.86 Diagonalizzazione. Ogni matrice hermitiana è unitariamente simile ad una matrice diagonale reale Sussiste anche il Teorema 9. Una matrice reale A è permutabile con la sua trasposta se e solo se quest’ultima si può esprimere come polinomio in A .

Hamilton2 che ha parecchie applicazioni.10. Glasgow. HAMILTON. 1821. Esempio 10. B2 e B3 tali che ∀i in Bi sia nullo l’i–esimo elemento principale. Dunque esiste una matrice non singolare P.e non solo nell’ambito dell’Algebra Lineare. (10.1. notiamo anche che il coefficiente cn+1 è in realtà coefficiente di λ0 e quindi. Consideriamo ora tre matrici triangolari. Cambridge.1895. quindi possiamo aggiungere che ogni matrice quadrata è “triangolarizzabile” cioè è simile ad una matrice triangolare che ha come elementi principali gli autovalori di A. Edimburgo. possiamo formalmente sostituire a λ la matrice quadrata A ed ottenere il polinomio matriciale p( A) = c1 An + c2 An−1 + · · · + cn A + cn+1 I. nella sostituzione formale che operiamo. tale che P−1 AP = T con T matrice triangolare. che va sotto il nome di Teorema di Cayley1 . Inghillterra. Richmond.1. Inghilterra . per esempio alte. Abbiamo già accennato che una matrice quadrata A si può sempre ridurre a forma triangolare eseguendo su di essa operazioni elementari sulle righe o sulle colonne.1) OSSERV AZIONE 10. Polinomi di matrici Come abbiamo visto nel paragrafo 3. Ovviamente p( A) è a sua volta una matrice quadrata dello stesso ordine di A e che si ottiene sviluppando i conti nella (10. 1788. B1 .1). Scozia -1856.3 a pagina 23 si definisce un polinomio di matrici (o polinomio matriciale) come segue: se p ( λ ) = c 1 λ n + c 2 λ n −1 + · · · + c n λ + c n +1 è un polinomio di grado n nella variabile λ. Teorema di Cayley Hamilton Introduciamo ora un Teorema. diventa coefficiente di A0 = I 10. .1. per semplicità di ordine tre. Per 1 Arthur 2 William CAYLEY. Scozia.

evidentemente.1 è solo un caso particolare di quanto percisa il seguente Lemma 10. . Decomponiamo in blocchi ciascuna matrice Bi in modo che sia Bi = Hi k i .1. n − 1) ed Hn di tipo (n − 1. H3 di tipo (2. Hn−1 di tipo (n − 2. la matrice nulla.2) . 1). Siamo ora in grado di dimostrare il Teorema 10. allora vale la relazione matriciale A n + c 1 A n −1 + · · · + c n −1 A + c n I = 0 (10.2 (di Cayley-Hamilton). . l’elemento bii della i–esima matrice Bi sia nullo.88 Polinomi di matrici esempio siano  0 a1 b1 B1 = 0 c1 d1  0 0 e1 Un facile calcolo mostra che B1 B2 B3 = 0 L’esempio 10. Osservando inoltre che le matrici Li sono tutte nulle in forza del fatto che le Bi sono triangolari alte. si ha B1 = e Bn = . L i Mi   a2 b2 c2 B2 =  0 0 d2  0 0 e2   a3 b3 c3 B3 =  0 d3 e3  0 0 0  Se prendiamo H1 di tipo (1. . Cioè se ϕ A (λ) = λn + c1 λn−1 + · · · + cn−1 λ + cn è il polinomio caratteristico della matrice quadrata A. Bn n matrici triangolari alte di ordine n tali che. B2 . n) si può moltiplicare a blocchi ciascuna matrice per la successiva. . . . 2). n. per 0 R 0 H1 Hn Kn come sono state costruite. . Ogni matrice quadrata è radice del proprio polinomio caratteristico. . 0 K1 0 0 Si ha quindi 0 H1 P Q Hn Kn B1 B2 · · · Bn = 0 K1 0 R 0 0 che dà. allora il prodotto delle matrici Bi dà la matice nulla. . . si constata facilmente che il prodotto P Q B2 B3 · · · Bn−1 è una matrice ripartita a blocchi della forma . Siano B1 . per ogni i = 1. 3) . H2 di tipo (1. cioè B1 B2 · · · Bn = 0 Dimostrazione. inoltre.

λ2 . Poiché A è triangolarizzabile. n Bi = B − λi I si riconosce subito che le matrici Bi hanno le caratteristiche richieste dal lemma 10.10. Applicazioni del Teorema di Cayley–Hamilton Se ϕ A (λ) = λn + c1 λn−1 + · · · + cn−1 λ + cn è il polinomio caratteristico della matrice A. . come si vede immediatamente. per esempio.1 a fronte. . quadrata.  . . 0 0 ··· λn Se ora poniamo. esste una matrice P tale che   λ1 b12 · · · b1n  0 λ2 · · · b2n  P−1 AP = B =  .5) cioè che le successive potenze di A dalla 0 alla n sono linearmente dipendenti e quindi.4) sostituendo formalmente la matrice A nella ( 10. ϕ(λ) = λ2 − 2λ + 1 10.1. Il Teorema 10. . . .1.2 nella pagina precedente non è invertibile questo significa che se una matrice quadrata di ordine n è radice di un certo polinomio p( x ) cioè se si ha che p( A) = 0 non è detto che p(λ) sia il polinomio caratteristico di A.2 nella pagina precedente ci assicura che A n + c 1 A n −1 + · · · + c n −1 A + c n I = 0 (10.3) si perviene alla tesi.2. che An = −(c1 An−1 + · · · + cn−1 A + cn I ) ..2.1 Teorema di Cayley Hamilton 89 Dimostrazione.  .2 (ATTENZIONE).. . . Sia A quadrata di ordine n e siano λ1 . Come esempio di quanto affermato nell’osservazione 10. . . ∀i = 1 . di ordine n il Teorema 10.3) (10. OSSERV AZIONE 10. Esempio 10. λn i suoi autovalori. inoltre si ha: ( A − λ1 I )( A − λ2 I ) · · · ( A − λn I ) = = PP−1 ( A − λ1 I ) PP−1 ( A − λ2 I ) PP−1 · · · PP−1 ( A − λn I ) PP−1 = = P( B − λ1 I )( B − λ2 I ) · · · ( A − λn I ) = = PB1 B2 · · · Bn P−1 quindi ( A − λ1 I )( A − λ2 I ) · · · ( A − λn I ) = 0 e siccome il polinomio caratteristico di A si può scrivere come ϕ(λ) = (λ − λ1 )(λ − λ2 ) · · · (λ − λn ) (10. . consideriamo la matrice A = I2 essa è radice del polinomio matriciale A2 − 3A + 2I ma il suo polinomio caratteristico è.4) in virtù della ( 10.  . .

6) ci dice che la matrice inversa di una matrice invertibile A è combinazione lineare delle potenze di A e che i coefficienti della combinazione lineare si ricavano facilmente da quelli del polinomio caratteristico di A.6). Allora si ricava facilmente −    −1 0 −2 1 0 1 1 e quindi che A−1 = 1  1 3 −2 .1. Vogliamo calcolare l’inversa della matrice A = 1 1 2 0 1 il Teorema di Cayley-Hamilton.   1 0 −1 1 usando Esempio 10. .2.6) La (10.3. Si chiama polinomio minimo della matrice quadrata A e si indica con µ(λ) il polinomio di grado minimo e di coefficiente direttore3 uguale a 1 che ammette A come radice. moltiplicando ambo i membri per A−1 si ottiene A −1 = − 1 ( A n −1 + c 1 A n −2 + · · · + c n −1 I ) cn (10. 5 1 quindi A3  3A2 + 5A − 3I = 0 da cui A = 3 A2 − A + 3 I. DEFINIZIONE 10. Essendo a = −tr ( A) = −3.90 Polinomi di matrici cioè che la potenza n–esima di A si può scrivere come combinazione lineare delle potenze di grado inferiore e che i coefficienti di questa combinazione lineare sono proprio i coefficienti del polinomio caratteristico. Polinomio minimo Nell’Osservazione 10. b = + + 1 1 0 1 1 −1 = 5 e c = − det A = −3 esso diventa 2 1 ϕ(λ) = λ3 − 3λ2 + 5λ − 3. che A2 =  4 1 3 4 0 1 −2 0 1 10.2 nella pagina precedente e nell’esempio successivo abbiamo visto che una matrice può essere anche radice di un polinomio diverso dal suo polinomio caratteristico. Il polinomio caratteristico di A 1 0 1 2 sarà ϕ(λ) = λ3 + aλ2 + bλ + c. cioè usando la ( 10. Inoltre sappiamo che se A è invertibile cn = 0 e quindi si può scrivere I=− 1 ( A n + c 1 A n −1 + · · · + c n −1 A ) cn da cui. 3 Ricordiamo la nota 2 a pagina 72.

Questo significa. se invece fosse r (λ) = 0. cioè p(λ) = q(λ)µ(λ) + r (λ) (10. cioè sono autovalori di A. cioè sia p( A) = 0 Se dividiamo p(λ) per µ(λ) otteniamo un quoziente ed un resto.5. in particolare.7) se r (λ) = 0 abbiamo la tesi.7) porterebbe alla identità matriciale p( A) = q( A)µ( A) + r ( A) dalla quale. Dal Teorema 10.3. come si vede nel seguente     0 0 0 0 0 0 Esempio 10.10. Due matrici simili hanno lo stesso polinomio minimo. .4. Vale inoltre il Teorema 10. segue che r è identicamente nullo. e che. non sono simili. Si vede subito che entrambe 0 0 1 0 0 1 2 − λ .2 Polinomio minimo 91 È facile dimostrare che il polinomio minimo esiste ed è unico: l’esistenza è garantita dal Teorema 10. quindi. la (10. quindi. Naturalmente esistono matrici che. le sue radici sono anche radici di ϕ(λ). che non hanno nemmeno lo stesso polinomio caratteristico. Si può anche dimostrare che Teorema 10. per esempio. Le radici del polinomio minimo µ(λ) di una matrice A sono tutti e soli gli autovalori di A con molteplicità non maggiori di quelle che hanno come radici del polinomio caratteristico ϕ(λ). tenendo conto che p e µ ammettono A come radice. Il polinomio minimo µ(λ) di una matrice quadrata A divide tutti i polinomi che ammettono A come radice.4. Sia p(λ) un polinomio che ammette A come radice. pur avendo lo stesso polinomio minimo. divide il polinomio caratteristico di A. come precisato dal Teorema 10.3 segue subito che il polinomio minimo divide anche il polinomio caratteristico. Dimostrazione. infatti A2 = A e B2 = B.2 a pagina 88 e l’unicità si dimostra per assurdo – farlo per esercizio. Siano A = 0 1 1 e B = 0 0 0. ma hanno come polinomio minimo µ(λ) = λ ϕ A (λ) = λ(λ − 1)2 mentre ϕ B (λ) = λ2 (λ − 1). segue che r ( A) = 0. ma siccome r è un polinomio di grado inferiore a µ e µ è quello di grado minimo che ammette A come radice. che se una matrice ammette come polinomio caratteristico ϕ(λ) = (λ − 1)2 (λ − 2) il suo polinomio minimo può essere solo ϕ(λ) stesso oppure (λ − 1)(λ − 2). anzi.

OSSERV AZIONE 10.6. Il Teorema 10. quindi la tesi segue dal teorema 10.3. Dimostriamo. Consideriamo le matrici A = 1 0 0 e B = 1 0 0.92 Polinomi di matrici Anche l’avere lo stesso polinomio caratteristico non garantisce affatto che i polinomi minimi siano uguali come si vede nel seguente     0 0 0 0 0 0 Esempio 10. Ad esempio si ricava da esso che ogni matrice idempotente. Sia A diagonalizzabile. Riferendoci a questa osservazione possiamo dimostrare il Teorema 10.6 fornisce un altro potente criterio per stabilire se sono diagonalizzabili matrici di cui è facile determinare il polinomio minimo. per semplicità.5. Il polinomio minimo di una matrice diagonale Dn avente t ≤ n autovalori distinti è (λ − λ1 )(λ − λ2 ) · · · (λ − λt ). è privo di radici multiple. per l’osservazione precedente. solo la parte “solo se”. Tutte e 2 3 0 2 0 0 3 . cioè per cui sia A2 = A che ha quindi come polinomio minimo λ2 − λ è diagonalizzabile.5. . Una matrice A è diagonalizzabile se e solo se il suo polinomio minimo ammette solo radici sempilici. Verificarlo con un facile calcolo. Dimostrazione. allora essa è simile ad una matrice diagonale il cui polinomio minimo. ma siccome si vede subito che due hanno come polinoimio caratteristico ϕ(λ) = λ B2 = 0 si ha µ B (λ) = λ2 mentre essendo A3 = 0 = A2 si ha µ A (λ) = ϕ(λ) = λ3 .

Geometria piana .Parte II.

.

il punto P appartiene a r se e solo se il vettore [ x − x0 . Preliminari In un sistema di riferimento cartesiano ortogonale è noto dagli studi precedenti che una retta si rappresenta con un’equazione lineare ax + by + c = 0. b]. (11. cioè se e solo se a( x − x0 ) = −b(y − y0 ) cioè ax + by = ax0 + by0 da cui si ottiene la (11. cosiddetta canonica y = mx + q. y − y0 ] ed il vettore v = [−b. a]. La retta nel piano 11.1) in cui a e b non siano entrambi nulli.11. Da un altro punto di vista una retta r è determinata da un vettore v che ne fissa la direzione e da un punto P0 ∈ r: un punto P appartiene alla retta r se e solo se il segmento PP0 ha la stessa direzione di v. b] = − ab + ba = 0. y0 ) le coordinate di P0 e ( x. (11.1) ponendo c = − ax0 − by0 . [ a. È anche noto che.1. essi sono definiti a meno di un fattore di proporzionalità non nullo. rappresenta la tangente goniometrica dell’angolo che la retta forma con l’asse x: dunque se indichiamo con ϕ l’ampiezza di quest’angolo. Siano ora ( x0 . Normalizzando il vettore v si ottiene il vettore v = [−b . si ha m = tan ϕ. Poiché [−b.2) dell’equazione di una retta mette in luce la “pendenza” della retta: il coefficiente m.1. a]. . a ] in cui −b e a sono proprio i coseni degli angoli che la retta (orientata) forma con la direzione positiva degli assi coordinati e si chiamano coseni direttori della retta. che si chiama coefficiente angolare. y) le coordinate di P. Sia r la retta di equazione ax + by + c = 0 allora: i) r è parallela all’asse x se e solo se a = 0. a] sono linearmente dipendenti. se la retta non è parallela all’asse y. i numeri −b e a sono noti come parametri direttori della retta.2) È altresì noto che la forma canonica (11. possiamo anche affermare che la retta ax + by + c = 0 è ortogonale al vettore w = [ a. si può scrivere anche nella forma. Dunque la retta di equazione ax + by = 0 ha la direzione del vettore v = [−b. Da quanto detto segue il Teorema 11.

b2 ] | a1 a2 + b1 b2 | 2 a2 + b1 · 1 2 a2 + b2 2 11. risultato a cui si poteva pervenire direttamente.3) è un’equazione lineare e rappresenta quindi una retta.1. imponendo il passaggio per il primo punto a( x − 4) + b(y − 1) = 0 e per il secondo a(3 − 4) + b(2 − 1) = 0 ⇐⇒ − a + b = 0 ⇐⇒ a = b.96 La retta nel piano ii) r è parallela all’asse y se e solo se b = 0. sottintendendo che ci riferiamo ad una qualsiasi delle possibili equazioni della retta.1. Esempio 11. Scriviamo l’equazione della retta perpendicolare al vettore [5. è facile vedere che in questa forma l’equazione della retta (che è detta equazione segmentaria) mette in . L’equazione della retta è.2. da cui c = 3 e quindi la retta cercata ha equazione 5x + y + 3 = 0.2. iv) r e r1 sono perpendicolari se e solo se aa1 + bb1 = 0. b1 ] · [ a2 . tuttavia questa proprietà non va dimenticata. dunque . b2 ] | = [ a1 . perché il non tenerne conto può portare a gravi errori. Vogliamo l’equazione della retta che passa per i punti A(4. Si vede subito che la retta ha un’equazione della forma 5x + y + c = 0 e che passa per il punto (−1. dell’equazione di una retta (usando l’articolo determinativo). 1] e passante per il punto (−1. scegliendo a = 1 si ha x + y = 5. di solito quella la cui scrittura è più semplice. Esempio 11. come si fa abitualmente. si ha. iii) se r1 è la retta di equazione a1 x + b1 y + c1 = 0 allora r è parallela a r1 se e solo se ab1 = ba1 . D’ora in avanti parleremo comunque. soprattutto nelle applicazioni. b1 ]. [ a2 . nel senso che le equazioni ax + by + c = 0 e kax + kby + kc = 0 rappresentano la stessa retta ∀k = 0 ∈ R. Sia essa di equazione ax + by + c = 0. Si può dimostrare anche che se a1 x + b1 y + c1 = 0 e a2 x + b2 y + c2 = 0 sono due rette che formano un angolo ϕ si ha cos ϕ = | [ a1 . ovviamente. 2) se e solo se 5 · (−1) + 2 + c = 0. definita a meno di un fattore di proporzionalità non nullo. Altri tipi di equazione della retta L’equazione x y + =1 p q (11. 2). osservando che 5 è proprio la somma dell’ascissa e dell’ordinata sia di A che di B. 1) e B(3. OSSERV AZIONE 11. 2).

0) e Q(0. da cui x = x0 + λp y = y0 + λq (11. .11. 0) e Q(0. y − y0 ] sia linearmente dipendente dal vettore u.3) interseca gli assi coordinati nei punti P( p. ed è consuetudine indicarlo con la lettera t. precisamente la retta di equazione (11.5) si può anche 1 Abbiamo già osservato che anche i parametri direttori sono definiti a meno di una costante moltiplicativa non nulla. 0) e (0.1 a fronte. Abbiamo visto che una retta r del piano che passa per il punto P0 ( x0 .4) si ottiene un punto della retta. y0 ) ed ha la direzione del vettore u = [ p. −1). nella forma + = 1 mettendo in evidenza che passa per i punti 4 −3 P(4. −3) ha equazione + = 1 cioè 3x − 2y − 6 = 0 2 −3 Per esempio la retta 3x − 4y = 12 si scrive anche. ma sappiamo anche che due vettori sono linearmente dipendenti se e solo se sono proporzionali. 3] e quindi abbiamo le equazioni parametriche x = 2t . q] è l’insieme dei punti ( x. dividendo entrambi i membri x y per 12. quindi dev’essere v = λ · u.4) le (11. OSSERV AZIONE 11.2. le equazioni parametriche di una stessa retta possono assumere aspetti molto diversi. Per esempio la retta di equazioni parametriche (11. ma lo studente dovrebbe abituarsi a lavorare con una rappresentazione parametrica della retta in cui il parametro può essere indicato da una lettera qualsiasi. q). Nel sistema (11. ogni punto della retta ha coordinate espresse dalle (11. Ad esempio se vogliamo le equazioni parametriche della retta r ≡ 3x − 2y = 2 possiamo cominciare scegliendo un punto di r. −3). Le componenti p e q del vettore u sono una coppia1 di parametri direttori della retta. Mentre l’equazione cartesiana di una retta r è unica a meno di un fattore di proporzionalità non nullo. y = 3t − 1 (11. y) tali che il vettore v = [ x − x0 . La retta data ha direzione del vettore [2. e per ogni valore del parametro nelle (11. come notato nell’osservazione 11.2 Altri tipi di equazione della retta 97 risalto le intercette sugli assi.4).3. Viceversa la retta che passa per i x y punti (2.5) abbiamo chiamato t il parametro: il nome è ovviamente arbitrario. per esempio P(0.5) OSSERV AZIONE 11.4) si chiamano equazioni parametriche della retta.

y2 ) è l’ipotenusa di un triangolo rettangolo i cui cateti sono AC = x2 − x1 e BC = y2 − y1 da cui d= ( x2 − x1 )2 + ( y2 − y1 )2 . (11. poi si scrive l’equazione della retta per i due punti trovati. oppure si può eliminare il parametro dalle equazioni.1. 11. Per esempio se r ha equazioni parametriche x = 2t y = 2t − 1 sottraendo membro a membro le due equazioni si ottiene l’equazione cartesiana della r che è x − y = 1 . Distanze 11. y1 ) e B( x2 .3.98 La retta nel piano scrivere con le equazioni parametriche  x = 2+t  3 . trovando un’equazione cartesiana della retta data. Distanza di due punti La distanza di due punti nel piano segue da una immediata applicazione del Teorema di Pitagora. Distanza di due punti .6) t  y = 2 Viceversa per passare dalle equazioni parametriche ad un’equazione cartesiana si può procedere in vari modi: dando due valori al parametro si ottengono due punti della retta. Figura 11. infatti dalla figura 11.1.1 si nota subito che la distanza d tra i punti A( x1 .3.

mancando quella per cui µ = 0. Vogliamo scrivere l’equazione della la retta che passa per i punti A(1. L’equazione globale di tutte le rette del fascio F che ha per sostegno P si può ottenere facilmente come combinazione lineare non banale delle equazioni di due qualsiasi rette di F . I fasci sono uno strumento molto potente e comodo: vediamo un primo esempio.2. 0) e B(2. la ( 11. quando µ = 0 il parametro µ k perde di significato. nella forma (11. y0 ) dalla retta di equazione ax + by + c = 0 è | axo + bx = +c| √ .7) rappresenta tutte e sole le rette che passano per P se λ e µ non sono entrambi nulli.11. cioè qualunque retta per P è individuata da una particolare coppia di valori di λ e µ.4 Fasci di rette 99 11.7). e quindi l’equazione del fascio. convenendo che in questo caso la (11. – è molto generale e lo incontreremo ancora.8) λ . che lim k = ∞. Viceversa una qualunque retta per P è rappresentata da un’equazione del tipo ( 11. Distanza di un punto da una retta È noto che la distanza del punto P di coordinate ( x0 .8) non rappresenta tutte le rette del fascio. . di circonferenze. il punto A e quindi di equazione x − 1 + ky = 0 (11. per esempio nella forma k ( ax + by + c) + ( a x + b y + c ) = 0 in cui abbiamo posto k = (11. per esempio.3. però.4. L’equazione (11. di piani.9) 2 Il concetto di fascio –di rette. . . Questo significa che se abbiamo due rette distinte r e r entrambe passanti per P e rispettivamente di equazioni ax + by + c = 0 e a x + b y + c = 0 l’equazione λ( ax + by + c) + µ( a x + b y + c ) = 0 (11. usando un solo parametro. invece.8) rappresenta la retta ax + by + c = 0. Essa appartiene al fascio che ha per sostegno.4. Infatti per ogni coppia di valori (non entrambi nulli) di λ e µ. cioè la retta ax + by + c = 0. Se si considera. d= a2 + b2 11. si può accettare il valore µ →0 infinito per il parametro k.3. Esempio 11.7) è omogenea (rispetto ai parametri λ e µ) cioè è definita a meno di un fattore di proporzionalità non nullo. In questo caso. Può essere comodo scriverla.7) rappresenta una retta passante per P. però. OSSERV AZIONE 11. −3). Fasci di rette L’insieme di tutte le rette del piano che passano per un punto P prende il nome di fascio2 di rette che ha come centro o sostegno il punto P.

per esempio. x. Con questa convenzione due rette distinte nel piano hanno sempre un punto (proprio o improprio) in comune. OSSERV AZIONE 11. assimilare una direzione ad un punto “improprio” o punto “all’infinito”. Esempio 11. cosiddette omogenee. λ = 2 e µ = 3 a cui corrisponde la retta 2x + 3y − 3 = 0 11. per poter rappresentare anche i punti impropri conviene utilizzare una terna di coordinate. Scriviamo l’equazione del fascio di rette per P. i punti impropri saranno allora tutti e soli quelli la cui terza coordinata omogenea è nulla. non tutte nulle.4. y e u legate alle precedenti dalla relazione y x e Y= (11. essa sarà: λx + µ(y − 1) = 0 per la condizione di perpendicolarità si avrà 3λ − 2µ = 0 da cui.10) X= u u Possiamo allora dire che P ha coordinate omogenee x.100 La retta nel piano ottenuta come combinando linearmente le equazioni x = 1 e y = 0 delle rette parallele agli assi passanti per A. Nel piano. 0) e perpendicolare alla retta 3x − 2y + 1 = 0. Vogliamo l’equazione della retta passante per P(1. precisamente. Sorge il problema di come “coordinatizzare” i punti impropri. e quindi che un punto a coordinate razionali si può sempre considerare come un 1 3 punto a coordinate omogenee intere: per esempio il punto proprio P = . Coordinate omogenee Siccome due rette non parallele hanno in comune un punto e due rette parallele una direzione. Le coordinate omogenee di un punto sono definite a meno di un fattore di proporzionalità. I punti impropri verrano denotati con P∞ . Y ) attribuiamo a P le tre coordinate. come sappiamo. u e scriviamo P( x : y : u). y. un punto al finito può essere rappresentato da una coppia ordinata di numeri reali. se P( X. Y ) ha coordinate omogenee P( X : Y : 1).5. Se u = 0 possiamo scrivere che P( X. questo significa che il punto di coordinate omogenee P(3 : 2 : 1) coincide con il punto di coordinate omogenee P(6 : 4 : 2).9). La retta cercata si otterà imponendo il passaggio della generica retta del fascio per il punto P. quindi due rette sono parallele se (e solo se) hanno in comune un punto improprio. quindi sostituendo le coordinate di P nella (11. 5 5 ha coordinate omogenee P(1 : 3 : 5) . fà comodo. per esempio possiamo attribuire all’origine le coordinate omogenee O = (0 : 0 : 1). cioè 1 scrivendo 2 − 1 − 3k = 0 da cui si ottiene k = ed ottenendo quindi l’equazione 3 3x + y − 3 = 0.5. in certi contesti.

che corrisponde al punto di coordinate (0. Cambiamento del sistema di riferimento Abbiamo visto che un sistema di riferimento cartesiano ortogonale è determinato da un’origine O. cioè il luogo dei punti impropri del piano. 0) e dai due versori fondamentali degli assi u1 e u2 e che il punto P( x. Concludiamo il paragrafo con la seguente OSSERV AZIONE 11. l’equazione u = 0 rappresenta tutti e soli i punti la cui terza coordinata omogenea è nulla. Il seguente esempio chiarisce la situazione. Se P( x.6. Un sistema lineare omogeneo di tre equazioni in tre incognite può sempre essere interpretato geometricamente. y ) di P rispetto . le coordinate ( x .1. ha r = 2 per h = 1 e r = 1 per h = −1 quindi per h = ±1 le rette non hanno in comune alcun punto nè proprio nè improprio. quindi ammette la soluzione banale (0 0 : 0) che non rappresenta :  h −1 h alcun punto. essa ha rango r = 3 per 1 −h 1 h = ±1. precisamente la retta impropria. come la ricerca dell’eventuale punto comune di tre rette. che sono le coordinate omogenee di uno ed un solo punto (proprio o improprio) e per h = −1 ci sono ∞2 soluzioni che rappresentano le coordinate omogenee dei punti di una retta. in coordinate omogenee. 11. La matrice dei coefficienti è: h −1 −1. β). quindi le tre rette coincidono.6. I sistemi di riferimento 11.11. Esempio 11. y. ) è rappresentato dal vettore OP = xu1 + yu2 . essendo un’equazione lineare possiamo dire che essa rappresenta una retta. In questo contesto.10 a fronte) diventerà ax + by + cu = 0 ed avrà come punto improprio il punto per cui u = 0 che sarà dunque P∞ (−b : a : 0). cioè è una combinazione lineare dei versori fondamentali.6 I sistemi di riferimento 101 Consideriamo ora l’equazione della retta: in coordinate non omogenee essa sarà aX + bY + c = 0: applicando le ( 11. Il sistema   hx − y + hu = 0  hx − y − u = 0   x − hy + u = 0 è lineare omogeneo.6.5. quindi tutti (e soli) i punti impropri. per h = 1 ci sono ∞1 soluzioni. y) è il generico punto del piano e se si effettua una traslazione di assi che porta l’origine nel nuovo punto O (α.

è rappresentato da una matrice quadrata di ordine 2. come sappiamo. le equazioni che legano le coordinate di P nei due sistemi di riferimento sono date dal sistema x = ax + by y = cx + dy o. y ) e ci si chiede qual è il legame tra queste coppie di numeri. in forma più compatta da x = Ax dove x = x x ex = y y Dimostriamo ora il ed A = a b .11) . Si effettua in questo modo un cambiamento di base nello spasio vettoriale R2 che. Traslazione Ci si può chiedere che cosa succede delle coordinate di P( x. osserviamo che se P ha coordinate ( x. prendendo altri due vettori indipendenti come base. Figura 11. Al punto P saranno associati altri due numeri ( x . y) quando si cambia il sistema di riferimento.12) (11.2. y) in un sistema di riferimento e ( x . c d (11. Questo significa effettuare una rotazione del sistema di riferimento. Se consideriamo i cambiamenti di sistema di riferimento che lasciano ferma l’origine (escludiamo il caso noto delle traslazioni di assi). y ) nell’altro.102 La retta nel piano ai nuovi assi saranno: x = x+α y = y+β Ci si rende conto molto facilmente che le traslazioni sono trasformazioni lineari di R2 in sè che conservano le distanze –verificarlo per esercizio–.

3 cioè se la distanza di due punti P e Q è d nel sistema non accentato. possiamo supporre che il secondo punto sia l’origine O(0. essa resta d in quello accentato .11. Rotazione Teorema 11. Ma si ha 0 0 2 x0 + y2 = = ( ax0 + by0 )2 + (cx0 + dy0 )2 = 0 = a2 x02 + b2 x02 + 2abx0 y0 + c2 x02 + d2 x02 + 2cdx0 y0 = = ( a2 + c2 ) x02 + (b2 + d2 )y02 + 2( ab + cd) x0 y0 . 0) (se non lo fosse possiamo effettuare prima una opportuna traslazione di assi).6 I sistemi di riferimento 103 Figura 11.12) e che conservi la distanza di due punti3 .3. Sia P( x0 . Senza ledere la generalità. Si consideri un cambiamento di sistema di riferimento che lascia ferma l’origine. y0 ) un punto. Allora la matrice A è ortogonale e siamo in presenza di una rotazione di assi vedi Figura 11.3 Dimostrazione. che è uguale a x02 + y02 se e solo se  2  a + c2 = 1  b2 + d2 = 1   ab + cd = 0 che sono le condizioni per cui A è ortogonale. La distanza d di P da O è 2 2 x0 + y2 quindi deve essere d2 = x0 + y2 = x02 + y02 . quindi rappresentato dalle equazioni (11.2.

invece. ϑ ) . si vede subito dalla figura 11. ovviamente ϑ non è definito. Coordinate polari Parliamo delle coordinate polari nel piano. Altri sistemi di riferimento Presentiamo ora un altro sistema di riferimento che può essere comodo in varie circostanze. . e ϑ l’angolo che ol vettore OP forma con l’asse. Mentre le coordinate polari sono rappresentate da una coppia ordinata di numeri reali che rappresentano due lunghezze. Figura 11.104 La retta nel piano 11. Sia P un punto distinto dall’origine e siano ( x. y) le sue coordinate in un sistema di riferimento cartesiano. Se ρ = x2 + y2 è la distanza di P dall’origine. Possiamo allora dire che il punto P ha coordinate polari (ρ. i due numeri reali che rappresentano le coordinate polari.7. e possiamo dire che esso è individuato dalla sola coordinata ρ = 0.4 che si ha x = ρ cos ϑ y = ρ sin ϑ con ρ > 0. 0 ≤ ϑ < 2π.4.2. OSSERV AZIONE 11. Se P coincide con l’origine.6. sono rispettivamente una lunghezza e l’ampiezza di un angolo (misurata in radianti).

3) √ Esempio 12. se P( x. y1 ) e Q( x2 . sviluppata. . y2 ) è.2) si vede subito a b che essa rappresenta la circonferenza di centro C − . Sappiamo che una circonferenza Γ di centro C ( x0 .1. confrontando la (12. cioè. Per trovare l’equazione della circonferenza basta tradurre in equazione la definizione. − e di raggio r = 2 2 √ a2 + b2 − 4c purché si abbia 2 (12. cioè r= da cui ( x − x0 )2 + ( y − y0 )2 ( x − x0 )2 + ( y − y0 )2 = r 2 che assume la più usuale forma x2 + y2 + ax + by + c = 0 (12.12.2) rappresenta una circonferenza. Generalità Consideriamo un riferimento cartesiano ortogonale. La circonferenza nel piano 12. y) è un punto qualsiasi del piano. come è noto. La circonferenza che ha centro nel punto C (1. La distanza tra i punti P( x1 . 0) e raggio r = 2 ha equazione ( x − 1)2 + y2 = 2 che. Infatti. esso sta sulla circonferenza se e solo se la sua distanza da C è r. 0 Ma si può anche far vedere che ogni equazione del tipo (12. b = −2y0 e c = x0 + y2 − r2 .2) 2 pur di porre a = −2x0 . diventa x2 + y2 − 2x − 1 = 0 a2 + b2 − 4c > 0. y0 ) e raggio r è l’insieme dei punti del piano che distano r da C.1) (12.1) con la (12.1. d= ( x1 − x2 )2 + ( y1 − y2 )2 .

di centro l’origine e raggio immaginario r = i.106 La circonferenza nel piano Esempio 12. l’equazione x 2 + y2 + 1 = 0 che rappresenta la circonferenza. Si osserva subito che passano entrambe per l’origine. quindi o sono ivi tangenti o sono secanti. 2) − √ ed il raggio è r = 4+16−2 2 = 3 2 2 OSSERV AZIONE 12.3) in modo da poter affermare che tutte le equazioni del tipo (12. Siano γ1 ≡ x2 + y2 − 2x = 0 e γ2 ≡ 2x2 + 2y2 − y = 0.5) y = y0 + r sin ϕ Due circonferenze possono intersecarsi. Esempio 12. (12. essere interne una all’altra o tangenti. L’equazione (12. Si potrebbe stabilirlo esaminando la relazione che c’è tra la distanza dei centri e la somma o la differenza dei raggi. ma qui ci interessano le intersezioni. Sia γ la circonferenza 2x2 + 2y2 − 4x − 8y + 1 = 0.2. Per far ciò bisogna ampliare il piano cartesiano con i punti a coordinate complesse e quindi ammettere che sia una circonferenza anche la curva rappresentata dall’equazione x 2 + y2 = 0 che ha un solo punto reale. Dobbiamo studiare quindi il sistema  2 2 2  x + y2 − 2x = 0 x + y − 2x = 0 equivalente a  x 2 + y2 − 1 = 0 2x2 + 2y2 − y = 0 2 . completamente immaginaria. Dunque la circonferenza che ha centro in C ( x0 . y0 ) ed il raggio è r si ha che cos ϕ = e r y − y0 sin ϕ = dove ϕ è l’angolo che il raggio CP forma con la direzione dell’asse r x. La circonferenza nel piano ha anche un’interessante rappresentazione paramex − x0 trica: se il centro è il punto C ( x0 .4) si può scrivere anche nella forma 1 (canonica) x2 + y2√ 2x − 4y + 2 da cui si ha subito che il centro ha coordinate C (1. È comodo rimuovere l’eccezione (12. essere esterne una all’altra.4) Vogliamo trovarne centro e raggio.2) cioè tutte le equazioni di secondo grado in cui manca il termine rettangolare ed in cui i coefficienti di x2 ed y2 sono uguali rappresentano una circonferenza.3. Vogliamo trovare le loro intersezioni. e rappresenta la circonferenza con centro nell’origine e raggio nullo o peggio. y0 ) e raggio r ha equazioni parametriche x = x0 + r cos ϕ .1. internamente od esternamente. (12.

Poiché la tangente passa per P.12.1 Generalità 107 e anche. (v. Si può dimostrare il Teorema 12. 12. essa ha equazione a( x − x1 ) + b(y − y1 ) = 0.1 nella pagina successiva Teorema 12.2. Per trovare l’altra tangente si può procedere in vari modi i) Nel fascio di rette che ha per sostegno P si scelgono quelle a distanza 1 da C.1 nella pagina seguente).1. Tangenti Per determinare l’equazione di una tangente può essere utile ricordare una proprietà elementare illustrata nella figura 12. Siano P un punto e γ una circonferenza. fig. y1 − y0 ] e quindi possiamo porre a = x1 − x0 e b = y1 − y0 . se sono reali e coincidenti la retta è tangente se sono immaginarie la retta è esterna 12. Vogliamo determinare le tangenti alla circonferenza γ ≡ x2 + y2 − 2x = 0 passanti per P(0. Se P è esterno a γ da P escono due e due sole tangenti alla circonferenza. Nel caso di P esterno per trovare le tangenti uscenti da P si può procedere come nel seguente Esempio 12. La γ ha centro nel punto C (1. 2).4. invece se P ∈ γ la tangente è una sola. y1 ) ∈ Γ. intersecando con la γ si ha il sistema: y = mx + 2 x2 +y2 − 2x = 0 . al sistema  2  x + y2 − 2x = 0  −2x + 1 y = 0 2 che fornisce le soluzioni x1 = 0 y1 = 0 e x2 = 2 17 y2 = 8 17 . Quindi.6) Dimostrazione. ii) L’equazione canonica della generica retta per P è y = mx + 2. Si nota subito da questo fatto che una delle tangenti è l’asse y. Una retta ed una circonferenza hanno in comune due punti: se i due punti sono reali e distinti la retta è secante. Sia γ : ( x − x0 )2 + (y − y0 )2 = r2 l’equazione di una circonferenza e sia T ( x1 .1. 0) e raggio r = 1.1. Questa retta deve essere perpendicolare alla retta PC cioè al vettore [ x1 − x0 . Allora la retta tangente a γ in T ha equazione ( x − x1 )( x1 − x0 ) + (y − y1 )(y1 − y0 ) = 0 (12. sottraendo membro a membro.

7) cioè quando −4m − 3 = 0 da cui si ha la retta y = − 3 x + 2 cioè 3x + 4y − 2 = 0.10) . La (12.1. 4 OSSERV AZIONE 12. (m2 + 1) x2 + 2(2m − 1) x + 4 = 0.2.2.7) ammette due soluzioni coincidenti quando ∆ = (2m − 1)2 − 4(m2 + 1) = 0 4 (12. Fasci di circonferenze L’insieme di tutte le circonferenze che passano per due punti fissi A e B si chiama fascio di circonferenze ed i due punti prendono il nome di punti base del fascio se γ1 e γ2 sono due circonferenze di equazioni rispettive x2 + y2 + a1 x + b1 y + c1 = 0 e x2 + y2 + a2 x + b2 y + c2 = 0 (12. 12.9) si vede subito che l’equazione λ( x2 + y2 + a1 x + b1 y + c1 ) + µ( x2 + y2 + a2 x + b2 y + c2 ) = 0 (12. non individua rette parallele all’asse y.8) (12.108 La circonferenza nel piano Figura 12. Tangente da P ad una circonferenza che ammette come equazione risolvente x2 + (mx + 2)2 − 2x = 0 che diventa. Nell’esempio 12.4 nella pagina precedente abbiamo trovato una sola retta: questo è dovuto al fatto che abbiamo usato l’equazione canonica che. con semplici passaggi. come è noto.

2) alla retta di equazione y = 2x. ovviamente posto nella posizione più comoda.12. I due punti base del fascio possono anche essere coincidenti: è il caso di un fascio di circonferenze tangenti in un punto ad una retta (Fig.4 a pagina 99 notiamo che anche i fasci di circonferenze si possono descrivere con un solo parametro non omogeneo. per λ = −µ ancora una circonferenza che passa per A e B. Per λ = −µ la (12. pur di tener conto delle condizioni elencate appunto nell’osservazione 11. 0) e C (2.5. cioè la retta tangente. di equazione y = 0) e quella di raggio minimo. 0) e raggio 1 cioè di equazione ( x − 2)2 + y2 = 1. Vogliamo l’equazione del fascio di circonferenze tangenti nel punto P(1. Quindi Teorema 12. cioè quella per cui 22 + 32 − 4 · 2 + 3λ + 3 = 0. Le equazioni di tutte e sole le circonferenze del fascio che ha per sostegno i punti A e B si ottengono come combinazione lineare non banale di quelle di due qualsiansi circonferenze passanti per A e B. 12. e come tale viene spesso usato per scrivere l’equazione del fascio stesso. che appartiene al fascio perché si ottiene ponendo λ = −µ nella (12.4 di pag 99. quindi centro nel punto O(2.10).2 Fasci di circonferenze 109 rappresenta. e quella di raggio minimo si riduce alla circonferenza (immaginaria) che ha centro nel punto e raggio nullo. Se vogliamo scrivere l’equazione della circonferenza che passa per i tre punti A(1. che è: ( x − 1)2 + (y − 2)2 = 0 ottenendo l’equazione del fascio ( x − 1)2 + (y − 2)2 + λ(2x − y) = 0 . Esempio 12.10) rappresenta una retta passante per A e B che è detta asse radicale del fascio e che può esser considerata la circonferenza di raggio massimo (infinito) del fascio. B(3.4. Facendo riferimento all’osservazione 11. 3) possiamo scrivere anzittutto l’equazione del fascio che passa per A e B combinando linearmente due qualsiasi circonferenze per A e B: le più comode sono quella di raggio massimo (cioè l’asse radicale. Possiamo combinare linearmente l’equazione della retta con quella della circonferenza che ha centro in P e raggio 0. A questo punto la circonferenza che cerchiamo sarà quella del fascio che passa per il punto C. viene considerato come una circonferenza di raggio infinito. da cui l’equazione del fascio x2 + y2 − 4x + λy + 3 = 0 dove. l’asse radicale. abbiamo usato un solo parametro.2).6. Come abbiamo osservato. In questo caso la circonferenza di raggio massimo è sempre l’asse radicale. Esempio 12. in accordo con quanto detto nell’osservazione 11. 0).3. cioè quella che ha per diametro AB.

8. di fasci di circonferenze concentriche.3. sono al più due. La ragione di questo strano fatto risiede nella considerazione dell’esistenza di due punti impropri che appartengono a tutte le circonferenze del piano. ad esempio (scrivendo le equazioni in coordinate omogenee) γ1 ≡ x2 + y2 − 2xu + 2yu − 3u2 = 0 e γ2 ≡ x2 + y2 − 2xu + 2yu = 0 . Fascio di circonferenze tangenti ad una retta Si parla di fascio anche quando le due circonferenze hanno in comune solo punti immaginari. come abbiamo visto. le cui equazioni. tuttavia le soluzioni. per esempio. reali o complesse che siano.110 La circonferenza nel piano Figura 12. Per esempio il fascio di circonferenze che hanno centro nel punto C (1.2. Circonferenza ed elementi impropri Il problema delle intersezioni di due circonferenze dà luogo. Esempio 12. ad un sistema di quarto grado (due equazioni di secondo).7. essi prendono il nome di punti ciclici del piano. Esempio 12. come si verifica immediatamente. entrambe con centro in C. 12. questo è il caso. Essi sono i punti di coordinate omogenee (1 : ±i : 0) che. soddisfano l’equazione di una qualsiasi circonferenza. Nel caso di un fascio di circonferenze concentriche. in coordinate omogenee sono x2 + y2 + axu + byu + cu2 = 0. 0) può essere rappresentato dall’equazione ( x − 1)2 + y2 + k[( x − 1)2 + y2 − 1 ottenuto combinando linearmente la circonferenza di raggio nullo e quella di raggio 1.

Questo sigifica che tutte le circonferenze di questo fascio sono tangenti alla retta impropria nei punti ciclici.12. cioè la retta impropria contata due volte. .3 Circonferenza ed elementi impropri 111 se cerchiamo l’asse radicale otteniamo l’equazione 3u2 = 0.

.

13. Una conica si chiama ellisse se ε < 1.13. non confondere con il numero e = 2. si chiama ellisse (Fig. 1 Il 2 Da nome deriva dal fatto che l’ellisse. base dei logaritmi naturali . Il numero ε che si chiama eccentricità della conica viene spesso indicato anche con la lettera e2 . . parabola se ε = 1 e iperbole se ε > 1.1. Figura 13. parabola ed iperbole. Le coniche In generale se O è un punto fissato del piano ed r una retta non passante per O chiamiamo conica il luogo dei punti P tali che la distanza PO sia ε > 0 volte la distanza tra P ed r. . 13. 71 .2) di fuochi F1 e F2 l’insieme dei punti P del piano tali che sia costante la somma delle distanze di P da F1 e F2 d( PF1 ) + d( PF2 ) = 2a dove a è una costante tale che 2a > d( F1 F2 ).1. di Nepero. Dati due punti F1 e F2 del piano.1) Nello specifico possiamo dire che DEFINIZIONE 13. (Fig. la parabola e l’iperbole sono sezioni piane di un cono circolare. Le coniche In questo paragrafo esamineremo le principali proprietà di alcune curve piane note con il nome di coniche1 e cioè delle curve che vanno sotto il nome di ellisse.

( x + c )2 + y2 = 2 2a − ( x − c )2 + y2 ( x − c )2 + y2 = 4a2 + ( x − c)2 + y2 − 4a e quindi 4a da cui ( x − c)2 + y2 = 4( a2 − cx ) a2 ( x2 − 2xc + c2 + y2 ) = ( a2 − cx )2 = a4 − 2a2 xc + c2 x2 ( a2 − c2 ) x2 + a2 y2 = a2 ( a2 − c2 ) ⇐⇒ e la (13.2. L’ellisse Determiniamo l’equazione dell’ellisse scegliendo il sistema di riferimento in modo che i fuochi abbiano coordinate F1 (−c. allora deve essere 2a = d( PF1 ) + d( PF2 ) = Da cui ( x + c )2 + y2 + ( x − c )2 + y2 .1) √ dove b = a2 − c2 . y). tenendo conto che è 0 < c < a. x2 y2 + 2 =1 a2 a − c2 . 0). Precisamente dimostriamo che l’ellisse che ha fuochi F1 e F2 ha equazione x 2 y2 + 2 = 1. 0) e F2 (c. Sia P( x.114 Le coniche Figura 13.1) segue ponendo b2 = a2 − c2 . a2 b (13.

2. L’iperbole DEFINIZIONE 13. Possiamo scriverla nella forma x2 1 2 2 + y2 = 1 1 da cui si ricava immediatamente che a = e b = 1. Per esempio vogliamo determinare i fuochi dell’ellisse di equazione 4x2 + y2 = 1. 4 2 2 2 x Tenendo presente l’equazione (13. − e F2 0.115 OSSERV AZIONE 13. Per come è stato definito segue naturalmente che b < a. ±c).1.3. .1) si vede subito che si può porre = cos ϕ a y e = sin ϕ da cui si ottengono le comode equazioni parametriche dell’ellisse b x = a cos ϕ ϕ0 ≤ ϕ ≤ ϕ0 + 2π. essendo b > a si ottiene c = 2 √ √ √ √ 1 3 3 3 b2 − a2 e dunque c = 1 − = e quindi F1 0. se b = a si ottiene una circonferenza e se b > a si scambiano il ruolo della x e y e dunque si ottiene l’ellisse di fuochi (0. Dati nel piano due punti F1 e F2 si chiama iperbole di fuochi F1 e F2 l’insieme dei punti P del piano tali che è costante il valore della differenza delle distanze di P da F1 e F2 |d( PF1 ) − d( PF2 )| = 2a dove a è una costante che soddisfa la relazione 2a < d( F1 F2 ). . (13.2) y = b sin ϕ Figura 13.

3 a Figura 13. La parabola Consideriamo ora la parabola.3) √ a2 + b2 . 0) si ottiene. 0) e F2 (c. l’iperbole “si avvicina”alle due rette di equazioni ay = ±bx. se y > 0 ay − b| x | = − a2 b2 + b2 x 2 . . Le rette b di equazioni y = ± x si chiamano asintoti dell’iperbole. − a2 b2 + b2 x 2 − b | x | √ √ ( − a2 b2 + b2 x2 + b | x |)( − a2 b2 + b2 x2 − b | x |) √ = − a2 b2 + b2 x 2 + b | x | − a2 b2 √ = .116 Le coniche Se F1 (−c. infatti dalla (13.4. b | x | + − a2 b2 + b2 x 2 questa è una quantità che diventa sempre più piccola al crescere di | x |. 3 Il concetto generale di asintoto di una curva è stato chiarito nei corsi di Analisi. con calcoli del tutto analoghi a quelli svolti precedentemente – e che lasciamo per esercizio al lettore – che l’iperbole avente fuochi in F1 e F2 ha equazione x 2 y2 − 2 =1 a2 b dove c = (13.3) si ha ay = ± da cui. Si osserva anche che per grandi valori di | x |.

Se ciò non accade la forma dell’equazione può essere molto diversa. c non tutti nulli.in forma canonica. Per trovarne l’equazione canonica (v. Quelle che abbiamo esaminato sono le cosiddette equazioni canoniche delle coniche.3. xA x T = 0 (13. coincide con l’asse x e quindi non ha un centro di simmetria.1 Coniche in forma generale 117 DEFINIZIONE 13. oppure. r ) = x + da cui x2 + px + che. in forma matriciale.1. Dati nel piano un punto F ed una retta r tali che F ∈ r.13. la parabola. Coniche in forma generale In generale l’equazione di una conica è una generica equazione di secondo grado. ha un solo asse di simmetria che. b.4 nella pagina precedente) sia p p p > 0. x− p 2 2 (13. Fig. 0 allora r ha equazione x = − e l’equazione della parabola è: 2 2 y2 = 2px infatti d( PF ) = e d( P. semplificata. è la (13.4) + y2 p 2 p2 p2 = x2 − px + + y2 4 4 13. è l’origine del sistema di riferimento. Dalle equazioni che abbiamo trovato notiamo che l’ellisse e l’iperbole sono curve simmetriche: esse posseggono due assi di simmetria tra loro ortogonali che nel nostro caso coincidono con gli assi del sistema di riferimento. se F . quindi ha la forma ax2 + bxy + cy2 + dx + ey + f = 0 con a.5) . cioè quelle in cui appunto gli assi di simmetria delle coniche coincidono con gli assi coordinati. per le coniche a centro e con l’asse x per la parabola. quindi hanno anche un centro di simmetria. 13. in forma canonica. una parabola di fuoco F e direttrice r è l’insieme dei punti P del piano equidistanti da F e da r cioè: d( FP) = d( Pr ). che coincide con il punto di incontro degli assi e che. invece.4).

4 nella pagina precedente) che non contengono il termine “rettangolare”4 . Una conica è degenere se e solo se I3 = det A = 0. ( 13. che una conica degenere rimane tale in qualunque sistema di riferimento cartesiano ortogonale. 13. Il problema del riconoscimento di una conica si può affrontare in vari modi.1. per completezza. Questi caratteri invarianti si traducono in termini algebrici esaminando la matrice A vista nel paragrafo precedente. Inoltre.118 Le coniche dove x è il vettore x y 1 ed A è la matrice simmetrica   b a 2 d 2 e b A = 2 c 2 d e 2 2 f OSSERV AZIONE 13.5) si può portare in una delle tre forme canoniche ( 13. con passaggi elementari ma un po’ laboriosi. Se il polinomio a primo membro della (13.1 a pagina 114). cioè il fatto di essere un’ellisse piuttosto che una parabola od un iperbole. equilatera o no. la conica è una parabola se I2 = det B = 0. e la sua sottomatrice formata dalle a b prime due righe e dalle prime due colonne: B = b 2 . nel caso generale.3 a pagina 116) e ( 13. è un ellisse se I2 > 0 ed è un’iperbole se I2 < 0. cioè di sapere se l’equazione ( 13. degenere o no. per i nostri scopi possiamo notare subito che la (13. coincidenti o no). dobbiamo chiamare coniche anche curve a punti di coordinate complesse o curve spezzate in coppie di rette.1.1. Riconoscimento di una conica Sorge allora il problema di “riconoscere” la conica.5 nella pagina precedente) rappresenti un’ellisse. queste ultime prendono anche il nome di coniche degeneri. Quindi. .5) si scompone in fattori lineari. Si verifica facilmente. si dimostra che mediante un opportuno cambiamento di sistema di riferimento l’equazione (13. la conica è detta degenere e spezzata in due rette (reali o immaginarie. già vista) o x2 + 2y2 + 1 = 0 (ellisse completamente immaginaria) oppure x2 − √ √ 2y2 = 0 spezzata nelle due rette reali x + 2y = 0 e x − 2y = 0 ed altre “stranezze” del genere. un’iperbole o una parabola.5) rappresenta una circonferenza se e solo se b = 0 e a = c.5) dobbiamo accettare anche equazioni del tipo x2 + y2 = 0 (circonferenza che ha un solo punto reale. In 4 In realtà le equazioni canoniche dell’ellisse e dell’iperbole non contengono nemmeno termini lineari. Tra le equazioni della forma (13. Un’altra caratteristica invariante di una conica è la sua natura. ma questi ultimi si possono facilmente eliminare con una traslazione degli assi. quindi l’essere degenere è un carattere invariante rispetto ad una qualsiasi rototraslazione di assi. Si può infatti dimostrare 2 c che Teorema 13.2.

notiamo che: i) Nei due casi dell’ellisse. Tabella 13. 5 in questo caso si parla spesso di una retta contata due volte .4. ii) Nell’ellisse immaginaria se a = b si ha la circonferenza di raggio nullo. OSSERV AZIONE 13. rispettivamente reale o immaginaria. Si può anche dimostrare che con un’opportuna rototraslazione di assi l’equazione generica di una conica ( 13.3. iii) Nell’equazione dell’iperbole se a = b si ha l’iperbole equilatera.1.5 a pagina 117) si può sempre portare in una ed una sola forme canoniche elencate nella tabella 13. Dal teorema 13.1. se a = b si ha una circonferenza.1 a fronte si vede dunque che la natura di una conica è completamente determinata solo dai coefficienti dei termini di secondo grado della sua equazione ed in particolare che la conica è una parabola se e solo se il complesso dei termini di secondo grado è il quadrato di un opportuno binomio. Osserviamo anche che la parabola degenera in due rette reali parallele (eventualmente sovrapposte5 : per esempio quelle rappresentate dall’equazione x2 = 0). Le forme canoniche dell’equazione di una conica x2 y2 + 2 =1 a2 a x2 y2 + 2 = −1 a2 a 2 y2 x + 2 =0 a2 a 2 x y2 − 2 =1 a2 a 2 x y2 − 2 =0 a2 a 2 = 2px y y2 = 0 (ellisse reale) (ellisse immaginaria) (ellisse degenere) (iperbole non degenere) (iperbole degenere) (parabola non degenere) (parabola degenere) In riferimento alla tabella 13. l’ellisse degenera in due rette incidenti entrambe prive di punti reali (tranne il loro punto di intersezione) infine l’iperbole degenere è costituita da due rette reali incidenti in un punto. OSSERV AZIONE 13.1. che sono perpendicolari se e solo se l’iperbole è equilatera.1 Coniche in forma generale 119 particolare se la traccia di B cioè I1 = a + c = 0 è nulla si tratta di una iperbole equilatera.13. degenere in due rette immaginarie: di equazioni x ± iy = 0 che si chiamano rette isotrope.

5). del resto si vede anche subito che la matrice A = −2 1 0 2 −1 singolare. Si vede subito La matrice dei coefficienti è A = −1 0 0 1 −1 che la sottomatrice B = ha determinante uguale a 5 quindi positivo: si tratta −1 6 dunque di un’ellisse non degenere (vedi Figura 13.6) si scrive anche ( x − 2y x − 2y + 1) = 0 )(  1 1 −2 2 4 −1 è dunque è degenere. essendo A simmetrica (vedi Teorema 9.2. Sia da riconoscere la conica x2 − 4xy + 4y2 + x − 2y = 0. (13. raccogliendo opportunamente la (13.8 a pagina 80). .2 Esempio 13. quindi. si tratta di una parabola. il che è sempre possibile.5. Figura 13.  1 −1 −1  −1 6 0 che non è singolare. inoltre.6) Si vede subito che la (13.120 Le coniche Osserviamo anche che operare la rotazione che riduce a forma canonica l’equazione di una conica equivale a diagonalizzare ortogonalmente la matrice A. Esempio 13. poiché il complesso dei termini di secondo grado è un quadrato.6) si può scrivere come ( x − 2y)2 + x − 2y = 0. Esempio 13. Vogliamo riconoscere la conica di  equazione x2 − 2xy + 6y2 − 2x = 0.1.

2 Tangenti ad una conica in forma canonica 121 13. Nel caso delle equazioni in forma canonica si verifica agevolmente che se P( x0 .13.2. y0 ) è un punto appartenente alla conica l’equazione della tangente in P alla conica è.7) ovviamente con il segno + se si tratta di un’ellise e con il segno − se si tratta di un’iperbole.8) rappresentano le tangenti solo se P appartiene alla conica e quest’ultima è scritta in forma canonica. cioè.8) ATTENZIONE Le (13. . detta A la matrice dei coefficienti.7) e (13. In questo caso diciamo che la retta r è tangente alla conica γ. 5 dà luogo al sistema  2  ax1 + bx1 y1 + cy2 + dx1 + ey1 + f 1 = 0  1   2  ax + bx y + cy2 + dx + ey + f = 0  2  2 2 2 2 2 2  ax2 + bx3 y3 + cy2 + dx3 + ey3 + f 3 = 0 3  3  2  ax + bx y + cy2 + dx + ey + f = 0  4 4 4 4 4 4  4   2  2 ax5 + bx5 y5 + cy5 + dx5 + ey5 + f 5 = 0 che è lineare omogeneo di 5 equazioni nelle 6 incognite a. c. Quanto qui esposto si traduce nel 6 cioè. in quanto la risolvente del sistema è al più di secondo grado. per le coniche reali a centro. ricordiamo. però. (13. Conica per cinque punti L’equazione generica della conica ( 13. se r ( A) = 5 il sistema ammette ∞1 soluzioni. d.3. xx0 yy0 ± 2 =1 a2 b (13. Questi due punti. Allora se il rango della matrice dei coefficienti è massimo. possono essere distinti. . ed invece per la parabola in forma canonica l’equazione della tangente in P è: yy0 = p( x + x0 ). Tangenti ad una conica in forma canonica Sia γ una conica. 13. Una retta r ha in comune con γ al massimo due punti. cioè infinite soluzioni che differiscono solo di un fattore di proporzionalità.5 a pagina 117) è un’equazione che dipende da sei coefficienti omogenei6 . quindi imporre il passaggio per un punto dà luogo ad una equazione in sei variabili. . definiti a meno di un fattore di proporzionalità non nullo. infatti il sistema formato dalle equazioni della retta e della conica ammette al più due soluzioni. Dunque il passaggio per cinque punti distinti Pi ( xi . b. reali o complessi oppure coincidenti. yi ). i = 1 . e ed f .

come abbiamo visto. intersecandola con la retta impropria. non altera la natura di una conica. reali o meno. x2 y2 x2 y2 Per 2 ± 2 = u2 i punti impropri sono quelli delle due rette 2 ± 2 = 0 a b a b b b e cioè. Se i cinque punti sono a tre a tre non allineati le equazioni sono indipendenti quindi il sistema ammette ∞1 soluzioni. a tre a tre non allineati. In tal caso la conica è tangente ad una retta passante per i due punti coincidenti (e per nessuno dei rimanenti). Le coniche in coordinate omogenee In coordinate omogenee.122 Le coniche Teorema 13.4. in tal caso la conica sarà tangente a due rette che passano ciascuna per una delle coppie di punti coincidenti. perché se così non fosse almeno tre dei cinque punti sarebbero allineati. passa una ed una sola conica non degenere. distinti o coincidenti.9) Per riconoscere la natura di una conica è più elegante studiarne il comportamento all’infinito. che. il che è assurdo. Infatti segue dalle considerazioni svolte sin qui. se così non fosse. perché la conica che si spezza nelle rette AB e CD dovrebbe passare per E che per ipotesi non può appartenere nè alla retta AB nè alla CD. Per quanto riguarda l’equazione y2 = 2pxu della parabola si ha y2 = 0 che equivale all’asse x contato due volte. quindi la parabola è tangente alla retta impropria nel punto X∞ (1 : 0 : 0). manda punti propri in punti propri e punti impropri in punti impropri. propri o impropri. si avrebbe che tutte le coniche che passano per quattro punti A B C D passerebbero anche per il quinto E. Di più le coppie di punti coincidenti possono essere due. che una retta ed una conica hanno sempre due punti in comune. rispettivamente 1 : ±i : 0 per l’ellisse e 1 : ± : 0 per l’iperbole.5 a pagina 117) si scrive ax2 + bxy + cy2 + dxu + eyu + f u2 = 0 (13. Una rototraslazione di assi.2. l’equazione ( 13. cioè lavorando nel piano ampliato con gli elementi impropri. Nel caso generale l’intersezione tra una . 13. a a dunque l’iperbole ha due punti impropri reali e distinti: quelli dei suoi asintoti mentre i punti impropri dell’ellisse sono immaginari. infatti. cioè se una delle equazioni fosse combinazione lineare delle altre quattro. L’unica conica che passa per i cinque punti è anche irriducibile. Le condizioni poste non vietano che due dei cinque punti coincidano. che possiamo esaminare sulle equazioni canoniche. Dimostrazione. quindi la natura di una conica equivale al suo comportamento all’infinito. Per cinque punti.

(Vedi figura 13.6. in direzione ortogonale se e solo se essa è equilatera.13. Esempio 13. La parabola è tangente alla retta impropria nel suo punto improprio.3. di più poiché i due punti impropri sono in direzioni ortogonali.3 Esempio 13. avendo i due punti impropri reali e √ √ distinti P∞ (2 : 3 + 13 : 0) e Q∞ (2 : 3 − 13 : 0) è un’iperbole.6) . quindi la conica. si tratta di un’iperbole equilatera.4 Le coniche in coordinate omogenee 123 parabola e la retta impropria produce il sistema ax2 + bxu + cy2 = 0 u=0 in cui la prima equazione è il quadrato di un binomio (αx + βy) e quindi la parabola avrà il punto improprio ( β : −α : 0). Figura 13. Se passiamo a coordinate omogenee e intersechiamo la γ con la retta impropria u = 0 otteniamo il sistema x2 + 3xy − y2 + xu − 2u2 = 0 equivalente a u=0 x2 + 3xy − y2 = 0 u=0 Dividendo la prima equazione per x2 otteniamo i coefficienti angolari delle rette in cui è spezzata la conica del secondo sistema: m2 − 3m − 1 = 0 che ammette le due radici √ reali e distinte m12 = 3± 2 13 . ha due punti impropri reali e distinti. Dunque possiamo concludere che: L’ellisse L’iperbole non ha punti impropri reali. Vogliamo riconoscere la natura della conica γ che in coordinate non omogenee ha equazione x2 + 3xy − y2 + x − 2 = 0.

Per quattro punti a tre a tre non allineati passano sei rette. a tre a tre non allineati ma eventualmente a due a due coincidenti) l’insieme F di tutte le coniche la cui equazione si ottiene come combinazione lineare non banale delle equazioni di γ1 e γ2 . Riconosciamo la conica x2 + xy + 2y2 + x − 1 = 0.5.4. quindi la conica è un’ellisse. In tale situazione chiamiamo punti base del fascio i quattro punti comuni a γ1 e γ2 . Si verifica facilmente che tutte e sole le coniche di F passano per tutti e quattro i punti base.7) Figura 13. come si vede dalla figura 13. Osserviamo inoltre che imporre ad una conica di passare per quattro punti non allineati vuol dire fornire quattro condizioni lineari indipendenti. Fasci di coniche In questo capitolo estenderemo al caso delle coniche il concetto di fascio già visto per le rette e le circonferenze come insieme di enti geometrici le cui equazioni dipendono linearmente da una coppia di parametri omogenei o da un solo parametro non omogeneo. 13. Passando a coordinate omogenee ed intersecando con la retta impropria. Esempio 13.7. propri o impropri.124 Le coniche Esempio 13. che.4 13. che si incontrano in quatto punti (reali o no. . formano le (uniche) tre coniche degeneri di F . Generalità sui fasci di coniche Chiamiamo fascio di coniche generato da due coniche γ1 e γ2 . opportunamente considerate a due a due. abbiamo x2 + xy + 2y2 = 0 da cui 1 + m + 2m2 = 0 che ha radici complesse.1.5.

in generale le più comode sono quelle degeneri. Analogamente possiamo dire che la (13. la AC · BD e la AD · BC possiamo usare due di queste per scrivere l’equazione del fascio. B. a1 + c1 = 0. ad esempio. oppure essere identicamente verificata (se a1 + c1 = a2 + c2 = 0) o non ammettere soluzioni (se.12) L’equazione (13.5.11) Ci chiediamo quando l’equazione (13. e allora si tratta di un fascio di coniche che non contiene parabole. Ci possono essere anche due coppie di punti coincidenti: in tal caso si parla di fascio di coniche bitangenti. quindi in un fascio di coniche possono esserci esattamente una iperbole equilatera. Se le due coniche da cui partiamo per costruire il fascio hanno rispettivamente equazioni: γ1 ≡ a1 x2 + b1 xy + c1 y2 + d1 x + e1 y + f 1 = 0 γ2 ≡ a2 x2 + b2 xy + c2 y2 + d2 x + e2 y + f 2 = 0 l’equazione del fascio sarà: λ( a1 x2 + b1 xy + c1 y2 + d1 x + e1 y + f 1 )+ +µ( a2 x2 + b2 xy + c2 y2 + d2 x + e2 y + f 2 ) = 0 L’equazione (13.10) (λa1 + µa2 ) x2 + (λb1 + µb2 ) xy + (λc1 + µc2 )y2 + +(λd1 + µd2 ) x + (λe1 + µe2 )y + λ f 1 + µ f 2 = 0 (13.12) può ammettere esattamente due soluzioni reali.5.11) se e solo se λa1 + µa2 + λc1 + µc2 = 0.11) rappresenta una parabola se e solo se (λb1 + µb2 )2 + 4(λa1 + µa2 )(λc1 + µc2 ) = 0 (13.13. Questa è un’equazione lineare che può ammettere una sola soluzione. 7 eventualmente degeneri . e allora nel fascio ci sono due parabole distinte o coincidenti7 oppure essere identicamente soddisfatta. a2 + c2 = 0). Se due dei quattro punti base coincidono si ha una condizione di tangenza: è il caso del fascio di coniche tangenti in un punto ad una data retta e passanti per altri due punti. esse sono tre: quella spezzata nella coppia di rette AB e CD che indicheremo con AB · CD. distinte o coincidenti.5 Fasci di coniche 125 Per scrivere l’equazione del fascio di coniche che ha come punti base i punti A. cioè di coniche tangenti in un punto P ad una retta r ed in un punto Q ad una seconda retta s. solo iperboli equilatere o nessuna iperbole equilatera. e allora si tratta di un fascio di parabole o impossibile. C e D basta combinare linearmente le equazioni di due qualsiansi di queste coniche.1) può assumere anche la forma (13. Ricordiamo che una conica ax2 + bxy + cy2 + dx + ey + f = 0 è un’iperbole equilatera se e solo se a + c = 0 quindi nella (13.1) rappresenta un’iperbole equilatera..

x2 + y2 + αxu + βyu + γu2 = 0 Sottraendo membro a membro e raccogliendo opportunamente si ha l’equazione u [( a − α) x + (b − β)y + c − γ] = 0 che è l’equazione di una conica spezzata nella retta impropria e in un altra retta.5. quella che abbiamo chiamato l’asse radicale del fascio. Un fascio di circonferenze secanti è dunque un caso particolare di quello delle coniche per quattro punti distinti. si intende che la conica passa per il punto improprio R∞ della retta r.6.126 Le coniche Esempio 13. esaminiamo che cosa accade in coordinate omogenee intersecando due circonferenze: si ha il sistema x2 + y2 + axu + byu + cu2 = 0 . La circonferenza è una particolare conica che viene individuata dando solo tre condizioni lineari indipendenti. ad esempio se si dice che una conica ammette un asintoto parallelelo ad una retta r data. di equazioni rispettive √ √ √ (1 + 2) x2 − 2xy − (1 + 2)y2 + 2x − 4 2 = 0 √ √ √ (1 − 2) x2 − 2xy − (1 − 2)y2 + 2x + 4 2 = 0 13. Fasci e punti impropri Le questioni riguardanti le coniche per quattro o cinque punti hanno senso anche quando uno o due dei punti sono impropri. Quindi si hanno due parabole. questo fatto si spiega considerando che. allora le condizioni sono due: il passaggio per il punto improprio e la tangenza ivi alla retta asintoto. come abbiamo detto alla fine del capitolo12 tutte le circonferenze del piano passano per due punti: i punti ciclici. se si conosce proprio l’equazione dell’asintoto. Per quanto riguarda l’asse radicale di un fascio di circonferenze. Il fascio individuato dalle due coniche ha equazione λ( x2 + y2 − 4) + µ( x2 − 2xy − y2 + 2x ) = 0 che si può anche scrivere come x2 − 2xy − y2 + 2x + k( x2 + y2 − 4) = 0 o anche come (k + 1) x2 − 2xy + (k − 1)y2 + 2x − 4k = 0 √ Per avere una parabola dovrà essere (k + 1)(k − 1) − 1 = 0 da cui k = ± 2. Cerchiamo se esistono parabole passanti per i punti comuni alle coniche γ1 ≡ x2 + y2 = 4 e γ2 ≡ x2 − 2xy − y2 + 2x = 0 (circonferenza e iperbole equilatera non degenere). .

Parte III. Polarità piana .

.

14. ax + b come x = lim . Esse valgono soltanto per i punti propri. In questo capitolo ci occuperemo di particolari trasformazioni tra forme di prima specie dette proiettività e di un particolare ed importante tipo di tali trasformazioni dette involuzioni.1.1) il rapporto membro a membro e passando dalle coordinate omogenee a quelle ordinarie si ottiene x = ax + b cx + d (14. Facendo nel sistema (14.14. In modo analogo si osserva che il punto di r che ha come x →0 cx + d . Su ciascuna di esse si può fissare un sistema di ascisse in modo che ( x : u) siano le coordinate omogenee del generico punto P ∈ r e ( x : u ) quelle del generico punto P ∈ r . Esso può anche essere determinato. così come lo sono i fasci di rette o di coniche.2) che è la forma più usata per descrivere una proiettività. ρ = 0.2). Proiettività ed involuzioni Chiamiamo forma proiettiva di prima specie qualunque insieme di enti geometrici la cui equazione è definita al variare di due parametri lineari omogenei od uno non omogeneo che possa però assumere anche il valore infinito: le rette. Proiettività Si considerino due rette proiettive (cioè completate con il loro punto improprio e pensate come insieme di punti) r e r . viste come insieme di punti (punteggiate) sono forme di prima specie. Chiamiamo proiettività tra r ed r la corrispondenza biunivoca π che associa al punto P( x : u) di r il punto P di r di coordinate ρx = ax + bu ρu = cx + du (14.1) con ac − bd = 0 e ρ ∈ R. infatti il corrispondente del punto P∞ (1 : 0) dalla (14. usando la (14.1) ha ρx = a coordinate tali che sia e se c = 0 si ha P ( a : c) cioè P a mentre c ρy = c se è c = 0 si ottiene il punto di coordinate omogenee P ( a : 0) cioè il punto improprio della retta r .

quindi una proiettività può avere: • due punti uniti distinti (proiettività iperbolica) • un punto unito doppio (proiettività parabolica) • nessun punto unito (proiettività ellittica) Nel caso in cui sia α = 0 si verifica facilmente che un punto unito è il punto − βx −δ improprio: infatti da βx + γx + δ = 0 si ha x = γ (qui γ è sicuramente .130 Proiettività ed involuzioni corrispondente il punto improprio di r è P(−d : c).2. la proiettività sia tra forme sovrapposte si chiamano uniti o fissi i punti che sono corrispondenti di se stessi.3. al punto 1+1 −1−1 B(−1) il punto di ascissa x = −1+1 = ∞ cioè il unto improprio della retta r ed al −1 punto P∞ improprio della r il punto di ascissa x = lim x+1 = 1 x x →∞ Nel caso in cui le due rette (o più in generale le due forme) coincidano.2) ottenendo una relazione del tipo αxx + βx + γx + δ = 0 con la condizione αδ − βγ = 0. Dall’esempio precedente si vede che. Ad A(1) corrisponde il punto A di ascissa x = 1−1 = 0.1. possiamo scrivere x = −(x−2)) e quindi x = −2 per ogni x −2 = 0 si ha la forma di indecisione 0 che corrisponde alla coppia di 0 (14. dunque per c = 0 si ha P − d e per c = 0 si ha il punto improprio di r. Esempio 14. è ad − bc = 2( = 0.3) x = 2 mentre per x coordinate omogenee nulle ma non rappresenta alcun punto. appunto. come si suol dire. Se nella ( 14. cioè. Vogliamo trovare i punti uniti della priiettività di equazione xx − x − 2x = 0. come mostra il seguente Esempio 14. Tenendo conto di questa condizione si ottiene l’equazione x2 − 3x = 0 da cui i due punti uniti O(0) ed A(3). c Un altro modo per rappresentare una proiettività si può ricavare eliminando il denominatore nella (14.1 nella pagina precedente) lasciamo cadere la condizione ad − bc = 0 si perde la biunivocità. x Esempio 14. Consideriamo la proiettività x = x−1 e calcoliamo il corrispondente +1 di qualche punto. se nella (14. Si consideri la corrispondenza x = 2 · 2 − (−4) · (−1) 2x −4 − x +2 in cui.3) è α = 0 la ricerca dei punti uniti si riconduce alla ricerca delle radici di un’equazione di secondo grado. Un punto è unito se e solo se è corrispondente di se stesso. cioè se x = x .

14. Per la condizione di perpendicolarità si ρλ = −µ deve avere λµ + λ µ = 0 cioè che diventa. sottintendiamo di estendere a tutte le forme di prima specie le considerazioni che facciamo per le punteggiate. dunque la relazione di ortogonalità definisce una proiettività tra i due fasci considerati. in questo contesto. e sia π la corrispondenza che associa ad ogni retta r di F la retta r di F ad esssa perpendicolare. Vogliamo l’equazione della proiettività che ammette come punti uniti i punti A(0). si possono considerare allo stesso modo proiettività tra fasci di rette o di coniche.   δ=0  α + β + γ + δ = 0 da cui si ricava sostituite nella (14.4. (14. B(1) e fa corrispondere al punto C (2) il punto C (−1). se β = −γ x = − β+γ e se β = −γ il punto improprio è un punto unito doppio.1. danno luogo al sistema   −2α + 2β − γ + δ = 0 δ = 0.3). D’ora in avanti. ma come abbiamo detto. Ogni proiettività è rappresentata da un’equazione omogenea che dipende da 4 coefficienti.3). quindi è perfettamente determinata quando sono date tre coppie di punti corrispondenti (uniti o meno): Esempio 14. α = 3β e γ = −4β e quindi l’equazione della proiettività è 3xx + x − 4x = 0. Le rette.1). utilizzando nei due fasci un ρµ = λ 1 solo parametro non omogeneo e scrivendo : y = mx e F : y = m ( x − 1) m = − m cioè mm − 1 = 0. Una proiettività tra forme di prima specie sovrapposte in cui ogni coppia di elementi è involutoria si chiama involuzione . Involuzioni Se in una proiettività π tra forme di prima specie sovrapposte si ha una coppia di punti A e B tale che π ( A) = B =⇒ π ( B) = A si dice che la coppia è involutoria o che i punti si corrispondono in doppio modo.5. pensate come punteggiate ed i fasci (di rette o di coniche) vengono globalmente indicate. Si hanno quindi delle relazioni analoghe alle (14. in questo caso le coordinate (omogenee) del singolo elemento del fascio sono i parametri che lo individuano nel fascio stesso. L’altro punto unito sarà.2 Involuzioni 131 non nullo perche se no sarebbe αβ − γδ = 0 e non avremmo una proiettività) − βx −δ δ e quindi lim γ = ∞. x →∞ 14. 0). Le condizioni poste.2) ed (14.2. come forme di prima specie. Sia F il fascio λx + µy = 0 di rette per l’origine e F λ ( x − 1) + µ y = 0 quello delle rette per P(1. Esempio 14. Finora abbiamo considerato proiettività tra rette (punteggiate). DEFINIZIONE 14. salvo avviso contrario.

in analogia con la (14.3) come αxx + β( x + x ) + δ = 0 che è un’equazione simmetrica. per il lemma 14. punti che si corrispondono in una involuzione vengono anche spesso detti punti coniugati . Dimostrazione. Se β = γ. allora ogni coppia di punti è involutoria e quindi. Una proiettivitàπ tra forme di prima specie sovrapposte che ammetta una coppia involutoria è una involuzione. L’equazione (14. Dimostrazione. quindi essa è univocamente determinata da due coppie di punti corrispondenti1 . viceversa se la proiettività è un’involuzione.132 Proiettività ed involuzioni L’equazione di una involuzione si può scrivere. ma poiché anche x1 corrisponde ad x2 si avrà anche αx2 x1 + βx2 + γx1 + δ = 0.3.4) dipende da tre coefficienti omogenei. Corollario 14. Anche le involuzioni si possono classificare in base ai loro punti uniti: precisamente un’involuzione è iperbolica se ammette due punti uniti reali e distinti. cioè tutte le coppie di elementi che si corrispondono in π sono involutorie Dimostrazione. risolvendo la (14.3) sia rispetto ad x che ad x si ha x = βx + δ αx + β e x= βx + δ αx + β (14.1. Lemma 14. in particolare un’involuzione è univocamente determinata dai suoi punti uniti. Per le involuzioni sussiste il Teorema 14.3) esiste una coppia involutoria. allora si ha β = γ e quindi la proiettività è in particolare una involuzione. Se in una proiettività di equazione (14.1 e dal Teorema 14. ascissa di un punto non unito corrisponde x2 = x1 si ha αx1 x2 + βx1 + γx2 + δ = 0. ellittica 1 Due se non ha punti uniti reali. Infatti se a x1 .2. cioè non cambia scambiando x con x .2. sottraendo membro a membro otteniamo β( x1 − x2 ) + γ( x2 − x1 ) = 0 da cui ( x1 − x2 )( β − γ) = 0 e poiché x2 = x1 deve essere β − γ = 0.1 si ha β = γ. La proiettività di equazione (14. Segue immediatamente dal Lemma 14.3) è un’involuzione se e soltanto se β = γ.4) quindi ogni coppia di punti è involutoria. quindi la proiettività è un’involuzione.

le cui soluzioni sono m = 1.2 Involuzioni 133 Non esistono involuzioni paraboliche. siccome si tratta di una involuzione αδ − β2 = 0 Vediamo ora qualche esempio Esempio 14. L’involuzione cercata ha dunque equazione mm − 3(m + m ) + 5 = 0. l’involuzione che fa corrispondere alla retta di coefficiente angolare m = 3 quella di coefficiente angolare m = ∞ e che ammette come unita la retta per cui m = 1. tenendo conto delle condizioni date si hanno le relazioni 3α + β = α + 2β = −δ β+δ 0 e 1 = − α+ β che danno luogo al sistema che ha come soluzione 3α + β = 0 δ = 5α . Calcoliamo i punti uniti dell’involuzione xx + 1 = 0. Esempio 14. che sapevamo.8. ed m = 5. infatti ponendo nella 14. Troviamo l’equazione dell’involuzione che ha come punti uniti A(0) e B(1). coefficiente angolare dell’altra retta unita. . Quindi l’involuzione non ha punti uniti reali ed è dunque ellittica. Si perviene all’equazione x2 + 1 = 0 che non ha radici (in R).7. Esempio 14. β = −3α Ponendo m = m si ha l’equazione ai punti uniti m2 − 6m + 5 = 0. Sia data. Dalla relazione βm+δ m = − αm+ β .14.6. Le coordinate dei punti uniti sono soluzioni dell’equazione x2 − x = 0 da cui si 1 ottiene xx − 2 ( x + x ) = 0. in un fascio di rette. Vogliamo trovare l’altra retta unita.4 x = x si ottiene l’equazione di secondo grado αx2 + 2βx + δ = 0 il cui discirminante ∆ = 4β2 − 4αγ = 4( B2 − αγ) non si annulla mai perché dev’essere αδ − βγ = 0 e quindi.

.

1) la retta che può scriversi indifferentemente2 in ciascuna delle due seguenti forme x ∂f ∂x ∂f x0 ∂x +y P ∂f ∂y ∂f + y0 ∂y +u P + u0 ∂f ∂u ∂f ∂u =0 P (15. in coordinate omogenee. può essere rappresentata. Chiamiamo polare del punto P( x0 : t0 : u0 ) rispetto alla conica di equazione (15.1) dove x = [ x. in notazione matriciale xA x T = 0 (15. . Inoltre si può dimostrare che la corrispondenza che associa ad ogni punto del piano la sua polare rispetto ad una conica γ è biunivoca. Se la retta r è la polare del punto P il punto P si chiama polo della retta r rispetto alla conica γ. delle due forme dell’equazione della polare si può facilmente verificare sostituendo semplicemente nella (15. anche se non espressamente detto. 15. DEFINIZIONE 15.4) =0 Si vede subito che anche la (15.4) rappresenta una retta in quanto è sicuramente un’equazione lineare e che le tre derivate parziali non si annullano contemporaneamente in alcun punto del piano. u) = a11 x2 + 2a12 xy + a2 y2 + 2a13 xu + 2a23 yu + a33 u2 = 0 o anche. irriducibili. y. 1 Da qui in poi. come già visto.1) calcolate in un punto generico.1). salvo esplicito avviso contrario.4) le espressioni delle tre derivate parziali del polinomio di cui alla (15. Polarità piana In questo capitolo esamineremo e studieremo una particolare corrispondenza biunivoca tra punti e rette del piano indotta da una conica. y.15. le coniche prese in esame dovranno 2 L’equivalenza essere considerate.1.2) (15. dall’equazione f ( x.1. e per tutto il capitolo. Polare di un punto rispetto ad una conica irriducibile Sia data una conica irriducibile1 γ che.3) (15. u] ed A = [ aik ] è la matrice simmetrica dei coefficienti della (15.

136

Polarità piana

Se la conica è data con l’equazione (15.2), l’equazione della polare è data da xA x0 T = 0 oppure x0 A x T (15.5)

dove x0 è il vettore [ x0 , y0 , u0 ]; l’equivalenza delle due forme nella (15.5) deriva dal fatto che A è simmetrica, si ha infatti xA x0 T = x0 TT A T x T = x0 A x T . L’equivalenza delle (15.5) con le (15.3) ed (15.4) può essere ricavata con semplici calcoli osservando che le righe della matrice A (e quindi anche le colonne, essendo A simmetrica) sono i coefficienti delle tre derivate parziali del polinomio a primo membro della (15.1) rispetto ad x, y e u rispettivamente. Esempio 15.1. Vogliamo calcolare la polare del punto P(1 : 0 : 1) rispetto all’iperbole di equazione x2 − xy + xu − u2 = 0. Applicando la (15.4) si ottiene 1 · (2x − y + u) + 0 · (− x ) + 1 · ( x − 2u) = 0 e quindi l’equazione della polare è 3x − 2y − 2u = 0 Come si vede dall’esempio 15.1 è spesso più comodo usare la forma (15.4) piuttosto che la (15.3), che torna utile in casi come quello del seguente Esempio 15.2. Vogliamo determinare il punto proprio, di ascissa unitaria, che rispettto all’ellisse irriducibile γ di equazione f ( x, y, u) = x2 + 4y2 − u2 = 0 ha la polare perpendicolare rispetto a quella del punto P(−1, 1). La polare di P rispetto a γ ha equazione    1 0 0 −1 0  1 = 0 [ x, y, u] 0 4 0 0 −1 1   −1  4 = 0 da cui x − 4y + u = 0; sia ora A(1, t) il generico punto cioè [ x, y, u] −1 proprio del piano di ascissa unitaria: i coefficienti di x e y nell’equazione della sua polare sono a = 1· t=
∂f ∂x 1 16 . A ∂f ∂x A

eb =
∂f ∂y A

∂f ∂y

A

; le due polari sono perpendicolari se e soltanto se è

−4·

= 0 cioè (2x ) A − 4(8y) A = 0 da cui 2 − 32t = 0 e quindi

1 Il punto cercato è allora A 1, 16 .

Dare una coppia polo–polare, cioè un punto e la sua polare rispetto ad una conica, significa imporre sui coefficienti dell’equazione della conica due condizioni lineari indipendenti. Esempio 15.3. Consideriamo le coniche che ammettono come polare del punto X∞ (1 : 0 : 0) la retta di equazione y + 1 = 0. Pensiamo alla conica nella forma 15.1 nella pagina precedente: l’equazione ∂x · 1 + ∂y · 0 + ∂u · 0 = 0 che diventa a11 x + a12 y + a13 u = 0 dovrà essere quella della retta data, quindi si deve avere a11 = 0 = a12 − a13 dunque proprio due condizioni lineari indipendenti.
∂f ∂f ∂f

15.2 Principali proprietà della polarità piana

137

Si può dimostrare che se P appartiene alla conica (e soltanto in questo caso) la sua polare rispetto alla conica è la tangente in P alla conica: diventa allora molto semplice trattare molte questioni di tangenza mediante lo strumento della polarità. Ad esempio la tangente nell’origine ad una conica γ si può pensare come la polare dell’origine (0 : 0 : 1) cioè il complesso dei termini lineari del polinomio che rappresenta la γ. Inoltre gli asintoti di un’iperbole sono le tangenti all’iperbole stessa nei suoi punti impropri, quindi possono essere determinati come le polari di questi ultimi. Esempio 15.4. Vogliamo gli asintoti dell’iperbole 6x2 − 5xy + y2 − 2xu = 0. I suoi punti impropri sono P∞ (1 : 2 : 0) e Q∞ (1 : 3 : 0). Gli asintoti, che sono le polari di tali punti, avranno rispettivamente equazioni 1 · (12x − 5y − 2u) + 2 · (−5x + 2y) = 0 e 1 · (12x − 5y − 2u) + 3 · (−5x + 2y) = 0, cioè, in coordinate non omogenee 2x − y − 2 = 0 e 3x − y + 2 = 0

15.2. Principali proprietà della polarità piana
Sussiste il seguente fondamentale Teorema 15.1 (Legge di reciprocità o di Plücker). Se la polare del punto P rispetto ad una conica irriducibile γ : f ( x, y, u) = 0 passa per il punto Q allora la polare di Q rispetto alla medesima conica passa per il punto P. Dimostrazione. Scriviamo l’equazione della polare di P rispetto a γ nella forma (15.3): ∂f ∂f ∂f x +y +u =0 ∂x P ∂y P ∂u P per ipotesi essa passa per Q( x1 , : y1 : z1 ) quindi la x1 ∂f ∂x ∂f ∂y ∂f ∂u

+ y1
P

+ u1
P

=0
P

(15.6)

è un’identità. Scriviamo ora l’equazione della polare di Q nella forma (15.4): x1 ∂f ∂x

+ y1

∂f ∂y

+ u1

∂f ∂u

=0

che, grazie alla (15.6), è soddisfatta dalle coordinate di P. I seguenti corollari sono immediate conseguenze della legge di reciprocità (Teorema 15.1) Corollario 15.2. Se il polo Q della retta q appartiene alla retta p allora il polo P di p appartiene alla retta q.

138

Polarità piana

Corollario 15.3. Se il punto P si muove su una retta r, allora la polare di P descrive il fascio di rette che ha per sostegno il polo R di r. Corollario 15.4. Se una retta r descive un fascio che ha per sostegno il punto P allora il suo polo descrive una retta che è la polare di P. La legge di reciprocità ci fornisce un metodo comodo per determinare le coordinate del polo di una retta: Esempio 15.5. Date la retta r : x + y − 3u = 0 e la parabola x2 − 2xy + y2 − 2xu = 0 vogliamo determinare il polo R di r. Per la legge di reciprocità le polari di due qualsiasi punti di r passano per il polo di r, quindi possiamo scegliere su r due punti comodi, per esempio il punto improprio P∞ (1 : −1 : 0) ed il punto (proprio) Q(3 : 0 : 1). La polare di P∞ ha equazione 2x − 2y − u = 0 mentre la polare di Q ha equazione 2x − 3y − 3u = 0. Il punto cercato, in quanto intersezione delle due polari, avrà le 2x − 2y − u = 0 coordinate che sono soluzione del sistema e cioè R − 3 : −2 : 1 2 2x − 3y − 3u = 0 che si può anche scrivere come R(−3 : −4 : 2). Dalle proprietà della polarità piana segue anche il Teorema 15.5. Per un punto P non appartenente ad una conica γ passano esattamente due tangenti alla γ, reali o meno.

Figura 15.1. Tangenti da un punto ad una conica

Dimostrazione. Riferiamoci alla Figura 15.1. Siano Q e R le intersezioni della polare di P con la conica3 , allora la polare di Q è tangente alla conica, perché
3 Nel

piano ampliato con elementi impropri ed elementi immaginari una retta ed una conica hanno sempre due punti in comune, a meno che il punto non appartenga alla conica.

15.3 Elementi coniugati rispetto ad una conica irriducibile

139

Q sta sulla conica e passa per P per la legge di reciprocità. In modo analogo si può dire che la polare di R, a sua volta tangente, passa anch’essa per P. Quindi per P passano almeno due tangenti alla conica. Dimostriamo che sono solo due. Supponiamo, per assurdo che anche la retta PT sia tangente alla conica; sempre per la legge di reciprocità, il punto T deve stare sulla polare di P e sulla conica, quindi, ricordando che una conica ed una retta hanno in comune al massimo due punti, esso deve coincidere con Q o con R. Dal teorema 15.5 segue ovviamente che Teorema 15.6. la polare rispetto ad una conica irriducibile γ di un punto P non appartenente ad essa congiunge i punti di tangenza delle tangenti passanti per P. Questo risultato si può sfruttare per scrivere in maniera rapida ed elegante le equazioni delle tangenti condotte da un punto ad una conica. Esempio 15.6. Sia γ la conica di equazione x2 − 2xy + x − 1 = 0; si vogliano le tangenti alla γ uscenti dall’origine. La polare dell’origine ha, in coordinate omogenee, equazione x − 2u = 0; essa ha in comune con la conica il punto improprio ed il punto di coordinate (8 : 5 : 4). Le tangenti cercate, che congiungono tali punti con O hanno rispettivamente equazioni x = 0 e 5x − 8y = 0

15.3. Elementi coniugati rispetto ad una conica irriducibile
Diciamo che il punto A è coniugato o reciproco del punto B rispetto ad una conica irriducibile γ se la polare di A passa per B. Poiché, in questo caso, in virtù della legge di reciprocità (Teorema 15.1 a pagina 137) anche la polare di B passa per A possiamo dire che i due punti sono (mutuamente) reciproci rispetto a γ. In modo analogo diciamo che due rette a e b sono reciproche se il polo dell’una sta sull’altra. Dalle considerazioni precedenti risulta evidente che il luogo dei punti reciproci, rispetto ad una conica irriducibile γ, di un punto P è la polare di P rispetto a γ. Analogamente le rette reciproche di una retta a sono quelle del fascio che ha per sostegno il polo di a. Esempio 15.7. Vogliamo il punto reciproco dell’origine rispetto alla conica γ : x2 − y2 − u2 = 0 che appartiene all’asse x. Poiché la polare dell’origine rispetto a γ è la retta impropria, il punto cercato sarà il punto improprio dell’asse x, cioè il punto X∞ (1 : 0 : 0). Da quanto detto segue anche che fissata una conica irriducibile γ ed una retta r non tangente a γ, Teorema 15.7. I punti di r reciproci rispetto a γ si corrispondono in una involuzione, detta dei punti reciproci o dei punti coniugati i cui punti uniti sono gli eventuali punti di intersezione reali tra la retta e la conica.

140

Polarità piana

(a) involuzione iperbolica, retta secante

(b) involuzione ellittica,retta esterna

Figura 15.2. Involuzione dei punti reciproci

La natura di questa involuzione permette di distinguere le rette non tangenti alla conica in: secanti, se l’involuzione è iperbolica, ed esterne se essa è ellittica. È escluso il caso in cui la retta sia tangente in T alla conica, perché in tal caso non si avrebbe un’involuzione, in quanto ogni punto di r sarebbe reciproco di T. La situazione è illustrata nella figure 15.2, in particolare nelle figure 15.2(a) e 15.2(b). Vale anche, dualmente, il Teorema 15.8. Le rette di un fascio F avente per sostegno il punto P non appartenente ad una conica γ che siano reciproche rispetto alla stessa γ si corrispondono in una involuzione le cui rette unite sono le eventualirette reali passanti per P e tangenti alla γ. Dimostriamo ora il Teorema 15.9. Una conica γ è il luogo dei punti che appartengono alla propria polare, cioè sono autoconiugati rispetto alla γ Dimostrazione. Se P ∈ γ, la sua polare rispetto alla conica è la tangente in P alla conica, quindi passa per P. Viceversa supponiamo che P( x0 : y0 : u0 ) appartenga alla propria polare rispetto alla conica γ : f ( x, y, u) = 0. Sostituendo le coordinate di P nell’equazione della polare, si deve avere x0 ∂f ∂x
∂f ∂y

+ y0
P

∂f ∂y

+ u0
P

∂f ∂u

=0
P

Ma essendo f ( x, y, u) omogenea, dal Teorema di Eulero4 sulle funzioni omogenee segue che x
4 Noto

∂f ∂x

+y

+u

∂f ∂u

= 2 f ( x, y, u) e quindi f ( x0 , y0 , u0 ) = 0.

teorema di Analisi sulle funzioni omogene.

15.4 Triangoli autopolari

141

Esempio 15.8. Se per una conica γ non degenere l’involuzione delle rette reciproche nel fascio che ha per sostegno l’origine O(0, 0) ha equazione mm + (m + m ) = 0, allora le tangenti condotte da O alla conica, che sono le rette unite dell’involuzione, si possono determinare come le rette i cui coefficienti angolari sono soluzioni dell’equazione m2 − 2m = 0, cioè m = 0 ed m = 2 e sono quindi le rette y = 0 e y = 2x.

15.4. Triangoli autopolari
DEFINIZIONE 15.2. Si chiama autopolare per una conica irriducibile γ un triangolo5 tale che ogni vertice sia il polo del lato opposto. Nella figura 15.3 il triangolo PQR è autopolare per l’ellisse. Tenendo conto del fatto che la polare di un punto esterno ad una conica taglia la conica stessa in due punti reali e distinti, mentre quella di un punto interno non ha punti reali in comune con la conica, è facile verificare che un triangolo autopolare ha sempre esattamente un vertice interno alla conica e due esterni ad essa, inoltre può accadere che uno o due dei vertici di un triangolo autopolare siano punti impropri. Nel primo caso, il lato opposto al vertice improprio è un diametro della conica, nel secondo il vertice proprio è il centro della stessa.

Figura 15.3. Triangolo autopolare
5 In

Geometria proiettiva un triangolo è una figura piana costituita da tre rette non concorrenti, (cioè non passanti tutte tre per un medesimo punto) e non da tre segmenti come in Geometria elementare. Le tre rette si dicono lati del triangolo ed i tre punti (propri od impropri che siano) in cui le rette si intersecano a due a due sono chiamati vertici del triangolo.

142

Polarità piana

L’insieme di tutte le coniche che ammettono un certo triangolo come autopolare è costituito da ∞2 coniche e come tale prende il nome di rete di coniche, questo equivale a dire che dare un triangolo autopolare per una conica equivale a dare tre condizioni lineari indipendenti, infatti, pur essendo date tre coppie polo–polare (quindi sei condizioni) per la legge di reciprocità (Teorema 15.1 a pagina 137) le condizioni indipendenti sono solo tre. Si può dimostrare che l’equazione complessiva della rete di coniche che ammetta come autopolare il triangolo di vertici A, B e C si ottiene come combinazione lineare dei quadrati delle equazioni dei tre lati, cioè, in forma simbolica, λAB2 + µAC2 + νBC2 = 0 (15.7)

Anche in questo caso, invece di usare tre parmetri omogenei, se ne possono usare µ due non omogenei, ad esempio h = λ e k = ν , perdendo così le coniche che ν si ottengono dalla (15.7) per ν = 0: in questo caso, tuttavia, non è necessario pensare di riammetterle per il valore ν = ∞ in quanto le questioni relative alla polarità riguardano solo coniche irriducibili: nella (15.7) non può annullarsi nessuno dei tre coefficienti. Si dimostra che in realtà vale anche il viceversa, cioè nessuna delle coniche della rete considerata individuata dai valori non nulli dei tre parametri è degenere. Esempio 15.9. Vogliamo determinare l’equazione dell’iperbole che ammette come autopolare il triangolo formato dagli assi coordinati e dalla retta di equazione x + 2y − 1 = 0 e come asintoto la retta x + 2y + 2 = 0. Abbiamo tre condizioni fornite dal triangolo autopolare e due dall’asintoto (tangente nel punto improprio, quindi coppia polo–polare). La rete di coniche che ammette il triangolo dato come autopolare ha equazione λx2 + µy2 + ν( x + 2y − 1)2 = 0 la polare di P∞ (2 : −1 : 0), punto improprio dell’asintoto, rispetto alla generica conica della rete ha equazione (λ + 2ν) x + (µ + 4ν)y − 4ν = 0, che coincide con la retta data µ+4ν 4ν quando λ + 2µ = 2 = −2 cioè quando λ = −4ν e µ = −8ν. La conica ha dunque equazione −4x2 − 8y2 + ( x + 2y − 1)2 = 0 che diventa facilmente 3x2 − 4xy + 4y2 + 2x + 4y − 1 = 0. Nella discussione del precedente esempio abbiamo usato tre parametri omogenei invece di due non omogenei per ricordare, ancora una volta come due rette coincidano quando le due equazioni siano individuate da due polinomi non necessariamente uguali ma anche solo proporzionali.

Esempio 16. per la legge di reciprocità la polare di un qualunque punto improprio. contro l’ipotesi che sia un’ellisse od un’iperbole.1 nella pagina seguente). infatti se esso fosse improprio. notevoli da un punto di vista geometrico e già accennati in modo elementare nei precedenti capitoli sulle coniche.1. Basta intersecare le polari di due punti impropri qualsiansi.16. sarebbe autoconiugato. Vogliamo trovare il centro della conica x2 − xy + x − 3 = 0. cioè operando una rototraslazione del sistema di riferimento.1. Si mostra facilmente che il polo della retta impropria è centro di simmetria per una conica a centro. in quanto tangente alla retta impropria nel suo punto improprio. visto che apparterrebbe alla propria polare e dunque per il Teorema 15. Se γ è una conica irriducibile chiamiamo centro di γ il polo della retta impropria rispetto a γ. cioè ogni corda AB che passa per C è tale che C sia il punto medio di AB. Si può facilmente verificare questo fatto considerando la conica in forma canonica. Chiamiamo diametro di γ una qualunque retta che passi per il centro. 16. (vedi Figura 16. Centro. hanno centro proprio (e sono dette anche coniche a centro). ha equazione y = mx da cui l’equazione ( a11 − a22 m2 ) x2 + a33 = 0 che è un’equazione di secondo grado tale che la semisomma delle radici è nulla. diametri ed assi di una conica irriducibile In questo capitolo vediamo come le proprietà della polarità piana viste nel capitolo precedente possano essere utilmente utilizzate per determinare ulteriori elementi di una conica. ha centro improprio: il punto improprio del suo asse. che qui è l’origine. per esempio i punti impropri degli . L’ellisse e l’iperbole. trasformazione che non altera le proprietà della polarità piana. la retta impropria. Una qualunque retta per il centro .9 a pagina 140 apparterrebbe alla conica e la sua polare. cioè. Centro e diametri di una conica DEFINIZIONE 16. in quanto passanti tutti per il medesimo punto improprio. In questo caso la conica assume equazione a11 x2 + a22 y2 + a33 = 0. invece. La parabola.1. Ne segue che la parabola ha tutti i diametri paralleli. sarebbe tangente alla conica.

Questo risultato permette di determinare graficamente il centro di una conica ed il diametro coniugato ad un diametro dato.2. se indichiamo con C e D i punti . Riveste una particolare importanza. tracciamo la retta MN. Essa è un diametro (coniugato alla direzione delle rette a e b). Gli asintoti di una iperbole sono gli elementi uniti di tale involuzione. in questo fascio. Esempio 16. rispettivamente A e B i punti di intersezione delle rette con la conica.1. Si può inoltre dimostrare che ogni diametro di una conica a centro dimezza le corde in direzione coniugata cioè ogni diametro è asse di simmetria obliqua.2. proprio se la conica è a centro ed improprio se la conica è una parabola. e siano A e B e. Quindi l’esame dell’involuzione dei diametri coniugati fornisce un ulteriore strumento per il riconoscimento di una conica. Vogliamo determinare graficamente il centro della conica γ di Figura 16. Tracciamo due rette a e b parallele che intersecano la conica. quindi contenenti il loro polo).144 Centro ed assi Figura 16. Polo della retta impropria. Più in generale possiamo dire che l’involuzione dei diametri coniugati di una conica γ è ellittica se e solo se la γ è un’ellisse ed è iperbolica se e solo se essa è un’iperbole. Indicati con M ed N i punti medi delle corde AB e A B rispettivamente. come mostrano i seguenti esempi e le seguenti figure. Le polari sono le rette 2x − y + 1 = 0 e 2x − y + 1 = 0 x = 0 il punto comune è soluzione del sistema e cioè il punto C (0. l’involuzione che ad ogni diametro fà corrispondere il suo coniugato essa prende il nome di involuzione dei diametri coniugati: due diametri sono coniugati se e soltanto se il polo dell’uno è il punto improprio dell’altro.. centro di simmetria assi coordinati X∞ (1 : 0 : 0) e Y∞ (0 : 1 : 0). 1) x=0 I diametri di una conica irriducibile formano un fascio. essendo diametri ed autoconiugati (tangenti alla conica.

Siano A e B le due intersezioni della retta con la conica.2.3. Tracciamo una retta parallela alla d che intersechi la conica. Determinazione grafica del centro di una conica di intersezione di questo diametro con la conica.1 Centro e diametri 145 Figura 16. allora l’equazione dell’involuzione dei diametri coniugati di γ è a22 mm + a12 (m + m ) + a11 = 0 (16.1.3.3. Sia a11 x2 + 2a12 xy + a22 y2 + 2a13 xu + 2a23 yu + a33 = 0 l’equazione di una conica irriducibile γ. e sia M il punto medio di AB allora la retta CM è il diametro coniugato cercato. Esempio 16.16. Vogliamo determinare il diametro coniugato al diametro d nella conica γ di Figura 16. Figura 16.1) . Determinazione grafica del diametro coniugato Dimostriamo ora l’importante Teorema 16. il centro è il punto medio della corda CD.

2) relazione che si chiama anche involuzione circolare. viceversa ogni conica che ammetta la (16. Consideriamo due qualsiansi diametri della conica e supponiamo che abbiano coefficienti angolarei m e m rispettivamente e pertanto passino per i punti impropri P∞ (1 : m : 0) e Q∞ (1 : m : 0). essa passerrà per Q∞ (1 : m : 0) se e solo se è a11 + ma12 + m (ma22 + a12 ) = 0 che con facili passaggi si riconduce alla (16. infatti la polare dell’intersezione di due . fig.2) è la relazione che lega due rette ortogonali quindi in una circonferenza i diametri coniugati sono ortogonali e viceversa ogni conica per cui tutti i diametri ortogonali sono coniugati è una circonferenza. Osserviamo anche che la (16. con la retta impropria un triangolo autopolare. Figura 16.4. La p ha equazione 2a11 x + 2a12 y + 2a13 + m(2a12 x + 2a22 y + 2a23 ) = 0 che diventa ( a11 + ma12 ) x + (ma22 + a12 )y + a13 + ma23 = 0. essi sono coniugati se e soltanto se la polare p di P∞ (1 : m : 0) passa per Q∞ (1 : m : 0). È facile verificare che le tangenti agli estremi A e B di un diametro d sono parallele al diametro coniugato (v. 16.4) infatti d è la polare del punto improprio P∞ di d e quindi le tangenti alla conica in A e B passano per P∞ . La conica di equazione 3x2 − 2xy + y2 − 3x + y − 7 = 0 ammette come involuzione dei diametri coniugati l’equazione mm − (m + m ) + 3 = 0. Le rette unite hanno coefficienti angolari che sono soluzioni dell’equazione m2 − 2m + 3 = 0 che non sono reali. Se la conica è una circonferenza l’equazione si riduce a mm + 1 = 0 (16. L’involuzione è perciò ellittica e quindi la conica è un’ellisse.2) come involuzione dei diametri coniugati è una circonferenza. Tangenti agli estremi di un diametro Osserviamo anche che ogni coppia di diametri coniugati forma.4.146 Centro ed assi Dimostrazione.1) Esempio 16.

16.2. . 2) e B(0. di coefficienti angolari m = 0 e m = ∞. Esempio 16.2 Assi di una conica 147 diametri. per la legge di reciprocità il polo di a è il punto improprio di a dunque anche A è un asse di γ. Infatti. quindi è asse di simmetria ortogonale.3) ammette due radici reali e distinte.3) diventa un’identità in accordo col fatto che l’involuzione circolare è l’involuzione dei diametri coniugati della circonferenza. Per una parabola P tutti i diametri sono paralleli e passano per il punto improprio di P di conseguenza l’asse è la polare del punto improprio in direzione ortogonale a quello di P.3) Per a12 = 0 la (16. 16. ne possiede almeno un altro Di più. Se una conica a centro possiede un asse. per quanto detto prima un asse dimezza le corde in direzione ortogonale. 2) può essere cercata nella rete di coniche che ha equazione α( x − y)2 + β(2x + y − 1)2 + 1 = 0. Consideriamo ora una conica a centro γ e siano a un suo asse e a il diametro coniugato ad a. tutti i dia<ametri sono assi. imponendo α + 9β + 1 = 0 il passaggio per i due punti dati si ottiene il sistema che ha come 4α + β + 1 = 0 8 3 soluzione α = − 35 e β = − 35 da cui l’equazione della conica 20x2 − 4xy + 11y2 − 12x − 6y − 32 = 0 che è un’ellisse. la rete di coniche che ammette queste due rette come diametri coniugati ha equazione λr2 + µs2 + νu2 = 0. che è il centro della conica. Se invece è a12 = 0 e a11 = a22 l’equazione (16. La conica che ammette le rette r ed s rispettivamente di equazioni y = x e y = −2x + 1 come diametri coniugati e passa per A(1. Se chiamiamo r e s i due diametri coniugati.5. se nella ( 16. quindi la conica ammette esattamente una coppia di assi. Abbiamo così dimostrato il Teorema 16.3) si abbassa di grado ed ammette una radice nulla: si hanno quindi anche in questo caso esattamente due assi. Per definizione di asse il polo di a è il punto improprio di a . per la quale. è la retta impropria e la polare del punto improprio di ciascun diametro è quello ad esso coniugato. la (16. Assi di una conica Si dice asse di una conica un diametro proprio che sia coniugato alla direzione ad esso ortogonale.2. Infine se è a12 = 0 e a11 = a22 cioè se la conica è una circonferenza. quindi . dunque.1 a pagina 145) poniamo m = − m otteniamo 1 − a22 + a12 m − + a11 = 0 m che diventa a12 m2 + ( a11 − a22 )m − a12 = 0 (16. gli assi di una conica a centro diversa da una circonferenza sono 1 esattamente due. quindi la parabola ha un solo asse.

Dunque gli assi sono le rette di equazioni y = −1± 5 x. Vogliamo gli assi della conica γ : x2 + xy − 2 = 0. 2 √ .3) diventa m2 + m − 1 = 0 che ha come radici m = −1± 5 : gli assi della γ 2 possono essere determinati o come polari dei due punti impropri 1 : −1± 5 : 0 oppure 2 osservando che il centro di γ è l’origine in quanto la sua equazione manca dei termini √ lineari.6.148 Centro ed assi Esempio 16. In questo caso √ la (16.

Geometria dello spazio .Parte IV.

.

Rette e piani nello spazio 17. −1. Vogliamo le equazioni parametriche della retta che passa per i punti P(3. 1). 0) e Q(0.17. y0 . Da quanto detto discende che i parametri direttori di una retta sono definiti a meno di un fattore di proporzionalità non nullo. infatti sono proprio i coseni degli angoli2 che la retta forma con la direzione positiva degli assi coordinati.1)   z = z + ct 0 Osserviamo che in questo caso l’eliminazione del parametro porta a due equazioni cartesiane. b. rispettivamente parallele ed equiverse ad r ed s e passanti per un medesimo punto. y. c] è l’insieme dei punti P( x. 1] = [3. c] ha la stessa direzione del vettore [ka.1. z0 ) ed ha la direzione del vettore u = [ a. −1] e quindi le sue equazioni parametriche sono   x = 3 + 3t  y = 1 + 2t . kb. y − y0 . 1. una retta che passa per il punto P( x0 . z − z0 ] sia proporzionale al vettore [ a. per esempio l’origine del sistema di riferimento. La direzione della retta è data da quella del vettore [ a. b. Essa ha la direzione del vettore [3. ottenendo così le equazioni parametriche di una retta nello spazio. z) tali che il vettore [ x − x0 . come si suol dire. −1. b. kc] se v k = 0. . nello spazio. c] le cui componenti si chiamano parametri direttori di r. 2. in accordo col fatto che il vettore v = [ a. precisare che nello spazio si parla di angolo ϕ tra due rette orientate r ed s anche se esse non si incontrano e non sono parallele – cioè sono. b. sghembe – quando formano l’angolo ϕ le rette r e s .1. c]. 1. Equazioni parametriche della retta nello spazio Quanto detto nel paragrafo 11. 0] − [0. Esempio 17. 1 In 2 Dobbiamo generale una linea.   x = x0 + at  y = y0 + bt (17.2 a pagina 96 sulle equazioni parametriche della retta nel piano si generalizza facilmente al caso di rette nello spazio. quindi non è possibile descrivere una retta1 nello spazio mediante una sola equazione cartesiana. Se invece di v consideriamo il versore v = le componenti di v sono v i cosiddetti coseni direttori della retta.   z = −t OSSERV AZIONE 17. precisamente diciamo che.1.

3. 0] con a e b non contemporaneamente nulli. y0 . y.2. 2. Per consuetudine una retta n ortogonale ad un piano orientato.  z=3 17. Vogliamo scrivere le equazioni parametriche delle rette che passano per il punto P(1.√ . −2. 3 in (17. Vogliamo trovare i coseni direttori della retta  x = 1+t  r : y = −2t . di parametri direttori a . Sia ora dato un punto P( x0 . y − y0 e z − z0 quindi deve essere a ( x − x0 ) + b ( y − y0 ) + c ( z − z0 ) = 0 Che diventa ax + by + cz + d = 0 pur di porre d = − ax0 − by0 − cz0 . b e c sono i parametri direttori del piano. detta anche normale. b. 3) e non tagliano il piano xy.2. Abbiamo così dimostrato il Teorema 17. b e c sono numeri non tutti e tre nulli3 . allora le equazioni parametriche delle rette cercate saranno   x = 1 + at  y = 2 + bt . è orientata in modo che un osservatore in piedi sul piano π dalla parte positiva di n veda le rotazioni positive sul piano operare in senso antiorario. cioè [ a.152 Rette e piani nello spazio Esempio 17. −1 e quindi.2) quanto parametri direttori di una retta . ordinatamente. Una terna di parametri direttori della generica retta per P è x − x0 . z0 ) ∈ π e la sua normale n a π.√ 1+4+1 6 6 Esempio 17. e c e passante per P.   z = −t Una terna di parametri direttori è 1.2 rappresentano un piano in cui a.1. z) appartiene a π se e solo se appartiene a rette passanti per π ortogonali ad n. Ogni retta che non taglia il piano xy ha la direzione di un qualunque vettore del piano xy diverso dal vettore nullo. cioè i parametri direttori di un piano coincidono con quelli di una sua qualsiasi normale. b.normalizzando i parametri direttori 1 −2 −1 otteniamo i coseni direttori che sono. Si suol dire che a. √ . Osserviamo che il generico punto Q( x. Nelllo spazio tutte e sole le equazioni della forma 17. Equazione di un piano nello spazio Un piano π è orientato quando in esso è dato il verso delle rotazioni positive.

b2 . I piani π1 e π2 di equazioni rispettive a1 x + b1 y + c1 z + d1 = 0 e a2 x + b2 y + c2 z + d2 = 0 sono paralleli se e solo se i vettori u = [ a1 . Parallelismo e perpendicolarità nello spazio Nel paragrafo 11. 17. . b1 . c2 ] sono proporzionali. c2 ] = 0. cioè se e solo se a1 a2 + b1 b2 + c1 c2 = 0 Analogo teorema vale per le rette nello spazio: 4 Abbiamo (17. quindi se a1 = ka2 . • Se due dei tre sono nulli. Esempio 17.3 Parallelismo e perpendicolarità nello spazio 153 OSSERV AZIONE 17.5) già visto che è comodo considerare parallele anche due rette coincidenti. Il piano 2x − y + 3 = 0 è parallelo all’asse z ed interseca il piano xy lungo la retta di equazioni 2x − y + 3 = 0 z=0 mentre il piano x = 5 è parallelo al piano yz.3. Abbiamo visto che i numeri a.4. [ a2 . b1 = kb2 . Vale il Teorema 17. cioè se u = k v con k = 0. c1 ] e v = [ a2 . un piano ed una retta si dicono paralleli se non hanno punti in comune o se la retta giace sul piano. il piano rappresentato dalla (17.1 a pagina 95 abbiamo visto dei criteri per stabilire quando nel piano due rette sono parallele o perpendicolari.3) Se inoltre d1 = kd2 i piani sono coincidenti. in modo che la relazione di parallelismo sia una relazione di equivalenza. c1 = kc2 k = 0. inoltre π1 e π2 sono ortogonali se e solo se [ a1 .2) rappresenta un piano parallelo all’asse avente lo stesso nome della variabile che manca. Due rette si dicono parallele se hanno la stessa direzione4 . (17. c1 ].2.2. b1 . discuteremo ora l’analogo problema nello spazio.17.2) è parallelo al piano individuato dai due assi delle variabili che mancano. b2 . Tuttavia da quanto visto si può dedurre che: • Se uno dei tre è nullo l’equazione (17. b e c non devono essere tutti e tre nulli. due piani si dicono paralleli se non hanno punti in comune o se coincidono.4) (17.

3. cioè se u = k v con k = 0. c2 ] = 0 e sono perpendicolari se e solo se i vettori u = [ a1 . Inoltre r1 e r2 sono ortogonali se e solo se vale la (17.5) OSSERV AZIONE 17. [ a2 . z) ∈ π1 ∩ π2 se e solo se ( x. y. cioè se e solo se u = k v con k = 0. c] formano.6) . b1 . b2 . La retta intersezione di due piani Siano dati i due piani a1 x + b1 y + c1 z + d1 = 0 a2 x + b2 y + c2 z + d2 = 0 (π1 ) (π2 ) Per quanto detto finora essi saranno non paralleli se i vettori v1 = [ a1 . b1 . b2 . come abbiamo visto. quindi se vale la (17. cioè essere sghembe! Teorema 17.4. y. 17. b. in accordo col fatto che P( x. c2 ] sono linearmente indipendenti.3. c1 ] e v = [ a2 . una terna di parametri direttori di una retta ortogonale a π. due piani non paralleli hanno in comune una retta. c1 ] e v2 = [ a2 . Sia r la retta di equazioni   x = x0 + a1 t  y = y0 + b1 t   z = z +c t 0 1 e π il piano di equazione a2 x + b2 y + c2 z + d2 = 0 allora r e π sono paralleli se e solo se [ a1 .3). b1 . b2 . c1 ] e v = [ a2 .4. b1 . Le rette   x = x1 + a1 t  r1 : y = y1 + b1 t   z = z +c t 1 1 e   x = x2 + a2 t  r2 : y = y2 + b2 t   z = z +c t 2 2 sono parallele se e solo se i vettori u = [ a1 . ciò avviene perché per un piano π di equazione ax + by + cz + d = 0 le componenti del vettore [ a. z) è soluzione del sistema a1 x + b1 y + c1 z + d1 = 0 a2 x + b2 y + c2 z + d2 = 0 (17. c2 ] sono proporzionali.154 Rette e piani nello spazio Teorema 17. b2 .3). Dal punto di vista geometrico. c2 ] sono proporzionali. quindi se vale la (17. Ribadiamo (vedi nota 2 a pagina 151) che nello spazio due rette perpendicolari possono anche non intersecarsi. Dunque le relazioni di parallelismo e perpendicolarità tra due rette o tra due piani nello spazio per così dire si “scambiano” nel caso di parallelismo e perpendicolarità tra una retta ed un piano. c1 ].

1] e [1. x−z = 0 (17. Sia data la retta r: x+y+z = 1 . c2 ] sono linearmente dipendenti. nel secondo il sistema ammette ∞2 soluzioni. Per trovare le equazioni parametriche di questa retta possiamo osservare che il sistema equivale a y + 2z = 1 x=z e quindi una possibile soluzione è data da  x = t  y = 1 − 2t  z=t che sono le coordinate del generico punto di r e quindi rappresentano una terna di equazioni parametriche della retta.7) si possono anche scrivere come  x = 1−t    2  y=t     z = 1−t  2 ed in altri infiniti modi. dunque il sistema ammette ∞1 soluzioni che sono effettivamente i punti di una retta nello spazio. b1 . infatti i piani non si incontrano. Le soluzioni del sistema (17. questo sistema è possibile. se chiamiamo A la matrice dei coefficienti e B quella completa. cioè i due piani π1 e π2 coincidono e qualunque punto di essi ha coordinate che sono soluzioni del sistema. ciascuno dei quali rappresenta una terna di equazioni parametriche della r. −1] sono linearmente indipendenti dunque i piani non sono paralleli ed il sistema rappresenta una retta. 0. i due piani sono paralleli se r ( B) = 2 e addirittura coincidenti se r ( B) = 1. si ha r ( A) = r ( B) = 2.4 La retta intersezione di due piani 155 Dal teorema 3.4. dato che. c1 ] e v2 = [ a2 . . Dunque una retta può essere individuata come intersezione di due piani.5.17. OSSERV AZIONE 17. 1. b2 .5 a pagina 28 segue che. significativamente diversi. nell’ipotesi che i piani non siano paralleli. nel primo caso il sistema risulta impossibile. cioè che i vettori v1 = [ a1 . Se accade che r ( A) = 1.7) i vettori [1. Esempio 17.

anch’essi definiti a meno di un fattore di proporzionalità non nullo.5 è che qualunque coppia di piani appartenenti al fascio5 di equazione (17. Se π1 : a1 x + b1 y + c1 z + d1 = 0 e π2 : a2 x + b2 y + c2 z + d2 = 0 sono due piani non paralleli che definiscono la retta r. senza passare alle sue equazioni parametriche. nella pratica può essere comodo usare un solo parametro non omogeneo invece di due omogenei. b c Quanto detto nell’Osservazione 17.5.5.− e a c a b b c estratti dalla matrice dei coefficienti. Una conseguenza del Teorema 17. Come già più volte osservato.9) cioè l’equazione del fascio di piani che ha per sostegno la retta r si ottiene come combinazione lineare delle equazioni di due piani qualsiasi passanti per r.6. 17. che sono quindi le soluzioni del sistema a c a b lineare omogeneo (17. una terna di parametri direttori di r è data dalle coordinate di un suo punto qualsiasi.5 rappresenta un modo pratico e veloce per trovare una terna di parametri direttori di una retta scritta come intersezione di due piani.156 Rette e piani nello spazio OSSERV AZIONE 17.8) e quindi proporzionali ai tre minori .9) rappresenta la retta r le cui equazioni cartesiane possono essere dunque molto differenti. Fasci di piani L’insieme di tutti i piani che passano per una stessa retta si chiama fascio di piani Teorema 17. OSSERV AZIONE 17. Sia data la retta r: ax + by + cz + d = 0 a x+b y+c z+d = 0 la retta r parallela ad r (quindi avente gli stessi parametri direttori) e passante per l’origine è: ax + by + cz = 0 r : (17.8) a x+b y+c z = 0 Poiché r passa per l’origine. 5 Osserviamo che ogni piano del fascio è individuato da una coppia di coefficienti λ e µ della (17. .5.9). l’equazione del generico piano passante per r è λ( a1 x + b1 y + c1 z + d1 ) + µ( a2 x + b2 y + c2 z + d2 ) = 0 (17. con le solite avvertenze sul valore infinito del parametro.

6. y. 0). 17. se con A abbiamo indicato la matrice dei coefficienti del sistema.17. La retta r) ≡ x=y y=z .6. cioè se r ( A) = 3. si ottiene 3t − t + 1 + 2t − 1 = 0 da cui t = 0 e dunque l’intersezione è π ∩ r = P(0. il che equivale a dire che det A = 0. cioè se e solo se aα + bβ + cγ = 0 : in questo caso. z nell’equazione del piano si ottiene un valore di t che. 17. Si considerino il piano π :  x  y r:  z 3x − y + z − 1 = 0 e la retta =t = t−1 = 2t sostituendo le coordinate del generico punto della retta nell’equazione del piano.7. alcuni altri problemi sulle rette e sui piani nello spazio.6. Altri problemi su rette e piani Esaminiamo in questo paragrafo. Se la retta è data come intersezione di due piani gli eventuali punti comuni tra piano e retta sono le soluzioni del sistema formato dalle tre equazioni. Intersezione tra retta e piano Siano dati il piano di equazione ax + by + cz + d = 0 e la retta di equazioni   x = x0 + αt  y = y0 + βt   z = z + γt 0 Piano e retta hanno un solo punto comune se e solo se retta e piano non sono paralleli. piano e retta hanno un solo punto in comune se e solo se tale sistema ammette una ed una sola soluzione. prevalentemente su esempi. −1. sostituito a sua volta nelle equazioni della retta dà le coordinate del punto di intersezione.7. Essi definiscono una retta impropria dello spazio.1. Ha senso anche parlare di fasci di piani paralleli: combinando linearmente le equazioni di due piani paralleli si ottengono piani le cui equazioni differiscono solo per il termine noto.6 Altri problemi su rette e piani 157 OSSERV AZIONE 17. sostituendo rispettivamente x. Esempio 17. Esempio 17.

Le rette r: x+z = 0 y−z = 1 e s: 2x + y = 1 x + 2z = 0 non sono parallele. anch’essa di rango 3. 17.6. si dicono sghembe.158 Rette e piani nello spazio ed il piano α ≡ x − 2y + 3z − 1 = 0 hanno in comune il punto le cui coordinate sono la soluzione del sistema   x−y = 0  y−z = 0   x − 2y + 3z = 1 cioè P = 1 1 1 . L’equazione del piano che le contiene entrambe si può determinare in vari modi. Rette sghembe Due rette che non hanno punti in comune e non sono parallele. Osserviamo che è sempre r ( A) = 1 altrementi i tre piani coinciderebbero e non sarebbe individuata alcuna retta. allora r ∈ π. 2 2 2 . cioè due rette non complanari. esse sono sghembe se non sono parallele e se il sistema formato dalle quattro equazioni è impossibile. per esempio trovando . quindi sono paralleli. Se entrambe le rette sono date come intersezione di due piani.2. dunque sono complanari e quindi non sghembe. altrimenti se il sistema è impossibile r e π non hanno punti in comune.8. consideriamo allora il sistema formato dalle quattro equazioni:   x+z = 0    y−z = 1  2x + y = 1    x + 2z = 0   1 0 1 0 1 −1  che ha rango 3 e quella completa sarà la matrice dei coefficienti sarà A =  2 1 0 1 0 2   1 0 1 0 0 1 −1 1 . . B= 2 1 0 1 1 0 2 0 quindi le rette si incontrano. Esempio 17. Se r ( A) = 2 ed il sistema è possibile. dunque il sistema ammette una soluzione.

R ed S. Distanza di due punti .6 Altri problemi su rette e piani 159 il fascio F di piani per una delle due e.6. determinato il punto Q comune alle due rette.1. Esempio 17.17. Distanze Figura 17. scegliere un punto comodo R ∈ r (R ≡ Q) ed uno comodo S ∈ s (S ≡ Q) e poi determinando il piano per i tre punti Q. sostituendo le coordinate del generico punto di r nelle equazioni due piani che formano s. quindi il sistema è impossibile e concludiamo che le rette sono sghembe.9. scelto un punto comodo P sull’altra (ovviamente diverso dal punto di intersezione). il sistema t + 2t − 1 + 3t = 0 t + 1 − 3t = 1 che diventa 6t = 1 2t = 0 formato da due equazioni palesemente in contraddizione.3. oppure. Siano date le rette  x = t  y = 2t r:   z = 1 − 3t ed s: x+y−z = 0 x+z = 1 si ha. Se una delle rette è data come intersezione di due piani e l’altra con le sue equazioni parametriche basta sostituire l’espressione del parametro nelle equazioni dei due piani. scrivere l’equazione del piano di F passante per P. 17.

  z = z + ct 0 . y1 . e quindi un’ulteriore applicazione del Teorema di Pitagora fornisce la distanza di due punti nello spazio: d( PQ) = ( x1 − x2 )2 + ( y1 − y2 )2 + ( z1 − z2 )2 . 17. z2 ).160 Rette e piani nello spazio • Distanza di due punti: dalla figura 17.2) se π : ax + by + cz + d = 0 è l’equazione del piano allora la distanza di P( x0 . y1 ) − Q1 ( x2 . z0 ) da π è: | ax0 + by0 + cz0 + d| √ a2 + b2 + c2 (17. Sul piano xy dal Teorema di Pitagora si ricava immediatamente che la distanza P1 ( x1 .2. Distanza di un punto da un piano • Distanza di un punto da un piano: (fig. chiamando Q l’intersezione di questa retta con il piano. la distanza PQ è l’ipotenusa del triangolo rettangolo che ha come cateti la differenza delle quote z1 − z2 e la distanza delle proiezioni ortogonali P1 e Q1 rispettivamente di P e Q sul piano xy. calcolando la distanza PQ. y0 .1 si vede subito che se sono dati i punti P( x1 . z1 ) e Q( x2 . La retta perpendicolare a π passante per il punto P ha equazioni   x = x0 + at  y = y0 + bt . Figura 17. y2 . y2 ) è d( P1 Q1 ) = ( x1 − x2 )2 + ( y1 − y2 )2 .10) infatti distanza si può calcolare considerando la perpendicolare al piano per P e.

17.6 Altri problemi su rette e piani 161 dunque Q( x0 + at.3. Distanza di un punto da una retta • Distanza di un punto da una retta: (v.11) a( x0 + at) + b(y0 + bt) + c(z0 + ct) + d = 0 ⇐⇒ ⇐⇒ t( a2 + b2 + c2 ) = −( ax0 + by0 + cz0 + d) ax0 + by0 + cz0 + d t=− . 17. il piano che passa per P ed è perpendicolare a r incontra la retta r in un punto R (che è la proiezione ortogonale di P su r) la distanza del punto dalla retta sarà allora la distanza PR. (17.10 nella pagina precedente.11 che esprime la distanza di P da Q si ha la 17.12) . • Distanza di piani paralleli: se π1 : ax + by + cz + d1 = 0 e π2 : ax + by + cz + d2 = 0 sono due piani paralleli. allora la loro distanza è: √ | d1 − d2 | a2 + b2 + c2 (17. fig. cioè se a2 + b2 + c2 .3) siano P un punto e r una retta tali che P ∈ r. e la sua distanza da P è |t| se appartiene a π. Figura 17. z0 + ct) è il punto di intersezione di tale retta con π. y0 + bt. a2 + b2 + c2 Sostituendo questo valore nella formula 17.

0. La distanza richiesta sarà la distanza di questo piano da un punto qualsiasi della r. −3). c1 ] e 2 w = [ a2 . e sia ϕ l’angolo da esse formato6 . tra rette e piani Siano π1 : a1 x + b1 y + c1 z + d1 = 0 e π2 : a2 x + b2 y + c2 z + d2 = 0 due π piani.4.162 Rette e piani nello spazio Infatti se P( x0 . z0 ) ∈ π1 . dell’angolo tra π1 e π2 è. tale che: v. Angoli tra rette. in generale indicando con v = [ a1 . w cos ϕ = . b2 . 2 2 Siano ora    x = x1 + a1 t  x = x2 + a2 s   y = y1 + b1 t y = y2 + b2 s r: e s:    z = z +c t  z = z +c s 2 2 1 1 π . 1) (corrispondente al valore t = 0) che è √1 . b1 . essendo rispettivamente v e w ortogonali ai due piani. con ϕ ∈ 0. . si vede facilmente che esistono due punti P ∈ r1 e Q ∈ r2 tali che la retta PQ è perpendicolare sia ad r1 che ad r2 . per esempio il punto P(0. b2 . Dovrà essere k + 1 + 2 − 3(k − 1) = 0 da cui k = 3. tra piani. se esse 2 sono parallele diremo che ϕ = 0. Vogliamo calcolare la distanza delle rette sghembe dell’esempio 17. si ha π π ϕ = α se α ≤ e ϕ = π − α se α > e quindi cos ϕ = | cos α|.9 a pagina 159. La distanza PQ è la distanza delle due rette.10. è evidente che la distanza cercata è d( Pπ2 ) cioè | d − d1 | | ax0 + by0 + cz0 + d2 | √ =√ 2 2 + b2 + c2 a a2 + b2 + c2 • Distanza di due rette sghembe: se r1 e r2 sono due rette sghembe. c1 ] e w = [ a2 . però è più comodo considerare il piano σ passante per r1 e parallelo a r2 . Calcoliamo l’equazione del piano per s parallelo ad r di cui una terna di parametri direttori è (1. 6 Ricordiamo. b1 . L’ampiezza ϕ ∈ 0. Il fascio di piani che ha per sostegno s ha equazione x + y − z + k ( x + z − 1) = 0. y0 . v · w due rette nello spazio. quindi il piano cercato ha equazione 4x + y + 2z − 3 = 0. se v = [ a1 . v · w Essa deriva dalla formula che dà l’angolo tra due vettori e dal fatto che se α è l’angolo tra v e w. Dal punto di vista geometrico. la distanza cercata sarà quella di un qualsiasi punto P ∈ r2 da σ. Esempio 17. c2 ]. che non è necessario che r e s si incontrino. ancora una volta. w cos ϕ = .6. c2 ] si ha v. 2. 21 17.

Simmetrie rispetto ad un punto Siano P e Q due punti distinti dello spazio. 2. se v = [ a. si ha 2 cos ψ = v. per lo più mediante esempi.13) π l’angolo tra r e la normale al piano. la figura f simmetrica di f rispetto a P è il luogo dei punti simmetrici rispetto a P dei punti di f . 0) rispetto al punto M(−1. 2 17. γ] e ϕ ∈ 0. w v · w e poiché ϕ = π − ψ si ha cos ψ = sin ϕ e quindi la (17.1. Dalla definizione si ha   x = xA + xA  M    2   x A = 2x M − x A   yA + yA y = 2y M − x A . il simmetrico P di P rispetto a Q è il punto7 appartenente alla retta PQ e tale che Q sia punto medio del segmento PP . β. alcuni problemi nello spazio riguardanti le simmetrie rispetto a punti a rette ed a piani.13).7 Simmetrie 163 Concludiamo considerando una retta   x = x1 + at  y = y1 + bt r:   z = z + ct 1 π ed un piano π : αx + βy + γz + δ = 0. w v · w (17. Sia P un punto dello spazio e sia f una figura. 0.7. da cui y =  M  A 2   z = 2z − z   M A A   zM = zA + zA 2 7 unico . Esempio 17. Vogliamo il simmetrico A del punto A(1. v. Simmetrie In questo paragrafo presentiamo.17. c] e w = [α. 1). 17. b.11.7. 2 è l’angolo tra la retta ed il piano. detto ψ ∈ 0. si ha sin ϕ = Infatti.

−4.   z = −z Poiché P sta su π se e solo se x − y + z = 0 si ha che le coordinate di P devono soddisfare l’equazione 4 − x + 2 + y − z = 0 che si può scrivere come x − y + z − 6 = 0 e che rappresenta un piano parallelo a π. 4) e dunque sarà   x = −t  r : y = −4 − 2t . 17. La retta cercata è quella che passa per A e B .   z = t−1 Vogliamo le equazioni della retta r simmetrica di r rispetto al punto P(1.7. cioè B(2.164 Rette e piani nello spazio quindi. 2) che è costituito dal luogo dei punti simmetrici di quelli di r rispetto a P. nel caso in esame. 0) consideriamo il generico punto P( x. −2. 4. Come nel caso della simmetria rispetto ad un punto8 anche in questo caso 8 detta anche simmetria centrale . 5) e B (0. 2.13. 1) e quello per t = 1. Scegliamo due punti “comodi” su r. Il simmetrico di un punto P rispetto ad un piano π è il simmetrico di P rispetto ad H.12. simmetrici di A e B rispettivamente. 2). 0. scriviamo le coordinate del suo simmetrico P rispetto a T procedendo come nell’esercizio 17.11 nella pagina precedente ed otteniamo x + x = 2x T . 0).   x A = 2(−1) − 1 = −3  y = 2·2−0 = 4  A z = 2·1−0 = 2 A da cui A (−3. Esso sarà. −1.   z = 4−t Esempio 17. come è facile dimostrare. y. Simmetrie rispetto ad un piano Siano P un punto e π un piano tali che P ∈ π. Procedendo come nell’esercizio 17. una retta parallela ad r.11 nella pagina precedente troviamo A (1. z). Esempio 17.2. Sia data la retta  x = t+1  r : y = 2t . chiamiamo proiezione ortogonale / di P su π il punto H intersezione tra π stesso e la retta per P perpendicolare a π. −1. per esempio quello per cui t = 0 cioè A(1. Per determinare l’equazione del piano π simmetrico di π : x − y + z = 0 rispetto a T (2. y + y = 2y T e z + z = 2z T da cui  x = 4−x  y = −2 − y .

La retta per P ortogonale a π ha equazioni9  x = 1+τ  y = 1−τ   z = 1+τ da cui si ha 1 + τ − (1 − τ ) + 1 + τ = 0 e quindi H P sono  x = 2· 2 −1 =  P   3   4 y = 2· −1 =  P 3    2  z = 2· −1 = P 3 1 3 5 3 1 3 2 4 2 3. È ovvio che il nome del parametro è del tutto arbitrario . per esempio P(1. 3 dunque le coordinate di 9 Usiamo un parametro diverso. 3. 0). 0. La retta taglia il piano nell’origine.4.14. 1.17. Figura 17. Scegliamo.4) la congiungente dell’origine con il punto P simmetrico rispetto al piano di un qualsiasi punto P ∈ r diverso dal punto comune (nel nostro caso l’origine O(0. Simmetrica di una retta rispetto ad un piano Esempio 17. il parametro τ per evitare equivoci. La retta cercata sarà dunque (vedi figura 17. 1). Vogliamo le equazioni della retta simmetrica di  x = t  r: y=t  z=t rispetto al piano π : x − y + z = 0.7 Simmetrie 165 si dimostra che la simmetrica di una retta rispetto ad un piano è una retta ed il simmetrico di un piano rispetto ad un piano è ancora un piano.

17.15.5. Simmetrico di un piano rispetto ad un piano Esempio 17. con semplici calcoli. 2 . 2 ) e sostituendo le sue coordinate 3 3 3 nell’equazione del fascio si ottiene.166 Rette e piani nello spazio allora la retta r . 0.5). Per determinare l’equazione del piano α simmetrico di α : x = 1 rispetto a π : x − y − z = 0 conviene utilizzare la teoria dei fasci di piani. l’equazione del piano α che è x + 2y + 2z − 3 = 0. per esempio P(1. Dunque il simmetrico P di P sarà P ( 1 . 3 . 3. 0) la sua proiezione H su π stando sulla retta  x = 1+t  y = −t   z = −t perpendicolare a π e passante per P risulta individuata da t = − 1 quindi è H = 3 2 1 1 3. Fig.  z=α Figura 17. Il valore di k può essere determinato procedendo come nel caso precedente: se consideriamo su α un punto. . Dunque l’equazione di α sarà del tipo x − y − z + k ( x − 1) = 0. infatti il piano cercato passerà per la retta r intersezione tra α e π (v. che congiunge O con H ha equazioni   x = 1k    3   5 y = k che possiamo anche scrivere (vedi la nota 9 )  3      z = 1k 3  x = α  y = 5α .

17.7) considerando i simmetrici di due punti di r .7. Simmetrie rispetto ad una retta Se P è un punto dello spazio ed r una retta che non lo contiene. fig.3. considerare la loro distanza: se essa è d basta scrivere l’equazione del piano a distanza d da α.6 si può anche. chiamando H la proiezione ortogonale di P su r. il simmetrico P di P rispetto ad r è il punto dello spazio simmetrico di P rispetto ad H.17. per esempio. vedi fig. La retta r’ simmetrica di r rispetto ad s si determina (v. 17.7.7 Simmetrie 167 Figura 17. 17. Simmetrico di un piano rispetto ad un piano parallelo Figura 17.6. Simmetrica di una retta rispetto ad un altra retta Nel caso in cui i due piani siano paralleli.

intersezione tra le rette improprie dei piani passanti per r come mostra il seguente Esempio 17. 0. 0.16. 1.8. anche qui. cioè i punti per cui u = 0 costituenti il cosiddetto piano improprio. −1.   z = −t . ai valori t = 0 e t = 1) i due punti: i due simmetrici sono. 1. Determiniamo le coordinate del punto improprio della retta  x = 1+t  r : y = 2t . rispettivamente. Vogliamo le equazioni della rettta r simmetrica di  x = 1  x=z r : y = t rispetto ad s : . che sarà l’intersezione del piano stesso con il piano improprio e che avrà quindi equazioni ax + by + cz + du = 0 u=0 o anche ax + by + cz = 0 u=0 Su ogni retta r ci sarà un punto improprio. Su ogni piano di equazione ax + by + cz + du = 0 esisterà una retta impropria. − 1 ) e Q (−1.168 Rette e piani nello spazio Esempio 17. 0) e Q(1. alle varie direzioni di rette parallele. Coordinate omogenee nello spazio In analogia con quanto visto nel piano.  y=0  z = −t Si verifica subito che le due rette date sono sghembe. nello spazio ordinario. − 3 2 2 quindi la retta s ha equazioni   x = 2t − 1  y = 2t + −1   z = −3t + 1 17. come si ricava facilmente P (0. mentre. 1) dunque una terna di parametri direttori di s è 1. −1) (corrispondenti. si può introdurre una sistema di coordinate omogenee anche nello spazio: i punti saranno definiti da quaterne di coordinate omogenee. Saremo dunque in presenza di uno spazio ampliato con i punti impropri.17. per determinare r occorre e basta determinare i simmetrici di due punti comodi di r e scrivere le equazioni della retta che li congiunge: per esempio siano P(1. i punti la cui quarta coordinata è nulla verranno detti impropri o all’infinito e corrisponderanno. Quando la quarta coordinata omogenea (anche qui indicata con la lettera u) sarà non nulla si avrà a che fare con punti dello spazio ordinario.

ed in un punto improprio per rette parallele. Vogliamo vedere se le rette r: x + ky − z = −2 2x + kz = −1 ed s: x + 3y + (k − 1)z = −1 ( k + 1) y + z = k sono sghembe. Questo significa che per k = ±1 il sistema non ha autosoluzioni.8 Coordinate omogenee nello spazio 169 In coordinate cartesiane avremo r: y = 2x − 2 z = −x + 1 che in coordinate omogenee diventa r : 2x − y − 2u = 0 . In questo contesto risulta semplice l’interpretazione geometrica di sistemi lineari in quattro incognite come insiemi di piani Esempio 17. avremo il sistema    x + ky − z = −2  1 k −1 2    0 2x + kz = −1 2 k −1  di matrice dei coefficienti A :  1 k−1 1 3  x + 3y + (k − 1)z = −1    0 k+1 1 −k ( k + 1) y + z = k iIl cui rango è r = 4 per k = ±1.17. avremo a che fare con un sistema lineare omogeneo di quattro equazioni in quattro incognite che indicherà la complanarità delle rette.18. r = 3 per k = −1 ed r = 2 per k = −1. Quindi. quando ammette autosoluzioni. alcun punto in comune: le due rette sono 10 La quaterna di coordinate omogenee (0 : 0 : 0 : 0) non rappresenta alcun punto. quindi i piani non hanno. quando ammetterà solo la soluzione banale10 . ed il loro essere sghembe. . nello spazio ampliato con i punti impropri. nel nostro caso. u=0 Nello spazio ampliato con gli elementi impropri il termine “complanarità” è sinonimo di “incidenza”: incidenza in un punto proprio per le rette incidenti dello spazio ordinario. x+z−u = 0 Intersecando con il piano improprio si ottiene   y = 2x  z = −x  u = 0 da cui le coordinate del punto improprio P∞ (1 : 2 : −1 : 0) che è il punto comune alle rette improprie dei due piani y = 2x e z = − x le cui equazioni sono 2x − y = 0 u=0 e x+z = 0 . Dopo averle riscritte in coordinate omogenee.

cioè per scoprire se le rette sono effettivamente incidenti o parallele). dunque esattamente11 un punto di intersezione. in questo contesto. 11 Anche le coordinate omogenee dei punti dello spazio sono definite a meno di un fattore di proporzionalità. tra le altre. dal momento che.170 Rette e piani nello spazio dunque sghembe. . la dissimmetria nella trattazione dei fasci di piani passanti per una retta o paralleli. i piani paralleli passano tutti per una medesima retta impropria. per k = −1 ci sono ∞1 soluzioni. dunque le due rette coincidono e sono. Concludiamo il paragrafo notando che l’introduzione dei punti impropri dello spazio permette di rimuovere. ovviamente complanari. per k = 1 ci sono ∞2 soluzioni. proprio o improprio (basta risolvere il sistema per scoprirlo.

analogo al Teorema 11. x. Le traslazioni conservano le distanze: se due punti hanno distanza d rispetto ad un sistema di riferimento. con considerazioni puramente geometriche. cioè il passaggio da un sistema di riferimento monometrico ad un altro con gli assi paralleli ed equiversi a quelli del precedente e con la stessa unità di misura1 è descritto dalle equazioni2  x = x−α  y = y−β   z = z−γ (18. ma ciò comporterebbe un livello di astrazione superiore che esula dagli scopi di queste dispense. ma usati spesso in vari settori della Matematica.2 a pagina 103. 18. γ) sono le coordinate della nuova origine nel sistema di riferimento iniziale. z sono le coordinate del generico punto in questo sistema e le coordinate accentate sono le coordinate nel nuovo sistema di riferimento. Per quanto riguarda le rotazioni vale un teorema. che saranno sempre gli assi del sistema di riferimento e non i punti a muoversi: risulterebbe interessante trattare l’argomento anche in modo contrario. nel senso.1. y. Sui sistemi di riferimento In questo capitolo ci occuperemo di alcune particolari trasformazioni del sistema di riferimento cartesiano ortogonale in sè e forniremo poi un breve cenno ad altri possibili sistemi di riferimento diversi da quello cartesiano. secondo cui la matrice di una rotazione è una matrice ortogonale. β. si fà vedere che le equazioni di questa trasformazione sono: 1 Noi considereremo sempre le trasformazioni geometriche nel modo cosiddetto passivo. cioè. 2 cioè tali equazioni legano le coordinate di un punto generico dello spazio nel vecchio sistema di riferimento a quelle del nuovo . Rototraslazioni Risulta quasi immediato verificare che una trasformazione di assi.1) dove (α. essi hanno distanza d rispetto a qualsiasi altro sistema traslato rispetto al primo quindi non vi è cambiamento di unità di misura. e che si dimostra con la stessa tecnica. nelle altre Scienze e nella Tecnologia. Più precisamente.18.

cos γ2 . in generale.2) dove cos α1 . commutativa.2) con il sistema   x = x cos α1 + y cos β 1 + z cos γ1 + a  y = x cos α2 + y cos β 2 + z cos γ2 + b   z = x cos α3 + y cos β 3 + z cos γ3 + c (18. i coseni direttori dei nuovi assi rispetto ai vecchi. La composizione di una rotazione e di una traslazione non è. cos α2 . Consisderiamo la trasformazione  x = x+2  τ : y = y − 1 e la rotazione   z = z−2 3 cioè  1 1 x = √ x − √ y     2 2  1 1 : y = √ x + √ y   2 2    z =z una trasformazione dello spazio in sè che conserva le distanze. Esempio 18. rispettivamente. cos β 1 . cos α3 .1) e la (18.1. Poiché la matrice dei coefficienti è la matrice   cos α1 cos β 1 cos γ1 Γ = cos α2 cos β 2 cos γ2  cos α3 cos β 3 cos γ3 che è ortogonale. la matrice inversa è Γ −1  cos α1 cos α2 cos α3 = Γ T = cos β 1 cos β 2 cos β 3  cos γ1 cos γ2 cos γ3  da cui si ricavano facilmente le equazioni della trasformazione inversa. cos β 3 . cos γ3 sono.1. La composizione di una rotazione e di una traslazione è ancora una isometria3 che prende il nome di rototraslazione.172 Sui sistemi di riferimento   x = x cos α1 + y cos β 1 + z cos γ1  y = x cos α2 + y cos β 2 + z cos γ2   z = x cos α3 + y cos β 3 + z cos γ3 (18. le cui equazioni si ottengono mettendo insieme la (18. cos γ1 . . cioè applicando prima la rotazione e poi la traslazione si ottiene in generale un risultato diverso da quello che si ottiene applicando prima la traslazione e poi la rotazione.3) OSSERV AZIONE 18. cos β 2 .

in quanto siamo interessati alla determinazione del legame tra le coordinate di un punto in sistemi di riferimento diversi in qualche modo però legati tra loro.2. come. invece le due trasformazioni in ordine inverso. del resto anche nel piano.2 Coordinate polari e coordinate cilindriche 173 sostituendo si ha :  1  x = √ ( x + 2) −     2  1  y = √ ( x + 2) +   2    z = z−2 1 √ ( y − 1) = 2 1 √ ( y − 1) = 2 1 √ x− 2 1 √ x+ 2 1 √ y+ 2 1 √ y+ 2 3 √ 2 3 √ 2 Facendo agire. introdurre un riferimento polare anche in assenza di uno cartesiano preesistente. come nel piano.18. ovviamente. otteniamo un semipiano ω giacente sul piano xy che prende il nome di semipiano polare. qui preferiamo invece partire da un sistema cartesiano. di coordinate polari. 1 √ y+2 2 1 √ y−1 2 18. Vediamo come si possono introdurre e come si passa da un sistema polare ad uno cartesiano e viceversa. si ha  1 1 x = √ x− √ y     x = x +2  2 2   1 1 : e τ : y = y −1  y = √ x+ √ y    2 2 z = z −2    z =z si ottiene facilmente  1 x = √ x−     2  1 y = √ x+   2    z = z−2 che differisce dalla precedente.1 nella pagina successiva). si può. consideriamo come asse polare l’asse z e la semiretta ortogonale all’asse polare coincidente con la direzione positiva dell’asse x. Coordinate polari e coordinate cilindriche Anche per i punti dello spazio si parla. figura 18. cio è eseguendo prima la rotazione e poi la traslazione. inoltre il vettore OP (che ha quindi norma ρ) forma. 4 Nello spazio. Ciò posto un qualunque punto P dello spazio individua un segmento OP = ρ detto raggio vettore di P. . Fissato nello spazio un sistema di coordinate cartesiane ortogonali4 (v.

In tal modo ogni punto P viene individuato dalle sue coordinate polari5 (ρ. Osservando ancora la figura 18. A volte. infine il semipiano individuato da P e dall’asse polare forma. per cui si ha ρ = 0 e ϕ e ϑ indeterminati . ogni punto dello spazio viene individuato da una ed una sola terna di numeri. fà eccezione l’origine del riferimento. un angolo ϑ detto colatitudine o angolo (o distanza) zenitale di P (ovviamente si ha 0 ≤ ϑ ≤ π). Coordinate polari con l’asse polare. OQ = ρ sin ϑ. Infatti se con Q e Z si indicano le proiezioni ortogonali di P sul piano xy e sull’asse z rispettivamente e con X e Y le proiezioni ortogonali di P sugli assi x e y. si hanno le formule OZ = z = ρ cos ϑ. ϑ.1 si possono facilmente scrivere le formule di passaggio dalle coordinate polari alle cartesiane e viceversa. ϕ) o (ρ.174 Sui sistemi di riferimento Figura 18. ψ. specialmente in Geografia ed in Astronomia. quindi   x = ρ sin ϑ cos ϕ  y = ρ sin ϑ sin ϕ   z = ρ cos ϑ 5 In questo modo. = X = x = OQ cos ϕ = ρ sin ϑ cos ϕ e XQ = OY = y = OQ sin ϕ = ρ sin ϑ sin ϕ. con il semipiano ω un angolo ϕ detto azimut o longitudine di P (si ha 0 ≤ ϕ ≤ 2π). invece della colatitudine ϑ si considera la latitudine π ψ = − ϑ che è l’angolo formato dal raggio vettore con il piano equatoriale ε 2 passante per O e perpendicolare all’asse polare. infatti.1. ϕ) molto usate.

con le relazioni cos ϕ = x ρ sin ϑ e sin ϕ = y ρ sin ϑ Un altro tipo di coordinate per individuare un punto P dello spazio. Le coordinate cilindriche di P sono allora (ρ0 .2 Coordinate polari e coordinate cilindriche 175 e. all’inverso. ρ0 = x y e sin ϑ = . ϑ. ρ0 ρ0 x2 + y2 e. Figura 18. in un certo senso. è una via di mezzo tra quelle cartesiane e quelle polari è costituito da quelle che si chiamano coordinate cilindriche: un punto P è rappresentato dalle coordinate polari della sua proiezione Q sul piano xy (vedi figura 18.18. noto ρ0 si può calcolare ϑ dalle relazioni cos ϑ = . Coordinate cilindriche Dunque si ha ρ0 = OQ e ϑ = XOQ detti rispettivamente distanza orizzontale e azimut. noti ρ e ϑ si ottiene ϕ.   ρ = x 2 + y2 + z2  z  ϑ = arccos  x 2 + y2 + z2 mentre. che. z0 ) e le formule di passaggio si ricavano immediatamente dalla definizione:   x = ρ0 cos ϑ  y = ρ0 sin ϑ  z=z 0 e.2.2) e dalla quota z0 = z di P. come è facile verificare. all’inverso.

.

è rappresentato da un’equazione cartesiana lineare. ma anche da una terna di equazioni parametriche lineari   x = x0 + αu + βv  y = y0 + γu + δv (19. b e c non siano tutti e tre nulli. La superficie più semplice è il piano che. z) = 0 (19.2) rappresentano effettivamente un piano. Si chiama superficie il luogo dei punti dello spazio. Superfici DEFINIZIONE 19. δ.19. y. soddisfano ad un equazione cartesiana f ( x. Linee e Superfici nello spazio In questo capitolo vedremo come si rappresentano in generale linee e superfici nello spazio. Nella definizione 19. v)   z = i (u. come abbiamo visto.1) o ad una terna di equazioni parametriche   x = g(u. Le equazioni (19. h ed i sono tre funzioni reali di al più due variabili.1 si parla di funzioni qualsiasi.1.2) dove nella (19.2) g.1) la f è funzione reale di al più tre variabili. non tutti e tre nulli ed ugualmente non contemporaneaamente nulla la terna ( β. ax + by + cz + d = 0 purché i coefficienti a. che riferito ad un sistema di coordinate cartesiane ortogonali.3)   z = z + u + ζv 0 con α. in genere reali e nella (19. ζ ). 19. v)  y = h(u. che quindi possono dar luogo a superfici anche molto lontane dal concetto intuitivo che abbiamo di superficie.1. . v) (19. γ. perché eliminando da esse i due parametri u e v si ottiene una equazione (ed una sola) lineare.

addirittura non algebiche. che anche le superfici reali contengono. quella formata da tutti (e √ soli) i punti che distano k dall’origine: si tratta di una sfera. infatti. l’origine O(0. dev’essere v > 0 e cioè y − 2x > 0 quindi bisognerebbe scrivere 5x −4y+z =0 y−2x >0 . 0) e se k < 0 nessun punto della superficie.4) che per k > 0 rappresentano una superficie reale. poiché v è argomento di logaritmo.2. y) che in molte occasioni può essere più comoda. L’equazione cartesiana di una superficie. di passata. Per far ciò basta eliminare i due parametri u e v ricavando u3 e log v dalle prime due equazioni: si ottiene u3 = 3x − y e.1) in cui il primo membro è un polinomio di grado n.1 nella pagina precedente) si può. sotto certe ipotesi1 esplicitare. 1 che (19. 0.5) qui non importa precisare: si tratta di un noto teorema di Analisi sulle funzioni implicite di più variabili. che per comodità chiamiamo ancora sfera. Una superficie si dice algebrica di ordine n se può essere rappresentata da un equazione di tipo (19. si perviene all’equazione cartesiana 5x − 4y + z = 0 che rappresenta appunto un piano. Per la precisione in questo caso si dovrebbe parlare di un piano privato di una semiretta. Tra le superfici di equazione ( 19. in generale punti a coordinate complesse. anche quelle rappresentate dall’equazione x 2 + y2 + z2 = k (19. cioè scrivere nella forma z = ϕ( x.178 Linee e Superfici nello spazio OSSERV AZIONE 19. Mostriamo infatti che il sistema  3  x = u + log v  y = 2u3 + 3 log v   z = 3u3 + 7 log v rappresenta un piano. ad esempio. è reale.1 nella pagina precedente) esistono. equazione ( 19. Quindi anche nel caso dello spazio occorre accettare superfici formate solo da punti a coordinate complesse. Esempio 19. viceversa in un sistema di riferimento cartesiano ogni equazione lineare rappresenta un piano. sostituendo poi i valori trovati nella terza equazione. log v = y − 2x. Mentre l’equazione cartesiana di un piano è sempre lineare e. Ma se k = 0 si ottiene una superficie che ha un solo punto reale. DEFINIZIONE 19. superficie di cui parleremo diffusamente nel prossimo capitolo. similmente. Le superfici che non possono essere rappresentate in questo modo si chiamano trascendenti. .1. ossevando.1. le equazioni parametriche di un piano possono anche non essere lineari.

Sia ora f ( x. Questa radice è costituita dalle coordinate del punto di tangenza. Un esempio di curva gobba è fornito dal filetto di una comune vite.6) risolvente l’intersezione ammette almeno una radice multipla. z) = 0 una superficie algebrica di ordine n e sia r una generica retta di equazioni parametriche   x = x0 + at  y = y0 + bt . Quindi possiamo concludere che una retta ed una superficie algebrica di ordine n hanno al più n punti in comune. DEFINIZIONE 19. Linee Una linea (o curva) L nello spazio può essere rappresentata da equazioni parametriche del tipo   x = f (t)  L ≡ y = g(t) (19. z0 + ct) = 0 (19. Se tutti i punti di una curva appartengono ad un medesimo piano la curva si dice piana. quindi una curva può anche essere rappresentata come intersezione di due superfici. reali o complesse contate con le debite molteplicità.3.6) che è un polinomio uguagliato a zero nella variabile t e di grado non maggiore di n.   z = z + ct 0 Le intersezioni di r con la superficie sono ovviamente le soluzioni dell’equazione f ( x0 + at. y. per esempio. per il Teorema Fondamentale dell’Algebra. il quale.7)   z = h(t) che individuano le coordinate del generico punto di L al variare del parametro t.2. Un punto P di un a superficie algebrica Σ si dice multiplo per la superficie Σ se ogni retta passante per P è tangente a Σ. Se proviamo ad eliminare il parametro dalle equazioni (19. esaminando ancora un caso patologico. Una retta si dice tangente alla superficie se l’equazione (19. .19. e seguendo la definizione 19. Una retta tangente può ovviamente intersecare la superficie anche in altri punti diversi da quello di tangenza o addirittura essere tangente in più punti.7) otteniamo sempre due equazioni cartesiane.2 la superficie di equazione x = 0 deve essere considerata diversa dalla superficie x2 = 0 pur essendo entrambe formate dagli stessi punti.2 Linee 179 Quindi. ammette m ≤ n radici. 19. nel caso opposto si parla di curva sghemba o gobba. y0 + bt.

è data mediante le sue equazioni parametriche (caso peraltro a cui ci si può sempre ricondurre. Sia data la curva di equazioni parametriche   x = t2 + t  y = t−1 . si può procedere in vari modi.7 nella pagina precedente) nell’equazione del generico piano ax + by + cz + d = 0 ottenendo a · f (t) + b · g(t) + c · g(t) + d = 0 (19. Se lo si trova allora si può affermare che la curva è piana e l’equazione lineare trovata è quella del piano che la contiene. Ponendo uguali a zero tutti i coefficienti si ottiene un sistema lineare omogeneo di k ≤ n + 1 equazioni nelle quattro incognite a. invece.8) è identicamente verificata. a seconda di come è rappresentata la linea: • Se la linea è individuata dall’intersezione di due superfici. allora si può cercare di trovare un sistema equivalente che contenga un’equazione lineare. La curva è piana se e solo se un tale sistema ammette autosoluzioni. cioè se e solo se la matrice dei suoi coefficienti ha rango < 4.8) sia un polinomio di grado n la condizione è verificata se e solo se ogni coefficiente del polinomio (compreso quindi anche il termine noto) è nullo.3. Ovviamente il fatto di non riuscire a trovare il sistema più semplice non sempre garantisce che non esista e quindi non garantisce che la curva sia gobba.8) La curva è piana se e solo se la (19. c e d.   z = t2 − 2t . Nel caso in cui il primo membro dell’equazione (19. Sia data la curva di equazioni x2 + y2 + z2 − 3x + 2y + z − 1 = 0 x 2 + y2 + z2 − x + 1 = 0 sottraendo membro a membro si ottiene il sistema equivalente x2 + y2 + z2 − 3x + 2y + z − 1 = 0 −2x + 2y + z + 2 = 0 quindi la curva è piana ed appartiene al piano 2x − 2y − z − 2 = 0. ed in generale con relativa facilità) basta sostituire le coordinate del punto generico della cuva ( 19.180 Linee e Superfici nello spazio Per stabilire se una linea è piana oppure gobba. • Se la curva.2. Esempio 19. cioè da un sistema di due equazioni cartesiane. cioè è verificata da ogni valore del parametro t. Esempio 19. b.

Sia L la linea   x = t3  y = t3 + t2   z=t si ha at3 + b(t3 + t2 ) + ct + d = 0 cioè ( a + b)t3 + bt2 + ct + d = 0 da cui il sistema  a+b = 0    b=0 che non ammette autosoluzioni.19. ordinando il polinomio. Esempio 19. diventa ( a + c)t2 + ( a + b − 2c)t + d − b = 0. . il che accade. quindi possiamo concludere che la curva  c=0    d=0 non è piana. ordinatamente. L’equazione del piano si ottiene facilmente: i coefficienti sono.4.8) diventa a(t2 + t) + b(t − 1) + c(t2 − 2t) + d = 0 che. in quanto il rango della matrice dei coefficienti è palesemente non maggiore di 3. una di queste autosoluzioni. In questo caso la (19.2 Linee 181 Vogliamo vedere se è piana. identicamente verificata se e solo se il sistema   a+c = 0  a + b − 2c = 0   d−b = 0 ammette autosoluzioni.

.

su esempi. come abbiamo fatto per il piano. possiamo eliminare nella (20. Ampliando lo spazio con i punti a coordinate complesse. Sia data la sfera Σ √ x2 + y2 + z2 − 2x − 2y = 0 che ha centro ≡ nel punto C (1.2) rappresenta una sfera nello spazio. Se tale punto è C (α. indicando con P( x. β.− e raggio R = a + b2 + c2 − 4d come si può facilmente 2 2 2 2 mostrare con ragionamenti analoghi a quelli effettuati per la circonferenza nel piano. l’equazione della sfera è ( x − α )2 + ( y − β )2 + ( z − γ )2 = R2 che diventa x2 + y2 + z2 − 2αx − 2βy − 2γz + α2 + β2 + γ2 − R2 = 0 Viceversa l’equazione x2 + y2 + z2 + ax + by + cz + d = 0 (20.2. infine π passa per l’origine. come si possa determinare l’equazione del piano tangente1 ad una sfera in un suo punto P.1) (20. Sfera e circonferenza nello spazio 20. −1. . Vogliamo l’equazione del piano π tangente nell’origine O(0. 1 Il piano tangente ad una superficie in un suo punto P può essere inteso come il luogo delle rette tangenti in P alla superficie.1) l’eccezione R ≥ 0 ed affermare che ogni equazione della forma (20. 0) alla Σ. poiché. 0) e raggio R = 2. Piani tangenti ad una sfera Esaminiamo ora. γ) e la distanza è R ≥ 0 si vede subito che. z) un generico punto dello spazio.2) caratterizzata dal fatto di avere i coefficienti dei termini quadratici uguali e non contenere termini rettangolari rappresenta la sfera con centro nel punto c a b 1√ 2 C = − . y.20. 0 . Il piano cercato è perpendicolare alla retta OC che ha parametri direttori 1. Esempio 20. La sfera Si chiama sfera il luogo dei punti dello spazio equidistanti da un punto fissato. la sua equazione è: x − y = 0. quindi possiamo scegliere questi parametri direttori per π. −1.1. 0. 20.− .1.

e viceversa ogni circonferenza dello spazio può essere vista come l’intersezione di un piano con una sfera. Circonferenze nello spazio L’intersezione di una sfera Σ con un piano π rappresenta una circonferenza. x2 + y2 + z2 + ax + by + cz + d = 0 αx + βy + γz + δ = 0 (20.2. cioè se la sua distanza dal centro è minore del raggio R.1. Siano Σ la sfera di equazione x2 + y2 + z2 = 1 ed r di equazioni x=3 . 20. . cioè se la distanza è R e immaginaria se il piano non taglia la sfera. Circonferenza nello spazio γ≡ 2 anzi. cioè se la distanza è maggiore di R. che si può mostrare che il piano tangente nell’origine ad una sfera2 è rappresentato dall’equazione che si ottiene eguagliando a zero il complesso dei termini lineari dell’equazione che la rappresenta. in generale. z=0 Si vede subito che la sfera data ha centro nell’origine e raggio R = 1 i piani cercati appartengono allora al fascio che ha per sostegno la retta r.184 Sfera e circonferenza nello spazio Notiamo. Quindi.. cioè al fascio x + λz − 3 = 0 ed hanno distanza 1 dall’origine. quindi dev’essere √ 3 2 = 1 da cui si ricava λ = 1+ λ √ ±2 2. se il piano taglia la sfera in punti reali. per inciso.3. Esempio 20. Vogliamo gli eventuali piani tangenti a Σ e passanti per r.3) ad una qualsiasi superficie algebrica. in accordo con il fatto che i piani tangenti ad una sfera e passanti per una retta sono al più due. una circonferenza si può rappresentare nello spazio con le equazioni Figura 20. reale. ridotta ad un solo punto se il piano è tangente.

3 2 3 9 1 1 26 Dunque r = . −1. . il Teorema di Pitagora ci permette di scrivere che R2 = r2 + d2 . esse rappresentano una circonferenza reale.20. Siano date le equazioni x2 + y2 + z2 − 2x + 2y − z = 0 x+y−z = 0 1 3 e raggio R = con 2 2 il piano x + y − z . osservando sempre la figura 20. 2 6 6 6 3 centro della circonferenza data.3.4 Fasci di sfere 185 Ci proponiamo di calcolare le coordinate del centro e la lunghezza del raggio di γ. −1. 3 Anche qui. Per trovare le coordinate del centro di γ osserviamo − = 4 12 2 3 che una terna di parametri direttori del piano è 1.− . degenere in un punto o meno) e dal piano che la contiene costituisce quello che si chiama un fascio di sfere3 il piano che ne fà parte si chiama piano radicale del fascio e la circonferenza data si chiama sostegno del fascio. Esempio 20. è facile rendersi conto (vedi Figura 20.1) che il centro C della γ è la proiezione ortogonale di C sul piano π. che rappresentano l’intersezione della sfera di centro C 1. quindi d = √ < R. si considerano anche altri tipi di fasci: i fasci costituiti dalle sfere tangenti un piano dato in un punto dato (e qui la circonferenza sostegno ha raggio nullo) o le sfere che hanno un dato centro. quindi la retta perpendicolare  x = 1+t   y = −1 + t al piano passante per C avrà equazioni intersecandola con il piano si   z = 1 −t 2 1 7 5 1 ottiene 1 + t − 1 + t − 1 + t = 0 da cui t = cui corrisponde il punto C . infatti il piano taglia la 1 |1 − 1 − 2 | 1 √ sfera in punti reali dato che la distanza d di π da C è . come nel caso delle circonferenze del piano. quindi si può determinare come intersezione tra il piano π e la retta ad esso perpendicolare passante per C. Se indichiamo con C e R rispettivamente il centro ed il raggio della sfera Σ. Per quanto rigurada il raggio r della circonferenza.1. 1. Il luogo dei centri delle sfere di F risulta ovviamente costituito dalla retta che passa per il centro di γ ed è ortogonale al piano su cui γ giace. 20. dove con d abbiamo indicato √ la distanza di c dal piano π da cui immediatamente r = R2 − d2 . Fasci di sfere L’insieme F di tutte e sole le sfere che passano per una data circonferenza γ (reale o completamente immaginaria.4.

Essa si ottiene comunque sottraendo membro a membro le equazioni della γ. Vogliamo l’equazione di una sfera che ha raggio R = circonferenza di equazioni γ: x 2 + y2 + z2 − x = 1 . Sia data la circonferenza γ intersezione delle due sfere x2 + y2 + z2 − 2x − 2y = 0 x2 + y2 + z2 + x − 2y + z − 1 = 0 Il fascio che ha per sostegno la γ ha equazione λ( x2 + y2 + z2 − 2x − 2y) + µ( x2 + y2 + z2 + x − 2y + z − 1) = 0 che. Esempio 20. si può scrivere. nella forma x2 + y2 + z2 − 2x − 2y + k ( x2 + y2 + z2 + x − 2y + z − 1) = 0 che diventa (20.4) diventa 3x + z − 1 = 0 che è l’equazione del piano radicale del fascio. con un parametro solo. . Per k = −1 la (20.4. √ Esempio 20.186 Sfera e circonferenza nello spazio In modo del tutto analogo ai fasci di piani si dimostra che l’equazione di tutti e soli gli elementi di un fascio di sfere si scrive come combinazione lineare non banale di quelle di due qualsiasi di esse.4) (k + 1)( x2 + y2 + z2 ) + (k − 2) x + −2(k + 1)y + kz − k = 0.5. x+y−z+1 = 0 6 2 e passa per la Le sfere che soddisfano tali condizioni son al massimo due ed appartengono al fascio F che ha per sostegno la γ. la cui equazione è x 2 + y2 + z2 − x − 1 + k ( x + y − z + 1) = 0 L’equazione della generica sfera di F si può scrivere come x2 + y2 + z2 + (k − 1) x + ky − kz + k − 1 = 0 e quindi il suo raggio è R= 1 2 ( k − 1)2 + k 2 + k 2 − 4( k − 1) Uguagliando R al valore dato si ottiene un’equazione le cui soluzioni sono i raggi cercati. come al solito e con le solite avvertenze sull’eventuale valore infinito del parametro.

1) passa almeno una di queste rette.21.1) si può scrivere x · y = (z + 1)(z − 1) che ammette le stesse soluzioni dell’insieme costituito dai due sistemi di rette x = k ( z − 1) ky = z − 1 x = h ( z + 1) . (21. Superfici rigate e di rotazione 21. c(t) dipendono da Pt . Superfici rigate Si dice rigata una superficie Σ tale che per ogni suo punto passi almeno una retta reale tutta contenuta in Σ.2)   z = h(t) + c(t)τ .1) al variare dei parametri h e k queste sono rette che giacciono per intero sulla superficie e si verifica che per ogni punto della (21. Le rette che formano la Σ si chiamano generatrici ed ogni linea che appartiene a Σ ed incontra ogni generatrice si chiama (Curva) direttrice. quindi la superficie è rigata. h(t)) di essa passa una generatrice i cui parametri direttori a(t).   z = h(t) per ogni punto Pt ( f (t). b(t). È facile scrivere le equazioni parametriche di una superficie rigata quando siano date una direttrice L ed un sistema di generatrici: se le equazioni della direttrice sono   x = f (t)  L = y = g(t) .1. Per esempio è rigata la supeficie Σ di equazione xy − z2 + 1 = 0 infatti l’equazione (21. La generatrice passante per Pt ha quindi equazioni   x = f (t) + a(t)τ  y = g(t) + b(t)τ . g(t). ky = z + 1 (21.

2. In questo modo si ottengono due equazioni (di una sfera e del piano π). pensato come sistema nella sola incognita τ rappresenta la generica generatrice. lungo ma non difficile. Naturalmente per avere l’equazione cartesiana della superficie bisogna eliminare i due parametri t e τ.1. Superfici di rotazione Si chiama di rotazione o rotonda una superficie Σ (fig. Cerchiamo l’equazione della superficie rigata che ha come direttrice la “cubica gobba” di equazioni1  x = t  y = t2   z = t3 e come generatrici rette di parametri direttori 1. 1. eliminando questo parametro si ottiene l’equazione della superficie. 1. si ha a che fare con le equazioni parametriche di un piano: lasciamo come esercizio al lettore la costruzione di un esempio in cui si possano chiaramente individuare la direttrice e le generatrici di una superficie rigata costituita da un piano.1 nella pagina successiva) ottenuta facendo ruotare una linea L attorno ad una retta r. Scriveremo allora il sistema  x = t+τ  y = t2 + τ   z = t3 + τ che costituiscono una terna di equazioni parametriche della superficie cercata. g ed h sono funzioni lineari di t ed a. dopo qualche calcolo. b e c funzioni costanti.2). 21. cosa che può comportare conti un po’ laboriosi.188 Superfici rigate e di rotazione Il sistema (21. 1 Questo esempio mostra che la direttrice può anche non essere una curva piana. ambedue queste equazioni dipendono dal parametro che individua la posizione di P sulla linea L . Eliminando i parametri per passare alla forma cartesiana della superficie otteniamo. . mentre pensato come sistema nelle due incognite t e τ rappresenta la superficie rigata cercata. Per scrivere l’equazione di una tale superficie basta considerare il generico punto P ∈ L ed imporre che sul piano π passante per P ed ortogonale a r esso descriva una circonferenza con centro l’intersezione tra r e π. In particolare se f . 21. l’equazione ( x − y)3 − (y − z)( x − 2y + z) = 0. Esempio 21. detta di solito asse di rotazione.

y=1 Un punto generico dello spazio P appartiene alla L se e solo se le sue coordinate soddisfano la (21.2 Superfici di rotazione 189 Figura 21. 0) si ha l’equazione della sfera (21.21. Prendendo C (1.2. t .3) ( x − 1)2 + ( y − 1)2 + z2 = ( t − 1)2 − 1 ottenendo così la circonferenza di equazioni    2 + 1 + t2 ( x − 1)2 + ( y − 1)2 + z2 = ( t − 1)2 − 1 z=t 2 + 1 + t2 .1. il piano π passante per P e ortogonale ad r ha equazione z = t. Vogliamo l’equazione cartesiana della superficie che si ottiene facendo ruotare la linea L di equazioni parametriche   x = ( t − 1)2  y=0   z=t attorno alla retta r di equazioni x=1 .3) e quindi sono P (t − 1)2 . 1. La circonferenza è individuata tagliando il piano P con una qualunque sfera avente centro C su r e raggio CP. 0. Superficie di rotazione Esempio 21.

con opportune semplificazioni. dopo la quale. si ottiene l’equazione ( x − 1)2 + ( y − 1)2 + z2 ( z − 2)2 − 1 = 0 che rappresenta la superficie di rotazione cercata.190 Superfici rigate e di rotazione In questo caso è particolarmente semplice l’eliminazione del parametro. .

1.1) Figura 22. 1 cioè 2 La rappresentabile mediante l’intersezione di due superfici algebriche. nozione di cono si potrebbe estendere anche al caso di direttrici non algebriche. ma in questo caso occorrerebbe fare alcune precisazioni che appesantirebbero la trattazione. . z) = 0 si dice omogenea di grado k se accade che f (tx. y. z) ∈ R3 il che equivale a dire che il polinomio f ( x. Cono Ricordiamo che un’equazione intera. y. ty. coni e proiezioni 22.22. Le equazioni omogenee intere nelle incognite x. Fissati nello spazio un punto V ed una curva algebrica1 L . Coni DEFINIZIONE 22. z) ∀t ∈ R.1. Cilindri .1. z) è costituito da monomi tutti dello stesso grado.1. y. tz) = tk f ( x. cioè polinomiale in tre variabili f ( x. A questo punto si può dimostrare facilmente che Teorema 22. y. z rappresentano tutti e soli i coni con il vertice nell’origine. si chiama cono2 di vertice V e direttice L l’insieme di tutte e sole le rette passanti per V e secanti la L (Figura 22. ∀( x. y.

Infatti. supponiamo che l’equazione f ( x. quindi ogni punto della retta   x = x0 t  y = y0 t . ty0 . tz0 ) = 0 ∀t ∈ R. Dimostrazione.1)   z = c − (z − c)t 0 . c) il vertice e L la direttrice di equazioni f ( x. y0 . z0 ) appartiene al cono. y0 . appartiene alla superficie. vediamo come sfruttare questo fatto per scriverne l’equazione. y. y. Abbiamo visto che un cono è dato quando siano dati il vertice ed una direttrice. cioè sia tale che f ( x0 . γ). tz0 ) = 0 ∀t ∈ R e ∀( x. y − β. coni e proiezioni Dimostrazione. y. la quale risulta quindi un cono con vertice nell’origine. z) = 0 . è anche f (tx0 . b. z) = 0 Se P( x0 . z) = 0 sia omogenea e che il punto P( x0 . y0 . z) ∈ R. pioiché la f è omogenea. z0 ) = 0 = f (tx0 . ad esso appartiene l’intera retta che congiunge P con O e cioè la retta di equazioni   x = x0 t  y = y0 t . y0 .2. Viceversa se f ( x. vuol dire che quando P( x0 . z − γ rappresentano tutti e soli i coni con vertice nel punto V (α. Le equazioni omogenee nelle tre incognite x − α.  z=z t 0 il che significa che f ( x0 . z0 ) = 0. Basta operare la traslazione d’assi che porta l’origine nel punto V. y. quindi la f è omogenea. g( x. z0 ) è un punto del cono esso dovrà stare su una retta che passa per V e che taglia la direttrice. Segue immediatamente il più generale Corollario 22. Sia V ( a. y. La generica retta per V ha equazioni   x = a − ( x0 − a ) t  y = b − ( y0 − b ) t (22. z0 ) appartenga alla superficie da essa rappresentata. y0 . z) = 0 rappresenta un cono con vertice nell’origine. β.192 Cilindri . allora.  z=z t 0 che congiunge P con l’origine. ty0 .

z0 ) è un punto generico. Otteniamo un cono se e solo se le rette sono incidenti. un cilindro. perché ottenuti dalla rotazione di una retta attorno ad un’altra ad essa incidente Esempio 22. se sono sghembe una superficie del second’ordine detta iperboloide. come vedremo tra poco. x0 t − 2(1 + (y0 − 1)t) + 3z0 t = 0 Eliminando il parametro t dalle due equazioni si ottiene la relazione che deve intercorrere tra le coordinate di P affiché quest’ultimo stia su rette passanti per V che intersecano la direttrice.22. Quando il vertice è nell’origine è semplice verificare l’omogeneità.1.1) ed eliminare il parametro dalle due equazioni. Nel nostro caso. OSSERV AZIONE 22. 0) e come direttrice la circonferenza di equazioni x2 + y2 + z2 − 2x = 0 . basta sostituire nelle equazioni della L i valori datti dalle (22. Siano r e s rispettivamente le rette di equazioni   x = t  x = −t   y=t e y=t .1 Coni 193 Per imporre il fatto che la retta (22. cioè affinché P stia sul cono cercato. esso sta sul cono deve anzittutto appartenere alla retta PV che ha equazioni   x = x0 t  y = 1 + ( y0 − 1) t .2. se sono parallele otteniamo. x − 2y + 3z = 0 Se P( x0 . Vogliamo l’equazione del cono che ha vertice in V (0. Esempio 22.1) tagli la direttrice. z e le coordinate del vertice. y0 .  z=z t 0 poi la retta PV deve tagliare la direttrice. 1. Tale cono avrà come vertice il punto comune a r e s e si potrà anche scrivere come superficie di rotazione. quindi si ha il sistema: ( x0 t )2 + (1 + ( y0 − 1) t )2 + ( z0 t )2 − 2( x0 t ) = 0 . . Alcuni coni sono di rotazione. y.   z=t  z = 3t vogliamo l’equazione del cono che si ottiene facendo ruotare la retta r attorno alla s.1. con facili conti si trova l’equazione x2 − 13z2 + 8x (y − 1) − 6xz = 0 che è effettivamente omogenea nelle differenze tra le coordinate x. quando invece il vertice è un altro punto occorre spesso raccogliere opportunamente i termini.

Cilindro Quindi il cilindro è ben di più del cilindro circolare che siamo abituati a conoscere. (Figura 22. Si vede subito che ogni equazione del tipo f ( x. y0 ) è un punto le cui coordinate soddisfano l’equazione (22. un cilindro con le generatrici parallele all’asse z ed avente come generatrice sul piano xy la curva di equazioni f ( x. .2. Fissata nello spazio una curva algebrica γ ed una retta r che interseca γ si chiama cilindro di direttrice γ e generatrice r la superficie (rigata) formata da tutte e sole le rette parallele ad r che intersecano la γ.2. Figura 22.2). se P( x0 . OSSERV AZIONE 22. nello spazio.194 Cilindri .2. allora (e solo allora) qualunque punto della retta x = x0 y = y0 (che è la generica retta parallela all’asse z passante per P) soddisfa l’equazione (22.2) rappresenta. y) = 0 . z=0 infatti si verifica subito che.2. Cilindri DEFINIZIONE 22. y) = 0 (22.2).2). coni e proiezioni 22.

3. Quindi deve essere verificato il sistema ( y0 + t )2 = x0 + t . il parametro t dalle due equazioni del sistema si ottiene la relazione che deve intercorrere tra le coordinate di P perché questi appartenga al cilindro: (y − z)2 = x − z OSSERV AZIONE 22. cioè non necessariamente parallelle ad uno degli assi coordinati.   z = z +t 0 Il punto P appartiene al cilindro se e soltanto se quest’ultima retta taglia la parabola. Per scrivere l’equazione di un cilindro con le generatrici in direzione generica. y0 . cilindri rotondi. con semplici calcoli.3 Proiezioni 195 Quindi. un cilindro con le generatrici parallele alla variabile che manca.4. nello spazio. z=0 Sia P( x0 . z0 + t = 0 Eliminando. Proiezioni DEFINIZIONE 22. OSSERV AZIONE 22.3: a volte possono essere piuttosto lunghi e laboriosi. Esempio 22. cioè che hanno una direttrice formata da una circonferenza. z0 ) un generico punto dello spazio.3. La loro equazione si può anche scrivere come quella di una superficie di rotazione.2. possiamo dire che un’equazione in due variabili rappresenta sempre. Non sempre i calcoli per l’eliminazione del parametro sono così immediati come nell’esempio 22. ovviamente. 22. generalizzando l’osservazione 22. si può sfruttare la definizione. z0 ) dello spazio appartiene al cilindro se e solo se sta su una retta parallela alla generatrice che interseca la curva direttrice. vale a dire che si può pensare al fatto che un generico punto P( x0 . Esistono. y0 .3 nella pagina seguente) . (v. la retta passante per P e parallela ad r ha equazioni   x = x0 + t  y = y0 + t . Vogliamo l’equazione del cilindro con le generatrici parallele alla retta r di equazioni x = y = z che taglia il piano xy sulla parabola di equazione y2 = x ed avente come direttrice la curva y2 = x .3.22. Si chiama proiezione di una curva γ da un punto V sul piano α l’intersezione tra il piano α stesso ed il cono avente vertice in V e come direttrice γ.3. figura 22.

Dalla definizione 22. Esempio 22. 0. 22. 0) sul piano x = 1. Proiezione parallela Si chiama proiezione di una curva γ dalla direzione della retta r sul piano α (v. Il cono che ha vertice nell’origine e come direttrice la γ ha equazione (verificarlo per esercizio) y2 + x ( x − z ) + ( x − z )2 = 0 .4) l’intersezione tra il piano α stesso ed il clindro avente γ come generatrice e generatrici parallele a r. Proiezione centrale Figura 22.196 Cilindri .3 escludiamo.4.4. coni e proiezioni Figura 22.3. Cerchiamo le equazioni della proiezione della curva γ≡ x = y2 + 1 z = x+1 dall’origine O(0. per evitare casi patologici. che V ∈ α oppure r sia parallela ad α. fig.

Riconoscimento di una conica nello spazio Si può mostrare che nello spazio ogni conica irriducibile può essere vista come sezione piana di un cono circolare. su uno dei piani coordinati3 .3 Proiezioni 197 evidentemente omogenea nelle tre variabili.3. se possibile. Quindi per studiare la natura di una conica nello spazio basta proiettarla.22. . Più precisamente se tagliamo un cono rotondo tale che la generatrice formi un angolo α con l’asse di rotazione con un piano non passante per il vertice e che formi un angolo β con lo stesso asse di rotazione otteniamo rispettivamente • una parabola se α = β • un’ellisse se α < β • un’iperbole se α > β Si può inoltre mostrare che qualunque sezione piana di una superficie del secondo ordine è una conica.1. quindi la curva proiezione può essere individuata dal sistema y2 + x ( x − z ) + ( x − z )2 = 0 . Teorema 22. che enunciamo senza dimostrazione. Per riconoscerla. Ogni proiezione parallela di una conica non ne altera la natura. eventualmente degenere. ma in tal caso il riconoscimento procede come già abbiamo visto nel piano. rappresentata però come intersezione di un cilindro con le generatrici perpendicolari al piano: y2 + z2 − 3z + 2 = 0 . x=1 22. si può usare il seguente teorema. Esempio 22.3.5. x=1 Se sostituiamo nella prima equazione il valore di x dato dalla seconda. se effettuata da una direzione non parallela al piano su cui giace la conica stessa. Vogliamo riconoscere la conica di equazioni: x2 + xy + z2 − x + 1 = 0 x−y−z = 0 3 ovviamente se la conica giace già su un piano parallelo ad uno dei piani coordinati questo non è possibile. otteniamo la stessa curva.

x2 + xy + ( x − y)2 − x + 1 = 0 z=0 che sul piano xy rappresenta un’ellisse. si ottiene l’equazione del cilindro che proietta la conica ortogonalmente al piano xy.198 Cilindri . che ha quindi equazione x2 + xy + ( x − y)2 − x + 1 = 0. per esempio la z. coni e proiezioni Eliminando dal sistema una delle incognite. la proiezione sarà dunque. dunque la conica data è un’ellisse. .

La più generale equazione di secondo grado in x. y e z. Partendo dal fatto che per determinare questi nove coefficienti occorre e basta imporre 9 condizioni lineaari indipendenti.1) che dipende da 10 coefficienti omogenei (cioè definiti a meno di un fattore di proporzionalità non nullo) e quindi da 9 coefficienti non omogenei. passa una ed una sola quadrica irriducibile. cioè rappresentabili con equazioni polinomiali di secondo grado. ed alcuni procedimenti atti ad ottenere il loro riconoscimento.23. nello spazio riferito ad un sistema di coordinate cartesiane ortogonali.1. Come abbiamo fatto per le coniche nel piano. indicando le loro forme canoniche. Superfici quadriche In questo capitolo parleremo delle superfici algebriche del secondo ordine. Si chiama superficie quadrica o più brevemente quadrica ogni superficie rappresentata. a 4 a 4 non complanari.1. Per esempio abbiamo già visto che sono quadriche le sfere ed alcune superfici.1. 23. che Teorema 23. classsifficandole. si può dimostrare in modo analogo a come si è fatto per le coniche. possiamo associare ad una quadrica una matrice simmetrica costruita a partire dai suoi coefficienti:   g d e a 2 2 2 d f h b   A = 2 f 2 2 e i 2 2 c 2 g h i 2 2 2 l . da un’equazione di secondo grado nelle variabili x. per esempio quelle che si ottengono dalla rotazione di una retta intorno ad un’altra retta. Prime proprietà delle quadriche DEFINIZIONE 23. y e z ha la forma ax2 + by2 + cz2 + dxy + exz + f yz + gx + hy + iz + l = 0. (23. Per 9 punti.

ad una ed una sola delle forme canoniche elencate nella tabella 23. mentre se r ( A) = 1 si ha una coppia di piani coincidenti. invariante per rototraslazioni. cioè per cui è r ( A) = 3 è un cono o un cilindro quadrico. 1]. y. Se è un cono. mentre se è un cilindro non possiede punti multipli al finito. . come si dice specializzata una volta. cioè se r ( A) ≤ 2 la quadrica è riducibile: più precisamente se r ( A) = 2 la quadrica è spezzata in una coppia di piani distinti. Si può inoltre provare che se l’indice di specializzazione è maggiore di 1.1.1 nella pagina precedente) nel seguente modo xA x T = 0 (23. se tali piani non sono paralleli. ci fornisce molte informazioni sulla quadrica. con una opportuna trasformazione del sistema di riferimento.2 a pagina 202 che riguarda quelle non specializzate.200 Superfici quadriche In tal modo possiamo riscrivere l’equazione di una generica quadrica ( 23.1 nella pagina successiva che riguarda le quadriche specializzate e 23. e. Del resto la sua equazione diventa facilmente ( x + y − z )2 − 5( x + y − z ) + 6 = 0 che si scompone in [( x + y − z) − 2] [( x + y − z) − 3] = 0 che mette in luce i due piani paralleli in cui è spezzata. Se il determinante di A è uguale a zero diciamo che la quadrica è specializzata con indice di specializzazione uguale a 4 − r ( A): si dimostra che una quadrica non specializzata non ha punti multipli e che una quadica specializzata con indice di specializzazione uguale a 1 (o. ammette come unico punto multiplo il suo vertice. la superficie ammette come punti multipli tutti e soli i punti della retta comune ai due piani. La quadrica di equazione x2 + y2 + z2 + 2xy − 2xz − 2yz − 5x − 5y + 5z + 6 = 0 è spezzata. Quadriche in forma canonica e loro classificazione L’equazione di una qualunque quadrica si può ricondurre. Infatti è facile vedere che la matrice   1 1 −1 − 5 2  1 1 −1 − 5  2 A= 5  −1 −1 1 2 5 5 6 −5 −2 2 2 ha rango 1. Il rango della matrice A.2) essendo x il vettore [ x. Esempio 23.2. 23. z.

2 Quadriche in forma canonica e loro classificazione 201 Tabella 23.1. tra le quadriche non specializzate. nella forma canonica. a = 0 y2 = − a2 . vi sono superfici rigate: esse sono l’iperboloide ed il paraboloide iperbolici. A pagina 204 trovate le figure delle quadriche. a = 0 y2 = 0 piani reali incidenti piani immaginari incidenti Piani reali paralleli Piani immaginari paralleli piani reali coincidenti OSSERV AZIONE 23. mentre la dizione immaginaria si riferisce a quelle superfici per cui i punti a coordinate reali sono al massimo quelli di una retta: nel caso del cono immaginario il vertice ha coordinate reali.23.3 a pagina 206). Aggiungiamo che a b la denominazione ellittica o iperbolica dipende dalla natura dei loro punti (vedi § 23. l’asse z. x 2 y2 mentre la quadrica di equazione 2 + 2 = 0 si spezza nei due piani di equazioni a b y x ± i = 0 che hanno in comune una retta reale.1. In riferimento alle tabelle citate osserviamo che le quadriche dette a centro sono quelle che ammettono un centro di simmetria che. È semplice verificare che. invece i cilindri vengono distinti a seconda della natura delle coniche che si ottengono intersecandoli con un piano perpendicolare alle generatrici. . La denominazione completamente immaginaria è riservata a superfici su cui non vi sono punti a coordinate reali. Forma canonica delle quadriche specializzate irriducibili + 2 + 2 =0 a2 b c 2 x y2 z2 + 2 + 2 =0 a2 b c x2 y2 + 2 =1 a2 b x2 y2 − 2 =1 a2 b x2 y2 + 2 = −1 a2 b 2 = 2px. è l’origine del riferimento. p = 0 y x2 y2 x2 y2 z2 cono quadrico immaginario cono quadrico reale cilindro quadrico a sezione ellittica cilindro quadrico a sezione iperbolica cilindro quadrico completamente immaginario cilindro quadrico a sezione parabolica riducibili − 2 =0 a2 b 2 x y2 + 2 =0 a2 b y2 = a2 . mentre il paraboloide a sella è così chiamato a causa della sua caratteristica forma.

.2. p = 0 a2 b x2 y2 − 2 = 2pz. La forma canonica del paraboloide a sella. possiamo notare che tutte le volte che vi figurano coefficienti uguali per due delle tre incognite si ha a che fare con una quadrica ottenuta dalla rotazione di una opportuna curva attorno all’asse con il nome della terza incognita. bensì quelle maggiormente usate. Forma canonica delle quadriche non specializzate a centro + 2 + 2 =1 a2 b c 2 x y2 z2 + 2 + 2 = −1 a2 b c 2 x y2 z2 + 2 − 2 =1 a2 b c 2 x y2 z2 − 2 − 2 =1 a2 b c x2 y2 x2 y2 z2 ellissoide reale ellissoide completamente immaginario iperboloide iperbolico (o ad una falda) iperboloide ellittico ( a due falde) non a centro + 2 = 2pz. Possiamo infine dare equazioni parametriche1 delle quadriche non specializzate (tabella 23. definiti. al variare dei parametri k e h dai sistemi   x y x y     − = kz + = 2hp a b a b e  k x + y = 2p h x − y = z   a b a b Riferendoci ancora alla forma canonica delle quadriche. p = 0 a2 b paraboloide ellittico paraboloide iperbolico (o a sella) Esempio 23.2.2): 1A questo punto dev’essere chiaro che queste non sono le uniche possibili equazioni parametriche delle quadriche.202 Superfici quadriche Tabella 23. che è x 2 y2 − 2 = 2pz a2 b si può anche scrivere nella forma x y − a b x y + a b = 2p · z e quindi si vede subito che su di esso ci sono due sistemi di rette.

• il sistema   x = a cos ϑ  y = b sin ϑ cosh ϕ   z = c sin ϑ sinh ϕ (con 0 ≤ ϑ < 2π e ϕ ∈ R) rappresenta un iperboloide a due falde. t ∈ R) rappresenta un paraboloide iperbolico. • il sistema   x = at    y = bs 2 2   z = t +s  2p (con s. • il sistema   x = a cosh ϕ cos ϑ  y = b cosh ϕ sin ϑ   z = c sinh ϕ (con 0 ≤ ϑ < 2π e ϕ ∈ R) rappresenta un iperboloide ad una falda. t ∈ R) rappresenta un paraboloide ellittico.2 Quadriche in forma canonica e loro classificazione 203 • il sistema   x = a cos ϑ cos ϕ  y = b cos ϑ sin ϕ   z = c sin ϑ (con 0 ≤ ϕ < 2π e 0 ≤ ϑ < 2π) rappresenta un ellissoide reale: se a = b = c = R si ha la sfera di centro nell’origine e raggio R. • il sistema   x = at    y = bs 2 2   z = t −s  2p (con s.23. .

1.204 Superfici quadriche Figura 23. Gli iperboloidi .2. Ellissoide Figura 23.

23.2 Quadriche in forma canonica e loro classificazione 205 Figura 23. Paraboloide iperbolico .4. Paraboloide ellittico Figura 23.3.

se invece gli autovalori nulli sono due.206 Superfici quadriche 23.3. le loro intersezioni con un piano sono delle coniche. Se P( x0 . Concludiamo il paragrafo dicendo che per distinguere i vari cilindri quadrici (a sezione ellittica. Si dimostra anche che tutti i punti di una quadrica hanno la stessa natura. a questo proposito sussiste la DEFINIZIONE 23. cioè sono tutti di uno ed uno solo dei tre tipi considerati e che i diversi tipi sono discriminati dal segno del determinante della matrice A dei coefficienti della conica: precisamente i punti sono iperbolici se det A > 0. Natura dei punti e riconoscimento di una quadrica Poiché le quadriche sono superfici del second’ordine. 2 Non è difficile dimostrare che gli autovalori di B non possono essere tutti e tre nulli. 1] e x = [ x. si possono considerare i tre autovalori della matrice B introdotta prima: se uno di essi è nullo e gli altri sono discordi. la quadrica è un cilindro a sezione iperbolica. y0 . Uno dei modi per riconoscere una quadrica passa attraverso lo studio della natura dei suoi punti: • Una quadrica a punti iperbolici è ovviamente rigata e non specializzata. quindi può essere solo un paraboloide a sella oppure un iperboloide ad una falda: i due casi si distinguono osservando se la sottomatrice B di A formata dai termini di secondo grado (cioè dalle prime tre righe e dalle prime tre colonne di A) ammette o no un autovalore nullo. ellittico o iperbolico a seconda che il piano tangente in P tagli la quadrica secondo rispettivamente due rette coincidenti. iperbolica o parabolica). z. due rette immaginarie o due rette distinte. z0 . ellittici se det A < 0 e parabolici se det A = 0. mentre se sono concordi il cilindro è a sezione ellittica. dove A è la matrice dei coefficienti della quadrica. rappresenta il piano tangente in P alla quadrica. • Se i punti sono ellittici si ha a che fare con un paraboloide ellittico. . la quadrica è un cilindro a sezione parabolica2 . y0 . Si può anche provare che l’intersezione tra una quadrica ed il piano tangente in un suo punto semplice P è sempre una conica degenere in una coppia di rette. z0 ) è un punto semplice di una quadrica irriducibile Σ e se consideriamo i vettori p = [ x0 . • una quadrica a punti parabolici è sempre specializzata.3 nella pagina successiva. se invece det B < 0 si tratta dell’iperboloide. I casi esaminati sono riassunti nella tabella 23. anche qui i tre casi si discriminano osservando il determinante di B. precisamente se | B| = 0 si tratta del paraboloide. cioè se det B = 0. un ellissoide od un iperboloide a due falde. Un punto P di una quadrica Σ si dice parabolico. se det B > 0 la quadrica è un ellissoide. 1] allora l’equazione pA x T = 0. y.2.

4. Riconoscimento di una quadrica non degenere Punti iperbolici det A > 0 | B| = 0 | B| < 0 | B| > 0 | B| = 0 | B| < 0 | B| > 0 | B| = 0 | B| < 0 | B| > 0 Paraboloide iperbolico Iperboloide ad una falda Ellissoide completamente immaginario Paraboloide ellittico Iperboloide a due falde Ellissoide reale Cilindro quadrico Cono quadrico reale Cono quadrico immaginario Punti ellittici det A < 0 Punti parabolici det A = 0 Esempio 23. La sua matrice dei coefficienti è   1 1 2 0 0 1 0 0 0  A = 2 1 0 0 0 −2 0 0 −1 0 2 1 che.23. si vede subito che l’intersezione è spezzata nelle due rette x=0 z=0 e y=0 z=0 reali e distinte. quindi l’origine è un punto iperbolico. fatto che si può anche constatare tenendo conto che il piano tangente nell’origine ad una qualsiasi superficie algebrica ha come equazione il complesso dei termini di primo grado. Vogliamo riconoscere la quadrica di equazione xy − z = 0. Consideriamo la quadrica x2 + 2xy − 2xz − 2 = 0. Esempio 23.3. di conseguenza la quadrica è a   1 0 2 0 punti iperbolici.3 Natura dei punti e riconoscimento di una quadrica 207 Tabella 23. quindi è una quadrica irriducibile non specializzata ed a punti iperbolici.3. ha det A = 16 > 0. quindi la quadrica 2 0 0 0 è un paraboloide iperbolico. La matrice B =  1 0 0 è singolare e di rango 2. intersecando questo piano con la quadrica. come si verifica subito. La matrice dei coefficiienti è:   1 1 −1 0  1 0 0 0    −1 0 0 0 0 0 0 −2 .

8 a pagina 80. quindi idi aver a che fare.5. e quindi l’equazione assume una delle forme elencate nelle tabelle 23. il che equivale a dire che il suo determinante | B| è diverso da zero. Riduzione a forma canonica Per ridurre a forma canonica l’equazione di una quadrica osserviamo prima di tutto che la matrice B relativa ai termini di secondo grado è reale e simmetrica.   1 1 −1 0 è singolare e di rango 2. sostituendo ( X + x 0 ) − 2 (Y + y 0 ) + ( Z + z 0 ) 2 − 2 ( X + x 0 ) + (Y + y 0 ) + 3 = 0 cioè. semplificando 2 X 2 − 2Y 2 + Z2 + 2( x0 − 1) X − (4y0 − 1)Y + 2z0 Z + x0 − 2y2 + z2 − 2x0 + y0 + 3 = 0. la matrice che la diagonalizza si costruisce. a partire da una base ortonormale di B È facile dimostrare che ciascuno dei tre autovettori che formano la base ammette come componenti i coseni direttori degli assi della quadrica: ciò significa che esiste sempre una rototraslazione che porta ad un sistema di riferimento i cui assi coincidono con gli assi di simmetria della quadrica. come abbiamo visto.1 a pagina 201 e 23.1. Σ è dunque una conica a centro.2 a pagina 202. 23. quindi. è diagonalizzabile.3 a pagina 83). quindi abbiamo a che fare con la matrice B =  1 0 −1 0 0 un cilindro a sezione ellittica o iperbolica: siccome gli autovalori non nulli di B sono soluzioni dell’equazione λ2 − λ − 2 = 0 essi sono discordi. Supponiamo di aver già operato la la rotazione del riferimento che porta la forma quadratica dell’equazione di una quadrica Σ a forma canonica.208 Superfici quadriche singolare e di rango 3: si tratta di una quadrica irriducibile specializzata una sola volta. Cerchiamo allora la traslazione del riferimento   x = X + x0  y = Y + y0   z = Z+z 0 che porta la sua equazione ad una delle forme canoniche: avremo così. 0 0 . I tre autovalori della forma quadratica sono non nulli. in un opportuno sistema di riferimento. Esempio 23.3. dall’equazione x2 − 2y2 + z2 − 2x + y + 3 = 0 (per i passaggi necessari basta ricordare come ridurre a forma canonica una forma quadratica: vedi § 9. ad esempio con la quadrica rappresentata. quindi la quadrica è un cilindro a sezione iperbolica. in virtù del teorema 9.

come abbiamo fatto nel piano. 23.3. z0 . come si verifica subito è una rotazione in quanto la sua matrice è ortogonale a determinante positivo e che ha lo scopo di cambiare il nome agli assi da cui: x2 17 16 − y2 17 8 − z2 17 8 =1 si tratta quindi di un iperboloide ellittico o a due falde. Se P( x0 : y0 : z0 : u0 ) è un punto semplice (e ρ = [ x0 . y. u) = a11 x2 + · · · + a33 z2 + + 2a12 xy + · · · + a13 xz+ + 2a14 xu + · · · + a34 zu + a44 u2 = 0 (23. la quadrica di equazione x2 − 1 che si spezza nei due piani paralleli π1 : x + 1 = 0 e π2 : x − 1 = 0 ammette come punti multipli tutti e soli quelli della retta impropria r∞ : π1 ∩ π2 . Operiamo ora la trasformazione  x =Z  y =X   z =Y che. Nella stessa ottica. u0 ] il vettore delle sue coordinate) della quadrica irriducibile Σ di equazione f ( x.2. I punti impropri delle quadriche Se consideriamo. 0). y0 . Ad esempio in questa ambientazione coni e cilindri non sono più distinguibili. 4 .3 Natura dei punti e riconoscimento di una quadrica 209 Per eliminare i termini lineari occorre e basta avere   x0 − 1 = 0  4y − 1 = 0  0  2z0 = 0 e quindi X 2 − 2Y 2 + Z2 + 17 8 = 0 da cui la forma − X2 17 8 + Y2 17 16 − Z2 17 8 =1 1 ne segue anche che il centro ha coordinate C (1. lo spazio ampliato con i suoi punti impropri. nel senso che i cilindri sono particolari coni il cui vertice è il punto improprio della retta generatrice.23. z.3) . sorgono alcune questioni interessanti che qui brevemente accenniamo.

5. per gli ellissoidi ed il cono quadrico immaginario. . degenere in due rette reali ed incidenti per il paraboloide iperbolico ed il cilindro quadrico a sezione iperbolica. degenere in due rette immaginarie per il paraboloide ellittico e l’ellissoide.9). La conica all’infinito è: reale e non degenere immaginaria non degenere per gli iperboloidi ed il cono quadrico reale. ma anche per il cilindro quadrico a sezione ellittica completamente immaginario.6. la sua intersezione con il piano improprio ha equazioni xy − zu = 0 u=0 equivalente a xy = 0 u=0 . In coordinate omogenee.7) (23. similmente il cono che la proietta dall’origine. Per riconoscere una quadrica irriducibile Σ si può allora studiare l’intersezione della Σ con il piano improprio π∞ : u = 0: si tratta ovviamente di una conica.4) allora si dimostra che il piano tangente in P ha come equazione una delle quattro seguenti forme che si possono dimostrare equivalenti: x ∂f ∂x ∂f ∂f +u ∂z P ∂u P P ∂f ∂f ∂f ∂f + y0 + z0 + u0 =0 x0 ∂x ∂y ∂z ∂u ρA x T xAρ T +y ∂f ∂y +z =0 P (23. Consideriamo la quadrica di equazione xy = z. Esempio 23.210 Superfici quadriche che si scrive anche xA x T = 0 (23.8) sono equazioni lineari che rappresentano il medesimo piano: per l’appunto il piano tangente in P alla Σ.9) o. 23. . che prende il nome di conica all’infinito della Σ e che è rappresentata dalle equazioni a11 x2 + a12 y2 + a33 z2 + 2a12 xy + a13 xz + a23 yz = 0 u=0 (23. detto cono asintotico per la quadrica. degenere in due rette reali coincidenti per il cilindro quadrico a sezione parabolica.6) (23. la cui equazione è la prima delle due del sistema (23.8) Un semplicissimo calcolo (che proponiamo come esercizio al lettore) mostra che le (23.5) (23.

Vale la pena di notare in conclusione che. Se   0 1 0 0 1 1 0 0 0  si vede immediatamente che esaminiamo il rango della matrice A =  2 0 0 0 1 0 0 1 0 è det A = 0 quindi la quadrica non è specializzata dunque si tratta di un paraboloide iperbolico. .3 Natura dei punti e riconoscimento di una quadrica 211 cioè le due rette improprie reali e incidenti x=0 u=0 e y=0 u=0 quindi si tratta di un paraboloide iperbolico o di un cilindro a sezione iperbolica. l’ampliamento dello spazio con i punti impropri permette di eliminare fastidiose dissimmetrie.23. come già accadeva nel piano.

.

116 Asse di una conica. 118 Cono asintotico. 131 Coseni direttori. 58 suriettiva. 104 Coppia involutoria. 60 lineare. 72 B Base. 47 C Caratteristica vedi Rango 48 Cayley-Hamilton Teorema di. 54 Autospazio. 57 iniettiva. 75 Autovettori. 143 Coniche degeneri. 36 ortogonale. 75 Autovalori. 57 Coefficiente angolare. 8 Complemento algebrico. 57 biunivoca. 143 Cilindri.Indice analitico A Angolo di due rette nel piano. 121 Coniche. 95 Coefficiente binomiale. 168 Coordinate polari nel piano. 184 Codominio. 9 Combinazione lineare di matrici. 88 Centro di una conica. 67 Cramer Teorema di. 210 Conica per cinque punti. 173 polari nello spazio. 72 regolari. 34 Combinazioni. 147 Autosoluzioni di un sistema omogeneo. 53 Curva . 67 Binet Teorema di. 96 nello spazio. 173 Coordinate omogenee nello spazio. 19 di vettori. 57 Asintoti di un’iperbole. 151 di un vettore. 67 ortonormale. 44 Coni. 210 Controimmagine. 113 Coniche a centro. 151 Applicazione. 57 inversa. 57 Coordinate cilindriche. 191 Conica all’infinito. 194 Circonferenza nello spazio. 57 biiettiva.

202 delle quadriche specializzate. 40 I Immagine. 106 di una retta nel piano. 191 Equazioni canoniche delle coniche. 28 Generatori di uno spazio vettoriale. 156 di rette. 159 di due punti. 37 Disposizioni. 187 gobba. 119 Equazioni parametriche dell’ellisse. 202 Endomorfismo. 86 semidefinita positiva. 161 di un punto da un piano. 69 proprietà. 115 della circonferenza. 3 intersezione. 57 Insieme. 85 Forme quadratiche. 152 della circonferenza nel piano. 179 sghemba. 113 Ellisse. 65 Distanze nello spazio. 65 proprietà. 8 Distanza di due vettori. 3 differenza. 113 Ellissoide.214 Indice analitico direttrice. 97 nello spazio. 99 Forma bilineare. 95 segmentaria. 95 normale. 185 Fascio di circonferenze. 129 Forma quadratica definita negativa. 85 semidefinita negativa. 161 Dominio. 57 G Gauss algoritmo di . 160 di un punto da una retta. 187 Grassmann formula di. 46 Diametro di una conica. 117. 108 di coniche. 83 Funzione. 36 Generatrici. 151 F Fasci di sfere. 201 Forma proiettiva di prima specie. 57 E Eccentricità di una conica. 160 di due rette sghembe. 143 Dimensione di uno spazio vettoriale. 162 di piani paralleli. 96 omogenea. 124 di piani. 43 definizione classica. 3 parzialmente ordinato. 179 D Determinante. 45 Definizione ricorsiva. 72 Equazione del piano. 5 . 43 proprietà. 105 della retta canonica. 69 Forma canonica delle quadriche non specializzate. 86 definita positiva.

17 diagonale principale. 144 dei punti coniugati. 25 orlare. 77 elementi principali. 86 associata ad una forma quadratica. 45 Linee nello spazio. 22 emisimmetrica. 59 K Kroneker Teorema di. 20 linearmente indipendenti. 50 ortogonale. 23 conformabili. 3 vuoto. 80 quadrata. 23 prodotto. proprietà. 118 Inversa di un’applicazione lineare.Indice analitico 215 sottoinsieme. 131 ellittiche. 25 sulle righe. 86 nulla. 16 ridotta. 179 M Matrice. 146 dei diametri coniugati. 86 Matrice associata ad un’applicazione lineare. 38 diagonale. 52 linearmente dipendenti. 16 singolare. 132 Iperbole. 202 iperbolico. 86 inversa. 5 unione. 83 autoaggiunta. 79 ortogonalmente diagonalizzabile. 46 traccia di una. 20 prodotto per uno scalare. 86 dei complementi algebrici. 140 Involuzioni. 85 Laplace primo teorema di. 202 Isomorfismo. 17 simmetrica. 23 polinomi di. 18 operazioni elementari sulle colonne. 17 elevazione a potenza. 17 trasposta. 60 Involuzione circolare. 61 Matrici a blocchi. 157 Invarianti di una conica. 15 aggiunta. 51 normale. 51 del cambiamento di base. 19 . 16 triangolare. 23 invertibili. 3 Intersezione tra retta e piano. 115 Iperboloide ellittico. 25 idempotenti. 45 secondo teorema di. 20 nilpotenti. 3 totalmente ordinato. 51 invertibile. 17 unitaria. 20 equivalenti. 50 L Lagrange Teorema di. 17 unità. 132 iperboliche. 16 hermitiana. 17 diagonalizzabile. 27 scalare. 140 dei punti reciproci.

108 Punti ciclici. 129 ellittica. 90 Polo. 200 . 7 con ripetizione. 137 Polare di un punto. 16 Minore. 130 parabolica. 43 principale. 100 Q Quadriche. 151 di una retta nel piano. 183 Plücker legge di. 71 somma. 139 ellittici. 179 parabolici. 130 iperbolica. 58 P Paraboloide ellittico. 130 Punto improprio. 152 di una retta. 110 Punti impropri di una quadrica. 202 Parallelismo e perpendicolarità tra due piani nello spazio. 135 Principio di induzione. 206 Norma di un vettore. 48 complementare. 65 in generale. 75 N Natura dei punti di una quadrica. 66 Proiettività. 58 O Omomorfismo. 18 uguali. 73 geometrica. 202 iperbolico. 206 reciproci. 74 Molteplicità algebrica. 7 Piano tangente ad una sfera. 139 Punti base di un fascio di circonferenze. 95 Permutazione. 65 Nucleo di un’applicazione lineare. 44 Prodotto cartesiano di due insiemi. 153 Parametri direttori di un piano. 195 centrali.216 Indice analitico simili. 135 Polinomio caratteristico. 72 Polinomio minimo. 195 parallele. 206 multipli. 153 tra due rette nello spazio. 209 Punti uniti. 199 Quadriche in forma canonica loro classificazione. 68 Prodotto scalare in Rn . 130 Proiezione ortogonale. 69 proprietà. 6 Prodotto associato. 154 tra un piano ed una retta nello spazio. 154 Parallelismo e perpendicolarità nello spazio. 124 Punti coniugati. 8 scambio. 164 Proiezioni. 196 Pundi base di un fascio di coniche. 206 iperbolici. 64 proprietà.

183 Simmetrie. 99 Sottospazio. 119 Rette sghembe. 178 T Tangente ad una superficie. 179 Tangenti ad una circonferenza. 73 Superfici. 33 Spettro di una matrice. 34 ortogonali. 129 Rette isotrope. 53 Somma di sottospazi. 48 proprietà. 4 d’ordine. 158 Riconoscimento di una conica nello spazio. 83 di una matrice. 62 Sistema lineare. 67 ortonormali. 107 Tangenti ad una conica in forma canonica. 34 su R. 171 Rouché-Capelli Teorema di. 197 Riconoscimento di una quadrica non degenere. 38 fondamentali. 141 V Vandermonde determinante di. 187 Superficie algebrica. 163 rispetto ad una retta. 4 di equivalenza. 39 Somma diretta di sottospazi. 49 di una forma quadratica. 4 Retta impropria. 35 Spazi vettoriali proprietà. 101 Rette punteggiate. 208 Rototraslazioni. 48 Versore. 27. 39 ∑ sommatoria. 188 rigate. 33 Spazio euclideo. 11 omogeneo. 177 di rotazione. 163 rispetto ad un piano. 207 Riduzione a forma canonica dell’equazione di una quadrica. 5 Sostegno di un fascio. 35 linearmente indipendenti. 13 soluzioni. 49 Reciprocità legge di. 167 Sistema di riferimento nel piano. 62 nello spazio. 54 S Sfera. 67 Vettore unitario. 121 Triangoli autopolari. 28. 63 Relazioni. 54 risoluzione elementare. 137 Regola del parallelogrammo. 67 Vettori disgiunti.Indice analitico 217 R Rango calcolo del. 12 Sistemi lineari teoria dei. 4 insieme quoziente. 35 linearmente dipendenti. 69 Spazio vettoriale. 164 rispetto ad un punto. 67 .

Sign up to vote on this title
UsefulNot useful