Semplicit`a di alcuni gruppi classici

Laureando: Martino Garonzi
Relatore: Federico Menegazzo
23/11/2006
Indice
0.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1 Definizioni e strumenti utili 3
2 Il gruppo speciale lineare modulo il suo centro 7
2.1 Generazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Il gruppo unimodulare proiettivo . . . . . . . . . . . . . . . . . . 10
2.3 Semplicit`a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 Le eccezioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 Il gruppo simplettico modulo il suo centro 17
3.1 Le forme bilineari alternanti . . . . . . . . . . . . . . . . . . . . . 17
3.2 Il gruppo simplettico . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2.1 Le trasvezioni simplettiche . . . . . . . . . . . . . . . . . 25
3.2.2 Generazione . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.3 Semplicit`a . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3 Le eccezioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1
0.1 Introduzione
Nei corsi della triennale si `e studiata la semplicit`a del gruppo alterno A
n
per
n ≥ 5, per lo pi` u strettamente collegata con la non risolubilit`a di S
n
per n ≥ 5.
L’obiettivo di questa tesi `e studiare altre classi di gruppi semplici finiti.
Dato un gruppo G, `e chiaro che il suo centro, chiamiamolo Z, `e normale in
G, e quindi l’idea per cercare di costruire un gruppo semplice a partire da G
`e considerare il quoziente G/Z. In questa tesi verr`a fatto questo in due casi
particolari: verranno presi in considerazione due gruppi di isomorfismi lineari e
verr`a studiata la semplicit`a del loro quoziente rispetto al centro.
I due gruppi studiati sono i seguenti:
1. Il gruppo speciale lineare SL
n
(F), che consiste di tutte le trasformazioni
lineari invertibili di uno spazio vettoriale sul campo F in s´e, con determi-
nante 1.
2. Il gruppo simplettico Sp
n
(F), che consiste delle B-isometrie di uno spazio
vettoriale V di dimensione n sul campo F, dove B `e una fissata forma
bilineare alternante non degenere su V . Sar`a chiaro che la scelta di B
non influir`a sulla classe di isomorfismo del particolare gruppo simplettico
associato a B.
I centri dei gruppi presi in esame verranno a coincidere con il nucleo della loro
azione naturale sull’insieme dei sottospazi 1-dimensionali di V (chiamato “spazio
proiettivo n − 1-dimensionale”) che “cambia le direzioni”, nel senso che il sot-
tospazio 1-dimensionale di V di direzione x ∈ V viene mandato tramite l’iso-
morfismo lineare T nel sottospazio 1-dimensionale di V di direzione T(x).
A meno di poche eccezioni, discusse a parte, si dimostrer`a che ognuno dei
due gruppi considerati (chiamiamolo G) coincide col suo sottogruppo derivato.
Questo, connesso con due importanti propriet`a dell’azione descritta sullo spazio
proiettivo, permetter`a di concludere che il quoziente di G col nucleo dell’azione
(e quindi col centro di G) `e un gruppo semplice.
2
Capitolo 1
Definizioni e strumenti utili
Richiamiamo alcuni concetti utili nel corso della trattazione.
1. Siano G un gruppo, X un insieme. Dare un’azione di G su X,
GX → X
(g, x) → g ∗ x
`e equivalente a dare un omomorfismo α : G → Sym(X), dove Sym(X)
denota il gruppo (rispetto alla composizione) delle applicazioni biiettive
di X in s´e. Infatti se `e data un’azione di G su X l’applicazione
G → Sym(X)
g → γ
g
: x → g ∗ x
`e omomorfismo, e se `e dato l’omomorfismo
α : G → Sym(X)
allora la funzione
GX → X
(g, x) → α(g)(x)
determina un’azione di G su X. Il nucleo dell’omomorfismo α associato
all’azione si dice nucleo dell’azione e se tale nucleo consiste del solo
elemento identico l’azione si dice fedele. Data un’azione arbitraria di G
su X si pu`o costruire un’azione fedele facendo agire il quoziente G/ker(α)
su X tramite (gker(α), x) → gx.
2. Dato un gruppo G, e dati a, b ∈ G, il commutatore di a e b (nell’ordine)
`e
[a, b] := aba
−1
b
−1
3
Indichiamo con G

il sottogruppo derivato di G, o commutatore di G,
definito da
G

:= '¦[a, b] [ a, b ∈ G¦`
Si hanno i seguenti fatti:
(i) Se γ : G → G `e automorfismo allora γ(G

) = G

. In particolare G

G.
(ii) Se N G allora G/N `e abeliano se e solo se N ≥ G

.
Prova:
(i) Notiamo che
γ([a, b]) = γ(aba
−1
b
−1
) = γ(a)γ(b)γ(a)
−1
γ(b)
−1
= [γ(a), γ(b)]
quindi γ(G

) ≤ G

, e che se h, k ∈ G allora h = γ(a), k = γ(b) per qualche
a, b ∈ G e quindi [h, k] = γ([a, b]). Da cui G

≤ γ(G

).
(ii) Se (e solo se) G/N `e abeliano, (G/N)

= ¦1
G/N
¦ = ¦N¦, quindi
[aN, bN] = N per ogni a, b ∈ G, il che impica
N = [aN, bN] = (aN)(bN)(a
−1
N)(b
−1
N) = (aba
−1
b
−1
)N = [a, b]N
cio`e [a, b] ∈ N. Quindi G

≤ N. Se invece G

≤ N allora [a, b] ∈ N per
ogni a, b ∈ G, quindi [aN, bN] = [a, b]N = N cio`e (G/N)

= ¦N¦.
3. Dato un campo F, L
n
(F) denota l’insieme degli isomorfismi lineari V →
V , dove V `e uno spazio vettoriale su F di dimensione n. Si tratta
di un gruppo rispetto alla composizione, che chiameremo gruppo lin-
eare. Scelta una base di V , possiamo certamente identificare L
n
(F) con
il gruppo delle matrici n n invertibili a entrate nel campo F (essendo
le colonne di una di tali matrici le immagini della base scelta rispetto al
corrispondente isomorfismo, scritte nella base scelta). L’applicazione
(L
n
(F), ◦) → (F

, )
T → det(T)
`e omomorfismo suriettivo di gruppi. Per il primo teorema di omomorfis-
mo per i gruppi L
n
(F)/ker(det)

= F

quindi tale quoziente `e abeliano.
Denoteremo ker(det) con SL
n
(F), e lo chiameremo gruppo speciale
lineare.
`
E normale in L
n
(F) in quanto nucleo di un omomorfismo.
Riepilogando, la seguente sequenza `e esatta:
¦1¦ → SL
n
(F) → L
n
(F)
det
→ F

→ ¦1¦
Definizione 1 (azioni transitive, k-transitive). Un’azione di un gruppo G su
un insieme S si dice transitiva se scelti comunque x
1
, x
2
∈ S esiste g ∈ G tale
che
gx
1
= x
2
Equivalentemente vi `e una sola orbita. Si dice k-transitiva se scelte comunque
due k-ple di elementi distinti (x
1
, ..., x
k
), (y
1
, ..., y
k
) ∈ G
k
esiste g ∈ G tale che
(gx
1
, ..., gx
k
) = (y
1
, ..., y
k
)
Chiaramente la 1-transitivit`a `e la transitivit`a.
4
Definizione 2 (azioni primitive). L’azione del gruppo G sull’insieme S si
dice primitiva se `e transitiva e le uniche partizioni di S che sono stabilizzate
dall’azione indotta di G su P(S) sono ¦S¦ e ¦¦x¦ [ x ∈ S¦.
Osserviamo ora che nella definizione precedente la richiesta che l’azione sia tran-
sitiva `e superflua se [S[ > 2, ma non lo `e se [S[ = 2. Infatti G agisca su S in
modo primitivo, e consideriamo la partizione di S in G-orbite,
S =

x∈S
O
x
Certamente G stabilizza tale partizione, in quanto per ogni g ∈ G, gO
x
=
O
x
. Ma allora per la primitivit`a, o O
x
= S per ogni x ∈ S, ovvero l’azione
`e transitiva, oppure O
x
= ¦x¦ per ogni x ∈ S, ovvero l’azione lascia fisso
ogni elemento, cio`e `e l’azione identica. Ma tale azione stabilizza qualunque
partizione, dunque l’unica speranza `e che non esistano altre partizioni se non
quelle ovvie, ovvero [S[ = 2. In tal caso l’azione identica `e primitiva ma non
transitiva.
Proposizione 1. Sia S insieme con pi` u di due elementi. Un’azione di un
gruppo G su S non `e primitiva se e solo se esiste un sottoinsieme proprio A di
S con almeno 2 elementi tale che dato g ∈ G, gA = A oppure gA∩ A = ∅.
Dimostrazione. Sufficienza. Valga la seconda asserzione. Presi g
1
, g
2
∈ G si ha
g
1
A = g
2
A oppure g
1
A∩ g
2
A = ∅ (usando l’ipotesi con g = g
−1
2
g
1
). Sia
B := S `

g∈G
gA
Allora g
1
B ∩ g
2
A = ∅ per ogni g
1
, g
2
∈ G, quindi per ogni g ∈ G, gB ⊆ B.
Quindi dato g ∈ G, g
−1
B ⊆ B, da cui moltiplicando per g, B ⊆ gB. Ma allora
gB = B, quindi
¦gA [ g ∈ G¦ ∪ ¦B¦
costituisce una partizione non banale di S stabilizzata da G.
Necessit`a. L’azione non sia primitiva. Allora esiste una partizione π(S) stabi-
lizzata da G a cui appartiene un sottoinsieme proprio A di S con [A[ ≥ 2. Ma
allora dato g ∈ G, gA = A oppure gA∩ A = ∅.
Lemma 1. Sia G un gruppo che agisce su un insieme S con pi` u di due elemen-
ti.
(1) Se l’azione `e 2-transitiva allora `e primitiva
(2) Se l’azione `e primitiva e H G non `e contenuto nel nucleo, H agisce tran-
sitivamente su S
(3) Se H ≤ G agisce transitivamente su S allora G = HStab(x) per ogni x ∈ S,
dove lo stabilizzatore `e inteso in G.
Dimostrazione. (1) Sia A un sottoinsieme proprio di S contenente due elementi
distinti x e y. Per la proposizione 1 per mostrare che l’azione `e primitiva basta
5
mostrare che esiste g ∈ G tale che gA ∩ A = ∅ e gA = A. Poich´e l’azione `e
2-transitiva esiste g ∈ G tale che gx = x e gy ∈ A. Allora x ∈ gA = A.
(2) Partizioniamo S nelle orbite dell’azione di H su S. Poich´e H G, g(Hx) =
H(gx) per ogni g ∈ G, x ∈ S (ghx = (ghg
−1
)gx). Quindi G stabilizza la
partizione di S nelle orbite dell’azione di H. Poich´e H non `e contenuto nel
nucleo dell’azione di G esiste un x ∈ S la cui H-orbita `e diversa da ¦x¦, il che
esclude che la partizione in H-orbite sia ∪
x∈S
¦x¦. Ma allora poich´e l’azione `e
primitiva c’`e una sola H-orbita, e quindi l’azione di H su S `e transitiva.
(3) Siano x ∈ S, g ∈ G. Allora esiste h ∈ H tale che hx = gx. Allora
h
−1
g ∈ Stab(x) e dunque g ∈ HStab(x).
Lemma 2 (di Iwasawa). Sia G un gruppo che agisce su un insieme S con pi` u
di due elementi, e sia K il nucleo dell’azione. Allora G/K `e semplice se sono
verificate le seguenti condizioni:
(1) L’azione `e primitiva
(2) G = G

(3) Esiste x ∈ S tale che Stab(x) contenga un sottogruppo normale abeliano A
x
tale che G sia generato dai coniugati gA
x
g
−1
, g ∈ G.
Dimostrazione. Sia H G contenente propriamente K. Basta mostrare che
H = G, perch´e ogni sottogruppo normale L > ¦1
G/K
¦ di G/K `e del tipo H/K
con K < H G (e precisamente con H = ¦h ∈ G [ hK ∈ L¦), quindi se
H = G, L = G/K. H `e transitivo su S per il lemma 1 (2). Detto x ∈ S che
soddisfi la condizione (3), per il lemma 1 (3) G = HStab(x). Sia G

= HA
x
.
`
E un gruppo perch´e h
1
a
1
h
2
a
2
= h
1
(a
1
h
2
a
−1
1
)a
1
a
2
∈ HA
x
. Mostriamo che `e
normale in G.
Detto g ∈ G, esistono h

∈ H, l ∈ Stab(x) tali che g = h

l e quindi se a ∈ A
x
e
h ∈ H si ha
ghag
−1
= ghg
−1
gag
−1
= h

h

lal
−1
(h

)
−1
con h

= ghg
−1
∈ H. Detto a

= lal
−1
∈ A
x
,
ghag
−1
= h

h

a

(h

)
−1
= h

h

a

(h

)
−1
(a

)
−1
a

= h

h

h

a

∈ HA
x
dove h

= a

(h

)
−1
(a

)
−1
∈ H. Quindi HA
x
G.
Ne segue che gA
x
g
−1
≤ HA
x
per ogni g ∈ G. Quindi per la condizione (3),
G

= HA
x
= G
Ma se a ∈ A
x
, Ha = aa
−1
Ha = aH e dunque HA
x
= A
x
H. Per il secondo
teorema di omomorfismo per i gruppi,
G/H = A
x
H/H

= A
x
/(A
x
∩ H)
Ma A
x
`e abeliano, quindi A
x
/(A
x
∩ H)

= G/H `e abeliano. Ci`o significa che H
contiene G

= G e quindi H = G.
6
Capitolo 2
Il gruppo speciale lineare
modulo il suo centro
2.1 Generazione
Alcune notazioni: d’ora in poi F denoter`a un campo, e
ij
denoter`a la matrice
quadrata avente 1 nel posto (i, j) e zero altrove, e dato b ∈ F, se i = j T
ij
(b)
denoter`a la matrice 1 + be
ij
. Dal fatto che il prodotto delle matrici A e B `e
definito per componenti
(AB)
sl
=

p
A
sp
B
pl
ricaviamo che il prodotto e
ab
e
cd
vale e
ad
se b = c, altrimenti vale 0. Ovvero
e
ab
e
cd
= δ
bc
e
ad
Un altro semplice risultato `e che dato b ∈ F, T
ij
(b) `e invertibile e ha come
inversa T
ij
(−b), infatti
T
ij
(b)T
ij
(−b) = (1 +be
ij
)(1 −be
ij
) = 1 −b
2
e
2
ij
= 1
Inoltre poich´e T
ij
(b) `e una matrice triangolare, il suo determinante `e il prodotto
degli elementi diagonali, che `e 1, quindi T
ij
(b) ∈ SL
n
(F).
Lemma 3. SL
n
(F) `e generato dalle matrici elementari T
ij
(b).
Dimostrazione.
Osservazione 1. Se F `e un campo e A ∈ M
n
(F) allora A `e equivalente a una
matrice del tipo
diag(d
1
, ..., d
r
, 0, ..., 0) :=





d
1
0
.
.
.
d
r
0 0





7
dove d
i
= 0 ∀i = 1, ..., r, e r `e il rango di A. Si ha PAQ = diag(d
1
, ..., d
r
, 0, ..., 0)
ove P e Q sono prodotti di matrici del tipo T
ij
(b) e P
ij
= 1+e
ij
+e
ji
−e
ii
−e
jj
.
Dimostrazione. Si pu`o passare da una matrice quadrata A di ordine n e rango
r a una diagonale del tipo dell’enunciato facendo solo le seguenti operazioni:
1. Sostituire la riga i R
i
con R
i
+bR
j
per qualche b ∈ F, j ∈ ¦1, ..., n¦ ` ¦i¦
(equivalentemente, moltiplicare a sinistra per T
ij
(b))
2. Sostituire la colonna i C
i
con C
i
+bC
j
per qualche b ∈ F, j ∈ ¦1, ..., n¦`¦i¦
(equivalentemente, moltiplicare a destra per T
ij
(b))
3. Scambiare le righe i e j per qualche i = j (equivalentemente, moltiplicare
a sinistra per P
ij
)
4. Scambiare le colonne i e j per qualche i = j (equivalentemente, moltipli-
care a destra per P
ij
)
Per dimostrarlo usiamo l’induzione sull’ordine n mostrando che una matrice del
tipo
A =





a
11
a
12
... a
1n
a
21
.
.
. B
a
1n





tramite le operazioni sopra descritte, se a
11
= 0, si pu`o portare a
A

=





a
11
0 ... 0
0
.
.
. B

0





Innanzitutto, se A = 0 non c’`e niente da dimostrare. In caso contrario tramite
scambi di righe e/o colonne possiamo far comparire nella posizione (1,1) un
termine non nullo, quindi possiamo supporre a
11
= 0. Ora basta sommare
alla riga i la riga −a
i1
a
−1
11
R
1
e alla colonna i la colonna −a
1i
a
−1
11
C
1
per ogni
i = 2, ..., n per ricondurci alla matrice voluta. Si procede per induzione su B

:
se `e la matrice nulla abbiamo finito, altrimenti ripetiamo tale procedimento.
Nel nostro caso una matrice A ∈ SL
n
(F) `e equivalente a una della forma
diag(p
1
, ..., p
n
) come nell’osservazione precedente. Osservando che se i = j
F
ij
:= (1 +e
ij
)(1 −e
ji
)(1 +e
ij
)(1 −2e
ii
)
= (1 −e
ji
+e
ij
−e
ij
e
ji
)(1 −2e
ii
+e
ij
−2e
ij
e
ii
)
= (1 −e
ii
+e
ij
−e
ji
)(1 −2e
ii
+e
ij
)
= 1 −2e
ii
+e
ij
−e
ii
+ 2e
ii
−e
ij
+e
ij
−e
ji
+ 2e
ji
−e
jj
= P
ij
8
ricaviamo che possiamo rimpiazzare le P
ij
con matrici del tipo T
ij
(b) e 1 −2e
ii
.
Ora osserviamo che
T
ij
(b)(1 −2e
ii
) = (1 +be
ij
)(1 −2e
ii
) = 1 −2e
ii
+be
ij
(2.1)
(1 −2e
ii
)T
ij
(−b) = (1 −2e
ii
)(1 −be
ij
) = 1 −be
ij
−2e
ii
+ 2be
ij
(2.2)
quindi
T
ij
(b)(1 −2e
ii
) = (1 −2e
ii
)T
ij
(−b)
Analogamente
T
ji
(b)(1 −2e
ii
) = (1 −2e
ii
)T
ji
(−b)
Inoltre se j = k = i = j allora 1 −2e
ii
commuta con T
jk
(b), infatti commutano
e
jk
e e
ii
essendo e
jk
e
ii
= 0 = e
ii
e
jk
. Possiamo allora trascinare tutte le 1 −2e
ii
a sinistra nella fattorizzazione di P, a destra nella fattorizzazione di Q, e poi
moltiplicare per gli inversi di tali fattori (i fattori stessi) in modo da eliminarli
ottenendo ancora una matrice diagonale (prodotto di matrici diagonali). Ot-
teniamo cos`ı una matrice diagonale equivalente ad A avendo fatto su A solo
operazioni elementari su righe e colonne.
Quindi possiamo ridurci al caso in cui P e Q sono prodotti di matrici del tipo
T
ij
(b). Per mostrare che A stesso `e prodotto di matrici di tale tipo poich´e
PAQ = diag(p
1
, ..., p
n
) basta ricondursi al caso A = diag(p
1
, ..., p
n
), poich´e
evidentemente det(P) = det(Q) = 1. In altre parole mostrato il risultato per
diag(p
1
, ..., p
n
) esso varr`a anche per A = P
−1
diag(p
1
, ..., p
n
)Q
−1
perch´e come
abbiamo visto l’inversa di T
ij
(b) `e di tale tipo. Ora det(A) = 1 implica
d
1
...d
n
= 1
quindi ogni d
i
`e invertibile.
Osservazione 2. diag(d
−1
, d) si pu`o scrivere come prodotto di T
ij
(b) con i = j.
Infatti si scrive come

1 −1
0 1

1 0
1 1

1 −1
0 1

1 d
0 1

1 0
−d
−1
1

1 d
0 1

Quindi lo stesso vale per
D
i
:= diag(1, ..., 1, (d
1
...d
i
)
−1
, d
1
...d
i
, 1, ..., 1)
dove il termine (d
1
...d
i
)
−1
si trova nella posizione i.
Moltiplicando D
1
= diag(d
−1
1
, d
1
, 1, ..., 1) a destra per A = diag(d
1
, ..., d
n
) otte-
niamo diag(1, d
1
d
2
, d
3
, ..., d
n
), e moltiplicando a sinistra per D
2
= diag(1, (d
1
d
2
)
−1
,
d
1
d
2
, 1, ..., 1) otteniamo D
2
D
1
A = diag(1, 1, d
1
d
2
d
3
, d
4
, ..., d
n
) e proseguendo di
questo passo
D
n−1
...D
2
D
1
A = diag(1, ..., 1, d
1
...d
n
) = 1
con i D
i
che sono prodotti di matrici del tipo T
ij
(b). Otteniamo che
A = D
−1
1
D
−1
2
...D
−1
n−1
`e ancora prodotto di matrici T
ij
(b), il che `e sufficiente per concludere.
9
Lemma 4. Se n = 2 oppure [F[ ∈ ¦2, 3¦, e se n ≥ 2, SL
n
(F) coincide col suo
sottogruppo derivato (gruppo commutatore).
Dimostrazione. Per il lemma 3 basta mostrare che le T
ij
(b) appartengono al
sottogruppo derivato. Osserviamo che se n ≥ 3 prendendo i, j ∈ ¦1, ..., n¦
distinti e k = i, j otteniamo
T
ij
(b) = T
ik
(b)T
kj
(1)T
ik
(−b)T
kj
(−1) = T
ik
(b)T
kj
(1)T
ik
(b)
−1
T
kj
(1)
−1
infatti
T
ik
(b)T
kj
(1)T
ik
(−b)T
kj
(−1) = (1 +be
ik
)(1 +e
kj
)(1 −be
ik
)(1 −e
kj
)
= (1 +e
kj
+be
ik
+be
ij
)(1 −e
kj
−be
ik
+be
ij
)
= 1 −e
kj
−be
ik
+be
ij
+e
kj
+be
ik
−be
ij
+be
ij
= 1 +be
ij
= T
ij
(b)
Se invece n = 2 abbiamo

d 0
0 d
−1

1 c
0 1

d
−1
0
0 d

1 −c
0 1

=

1 c(d
2
−1)
0 1

quindi se troviamo 0 = d ∈ F tale che d
2
= 1 allora per ogni b ∈ F fissato
possiamo scegliere c = b(d
2
− 1)
−1
e ottenere che T
12
(b) ∈ SL
2
(F)

. Se invece
un tale d = 0 non esiste allora poich´e l’equazione x
2
= 1 ammette al pi` u due
soluzioni, al pi` u F conterr`a lo 0 e tali due soluzioni, quindi F avr`a cardinalit`a
≤ 3. Analogamente per T
21
(b). Questo conclude la dimostrazione.
2.2 Il gruppo unimodulare proiettivo
Poich´e L
n
(F)/SL
n
(F)

= F

`e abeliano, SL
n
(F) contiene il sottogruppo deriva-
to di L
n
(F). Ma per il lemma 4, eccettuati (eventualmente) i casi ivi esclusi,
SL
n
(F) = SL
n
(F)

⊆ L
n
(F)

quindi SL
n
(F) = L
n
(F)

.
Osservazione 3. Se un elemento di L
n
(F) commuta con ogni elemento di
SL
n
(F) allora commuta con ogni elemento di L
n
(F), ed `e una matrice scalare
del tipo d1.
Dimostrazione. Dire che g ∈ L
n
(F) commuta con ogni h ∈ SL
n
(F) implica che
gT
ij
(1) = T
ij
(1)g per ogni i = j, poich´e T
ij
(b) ∈ SL
n
(F) per ogni b ∈ F. Ma
allora g(1 +e
ij
) = (1 +e
ij
)g per ogni i = j, ovvero poich´e 1 commuta con g, g
commuta con ogni e
ij
. Ma osservando che
(ge
ij
)
kl
=

s
g
ks
(e
ij
)
sl
= δ
jl
g
ki
(e
ij
g)
kl
=

s
(e
ij
)
ks
g
sl
= δ
ik
g
jl
10
la condizione di commutazione dice che
δ
jl
g
ki
= δ
ki
g
jl
Quindi se n > 2:
nel caso j = l, i = k otteniamo g
ki
= 0,
nel caso j = l, i = k otteniamo g
jl
= 0,
nel caso j = l, i = k otteniamo g
ii
= g
jj
.
Al variare di i = j, k = l, le prime due condizioni (equivalenti) dicono che g `e
nulla fuori dalla diagonale, la terza dice che g `e costante sulla diagonale. Quindi
g `e una matrice scalare, e quindi commuta con ogni elemento di L
n
(F). Il caso
n = 2 si risolve facilmente, imponendo che una generica matrice A ∈ L
n
(F)
commuti con le matrici

1 1
0 1

,

1 0
1 1

e trovando che essa dev’essere una matrice scalare.
Quindi il centro C di L
n
(F) `e F

1, ed `e il gruppo delle matrici scalari d1 al
variare di 0 = d ∈ F.
Definizione 3. Il gruppo unimodulare proiettivo PSL
n
(F) `e il quoziente SL
n
(F)/C
dove C := F

1 ∩ SL
n
(F) `e il centro di SL
n
(F).
Il nostro obiettivo `e mostrare che eccettuati i casi esclusi nel lemma 4, tale
gruppo `e semplice.
Definizione 4 (spazio proiettivo). Sia V un n-spazio vettoriale su F, e sia
P
n−1
(F) l’insieme dei sottospazi
Fx := ¦αx [ α ∈ F¦
di V con 0 = x ∈ V . Lo chiameremo spazio proiettivo (n −1)-dimensionale su
F.
Definizione 5. Definiamo un’azione di L
n
(F) su P
n−1
(F) ponendo
T(Fx) = F(Tx)
per ogni T ∈ L
n
(F).
Proposizione 2. Il nucleo dell’azione sopra descritta `e F

1.
Dimostrazione. Il nucleo consiste dei T ∈ L
n
(F) tali che T(Fx) = Fx per ogni
0 = x ∈ V . Quindi T `e nel nucleo se e solo se
T : 0 = x ∈ V → a
x
x ∈ V
con a
x
∈ F

. Se 0 = b ∈ F allora T(bx) = a
bx
bx e T(bx) = bT(x) = ba
x
x =
a
x
bx. Quindi a
x
= a
bx
se b = 0. Quindi se dim(V ) = 1 allora T = a1 con
a = a
x
per ogni x ∈ V . Ora sia dim(V ) ≥ 2 e sia (e
1
, ..., e
n
) una base di V su
11
F. Allora Te
i
= a
e
i
e
i
e se i = j, T(e
i
+ e
j
) = a
e
i
+e
j
(e
i
+ e
j
) = Te
i
+ Te
j
=
a
e
i
e
i
+ a
e
j
e
j
da cui (a
e
i
+e
j
−a
e
i
)e
i
+ (a
e
i
+e
j
−a
e
j
)e
j
= 0. Per l’indipendenza
lineare a
e
i
+e
j
= a
e
i
= a
e
j
. Quindi T = a1 con a = 0.
Viceversa ogni mappa di tale forma agisce come l’identit`a su P
n−1
(F).
Ponendo PL
n
(F) := L
n
(F)/F

1 abbiamo una azione fedele di tale gruppo su
P
n−1
(F) in cui la classe [T] = F

T agisce su Fx tramite [T](Fx) = F(Tx).
Il gruppo PL
n
(F) si dice gruppo proiettivo. Esso contiene il sottogruppo
SL
n
(F)/(F

1 ∩ SL
n
(F)) che abbiamo chiamato gruppo unimodulare proiet-
tivo. Anch’esso agisce fedelmente su P
n−1
(F). Abbiamo quindi dimostrato
il
Teorema 1. Il centro di SL
n
(F) coincide col nucleo dell’azione di SL
n
(F) su
P
n−1
(F) indotta da quella di L
n
(F).
2.3 Semplicit`a
Mostriamo che valgono per SL
n
(F) le condizioni sufficienti richieste per la
semplicit`a dal lemma di Iwasawa.
Lemma 5. SL
n
(F) `e 2-transitivo su P
n−1
(F) se n ≥ 2.
Dimostrazione. Dobbiamo provare che se Fx
1
= Fx
2
e Fy
1
= Fy
2
con 0 =
x
1
, x
2
, y
1
, y
2
∈ V allora esiste una trasformazione lineare T di determinante 1
tale che Tx
1
= a
1
y
1
= 0 e Tx
2
= a
2
y
2
= 0 con a
i
∈ F, i = 1, 2. Per ipotesi
x
1
, x
2
e y
1
, y
2
sono linearmente indipendenti. Possiamo quindi scegliere una
base (x
1
, x
2
, ..., x
n
) di V con y
1
=

n
j=1
a
j1
x
j
, y
2
=

n
j=1
a
j2
x
j
. Se n > 2
possiamo aggiungere n −2 colonne alla matrice





a
11
a
12
a
21
a
22
.
.
.
.
.
.
a
n1
a
n2





ottenendo una matrice (a
ij
)
i,j
di determinante 1. Definiamo allora
y
j
:=
n

i=1
a
ij
x
j
per ogni 1 ≤ j ≤ n, e sia T la trasformazione lineare tale che x
i
→ y
i
per ogni 0 ≤
i ≤ n. Tale T soddisfa le condizioni richieste. Se n = 2, det((a
ij
)
i,j=1,2
) = a = 0
quindi definiamo T come la trasformazione lineare tale che x
1
→ y
1
, x
2
→ a
−1
y
2
e concludiamo per la multilinearit`a del determinante.
Lemma 6. Sia ¦e
1
, ..., e
n
¦ una base di V , e sia Stab(Fe
1
) lo stabilizzatore
di Fe
1
= 0 in SL
n
(F). Allora Stab(Fe
1
) contiene un sottogruppo abeliano
normale A
e
1
i cui coniugati generano SL
n
(F).
12
Dimostrazione. Stab(Fe
1
) `e l’insieme delle trasformazioni lineari di matrice





a
11
a
12
... a
1n
0
.
.
. A
n−1
0





nella base ¦e
i
¦
i=1,...,n
, con a
11
det(A
n−1
) = 1. La mappa Stab(Fe
1
) → L
n−1
(F)
che manda una tale trasformazione nella matrice A
n−1
`e omomorfismo il cui
nucleo `e A
e
1
, l’insieme delle trasformazioni lineari V → V di matrice





1 a
12
... a
1n
0
.
.
. 1
n−1
0





nella base ¦e
i
¦
i=1,...,n
. Si vede velocemente che A
e
1
`e un gruppo abeliano.
Quindi `e un sottogruppo normale abeliano di Stab(Fe
1
) (normale in quanto
nucleo di un omomorfismo).
`
E chiaro che A
e
1
contiene tutte le trasformazioni
lineari di matrice T
12
(b) con b ∈ F

. Ora sia
Y := '¦gag
−1
[ a ∈ A
e
1
, g ∈ SL
n
(F)¦`
Osserviamo che se i = j = k = i,
(i) T
jk
(1)T
ij
(b)T
jk
(−1)T
ij
(−b) = (1 +e
jk
)(1 +be
ij
)(1 −e
jk
)(1 −be
ij
)
= (1 +be
ij
+e
jk
)(1 −be
ij
−e
jk
)
= 1 −be
ij
−e
jk
+be
ij
−be
ik
+e
jk
= 1 −be
ik
= T
ik
(−b)
e inoltre essendo (1 −e
11
−e
22
+e
21
−e
12
)
−1
= 1 −e
11
−e
22
−e
21
+e
12
,
(ii) (1 −e
11
−e
22
+e
21
−e
12
)T
12
(b)(1 −e
11
−e
22
+e
21
−e
12
)
−1
= (1 −e
11
−e
22
+e
21
−e
12
)(1 +be
12
)(1 −e
11
−e
22
−e
21
+e
12
)
= (1 +be
12
−e
11
−be
12
−e
22
+e
21
+be
22
−e
12
)(1 −e
11
−e
22
−e
21
+e
12
)
= 1 −e
11
−e
22
−e
21
+e
12
−e
11
+e
11
−e
12
−e
22
+e
22
+
+e
21
+e
21
−e
21
+e
22
+be
22
−be
22
−be
21
−e
12
+e
12
+e
11
= 1 −be
21
= T
21
(−b)
Quest’ultima relazione dice che T
21
(b) ∈ Y per ogni b ∈ F.
`
E chiaro che Y
contiene tutte le trasformazioni di matrice T
1k
(b) con k = 2, ..., n Da (i), se
i = 1, 2
T
i1
(−b) = T
21
(1)(T
i2
(b)T
21
(1)
−1
T
i2
(b)
−1
) ∈ Y
e finalmente se 1 = i = k = 1, da (i) segue
T
ik
(−b) = (T
1k
(1)T
i1
(b)T
1k
(1)
−1
)T
i1
(−b) ∈ Y
13
La conclusione `e che Y contiene le matrici del tipo T
ij
(b) con i = j e quindi
poich´e SL
n
(F) `e generato da tali matrici (lemma 3) si ha Y = SL
n
(F).
I lemmi 4, 5 e 6 mostrano dunque che il gruppo SL
n
(F) eccetto il caso in cui
n = 2 e [F[ ∈ ¦2, 3¦ soddisfa le richieste del lemma 2 e dunque abbiamo il
risultato:
Teorema 2. Se n = 2 oppure [F[ ∈ ¦2, 3¦ e se n ≥ 2 allora PSL
n
(F) `e
semplice.
2.4 Le eccezioni
Come abbiamo visto, la semplicit`a di PSL
n
(F) `e provata eccetto che per i casi
n = 2 e [F[ ∈ ¦2, 3¦. Proviamo ora un risultato che ci sar`a utile nel discutere tali
casi, e provare che effettivamente i corrispondenti gruppi unimodulari proiettivi
non sono semplici.
Proposizione 3. Sia F campo finito di ordine [F[ = q = p
r
con p primo e r
intero positivo. Allora detto d := (n, q −1),
[L
n
(F)[ = (q
n
−1)(q
n
−q)...(q
n
−q
n−1
)
[SL
n
(F)[ = (q
n
−1)...(q
n
−q
n−2
)q
n−1
[PSL
n
(F)[ = (q
n
−1)(q
n
−q)...(q
n
−q
n−2
)q
n−1
/d
Dimostrazione. Sia V spazio vettoriale su F di dimensione n, e fissiamo una
base di V . Consideriamo l’isomorfismo canonico dal gruppo degli automorfismi
di V a L
n
(F) che manda un automorfismo nella matrice che ha come colonne
le immagini della base scelta scritte nella stessa base. Ne segue che l’ordine di
L
n
(F) `e dato dal numero di matrici invertibili di ordine n, ovvero dal numero
di basi ordinate dello spazio vettoriale V di dimensione n su F. Per il primo
vettore abbiamo q
n
− 1 scelte (non possiamo scegliere il vettore nullo), per il
secondo q
n
−q (non possiamo scegliere i q multipli del primo scelto), per il terzo
q
n
−q
2
(non possiamo scegliere le q
2
combinazioni lineari dei primi due scelti),
e avanti cos`ı, da cui otteniamo facilmente l’asserto.
Sappiamo che l’applicazione determinante L
n
(F) → F

`e omomorfismo di grup-
pi il cui nucleo `e SL
n
(F), e che L
n
(F)/SL
n
(F)

= F

, da cui [L
n
(F)/SL
n
(F)[ =
q −1. Ma per il teorema di Lagrange,
[L
n
(F)/SL
n
(F)[ = [L
n
(F)[/[SL
n
(F)[
da cui
[SL
n
(F)[ = [L
n
(F)[/(q −1) =
= (q
n
−1)...(q
n
−q
n−1
)/(q −1) = q
n−1
(q
n
−1)...(q
n
−q
n−2
)
Ora ricordiamo che il centro di SL
n
(F) `e C = ¦x1 [ x
n
= 1¦ e dunque
[C[ = [¦x ∈ F [ x
n
= 1¦[
14
Poich´e [F

[ = q −1 abbiamo x
q−1
= 1 per ogni x ∈ F

. Se x
n
= 1 allora anche
x
d
= 1, infatti esistono a, b ∈ Z tali che d = an +b(q −1) da cui
1 = (x
n
)
a
(x
q−1
)
b
= x
an+b(q−1)
= x
d
D’altra parte se x
d
= 1 anche x
n
= 1 = x
q−1
perch´e d divide sia n che q − 1.
Ma allora [C[ = [¦x ∈ F [ x
d
= 1¦[. La novit`a rispetto a prima `e che stavolta
d ≤ q − 1. Sia H := ¦x ∈ F [ x
d
= 1¦. Poich´e F

`e un gruppo ciclico esiste
un suo sottogruppo di ordine d, che quindi `e contenuto in H. Ma allora poich´e
[H[ ≤ d, d = [H[ = [C[. Allora poich´e PSL
n
(F) = SL
n
(F)/C, sempre dal
teorema di Lagrange,
[PSL
n
(F)[ = [SL
n
(F)[/d
come voluto.
Ora discuteremo i due casi mancanti.
Proposizione 4. PSL
2
(F
2
)

= S
3
e quindi non `e semplice contenendo propri-
amente il sottogruppo normale A
3
.
Dimostrazione. Sia F = ¦0, 1¦ = F
2
e n = 2. Dalla proposizione 3, [PSL
n
(F)[ =
3 2 = 6. Poich´e C = ¦1¦, PSL
2
(F
2
)

= SL
2
(F
2
). Abbiamo un’azione fedele di
questo gruppo su P
1
(F
2
) che ha cardinalit`a
[F
2
[
2
−1
[F
2
[ −1
=
2
2
−1
2 −1
= 3
Quindi SL
2
(F
2
) si immerge in S
3
come sottogruppo di ordine 6. Ma allora
SL
2
(F
2
)

= S
3
.
A
3
S
3
perch´e due permutazioni coniugate hanno la stessa parit`a.
Proposizione 5. PSL
2
(F
3
)

= A
4
non `e semplice
Dimostrazione. Mostriamo innanzitutto che A
4
non `e semplice. Possiamo scriver-
lo esplicitamente:
A
4
= ¦1, (1 2)(3 4), (1 3)(2 4), (1 4)(2 3), (1 2 3), (1 3 2),
(1 2 4), (1 4 2), (1 3 4), (1 4 3), (2 3 4), (2 4 3)¦
Sia
H := ¦1, (1 2)(3 4), (1 3)(2 4), (1 4)(2 3)¦ < A
4
Per mostrare che H A
4
consideriamo un elemento di H, prodotto di due
trasposizioni disgiunte τ
1
e τ
2
(nell’ordine, ma non ha importanza, tanto essendo
disgiunte commutano), e σ ∈ S
4
. Allora detto 1 = δ := στ
1
τ
2
σ
−1
si ha
δ
2
(a) = στ
1
τ
2
τ
1
τ
2
σ
−1
(a) = a
per ogni a ∈ ¦1, 2, 3, 4¦, essendo τ
1
τ
2
τ
1
τ
2
= τ
1
τ
1
τ
2
τ
2
= 1. Ne segue che δ ha
ordine 2. Per mostrare che δ ∈ H basta quindi mostrare che non fissa nessun
15
elemento. Supponiamo per assurdo che per qualche a ∈ ¦1, 2, 3, 4¦ si abbia
δ(a) = a. Allora
a = δ(a) = στ
1
τ
2
σ
−1
(a) = στ
i
a
σ
−1
(a)
dove τ
i
a
∈ ¦τ
1
, τ
2
¦ `e la trasposizione che sposta σ
−1
(a). Allora, dall’uguaglianza
di cui sopra,
τ
i
a

−1
(a)) = σ
−1
(a)
ovvero τ
i
a
fissa σ
−1
(a), il che `e assurdo.
Ora, dalla proposizione 3 segue subito che [PSL
2
(F
3
)[ = 12. Sappiamo che
PSL
2
(F
3
) agisce fedelmente sullo spazio proiettivo P
1
(F
3
), che ha ordine
[P
1
(F
3
)[ =
[F
3
[
2
−1
[F
3
[ −1
=
3
2
−1
3 −1
= 4
Quindi PSL
2
(F
3
) si immerge in S
4
. Ma l’unico sottogruppo di S
4
di ordine 12
`e A
4
, quindi
PSL
2
(F
3
)

= A
4
16
Capitolo 3
Il gruppo simplettico
modulo il suo centro
3.1 Le forme bilineari alternanti
Cominceremo con alcune definizioni e alcuni risultati utili poi.
Definizione 6. Sia V spazio vettoriale di dimensione n sul campo F. Una
forma bilineare B su V `e una mappa
B : V V → F
(x, y) → B(x, y)
tale che per ogni y ∈ V la mappa y
R
: x → B(x, y) `e lineare e per ogni x ∈ V
la mappa x
L
: y → B(x, y) `e lineare. Tali condizioni si sintetizzano nella
condizione
B(
m

i=1
a
i
x
i
,
q

j=1
b
j
y
j
) =
m

i=1
q

j=1
a
i
b
j
B(x
i
, y
j
)
∀x
k
, y
h
∈ V, a
l
, b
p
∈ F
Ora scegliamo un b
ij
∈ F per ogni 1 ≤ i, j ≤ n, e poniamo
B(x, y) =
n

i,j=1
b
ij
a
i
b
j
dove x =

i
a
i
e
i
e y =

i
b
i
e
i
. Si verifica in fretta che B `e bilineare e che
se B `e data, ponendo b
ij
:= B(e
i
, e
j
) si ottiene per B una forma di questo
tipo. Quindi ogni forma bilineare si pu`o esprimere in questo modo, e la matrice
(b
ij
)
i,j
determina B. Si dice matrice di B rispetto alla base (e
1
, ..., e
n
).
17
Se (f
j
)
j
`e un’altra base di V con f
j
=

i
p
ij
e
i
allora
B(f
i
, f
j
) = B(

k
p
ki
e
k
,

s
p
sj
e
s
) =

k,s
p
ki
B(e
k
, e
s
)p
sj
= (p
t
bp)
ij
ricordando che (ABC)
ij
=

s
(AB)
is
C
sj
=

s

t
A
it
B
ts
C
sj
.
`
E quindi chiaro che la matrice della forma bilineare B nella base (f
j
)
j
`e
c := p
t
bp
Se, date le matrici quadrate b e c, esiste una matrice invertibile p che realizza
questo allora b e c si dicono congruenti.
Ora dati x, y ∈ V restano definite le applicazioni
x
L
: V → F, y → B(x, y)
y
R
: V → F, x → B(x, y)
Ovviamente sono entrambe lineari, quindi sono elementi di V

. Le mappe
V → V

L : x → x
L
R : y → y
R
sono anch’esse lineari.
Ora sia U ≤ V . Dette L
U
: V → U

, x → x
L
[
U
e R
U
: V → U

, y → y
R
[
U
,
definiamo
U

L
:= ¦v ∈ V [ B(v, u) = 0 ∀u ∈ U¦ = ker(L
U
)
U

R
:= ¦v ∈ V [ B(u, v) = 0 ∀u ∈ U¦ = ker(R
U
)
Dalla linearit`a di L e R, `e facile dedurre che sono entrambi sottospazi vettoriali
di V . Inoltre
(U

L
)

R
= ¦v ∈ V [ B(u

, v) = 0 ∀u

∈ U

L
¦
(U

R
)

L
= ¦v ∈ V [ B(v, u

) = 0 ∀u

∈ U

R
¦
da cui segue immediatamente
U ⊆ (U

L
)

R
U ⊆ (U

R
)

L
V

L
= ker(L) e V

R
= ker(R) si dicono rispettivamente radicale sinistro e
radicale destro di B.
18
Teorema 3. Sia B forma bilineare V V → F. Le seguenti asserzioni sono
equivalenti:
(1) V

R
= ¦0¦
(2) V

L
= ¦0¦
(3) la matrice di B rispetto a una base qualsiasi `e invertibile.
Dimostrazione. Sia (e
i
)
i
una base di V e sia (b
ij
= B(e
i
, e
j
))
i,j
la matrice di B
in tale base. Ora sia z :=

n
j=1
c
j
e
j
. Per la bilinearit`a,
z ∈ V

R
⇔ B(e
i
, z) = 0 ∀i = 1, ..., n ⇔
n

j=1
b
ij
c
j
= 0 ∀i = 1, ..., n
z ∈ V

L
⇔ B(z, e
i
) = 0 ∀i = 1, ..., n ⇔
n

j=1
b
ji
c
j
= 0 ∀i = 1, ..., n
ora z = 0 se e solo se c = (c
j
)
j
= 0 quindi la prima e la seconda condizione in
questo caso danno una condizione necessaria e sufficiente affinch´e esista z = 0
nel rispettivo radicale, ovvero che
det(b) = det(b
t
) = 0
Questo, unito al fatto che nel cambiare base il determinante della matrice viene
moltiplicato per un elemento non nullo di F, conclude la dimostrazione.
Definizione 7. Una forma bilineare B su V tale che la matrice b di B rispetto
a una base (e
i
)
i
di V sia invertibile si dice non degenere.
Il teorema appena dimostrato dice che B `e non degenere se e solo se L (e di con-
seguenza R) `e iniettiva. Ma poich´e dim(V ) = dim(V

) = n, B `e non degenere
se e solo se L e R sono isomorfismi lineari V → V

.
Si ricava un importante risultato:
Lemma 7. Se B `e non degenere ogni α ∈ V

ha la forma y → B(x, y) per
qualche x ∈ V , e ha la forma y

→ B(y

, x

) per qualche x

∈ V .
Proposizione 6. B sia forma bilineare non degenere sullo spazio vettoriale V .
Allora le mappe
V ≥ U → U

L
e
V ≥ U → U

R
sono una l’inversa dell’altra.
Dimostrazione. Ricordiamo che se ϕ `e una funzione lineare da V a un altro
spazio vettoriale, si ha la relazione dimensionale
dim(V ) = dim(ker(ϕ)) +dim(ϕ(V ))
19
Dato U ≤ V applichiamo tale relazione alla mappa lineare R
U
: V → U

.
Poich´e ker(R
U
) = U

R
si ha
n = dim(U

R
) +dim(W)
dove W ≤ U

`e l’insieme delle forme lineari definite su U della forma y → B(y, x)
per qualche x ∈ V .
`
E chiaro che possiamo estendere una g ∈ U

a una g ∈ V

mandando una base di U nelle corrispondenti immagini tramite g, e i vettori che
completano a una base di V in 0. Spendiamo qui l’ipotesi di non degenerazione
di B: tale g ∈ V

`e della forma y → B(x, y) e della forma x → B(x, y) (lemma
7), quindi tale `e g. Ma allora W = U

, e quindi poich´e dim(U

) = dim(U), con
ragionamenti analoghi su L
U
,
dim(U

L
) = n −dim(U) = dim(U

R
)
il che implica che dim((U

L
)

R
) = n−dim(U

L
) = n−(n−dim(U)) = dim(U)
e poich´e U ⊆ (U

L
)

R
si ha, con ragionamenti analoghi,
(U

R
)

L
= U = (U

L
)

R
questo conclude la dimostrazione.
In particolare abbiamo ricavato il seguente
Lemma 8. Se B `e forma bilineare non degenere sullo spazio vettoriale V e
U ≤ V allora U

= L(U) = R(U).
Definizione 8. Data una forma bilineare B su uno spazio vettoriale V , x ∈ V
si dice ortogonale a y ∈ V e si scrive x⊥y se vale B(x, y) = 0.
Definizione 9 (forme simmetriche). Una forma bilineare B : V V → F si dice
simmetrica se vale B(x, y) = B(y, x) per ogni x, y ∈ V . Le matrici associate a
B sono in tal caso tutte simmetriche.
Definizione 10 (forme alternanti). Una forma bilineare B : V V → F si dice
alternante se vale B(x, x) = 0 per ogni x ∈ V . Le matrici associate a B sono
in tal caso, se χ(F) = 2, tutte antisimmetriche.
Il seguente affascinante risultato rende molto interessante lo studio delle forme
bilineari simmetriche o alternanti:
Teorema 4. Data una forma bilineare B sullo spazio vettoriale V , la relazione
di ortogonalit`a `e simmetrica se e solo se B `e simmetrica oppure alternante.
Dimostrazione. Sufficienza. Se B `e simmetrica lo `e in particolare la relazione di
ortogonalit`a, se invece B `e alternante allora dati x, y ∈ V, 0 = B(x+y, x+y) =
B(x, x) + B(x, y) + B(y, x) + B(y, y) = B(x, y) + B(y, x) da cui B(x, y) =
−B(y, x) quindi `e chiaro che B(x, y) = 0 se e solo se B(y, x) = 0.
Necessit`a. Supponiamo ora che la relazione di ortogonalit`a sia simmetrica, e
siano x, y, z ∈ V . Sia
w := B(x, y)z −B(x, z)y
20
allora vale B(x, w) = B(x, B(x, y)z−B(x, z)y) = B(x, B(x, y)z)−B(x, B(x, z)y) =
B(x, y)B(x, z) − B(x, z)B(x, y) = 0 da cui per la simmetria dell’ortogonalit`a
B(w, x) = 0, che si riscrive come 0 = B(B(x, y)z−B(x, z)y, x) = B(B(x, y)z, x)−
B(B(x, z)y, x) = B(x, y)B(z, x) −B(x, z)B(y, x) ovvero
B(x, y)B(z, x) = B(x, z)B(y, x) ∀x, y, z ∈ V (3.1)
da cui se x = y,
B(x, x)(B(z, x) −B(x, z)) = 0 ∀x, z ∈ V (3.2)
Ora supponiamo falsa la nostra tesi, cio`e supponiamo che B non sia n´e sim-
metrica n´e alternante. Allora per la non-simmetria esistono u, v ∈ V tali che
B(u, v) = B(v, u) e per la non-alternanza esiste w ∈ V tale che B(w, w) = 0.
Usando (3.2) con x = u, z = v e poi con x = v, z = u otteniamo
B(u, u) = B(v, v) = 0 (3.3)
Usando poi ancora (3.2) con z = u, x = w e poi con z = v, x = w otteniamo
B(u, w) −B(w, u) = 0 = B(v, w) −B(w, v) (3.4)
Usando poi (3.1) con x = u, y = v, z = w e poi con x = v, y = u, z = w e
usando (3.4) otteniamo
B(u, w) = B(w, u) = 0 = B(v, w) = B(w, v) (3.5)
Ora si ha B(u, v +w) = B(u, v) +B(u, w) = B(u, v) e B(v +w, u) = B(v, u) +
B(w, u) = B(v, u) da cui poich´e B(u, v) = B(v, u) si ha B(u, v+w) = B(v+w, u)
e usando (3.2) con x = v +w, z = u otteniamo B(v +w, v +w)(B(v +w, u) −
B(u, v + w)) = 0 da cui per quanto appena visto B(v + w, v + w) = 0, ovvero
0 = B(v +w, v +w) = B(v, v) +B(v, w) +B(w, v) +B(w, w) = B(w, w) usando
(3.3) e (3.5). Ma questo `e assurdo perch´e per ipotesi B(w, w) = 0. Questo
conclude la dimostrazione.
D’ora in poi ogni forma bilineare sia simmetrica oppure alternante.
Per quanto visto si ha per ogni U ≤ V che
U

L
= U

R
=: U

e U

viene detto il complemento ortogonale di U. Il vantaggio di lavorare con
forme simmetriche o alternanti `e legato al non dover distinguere tra “ortogonali
destri” e “ortogonali sinistri”.
Osservazione 4. Se U ≤ V si ha U ∩ U

= ¦0¦ se e solo se B[
U×U
`e non
degenere. In questo caso U si dice sottospazio non degenere.
Dimostrazione. Necessit`a. Se x ∈ U `e tale che B(x, y) = 0 ∀y ∈ U allora vale
anche x ∈ U

e quindi x = 0. Sufficienza. Se x ∈ U ∩ U

allora B(x, y) = 0
per ogni y ∈ U e quindi x ∈ ker(L
U
) = ker(R
U
), che impica x = 0.
21
Data una base (e
i
)
i
di V , possiamo definire il discriminante di B come 0 se B
`e degenere, e come la classe
det(b)(F

)
2
∈ F

/(F

)
2
se B `e non degenere, dove (F

)
2
:= ¦a
2
[ a ∈ F

¦ `e sottogruppo moltiplicativo
di F

.
Concentriamoci ora sulle forme bilineari alternanti. Rivestono particolare im-
portanza le cosiddette “basi simplettiche”:
Teorema 5. Sia B una forma bilineare alternante V V → F. Allora esiste
una base ¦u
1
, v
1
, u
2
, v
2
, ..., u
r
, v
r
, z
1
, ..., z
n−2r
¦ di V , detta base simplettica di V ,
tale che la matrice di B rispetto a tale base abbia la forma
s = diag¦S, ..., S, 0, ..., 0¦
dove
S =

0 1
−1 0

Dimostrazione. Se B(x, y) = 0 ∀x, y ∈ V il risultato `e immediato. In caso
contrario esistono u, v ∈ V tali che B(u, v) = b = 0. Allora u
1
= u e v
1
= b
−1
v
soddisfano −B(v
1
, u
1
) = B(u
1
, v
1
) = b
−1
B(u, v) = 1. Certamente u
1
e v
1
sono linearmente indipendenti perch´e per ogni x ∈ V e per ogni a ∈ F si ha
B(x, ax) = aB(x, x) = 0. Ora supponiamo di aver trovato i vettori indipendenti
(i) (u
1
, v
1
, u
2
, v
2
, ..., u
k
, v
k
)
tali che B(u
i
, v
i
) = 1 = −B(v
i
, u
i
) e B(x, y) = 0 per ogni altra scelta di x e y
nell’insieme ¦u
i
[ 1 ≤ i ≤ k¦ ∪ ¦v
i
[ 1 ≤ i ≤ k¦. Sia V
k
:= 'u
1
, v
1
, ..., u
k
, v
k
`, di
dimensione 2k. Mostriamo che V = V
k
⊕ V

k
. Poich´e la matrice di B ristretta
a V
k
rispetto alla base (i) `e diag(S, ..., S) e quindi invertibile, V
k
`e sottospazio
non degenere di V e quindi V
k
∩ V

k
= ¦0¦. Ora sia x ∈ V e sia
y := x −
k

i=1
B(x, v
i
)u
i
+
k

i=1
B(x, u
i
)v
i
Abbiamo
B(y, u
j
) = B(x, u
j
) −
k

i=1
B(x, v
i
)B(u
i
, u
j
) +
k

i=1
B(x, u
i
)B(v
i
, u
j
) =
= B(x, u
j
) +B(x, u
j
)B(v
j
, u
j
) = 0
B(y, v
j
) = B(x, v
j
) −
k

i=1
B(x, v
i
)B(u
i
, v
j
) +
k

i=1
B(x, u
i
)B(v
i
, v
j
) =
= B(x, v
j
) −B(x, v
j
)B(u
j
, v
j
) = 0
22
da cui y ∈ V

k
. Poich´e
x = y +
k

i=1
B(x, v
i
)u
i

k

i=1
B(x, u
i
)v
i
abbiamo, usando il fatto che V
k
∩ V

k
= ¦0¦, che V
k
⊕V

k
= V .
Consideriamo ora la forma B ristretta a V

k
. Se `e identicamente nulla possiamo
scegliere una base di V

k
ottenendo con la (u
i
, v
i
)
i
una base di V rispetto a cui
la matrice di B `e del tipo voluto con r = k. Se invece B[
V

k
non `e identica-
mente nulla possiamo scegliere u
k+1
, v
k+1
∈ V

k
tali che B(u
k+1
, v
k+1
) = 1 =
−B(v
k+1
, u
k+1
), come abbiamo fatto all’inizio della dimostrazione per B e V , e
quindi ottenere la base di V
k+1
(u
1
, v
1
, u
2
, v
2
, ..., u
k
, v
k
, u
k+1
, v
k+1
)
rispetto a cui la matrice sar`a del tipo voluto, e questo prova l’ipotesi induttiva
nel caso k + 1.
Se b `e la matrice antisimmetrica associata alla forma bilineare alternante B su V
su F rispetto alla base (e
i
)
i
, e p `e la matrice di cambiamento di base dalla base
(e
i
)
i
alla base (u
j
, v
j
, z
k
) del teorema allora p
t
bp = s come nel teorema. Ponendo
q = p
−1
abbiamo b = q
t
sq e quindi b e s hanno lo stesso rango essendo ottenute
l’una dall’altra moltiplicando a destra e a sinistra per matrici invertibili. Ma
poich´e det(s) ∈ ¦0, 1¦ si ha det(b) = det(q)
2
det(s) ∈ ¦0, det(q)
2
¦ e quindi:
Corollario 1. Una matrice antisimmetrica invertibile con entrate in un campo
F ha rango pari e il suo determinante `e un quadrato in F.
Corollario 2. Due matrici antisimmetriche n n con entrate in un campo F
sono congruenti se e solo se hanno lo stesso rango.
Dimostrazione. La sufficienza si vede notando che se p
t
bp = s = q
t
cq allora
c = (q
−1
p)
t
b(q
−1
p).
3.2 Il gruppo simplettico
Definiremo ora l’oggetto del nostro studio:
Definizione 11. Sia V spazio vettoriale di dimensione n = 2r sul campo F
dotato della forma bilineare alternante non degenere B : V V → F (in-
dicheremo tutto ci`o con (V, B)). Il gruppo delle B-isometrie di V , ovvero delle
applicazioni lineari invertibili η : V → V tali che
B(η(u), η(v)) = B(u, v) ∀u, v ∈ V
si indica con Sp
n
(F) e si dice gruppo simplettico di V . Gli elementi di tale
gruppo si dicono trasformazioni simplettiche di V .
23
Osserviamo ora alcune piccole conseguenze della definizione. Se
¦u
1
, v
1
, u
2
, v
2
, ..., u
r
, v
r
¦
`e base simplettica per V e η ∈ Sp
n
(F) allora anche
¦η(u
1
), η(v
1
), η(u
2
), η(v
2
), ..., η(u
r
), η(v
r

`e base simplettica. Viceversa date due basi simplettiche di V l’isomorfismo
che manda ordinatamente i vettori della prima base nei vettori della seconda `e
trasformazione simplettica di V .
Osservazione 5. Siano V
1
e V
2
spazi vettoriali dotati delle forme bilineari
alternanti non degeneri B
1
e B
2
rispettivamente. Se (V
1
, B
1
) e (V
2
, B
2
) sono
isometrici, ovvero se esiste un isomorfismo lineare
α : V
1
→ V
2
tale che B
2
(α(v), α(w)) = B
1
(v, w) per ogni v, w ∈ V
1
, allora i rispettivi gruppi
simplettici sono isomorfi.
Dimostrazione. Indichiamo con G
1
e G
2
i gruppi simplettici di (V
1
, B
1
) e (V
2
, B
2
)
rispettivamente. Definiamo l’omomorfismo di gruppi
ϕ : G
1
→ G
2
σ → ασα
−1
La definizione ha senso perch´e se σ ∈ G
1
allora
B
2
(α(σ(α
−1
(u))), α(σ(α
−1
(v)))) = B
1
(σ(α
−1
(u)), σ(α
−1
(v)))
= B
1

−1
(u), α
−1
(v))
= B
2
(α(α
−1
(u)), α(α
−1
(v)))
= B
2
(u, v)
per ogni u, v ∈ V
2
, ovvero ασα
−1
∈ G
2
.
`
E immediato che ϕ `e isomorfismo.
In particolare se sullo stesso spazio vettoriale V consideriamo due forme bilineari
alternanti non degeneri diverse B
1
e B
2
, i rispettivi gruppi simplettici saranno
isomorfi perch´e si pu`o costruire una isometria di (V, B
1
) in (V, B
2
) mandando
una base simplettica di (V, B
1
) ordinatamente in una base simplettica di (V, B
2
).
Ne segue che per studiare la classe di isomorfismo di un certo gruppo simplettico
possiamo scegliere arbitrariamente sullo spazio una forma bilineare alternante
non degenere.
24
3.2.1 Le trasvezioni simplettiche
Analogamente a quanto fatto per il gruppo speciale lineare, ci occupiamo di
particolari trasformazioni simplettiche:
Definizione 12 (trasvezioni simplettiche). Sia u ∈ V non nullo e sia c ∈ F.
L’applicazione
τ
u,c
: V → V
x → x +cB(x, u)u
si dice trasvezione simplettica di direzione u.
Questa definizione porta ad alcuni piccoli risultati. Innanzitutto si vede che
τ
u,c
∈ Sp
n
(F), infatti se v, w ∈ V , essendo B(u, u) = 0,
B(τ
u,c
(v), τ
u,c
(w)) = B(v +cB(v, u)u, w +cB(w, u)u) =
= B(v, w) +cB(w, u)B(v, u) +cB(v, u)B(u, w)
= B(v, w) +cB(w, u)B(v, u) +cB(v, u)(−B(w, u))
= B(v, w)
Inoltre fissato u ∈ V non nullo, l’applicazione
F → Sp
n
(F)
c → τ
u,c
`e monomorfismo di gruppi, dove F `e inteso come gruppo additivo. Infatti:
τ
u,c

u,d
(v)) = τ
u,c
(v +dB(v, u)u) = v +dB(v, u)u +cB(v +dB(v, u)u, u)u
= v +cB(v, u)u +dB(v, u)u = v + (c +d)B(v, u)u = τ
u,c+d
(v)
Inoltre se τ
u,c
`e l’identit`a allora τ
u,c
(v) = v +cB(v, u)u = v, ovvero cB(v, u)u =
0, per ogni v ∈ V , e poich´e u non sta nel nucleo di B (essendo B non degenere)
esiste w ∈ V tale che B(u, w) = 0; preso v = w si ha subito c = 0.
Un’altra conseguenza della definizione: se η ∈ Sp
n
(F) allora
ητ
u,c
η
−1
= τ
η(u),c
Infatti si ha
η(τ
u,c

−1
(v))) = η(η
−1
(v) +cB(η
−1
(v), u)u) =
v +cB(η
−1
(v), u)η(u) = v +cB(v, η(u))η(u) = τ
η(u),c
(v)
Infine se a ∈ F

allora
τ
au,c
= τ
u,a
2
c
Infatti τ
au,c
(v) = v +cB(v, au)au = v +a
2
cB(v, u)u = τ
u,a
2
c
(v).
Si vede facilmente che se x `e B-ortogonale a u allora `e fissato da τ
u,c
, e in
particolare u `e fissato da τ
u,c
. Resta quindi definita l’applicazione
ζ
u,c
: V → Fu
x → τ
u,c
(x) −x
Per quanto detto ζ
2
u,c
= 0 e quindi il seguente lemma dimostra che det(τ
u,c
) = 1.
25
Lemma 9. Se 1 = A ∈ M
n
(F) `e tale che (A−1)
2
= 0 allora det(A) = 1.
Dimostrazione.
`
E ben noto che il minimo esponente a cui elevare una matrice
nilpotente X per ottenere 0 `e rk(X) + 1 (questo `e sostanzialmente dovuto al
fatto che se X ∈ M
n
(F) `e nilpotente e non nulla, ker(X
k
) ha dimensione
min(dim(ker(X)) + k − 1, n)). Ne segue che poich´e A = 1, rk(A − 1) = 1.
Quindi il nucleo di A − 1 ha dimensione n − 1, e quindi presa una base di tale
nucleo ¦v
1
, ..., v
n−1
¦ e completata a una base di V ¦v
1
, ..., v
n−1
, v
n
¦, la matrice
di A in tale base, chiamiamola X + 1, `e del tipo








1 0 ... 0 ∗
0 1 ... 0 ∗
0 0
.
.
.
.
.
. ∗
.
.
.
.
.
.
.
.
.
1
.
.
.
0 0 ... 0 ∗








ed `e uguale a PAP
−1
per qualche matrice invertibile P. Ora
X
2
= (PAP
−1
−1)
2
= (P(A−1)P
−1
)
2
= P(A−1)P
−1
P(A−1)P
−1
= P(A−1)
2
P
−1
= P 0 P
−1
= 0
Quindi X
2
= 0 e l’ultima colonna di X `e l’unica (eventualmente) non nulla,
ovvero X
ij
= 0 se j = n. Segue che
(X
2
)
ij
=

k
X
ik
X
kj
= X
in
X
nj
= 0 ∀i, j = 1, ..., n
In particolare questo vale se i = j = n e quindi X
nn
= 0, ovvero (PAP
−1
)
nn
=
(X +1)
nn
= 1. Segue che PAP
−1
`e triangolare superiore con 1 sulla diagonale,
quindi 1 = det(PAP
−1
) = det(A).
3.2.2 Generazione
Il motivo per cui sono state introdotte le trasvezioni simplettiche `e che esse gen-
erano il gruppo simplettico Sp
n
(F), e da ci`o segue in particolare che Sp
n
(F) ≤
SL
n
(F). Prima un altro piccolo risultato:
Lemma 10. Se U ≤ V e η ∈ Sp
n
(F) allora η(U) = U se e solo se η(U

) = U

.
Dimostrazione. Poich´e (U

)

= U basta mostrare la necessit`a. Sia v ∈ U

,
e sia u ∈ U. Allora B(u, η(v)) = B(η
−1
(u), v) = 0 perch´e η
−1
(u) ∈ U, quindi
η(v) ∈ U

. Viceversa B(u, η
−1
(v)) = B(η(u), v) = 0 quindi η
−1
(v) ∈ U

,
ovvero v ∈ η(U

).
Lemma 11. Sp
n
(F) `e generato dalle trasvezioni simplettiche.
26
Dimostrazione. : Introdurremo innanzitutto le coppie iperboliche: dati u, v ∈
V , (u, v) si dice coppia iperbolica se B(u, v) = 1 (nel caso B non sia alternante
nella definizione si richiede anche B(u, u) = B(v, v) = 0). Per cominciare di-
mostriamo il seguente fatto: se (u, v) e (u

, v

) sono due coppie iperboliche allora
esiste un prodotto di trasvezioni simplettiche ψ tale che ψ(u) = u

e ψ(v) = v

.
Siano quindi (u, v) e (u

, v

) coppie iperboliche. Se B(u, u

) = 0 allora u = u

e
quindi w := u −u

= 0. τ
w,c
(u) = u +cB(u, w)w = u −cB(u, u

)(u −u

) quindi
preso c = B(u, u

)
−1
, τ
w,c
(u) = u

. Se invece B(u, u

) = 0, esiste f ∈ V

tale
che f(u) = 0 e f(u

) = 0. f in quanto forma lineare `e del tipo x → B(x, u

) per
qualche u

∈ V , quindi B(u, u

) = 0 = B(u

, u

). Quindi esiste una trasvezione
simplettica che manda u in u

e ne esiste una che manda u

in u

. La loro
composizione (il loro prodotto nell’ordine inverso) manda u in u

. Quindi per
ogni coppia di coppie iperboliche (u, v) e (u

, v

) esiste un prodotto di trasvezioni
simplettiche che manda u in u

. Ci siamo ridotti a dimostrare che se (u, v) e
(u, v

) sono coppie iperboliche allora esiste un prodotto di trasvezioni simplet-
tiche che fissa u e manda v in v

. Siano quindi (u, v) e (u, v

) coppie iperboliche.
Se B(v, v

) = 0 allora v = v

. Detto w := v − v

= 0, e detto c = B(v, v

)
−1
si ha τ
w,c
(v) = v

, analogamente a poco fa. Inoltre τ
w,c
(u) = u + cB(u, w)w =
u + cB(u, v − v

)(v − v

) = u + cB(u, v)(v − v

) − cB(u, v

)(v − v

) = u perch´e
B(u, v) = B(u, v

) = 1. Se invece B(v, v

) = 0 la coppia (u, u + v) `e iperbolica,
B(v, u + v) = −1 e B(u + v, v

) = 1. Quanto appena dimostrato applicato alle
coppie iperboliche (u, v) e (u, u +v) e poi a (u, u +v) e (u, v

) mostra che esiste
un prodotto di trasvezioni simplettiche che fissa u e manda v in u+v, e ne esiste
uno che fissa u e manda u + v in v

. Il loro prodotto nell’ordine inverso fissa u
e manda v in v

.
Rimane quindi dimostrato che se (u, v) e (u

, v

) sono coppie iperboliche esiste
un prodotto di trasvezioni simplettiche che manda u in u

, v in v

.
Supponiamo ora che le trasformazioni simplettiche degli spazi di dimensione
n − 2 siano tutte prodotti di trasvezioni simplettiche. Allora presi η ∈ Sp
n
(F)
e (u, v) coppia iperbolica, anche (η(u), η(v)) `e coppia iperbolica e quindi esiste
ψ, prodotto di trasvezioni simplettiche, tale che ψ(u) = η(u) e ψ(v) = η(v). Ne
segue che η

:= ψ
−1
η fissa u e v, quindi fissa (in particolare, stabilizza) Fu+Fv,
quindi stabilizza U := (Fu + Fv)

. Ora, η

[
U
: U → U `e trasformazione sim-
plettica di U, e dim(U) = n − 2. Ne segue che η

[
U
`e prodotto di trasvezioni
simplettiche con elementi di U come vettori-direzione (ipotesi induttiva), ma
d’altra parte la corrispondente applicazione pensata di V in V `e l’identit`a su
U

= Fu+Fv (se x `e B-ortogonale a u allora `e fissato da τ
u,c
), quindi coincide
con η

. Quindi η

`e prodotto di trasvezioni simplettiche, quindi tale `e ψη

= η.
Resta da mostrare che l’ipotesi induttiva `e vera nel caso n = 2, ma questo si
vede facilmente: se η ∈ Sp
n
(F) e ¦u, v¦ `e base simplettica di V , lo `e anche
¦η(u), η(v)¦ e quindi esiste un prodotto di trasvezioni simplettiche che manda
u in η(u) e v in η(v), che deve quindi coincidere con η.
3.2.3 Semplicit`a
Iniziamo con la seguente
27
Proposizione 7. Il centro di Sp
n
(F) `e ¦−1, 1¦, e coincide col nucleo dell’azione
Sp
n
(F) P
n−1
(F) → P
n−1
(F), (γ, Fx) → Fγ(x) (3.6)
Dimostrazione. Un elemento γ ∈ Sp
n
(F) che commuti con ogni altro elemento
di Sp
n
(F) in particolare soddisfa
γ ◦ τ
u,c
= τ
u,c
◦ γ
per ogni fissato u ∈ V ` ¦0¦, c ∈ F, e quindi per ogni v ∈ V si ha
γ(τ
u,c
(v)) = τ
u,c
(γ(v)) (3.7)
Mostriamo che γ stabilizza u

. Sia dunque x ∈ u

. Ne segue che x `e fissato
dalle trasvezioni di direzione u: τ
u,c
(x) = x, e quindi da (3.7) segue che γ(x) =
τ
u,c
(γ(x)) ovvero γ(x) `e fissato dalle trasvezioni di direzione u, e quindi γ(x) ∈
u

. Quindi, poich´e lo stesso vale per γ
−1
, γ(u

) = u

. Per il lemma 10 γ
stabilizza Fu, quindi γ(x) = α
x
x per ogni x ∈ Fu. Ma questo vale per ogni
0 = u ∈ V , quindi, analogamente a quanto visto nella dimostrazione della
proposizione 2, γ `e la moltiplicazione per un elemento di F, chiamiamolo α. Ma
essendo anche trasvezione simplettica, presi x, y ∈ V non B-ortogonali (esistono
altrimenti B sarebbe degenere),
B(x, y) = B(γ(x), γ(y)) = B(αx, αy) = α
2
B(x, y) ⇒ α
2
= 1
ovvero α ∈ ¦1, −1¦. Viceversa se α ∈ ¦1, −1¦ allora la moltiplicazione per α `e
trasvezione simplettica.
Per la proposizione 2, l’azione (3.6) ha come nucleo
K = ¦a1 ∈ Sp
n
(F) [ a ∈ F¦
ovvero proprio il centro di Sp
n
(F), come visto.
Ora proseguiamo verificando tutte le richieste del lemma di Iwasawa.
Lemma 12. L’azione (3.6) `e primitiva.
Dimostrazione. Supponiamo quindi di disporre di una partizione di P
n−1
(F)
stabilizzata dall’azione di Sp
n
(F) su P(P
n−1
(F)) indotta dall’azione su P
n−1
(F).
Consideriamo S, elemento di tale partizione (quindi sottoinsieme di P
n−1
(F))
che abbia almeno due elementi: [S[ > 1. Mostriamo che l’unica possibilit`a `e
S = P
n−1
(F).
Se S contiene due elementi distinti Fx e Fy con B(x, y) = 0, dividendo even-
tualmente y (o x) per B(x, y) si pu`o assumere B(x, y) = 1. Sia Fz ∈ P
n−1
(F)
diverso da Fx e da Fy, con z non B-ortogonale a x, e sia w =
z
B(x,z)
. Allora
(x, y) e (x, w) sono coppie iperboliche, quindi esiste η, prodotto di trasvezioni,
che fissa x e manda y in w.
`
E chiaro che η(S) = S, infatti da η(Fx) = Fx segue
Fx ∈ η(S) ∩ S, e le due classi laterali S e η(S) avendo intersezione non vuota
devono coincidere. Ma allora
Fz = Fw = Fη(y) = η(Fy) ∈ S
28
Se invece x e z sono B-ortogonali (B(x, z) = 0) esiste w ∈ V tale che B(x, w) =
1, B(z, w) = 0 (lemma 7). Ma allora (x, y) e (x, w) sono coppie iperboliche,
quindi esiste η, prodotto di trasvezioni, che fissa x e manda y in w. Poich´e
η(S) = S, Fw = Fη(y) = η(Fy) ∈ S. Ora detto z

:=
z
B(z,w)
, (−w, x) e
(−w, z

) sono coppie iperboliche, quindi esiste ζ, prodotto di trasvezioni, che
fissa w e manda x in z

. Da Fw ∈ S ∩ ζ(S) segue ζ(S) = S quindi Fz = Fz

=
Fζ(x) = ζ(Fx) ∈ S.
Ora supponiamo che Fx e Fy siano due elementi distinti di S, tali che B(x, y) =
0. Mostriamo che esistono due elementi Fx

e Fy

di S, distinti, tali che x

e y

non siano B-ortogonali, riconducendoci cos´ı al caso B(x, y) = 0. Poich´e
Fx = Fy, per il lemma 7 esiste u ∈ V tale che B(x, u) = 1, B(y, u) = 0. Sia
ora U := (Fx +Fu)

, e sia
G := ¦η ∈ Sp
n
(F) [ η[
U
⊥ = 1¦
Si pu`o facilmente vedere che U `e non degenere: se αx + βu ∈ U

∩ U allora
B(αx +βu, γx +δu) = 0 per ogni γ, δ ∈ F, ovvero
0 = αδB(x, u) +βγB(u, x) = (αδ −βγ)B(x, u) = αδ −βγ ∀γ, δ ∈ F
da cui α = β = 0 (esaminando i casi δ = γ = 1 e δ = 1, γ = 0). Inoltre G `e
un gruppo di trasformazioni simplettiche che stabilizzano U, infatti fissano (in
particolare, stabilizzano) U

(lemma 10). Detto
G[
U
:= ¦η[
U
[ η ∈ G¦
si ha che G[
U
`e il gruppo simplettico di U: se γ `e trasformazione simplettica
di U allora `e prodotto di trasvezioni simplettiche con direzioni in U, e pensato
tale prodotto come funzione V → V e chiamatolo ancora γ, si ha che γ[
U
⊥ = 1
e quindi γ ∈ G. Viceversa se γ ∈ G allora γ fissa U

, quindi stabilizza U.
Prima di proseguire, un’osservazione ovvia: y ∈ U, quindi U = ¦0¦. Poich´e
U `e non degenere ha dimensione pari, dunque possiede almeno un vettore non
B-ortogonale a y, quindi possiede almeno una coppia iperbolica.
Mostriamo ora che FU ⊆ S. Sia quindi 0 = z ∈ U. Poich´e U `e non degenere, z e
y non stanno nel nucleo di B[
U×U
, quindi esistono y

, z

∈ U tali che B(z, z

) =
0, B(y, y

) = 0, e a meno di una opportuna normalizzazione possiamo supporre
B(z, z

) = 1 = B(y, y

). Poich´e (y, y

) e (z, z

) sono coppie iperboliche esiste
η

∈ G[
U
che manda y in z e y

in z

. Poich´e η

∈ G[
U
, esiste η ∈ G che ristretta
a U coincide con η

. Abbiamo trovato η ∈ Sp
n
(F) che fissa x e manda y in z. Al
solito, poich´e Fx ∈ S ∩η(S) si ha η(S) = S e quindi Fz = Fη(y) = η(Fy) ∈ S.
Prendendo per (x

, y

) una coppia iperbolica di U (e quindi di S), abbiamo
concluso.
Lemma 13. Sp
n
(F) coincide con il suo derivato tranne nei casi
n = 2, [F[ ∈ ¦2, 3¦
n = 4, [F[ = 2
29
Inoltre per ogni 0 = x ∈ V esiste H
x
Stab(Fx), abeliano, i cui coniugati
generano Sp
n
(F).
Dimostrazione. Iniziamo osservando che dati x, y ∈ V non nulli, essi non stanno
nel nucleo di B essendo B non degenere, quindi esistono x

e y

non ortogonali
a x, y rispettivamente, e possiamo assumere che (x, x

) e (y, y

) siano coppie
iperboliche. Quindi esiste una trasformazione simplettica che manda x in y.
Dato x ∈ V non nullo, definisco
H
x
:= ¦τ
x,c
[ c ∈ F¦ ≤ Stab(Fx) ≤ Sp
n
(F)
Che H
x
≤ Stab(Fx) segue dal fatto che x `e fissato da τ
x,c
per ogni c ∈ F. Che
H
x
Stab(Fx) segue dal fatto che se η ∈ Stab(Fx) allora η(x) = αx per qualche
α ∈ F e
η ◦ τ
x,c
◦ η
−1
= τ
η(x),c
= τ
αx,c
= τ
x,α
2
c
∈ H
x
Il fatto che H
x
sia abeliano segue da
τ
x,c
◦ τ
x,d
= τ
x,c+d
= τ
x,d+c
= τ
x,d
◦ τ
x,c
Infine, i coniugati di H
x
generano Sp
n
(F) perch´e se 0 = y ∈ V , presa η ∈
Sp
n
(F) che mandi x in y si ha ηH
x
η
−1
= H
y
, e poich´e Sp
n
(F) `e generato dalle
trasvezioni,
Sp
n
(F) = '¦H
z
[ 0 = z ∈ V ¦` = '¦ηH
x
η
−1
[ η ∈ Sp
n
(F)¦`
Supponiamo ora [F[ > 3. Sia τ
z,c
trasvezione diversa dall’identit`a. Poich´e F
ha pi` u di 3 elementi esiste d ∈ F

tale che d
2
= 1. Sia b := (1 − d
2
)
−1
c e sia
a := −d
2
b. Allora
c = b(1 −d
2
) = b −bd
2
= a +b
Sia η trasformazione simplettica che mandi z in d z. Allora
η ◦ τ
−1
z,b
◦ η
−1
= η ◦ τ
z,−b
η
−1
= τ
η(z),−b
= τ
dz,−b
= τ
z,−bd
2 = τ
z,a
e quindi
τ
z,c
= τ
z,a+b
= τ
z,a
◦ τ
z,b
= η ◦ τ
−1
z,b
◦ η
−1
◦ τ
z,b
∈ Sp
n
(F)

Poich´e Sp
n
(F) `e generato dalle trasvezioni, Sp
n
(F) = Sp
n
(F)

.
Rimangono da studiare i casi
[F[ = 3, n ≥ 4
[F[ = 2, n ≥ 6
Per mostrare che Sp
n
(F) = Sp
n
(F)

basta mostrare che tutte le trasvezioni stan-
no nel commutatore, e per questo basta mostrare che una qualunque trasvezione
sta nel commutatore. Infatti in tal caso, detta τ
z,c
tale trasvezione, poich´e G

G
per ogni gruppo G, e poich´e in questo caso [F[ ∈ ¦2, 3¦ quindi H
z
`e ciclico, tut-
ti i coniugati di H
z
, che `e contenuto in Sp
n
(F)

, sono contenuti in Sp
n
(F)

e
30
generano Sp
n
(F), quindi Sp
n
(F)

= Sp
n
(F).
Primo caso: [F[ = 3, n = 2r ≥ 4.
Sia ¦u
1
, v
1
, u
2
, v
2
, ..., u
r
, v
r
¦ base simplettica di V . Definisco η, σ come le appli-
cazioni lineari V → V che fissano u
i
e v
i
se 2 < i ≤ r e soddisfacenti la seguente
tabella:
◦ u
1
v
1
u
2
v
2
η u
1
+u
2
v
2
u
1
v
1
−v
2
σ u
1
−v
1
+v
2
v
1
u
2
+v
1
v
2
I seguenti fatti sono di facile (ma noiosa) verifica: η e σ sono invertibili, e sono
trasformazioni simplettiche in quanto le basi
¦η(u
1
), η(v
1
), ..., η(u
r
), η(v
r

¦σ(u
1
), σ(v
1
), ..., σ(u
r
), σ(v
r

sono simplettiche. Ora consideriamo la trasformazione simplettica γ := ηση
−1
σ
−1
,
e valutiamo le immagini della base data. Chiaramente γ fissa u
i
e v
i
per ogni
i > 2. Negli altri casi:
γ(u
1
) = η(σ(η
−1
(u
1
+v
1
−v
2
))) = η(σ(u
2
+v
1
+v
2
−v
1
))
= η(u
2
+v
1
+v
2
) = u
1
+v
2
+v
1
−v
2
= u
1
+v
1
γ(u
2
) = η(σ(η
−1
(u
2
−v
1
))) = η(σ(u
1
−u
2
−v
2
−v
1
))
= η(u
1
−v
1
+v
2
−u
2
−v
1
−v
2
−v
1
) = u
1
+u
2
−u
1
= u
2
γ(v
1
) = η(σ(η
−1
(v
1
))) = η(σ(v
1
+v
2
)) = η(v
1
+v
2
) = v
2
+v
1
−v
2
= v
1
γ(v
2
) = η(σ(η
−1
(v
2
))) = η(σ(v
1
)) = η(v
1
) = v
2
`
E facile verificare che τ
v
1
,1
manda i vettori della base ¦u
i
, v
i
¦
i
dove li manda γ,
quindi γ = τ
v
1
,1
. Ne segue che τ
v
1
,1
∈ Sp
n
(F)

.
Secondo caso: [F[ = 2, n = 2r ≥ 6.
Sia di nuovo, ¦u
1
, v
1
, u
2
, v
2
, ..., u
r
, v
r
¦ base simplettica di V . Definisco η, σ
come le applicazioni lineari V → V che fissano u
i
e v
i
se i > 3 e soddisfacenti
la seguente tabella:
◦ u
1
v
1
u
2
v
2
u
3
v
3
η u
1
+u
3
v
3
u
1
v
1
+v
3
u
2
v
2
σ u
1
+v
2
v
1
u
2
+v
1
+v
2
+v
3
v
2
u
3
+v
2
+v
3
v
3
Analogamente a prima, η e σ sono invertibili e sono trasformazioni simplet-
tiche. In questo caso inoltre σ
−1
= σ. Mostriamo che γ := ηση
−1
σ
−1
`e una
trasvezione. γ chiaramente fissa u
i
e v
i
per ogni i > 3. Negli altri casi:
γ(u
1
) = η(σ(η
−1
(u
1
+v
2
))) = η(σ(u
2
+v
3
)) = η(u
2
+v
1
+v
2
) = u
1
+v
1
31
γ(u
2
) = η(σ(η
−1
(u
2
+v
1
+v
2
+v
3
))) = η(σ(u
3
+v
1
+v
2
+v
3
+v
1
))
= η(u
3
+v
2
+v
3
+v
2
+v
3
) = u
2
γ(u
3
) = η(σ(η
−1
(u
3
+v
2
+v
3
))) = η(σ(u
1
+u
2
+v
3
+v
1
))
= η(u
1
+v
2
+u
2
+v
1
+v
2
+v
3
+v
3
+v
1
) = u
1
+u
3
+u
1
= u
3
γ(v
1
) = η(σ(η
−1
(v
1
))) = η(σ(v
1
+v
2
)) = η(v
1
+v
2
) = v
3
+v
1
+v
3
= v
1
γ(v
2
) = η(σ(η
−1
(v
2
))) = η(σ(v
3
)) = η(v
3
) = v
2
γ(v
3
) = η(σ(η
−1
(v
3
))) = η(σ(v
1
)) = η(v
1
) = v
3
Segue quindi, analogamente a prima, che γ = τ
v
1
,1
, quindi che τ
v
1
,1
∈ Sp
n
(F)

.
Le richieste del lemma di Iwasawa sono soddisfatte, per cui si ha il risultato:
Teorema 6. Sp
n
(F)/Z(Sp
n
(F)) `e semplice tranne nei casi n = 2, [F[ ∈ ¦2, 3¦
e n = 4, [F[ = 2.
3.3 Le eccezioni
Innanzitutto valutiamo l’ordine di Sp
n
(q) := Sp
n
(F) quando F ha q elementi.
Proposizione 8. Si ha
[Sp
n
(q)[ = q
n−1
(q
n
−1)q
n−3
(q
n−2
−1)...q(q
2
−1)
Segue che
[Sp
2
(2)[ = 6 = 3!, [Sp
2
(3)[ = 24 = 4!, [Sp
4
(2)[ = 720 = 6!
[Sp
2
(2)/Z(Sp
2
(2))[ = 6, [Sp
2
(3)/Z(Sp
2
(3))[ = 12, [Sp
4
(2)/Z(Sp
4
(2))[ = 720
Dimostrazione. Siano (x, y) e (x, y

) coppie iperboliche. Allora esiste η ∈ Sp
n
(F)
che fissa x e manda y in y

, quindi detto z := y

−y, si ha
B(z, x) = B(y

−y, x) = B(y

, x) −B(η(y), η(x)) = B(y

, x) −B(y

, x) = 0
quindi z ∈ x

. Viceversa se z ∈ x

e (x, y) `e coppia iperbolica, anche (x, y+z) `e
coppia iperbolica, infatti B(x, y+z) = B(x, y)+B(x, z) = 1. Contiamo le coppie
iperboliche (x, y) in V . Abbiamo q
n
−1 scelte per x, e per quanto detto, per ogni
x = 0 fissato abbiamo [x

[ = q
n−1
scelte per y. Quindi le coppie iperboliche
in V sono q
n−1
(q
n
− 1). Introducendo l’azione del gruppo Sp
n
(q) sull’insieme
delle coppie iperboliche di V data da (η, (x, y)) → (η(x), η(y)), tale azione `e
32
transitiva, quindi l’orbita di ogni coppia iperbolica ha ordine q
n−1
(q
n
− 1), e
fissata una coppia iperbolica (x, y) si ha che
[Sp
n
(q)[ = [Orb((x, y))[ [Stab((x, y))[
Ora, Stab((x, y)) consiste dei η ∈ Sp
n
(q) che fissano x e y, e come visto nel
lemma 11 coincide col gruppo simplettico di (Fx +Fy)

. Ma allora
[Sp
n
(q)[ = q
n−1
(q
n
−1)[Sp
n−2
(q)[
Esaminiamo il caso n = 2. In questo caso ogni trasformazione simplettica `e
identificata dall’immagine tramite essa di una fissata base simplettica, e poich´e
tale immagine `e ancora base simplettica e in questo caso le basi simplettiche
coincidono con le coppie iperboliche, c’`e corrispondenza biunivoca tra l’insieme
delle coppie iperboliche e Sp
2
(q). Quindi [Sp
2
(q)[ = q(q
2
−1). Possiamo usare
l’induzione e concludere.
L’ultima asserzione segue dal fatto che Z(Sp
n
(F)) = ¦1, −1¦ quindi se [F[ = 2,
Z(Sp
n
(2)) = ¦1¦.
Esaminiamo i casi rimasti esclusi:
Proposizione 9. Sp
2
(F)

= SL
2
(F) e Sp
2
(F)/Z(Sp
2
(F))

= SL
2
(F)/Z(SL
2
(F)).
Dimostrazione. Sia ¦u, v¦ base simplettica di V . La condizione che η ∈ L
2
(F)
sia trasformazione simplettica `e B(η(u), η(v)) = B(u, v) = 1 e quindi se η(u) =
au +bv e η(v) = cu +dv allora
1 = B(η(u), η(v)) = B(au +bv, cu +dv) = adB(u, v) +bcB(v, u) = ad −bc
quindi η `e simplettica se e solo se il suo determinante `e 1, cio`e η ∈ SL
n
(F).
La seguente dimostrazione `e contenuta in [2].
Proposizione 10. Sp
4
(2)/Z(Sp
4
(2))

= S
6
quindi non `e semplice contenendo
propriamente il sottogruppo normale A
6
.
Dimostrazione. Sia F := F
2
. Possiamo scegliere una qualunque forma bilineare
alternante non degenere su un qualunque spazio vettoriale di dimensione 4 su F.
Sia V := F
6
. Consideriamo la forma bilineare simmetrica “prodotto scalare”
V V → F definita da
(x, y) → x y := x
1
y
1
+x
2
y
2
+x
3
y
3
+x
4
y
4
+x
5
y
5
+x
6
y
6
Tale forma bilineare `e non degenere essendo rappresentata nella base canonica
dalla matrice identica. Sia j := (1, 1, 1, 1, 1, 1)
t
. Abbiamo allora che
x j = x
1
+x
2
+x
3
+x
4
+x
5
+x
6
= x
2
1
+x
2
2
+x
2
3
+x
2
4
+x
2
5
+x
2
6
= x x
per ogni x ∈ V . Quindi il prodotto scalare induce sul sottospazio 5-dimensionale
j

di V una forma bilineare alternante, infatti se x ∈ j

, x x = x j = 0. Tale
33
forma alternante `e degenere in quanto il suo nucleo contiene j. Anzi il suo
nucleo consiste di quei y ∈ V tali che y ∈ j

e y ∈ (j

)

= 'j`. Ne segue che
la restrizione del prodotto scalare a j

ha come nucleo 'j`. Sia ora
W := j

/'j`
W ha dimensione 4 su F, e il prodotto scalare induce una forma bilineare
alternante B su W definita da
(x +'j`, y +'j`) → x y
B `e non degenere, perch´e dato x ∈ j

, x+'j` sta nel nucleo se e solo se x ∈ 'j`,
ovvero x +'j` = 0
W
.
Se x ∈ V e σ ∈ S
6
denotiamo con x
σ
l’elemento di V la cui coordinata i `e x
σ(i)
.
Mostriamo che η
σ
: x + 'j` → x
σ
+ 'j` `e trasformazione simplettica W → W,
e che σ → η
σ
`e monomorfismo S
6
→ Sp
4
(2). Si ha
B(x
σ
+'j`, y
σ
+'j`) = x
σ
y
σ
=
6

i=1
x
σ(i)
y
σ(i)
=
6

i=1
x
i
y
i
= xy = B(x+'j`, y+'j`)
η
στ
(x +'j`) = x
στ
+'j` = η
σ
(x
τ
+'j`) = η
σ

τ
(x +'j`)) ∀x ∈ V
Ora se η
σ
`e l’identit`a e σ non `e la permutazione identica, allora per qualche
x ∈ j

si ha x
σ
= x+j. Questo non `e possibile perch´e se x ha 2r componenti 1,
x
σ
avrebbe 6 −2r = 2r componenti 1, quindi σ non sarebbe una permutazione.
In conclusione, S
6
si immerge in Sp
4
(2) che ha cardinalit`a 720 = 6!, quindi
S
6

= Sp
4
(2) = Sp
4
(2)/Z(Sp
4
(2))
A
6
`e normale in S
6
perch´e permutazioni coniugate hanno la stessa parit`a.
34
Bibliografia
[1] Nathan Jacobson, “Basic algebra 1”
[2] Peter J. Cameron, Lecture notes for the University of London M.Sc. course
A31: Classical Groups (January-March 2000).
http://www.maths.qmul.ac.uk/∼pjc/class gps/
35

Sign up to vote on this title
UsefulNot useful