Mitschrift zur Lineare Algebra I Vorlesung von

Prof. Dr. Felsner im WS07/08
Thomas El Khatib
30. November 2007
1
Inhaltsverzeichnis
1 Grundbegriffe 5
1.1 Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Mengennotationen . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Zahlenmengen . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.4 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.5 Komposition von Abbildungen . . . . . . . . . . . . . . . . . 6
1.1.6 Identität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.7 Menge aller Abbildungen . . . . . . . . . . . . . . . . . . . 8
1.1.8 Produkte von Mengen . . . . . . . . . . . . . . . . . . . . . 8
1.2 Äquivalenzrelationen . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Äquivalenzrelationen . . . . . . . . . . . . . . . . . . . . . . 9
1.2.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.4 Partitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Gruppen 11
2.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1 Innere Verknüpfung . . . . . . . . . . . . . . . . . . . . . . 11
2.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.3 Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.5 Symmetrische Gruppen . . . . . . . . . . . . . . . . . . . . . 14
2.1.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.7 Eigenschaften von Gruppen . . . . . . . . . . . . . . . . . . 15
2.1.8 Untergruppen . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.9 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.10 Untergruppenkriterium . . . . . . . . . . . . . . . . . . . . . 17
2.2 Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.2 Isomorphismus . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.3 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.4 Beispiele von Homomorphismen . . . . . . . . . . . . . . . . 18
2.2.5 Bild und Kern von Homomorphismen . . . . . . . . . . . . . 19
2.2.6 Faktorgruppe nach dem Kern und Homomorphiesatz . . . . . 19
2.2.7 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3 Ringe, Körper, Polynome 22
3.1 Definitionen: Ring und Körper . . . . . . . . . . . . . . . . . . . . . 22
3.1.1 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.3 Nullteilerfreiheit . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.4 Gegenbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.5 Unterringe . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.6 Ringhomomorphismen . . . . . . . . . . . . . . . . . . . . . 24
3.1.7 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.8 Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.9 Eigenschaften von Körpern . . . . . . . . . . . . . . . . . . . 24
2
3.1.10 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.11 Der Körper der komplexen Zahlen . . . . . . . . . . . . . . . 25
3.2 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.3 Polynomringe . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.2.4 Gradformel . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2.5 Nullteilerfreiheit . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.6 Polynomdivision . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.7 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.8 Folgerungen, Nullstellen . . . . . . . . . . . . . . . . . . . . 32
3.2.9 Fundamentalsatz der Algebra . . . . . . . . . . . . . . . . . 33
3.2.10 Lemma von Bezout . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.11 Spezielle Faktorpolynomringe . . . . . . . . . . . . . . . . . 34
3.2.12 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4 Vektorräume 37
4.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.2 Weitere Eigenschaften . . . . . . . . . . . . . . . . . . . . . 37
4.1.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.4 Untervektorräume . . . . . . . . . . . . . . . . . . . . . . . 38
4.1.5 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1.6 Durchschnitte von Unterräumen sind Unterräume . . . . . . . 39
4.1.7 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1.8 Vereinigung von Unterräumen ist kein Unterraum . . . . . . . 40
4.1.9 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.10 Lineares Erzeugnis . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.11 Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . . 41
4.1.12 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1.13 Charakterisierung der linearen Unabhängigkeit . . . . . . . . 42
4.2 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.1 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.2 Charakterisierung des Vektorraums durch eine seiner Basen . 43
4.2.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.4 Alternative Definitionen . . . . . . . . . . . . . . . . . . . . 44
4.2.5 Existenz einer Basis für endlich erzeugbare Vektorräume . . . 45
4.2.6 Austauschlemma . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2.7 Austauschsatz von Steinitz . . . . . . . . . . . . . . . . . . . 46
4.2.8 Alle Basen haben gleich viele Elemente . . . . . . . . . . . . 47
4.2.9 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.10 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.11 Dimension von Unterräumen . . . . . . . . . . . . . . . . . . 48
4.3 Unendlichdimensionale Vektorräume . . . . . . . . . . . . . . . . . . 48
4.3.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.3.2 Halbordnungen . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.3.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3.4 Ketten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3.5 Lemma von Zorn . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3.6 Basisexistenzsatz für beliebige Vektorräume . . . . . . . . . . 49
3
4.4 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.4.2 Zeilenstufenform . . . . . . . . . . . . . . . . . . . . . . . . 50
4.4.3 Kriterium für lineare Unabhängigkeit . . . . . . . . . . . . . 51
4.4.4 Zeilenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.4.5 Elementare Zeilenumformungen . . . . . . . . . . . . . . . . 51
4.4.6 Elementare Zeilenumformungen sind zeilenraumerhaltend . . 52
4.4.7 Weitere Zeilenumformungen . . . . . . . . . . . . . . . . . . 52
4.4.8 Jede Matrix kann in Zeilenstufenform umgeformt werden . . 53
4.4.9 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.5 Summen und direkte Summen . . . . . . . . . . . . . . . . . . . . . 54
4.5.1 Summe von Untervektorräumen . . . . . . . . . . . . . . . . 54
4.5.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.5.3 Summe und Erzeugnis . . . . . . . . . . . . . . . . . . . . . 55
4.5.4 Dimensionsformel . . . . . . . . . . . . . . . . . . . . . . . 55
4.5.5 Direkte Summe . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.5.6 Existenz von komplementären Unterräumen . . . . . . . . . . 56
4.5.7 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5 Lineare Abbildungen 57
5.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . 57
5.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.3 Lineare Abbildungen sind Vektorraumhomomorphismen . . . 58
5.1.4 Eigenschaften von linearen Abbildungen . . . . . . . . . . . 58
5.1.5 Komposition linearer Abbildungen sind linear . . . . . . . . . 59
5.1.6 Vektorräume der Homomorphismen . . . . . . . . . . . . . . 59
5.1.7 Menge der Endomorphismen . . . . . . . . . . . . . . . . . . 60
5.2 Bild, Faser, Kern . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.2.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.2.2 Rang einer linearen Abbildung . . . . . . . . . . . . . . . . . 62
5.2.3 Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . 62
5.2.4 Faserung eines Vektorraums . . . . . . . . . . . . . . . . . . 62
5.2.5 Affine Teilräume . . . . . . . . . . . . . . . . . . . . . . . . 63
5.2.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.2.7 Charakterisierung von affinen Unterräumen . . . . . . . . . . 63
6 Bildquellen 64
4
1 Grundbegriffe
1.1 Mengen und Abbildungen
1.1.1 Mengennotationen
∈ ¦ ¦ ⊂ ⊆ ∪ ∩ `
¦1, 3, 5, 7, 9¦
. .. .
explizite Nennung
= ¦a ∈ N [ a ungerade, a < 10¦
. .. .
implizit durch Eigenschaften
1.1.2 Zahlenmengen
N, Z, Q, R, C
1.1.3 Rechenregeln
Seien A, B, C, N
i
....
verschiedene i von 1 bis n
⊆ X
• A∪ B = B ∪ A, A∩ B = B ∩ A - kommutativ
• (A∩ B) ∩ C) = (A∩ (B ∩ C)), (A∩ B) ∩ C) = (A∩ (B ∩ C)) - assoziativ

A∪

¸
i∈I
N
i

. .. .
N
1
∩N
2
∩...∩N
n
=
¸
i∈I
(A∪ N
i
)
A∩

¸
i∈I
N
i

=
¸
i∈I
(A∩ N
i
)
distributiv
1.1.4 Abbildungen
Definition 1.1.
f : X → Y, x → f(x)
bedeutet f ordnet jedem x ∈ X ein y = f(x) ∈ Y zu.
• A ⊆ X Bild von A: f(A) = ¦y ∈ Y [ x ∈ a ∧ f(x) = y¦
• B ⊆ Y Urbild von B: f
−1
(B) = ¦x ∈ Y [ f(x) ∈ B¦
• injektiv: Keine zwei Elemente von X werden auf dasselbe Element abbgebildet
(engl. one-to-one).
• surjektiv: Jedes Element aus y ist ein f(x) (liegt im Bild von X) (engl. onto).
• bijektiv: injektiv + surjektiv
Lemma 1.1. Seien X, Y endlich, f : X → Y eine Abbildung. Es gilt
5
(a) f ist injektiv ⇐⇒ [X[ = [f(X)[.
(b) f ist surjektiv ⇐⇒ f(X) = Y ⇐⇒ [f(X)[ = [Y [.
Beweis. a) Illustration
Es muss gelten [X[ = [Pfeile[. Injektivität heißt nun, dass auf kein Element 2
oder mehr Pfeilspitzen zeigen, also gilt [Pfeilspitzen[ = [f(x)[. Zusammen folgt
[X[ = [Pfeile[ = [Pfeilspitzen[ = [f(X)[
b)
Satz 1.1.1. Sei X eine endliche Menge und f : X → X eine Abbildung, dann ist
äquivalent
(a) f ist injektiv
(b) f ist surjektiv
(c) f ist bijektiv
Beweis. (a) ⇔(b)
Aus dem Lemma folgt:
f ist injektiv ⇐⇒ [X[ = [f(X)[ ⇐⇒ [f(X)[ = [X[ (= [Y [) ⇐⇒ f ist surjektiv
Aus (a) und (b) folgt direkt (c).
Achtung. Wenn X unendlich ist, dann wird der Satz falsch.
Es gibt surjektive Abbildungen f : R →R
2
, z.B.
x = 0, x
1
x
2
x
3
. . . →

y
x
= 0, x
1
x
3
x
5
. . .
z
x
= 0, x
2
x
4
x
6
. . .
(Darstellung von reellen Zahlen als unendliche p-adische Brüche ist nicht eindeutig!)
1.1.5 Komposition von Abbildungen
Definition 1.2. Seien
f : X → Y, g : Y → Z
dann wird definiert
g ◦ f : X → Z
x → (g ◦ f)(x) = g(f(x))
X
f
→Y
g
→ Z
X
g◦f
→ Z
6
1.1.6 Identität
Definition 1.3. Eine spezielle Abbildung ist die wie folgt definierte Identität id
X
auf
einer Menge X
id
X
: X → X
x → x
Für die Identität gilt
f ◦ id
X
= id
Y
◦f = f
Lemma 1.2. Sei f : X → Y eine Abbildung.
(a) f ist injektiv ⇐⇒ ∃ g : Y → X mit g ◦ f = id
X
(b) f ist surjektiv ⇐⇒ ∃ g : Y → X mit f ◦ g = id
Y
(c) f ist bijektiv ⇐⇒ ∃ g : Y → X mit g ◦ f = id
X
∧f ◦ g = id
Y
Beweis. (a) Illustration
Von allen Elementen aus Y , auf die ein Pfeil zeigt, geht der Pfeil für die Ab-
bildung g auf demselben Weg zurück. Man dreht die Pfeile also praktisch um.
Alle Elemente von Y , auf die kein Pfeil zeigt, werden durch g auf ein beliebiges
Element von X abgebildet.
In der Hinrichtung ist zu zeigen: [∃ g Y → X : g ◦ f = id
X
] ⇒ f ist injek-
tiv.
Wir zeigen: f ist nicht injektiv ⇒∃ g Y → X : g ◦ f = id
X
.
Wenn f nicht injektiv ist, gibt es zwei Elemente aus X, die auf dasselbe Element
aus Y abgebildet wird, also
∃ x
1
, x
2
∈ X : x
1
= x
2
∧ f(x
1
) = f(x
2
) = y ∈ Y
Wenn g(y) = x
1
, dann ist (g ◦ f)(x
2
) = x
1
= x
2
, also ist g = id
X
.
Wenn g(y) = x
2
, dann ist (g ◦ f)(x
1
) = x
2
= x
2
, also ist g = id
X
.
Wenn g(y) = x
3
, x
3
= x
1
, x
3
= x
2
, dann ist (g ◦ f)(x
2
) = x
3
= x
2
, also ist
g = id
X
.
Für jedes g gibt es ein Element x ∈ X, das durch g ◦ f nicht auf sich selbst
abgebildet wird, also gibt es kein g mit g ◦ f = id
X
.
Die Rückrichtung ist klar: Da g eine Abbildung ist, wird f(x
1
) = f(x
2
) dasselbe
Element x
1
= x
2
zugeordnet.
(b) Illustration
7
Man sucht für jedes Element in Y einen Pfeil aus, der auf es zeigt, und kehrt es
um. Also wähle x
y
∈ f
−1
(¦y¦) und definiere: g(y) = x
y
, dann gilt (f ◦g)(y) =
f(x
y
) = y, also insgesamt f ◦ g = id
Y
.
Bemerkung. Man benötigt hierbei das Auswahlaxiom.
Wenn f nicht surjektiv ist, dann ∃ y
0
∈ Y ∀ x ∈ X : f(x) = y
0
. Wenn
g(y
0
) = x
0
∈ X, dann folgt (f ◦ g)(y
0
) = f(x
0
) = y
0
, also kann f ◦ g nicht
id
Y
sein. Es gibt also kein g mit dieser Eigenschaft.
Die Rückrichtung ist auch hier klar: Da g eine Abbildung ist, wird jedem y ∈ Y
ein x ∈ X zugeordnet, sodass f(x) = y gilt.
(c) Illustration
Man dreht die Pfeile einfach um.
Der formale Beweis stützt sich auf (a) und (b).
1.1.7 Menge aller Abbildungen
Wie viele Abbildungen von X nach Y gibt es?
Wenn X, Y endliche Mengen sind, dann kommt es nur auf die Anzahl der Elemente
von X und Y an.
Sei [n] = ¦1, 2, 3, . . . , n¦ für ein n ∈ N.
Wie viele Abbildungen von [n] nach [m] gibt es?
Antwort: m
n
.
Definition 1.4. Daraus „ergibt“ sich die symbolische Schreibweise Y
X
:= ¦f : X → Y ¦
für die Menge aller Abbildungen von X nach Y .
1.1.8 Produkte von Mengen
Definition 1.5. Für zwei Mengen X, Y wird das kartesische Produkt von X mit Y
definiert als
X Y := ¦(x, y) [ x ∈ X, y ∈ Y ¦
8
Intutiv wird definiert
X
n
:= X X . . . X
. .. .
n-mal
(Wir lassen die Klammern weg.)
= ¦(x
1
, x
2
, . . . , x
n
) [ x
i
∈ X ∀ i = 1, . . . , n¦
=
¸
(x
i
)
i∈[n]
: x
i
∈ X
¸
= ¦f : [n] → X¦
1.2 Äquivalenzrelationen
1.2.1 Relationen
Definition 1.6. Eine Relation R ist eine Teilmenge von X Y , also
R ⊆ X Y
Man schreibt xRy um zu kennzeichnen: (x, y) ∈ R.
1.2.2 Äquivalenzrelationen
Definition 1.7. Äquivalenzrelationen sind Relationen ∼⊆ X X mit den Eigen-
schaften
A1 Reflexivität: x ∼ x ∀ x ∈ X,
A2 Symmetrie: x ∼ y ⇔ y ∼ x ∀ x, y ∈ X und
A3 Transitivität: x ∼ y ∧ y ∼ z ⇒ x ∼ z ∀ x, y, z ∈ X.
1.2.3 Beispiele
• „=“ - Gleichheitsrelation auf einer Menge
• X als eine Gruppe von Personen, ∼ - Gleichaltrigkeit
1.2.4 Partitionen
Definition 1.8. Eine Partition einer Menge X ist eine Zerlegung von X in paarweise
disjunkte Teilmengen (X
i
)
i∈I
, d.h.

¸
i∈I
X
i
= X
• X
i
∩ X
j
= ∅ i, j ∈ I, i = j
• X
i
= ∅ ∀ i ∈ I
Satz 1.2.1. Sei X eine Menge. Partition von X und Äquivalenzrelationen entsprechen
einander.
Beweis. Sei (X
i
)
i∈I
eine Partition. Wir definieren:
x ∼ y ⇐⇒ ∃ i ∈ I : x ∈ X
i
∧ y ∈ X
i
Zu zeigen: ∼ ist eine Äquivalenzrelation:
9
A1 Sei x ∈ X, dann gilt x ∈ X
i
⇔ x ∈ X
i
.
A2 Seien x, y ∈ X, dann gilt (x ∈ X
i
∧ y ∈ X
i
) ⇔ (x ∈ X
i
∧ y ∈ X
i
).
A3 Seien x, y, z ∈ X und gelte (x ∈ X
i
∧ y ∈ X
i
) ∧ (y ∈ X
j
∧ z ∈ X
j
). Daraus
folgt wegen der Disjunktheit der Klassen X
i
= X
j
, also x ∈ X
j
∧ z ∈ X
j
.
Definition 1.9. Sei andererseits ∼ eine Äquivalenzrelation auf X, dann wird definiert
[x] = ¦y ∈ X [ x ∼ y¦
ist die Äquivalenzklasse von x. x wird Repräsentant der Klasse genannt.
Zu zeigen: ¦[x] [ x ∈ X¦ ist eine Partition von X.
¸
x∈X
[x] = X
Seien x, z ∈ X mit x = z. Es gilt entweder: x ∼ z und damit x ∼ y ∀ y ∈ [z] und
z ∼ y ∀ y ∈ [x], also [x] = [z]; oder es gilt x ∼ z, also [x] ∩ [z] = ∅: Angenommen
der Schnitt wäre nicht leer, dann gäbe es ein y, für das gilt x ∼ y und y ∼ z. Wegen
der Transitivität gilt dann auch x ∼ z, Widerspruch.
Die Menge der Äquivalenzklassen bildet eine Partition auf X.
10
2 Gruppen
2.1 Definitionen
2.1.1 Innere Verknüpfung
Definition 2.1. Eine Gruppe ist ein Paar (G, ◦), wobei Geine Menge und ◦ eine (innere
zweistellige) Operation auf G ist, also eine Abbildung GG → G.
Statt ◦((g, h)) = r für drei Elemente g, h, r ∈ G schreiben wir g ◦ h = r.
2.1.2 Beispiele

◦ : X
X
X
X
→ X
X
(f, g) → f ◦ g
Verknüpfung von Abbildungen von X nach X ((X
X
, ◦) ist keine Gruppe!)

+ : Z Z →Z
(a, b) → a +b
2.1.3 Gruppe
Definition 2.2. (G, ◦) ist eine Gruppe, wenn gilt
G1 Assoziativgesetz: (a ◦ b) ◦ c = a ◦ (b ◦ c) ∀ a, b, c ∈ G
G2 Existenz eines (links-)neutralen Elements: ∃ e ∈ G : e ◦ a = a ∀ a ∈ A
G3 Existenz von (links-)inversen Elementen: ∃ a
−1
∈ G : a
−1
◦ a = e ∀ a ∈ A.
(G, ◦) ist kommutative Gruppe (abelsche Gruppe), wenn gilt:
a ◦ b = b ◦ a ∀ a, b ∈ G
2.1.4 Beispiele
• (Z, +) ist eine Gruppe:
– neutrales Element: 0
– Inverses von a ∈ Z: −a
• (N, +) ist keine Gruppe, weil 1 kein Inverses hat.
• (Z, −) ist keine Gruppe, weil „−“ nicht assoziativ ist.
• (Q, +), (R, +) ⊇ (Z, +).
• (Q
+
, ) ist ein Gruppe:
– neutrales Element: 1
– Inverses von a ∈ Q
+
:
1
a
11
-1 1
-1 1 -1
1 -1 1
• (¦−1, 1¦ , ) ist eine Gruppe. Gruppentafel
– Es gilt ¦−1, 1¦ ⊂ Q

, wodurch sich die Assoziativität von (Q

, ) über-
trägt.
– Wie man aus der Tafel ablesen kann, gilt: 1 (−1) = (−1), 1 1 = 1, also
ist 1 neutrales Element.
– Wie man aus der Tafel ablesen kann, gilt:
(−1) (−1) = 1 ⇒ (−1)
−1
= (−1)
1 1 = 1 ⇒ 1
−1
= 1
• T
4
- Diedergruppe der Ordnung 4, Symmetriegruppe des Quadrats
Die Elemente dieser Gruppe sind die Symmetrien, d.h. Selbstabbildungen des
Quadrats:
Drehungen: d
a
- Drehung der Ecke 0 auf die Ecke a:
– d
0
- Drehung um 90

(in mathematisch positive Richtung)
– d
1
- Drehung um 180

– d
2
- Drehung um 270

– d
3
- Drehung um 270

(Achsen-)Spiegelungen: s
a
- Spiegelung der Ecke 0 auf die Ecke a: s
0
, s
1
, s
2
, s
3
Jede Symmetrie kann man als Permutation der Ecken beschreiben, z.B.
d
1
=

0 1 2 3
1 2 3 0

Die Operation ist die Hintereinanderausführung der Abbildungen.
• T
6
- Diedergruppe der Ordnung 6, Symmetriegruppe des regelmäßigen Sechs-
ecks
12
Behauptung: T
6
= (¦d
a
, s
a
[ a ∈ ¦0, . . . , 5¦¦ , ◦) ist eine Gruppe.
Beweis. Seien die Bezeichnungen wie oben gegeben. Im Folgenden wird in den
Indizes immer modulo 6 gerechnet.
– Assoziativität: Verknüpfungen von Abbildungen sind immer assoziativ.
– Einheit: d
0
ist die Identität (alle Ecken werden auf sich selbst „gedreht“).
– Inverse:
∗ d
−1
a
= d
−a
, denn die Umkehrung einer Drehung ist die Drehung um
denselben Winkel in die Gegenrichtung.
∗ s
−1
a
= s
a
, denn die Umkehrung einer Spiegelung ist die erneute Spie-
gelung an derselben Achse.
– Abgeschlossenheit: Die Auswertung von 144 Produkten ist zu aufwändig,
weswegen man systematisch vorgeht:
1. d
a
◦d
b
= d
a+b
- Klar, Hintereinanderausführung von Drehung ist eine
Drehung um die Summe der einzelnen Winkel.
2. d
a
◦s
0
= s
a
- Eine Spiegelung s
a
kehrt generell die Durchlaufrichtung
der Ecken um und lässt die Zählung bei a beginnen. s
0
kehrt lediglich
die Durchlaufrichtung um, die anschließende Drehung d
a
dreht eigent-
lich −a auf 0, wegen der umkehrten Reihenfolge dreht sie aber a auf
0, lässt die Zählung bei immer noch umgekehrter Reihenfolge also bei
a beginnen.
3. s
0
◦ d
a
= s
−a
- d
a
dreht 0 auf a, s
0
kehrt die Durchlaufreihenfolge
um, also liegt 0 nun auf der Ecke, die am Anfang −a hieß.
4. s
0
◦ s
0
= d
0
- Klar.
Unter Verwendung von 1.-4. kann man nachrechnen:
d
a
◦ s
b
= d
a
◦ (d
b
◦ s
0
) = (d
a
◦ d
b
) ◦ s
0
= d
a+b
◦ s
0
= s
a+b
s
a
◦ d
b
= (d
a
◦ s
0
) ◦ d
b
= d
a
◦ (s
0
◦ d
b
) = d
a
◦ s
−b
= s
a−b
s
a
◦ s
b
= s
a
◦ (d
b
◦ s
0
) = (s
a
◦ d
b
) ◦ s
0
= s
a−b
◦ s
0
?
= d
a−b
13
2.1.5 Symmetrische Gruppen
Sei X eine Menge. Sym(X) ist die Menge aller bijektiven Abbildungen von X nach
X mit der Verknüpfung als Operation. Sym(X) ist eine Gruppe.
Beweis. erfolgt durch Nachweis der Gruppenaxiome:
G1 Verknüpfung von Abbildungen ist immer assoziativ.
Beweis. Seien π, σ, τ Abbildungen von X nach Y und i ∈ X. Dann gilt
((π◦σ) ◦τ)(i) = (π◦σ)(τ(i)) = π(σ(τ(i))) = π((σ◦τ)(i)) = (π◦(σ◦τ))(i)
G2 id
X
ist das neutrale Element, denn es gilt für ein π ∈ Sym(X)
id
X
◦π = π
G3 Zu jeder bijektiven Abbildung f gibt es Laut Lemma 1.2 eine Abbildung g :
X → X (also g ∈ Sym(X)) mit g ◦ f = id
X
.
Ab S
3
sind symmetrische Gruppen nicht mehr kommutativ, z.B. ist

1 2 3
1 3 2

1 2 3
2 1 3

=

1 2 3
3 1 2

aber

1 2 3
2 1 3

1 2 3
1 3 2

=

1 2 3
2 3 1

Satz. S
n
hat genau n! Elemente.
Beweis. Es gibt n! Permutationen von n Elementen.
2.1.6 Beispiel
Sei X = [5].
Eine bijektive Abbildung [5] → [5] können wir in 2-Zeilennotation beschreiben.
Seien
π =

1 2 3 4 5
4 2 1 5 3

, σ =

1 2 3 4 5
4 5 1 2 3

Dann ist
π ◦ σ =

1 2 3 4 5
5 3 4 2 1

Das neutrales Element ist
id
[5]
=

1 2 3 4 5
1 2 3 4 5

14
Das Inverse von
π =

1 2 3 4 5
z
1
z
2
z
3
z
4
z
5

ist
π
−1
=

z
1
z
2
z
3
z
4
z
5
1 2 3 4 5

2.1.7 Eigenschaften von Gruppen
Satz 2.1.1. Sei (G, ◦) eine Gruppe.
i) Das neutrale Element ist eindeutig.
ii) Das (links-)neutrale Element ist auch rechtsneutral, d.h. für alle g ∈ Ggilt e◦g =
g ◦ e = g.
iii) Die inversen Elemente sind eindeutig.
iv) Das (links-)inverse Element eines Elementes g ∈ G ist auch rechtsinvers, d.h. es
gilt g
−1
◦ g = g ◦ g
−1
= e.
v) Für a, b ∈ G gilt (a ◦ b)
−1
= b
−1
◦ a
−1
.
vi) Für alle a ∈ G: (a
−1
)
−1
= a.
vii) Für alle a, b, c ∈ G: a ◦ b = a ◦ c ⇔ b = c.
Beweis. Sei (G, ◦) eine Gruppe und a, b, c ∈ G und e neutrales Element von G.
ii) Sei b = a
−1
und c = b
−1
, d.h. nach G3 b ◦ a = e und c ◦ b = e. D.h.
c ◦ e = c ◦ (b ◦ a)
G1
= (c ◦ b) ◦ a = e ◦ a
G2
= a
⇒ a ◦ e = (c ◦ e) ◦ e
G1
= c ◦ (e ◦ e)
G2
= c ◦ e = a
i) Angenommen es gibt ein weiteres neutrales Element ˜ e, d.h. für alle a ∈ G gilt
˜ e ◦ a = a. Dann gilt auch
˜ e
G2
= e ◦ ˜ e
ii)
= ˜ e ◦ e = e
iv) Sei b = a
−1
, d.h. nach G3 b ◦ a = e. Dann gilt
b ◦ a = e ⇔
b ◦ (b ◦ a) = b ◦ e = e ◦ b = (b ◦ a) ◦ b = b ◦ (a ◦ b) ⇔
b
−1
◦ (b ◦ (b ◦ a)) = b
−1
◦ (b ◦ (a ◦ b)) ⇔
(b
−1
◦ b) ◦ (b ◦ a) = (b
−1
◦ b) ◦ (a ◦ b) ⇔
e ◦ (b ◦ a) = e ◦ (a ◦ b) ⇔
b ◦ a = a ◦ b
D.h. aber a ◦ a
−1
= a
−1
◦ a = e.
15
iii) Angenommen b sei auch inverses Element von a, also b ◦ a = e. Dann gilt auch
(b ◦ a) ◦ a
−1
= e ◦ a
−1
G1

b ◦ (a ◦ a
−1
) = e ◦ a
−1
G2

b ◦ (a ◦ a
−1
) = a
−1
iv)

b ◦ e = a
−1
ii)

b = a
−1
v) Es gilt
(a ◦ b) ◦ (b
−1
◦ a
−1
)
G1
= (a ◦ (b ◦ b
−1
)) ◦ a
−1
iv)
= (a ◦ e) ◦ a
−1
ii)
= a ◦ a
−1
iv)
= e
Weil es nach iii) nur genau ein inverses Element zu a ◦ b gibt, gilt (a ◦ b)
−1
=
b
−1
◦ b.
vi) Nach iv) gilt a ◦ a
−1
= e, also ist nach G3 a invers zu a
−1
, also ist nach iii)
(a
−1
)
−1
= a.
vii) Es gilt
a ◦ b = a ◦ c ⇔
a
−1
◦ (a ◦ b) = a
−1
◦ (a ◦ c)
G1

(a
−1
◦ a) ◦ b = (a
−1
◦ a) ◦ c
G3

e ◦ b = e ◦ c
G2

b = c
Satz. Jede Gruppe mit maximal vier Elementen ist abelsch.
Beweis. Sei (G, ◦) eine Gruppe.
Beweis durch Kontraposition: Wenn G nicht abelsch ist, dann hat G fünf oder mehr
Elemente.
Sei also G nicht abelsch, d.h. ∃ a, b ∈ G mit a ◦ b = b ◦ a. Es genügt zu zeigen:
e, a, b, a ◦ b, b ◦ a sind paarweise verschieden.
i) a ◦ b = b ◦ a nach Voraussetzung.
ii) a = e, b = e:
Angenommen a = e, dann würde gelten: a ◦ b = e ◦ b
G2
= b
G2
= b ◦ e = b ◦ a,
Widerspruch zu i). Analoges bei b = e.
iii) a ◦ b = a:
Angenommen a◦b = a, dann gilt auch a
−1
◦a◦b = a
−1
◦a, nach G3: e◦b = e,
also nach G2 b = e, Widerspruch zu ii).
iv) Analoges für a ◦ b = b.
16
v) a = b: Angenommen a = b, dann wäre auch a ◦ b = a ◦ a = b ◦ a, Widerspruch
zu i).
vi) a ◦ b = e:
Angenommen a◦b = e, dann wäre nach 2.1.7. iv) auch b◦a = e, also a◦b = b◦a,
Widerspruch zu i).
vii) Analog zu iii)-vi) folgen die Ungleichungen für b ◦ a.
Da alle fünf Elemente paarweise verschieden sind, hat G mindestens diese fünf Ele-
mente.
2.1.8 Untergruppen
Definition 2.3. Ist (G, ◦) eine Gruppe und H ⊆ G, dann ist (H, ◦) eine Untergruppe
von G, wenn (H, ◦) eine Gruppe ist.
2.1.9 Beispiel
• (Z, +) ist eine Untergruppe von (Z, +).
• Untergruppen des T
6
:
– (¦d
a
[ a ∈ ¦0, . . . , 5¦¦ , ◦) ist eine Untergruppe, genannt die zyklische Un-
tergruppe der Ordnung 6.
– (¦s
a
, d
0
¦ , ◦)ist eine Untergruppe für a ∈ ¦0, . . . , 5¦.
• T
6
ist Untergruppe von S
6
= Sym(¦0, . . . , 5¦).
2.1.10 Untergruppenkriterium
Proposition 2.1.1. Wenn (G, ◦) eine Gruppe ist und H ⊆ G, dann ist (H, ◦) eine
Untergruppe, wenn gilt
UG1 e ∈ H (äquivalent zu H = ∅)
UG2 Wenn h ∈ H, dann ist auch h
−1
∈ H.
UG3 Mit h, i ∈ H ist auch h ◦ i ∈ H.
Beweis. Sei (G, ◦) eine Gruppe und H ⊆ G. Wegen UG3 ist H unter ◦ abgeschlossen.
Weiterhin gilt
G1 Assoziativität wird vererbt: Wenn die Elemente aus H bezüglich ◦ nicht assozia-
tiv wären, wären sie auch in G bezüglich ◦ nicht assoziativ.
G2 Neutrales Element ist dasselbe wie in G, das nach UG1 auch in H liegt.
G3 Die inversen Elemente sind dieselben wie in G und nach UG2 auch in H.
17
2.2 Homomorphismen
2.2.1 Definition
Seien (G, ◦) und (H, ∗) Gruppen.
Definition 2.4. Eine Abbildung ϕ : G → H ist ein Gruppenhomomorphismus, wenn
gilt
ϕ(a ◦ b) = ϕ(a) ∗ ϕ(b) ∀ a, b ∈ G
2.2.2 Isomorphismus
Definition 2.5. Ist ϕ bijektiv, dann ϕ ein Isomorphismus.
2.2.3 Eigenschaften
Satz 2.2.1. Wenn ϕ : (G, ◦) → (H, ∗) ein Homomorphismus ist, dann gilt
i) ϕ(e
G
) = e
H
ii) ϕ(a
−1
) = ϕ(a)
−1
Beweis. ϕ : (G, ◦) → (H, ∗) ein Homomorphismus, dann gilt
i) ϕ(a) ∗ e
H
= ϕ(a) = ϕ(a ◦ e
G
) = ϕ(a) ∗ ϕ(e
G
), gekürzt: e
H
= ϕ(e
G
).
ii) ϕ(a) ∗ ϕ(a)
−1
= e
H
i)
= ϕ(e
G
) = ϕ(a ◦ a
−1
) = ϕ(a) ∗ ϕ(a
−1
), gekürzt:
ϕ(a)
−1
= ϕ(a
−1
).
2.2.4 Beispiele von Homomorphismen
1. (H, ◦) eine Untergruppe von (G, ◦), dann ist die Einbettung
ϕ : H → G
ϕ(h) = h ∀ h ∈ H
ein Homomorphismus.
2.
ϕ : (Z, +) → (R
+
, )
a → exp(a)
ist ein Homomorphismus, denn für beliebige a, b ∈ Z gilt nach Funktionalglei-
chung der Exponentialfunktion
ϕ(a +b) = exp(a +b) = exp(a) exp(b)
3.
ϕ : (Z, +) → (Z, +)
a → m a
ist ein Homomorphismus, denn für beliebige a, b ∈ Z gilt
ϕ(a +b) = m (a +b)
D
= m a +m b
18
2.2.5 Bild und Kern von Homomorphismen
Definition 2.6. Sei ϕ : G → H ein Gruppenhomomorphismus. Dann wird definiert
• im(ϕ) := ¦h ∈ H [ ∃ g ∈ G : ϕ(g) = h¦ - Bild von ϕ
• ker(ϕ) := ¦g ∈ G[ ϕ(g) = e
H
¦ - Kern von ϕ
Satz 2.2.2. Sei ϕ : G → H ein Gruppenhomomorphismus, dann gilt
a) im(ϕ) ist eine Untergruppe von H.
b) ker(ϕ) ist eine Untergruppe von G.
Beweis. Seien also (G, ◦) und (H, ∗) Gruppen und ϕ : G → H ein Gruppenhomo-
morphismus.
a) UG1 e
H
∈ im(ϕ), weil gilt ϕ(e
G
) = e
H
.
UG2 Sei h ∈ im(ϕ), d.h. ∃ g ∈ G : ϕ(g) = h. Dann gilt ϕ(g
−1
) = ϕ(g)
−1
=
h
−1
, also h
−1
∈ im(ϕ).
UG3 Seien h
1
, h
2
∈ im(ϕ), d.h. ∃ g
1
, g
2
∈ G : ϕ(g
1
) = h
1
, ϕ(g
2
) = h
2
. Dann
gilt:
ϕ(g
1
◦ g
2
) = ϕ(g
1
) ∗ ϕ(g
2
) = h
1
∗ h
2
also ist h
1
∗ h
2
∈ im(ϕ).
b) UG1 e
G
∈ ker(ϕ), weil gilt ϕ(e
G
) = e
H
.
UG2 Sei g ∈ ker(ϕ), d.h. ϕ(g) = e
H
. Dann gilt ϕ(g
−1
) = ϕ(g)
−1
= e
−1
H
=
e
H
, also g
−1
∈ ker(ϕ).
UG3 Seien g
1
, g
2
∈ im(ϕ), d.h. ϕ(g
1
) = ϕ(g
2
) = e
H
. Dann gilt:
ϕ(g
1
◦ g
2
) = ϕ(g
1
) ∗ ϕ(g
2
) = e
H
∗ e
H
= e
H
also ist g
1
∗ g
2
∈ ker(ϕ).
2.2.6 Faktorgruppe nach dem Kern und Homomorphiesatz
Sei ϕ : (G, ◦) → (H, ∗) ein Gruppenhomomorphismus.
Auf Gdefinieren wir eine Relation a ∼
ϕ
b ⇔ ϕ(a) = ϕ(b). ∼
ϕ
ist eine Äquivalenzre-
lation (weil sie über die Gleichheit definiert ist, die bekanntermaßen Äquivalenzrelation
ist).
Diese Äquivalenzrelation induziert eine Partition von G in Klassen. Die Klasse von a
bezeichen wir mit [a] = ¦b ∈ G[ ϕ(a) = ϕ(b)¦.
Illustration
Auf den Klassen wird die Operation definiert: [a] [b] = [a ◦ b].
Die Operation ist wohldefiniert (repräsentantenunabhängig).
19
Beweis. Seien [a] = [a

] und [b] = [b

]. Es gilt
[a] [b] := [a ◦ b]
= ¦g ∈ G[ ϕ(g) = ϕ(a ◦ b)¦
= ¦g ∈ G[ ϕ(g) = ϕ(a) ∗ ϕ(b)¦
= ¦g ∈ G[ ϕ(g) = ϕ(a

) ∗ ϕ(b


= ¦g ∈ G[ ϕ(g) = ϕ(a

◦ b


= [a

◦ b

] = [a

] [b

]
Satz 2.2.3. (Homomorphiesatz)
Wenn ϕ : (G, ◦) → (H, ∗) ein Gruppenhomomorphismus ist, dann gilt G/ker ϕ :=
(¦[a] [ a ∈ G¦ , ) ist eine Gruppe und
˜ ϕ : G/ker ϕ → imϕ,
˜ ϕ([a]) = ϕ(a)
ist ein Isomorphismus, sodass das Diagramm kommutiert
(Diagramm hier einfügen ˆˆ)
also G/ker ϕ und imϕ isomorph („im Wesentlichen gleich“) sind.
Beweis. Sei also ϕ : (G, ◦) → (H, ∗) ein Gruppenhomomorphismus und G/ker ϕ wie
oben definiert.
i) Die Gruppeneigenschaften von (G/ker ϕ, ) folgen im Grunde direkt aus deren
Gültigkeit in (G, ◦):
– G/ker ϕ ist über abgeschlossen, denn seien [a], [b] ∈ G/ker ϕ beliebig,
dann gilt
[a] [b] = [a ◦ b] ∈ G/ker ϕ
weil a ◦ b ∈ G.
G1 Für [a], [b], [c] ∈ G/ker ϕ gilt
([a] [b]) [c] = [a ◦ b] [c]
= [(a ◦ b) ◦ c]
= [a ◦ (b ◦ c)]
= [a] [b ◦ c]
= [a] ([b] [c])
G2 [e
G
] ist neutrales Element der Struktur, denn es gilt für alle [a] ∈ G/ker ϕ
[e
G
] [a] = [e
G
◦ a] = [a]
G3 Das Inverse von [a] ∈ G/ker ϕ ist [a
−1
], denn es gilt
[a
−1
] [a] = [a
−1
◦ a] = [e
G
]
ii) ˜ ϕ ist ein Homomorphismus, denn es gilt für beliebige [a], [b] ∈ G/ker ϕ
˜ ϕ([a] [b]) = ˜ ϕ([a ◦ b]) = ϕ(a ◦ b) = ϕ(a) ∗ ϕ(b) = ˜ ϕ([a]) ∗ ˜ ϕ([b])
20
iii) ˜ ϕ ist bijektiv:
– ˜ ϕ ist injektiv: Seien [a], [b] ∈ G/ker ϕ mit ˜ ϕ([a]) = ˜ ϕ([b]), d.h. aber
ϕ(a) = ϕ(b), also [a] = [b].
– ˜ ϕ ist surjektiv: Sei y ∈ imϕ, d.h. ∃ a ∈ G : ϕ(a) = y, also ˜ ϕ([a]) = y.
2.2.7 Beispiele

ϕ : (T
6
, ◦) → (Z
2
, +)
ϕ(d
a
) = 0, ϕ(s
a
) = 1 ∀ a ∈ ¦0, . . . , 5¦
ist ein Homomorphismus, denn es gilt für beliebige a, b ∈ ¦0, . . . , 5¦.
ϕ(d
a
◦ d
b
) = ϕ(d
a+b
) = 0 = 0 + 0 = ϕ(d
a
) +ϕ(d
b
)
ϕ(d
a
◦ s
b
) = ϕ(s
a+b
) = 1 = 0 + 1 = ϕ(d
a
) +ϕ(s
b
)
ϕ(s
b
◦ d
a
) = ϕ(s
a−b
) = 1 = 1 + 0 = ϕ(s
b
) +ϕ(d
a
)
ϕ(s
a
◦ s
b
) = ϕ(d
a−b
) = 0 = 1 + 1 = ϕ(s
a
) +ϕ(s
b
)
ϕ ist surjektiv: im(ϕ) = Z
2
.
ker(ϕ) = ¦d
a
[ a ∈ ¦0, . . . , 5¦¦ ist eine Untergruppe von T
6
.
Nach dem Homomorphisatz ist D/ker ϕ isomorph zu Z
2
.
• Es ist (Z
m
, +) = (¦[i] : i ∈ ¦0, . . . , m−1¦¦ , +
m
) die Restklassengruppe mo-
dulo m. Die in der Definition verwendeten i heißen kanonische Repräsentanten
der Klassen.
ϕ : Z →Z
m
i → [i]
ker(ϕ) = [0] = ¦x ∈ Z [ ∃ y ∈ Z : x = m y¦ = m Z, also gilt nach Homomorphi-
satz Z/mZ

= Z
m
.
21
3 Ringe, Körper, Polynome
3.1 Definitionen: Ring und Körper
3.1.1 Ringe
Definition 3.1. (R, +, ) ist ein Ring, wenn gilt
R1 (R, +) ist eine abelsche Gruppe.
R2 ist eine assoziative Operation R R → R.
R3 Es gelten die Distributivgesetze für beliebige a, b, c ∈ R:
a (b +c) = a b +a c
(a +b) c = a c +b c
(R, +, ) heißt kommutativ, wenn für beliebige a, b ∈ R gilt: a b = b a.
(R, +, ) ist ein Ring mit Eins, wenn ∃ 1 ∈ R mit 1 a = a 1 = a.
Bemerkung. Ist R ein Ring, so bezeichnet man das neutrale Element bezüglich + mit
0.
Es gilt: 0 a = a 0 = 0.
Beweis.
a 0 = a (0 + 0)
D
= a 0 +a 0 ⇔ 0 = a 0
0 a = 0 folgt analog.
3.1.2 Beispiele
1. (Z, +, ) ist ein kommutativer Ring mit Eins.
2. (R, +, ) ist ein kommutativer Ring mit Eins.
3. Sei R = ¦f : [0, 1] →R¦ mit den Operationen + und , die wie folgt definiert
sind
(f +g)(x) := f(x) +g(x) ∀ x ∈ [0, 1]
(f g)(x) := f(x) g(x) ∀ x ∈ [0, 1]
(R, +, ) ist ein kommutativer Ring mit Eins. Aber es gibt nicht für alle Elemente
von (R, +, ) multiplikative Inverse.
4. (Z
m
, +, ) ist ein kommutativer Ring mit Eins.
5. (2Z, +, ) ist ein kommutativer Ring ohne Eins, denn 1 ∈ 2Z.
6. (R
n×n
, +, ) - der Ring der quadratischen reellen Matrizen - ist ein Ring mit
Eins, wobei
R
n×n
:=

¸
¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
¸

[ a
ij
∈ R ∀ i, j = 1, . . . , n

=

(a
ij
)
i,j=1,...,n
[ a
ij
∈ R ∀ i, j = 1, . . . , n
¸
22
und die Addition komponentenweise:
(a
ij
)
i,j=1,...,n
+ (b
ij
)
i,j=1,...,n
= (a
ij
+b
ij
)
i,j=1,...,n
und die Multiplikation wie folgt definiert ist
(a
ij
)
i,j=1,...,n
+ (b
ij
)
i,j=1,...,n
=

n
¸
k=1
a
ik
b
ik

i,j=1,...,n
Dann ist (0)
i,j=1,...,n
das neutrale Element der Multiplikation, entsprechend
(−a
ij
)
i,j=1,...,n
das additive Inverse zu (a
ij
)
i,j=1,...,n
.

¸
¸
¸
¸
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1
¸

ist das neutrale Element der Multiplikation.
Der Ring ist ab n = 2 nicht kommutativ, denn es gilt beispielsweise

1 1
0 1

1 0
1 1

=

2 1
1 1

=

1 1
1 2

1 0
1 1

3.1.3 Nullteilerfreiheit
Definition 3.2. Sei (R, +, ) ein Ring. R heißt nullteilerfrei, falls gilt
a b = 0 ⇒ a = 0 ∨ b = 0 ∀ a, b ∈ R
3.1.4 Gegenbeispiele
• (R
2×2
, +, ) ist nicht nullteilerfrei, denn es gilt

1 0
0 0

0 0
0 1

=

0 0
0 0

• (Z
6
, +, ) ist nicht nullteilerfrei, denn es gilt
[2] [3] = [2 3] = [6] = [0]
• R
R
, +, ) ist nicht nullteilerfrei, denn für
f(x) :=

1, x = 1
0, x = 1
g(x) :=

0, x = 1
1, x = 1
gilt (f g)(x) = 0 ∀ x ∈ R.
3.1.5 Unterringe
Definition 3.3. U ist ein Unterring von (R, +, ), wenn (U, +) Untergruppe von (R, +)
und : U U → U abgeschlossen ist.
23
3.1.6 Ringhomomorphismen
Definition 3.4. ϕ : (R, +, ) → (S, ⊕, ) ist ein Ringhomomorphismus, wenn gilt
ϕ(a +b) = ϕ(a) ⊕ϕ(b)
ϕ(a b) = ϕ(a) ϕ(b)
3.1.7 Körper
Definition 3.5. (K, +, ) ist ein Körper, wenn gilt
K1 (K, +) ist eine abelsche Gruppe.
K2 (K

, ) ist eine abelsche Gruppe.
K3 Distributivgesetz, d.h. für alle a, b, c ∈ K gilt
a (b +c) = a b +a c
3.1.8 Notation
• 0 - neutrales Element von (K, +)
• 1 - neutrales Element von (K, )
• −a - Inverses von a in (K, +)

1
a
= a
−1
- Inverses von a in (K

, )
3.1.9 Eigenschaften von Körpern
Satz. Sei (K, +, ) ein Körper. Es gilt
i) 0 = 1, weil 1 ∈ K

und 0 ∈ K

.
ii) a b = a ⇒ a = 0 ∨ b = 0, weil (K

, ) abgeschlossen ist (Nullteilerfreiheit).
iii) a (−b) = −(a b), denn es gilt
ab+a(−b)
D
= a(b+(−b)) = a0 = 0 = ab+(−(ab)) ⇔ a(−b) = −(ab)
iv) (−a) (−b) = a b, folgt aus iii).
3.1.10 Beispiele
1. (R, +, ) ist ein Körper.
2. (Q, +, ) ist ein Körper.
3. (Z, +, ) ist kein Körper, nur 1 und −1 habe multiplikative Inverse.
4. Der 3. Beispielring ist kein Körper, auch hier fehlen Inverse.
5. (C, +, ) ist ein Körper.
6. (Z
2
, +, ) ist ein Körper.
24
3.1.11 Der Körper der komplexen Zahlen
Motivation N fehlt bezüglich + die Inversen, also erweitert man die Menge der na-
türlichen Zahlen auf die Menge der ganzen Zahlen Z. Diesen wiederum die multipli-
kativen Inversen, also konstruiert man Q. (Q, +, ) ist zwar ein Körper, man kann aber
gewisse Gleichungen nicht in ihm lösen, z.B. x
2
= 2. Mit Hilfe von Cauchy-Folgen,
Dedekind’schen Schnitten, Intervallschachtelungen oder ähnlichen Objekten/Verfahren
vervollständigt man Q zu R (siehe Analysis).
Jedoch gibt es immer noch Gleichungen, die keine Lösung in R haben, z.B. x
2
= −1.
Also definiert man eine neue Zahl i als eine Lösung ebendieser Gleichung x
2
= −1.
Dann ist i
2
= −1 und (−i)
2
= −1, wodurch man die Anordnung des Körpers verliert.
Nun ist jede quadratische Gleichung lösbar in C, d.h. ∃ z ∈ C : z
2
+pz +q = 0.
Definition 3.6. Die Menge der komplexen Zahlen ist definiert als
C := ¦a +b i [ a, b ∈ R¦
Jede komplexe Zahl z hat also die Gestalt z = a+b i für a, b ∈ R. a heißt der Realteil
von z, man schreibt Re(z) = a, und b Imaginärteil, also Im(z) = b.
Wie man (relativ) leicht nachprüfen kann, ist (C, +, ) ein Körper (siehe 2. Analysis-
Übungsblatt, 3. Aufgabe).
Geometrische Interpretation Der Zahlenstrahl der reellen Zahlen wird zur Gauß’schen
Zahlenebene:
Man kann also sagen
C

= R
2
Und man schreibt
z = a +bi = r cos ϕ +i r sin ϕ
wobei r die Länge des Pfeils ist, nach Pythagoras also
r =

a
2
+b
2
=: [z[
(a, b) heißen die kartesischen Koordinaten von z und (r, ϕ) die Polarkoordinaten
von z.
Rechnen mit komplexen Zahlen Es gilt
für die Addition:
(a +bi) + (c +di) = (a +c) + (b +d)i
25
Veranschaulichung:
und für die Multiplikation
(a +bi) (c +di) = (a c −b d) + (a d +b c)i
bzw.
(r
1
cos ϕ
1
+i r
1
sin ϕ
1
) (r
2
cos ϕ
2
+i r
2
sin ϕ
2
)
= r
1
r
2
[(cos ϕ
1
cos ϕ
2
−sin ϕ
1
sin ϕ
1
) +i (cos ϕ
1
sin ϕ
2
+ sin ϕ
1
ϕ
2
)]
= r
1
r
2
[cos(ϕ
1

2
) +i sin(ϕ
1

2
)]
Veranschaulichung:
Wenn z = a +bi, dann heißt a −bi = z komplex-konjugierte Zahl von z.
Es gilt für alle z, z

∈ C

1
2
(z +z) =
1
2
(Re(z) + Im(z) i + Re(z) −Im(z) i) =
1
2
(2Re(z)) = Re(z)
1
2i
(z −z) =
1
2i
(Re(z) + Im(z) i −Re(z) + Im(z) i) =
1
2i
(2Im(z) i) = Im(z)
26

z z = (a +bi) (a −bi) = a
2
−abi +abi +b
2
= a
2
+b
2
= [z[
2

z +z

= z +z

z z

= z z


[z[ +[z

[ ≤ [z +z

[
Beweis.
[z +z

[
2
= (z +z

) (z +z

)
= (z +z

)

z +z

= z z +z z

+z

z +z

z

= [z[
2
+ 2Re(z z

) +[z

[
2
≤ [z[
2
+ 2 [z z

[ +[z

[
2
= ([z[ +[z

[)
2
Durch Wurzelziehen folgt die Behauptung

1
z
=
z
z z
=
z
[z[
2
3.2 Polynome
3.2.1 Definition
Definition 3.7. Ein Polynom mit Koeffizienten in einem Körper K ist ein Ausdruck
f(x) = a
0
+a
1
x +. . . +a
n
x
n
=
n
¸
k=0
a
k
x
k
, wobei n ∈ N
0
, a
i
Koeffizienten und
x Unbestimmte heißen. a
n
= 0 heißt Leitkoeffizent.
(Man kann „Körper“ auch gegen „kommutativer Ring mit Eins“ austauschen und
später konkretisieren.)
Bemerkung. Zwar kann man für x ein Element aus k einsetzen und so eine Abbildung
f : K → K definieren, aber Polynome und Polynomabbildungen sind zu unterschei-
den.
3.2.2 Beispiel
f(x) = x
2
g(x) = x
3
f, g sind Polynome und für jeden Körper gilt f = g.
Über K = R sind f und g verschiedene Abbildungen, für K = Z
2
sind f, g allerdings
gleich als Abbildungen, denn es gilt
f(0) = 0 = g(0), f(1) = 1 = g(1)
27
3.2.3 Polynomringe
Definition 3.8. Sei K[x] die Menge alle Polynome mit Koeffizienten in K in der Un-
bestimmten x.
Seien f, g ∈ K[x] mit
f =
n
¸
k=0
a
k
x
k
, g =
m
¸
k=0
b
k
x
k
für m ≥ n, dann definiere eine Addition wie folgt:
f +g :=
m
¸
k=0
(a
k
+b
k
) x
k
wobei alle Koeffizienten a
i
mit i > n als 0 angenommen werden.
Die Multiplikation wird definiert durch
f g :=
n+m
¸
k=0
c
k
x
k
wobei
c
k
:= a
0
b
k
+a
1
b
k−1
+. . . +a
k
0 =
k
¸
i=0
a
i
b
k−i
(Die Multiplikation ist die gewohnte Multiplikation von Polynomen.)
Satz 3.2.1. (K[x], +, ) ist ein kommutativer Ring mit Eins.
(Auch hier kann man immer „Körper“ K gegen „kommutativer Ring mit Eins“ R
austauschen.)
Beweis. Sei K ein Körper und + und auf K[x] wie oben definiert. Es sind folgende
Punkte zu zeigen:
R1 (K[x], +) ist eine abelsche Gruppe, d.h.
– Abgeschlossenheit: Kann direkt aus der Definition abgelesen werden.
– Assoziativität: Leicht einzusehen, da die Polynome „komponentenweise“
addiert werden, d.h. die Koeffizenten der Unbestimmten gleichen Grades
addiert werden.
– Kommutativität: Ebenso.
– Existenz eines neutralen Elements: Das Nullpolynom o = 0 ist neutrales
Element der Addition, wie man leicht einsieht.
– Existenz von Inversen: Sei f ∈ K[x] mit f =
n
¸
k=0
a
k
x
k
, dann sei −f :=
n
¸
k=0
(−a
k
) x
k
, und es gilt
f + (−f) =
n
¸
k=0
(a
k
+ (−a
k
)) x
k
=
n
¸
k=0
0 x
k
= 0 = o
28
R2* ist eine kommutative, assoziative Operation mit einem Einselement in K[x],
d.h.
– Abgeschlossenheit: Kann man aus der Definition ablesen. Seien f, g ∈
K[x] wie in der Definition gegeben, dann sind die c
k
der Definition ge-
wiss Körperelemente, der Leitkoeffzient ist c
m+n
= 0 (siehe Gradformel,
Definition 3.9 unten).
– Assoziativität: Seien a, b, c ∈ K[x] mit
a =
n
1
¸
i=0
a
i
x
i
, b =
n
2
¸
i=0
b
i
x
i
, c =
n
3
¸
i=0
c
i
x
i
wobei n
1
, n
2
, n
3
∈ N
0
, dann gilt
a (b c) = a

n
2
+n
3
¸
k=0

k
¸
i=0
b
i
c
k−i

x
k

=
n
1
+(n
2
+n
3
)
¸
k=0

k
¸
m=0
a
m

k−m
¸
i=0
b
i
c
k−m−i

x
k
=
(n
1
+n
2
)+n
3
¸
k=0

k
¸
m=0
a
m

k
¸
i=m
b
i−m
c
k−i

x
k
=
(n
1
+n
2
)+n
3
¸
k=0

k
¸
i=0
i
¸
m=0
a
m
(b
i−m
c
k−i
)

x
k
A
=
(n
1
+n
2
)+n
3
¸
k=0

k
¸
i=0

i
¸
m=0
a
m
b
i−m

c
k−i

x
k
=

n
1
+n
2
¸
k=0

k
¸
m=0
a
m
b
k−m

x
k

n
3
¸
k=0
c
k
x
k

=
¸
n
1
¸
k=0
a
k
x
k

n
2
¸
k=0
b
k
x
k
¸

n
3
¸
k=0
c
k
x
k

= (a b) c
– Kommutativität: Seien a, b wie oben, dann gilt
a b =
n+m
¸
k=0

k
¸
i=0
a
i
b
k−i

x
k
K
=
m+n
¸
k=0

k
¸
i=0
b
k−i
a
i

x
k
=
m+n
¸
k=0

k
¸
i=0
b
i
a
k−i

x
k
= b a
– Existenz einer Eins: Es ist 1
K[x]
= 1
K
, wie man leicht einsieht.
29
R3 Distributivgesetz: Seien a, b, c wie oben gegeben, dann gilt
a (b +c) = a

¸
max{n
2
,n
3
}
¸
k=0
(b
k
+c
k
) x
k
¸

=
n
1
+max{n
2
,n
3
}
¸
k=0

k
¸
i=0
a
i
(b
k−i
+c
k−i
)

x
k
D
=
n
1
+max n
2
,n
3
¸
k=0

k
¸
i=0
a
i
b
k−i
+a
i
c
k−i

x
k
=
n
1
+max{n
2
,n
3
}
¸
k=0

k
¸
i=0
a
i
b
k−i
+
k
¸
i=0
a
i
c
k−i

x
k
=
n
1
+max{n
2
,n
3
}
¸
k=0

k
¸
i=0
a
i
b
k−i

x
k
+

k
¸
i=0
a
i
c
k−i

x
k
=
n
1
+max{n
2
,n
3
}
¸
k=0

k
¸
i=0
a
i
b
k−i

x
k
+
n
1
+max{n
2
,n
3
}
¸
k=0

k
¸
i=0
a
i
c
k−i

x
k
Wenn k > n
1
+ n
2
, dann ist, wenn i > n
1
, a
i
= 0, oder, wenn i < n
1
, d.h.
k−i > n
2
, b
i
= 0. Analoges für k > n
1
+n
3
und a
i
, c
i
. Da max ¦n
2
, n
3
¦ ≥ n
2
und max ¦n
2
, n
3
¦ ≥ n
3
ist also
n
1
+max{n
2
,n
3
}
¸
k=n
1
+n
2

k
¸
i=0
a
i
b
k−i

x
k
= 0
bzw.
n
1
+max{n
2
,n
3
}
¸
k=n
1
+n
3

k
¸
i=0
a
i
c
k−i

x
k
= 0
Also gilt
. . . =
n
1
+n
2
¸
k=0

k
¸
i=0
a
i
b
k−i

x
k
+
n
1
+n
3
¸
k=0

k
¸
i=0
a
i
c
k−i

x
k
= (a b) + (a c)
Bemerkung. Die Operationen +, für Polynome und für Polynomabbildungen sind
verträglich. D.h., wenn f, g ∈ K[x], h = f + g und i = f g, dann gilt h(α) =
f(α) +g(α) und i(α) = f(α) g(α) für alle α ∈ K.
3.2.4 Gradformel
Definition 3.9. Der Grad deg(f) des Polynoms f ∈ K[x] ist n = max ¦i ∈ N
0
: a
i
= 0¦.
Der Grad des Nullpolynoms wird definiert als deg(o) = −∞.
(Spätestens ab hier müssen die Polynome über Körpern definiert werden, sonst wird
die folgende Bemerkung falsch.)
30
Proposition 3.2.1. Für f, g ∈ K[x] gilt
• deg(f +g) ≤ max ¦deg(f), deg(g)¦
• deg(f g) = deg(f) + deg(g)
Beweis. Wenn f, g ∈ K[x] mit deg(f) = n und deg(g) = m, dann ist per Definition
deg(f +g) = deg(
max{n,m}
¸
k=0
(a
k
+b
k
) x
k
) ≤ max ¦deg(f), deg(g)¦
und der n +m-te Koeffizient des Produkts f g:
c
n+m
=
n+m
¸
i=0
a
i
b
n+m−i
= a
n
....
=0
b
m
....
=0
= 0
denn für i < n ist n +m−i > m, d.h. b
m
= 0, und für i > n ist a
i
= 0.
3.2.5 Nullteilerfreiheit
Folgerung. Der Ring K[x] ist nullteilerfrei, d.h. für alle f, g ∈ K[x] mit f = o und
g = o gilt
f g = o
Beweis. Seien f, g ∈ K[x] mit f = o und g = o, d.h. deg(f) ≥ 0 und deg(g) ≥ 0,
dann gilt nach Gradformel
deg(f g) = deg(f) + deg(g) ≥ 0
3.2.6 Polynomdivision
Zwar gibt es in K[x] keine multiplikativen Inversen, aber wie im Ring (Z, +, ) der
ganzen Zahlen gibt es eine Division mit Rest.
Satz 3.2.2. Sind f, g ∈ K[x] mit g = o, dann gibt es eindeutig bestimmte q, r ∈ K[x]
mit
f = q g +r
wobei deg(r) < deg(g).
Beweis. Es wird zunächst die Eindeutigkeit gezeigt. Angenommen f = q
1
g +r
1
mit
deg(r
1
) < deg(g) und f = q
2
g +r
2
mit deg(r
2
) < deg(g), dann gilt
q
1
g +r
1
= q
2
g +r
2
⇔ (q
1
−q
2
) g = r
2
−r
1
Wenn q
1
− q
2
= o, dann ist nach Gradformel deg((q
1
− q
2
) g) = deg(q
1
− q
2
) +
deg(g) ≥ deg(g), während deg(r
2
−r
1
) < deg(g), was einen Widerspruch darstellt.
Also muss q
1
−q
2
= o gelten, dann ist q
1
= q
2
und (q
1
−q
2
) g = o g = o, also auch
r
2
−r
1
= o, d.h. r
2
= r
1
.
Wenn eine solche Darstellung existiert, dann ist sie also eindeutig. Zum Beweis der
Existenz:
31
Es wird o.B.d.A. angenommen, dass deg(f) ≥ deg(g), ansonsten wählt man q = o
und r = f, dann ist q g +r = o g +f = o +f = f und deg(r) = deg(f) < deg(g).
Induktion über deg(f):
Induktionsanfang
Aus deg(f) = 0 folgt deg(g) = 0, also f, g ∈ K. Dann gibt es aber g
−1
∈ K mit
g
−1
g = 1, also wählt man q = f g
−1
und r = o, dann gilt qg+r = (f g
−1
)g+o =
f.
Induktionsschritt
Sei die Aussage nun für alle Polynome mit einem Grad kleiner als deg(f) bewiesen.
Sei n := deg(f) und m := deg(g), a der Leitkoeffizent von f und b der Leitkoeffizent
von g, dann betrachte das Polynom
f −
a
b
x
n−m
g
das so konstruiert ist, dass der Leitkoeffizient von f sich hinweghebt, für das also gilt
deg(f −
a
b
x
n−m
g) < deg(f)
Auf dieses Polynom wird die Induktionsvoraussetzung angewendet, d.h.
∃ q

, r : f −
a
b
x
n−m
g = q

g +r
mit deg(r) < deg(g),
umgestellt
∃ q

, r : f = (q

+
a
b
x
n−m
) g +r
womit man die gewünschte Darstellung erhält.
Ein Polynom g teilt ein Polynom f, wenn das Restpolynom bei der Polynomdivi-
sion das Nullpolynom ist.
3.2.7 Beispiel
Wenn f = 2x
3
+x −5 und g = x
2
+ 1 mit f, g ∈ Q[x], dann gilt
(2x
3
+x −5) : (x
2
+ 1) = 2x +
−x−5
x
2
+1
−2x
3
−2x
−x −5
3.2.8 Folgerungen, Nullstellen
Folgerung 3.2.8.1. (Satz von Ruffini)
Ist α ∈ K eine Nullstelle (Wurzel) von f ∈ K[x], d.h. f(α) = 0, dann ist f =
q (x − α) für ein q ∈ K[x] (sprich: der Linearfaktor (x − α) kann abgespalten
werden).
Beweis. Nach dem Satz über die Polynomdivision gibt es eindeutig bestimmte q, r ∈
K[x] mit
f = q (x −α) +r
wobei deg(r) < deg(x −α) = 1, also r ∈ K.
Einsetzen ergibt: 0 = f(α) = q(α) (α − α) + r(α) = q(α) 0 + r(α) = r(α), also
r(α) = 0 und damit r = o.
32
Folgerung 3.2.8.2. Ein Polynom vom Grad n hat höchstens n Nullstellen (unabhängig
von Körper).
Beweis. Induktion nach dem Grad von f:
Induktionsanfang
Ist deg(f) = 0, dann hat f keine Nullstelle und die Folgerung ist trivialerweise richtig.
Induktionsschritt
Sei die Folgerung nun für alle Polynome mit Graden kleiner als deg(f) =: n bewiesen.
Wenn f die Nullstelle α ∈ K hat, dann gilt nach Folgerung 1
f = q (x −α)
mit deg(f) = deg(g) deg(x − α) nach Gradformel, also deg(g) = n − 1. Nach
Induktionsvoraussetzung hat q höchstens n − 1 Nullstellen, also hat f höchstens n
Nullstellen.
Folgerung 3.2.8.3. Ist K unendlich, dann gilt:
f = o ∈ K[x] ist das einzige Polynom mit f(α) = 0 für alle α ∈ K.
Beweis. Jedes Polynom f ∈ K[x] mit deg(f) = n ∈ N hat nach Folgerung 2 höchs-
tens n Nullstellen, d.h. es gibt höchstens n Elemente α ∈ K mit f(α) = 0. Wenn es
also ein Polynom f ungleich dem Nullpolynom gäbe mit f(α) = 0 für alle α ∈ K,
dann gibt es notwendigerweise nur deg(f) ∈ N Elemente in K.
Folgerung 3.2.8.4. Es gilt auch die Umkehrung: In jedem endlichen Körper gibt es ein
Polynom f = o mit f(α) = 0 für alle α ∈ K.
Beweis. Sei K = ¦k
1
, k
2
, . . . , k
n
¦, dann ist
f = (x −k
1
) (x −k
2
) . . . (x −k
n
)
wegen der Nullteilerfreiheit nicht o, also das gesuchte Polynom.
Folgerung 3.2.8.5. Ist K unendlich, dann sind Polynome f, g ∈ K[x] mit f(α) =
g(α) für alle α ∈ K auch als Polynome gleich.
Beweis. Aus f(α) = g(α) folgt f(α)−g(α) = 0, also (f −g)(α) = 0 für alle α ∈ K.
In einem unendlichen Körper gilt dies aber nur für das Nullpolynom, also ist f −g = o,
d.h. f = g.
3.2.9 Fundamentalsatz der Algebra
Satz 3.2.3. Jedes Polynom f ∈ C[x] mit deg(f) ≥ 1 hat mindestens eine Nullstelle.
Folgerung. Jedes Polynom f ∈ C[x] zerfällt in Linearfaktoren:
f = α (x −α
1
) (x −α
2
) . . . (x −α
n
)
33
3.2.10 Lemma von Bezout
(Das Nachfolgende Lemma wurde in der Vorlesung nicht erwähnt, soll an dieser Stel-
le aber eingeführt und bewiesen werden, um den Beweis des nächsten Abschnittes zu
vervollständigen.)
Lemma 3.1. Sei K[x] ein Polynomring und f, g ∈ K[x] Polynom. Wenn es kein
Polynom vom Grad ≥ 1 gibt, dass sowohl f als auch g teilt, so gibt es eindeutig
bestimmte Polynome f

, g

mit
f f

+g g

= 1
Beweis. Sei o.B.d.A. deg(f) ≥ deg(g). Wenn g das Nullpolynom ist, und f damit g
in jedem Fall teilt, muss deg(f) < 1 sein. D.h. f ∈ K, also wähle f

= f
−1
(Inverses
im Körper) und g

= g, dann gilt: f f

+g g

= 1 +o = 1.
Der Beweis erfolgt durch vollständige Induktion nach dem Grad von f.
Für den Induktionsanfang sei deg(f) = 0, also auch deg(g) = 0, damit sind beide
Polynome Körperelemente. Setzt man f

= f
−1
und g

= o, so ergibt sich: f f

+
g g

= 1 +o = 1.
Sei das Lemma nun für alle Polynome mit Graden kleiner als deg(f) bewiesen. Nach
dem Satz über die Polynomdivision gibt es eindeutig bestimmte q, r ∈ K[x] mit
f = q g +r
wobei deg(r) < deg(g).
r und g sind teilerfremd, denn angenommen es gäbe ein h ∈ K[x], das r und g teilt,
dann teilt h (nach Distributivgesetz) auch q g +r = f, was ein Widerspruch dazu ist,
dass f und g teilerfremd sind. Nach Induktionsvoraussetzung gibt es g

und r

mit
g g

+r r

= 1
Setzt man r = f −q q ein, so erhält man
g g

+ (f −q g) r

= g g

+f r

−q g r

= f r

+g (g

−q r

) = 1
Setzt man f

= r

und g

= g

−q r

, so erhält man die Behauptung.
3.2.11 Spezielle Faktorpolynomringe
Sei K[x] der Ring aller Polynome über K und g ∈ K[x]. Betrachte nun g K[x] :=
¦h ∈ K[x] [ ∃ f ∈ K[x] : h = g f¦, also das Analogon zu mZfür den Ring (Z, +, ).
Im Ring der ganzen Zahlen ist
Z/mZ =: Z
m
ein Ring, wenn m prim ist sogar ein Körper. Ebenso gilt für Polynomringe
Satz 3.2.4. K[x]/gK[x] =: K[x]
g
ist mit den von K[x] geerbten Operationen + und
ein Ring, wenn g über K irreduzibel (nicht in Linearfaktoren zerlegbar über K) sogar
ein Körper.
Beweis. Sei also g ∈ K[x]. Es wird die Äquivalenzrelation ∼ wie folgt erklärt:
x ∼ y ⇔ ∃ f ∈ K[x] : x −y = f g
34
K[x]
g
ist nun die Menge aller Äquivalenzklassen von ∼. Dann wird definiert für
[x], [y] ∈ K[x]
g
[x] + [y] := [x +y]
[x] [y] := [x y]
Zu zeigen ist nun, dass (K[x]
g
, +, ) ein Ring ist, d.h. im Einzelnen
R1 (K[x]
g
, +) ist eine abelsche Gruppe, d.h. wiederum
– Wohldefiniertheit von +: Seien [x] = [x

] und [y] = [y

], dann gilt
∃ f
1
∈ K[x] : x −x

= f
1
g
∃ f
2
∈ K[x] : y −y

= f
2
g
also
∃ f
1
, f
2
∈ K[x] : (x −x

) + (y −y

) = f
1
g +f
2
g
d.h.
∃ f
1
, f
2
∈ K[x] : (x +y) −(x

+y

) = (f
1
+f
2
) g
und damit
[x +y] = [x

+y

]
– Abgeschlossenheit von K unter +: Klar, wenn x, y ∈ K[x], dann ist x +
y ∈ K[x], also [x +y] ∈ K[x]
g
.
– Assoziativgesetz: Seien [x], [y], [z] ∈ K[x]
g
, dann gilt
([x]+[y])+[z] = [x+y]+[z] = [(x+y)+z] = [x+(y+z)] = [x]+[y+z] = [x]+([y]+[z])
– Kommutativgesetz:
[x] + [y] = [x +y] = [y +x] = [y] + [x]
– Existenz eines neutralen Elements: [o] ist auch das neutrale Element von
K[x]
g
, denn es gilt
[x] + [o] = [x +o] = [x]
– Existenz von Inversen: [−x] ist das inverse Element zu [x], denn es gilt
[−x] + [x] = [(−x) +x] = [o]
R2 ist eine assoziative, kommutative Operation auf K[x]
g
mit Einselement in K[x]
g
,
d.h. im Einzelnen
– Wohldefiniertheit von : Seien [x] = [x

] und [y] = [y

], dann gilt
∃ f
1
∈ K[x] : x −x

= f
1
g
∃ f
2
∈ K[x] : y −y

= f
2
g
also
∃ f
1
, f
2
∈ K[x] : xy = (f
1
g+x

)(f
2
g+y

) = f
1
gf
2
g+f
1
gy

+x

f
2
g+x

y

d.h.
∃ f
1
, f
2
∈ K[x] : (x +y) −(x

+y

) = (f
1
f
2
g +f
1
y

+f
2
x

) g
und damit
[x y] = [x

y

]
35
– Abgeschlossenheit von K unter : Klar, wie bei +.
– Assoziativgesetz: Seien [x], [y], [z] ∈ K[x]
g
, dann gilt
([x][y])[z] = [xy][z] = [(xy)z] = [x(yz)] = [x][yz] = [x]([y][z])
– Kommutativgesetz:
[x] [y] = [x y] = [y x] = [y] [x]
– Existenz der Eins: [1] ist das neutrale Element von K[x]
g
bezüglich , denn
es gilt
[1] [x] = [1 x] = [x]
• Distributivgesetze: Wegen der Kommutativität genügt es, eines der beiden zu
zeigen:
[x]([y]+[z]) = [x][y+z]+[x(y+z)] = [xy+xz] = [xy]+[xz] = ([x][y])+([x][z])
Damit ist gezeigt, dass K[x]
g
ein kommutativer Ring mit Eins ist.
Sei g nun irreduzibel. Um zu zeigen, dass (K[x]
g
, +, ) ein Körper ist, genügt es, die
Existenz der multiplikatives Inversen nachzuweisen für alle [f] ∈ K[x]

g
.
Da g irreduzibel ist, ist g der einzige Teiler von sich selbst. Sei [f] ∈ K[x]

g
, dann ist
[f] ungleich [g], also ist f nicht durch g teilbar und damit teilerfremd zu g. Nach dem
Lemma von Bezout gibt es dann Polynome g

und f

mit
g

g = 1 −f

f
das heißt also
[1] = [f

f] = [f

] [f]
womit [f

] ∈ K[x]
g
multiplikatives Inverses zu [f] ist.
3.2.12 Beispiele
• R[x]/(x
2
+ 1)R[x]

= C
• Q[x]/(x
2
−2)Q[x] ist der kleinste Körper, der die rationalen Zahlen und

2
enthält:
Q[x]/(x
2
−2)Q[x]

=

a +

2 b [ a, b ∈ Q
¸
36
4 Vektorräume
4.1 Definitionen
4.1.1 Vektorräume
Definition 4.1. Sei K ein Körper.
Eine Menge V ist ein Vektorraum über K, wenn es Operationen +, gibt mit
V1 (V, +) ist eine abelsche Gruppe. Das neutrale Element dieser Gruppe nennt man
meist o und das Inverse zu v ∈ V nennt man −v.
V2 Für
: K V → V
(λ, v) → λ v
genannt „skalare Multiplikation“, gelten folgende Gesetze
(i) (λ +µ) v = λ v +µ v - Distributivgesetz 1
(ii) λ (v +w) = λ v +λ w - Distributivgesetz 2
(iii) (λ µ) v = λ (µ v) - „Assoziativgesetz“
(iv) 1 v = v - „multiplikative Neutralität der Körper-Eins“
4.1.2 Weitere Eigenschaften
Satz 4.1.1. Aus den Vektorraumaxiomen lassen sich weitere Eigenschaften ableiten.
Sei v ∈ V ein K-Vektorraum und λ ∈ K:
(a) 0 v = o, denn es gilt: 0 v = (0 + 0) v = 0 v + 0 v ⇔ o = 0 v.
(b) λ o = o, denn es gilt: λ o = λ (o +o) = λ o +λ o ⇔ o = λ o.
(c) Aus λ v = o folgt λ = 0 oder v = o. Denn angenommen λ = 0 und λ v = o,
dann ist letzteres äquivalent zu λ
−1
(λ v) = λ
−1
o, d.h. 1 v = o, also v = o.
(d) (−1) v = −v, denn es gilt:
v−v = o = 0v = (1+(−1))v = 1v+(−1)v = v+(−1)v ⇔ −v = (−1)v
4.1.3 Beispiele
1. „Standardbeispiel“: K
n
:= ¦x = (x
1
, x
2
, . . . , x
n
) [ x
i
∈ K¦, wobei Addition
und skalare Multiplikation komponentenweise definiert sind, d.h. für
(x
1
, . . . , x
n
), (y
1
, . . . , y
n
) ∈ K
n
, λ ∈ K
gilt
(x
1
, x
2
, . . . , x
n
) + (y
1
, y
2
, . . . , y
n
) = (x
1
+y
1
, x
2
+y
2
, . . . , x
n
+y
n
)
λ (x
1
, x
2
, . . . , x
n
) = (λ x
1
, λ x
2
, . . . , λ x
n
)
37
2. Die Menge der Polynome K[x] ist ein Vektorraum über K:
(K[x], +) ist eine abelsche Gruppe, weil (K[x], +, ) ein Ring ist, und die restli-
chen Gesetz ergeben sich aus der schon definierten Multiplikation, weil Körper-
elemente lediglich Polynome vom Grad 0 sind.
3. Vektorraum der Funktionen über K: V = ¦f : M → K¦, mit M eine beliebige,
feste Menge. Die Operationen sind punktweise definiert
(f +g)(x) := f(x) +g(x) ∀ x ∈ M
(λ f)(x) := λ f(x) ∀ x ∈ M
4. Vektorräum der Abbildungen von einer Menge M in einen K-VektorräumW ist
ein K-Vektorräum. Die Operationen sind wie folgt definiert:
Sind F, G ∈ Abb(M, W) und λ ∈ K:
(F +G)(m) := F(m) +G(m) ∀ m ∈ M
(λ F)(m) := λ F(m) ∀ m ∈ M
5. (K
n×n
, +, ) - die quadratischen Matrizen von Elementen aus K - mit der kom-
ponentenweisen Addition und skalaren Multplikation ist ein K-Vektorraum.
6. Jeder Körper ist ein Vektorraum über sich selbst.
7. Allgemeiner: Ist L ⊆ K ein Unterkörper von K, dann ist K ein L-Vektorraum.
4.1.4 Untervektorräume
Definition 4.2. Sei V ein K-Vektorraum, dann heißt W ⊆ V Untervektorraum von V ,
wenn gilt
U1 o ∈ W
U2 v +w ∈ W ∀ v, w ∈ W
U3 λ v ∈ W ∀ λ ∈ K, v ∈ W
Satz 4.1.2. Ein Untervektorraum W von V ist mit den induzierten Operationen selbst
ein Vektorraum.
Beweis. Die Vektorraumaxiome lassen sich leicht nachrechnen:
V1 (W, +) ist eine abelsche Gruppe, denn es gilt:
G1 Die Addition ist nach U2 auf W abgeschlossen. Assoziativität vererbt sich.
G2 Nach U1 ist o ∈ W. o ist neutrale Element von V , diese Eigenschaft vererbt
sich auf W.
G3 Wenn v ∈ W, dann ist nach U3 auch (−1) v = −v in W, was auch in W
das zu v Inverse sein muss.
V2 Die Multiplikation ist nach U3 über W abgeschlossen und die Gesetze der Mul-
tiplikation vererben sich dank U2 und U3 auf W.
38
4.1.5 Beispiele
(a) Die trivialen Untervektorräume eines Vektorraums V sind W = ¦0¦ und W =
V .
(b) W
a
=
¸
(x
1
, x
2
) ∈ R
2
[ x
1
+a x
2
= 0
¸
für ein a ∈ R.
Allgemein: Lösungsräume homogener linearer Gleichungen in n Variablen über
K sind Untervektorräume des K
n
.
(c) W = ¦f : C →R [ f(1) + (2 −i) f(1 +i) = 0¦
(d) R[x]
d
. .. .
Polynome über R vom Grad d
⊂ R[x] ⊂ ζ
1
(R, R)
. .. .
stetig differenzierbare Abb.
⊂ ζ
0
(R, R)
. .. .
stetige Abb.
⊂ R
R
4.1.6 Durchschnitte von Unterräumen sind Unterräume
Proposition 4.1.1. Sei V ein Vektorraum und I eine Indexmenge. Für i ∈ I sei W
i
ein Untervektorraum von V . Es gilt:
¸
i∈I
W
i
ist ein Untervektorraum von V .
Beweis. Klar: Gilt eine Eigenschaft für alle Mengen des Durchschnitts, gilt sie auch
für den Durchschnitt selbst.
4.1.7 Beispiele
• V = R[x], dann ist die Menge W
k
der Polynome, deren k-ter Koeffizient 0 ist,
ein Unterraum von V . Dann ist auch
W =
¸
k ungerade
W
k
ein Unterraum von R[x]. Es ist W

= R[x
2
].
• Seien
n
¸
i=1
a
j
i
x
i
= 0
für j = 1, . . . , mhomogene lineare Gleichungen über K
n
. Wie in Beispiel b) ist
der Lösungsraum W
k
jeder der j Gleichungen für sich ein Unterraum des K
n
.
Nach Proposition ist also auch
m
¸
j=1
W
j
ein Unterraum des K
n
.
39
4.1.8 Vereinigung von Unterräumen ist kein Unterraum
Achtung. Die Vereinigung von Vektorräumen ist im Allgemeinen kein Vektorraum.
Wenn U, W Unterräume von V sind, so ist U ∪ W nur dann ein Unterraum, wenn
V ⊆ W oder W ⊆ V .
Beweis. Wenn U ⊆ W oder W ⊆ U, dann ist U ∪ W = W, also ist U ∪ W ein
Vektorraum.
Seien U, W Unterräume mit U ⊆ W und W ⊆ U, d.h. es gibt ein u ∈ U mit u ∈ W
und ein w ∈ W mit w ∈ U. Dann ist u +w ∈ U (ansonsten wäre auch (u +w) −u =
w ∈ U) und u + w ∈ W (ansonsten wäre auch (u + w) − w = u ∈ W), also ist U2
für U ∪ W nicht erfüllt.
4.1.9 Beispiel
V = R
2
, dann sei W
1
Lösungsraum von x
1
− x
2
= 0 und W
2
der Lösungsraum von
−2x
1
−5x
2
= 0
Die Summe von Vektoren u ∈ W
1
, v ∈ W
2
ist im Allgemeinen nicht in der Vereini-
gung der Lösungsmengen.
4.1.10 Lineares Erzeugnis
Sei V ein Vektorraum über K und seien v
1
, . . . , v
r
∈ V .
Definition 4.3. v ∈ V heißt Linearkombination von v
1
, . . . , v
r
∈ V , wenn Skalare
λ
1
, λ
2
, . . . , λ
r
∈ K existieren, sodass gilt
v = λ
1
v
1

2
v
2
+. . . +λ
r
v
r
=
r
¸
k=1
λ
k
v
k
Definition 4.4. Die Menge aller Linearkombinationen von v
1
, . . . , v
r
ist das Erzeug-
nis oder der aufgespannte Raum von v
1
, . . . , v
r
. Man schreibt dafür span(v
1
, . . . , v
r
)
oder 'v
1
, . . . , v
r
`.
Proposition 4.1.2. 'v
1
, . . . , v
r
` ist der kleinste Untervektorraum von V , der v
1
, . . . , v
r
enthält.
Beweis. Zunächst wird gezeigt, dass 'v
1
, . . . , v
r
` ein Untervektorraum von V ist.
40
U1 Es ist o ∈ 'v
1
, . . . , v
r
`, dann für λ
1
= λ
2
= . . . = λ
r
= 0 ∈ K ist
r
¸
k=1
λ
k
v
k
=
r
¸
k=1
0 v
k
=
r
¸
k=1
o = o
U2 Seien v, w ∈ 'v
1
, . . . , v
r
`, d.h. es gibt λ
1
, . . . , λ
r
∈ K und µ
1
, . . . , µ
r
∈ K mit
v =
r
¸
k=1
λ
k
v
k
, w =
r
¸
k=1
µ
k
v
k
dann gilt
v +w =
r
¸
k=1
λ
k
v
k
+
r
¸
k=1
µ
k
w
k
=
r
¸
k=1

k

k
) v
k
∈ 'v
1
, . . . , v
r
`
U3 Seien λ ∈ K und v ∈ 'v
1
, . . . , v
r
`, d.h. es gibt λ
1
, . . . , λ
r
∈ K mit
v =
r
¸
k=1
λ
k
v
k
dann gilt
λ v = λ
r
¸
k=1
λ
k
v
k
=
r
¸
k=1
λ (λ
k
v
k
) =
r
¸
k=1
(λ λ
k
) v
k
Jeder Unterraum W von V , der v
1
, . . . , v
r
enthält, enthält nach U2 und U3 auch
v =
r
¸
k=1
λ
k
v
k
für alle λ
1
, . . . , λ
r
∈ K. Das heißt W ⊆ 'v
1
, . . . , v
r
`, also ist 'v
1
, . . . , v
r
` der kleinste
Untervektorraum von V , der v
1
, . . . , v
r
enthält.
4.1.11 Lineare Unabhängigkeit
Definition 4.5. Eine endliche Menge von Vektoren v
1
, . . . , v
r
aus dem K-Vektorraum
V heißt linear unabhängig, wenn aus
r
¸
k=1
λ
k
v
k
= o
folgt
λ
1
= λ
2
= . . . = λ
k
= 0
In anderen Worten: Der Nullvektor lässt sich nur trivial aus den v
i
kombinieren.
Eine unendliche Familie (v
i
[ i ∈ I) von Vektoren heißt linear unabhängig, falls jede
endliche Teilfamilie linear unabhängig ist.
41
4.1.12 Beispiele
... im R
3
:
a) e
1
=

¸
1
0
0
¸

, e
2
=

¸
0
1
0
¸

, e
3
=

¸
0
0
1
¸

sind linear unabhängig. Die einzi-
ge Lösung (λ
1
, λ
2
, λ
3
) von
λ
1
e
1

2
e
2

3
e
3
= o
ist (λ
1
, λ
2
, λ
3
) = (0, 0, 0).
b) v
1
=

¸
1
1
0
¸

, v
2
=

¸
1
0
1
¸

, v
3
=

¸
0
1
1
¸

sind linear unabhängig.
c) w
1
=

¸
1
2
2
¸

, w
2
=

¸
2
1
1
¸

, w
3
=

¸
3
3
3
¸

sind linear abhängig, weil w
1
+
w
2
= w
3
gilt, also w
1
+w
2
−w
3
= o eine nicht-triviale Linearkombination des
Nullvektors ist.
d) Fasst man R[x] als Vektorraum über R auf, so ist ¦x
n
[ n ∈ N¦ linear unabhän-
gig. Es gibt keine nicht-triviale endliche Linearkombination des Nullvektors.
4.1.13 Charakterisierung der linearen Unabhängigkeit
Proposition 4.1.3. Vektoren v
1
, . . . , v
r
sind linear unabhängig genau dann, wenn sich
jedes v ∈ 'v
1
, . . . , v
r
` eindeutig als Linearkombination der v
i
darstellen lässt
Beweis. Hinrichtung: Angenommen es gibt einen Vektor v ∈ 'v
1
, . . . , v
r
` mit zwei
verschiedenen Darstellungen, also
v =
r
¸
k=1
λ
k
v
k
, v =
r
¸
k=1
µ
k
v
k
dann gilt
o = v −v =

r
¸
k=1
λ
k
v
k

r
¸
k=1
µ
k
v
k

=
r
¸
k=1

k
−µ
k
) v
k
Aus der linearen Unabhängigkeit von v
1
, . . . , v
r
folgt für alle k = 1, . . . , r
λ
k
−µ
k
= 0 ⇔ λ
k
= µ
k
Widerspruch zu Annahme.
Rückrichtung: Wenn v
1
, . . . , v
r
linear abhängig sind, dann hat der Nullvektor zwei
verschiedene Darstellungen (die triviale und eine nicht-trivale).
Folgerung. Wenn v
1
, . . . , v
r
linear unabhängig sind, dann gilt für alle i = 1, . . . , r:
v
i
∈ 'v
1
, . . . , v
i−1
, v
i+1
, . . . , v
r
` (andernfalls gäbe es zwei Darstellungen von v
i
durch
die Vektoren v
1
, . . . , v
r
, einmal als v
i
selbst und die zweite nur durch Vektoren aus
v
1
, . . . , v
i−1
, v
i+1
, . . . , v
r
).
42
Bemerkung. Wie man leicht einsieht, gilt:
i) Ein einzelner Vektor v = o ist immer linear unabhängig.
ii) ∅ ist linear abhängig.
iii) Wenn o ∈ ¦v
1
, . . . , v
r
¦, dann sind v
1
, . . . , v
r
linear abhängig.
iv) Ist v
i
eine Linearkombination von v
1
, . . . , v
i−1
, v
i+1
, . . . , v
r
, dann ist v
1
, . . . , v
r
linear abhängig.
4.2 Basis und Dimension
4.2.1 Basis
Definition 4.6. Sei V ein Vektorraum über K.
¦v
1
, . . . , v
n
¦ heißt Basis von V , wenn gilt
• 'v
1
, . . . , v
n
` = V
• ¦v
1
, . . . , v
n
¦ sind linear unabhängig.
Ist ¦v
1
, . . . , v
n
¦ Basis von V , dann kann jedes Element von V eindeutig als Line-
arkombination
v =
n
¸
k=1
λ
k
v
k
geschrieben werden.
4.2.2 Charakterisierung des Vektorraums durch eine seiner Basen
Proposition 4.2.1. (v
1
, . . . , v
n
) ist genau dann Basis eines K-Vektorraums V , wenn
für jedes Element v ∈ V genau ein

1
, λ
2
, . . . , λ
n
) ∈ K
n
mit
v =
n
¸
k=1
λ
k
v
k
existiert.
Es gibt also eine Bijektion ϕ zwischen V und K
n
ϕ : V ↔ K
n
v ↔ (λ
1
, λ
2
, . . . , λ
n
)
die sogar strukturerhaltend ist (wie später gezeigt wird). Es ist also V

= K
n
.
Beweis. Folgt aus der Definition und der Charakterisierung der linearen Unabhängig-
keit.
43
4.2.3 Beispiele
• Für V = K
n
heißt B = (e
1
, e
2
, . . . , e
n
) die kanonische Basis, mit
e
i
= (0, 0, . . . , 1
....
i-te Stelle
, 0, . . . , 0)
die Einheitsvektoren genannt werden.
• Für W =
¸
k ∈ R
2
[ x
1
−x
2
= 0
¸
ist B = ¦(1, 1)¦ eine Basis.
• K[x] hat die Basis B =
¸
1, x, x
2
, . . . , x
n
, . . .
¸
.
4.2.4 Alternative Definitionen
Satz 4.2.1. Für eine Familie von Vektoren B = (v
1
, . . . , v
n
) aus einem Vektorraum V
ist äquivalent:
(i) B ist Basis.
(ii) B ist minimal erzeugend, d.h. 'B` = V und für alle B

B gilt 'B

` = V .
(Basisauswahlsatz)
(iii) B ist maximal linear unabhängig, d.h. B ist linear unabhängig und für alle v ∈ V
gilt: B ∪ ¦v¦ ist linear abhängig. (Basisergänzungssatz)
Beweis. Man zeigt jeweils:
(i) ⇒(ii) Angenommen B ist Basis und nicht minimal erzeugend, d.h.
∃ B

B : 'B

` = V
Sei v
i
∈ B`B

. Weil B

V erzeugt, lässt sich v
i
einerseits als Linearkombination
von Vektoren aus B

, andererseits durch v
i
selbst darstellen, womit B nicht linear
abhängig, also auch keine Basis sein kann.
(ii) ⇒(i) Wenn B keine Basis, also nicht linear unabhängig ist, aber erzeugend ist, dann
gibt es für ein v
i
Skalare λ
k
∈ K mit
v
i
=

i−1
¸
k=0
λ
k
v
k

+

n
¸
k=i+1
λ
k
v
k

Aus v ∈ 'v
1
, . . . , v
n
` folgt für Skalare µ
k
∈ K
v =
n
¸
k=0
µ
k
v
k
=

i−1
¸
k=0
µ
k
v
k


i

i−1
¸
k=0
λ
k
v
k

+

n
¸
k=i+1
λ
k
v
k

+

n
¸
k=i+1
µ
k
v
k

=

i−1
¸
k=0
µ
k
v
k

+

i−1
¸
k=0

i
λ
k
) v
k

+

n
¸
k=i+1

i
λ
k
) v
k

+

n
¸
k=i+1
µ
k
v
k

=

i−1
¸
k=0

k

i
λ
k
) v
k

+

n
¸
k=i+1

k

i
λ
k
) v
k

44
also v ∈ 'v
1
, . . . , v
i−1
, v
i+1
, . . . , v
r
`. Damit ist gezeigt, dass B nicht minimal
erzeugend ist.
(i) ⇒(iii) Wenn B eine Basis ist, dann ist B erzeugend, d.h. für alle v ∈ V ist v ∈
'v
1
, . . . , v
n
`. Weil v
1
, . . . , v
n
sind linear unabhängig sind, ist ¦v, v
1
, . . . , v
n
¦
nicht linear unabhängig, d.h. B ist maximal linear unabhängig.
(iii) ⇒(i) Wenn B zwar linear unabhängig, aber nicht erzeugend ist, dann gibt es ein v ∈ V
mit v ∈ 'v
1
, . . . , v
n
`, d.h. ¦v, v
1
, . . . , v
n
¦ ist linear unabhängig. Das heißt aber,
dass B nicht maximal linear unabhängig ist.
4.2.5 Existenz einer Basis für endlich erzeugbare Vektorräume
Folgerung. Ist X ⊆ V ein endliches Erzeugendensystem von V , d.h. 'X` = V , dann
gibt es eine Basis.
Beweis. Jedes endliche Erzeugendensytem enthält ein minimales Erzeugendensystem,
also eine Basis.
Satz 4.2.2. Jeder endlich erzeugbare Vektorraum besitzt eine Basis.
4.2.6 Austauschlemma
Lemma 4.1. Sei B = (v
1
, . . . , v
n
) eine Basis von V und ist w =
n
¸
k=0
λ
k
v
k
mit
λ
i
= 0, dann ist
B

= ¦v
1
, . . . , v
i−1
, v
i+1
, . . . , v
n
¦
eine Basis von V .
Beweis. Zu zeigen ist, dass B

Basis von V ist, also
1. 'B

` = V :
Sei v ∈ V . dann existieren µ
1
, . . . , µ
n
∈ K mit
v = µ
1
v
1
+. . . +µ
n
v
n
O.B.d.A. sei k = 1, also w = λ
1
v
1
+. . . λ
n
v
n
, λ
1
= 0.
Wegen λ
1
= 0 gilt:
v
1
=
1
λ
1
w −
λ
2
λ
1
v
2

λ
3
λ
1
v
3
−. . . −
λ
n
λ
1
v
n
Daraus folgt
v =
µ
1
λ
1
w+

µ
2
−µ
1

λ
2
λ
1

v
2
+

µ
3
−µ
1

λ
3
λ
1

v
3
+. . .+

µ
n
−µ
1

λ
n
λ
1

v
n
Also B = 'w, v
2
, . . . , v
n
` = V .
45
2. B

= (w, v
2
, v
3
, . . . , v
n
) ist linear unabhängig.
Sei γ
1
w +γ
2
v
2
+. . . +γ
n
v
n
= 0. Nach Voraussetzung ist
w = λ
1
v
1

2
v
2
+. . . +λ
n
v
n
mit λ
1
= 0.
Dann ist
o = γ
1
w +γ
2
v
2
+. . . +γ
n
v
n
= γ
1

1
v
1

2
v
2
+. . . +λ
n
v
n
) +γ
2
v
2
+. . . +γ
n
v
n
= γ
1
λ
1
v
1
+ (γ
1
λ
2

2
) v
2
+. . . + (γ
1
λ
n

n
) v
n
Mit der linearen Unabhängigkeit von v
1
, . . . , v
n
folgt
γ
1
λ
1
= 0 ⇒ γ
1
= 0
und dann
γ
1
λ
k

k
= 0 +γ
k
= 0 ⇒ γ
k
= 0
für alle k = 2, . . . , n, also
γ
1
= γ
2
= . . . = γ
n
= 0
4.2.7 Austauschsatz von Steinitz
Die anschließenden Folgerungen werden bedeutend einsichtiger und einfacher zu be-
weisen, hat man vorher den Austauschsatz von Steinitz zur Verfügung (der äquivalent
zum Austauschlemma ist). Im Gegensatz zur Vorlesung wird also zunächst dieser Satz
bewiesen und dann bei den Folgerungen verwendet.
Satz. Sei B = ¦v
1
, . . . , v
n
¦ eine Basis des K-Vektorraums V und C = ¦w
1
, . . . , w
m
¦
eine Menge linear unabhängiger Vektoren. Dann gibt es eine Menge von n − m Vek-
toren, o.B.d.A. v
m+1
, . . . , v
n
, sodass
¦w
1
, . . . , w
m
, v
m+1
, . . . , v
n
¦
eine Basis von V ist.
Beweis. Beweis durch vollständige Induktion über m
Für m = 1 folgt der Satz direkt aus dem Austauschlemma.
Sei m > 1 und der Austauschsatz für Mengen C

mit m − 1 Elementen gezeigt.
Sei C = ¦w
1
, . . . , w
m
¦ eine Menge linear unabhängiger Vektoren, dann betrachte
zunächst C

= C ` ¦w
m
¦. C

besitzt m− 1 Elemente, also kann man die Induktions-
voraussetzung darauf anwenden:
¦w
1
, . . . , w
m−1
, v
m
, v
m+1
, . . . , v
n
¦
ist eine Basis von V . Man kann also w
m
∈ V als Linearkombination dieser Vektoren
darstellen:
w
m
=
m−1
¸
k=1
λ
k
w
k
+
n
¸
k=m
λ
k
v
k
46
Es muss ein i ≥ m geben mit λ
i
= 0, denn sonst wäre
w
m
=
m−1
¸
k=1
λ
k
w
k
was wiederum ein Widerspruch zur linearen Unabhängigkeit von w
1
, . . . , w
1
wäre.
Sei o.B.d.A i = m, dann ist nach Austauschlemma ist also
¦w
1
, . . . , w
m−1
, w
m
, v
m+1
, . . . , v
n
¦
eine Basis von V .
4.2.8 Alle Basen haben gleich viele Elemente
Satz 4.2.3. Je zwei Basen eines (endlich erzeugten) Vektorraums V habe die gleiche
Anzahl von Elementen (=Kardinalität).
Beweis. V sei ein endlich erzeugbarer Vektorraum. Dann existieren Basen mit endlich
vielen Elementen. Angenommen B = (v
1
, . . . , v
n
), B

= (w
1
, . . . , w
m
) sind Basen
mit m < n. Insbesondere ist B

dann linear unabhängig und nach Austauschsatz von
Steinitz gibt es n −m ≥ 1 Vektoren in B, o.B.d.A. v
m+1
, . . . , v
n
, sodass
¦w
1
, . . . , w
m
, v
m+1
, . . . , v
n
¦
eine Basis, also ein minimales Erzeugendensystem von V ist, was ein Widerspruch
dazu ist, dass B

ein minimales Erzeugendensystem, also eine Basis ist.
4.2.9 Dimension
Definition 4.7. Sei V ein K-Vektorraum, dann definiere
dim
K
(V ) =

n, falls V eine Basis mit n Elementen besitzt
∞, falls V keine endliche Basis besitzt
Proposition 4.2.2. Sei V ein K-Vektorraum und w
1
, . . . , w
r
Vektoren aus V . Sei r >
dim
K
(V ), dann ist (w
1
, . . . , w
r
) linear abhängig.
Beweis. Sei B = ¦v
1
, . . . , v
n
¦ eine Basis von V . Angenommen (w
1
, . . . , w
r
) (n <
r) sei linear unabhängig, dann ist auch (w
1
, . . . , w
n
) linear unabhängig. Nach dem
Ausstauschsatz von Steinitz kann man die Basis B also komplett austauschen, d.h.
(w
1
, . . . , w
n
) ist Basis und damit maximal linear unabhängig, was ein Widerspruch
zur Annahme ist.
4.2.10 Beispiele
• dim
K
K
n
= n
• dim
R
C = 2, denn (1, i) ist eine Basis des R-Vektorraums C.
• dim
Q
R = ∞
47
4.2.11 Dimension von Unterräumen
Proposition 4.2.3. Sei W ein Unterraum von V .
(i) Es gilt dimW ≤ dimV .
(ii) Aus dimW = dimV folgt W = V .
Beweis.
(i) Jede linear unabhängige Menge von Vektoren in V hat höchstens dimV viele Ele-
mente. Jede linear unabhängige Menge in W, insbesondere jede Basis, ist natürlich
auch eine linear unabhängige Menge in V , hat also höchstens dimV Elemente. Also
dimW ≤ dimV .
(ii) Angenommen dimW = dimV , aber W V .
Sei B Basis von W und v ∈ V `W, d.h. v ∈ 'B`. B∪¦v¦ wäre dann linear unabhängig
in V , hätte aber mehr Elemente als dimW = dimV , Widerspruch.
4.3 Unendlichdimensionale Vektorräume
4.3.1 Beispiele
• Eine andere Sichtweise auf die Menge der Polynome über einem Körper K ist
die Betrachtung der Polynomkoeffizienten, angeordnet in einer unendlichen Fol-
ge, in der fast alle Folgenglieder 0 sind:
K[x]

= ¦(a
0
, a
1
, . . . , a
n
, 0, 0, . . .) [ ∃ n ∈ N : a
0
, . . . , a
n
∈ K, a
k
= 0 ∀ k > n¦
Man definiert dann 1 := (1, 0, 0, . . .), x := (0, 1, 0, 0, . . .), x
2
:= (0, 0, 1, 0, 0, . . .)
usw. Die Menge dieser Vektoren ist die Standardeinheitsbasis des K
(N)
.
Diese Sichtweise ist auch verträglich mit der Multiplikation im Polynomring,
wie man leicht nachrechnen kann.
Insgesamt ist also K[x]

= K
(N)
, wobei K
(N)
der Vektorraum der unendlichen
Folgen mit fast allen Folgengliedern = 0 ist.
• Die Menge der unendlichen Folgen über einem Körper K
K
N
= ¦(a
0
, a
1
, . . . , a
n
, . . .) [ a
i
∈∈ ∀ i ∈ N¦
ist ebenfalls ein Vektorraum. Die Operationen werden auch hier komponenten-
weise definiert.
B = ((1, 0, 0, . . .), (0, 1, 0, . . .), . . .)
ist keine Basis von K
N
, weil zum Beispiel (1, 1, 1, . . .) nicht als endliche Linear-
kombination von Vektoren aus geschrieben werden kann. B kann diesen Vektor
also nicht erzeugen.
4.3.2 Halbordnungen
Definition 4.8. Sei M eine Menge. Eine Relation R ⊆ M M heißt Halbordnung
auf M, wenn gilt
(i) R ist reflexiv: mRm ∀ m ∈ M,
(ii) R ist antisymmetrisch: ∀ m, n ∈ M : mRn ∧ nRm ⇒ m = n und
(iii) R ist transitiv: ∀ m, n, o ∈ M : mRn ∧ nRo ⇒ mRo.
48
4.3.3 Beispiele
• „≤“ ist auf Z eine Halbordnung.
• Sei
M = {(¦1, 2, 3¦) = ¦∅, ¦0¦ , ¦1¦ , ¦2¦ , ¦3¦ , ¦1, 2¦ , ¦1, 3¦ , ¦2, 3¦ , ¦1, 2, 3¦¦
Die Inklusion „⊆“ ist eine Halbordnung auf jeder Menge von Mengen:
(i) A ⊆ A
(ii) A ⊆ B ∧ B ⊆ A ⇒ A = B
(iii) A ⊆ B ∧ B ⊆ C ⇒ A ⊆ C
4.3.4 Ketten
Definition 4.9. Sei M eine Menge mit einer Halbordnung R.
(a) K ⊆ M heißt Kette, falls gilt: a, b ∈ K ⇒ aRb ∨ bRa.
(b) Eine Kette heißt induktiv, falls ein m ∈ M existiert, sodass kRm ∀ k ∈ K
(m ist obere Schranke von K).
(c) Ein Element m
0
∈ M heißt maximal in M, falls gilt:
Ist m
0
Rm für ein m ∈ M, dann folgt m = m
0
.
4.3.5 Lemma von Zorn
Satz 4.3.1. Sei M = ∅ und R eine Halbordnung auf M. Ist jede Kette K ⊆ M
induktiv, so gibt es wenigstens ein maximales Element m ∈ M.
(Das Lemma von Zorn ist äquivalent zum Auswahlaxiom.)
4.3.6 Basisexistenzsatz für beliebige Vektorräume
Satz 4.3.2. Sei V ein L-Vektorraum. Dann gibt es eine maximal linear unabhängige
Teilmenge B in V , also eine Basis.
Beweis. Sei
M := ¦B [ B ⊆ V, B ist linear unabhängig¦
M = ∅, weil ∅ linear unabhängig ist und ∅ ⊆ V , und damit ∅ ∈ M.
Ordne M bezüglich der Inklusion. Sei K ⊆ M eine Kette in M. Es wird gezeigt, dass
K induktiv ist.
Setze dazu
B
0
=
¸
B∈K
B
dann gilt B ⊆ B
0
für alle B ∈ K. B
0
∈ M, wenn B
0
linear unabhängig ist: Sei
n
¸
i=1
λ
i
b
i
= 0
für λ
i
∈ L, b
i
∈ B
0
. Dann gibt es B
i
∈ K mit b
i
∈ B
i
für alle i = 1, . . . , n. Nach
Definition der Kette sind die B
i
so geordnet, dass es ein j ∈ ¦1, . . . , n¦ gibt, sodass
49
B
i
⊆ B
j
, also b
i
∈ B
j
für alle i. B
j
∈ M ist aber linear unabhängig, und damit folgt
aus der Gleichung:
λ
1
= λ
2
= . . . = λ
n
= 0
Es gibt also ein B
0
∈ M mit B ⊆ B
0
für alle B ∈ K, also ist K induktiv.
Damit ist gezeigt, dass jede Kette aus M induktiv ist. Nach dem Lemma von Zorn gibt
es also ein maximales Element in M, d.h. eine maximal linear unabhängige Menge von
Vektoren in V , also eine Basis.
4.4 Matrizen
4.4.1 Definition
Definition 4.10. Eine mn-Matrix über K ist eine Anordnung von n m Elementen
aus K in einem rechteckigen Schema:

¸
¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
¸

Die Elemente a
ij
sind die Koeffizienten des Matrix.
Die waagerecht geschriebenen Tupel (a
i1
, a
i2
, . . . , a
in
) heißen Zeilen(-vektoren).
Die senkrecht geschriebenen Tupen

¸
¸
¸
¸
a
1j
a
2j
.
.
.
a
mn
¸

heißen Spalten(-vektoren).
Die Menge aller mn-Matrizen über K bezeichnet man mit M
K
(m, n), M(m, n, K)
oder K
m×n
.
4.4.2 Zeilenstufenform
Definition 4.11. Eine Matrix ist in Zeilenstufenform , wenn sie so aussieht:

¸
¸
¸
¸
¸
¸
¸
¸
0 ∗
0 0 ∗ *
.
.
.
.
.
.
.
.
.
0 0
.
.
.
* ∗
0 0 0 0 ∗
0 0 0 0 0
0 0
¸

Beschreibung:
• Die sind alle = 0.
• Die Elemente rechts von den sind beliebig (∗).
• Unter der Stufenlinie stehen nur 0-Elemente.
Formaler: A ∈ K
m×n
ist in Zeilenstufenform, wenn
• Es gibt ein r ∈ ¦0, 1, . . . , n¦, sodass alle Zeilen mit Index i > r nur Nullen
enthalten.
• Es existieren j
1
, . . . , j
r
mit 0 < j
1
< j
2
< . . . < j
r
≤ n und j
i
:= min ¦j [ a
ij
= 0¦.
50
4.4.3 Kriterium für lineare Unabhängigkeit
Lemma 4.2. Ist A in Zeilenstufenform und sind a
1
, . . . , a
r
die Zeilen ungleich o in A,
dann sind diese Zeilen linear unabhängig.
Beweis. Sei
o = λ
1
a
1
+. . . +λ
r
a
r
mit λ
i
∈ K für alle 1 ≤ i ≤ r.
Dies „ist“ (also: kann interpretiert werden als) ein System von n homogenen linearen
Gleichungen.
Betrachte j
1
dieser Gleichungen:
0 = λ
1
a
1,j
1
+. . . +λ
r
a
r,j
1
Wegen a
ij
= 0 für alle i > 1 (alle Einträge unter dem ersten Element = 0 in der ersten
Zeile sind 0) ist das
0 = λ
1
a
1,j
1

2
0 +. . . +λ
r
0 = λ
1
a
1,j
1
....
=0
⇒ λ
1
= 0
Sei aus den Gleichungen j
1
, . . . , j
k−1
gezeigt, dass λ
1
= . . . = λ
k−1
= 0 für ein
k, 1 < k ≤ n. Wenn j
k
≤ j
r
, dann betrachte die j
k
-te Gleichung des Systems
0 = λ
1
a
1,j
k
+. . . +λ
r
a
r,j
k
Wegen λ
1
= . . . = λ
k−1
= 0, und a
ij
= 0 für alle i > k folgt
0 = 0a
1,j
k
+0a
2,j
k
+. . .+0a
k−1,j
k

k
a
k,j
k

k+1
0+λ
r
0 = λ
k
a
k,j
k
....
=0
⇒ λ
k
= 0
Induktiv folgt also λ
1
= λ
2
= . . . = λ
r
= 0, d.h. a
1
, . . . , a
r
können nur trivial zum
Nullvektor kombiniert werden, sie sind also linear unabhängig.
4.4.4 Zeilenraum
Definition 4.12. Der Zeilenraum ZR(A) einer Matrix A ∈ K
m×n
ist das Erzeugnis
der Zeilen von A, d.h. ZR = 'a
1
, . . . , a
n
`, wobei a
i
die i-te Zeile von A ist.
4.4.5 Elementare Zeilenumformungen
Definition 4.13. Sei A eine Matrix des K
m×n
.
• Typ I: Die i-te Zeile wird mit einem Skalar multipliziert.
A =

¸
¸
¸
¸
¸
¸
¸
∗ ∗ . . . ∗ ∗
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
− − a
i
− −
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
∗ ∗ . . . ∗ ∗
¸

λ=0

¸
¸
¸
¸
¸
¸
¸
∗ ∗ . . . ∗ ∗
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
− − λ a
i
− −
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
∗ ∗ . . . ∗ ∗
¸

= A
I
51
• Typ II: Zeile i und Zeile j werden addiert.
A =

¸
¸
¸
¸
¸
¸
∗ ∗ . . . ∗ ∗
− − a
i
− −
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
− − a
j
− −
∗ ∗ . . . ∗ ∗
¸

¸
¸
¸
¸
¸
¸
∗ ∗ . . . ∗ ∗
− − a
i
− −
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
− − a
j
+a
i
− −
∗ ∗ . . . ∗ ∗
¸

= A
II
4.4.6 Elementare Zeilenumformungen sind zeilenraumerhaltend
Lemma 4.3. Für die Zeilenumformungen A → A
I
und A → A
II
gilt:
ZR(A) = ZR(A
I
) = ZR(A
II
)
Beweis. Sei v ∈ ZR(A), d.h. es existieren µ
1
, . . . , µ
m
mit
v = µ
1
a
1
+. . . +µ
i
a
i
+. . . +µ
m
a
m
= µ
1
a
1
+. . . +
µ
i
λ
(λ a
i
) +. . . +µ
m
a
m
∈ ZR(A
I
)
bzw.
v = µ
1
a
1
+. . . +µ
i
a
i
+. . . +µ
j
a
j
+. . . +µ
m
a
m
= µ
1
a
1
+. . . + (µ
i
−µ
j
) a
i
+. . . +µ
j
(a
j
+a
i
) +. . . +µ
m
a
m
∈ ZR(A
II
)
Die anderen Richtungen sind ähnlich einfach zu zeigen.
4.4.7 Weitere Zeilenumformungen
• Typ III: Addition des λ-fachen einer Zeile i zu einer Zeile j.
A =

¸
¸
¸
¸
¸
¸
∗ ∗ . . . ∗ ∗
− − a
i
− −
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
− − a
j
− −
∗ ∗ . . . ∗ ∗
¸

λ=0

¸
¸
¸
¸
¸
¸
∗ ∗ . . . ∗ ∗
− − a
i
− −
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
− − a
j
+λ a
i
− −
∗ ∗ . . . ∗ ∗
¸

= A
III
Typ III als Kombination von Typ I und II:
A =

¸
¸
¸
¸
¸
¸
∗ . . . ∗
− a
i

.
.
.
.
.
.
.
.
.
− a
j

∗ . . . ∗
¸

I

¸
¸
¸
¸
¸
¸
∗ . . . ∗
− λ a
i

.
.
.
.
.
.
.
.
.
− a
j

∗ . . . ∗
¸

II

¸
¸
¸
¸
¸
¸
∗ . . . ∗
− λ a
i

.
.
.
.
.
.
.
.
.
− a
j
+λ a
i

∗ . . . ∗
¸

I

¸
¸
¸
¸
¸
¸
∗ . . . ∗
− a
i

.
.
.
.
.
.
.
.
.
− a
j
+λ a
i

∗ . . . ∗
¸

= A
III
Also ist ZR(A) = ZR(A
III
).
52
• Typ IV: Vertauschen von zwei Zeilen.
A =

¸
¸
¸
¸
¸
¸
∗ ∗ . . . ∗ ∗
− − a
i
− −
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
− − a
j
− −
∗ ∗ . . . ∗ ∗
¸

¸
¸
¸
¸
¸
¸
∗ ∗ . . . ∗ ∗
− − a
j
− −
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
− − a
i
− −
∗ ∗ . . . ∗ ∗
¸

= A
IV
Typ III als Kombination von Typ I, II und III:
A =

¸
¸
¸
¸
¸
¸
∗ . . . ∗
− a
i

.
.
.
.
.
.
.
.
.
− a
j

∗ . . . ∗
¸

III

¸
¸
¸
¸
¸
¸
∗ . . . ∗
− a
i

.
.
.
.
.
.
.
.
.
− a
j
−a
i

∗ . . . ∗
¸

II

¸
¸
¸
¸
¸
¸
∗ . . . ∗
− a
i
+ (a
j
−a
i
) = a
j

.
.
.
.
.
.
.
.
.
− a
j
−a
i

∗ . . . ∗
¸

III

¸
¸
¸
¸
¸
¸
∗ . . . ∗
− a
j

.
.
.
.
.
.
.
.
.
− (a
j
−a
i
) −a
j
= −a
i

∗ . . . ∗
¸

I

¸
¸
¸
¸
¸
¸
∗ . . . ∗
− a
j

.
.
.
.
.
.
.
.
.
− a
i

∗ . . . ∗
¸

= A
IV
Also folgt: ZR(A) = ZR(A
IV
)
4.4.8 Jede Matrix kann in Zeilenstufenform umgeformt werden
Satz 4.4.1. Sei A eine (mn)-Matrix mit Zeilen a
1
, . . . , a
m
.
Mit elementaren Zeilenumformungen lässt sich A in eine Matrix A

in Zeilenstufen-
form überführen.
Die Zeilen von A

, die keine Nullzeilen sind, bilden eine Basis von ZR(A).
Beweis. Es bleibt zu zeigen, dass elementare Zeilenumformungen „stark genug“ sind,
um Zeilenstufenform zu erzeugen.
Die Idee dazu ist die systematische Erzeugung von 0-Einträgen.
Wenn A die Nullmatrix ist, dann ist nichts zu zeigen.
1. Ansonsten gibt es eine Spalte, die einen Eintrag ungleich 0 hat. Betrachte die
erste dieser Spalten, j
1
, und tausche die Zeilen so, dass in der ersten Zeile in der
betrachteten Spalte das Element a
1,j
1
= 0 steht.
2. Mit Umformungen des Typs III addiert man Vielfache der ersten Zeile zu den
anderen Zeilen, dass die Spalte j
1
bis auf den Eintrag a
1,j
1
nur 0 enthält.
3. Sei die Matrix bis zu einer Zeile a
k−1
bereits in Zeilenstufenform, wobei die
letzte betrachtete Spalte j
k−1
war. Ist a
k−1
letzte Zeile oder j
k−1
letzte Spalte,
ist man fertig. Man ist außerdem fertig, wenn alle Spalten rechts von j
k−1
und
53
unterhalb von a
k−1
nur 0 enthalten. Ansonsten betrachte die erste Spalte, ge-
nannt j
k
, die einen Eintrag ungleich 0 unterhalb von Zeile a
k−1
hat. Tausche die
Zeile mit diesem Eintrag so, dass sie danach Zeile a
k
ist.
4. Mit Umformungen des Typs III addiert man Vielfache von a
k
zu den anderen
Zeilen unterhalb von a
k
, so dass die Spalte j
k
unterhalb von a
k
nur 0-Einträge
enthält.
4.4.9 Beispiele
Betrachte folgende Matrizen aus dem R
3
:

¸
2 3 4
0 1 2
4 0 8
¸

a
3
←a
3
−2a
1
−→

¸
2 3 4
0 1 2
0 −6 0
¸

a
3
←a
3
+6a
2
−→

¸
2 3 4
0 1 2
0 0 12
¸

¸
1 1 1
4 3 2
3 2 1
¸

a
3
←a
3
+a
1
−→

¸
1 1 1
4 3 2
4 3 2
¸

a
3
←a
2
−a
3
−→

¸
1 1 1
4 3 2
0 0 0
¸

a
2
←a
2
−4a
3
−→

¸
1 1 1
0 −1 −2
0 0 0
¸

4.5 Summen und direkte Summen
4.5.1 Summe von Untervektorräumen
Definition 4.14. Sind U
1
, U
2
Unterräume eines K-Vektorraums V , dann heißt
U
1
+U
2
:= ¦x +y [ x ∈ U
1
, y ∈ U
2
¦
die Summe von U
1
und U
2
.
Bemerkung. U
1
+U
2
ist ein Untervektorraum von V .
Beweis. Nachweis der Untervektorraumkriteriums
U1 o ∈ U
1
, o ∈ U
2
, also o = o +o ∈ (U
1
+U
2
)
U2 Seien x, x

∈ U
1
, y, y

∈ U
2
, dann sind (x +y), (x

+y

) ∈ (U
1
+U
2
) und
(x +y) + (x

+y

) = (x +x

)
. .. .
∈U
1
+(y +y

)
. .. .
∈U
2
∈ (U
1
+U
2
)
U2 Ebenso ist für λ ∈ K
λ (x +y) = λ x
....
∈U
1
+λ y
....
∈U
2
∈ (U
1
+U
2
)
54
4.5.2 Beispiele
• U +¦o¦ = U
• U +U = U
• Allgemeiner: U +U

= U, wenn U

Untervektorraum von U ist.
4.5.3 Summe und Erzeugnis
Korollar. Für zwei Unterräume U
1
, U
2
gilt: 'U
1
, U
2
` = U
1
+U
2
.
Beweis. Sei zunächst s ∈ U
1
+ U
2
, d.h. es gibt x ∈ U
1
, y ∈ U
2
mit x + y = s.
Trivialerweise ist dann s = 1 x + 1 y ∈ 'U
1
, U
2
`, also gilt U
1
+U
2
⊆ 'U
1
, U
2
`.
Sei andererseits u ∈ 'U
1
, U
2
`, d.h. es gibt Vektoren v
1
, . . . , v
s
∈ U
1
, w
s+1
, . . . , w
s+t

U
2
und Skalare λ
1
, . . . , λ
s
, λ
s+1
, . . . , λ
s+t
∈ K, sodass gilt
u = λ
1
v
1
+. . . +λ
s
v
s
. .. .
∈U
1

s+1
w
s+1
+. . . +λ
s+t
w
s+t
. .. .
∈U
2
also eben auch u ∈ (U
1
+U
2
).
4.5.4 Dimensionsformel
Satz 4.5.1. Sind U
1
und U
2
Untervektorräume von V , dann gilt
dim(U
1
+U
2
) = dim(U
1
) + dim(U
2
) −dim(U
1
∩ U
2
)
Beweis. Sei B
0
= ¦v
1
, . . . , v
r
¦ eine Basis von U
1
∩U
2
, d.h. dim(U
1
∩U
2
) = r. Nach
dem Basisergänzungssatz kann man B
0
einerseits zu
B
1
= ¦v
1
, . . . , v
r
, w
1
, . . . , w
s
¦
als eine Basis von U
1
(d.h. dimU
1
= r +s), und andererseits zu
B
2
= ¦v
1
, . . . , v
r
, z
1
, . . . , z
t
¦
als eine Basis von U
2
(d.h. dimU
2
= r +t) ergänzen.
Kann man nun zeigen, dass B
3
= ¦v
1
, . . . , v
r
, w
1
, . . . , w
s
, z
1
, . . . , z
t
¦ eine Basis von
U
1
+U
2
ist, dann hat man gezeigt
dim(U
1
+U
2
) = r +s+t = (r +s) +(r +t) −r = dimU
1
+dimU
2
−dim(U
1
∩U
2
)
Dass B
3
den Raum U
1
+ U
2
erzeugt, ist klar. Übrig bleibt der Beweis der linearen
Unabhängigkeit:
Sei also für gesuchte α
1
, . . . , α
r
, β
1
, . . . , β
s
, γ
1
, . . . , γ
t
∈ K:
o = α
1
v
1
+. . . +α
r
v
r

1
w
1
+. . . +β
s
w
s

1
z
1
+. . . +γ
t
z
t

−α
1
v
1
−. . . −α
r
v
r
−β
1
w
1
−. . . −β
s
w
s
= γ
1
z
1
+. . . +γ
t
z
t
Das heißt aber
−α
1
v
1
−. . . −α
r
v
r
−β
1
w
1
−. . . −β
s
w
s
= γ
1
z
1
+. . . +γ
t
z
t
∈ U
1
55
Gleichzeitig gilt auch
γ
1
z
1
+. . . +γ
t
z
t
∈ U
2
also
γ
1
z
1
+. . . +γ
t
z
t
∈ (U
1
∩ U
2
)
Dieser Vektor kann somit als Linearkombination von B
0
dargestellt werden, d.h. es
gibt λ
1
, . . . , λ
r
mit
γ
1
z
1
+. . . +γ
t
z
t
= λ
1
v
1
+. . . +λ
r
v
r

o = λ
1
v
1
+. . . +λ
r
v
r
−γ
1
z
1
−. . . −γ
t
z
t
Da ¦v
1
, . . . , v
r
, z
1
, . . . , z
t
¦ = B
2
Basis von U
2
ist, also insbesondere linear unabhän-
gig ist, folgt
λ
1
= . . . = λ
r
= −γ
1
= . . . = −γ
t
= 0
also γ
1
= . . . = γ
t
= 0. Aus der ursprünglichen Gleichung folgt damit:
o = α
1
v
1
+. . . +α
r
v
r

1
w
1
+. . . +β
s
w
s
Es ist aber ¦v
1
, . . . , v
r
, w
1
, . . . , w
s
¦ = B
1
eine Basis von B
1
, insbesondere ist die
Menge linear unabhängig, also folgt
α
1
= . . . = α
r
= β
1
= . . . = β
s
= 0
D.h. alle Koeffizienten α
i
, β
i
, γ
i
der Ausgangsgleichung sind 0, woraus die lineare
Unabhängigkeit von ¦v
1
, . . . , v
r
, w
1
, . . . , w
s
, z
1
, . . . , z
t
¦ = B
3
folgt.
4.5.5 Direkte Summe
Definition 4.15. Ein Vektorraum heißt direkte Summe von U
1
und U
2
, wenn
• V = U
1
+U
2
• U
1
∩ U
2
= ¦o¦
Man schreibt dann: V = U
1
⊕U
2
4.5.6 Existenz von komplementären Unterräumen
Proposition 4.5.1. Ist U ein Untervektorraum von V , dann gibt es einen Unterraum
U

mit U ⊕U

= V .
Beweis. Sei (v
1
, . . . , v
s
) = B eine Basis von U. B kann durch B

= (w
1
, . . . , w
t
) zu
einer Basis (v
1
, . . . , v
s
, w
1
, . . . , w
t
) von V ergänzt werden.
Setze U

= 'B

`. Weil B∪B

Basis von V ist, erzeugt B∪B

⊆ (U
1
+U
2
) bestimmt
V , d.h. aber U
1
+U
2
= 'U
1
, U
2
` = V . Weil B ∪ B

linear unabhängig ist, folgt aus
v ∈ 'B` = U ∧ v ∈ 'B

` = U

dass v = o gelten muss, d.h. U ∩ U

= ¦o¦.
4.5.7 Beispiel
R
3
= 'e
1
` +'e
2
` +'e
3
`
56
5 Lineare Abbildungen
5.1 Definitionen
5.1.1 Lineare Abbildungen
Definition 5.1. Seien V, W Vektorräume über K. Eine Abbildung F : V → W ist
eine lineare Abbildung, wenn gilt
L1 F(v
1
+v
2
) = F(v
1
) +F(v
2
) ∀ v
1
, v
2
∈ V - Additivität
L2 F(λ v) = λ F(v) ∀ λ ∈ K, v ∈ V - Homogenität
Lineare Abbildungen sind also Homomorphismen von Vektorräumen.
Bemerkung. Zum Beweis der Linearität genügt zu zeigen:
F(λ
1
v
1

2
v
2
) = λ
1
F(v
1
) +λ
2
F(v
2
)
5.1.2 Beispiele
1.
Achtung.
f : R →R
f(x) = a x +b
f ist affin linear, linear in unserem Sinne nur für b = 0.
2. Sei A ∈ K
m×n
eine Matrix über K:
A =

¸
¸
a
11
. . . a
1n
.
.
.
.
.
.
.
.
.
a
m1
. . . a
mn
¸

Diese Matrix definiert eine lineare Abbildung durch
A : K
n
→ K
m
x =

¸
¸
x
1
.
.
.
x
n
¸

¸
¸
'a
1
, x`
.
.
.
'a
m
, x`
¸

=

¸
¸
a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
¸

Man zeigt leicht, dass A : K
n
→ K
m
linear ist.
3. Drehungen der Ebene um o
57
Eine Drehung um einen Winkel α ist eine Abbildung
ρ
α
: R
2
→R
2
ρ
α
(x, y) → (x cos α −y sin α, x sin α +y cos α)
ρ
α
ist (bis auf Transposition) die Abbildung zur Matrix
A =

cos α −sin α
sin α cos α

4. Differentialoperator
D : R[x] →R[x]
n
¸
k=0
a
k
x
k

n
¸
k=0
k a
k
x
k−1
Man zeigt leicht: D ist linear (Ableitungsregeln).
5.1.3 Lineare Abbildungen sind Vektorraumhomomorphismen
Definition 5.2. Sei F : V → W eine lineare Abbildung, also ein Vektorraumhomo-
morphismus.
• Wenn F bijektiv ist, dann ist F ein Isomorphismus.
• Wenn V = W, dann ist F ein Endomorphismus.
• Wenn V = W und F bijektiv, dann ist F Automorphismus.
5.1.4 Eigenschaften von linearen Abbildungen
Bemerkung. Es gilt
• F(o) = o
• F(λ
1
v
1
+. . . +λ
n
v
n
) = λ
1
F(v
1
) +. . . +λ
n
F(v
n
)
• Ist U ein Unterraum von V , dann ist F(U) ein Unterraum von W (U1 folgt aus
der ersten Bemerkung, U2 und U3 aus der zweiten).
58
• Sind v
1
, . . . , v
n
linear abhängig in V , dann sind F(v
1
), . . . , F(v
n
) linear ab-
hängig in W. Denn es gibt eine nicht-triviale Linearkombination von o durch
v
1
, . . . , v
n
. F auf diese Linearkombination angewandt ist einerseits, nach der
ersten Bermerkung der Nullvektor in W, andererseits aber auch, nach der zwei-
ten Bemerkung, eine Linearkombination von Vektoren F(v
1
), . . . , F(v
n
).
• Sei U ein Unterraum von V , dann gilt: dim(F(U)) ≤ dim(U). Denn jede Fa-
milie von mehr als dim(U) Vektoren aus U ist linear abhängig und nach der
letzten Bermerkung ist dann auch jede Familie von mehr als dim(U) Vektoren
aus F(U) linear abhängig.
5.1.5 Komposition linearer Abbildungen sind linear
Proposition 5.1.1. Seien U, V, W K-Vektorräume, G : V → W, F : U → V lineare
Abbildungen, dann ist auch (G◦ F) : U → W linear.
Beweis. Es sind Additivität und Homgenität zu zeigen.
• Seien u
1
, u
2
∈ U, dann gilt
(G◦ F)(u
1
+u
2
) = G(F(u
1
+u
2
)) = G(F(u
1
) +F(u
2
))
= G(F(u
1
)) +G(F(u
2
)) = (G◦ F)(u
1
) + (G◦ F)(u
2
)
• Sei u ∈ U und λ ∈ K, dann gilt
(G◦ F)(λ u) = G(F(λ u)) = G(λ F(u))
= λ G(F(u)) = λ (G F)(u)
5.1.6 Vektorräume der Homomorphismen
Definition. Man bezeichnet die Menge aller Homomorphismen zwischen zwei K-
Vektorräumen V und W als Hom(V, W), also
Hom(V, W) = ¦F : V → W, F linear¦
Bemerkung. Hom(V, W) ist ein Untervektorräum von Abb(V, W) = W
V
.
Beweis. Die Unterraumkriterien müssen erfüllt sein:
U1 O : v → o - die Nullabbildung - ist linear:
Seien v
1
, v
2
∈ V , λ
1
, λ
2
∈ K.
O(λ
1
v
1

2
v
2
) = o = λ
1
o +λ
2
o = λ
1
O(v
1
) +λ
2
O(v
2
)
U2 Abgeschlossenheit gegenüber der Addition, also (F + G) ∈ Hom für F, G ∈
Hom
Seien v
1
, v
2
∈ V , λ
1
, λ
2
∈ K.
(F +G)(λ
1
v
1

2
v
2
) = F(λ
1
v
1

2
v
2
) +G(λ
1
v
1

2
v
2
)
= λ
1
F(v
1
) +λ
2
F(v
2
) +λ
1
G(v
1
) +λ
2
G(v
2
)
= λ
1
(F(v
1
) +G(v
1
)) +λ
2
(F(v
2
) +G(v
2
))
= λ
1
(F +G)(v
1
) +λ
2
(F +G)(v
2
)
59
U3 Abgeschlossenheit gegenüber der Skalarmultiplikation, also (λ F) ∈ Hom für
F ∈ Hom, λ ∈ K
Seien v
1
, v
2
∈ V , λ
1
, λ
2
∈ K.
(λ F)(λ
1
v
1

2
v
2
) = λ F(λ
1
v
1

2
v
2
)
= λ (λ
1
F(v
1
) +λ
2
F(v
2
))
= λ λ
1
F(v
1
) +λ λ
2
F(v
2
)
= λ
1
(λ F(v
1
)) +λ
2
(λ F(v
2
))
= λ
1
(λ F)(v
1
) +λ
2
(λ F)(v
2
)
Also ist Hom(V, W) ein Unterraum von W
V
.
5.1.7 Menge der Endomorphismen
Definition. Die Menge der Endomorphismen eines Vektorräums bezeichnet man mit
End(V ), also
End(V ) := Hom(V, V )
Satz 5.1.1. End(V ) mit + (von Hom) und ◦ (Komposition) ist ein Ring.
Beweis. Es sind die Ringaxiome nachzuweisen
R1 (End(V ), +) ist eine abelsche Gruppe, weil (End(V ), +, ) ein K-Vektorraum
ist.
R2 Die Komposition ist immer assoziativ; sie ist auch eine Operation ◦ : End(V )
End(V ) → End(V ), weil die Verknüpfüng zweier Endomorphismen F, G ∈
End(V ) wieder ein Endomorphismus ist.
R3 Distributivgesetze:
Seien F, G, H ∈ End(V ), dann gilt für alle v ∈ V :
(F ◦ (G+H)) (v) = F((G+H)(v)) = F(G(v) +H(v))
= F(G(v)) +F(H(v)) = (F ◦ G)(v) + (F ◦ H)(v)
und
((F +G) ◦ H) (v) = (F +G)(H(v)) = F(H(v)) +G(H(v))
= (F ◦ H)(v) + (G◦ H)(v)
• (End(V ), +, ◦) hat sogar ein Einselement: die identische Abbildung id
V
.
5.2 Bild, Faser, Kern
5.2.1 Definitionen
Definition 5.3. Für F : V → W linear, ist
• das Bild: imF = F(V ) = ¦w ∈ W [ ∃ v ∈ V : F(v) = w¦ ⊆ W
60
• der Kern: ker F = F
−1
(o) = ¦v ∈ V [ F(v) = o¦ ⊆ V
Die Faset von F über w ∈ imF ist
F
−1
(w) = ¦v ∈ V [ F(v) = w¦ ⊆ V
Bemerkung. Sei F : V → W ist linear.
(a) imF ⊆ W ist ein Untervektorraum von W.
(b) ker F ⊆ V ist ein Untervektorraum von V .
(c) F surjektiv genau dann, wenn imF = W (per Definition).
(d) F injektiv genau dann, wenn ker F = ¦o¦.
(e) F injektiv, dann gilt:
Sind v
1
, . . . , v
n
linear unabhängig in V , dann sind F(v
1
), . . . , F(v
n
) linear un-
abhängig von W.
Beweis. Sei F : V → W ist linear.
(a) Es sind die Untervektorraumaxiome nachzuweisen:
U1 F(o) = o, d.h. o ∈ imF
U2 w
1
, w
2
∈ imF ⇒ ∃ v
1
, v
2
∈ V : F(v
1
) = w
1
, F(v
2
) = w
2
, und dann
F(v
1
+v
2
) = F(v
1
) +F(v
2
) = w
1
+w
2
also w
1
+w
2
∈ imF.
U3 λ ∈ K, w ∈ imF ⇒ ∃, v ∈ V : F(v) = w, und dann
F(λ v) = λ F(v) = λ w
also λ w ∈ imF.
(b) Es sind die Untervektorraumaxiome nachzuweisen:
U1 F(o) = o, d.h. o ∈ ker F
U2 v
1
, v
2
∈ ker F, d.h. F(v
1
) = F(v
2
) = o, also auch
F(v
1
+v
2
) = F(v
1
) +F(v
2
) = o +o = o
U3 λ ∈ K, v ∈ ker F, d.h. F(v) = o, und auch
F(λ v) = λ F(v) = λ o = o
(d) Wenn F injektiv, dann gilt natürlich auch ker F = F
−1
(o) = ¦o¦.
Sei andererseits ker F = F
−1
(o) = ¦o¦. Wenn v = v

, dann ist v −v

= o, also
F(v −v

) = o ⇔
F(v) −F(v

) = o ⇔
F(v) = F(v

)
also ist F injektiv.
61
(e) Betrachte
λ
1
F(v
1
) +. . . +λ
k
F(v
k
) = o ⇔
F(λ
1
v
1
+. . . +λ
k
v
k
) = o
Aus der Injektivität folgt ker F = ¦o¦, also
λ
1
v
1
+. . . +λ
k
v
k
= o
Aus der linearen Unabhängigkeit folgt dann
λ
1
= . . . = λ
k
= 0
5.2.2 Rang einer linearen Abbildung
Definition 5.4. Wenn F : V → W eine lineare Abbildung ist, dann ist der Rang von
F definiert als rangF = rkF = dim(imF).
5.2.3 Rang einer Matrix
Proposition 5.2.1. Sei A ∈ K
m×n
eine mn Matrix, dann ist der Rang der linearen
Abbildung A : K
n
→ K
m
die Dimension des von den Spalten a
1
, . . . , a
n
von A
erzeugten Untervektorraums von K
m
.
Beweis. Es gilt sogar: imA =

a
1
, . . . , a
n

:
⊇ a
i
∈ imA, weil A e
i
= a
i
. Und weil imF ein Vektorraum ist, ist mit a
1
, . . . , a
n
auch

a
1
, . . . , a
n

in imF enthalten.
⊆ Sei y ∈ imA, d.h. es existiert ein x ∈ K
n
mit
y = A x = a
1
x
1
+a
2
x
2
+. . . +a
n
x
n
. .. .
∈a
1
,...,a
n

5.2.4 Faserung eines Vektorraums
Bemerkung. Sei F : V → W linear.
Sei w ∈ imF, d.h. es existiert ein v
0
∈ V mit F(v
0
) = w. Die Faser über w ist dann
F
−1
(w) = v
0
+ ker F = ¦v
0
+v [ v ∈ ker F¦
Beweis. Zu zeigen ist:
¦v ∈ V [ F(v) = w¦ = ¦v
0
+v [ v ∈ ker F¦
⊇ Sei v ∈ ker F, dann folgt
F(v
0
+v) = F(v
0
) +F(v) = w +o = w
also v
0
+v ∈ F
−1
(w).
62
⊆ Sei u ∈ F
−1
(w), d.h. F(u) = w = F(v
0
) und damit F(u) − F(v
0
) = F(u −
v
0
) = o. Damit ist aber u − v
0
∈ ker F und u = v
0
+ (u −v
0
)
. .. .
∈ker F
, also u ∈
v
0
+ ker F.
5.2.5 Affine Teilräume
Definition 5.5. Eine Teilmenge X eines Vektorraums V ist ein affiner Teilraum (oder
auch: affiner Unterraum), falls es einen Unterraum U von V gibt, sodass X = v + U
für ein v ∈ V .
Bemerkung. Wir haben gesehen: Die Fasern einer linearen Abbildung F : V → W
sind affine Teilräume von V .
Es gilt auch: Jeder affine Teilraum ist eine Faser einer linearen Abbildung.
5.2.6 Beispiel
Im R
2
und R
3
gibt es als affine Unterräume Punkte, Geraden, Ebenen. Zudem ist auch
R
3
selbst ein affiner Unterraum.
Sei F : R
2
→R
3
die Projektion parallel zur x-Achse auf die Gerade x = y.
Diese Abbildung ist linear: F

x
y

=

y
y

, sie wird durch die Matrix

0 1
0 1

realisiert.
Der Kern von F ist ker F =

x
0

∈ R
2

. Die Faser eines Punktes

p
p

ist
dann
F
−1

p
p

=

x
p

[ x ∈ R
2

=

p
p

+ ker F
5.2.7 Charakterisierung von affinen Unterräumen
Proposition 5.2.2. Sei X = v +U ein affiner Unterraum von V . Wenn X = v

+U

,
dann gilt
1. v ∈ X, v

∈ X, und vor allem v −v

∈ U,
63
2. U = U

Tatsächlich gilt für jedes x ∈ X: X = x +U.
Beweis. Wenn X = v +U = v

+U

, dann gilt eben
1. v = v +o ∈ X und v

= v

+o ∈ X,
2. damit dann v = v

+u

und v

= v+u für bestimmte u ∈ U, u

∈ U

, zusammen
v = (v +u) +u

= v +u +u

⇔ o = u +u

⇔ u = −u

Wegen u ∈ U ist auch −u = −(−u

) = u

∈ U, analog u ∈ U

, also insgesamt
U = U

.
Schließlich folgt: v = v

+u für ein u ∈ U, also v −v

= u ∈ U.
6 Bildquellen
• http://de.wikipedia.org/wiki/Bild:Injektivit%C3%A4t_Mengenwolke.png
• http://de.wikipedia.org/wiki/Bild:Surjektivit%C3%A4t_Mengenwolke.png
• http://de.wikipedia.org/wiki/Bild:Bijektivit%C3%A4t_Mengenwolke.png
Alle weiteren Bilder erstellt mit GeoGebra und dem GIMP.
64