You are on page 1of 75

Lineare Algebra

Lucas Westermann & Florian Scheibner


1. August 2011
1
Lineare Algebra Lucas Westermann
Inhaltsverzeichnis
Literatur 8
1 Grundlegendes 8
1.1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.1 Denition (Relation) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.3 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.4 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.5 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.6 Beschreibung (Gerichtete Graphen) . . . . . . . . . . . . . . . . . . . . . . 9
1.1.7 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.8 Denition (

Aquivalenzrelation) . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.9 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.10 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.1 Denition (Abbildungen, Funktion) . . . . . . . . . . . . . . . . . . . . . . 11
1.2.2 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.3 Beispiel (identische Abbildung) . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.4 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.5 Beispiel (ASCII-Code) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.6 Denition (Umkehrabbildung) . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.7 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.8 Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.1 Denition (Matrix) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.2 Beispiel (n Tupeln, m-Spalten) . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.3 Kronecker-Symbol, Einheits- und Nullmatrixe) . . . . . . . . . . . . . . . . 14
1.3.4 Beispiel (Diagonal- und Dreieckmatrizen) . . . . . . . . . . . . . . . . . . . 15
1.3.5 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.7 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.8 Beispiel (RGB - Raum) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.9 Beispiel (Inzedenzmatrix) . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.10 Satz (Rechenregeln f ur Matrizen) . . . . . . . . . . . . . . . . . . . . . . . 17
1.4 Lineare Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.1 Denition (lineare Gleichung) . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.2 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.3 Satz (Superpositionsprinzip) . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.4 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Inhaltsverzeichnis Seite 2 von 75
Lineare Algebra Lucas Westermann
1.4.5 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4.6 Beispiel (R uckwarts-Substitution) . . . . . . . . . . . . . . . . . . . . . . . 19
1.4.7 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4.8 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.9 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2 Lineare Raume 23
2.1 Algebraische Strukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.1 Denition (Gruppe) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.2 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.3 Bemerkung (Potenzen) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.4 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.6 Beispiel (modulo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.7 Beispiel (symmetrische Gruppe) . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.8 Korollar (Rechnen in Gruppen) . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.9 Denition (Korper) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.10 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.11 Beispiel (Restklassenkorper modulo p) . . . . . . . . . . . . . . . . . . . . 25
2.1.12 Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.13 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.14 Beweis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1 Denition (linearer Raum, Vektorraum) . . . . . . . . . . . . . . . . . . . 27
2.2.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.3 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.4 Beispiel (Losungsmengen) . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.5 Beispiel (Funktionsraume) . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.6 Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.7 Denition (Unterraum) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.8 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.9 Beispiel (Stetige und stetig-dierenzierbare Funktion) . . . . . . . . . . . . 30
2.2.10 Beispiel (Polynome) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.11 Satz (Schnitte und Summen von Unterraumen) . . . . . . . . . . . . . . . 30
2.3 Lineare Abhangigkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.1 Denition (Spann) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.3 Beispiel (Monome) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.4 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.5 Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.6 Denition (lineare Unabhangigkeit) . . . . . . . . . . . . . . . . . . . . . . 32
2.3.7 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Inhaltsverzeichnis Seite 3 von 75
Lineare Algebra Lucas Westermann
2.3.8 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3.9 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3.10 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3.11 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4 Basis und Dimensionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.1 Denition (Basis) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.3 Beispiel (Standardbasis) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.4 Beispiel (Polynome) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.5 Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.6 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.7 Bemerkung (Koordinaten) . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.8 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.9 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4.10 Lemma (Austauschsatz von Steinitz) . . . . . . . . . . . . . . . . . . . . . 36
2.4.11 Satz (Dimension) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4.12 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4.13 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4.14 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4.15 Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4.16 Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.5 Komplemente und direkte Summen . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.5.1 Denition (direkte Summen) . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.5.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5.3 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5.4 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5.5 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.6 Anwendung: Matrizen und lineare Gleichungen . . . . . . . . . . . . . . . . . . . . 39
2.6.1 Denition (Rang einer Matrix) . . . . . . . . . . . . . . . . . . . . . . . . 39
2.6.2 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.6.3 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3 Lineare Abbildungen 40
3.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.1 Denition (lineare Abbildung) . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.2 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.3 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.4 Beispiel (ane Abbildungen) . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.5 Beispiel (die Abbildung T
A
) . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.7 Beispiel (Vorwarts-Shift) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
Inhaltsverzeichnis Seite 4 von 75
Lineare Algebra Lucas Westermann
3.1.8 Denition (Kern, Bild, Rang) . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.9 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.10 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.11 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.1.12 Satz (Dimensionssatz) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.1.13 Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.1.14 Satz (Prinzip der linearen Fortsetzung) . . . . . . . . . . . . . . . . . . . . 43
3.1.15 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2 Isomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.2 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.3 Beispiel (Transponierte) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.4 Beispiel (Polynome) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.5 Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.6 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.7 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2.8 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2.9 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2.10 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3 Lineare Abbildungen und Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.1 Satz (darstellende Matrix) . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.2 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.3 Beispiel (Polynome) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.4 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.5 Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.6 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.7 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.2 Die Abbildung T
A
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.8 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.9 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.10 Denition (inverse Matrix) . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3.11 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3.12 Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3.13 Denition (regular, singular) . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3.14 Satz (Charakterisierung regularer Matrizen) . . . . . . . . . . . . . . . . . 49
3.3.15 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3.3 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3.16 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.17 Denition (

Ahnlichkeit) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.18 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
Inhaltsverzeichnis Seite 5 von 75
Lineare Algebra Lucas Westermann
4 Eigenwerte 51
4.1 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.1 Denition (Signum) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.3 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.4 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.5 Denition (Determinante) . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.1.6 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.1.7 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.1.8 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.1.9 Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.1.10 Satz (Multiplikativitat der Determinante) . . . . . . . . . . . . . . . . . . 54
4.1.11 Satz (Regularitat und die Determinante) . . . . . . . . . . . . . . . . . . . 54
4.1.12 Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.1.13 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.1.14 Proposition (Entwicklung von det) . . . . . . . . . . . . . . . . . . . . . . 55
4.1.15 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.1.16 Beispiel (Dreiecksmatrizen) . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.1.17 Proposition (Inverse und det) . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.1.18 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.1 Denition (Eigenwert, Eigenvektor und Eigenraum) . . . . . . . . . . . . . 56
4.2.2 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.3 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.4 Beispiel (Shift-Operator) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.5 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.6 Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.3 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.3.1 Denition (charakteristisches Polynom) . . . . . . . . . . . . . . . . . . . . 58
4.3.2 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3.3 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3.4 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3.5 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3.7 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.4 Diagonalisierung und Trigonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.4.1 Denition (diagonalisierbar, trigonalisierbar) . . . . . . . . . . . . . . . . . 61
4.4.2 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4.3 Satz (Charakterisierung von Diagonalisierbarkeit) . . . . . . . . . . . . . . 61
4.4.4 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4.5 Satz (Charakterisierung von Trigonalisierbarkeit) . . . . . . . . . . . . . . 63
Inhaltsverzeichnis Seite 6 von 75
Lineare Algebra Lucas Westermann
4.4.6 Bemerkung (Jordan-Normalform) . . . . . . . . . . . . . . . . . . . . . . . 63
4.4.7 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4.8 Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4.9 Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4.10 Satz (von Cayley-Hamilton) . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.4.11 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5 Innere Produkte 66
5.1 Skalarprodukte und Orthogonalitat . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.1.1 Denition (inneres Produkt) . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.1.2 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.1.3 Bemerkung (Orthogonalitat) . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.1.4 Beispiel (Euklidischer Raum) . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.1.5 Beispiel (Unitarer Raum) . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.1.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.1.7 Denition (Orthogonales Komplement) . . . . . . . . . . . . . . . . . . . . 67
5.1.8 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.1.9 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.1.10 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.1.11 Denition (Orthogonal- und Orthonormalbasis) . . . . . . . . . . . . . . . 69
5.1.12 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.1.13 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.1.14 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.1.15 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.1.16 Beispiel (Legendre-Polynome) . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.2 Adjungierte Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.2.1 Satz (Rieszscher Darstellungssatz) . . . . . . . . . . . . . . . . . . . . . . 71
5.2.2 Denition (adjungierte Abbildung) . . . . . . . . . . . . . . . . . . . . . . 73
5.2.3 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.2.4 Beispiel (Transponierte) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.2.5 Beispiel (Hermitesche) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.2.6 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3 Sebstadjungierte Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.1 Denition (Selbstadjungiert) . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.2 Beispiel (Euklidischer Raum) . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.3 Beispiel (unitarer Raum) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.5 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.3.6 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.3.7 Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Inhaltsverzeichnis Seite 7 von 75
Lineare Algebra Lucas Westermann
Literatur
Mathematik f ur Informatiker: Teschl, Hackenberger
Lineare Algebra: Beutelspacher, Fischer, Lang (auf Englisch), Stammbach.
1 Grundlegendes
1.1 Mengen
1.1.1 Denition (Relation)
Gegeben seien zwei Mengen X und Y . Eine Teilmenge R des kartesisches Produkts X Y =
(x, y) : x X, y Y heit Relation (R) zwischen X und Y ; im Fall X = Y spricht man von
einer Relation auf X. Ferner: R
1
1
= (y, x) Y X : (x, y) R heit Umkehrrelation.
1.1.2 Beispiel
Die Menge R
0
= (x, y) X Y : y ist Hauptstadt von x ist eine Relation zwischen der Menge
X aller Lander und Y aller Stadte.
1.1.3 Beispiel
Mit den Mengen X = R Y = [0, ) ist R
1
= (x, [x[) X Y, X X ist eine Relation mit der
Umkehrrelation R
1
= ([x[ , x) : x X.
Inhaltsverzeichnis Seite 8 von 75
Lineare Algebra Lucas Westermann
1.1.4 Beispiel
Mit den Mengen X = Y = R ist R
2
= (x, y) XY : x y eine Relation R
1
2
= (y, x) : x y
1.1.5 Beispiel
Die Menge R
3
= (x, y) C C : x und y haben gleichen Hersteller ist eine Relation auf der
Menge aller Computer C.
1.1.6 Beschreibung (Gerichtete Graphen)
Relation R auf endlichen Mengen X konnen alternative wie folgt dargestellt werden. Man reprasen-
tiert die Elemente von X als Punkte in der Ebene (Knoten) und verbindet x, y X genau dann
durch einen Pfeil (gerichtete Kante), wenn (x, y) R. Das paar (X, R) heit gerichteter Graph
oder Digraph, z.B. X = a, b, c R = (a, b), (b, c), (c, d).
Inhaltsverzeichnis Seite 9 von 75
Lineare Algebra Lucas Westermann
X = a, b, c R = (b, a), (a, a), (c, c).
Eine Relation R auf X heit
reexiv (x, x) R f ur alle x X
transitiv (x, y) R (x, z) R f ur alle x, y, z X
symmetrisch (x, y) R f ur alle x, y X
1.1.7 Beispiel
Die Relation R
2
aus Beispiel 1.1.4 ist reexiv, transitiv, aber nicht Symmetrisch. Die Relation R
3
aus Beispiel 1.1.5 ist reexiv, transitiv und symmetrisch.
1.1.8 Denition (

Aquivalenzrelation)
Eine Relation A auf eine Menge X heit eine

Aquivalenzrelation, falls sie reexiv, transitiv und
symmetrisch ist. F ur ein Paar (x, y) A Schreiben wir xy und nennen x und y aquivalent.
1.1.9 Beispiel
1. Sei X eine beliebige Menge. Dann ist (x, y) X X : x = y eine

Aquivalenzrelation
(Identitatsrelation).
2. Ebenso ist das ganze Produkt X X eine

Aquivalenzrelation (Allrelation).
3. Die Relation R
3
aus Beispiel 1.1.5 ist eine

Aquivalenzrelation. Mit ihr lassen sich Computer
nach ihrem Hersteller klassizieren. F ur jedes [x] := y X : xy die von X erzeugte

Aquivalenzklasse und ein Element y [x] heit Reprasentant von [x].


1.1.10 Beispiel
1. F ur die Identitatsrelation ist [x] = x f ur alle x X. Die Allrelation besitzt genau eine

Aquivalenzklasse [x] = X.
2. Im Beispiel 1.1.5 sind die

Aquivalenzklassen die Menge aller Hersteller.
Inhaltsverzeichnis Seite 10 von 75
Lineare Algebra Lucas Westermann
1.2 Abbildungen
F D B.
1.2.1 Denition (Abbildungen, Funktion)
Eine Relation F zwischen zwei nichtleeren Mengen D und B heit Abbildung oder Funktion von
D nach B, falls f ur alle x D gilt.
1) Es existiert ein y B mit (x, y) F
2) Mit y
1
, y
2
B folgt aus (x, y
1
) F und (x, y
2
) F, dass y
1
= y
2
.
Die Menge D heit Denitionsbereich und B Bildbereich von F. Im Fall D = B spricht man von
einer Abbildung auf D oder um einer Selbstabbildung auf D.
1.2.2 Bemerkung
Veranschaulicht man Funktionen auf (endlichen) Mengen D als gerichtete Graphen (Beschreibung
1.1.7), so geht von jedem Knoten genau eine Kante ab. Anstelle der Notation F DB, (x, y) F
schreibt man auch f : D B, x f(x) oder y := f(x) Mit einer weiteren nichtleeren Menge
C und einer Abbildung g : B C ist die Verkn upfung (Komposition) von g und f deniert als
g f : D C, (g f)(x) := g(f(x)). Im Fall von Abbildungen f, g auf D gilt i.A. f g ,= g f.
Statt einzelner Punkte x D kann man auch Mengen X D abbilden: f(X) := y B : es gibt
ein x X mit y = f(x). f(X) heit Bild von X unter f. Das Urbild einer Menge Y B ist
deniert durch f
1
(Y ) := x D f(x) Y . Eine Abbildung f : D B heit
injektiv f
1
(y enthalt f ur alle y B hochstens ein Element
surjektiv f
1
(y) enthalt f ur alle y B mindestens ein Element.
bijektiv f
1
(y) enthalt f ur alle y B genau ein Element.
Eine Abbildung f : D B ist genau dann bijektiv, wenn sie injektiv und surjektiv ist.
Inhaltsverzeichnis Seite 11 von 75
Lineare Algebra Lucas Westermann
1.2.3 Beispiel (identische Abbildung)
Die identische Abbildung auf eine Menge D ,= ist id
D
: D D, id
D
(x) := x. Sie ist bijektiv.
Beispiel
Die Relation R
0
aus Beispiel 1.1.2 zwischen X = Land und Y = Stadt ist eine Funktion
r
o
: X Y r
0
(Land) := Hauptstadt vom Land. Ihr Bild ist r
0
(X) = Hauptstadte und die
Urbilder lauten:
r
1
0
(s) =
_
falls s keine Hauptstadt,
l falls s Hauptstadt von l.
Folglich ist r
0
injektiv, aber nicht surjektiv. Betrachtet man die Menge aller Haupstadte als Bild-
bereich von r
0
, so ist diese Abbildung auch surjektiv.
1.2.4 Beispiel
Die Relation R
1
zwischen R und [0, ) aus Beispiel 1.1.3 ist eine Abbildung und lasst sich schreiben
als r
1
: R [0, ), r
1
(x) := [x[ F ur sie gilt r
1
(R) := [0, ) und r
1
1
(y) = y, y f ur alle
y [0, ). Also ist r
1
: R [0, ) surjektiv, aber nicht injektiv. Betrachten wir r
1
mit ganz R
als Bildbereich, so gilt r
1
1
(y) = f ur y < 0 und dann ist r
1
nicht mehr surjektiv.
1.2.5 Beispiel (ASCII-Code)
Der ASCII-Code zur Codierung alpha-numerischer Zeichen ist gegeben durch eine bijektive Ab-
bildung f : 0, 1, , 255 bzw. 127 Zeichen.
Einfache Beispiele (etwa Beispiel 1.2.5) zeigen, dass die Umkehrrelation F
1
einer Abbildung
F D B bzw. f : D B nicht unbedingt eine Abbildung ist.
Inhaltsverzeichnis Seite 12 von 75
Lineare Algebra Lucas Westermann
1.2.6 Denition (Umkehrabbildung)
Eine Abbildung f : D B heit umkehrbar, falls ihre Umkehrrelation F
1
wieder eine Abbildung
ist. F ur letztere schreibt man f
1
: B D und nennt sie Umkehrabbildung von f.
1.2.7 Bemerkung
Mit einer umkehrbaren Abbildung f : D B ist auch ihre Umkehrfunktion f
1
: B D
umkehrbar mit f
1
f = id
D
und f f
1
= id
B
.
1.2.8 Korollar
Eine Abbildung f : D B ist genau dann umkehrbar, wenn f bijektiv ist. F ur umgekehrtes f
existiert die Umkehrfunktion nur auf f(D).
Beweis: Hausaufgabe
1.3 Matrizen
Wir f uhren kurz die komplexen Zahlen C ein. Darunter versteht man alle Paare z = (x, y) reeller
Zahlen x, y R mit der Addition:
z
1
+ z
2
= (x
1
+ x
2
, y
1
+ y
2
)
und der Multiplikation:
z
1
z
2
:= z
1
z
2
= (x
1
x
2
y
1
y
2
, x
1
y
2
+ x
2
y
1
)
wobei z
1
= (x
1
, y
1
), z
2
= (x
2
, y
2
)
Dierenz und Quotient ergeben sich zu:
z
1
z
2
= (x
1
x
2
, y
1
y
2
)
z
1
z
2
=
_
x
1
x
2
+ y
1
y
2
x
2
2
+ y
2
2
,
x
2
y
1
x
1
y
2
x
2
2
+ y
2
2
_
falls x
2
2
+ y
2
2
,= 0
Alternative Darstellung:
z = (x, y) = x + iy mit der Konvention i
2
= 1
Wobei x der Realteil (Rez = x) ist und y der Imaginarteil (Imz = y).
Inhaltsverzeichnis Seite 13 von 75
Lineare Algebra Lucas Westermann
Im Folgenden stehe K f ur eine der drei Mengen Q (rationalen Zahlen), R (reelle Zahlen) oder C.
1.3.1 Denition (Matrix)
Eine mm-Matrize ist ein rechteckiges Schema von Zahlen a
ij
K der Form
A = (a
i,j
)1 i m, 1 j m =
_
_
_
_
_
a
1,1
a
1,2
a
1,m
a
2,1
a
2,2
a
2,m
.
.
.
.
.
.
.
.
.
.
.
.
a
m,1
a
m,2
a
m,m
_
_
_
_
_
Der erste Index i 1, , m nummeriert die m Zeilen, der zweite Index j 1, , m die m
Spalten der Matrix A, das Element a
ij
K steht daher in der i-ten Zeile und der j-ten Spalte.
F ur die Menge aller solchen Matrizen schreiben wir K
mm
. F ur eine quadratische Matrix A gilt
m = n und die a
i,i
heien Diagonalelement.
A

=
_
_
_
a
1,1
a
1,n
.
.
.
.
.
.
.
.
.
a
m,1
a
m,n
_
_
_
1.3.2 Beispiel (n Tupeln, m-Spalten)
Ein n-Tupel x = (x
1
, , x
n
) von Zahlen X aus K wird als 1 m-Matrix interpretiert. Eine
m-Spalte x =
_
_
_
x
1
.
.
.
x
m
_
_
_
wird als m1-Matrix verstanden, identiziert durch K
m
= k
m1
.
1.3.3 Kronecker-Symbol, Einheits- und Nullmatrixe)
Wir denieren das Kronecker-Symbol S
i,j
:=
_
1, i = j
0, i ,= j
und I
m
:= (S
i,j
)
1i,jm
ist die Einheitsmatrix.
Bei der Nullmatrix 0 = (0)
1im
1jn
sind alle Elemente gleich 0 N.
Inhaltsverzeichnis Seite 14 von 75
Lineare Algebra Lucas Westermann
1.3.4 Beispiel (Diagonal- und Dreieckmatrizen)
Man nennt eine quadratische Matrix A = (a
i,j
)
1i,jn
diagonal falls a
i,j
= 0 f ur i ,= j. Wir schreiben
dann A =
_
_
a
1,1
0 0
0 a
2,2
0
0 a
n,n
_
_
= diag(a
1,1
, , a
n,n
). Eine obere Dreiecksmatrix ist quadratisch
und erf ullt a
i,j
= 0 f ur i > j, wogegen eine untere Dreiecksmatrix a
i,j
= 0 f ur i < j erf ullt. Sie
sind von der Form: A =
_
_
_
_
_
a
1,1
a
1,2
a
1,n
0 a
2,2
a
2,n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
n,n
_
_
_
_
_
bzw. A =
_
_
_
_
_
a
1,1
0 0
a
2,1
a
2,2
0
.
.
.
.
.
.
.
.
.
.
.
.
a
n,1
a
n,2
a
n,n
_
_
_
_
_
.
Mathematische Operationen f ur Matrizen:
Skalare Multiplikation: K K
mn
K
mn
, A = A = (a
i,j
)
1im
ijn
. Wir schreiben
A := (1) A
Addition: + : K
mn
K
mn
K
mn
, A + B = (a
i,j
+ b
i,j
)
1im
1jn
. Die Subtraktion lautet
A B = A + (B).
Genau f ur mn-Matrizen A und n p-Matrizen B lasst sich eine Multiplikation erklaren.
: K
mn
K
np
K
mp
. A B = AB := (

n
k=1
a
i,k
b
k,j
)
1im
1jp
. das Produkt ist also eine
mp-Matrix.
Merke: Das Produkt macht nur Sinn, falls die Spaltenzahl der ersten mit der Zeilenzahl der zweiten
Matrix ubereinstimmt.
1.3.5 Bemerkung
(1) Um Produkte von Matrizen A K
mn
und B K
np
zum berechnen ergibt sich das Schema
[ B
A [ C
C = (

n
k=1
a
i,k
b
k,j
)
1im
1jp
(2) Spezialfall: A K
mm
, x K
m
Ax =

m
k=1
_
_
_
a
1,k
x
1
.
.
.
.
.
.
a
m,k
x
k
_
_
_
.
Inhaltsverzeichnis Seite 15 von 75
Lineare Algebra Lucas Westermann
1.3.6 Beispiel
Das Produkt von A =
_
0 1
2 3
_
und B =
_
4 5
6 7
_
lautet:
4
6
5
7
0 1 0 4 + 1 6 5 0 + 1 7
2 3 2 4 + 6 3 2 5 + 7 3
also C = AB =
_
6 7
26 31
_
.
Im Umgekehrter Reihenfolge gilt BA =
_
10 19
14 27
_
. Daher ist das Produkt von Matrizen nicht
kommutativ AB ,= BA.
1.3.7 Beispiel
(1) F ur A K
mn
gilt I
m
A = A = AI
m
(2) F ur A =
_
0 1
0 0
_
und B =
_
1 0
0 0
_
gilt AB = 0, womit das Produkt von Matrizen nicht
nullteilerfrei ist, d.h. AB = 0 kann gelten, ohne dass ein Faktor Null ist.
(3) Das Produkt von
_
0 1 2
3 4 5
_
und
_
6 7
8 9
_
ist nicht deniert,
_
6 7
8 9
__
0 1 2
3 4 5
_
=
_
21 34 47
27 44 61
_
dagegen schon.
1.3.8 Beispiel (RGB - Raum)
Im RGB-Farbmodell werden Farben durch Tupel (r, g, b) reeller Zahlen r, g, b R beschreiben:
(1, 0, 0) = rot, (0, 0, 1) blau, (1, 1, 0) gelb. Alternativ: Y IQ-Modell (y, i, q).
Umrechnung
_
_
y
i
q
_
_
=
_
_
0.3 0.6 0.1
0.6 0.3 0.3
0.2 0.5 0.3
_
_
_
_
r
g
b
_
_
.
1.3.9 Beispiel (Inzedenzmatrix)
Gerichtete Graphen ohne Schleifen (kein Knoten wird durch eine Kante mit sich selbst verbunden,
siehe Beschreibung 1.1.7) mit den Knoten

1, , m mit den Knoten 1, , m lassen sich durch
Inhaltsverzeichnis Seite 16 von 75
Lineare Algebra Lucas Westermann
eine sogenannte Inzedenzmatrix A K
mn
beschreiben mit
a
i,j
=
_

_
1, Von Knoten

1 geht die Kante j aus.
1, ein Knoten

1 m undet die Kante j
0, Knoten

1 und Kante j ber uhren sich nicht.
.

1

2

3
1
3
2
A =
_
_
1 1 0
1 0 1
0 1 1
_
_

1

2

3
1
2
A =
_
_
1 1
1 0
0 1
_
_

1

2

3
1
2 3
4
Nicht schleifen frei!
1.3.10 Satz (Rechenregeln f ur Matrizen)
F ur Zahlen K und Matrizen A K
mn
, B K
mp
gilt das Distributiv-Gesetz. A(B + C) =
AB + AC f ur alle C K
mp
und die Assoziativ-Gesetze (A)B = A(B), A(BC) = (AB)C f ur
alle C K
pq
. Beweis:

Ubung.
1.4 Lineare Gleichungen
1.4.1 Denition (lineare Gleichung)
Es seien A K
mn
und b K
m
. Dann bezeichnet man (L
b
) Ax = b als lineares Gleichungssystem
mit m Gleichungen f ur die n unbekannten x
m
K oder kurz also lineare Gleichung in K
m
. A heit
Koezientenmatrix und b Inhomogenitat von (L
b
). Im Fall b ,= 0 nennt man (L
b
) inhomogen und
Inhaltsverzeichnis Seite 17 von 75
Lineare Algebra Lucas Westermann
erhalt andernfalls die homogene Gleichung: (L
0
) Ax = 0. Eine Losung von (L
b
) ist ein Element
x K
m
mit Ax = b und L
b
:= x K
m
: Ax = b steht f ur die Losungsmenge von (L
b
).
1.4.2 Bemerkung
(1) Ausgeschrieben lautet (L
b
):
a
1,1
x
1
+ a
1,2
x
2
+ + a
1,n
x
n
= b
1
a2, 1x
1
+ a
2,2
x
2
+ + a
2,n
x
n
= b
2

am, 1x
1
+ a
m,2
x
2
+ + a
m,n
x
n
= b
m
.
Oder noch un ubersichtlicher

n
j=1
a
i,j
x
j
= b
i
f ur 1 i m.
(2) (L
b
) hat stehts die triviale Losung 0 K
m
. Inhomogene Gleichungen m ussen nicht unbedingt
losbar sein: 0x = 1.
1.4.3 Satz (Superpositionsprinzip)
Es seien x, y K
n
Losungen von (L
0
). Dann ist auch x+y eine Losung von (L
0
), d.h. x+y
L
0
f ur alle , K.
Beweis:

Ubung.
1.4.4 Satz
Ist x K
n
eine Losung von (L
b
) so gilt L
b
= x + L
0
. Hierbei: F ur gegebene x K
n
, A K
n
ist
x + A := y K
n
: es gibt ein a A mit y = x + a
Beweis:

Ubung. Nun: Explizite Losung von (L
b
)!
Besonders einfach, falls A K
mn
diagonal ist gilt namlich a
i,i
,= 0, 1 i n, so besitzt (L
b
) die
eindeutige Losung x K
n
mit Elementen X
1
=
b
i
a
i,i
f ur 1 1 n ist dagegen d
i,i
= 0 f ur ein
1 i n, so besitzt (L
b
) unendlich viele Losungen f ur b
i
= 0 und anderenfalls keine Losung.
Allgemeinere Klasse: Ein A K
mn
ist in Zeilen-Stufen-Form (ZSF) falls in jeder Zeile gilt:
(1) Beginnt sie mit k Nullen, so stehen unter diesen Nullen lediglich weitere Nullen.
(2) Unter dem ersten Element ,= 0 stehen nur Nullen.
Bei strenger ZSF muss zusatzlich gelten:
(3)

Uber jedem ersten Element ,= 0 stehen nur Nullen
Inhaltsverzeichnis Seite 18 von 75
Lineare Algebra Lucas Westermann
1.4.5 Beispiel
(1) Obere Dreiecksmatrizen sind in ZSF, Diagonalmatrizen sogar in strenger ZSF.
(2) Bezeichnet ein Element ,= 0, so gilt:

_
_


0 0
_
_
,
_
_
0
0
0
_
_
,
_
_
0 0
0

_
_
sind nicht in ZSF.

_
_

0
0 0 0
_
_
ist in ZSF (aber nicht strenger ZSF).

_
_
0 0
0 0 0
0 0 0 0
_
_
ist in strenger ZSF
1.4.6 Beispiel (R uckwarts-Substitution)
Die inhomogene lineare Gleichung (1.4b)
_

_
x
1
+ 2x
2
+ 3x
3
+ 4x
4
= 1,
x
2
+ 2x
3
+ 3x
4
= 1,
x
3
+ 2x
4
= 1
hat die Koezientenma-
trix bzw. Inhomogenitat A =
_
_
1 2 3 4
0 1 2 3
0 0 1 2
_
_
, b =
_
_
1
1
1
_
_
R uckwartssubstitution: Aus der letzten Gleichung x
3
+2x
4
= 1 sieht man, dass x
4
= t frei gewahlt
wenden kann, t K. Dies liefert x
3
= 1 2t. Die bekannten variablen x
3
, x
4
konnen in die zweite
Gleichung von (1.4b) eingesetzt werden, also x
2
= 12x
3
3x
4
= t 1 und analog liefert die erste
Gleichung x
1
= 1 2x
2
3x
3
4x
4
= 0. Die Losungsmenge von (1.4b) ist also:
L
b
=
_

_
_
_
_
_
0
t 1
1 2t
t
_
_
_
_
K
4
: t K
_

_
=
_
_
_
_
0
1
1
0
_
_
_
_
+K
_
_
_
_
0
1
2
1
_
_
_
_
Die Losungsmenge L
b
von (L
b
) andert sich nicht, wenn folgende Operationen auf (1.4b) angewandt
werden:
Vertauschen von Gleichungen
Multiplikation von Gleichungen mit K
0
Inhaltsverzeichnis Seite 19 von 75
Lineare Algebra Lucas Westermann
Addition des -fachen der k-ten Gleichung zur j-ten.
Diese sind elementare Zeilentransformationen.
ZIEL: Transformiere A bzw. (L
b
) auf ZSF mittels elementarer Zeilentransformationen. Systema-
tisch: Gau Algorithmus.
Zu seiner Beschreibung gehen wir davon aus, dass die erste Spalte von A von 0 verschieden ist
(anderenfalls sind x
1
, , x
n
umzunummerieren). Ohne Sonderfalle zu ber ucksichtigen gilt:
1. Ordne die Gleichungen in (1.4a) so an, dass a
m
,= 0. In der gangigen Notation schreibt man
nun (1.4b) als
a
1,1
a
1,2
a
1,n
b
1
a
2,1
a
2,2
a
2,n
b
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m,1
a
m,2
a
m,n
b
m
2. Subtrahiere von der i-ten Gleichung, 2 i m in (1.4a) das
a
i,1
a
1,1
-fache der ersten Gleichung:
a
1,1
a
1,2
a
1,n
b
1
0 a
(1)
2,2
a
(1)
2,n
b
(1)
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 a
(2)
m,2
a
(1)
m,n
b
(1)
m
_
a
1,1
x
1
+ + a
1,n
x
n
= b
1
A
(1)
x
(1)
= b
(1)
mit A
(1)
K
(m1)(n1)
, b K
m1
.
3. Transformiere A
(1)
x
(1)
= b
(1)
entsprechend und fahre sukzessive fort, bis (idealerweise) eine
Dreiecks- oder ZSF entstanden ist.
4. Lose das resultierende System durch R uckwarts-Substitution.
1.4.7 Beispiel
Als Kurzschreibweise f ur
(1.4d)
_

_
x
1
+ 2x
2
+ 3x
3
= 0
4x
1
+ 5x
2
+ 6x
3
= 0
7x
1
+ 8x
2
+ 9x
3
= 0
1 2 3 0
4 5 6 0
7 8 9 0
II 4I
II 7I

1 2 3 0
0 3 6 0
0 6 12 0
(
1
3
)
III 2II

1 2 3 0
0 1 2 0
0 0 0 0
Damit ist (1.4d) aquivalent zu
_
x
1
+ 2x
2
+ 3x
3
= 0
x
2
+ 2x
3
= 0
R uckwarts-Substitution: Wahle x
3
= t mit t K und es folgt x
2
= 2x
3
= 2t, x
1
= 2x
2
+3x
3
=
Inhaltsverzeichnis Seite 20 von 75
Lineare Algebra Lucas Westermann
t. Die Losungsmenge von (1.4d) ergibt sich zu:
L
0
=
_
_
_
_
_
1
2
1
_
_
K
3
: t K
_
_
_
= K
_
_
1
2
1
_
_
1.4.8 Satz
Hat (L
0
) weniger Gleichungen als Unbekannte, also m < n, so besitzt sie unendlich viele Losungen.
Beweis:
I. Man zeigt (*) (L
0
) hat eine nichttriviale Losung.
II. Da (L
0
) nach Schritt (I) eine Losung x ,= 0 besitzt ist nach dem superpositionsprinzip aus
Satz 1.4.3 auch jeder tx, t K, eine Losung #.
1.4.9 Satz
Besitzt (L
b
) genauso viele Gleichungen wie Unbekannte, also m = n, so gilt:
(a) Ist L
0
= 0, so besitzt (L
b
) genau eine Losung.
(b) Besitzt (L
0
) eine nichttriviale Losung, so existieren entweder keine oder unendlich viele
verschiedene Losungen von (L
b
)
Beweis:
(a) Wie gehen mittels vollstandiger Induktion vor.
F ur n = 1 gilt die Behauptung oenbar. Im Induktionsschritt gelte (a) f ur n 1. Da (L
0
)
nur die triviale Losung hat gilt A ,= 0. Durch Umnummerieren erreichen wir a
1,1
,= 0. Dann
wird zur i-ten Gleichung, 2 i, in (1.4a) das
a
i,1
a
1,1
-fache der ersten Gleichung addiert:
(1.4f)
_

_
a
1,1
x
1
+ + a
1,n
x
n
= b
1
A

=
_

_
x
2

x
n
_

_
= b

mit A

K
(n1)(m1)
, b

K
n1
Beweis:
Wir wissen:
(a) Die homogene Gleichung A

= 0 hat nur die triviale Losung, denn sonst hatte (L


0
)
eine nicht triviale Losung. Das Teilsystem A

= b

besitzt nach Induktionsannahme


genau eine Losung x

mit Elementen x
2
, , x
m
. Durch Einsetzten in die erste Glei-
chung in (1.4f) folgt ein eindeutiger Wert x
1
und die Losung von (L
b
) in eindeutiger
Weise.
Inhaltsverzeichnis Seite 21 von 75
Lineare Algebra Lucas Westermann
(b) Es sei x eine Losung von (L
b
) und x eine nichttriviale Losung von (L
o
). Dann liefern
die Satze 1.4.3 und 1.4.4, dass x + x die Gleichung lost f ur jedes K. In diesem
Fall hat (L
b
) unendlich viele Losungen. Die einzige verbleibende Moglichkeit ist, dass
(L
b
) keine Losung besitzt.
Inhaltsverzeichnis Seite 22 von 75
Lineare Algebra Lucas Westermann
2 Lineare Raume
2.1 Algebraische Strukturen
Bezeichnet M ,= eine Menge und F(M) die Menge aller Selbstabbildungen auf M, so kann die
Komposition als Abbildung : F(M) F(M) F(M) interpretiert werden - man spricht von
einer Verkn upfung.
2.1.1 Denition (Gruppe)
Eine Gruppe (G, ) ist eine nichtleere Menge G mit einer Vekn upfung : G G G mit den
Eigenschaften:
(G
1
) ist Assoziativ, d.h. a (b c) = (a b) c f ur a, b, c G
(G
2
) es existiert ein neutrales Element e G mit a e = a = e a f ur a G
(G
3
) zu jedem a G existiert ein inverses Element a
1
G mit a a
1
= a
1
a = e f ur a G
Bei einer kommutativen oder Abel schen Gruppe gilt ferner
(G
4
) a b = b a f ur alle a, b G.
F ur eine Halbgruppe m ussen nur (G
1
) und (G
2
) gelten.
2.1.2 Bemerkung
(1) Das neutrale Element e G ist eindeutig: In der Tat, bezeichnen e
1
, e
2
G zwei neutrale
Elemente, so folgt nach (G
2
) ist: e
2
= e
1
e
2
und e
1
e
2
= e
1
, also e
1
= e
2
(2) Zu gegebenem a G ist auch das inverse Element a
1
G eindeutig. F ur inverse Elemente
a
1
1
, a
1
2
von a gilt namlich
a
1
1
(G
2
)
= a
1
1
e
(G
3
)
= a
1
1
(a a
1
2
)
(G
1
)
= (a
1
1
a) a
1
2
(G
3
)
= e a
1
2
(G
2
)
= a
1
2
(3) Entsprechend e = e
1
, a = (a
1
)
1
2.1.3 Bemerkung (Potenzen)
Die Potenzen a
n
G eines a G (G ist eine multiplikative Halbgruppe) sind rekursiv erklart
durch a
0
:= e, a
n+1
:= a a
n
f ur alle n N
0
. In einer Gruppe setzen wir a
n
:= (a
n
)
1
f ur n < 0.
Inhaltsverzeichnis Seite 23 von 75
Lineare Algebra Lucas Westermann
2.1.4 Beispiel
(1) (Z, +) ist eine kommutative additive Gruppe mit neutralen Element 0 und dem zu a Z
inverses Element a. Dagegen ist (Z, ) keine Gruppe, denn das multiplikative Inverses lasst
sich innerhalb von Z nicht erklaren. Ebenso ist (N, +) keine (additive) Gruppe.
(2) Es sei K Q, R, C. Dann ist (K, +) eine kommutative additive Gruppe mit neutralem
Element 0 und a als zu a Inversen. Auch (K 0, ) ist eine kommutative multiplikative
Gruppe mit neutralem Element 1 und dem zu a inversen Element
1
a
.
(3) Mit K Z, Q, C bilden die Matrizen (K
mn
, +) eine kommutative additive Gruppe mit
neutralem Element 0 und den Inversen A zu A. Die quadratischen reellen rationalen oder
komplexen Matrizen (K
mn
0, ) bilden keine Gruppe, da etwa diag(1, 0) ,= 0 kein Inverses
besitzt.
2.1.6 Beispiel (modulo)
Es sei p 2 eine ganze Zahl und Z
p
:= 0, , p 1. F ur beliebige a, b Z gibt es vermoge der
Division mit Rest eindeutige m Z und k Z
p
mit a +b = mp +k wir schreiben dann k = a +b
mod p oder k =: a +
p
b. Dann ist (Z
p
, +
p
) eine kommutative Gruppe mit dem neutralem Element
0.
2.1.7 Beispiel (symmetrische Gruppe)
Es sei M eine nichtleere Menge und S(M) bezeichnet alle bijektiven Selbstabbildungen f : M
M. Dann ist die symmetrischen Gruppe (S(M), ) eine i.A. nicht-kommutative Gruppe mit id
m
als neutralem Element und f
1
: M M als inversen Element zu f. Im Fall M = 1, , n
schreiben wir S
n
:= S(1, , n). Die Menge aller nicht-notwendig bijektiven Selbstabbildungen
F(M) ist dagegen eine Halbgruppe bez uglich .
2.1.8 Korollar (Rechnen in Gruppen)
F ur alle a, b, c G gilt (a b)
1
= b
1
a
1
, wie auch a b = a c b = c, a b = e a = b
1
.
Beweis:
Es seien a, b, c G. Wir zeigen zunachst, dass b
1
a
1
das inverse Element von a b ist. Dazu
(b
1
a
1
) (a b)
(G
1
)
= b
1
(a
1
(a b))
(G
1
)
= b
1
((a
1
a) b)
(G
3
)
= b
1
(e b)
(G
2
)
= b
1
b
(G
3
)
= e
und entsprechend (a b) (b
1
a
1
) = e. Die erste Implikation ergibt sich nach Voraussetzung
durch
b
(G
2
)
= e b
(G
3
)
= (a
1
a) b
(G
1
)
= a
1
+ (a b) = a
1
(a c)
(G
1
)
= (a
1
a) c
(G
3
)
= e c
(G
2
)
= c
Die verbleibende Implikation sei den Leser uberlassen.
Inhaltsverzeichnis Seite 24 von 75
Lineare Algebra Lucas Westermann
2.1.9 Denition (Korper)
Ein Korper (K, +, ) ist eine Menge Kmit mindestens zwei Elementen versehen, mit den arithmetischen Operationen
+ : KK K (Addition) und : KK K(Multiplikation).
(K
1
)(K, +) ist eine kommutative Gruppe mit neutralem Element 0 und dem zu K inversen
Element , d.h. f ur alle , , K gilt:
(K
1
1
) + ( + ) = ( + ) +
(K
2
1
) + 0 = 0 + =
(K
3
1
) = = 0
(K
4
1
) + = +
(K
2
) (K 0, ) ist eine kommutative Gruppe mit neutralem Element 1 und zu K Inversem
1

, d.h. es gilt f ur , , K 0.
(K
1
2
) ( ) = ( )
(K
2
2
) 1 = 1 =
(K
3
2
)
1

=
1

= 1
(K
4
2
) =
(K
3
) es gelten die Distributivgesetze ( + ) = + , ( + ) = + f ur alle
, , K.

Ublich := . Subtraktion als := + (). Division

:=
1

.
2.1.10 Beispiel
Q, R, C sind Korper bzgl. +,
2.1.11 Beispiel (Restklassenkorper modulo p)
Mit einer gegebenen Primzahl p N denieren wir die Mengen Z
p
:= 0, , p. Dann gibt es f ur
beliebige , Z
p
eindeutige Zahlen m, n Z und k, l Z
p
derart, dass
+ = m p + k
= np + l Divison mit Rest.
Addition: +
p
:= k
Multiplikation:
p
:= l (2.1a)
Inhaltsverzeichnis Seite 25 von 75
Lineare Algebra Lucas Westermann
(Z
p
, +
p
,
p
) ist Korper, der sogenannten Restklassenkorper modulo p.
Z
2
:
+
2
0 1
0 0 1
1 1 0

2
0 1
0 0 0
1 0 1
Z
3
:
+
3
0 1 2
0 0 1 2
1 1 2 0
2 2 0 1

3
0 1 2
0 0 0 0
1 0 1 2
2 0 2 1
2.1.12 Korollar
Ist (K, +, ) ein Korper, so gilt f ur alle , , K, dass
0 = 0 = 0, () = ( ) = () (2.1b)
(1) = , () () = (2.1c)
Und ferner die Implikation = 0 = 0 oder = 0.
2.1.13 Bemerkung
Es gilt 1 ,= 0, da die Annahme 1 = 0 folgenden Widerspruch impliziert: Da K mindestens 2
Elemente enthalt, gibt es ein K, ,= 0 mit:

(K
2
2
)
= 1 = 0
(2.1b)
= 0
Daher ist der Restklassenkorper modulo 2 Z
2
der kleinste Korper.
Inhaltsverzeichnis Seite 26 von 75
Lineare Algebra Lucas Westermann
2.1.14 Beweis
Wahle ein , , K. Es gilt 0
(K
2
1
)
= (0 + 0)
(K)
= 0 + 0 mittels Korollar 2.1.8 (+, a = b = 0
und c = 0) folgt 0 = 0, kommutativ liefert 0 = 0. Aus dieser Behauptung resultiert
() +
(K
3
)
= ( + ) = 0 = 0
mit Korollar 2.1.8 (+, a = (), b = ). Dies liefert () = () und () = (). Die
Beziehung (1) = resultiert aus dem eben gezeigten = 1 und
(1) = 1 ()
K
2
2
)
= .
2.1c ergibt sich mit Bemerkung 2.1.2(3) aus
()()
2.1b
= (())
2.1b
= (()) = = 0
Annahme: ,= 0 und ,= 0 dann 1
K
3
2
)
=
1


2.1b
= 0
2.2 Vektorraume
2.2.1 Denition (linearer Raum, Vektorraum)
Es sei K ein Korper. Ein Vektorraum oder linearer Raum (X, +, ) ( uber K) ist eine nichtleere
Menge X mit arithmetische Operationen:
(1) Addition + : X X X derart, dass (X, +) eine kommutative Gruppe mit neutralem
Element 0 oder Nullvektor.
(2) Skalare Multiplikation : KX X derart, dass f ur alle , K und x, y X gilt:
(V
1
) (x + y) = x + y Distributiv Gesetz
(V
2
) ( + ) x = x + x Distributiv Gesetz
(V
3
) () x = ( x) Assoziativ Gesetz
(V
4
) 1 x = x
Die Elemente aus K heien Skalare und X heien Vektoren.
Konventionen: x := x x y := x + (y)
Inhaltsverzeichnis Seite 27 von 75
Lineare Algebra Lucas Westermann
2.2.2 Beispiel
Es sei (K, +, ) ein Korper.
(0) Der triviale Raum 0 der nur die 0 enthalt.
(1) Weiter ist K ein Vektorraum uber sich selbst.
(2) Die Menge aller mn-Matrizen K
mn
ist ein linearer Raum uber K bez uglich
(1.3b) A := A = (a
i,j
)
1im
1jn
(1.3c) A + B := (
i,j
+
i,j
)
1im
1jn
Ein n-Tupel (x
1
, , x
n
) K
1n
bezeichnen wir als Zeilenvektor und eine m-Spalte (1.3a) als
Spaltenvektor.
2.2.3 Beispiel
Es sei p N eine Primzahl und n N. Dann sind die n-Spalten Z
n
p
in Z
p
mit den komponenten-
weisen Addition +
p
und skalaren Multiplikation
p
ein linearer Raum uber Z
p
.
Insbesondere f ur Z
2
2
+
2
_
0
0
_ _
1
0
_ _
0
1
_ _
1
1
_
_
0
0
_ _
0
0
_ _
1
0
_ _
0
1
_ _
1
1
_
_
1
0
_ _
1
0
_ _
0
0
_ _
1
1
_ _
0
1
_
_
0
1
_ _
0
1
_ _
1
1
_ _
0
0
_ _
1
0
_
_
1
1
_ _
1
1
_ _
0
1
_ _
1
0
_ _
0
0
_

2
_
0
0
_ _
1
0
_ _
0
1
_ _
1
1
_
0
_
0
0
_ _
0
0
_ _
0
0
_ _
0
0
_
1
_
0
0
_ _
1
0
_ _
0
1
_ _
1
1
_
Inhaltsverzeichnis Seite 28 von 75
Lineare Algebra Lucas Westermann
2.2.4 Beispiel (Losungsmengen)
Mit Satz 1.4.3 ist L
0
einer homogenen Gleichung ein Vektorraum uber K. Die Losungsmenge L
b
inhomogener Systeme ist kein linearer Raum uber K.
2.2.5 Beispiel (Funktionsraume)
Es sei ,= und X ein linearer Raum uber K. Dann ist F(, X) := u : X ein Vektorraum
uber K mit punktweise denierten arithmetischen Operationen (a+v)(t) := u(t)+v(t), (u)(t) :=
u(t) f ur alle t , K.
Die Menge F(, X) wird als Funktionenraum bezeichnet. N, Z, dann bezeichnen wir
F(, X) als Folgenraum.
2.2.6 Korollar
Ist (X, +, ) ein linearer Raum uber K so gilt f ur alle Skalare , K und Vektoren x, y X:
(a) 0
K
x = 0
x
= 0
x
(b) Falls x = 0
x
, so folgt = 0 K oder x 0 X
(c) ()x = () = (x)
(d) (x y) = x y und ( )x = x x
Beweis: Es sei K und x X:
(a) Es gilt 0
K
x = (0
K
+ 0
K
)x = 0
K
x + 0
K
x wegen V
2
. Nach Denition 2.2.1 (a) existiert zum
Vektor z := 0
K
x ein Vektor z mit 0 x + (z) = 0
X
und wir erhalten 0
X
= 0 x + (z) =
(0 x +0 x) +(z) = 0 x +(0 x +(z)) = 0 x +0
x
= 0 +x und die Beziehung 0 = 0
folge analog.
(b) (b) Es gelte x = 0 mit ,= 0 und wir zeigen x = 0
x
,= 0 existiert
1

. Nach (a) folgt


1

( x) =
1

0 = 0 und andererseits
1

(x) = (
1

) x = 1 x = x
(c) , (d)
2.2.7 Denition (Unterraum)
Eine nicht leere Teilmenge Y X eines linearen Raumes (X, +, ) uber K heit Unterraum von
X, falls gilt
1
y
1
+
2
y
2
Y f ur alle
1
,
2
K und y
1
, y
2
Y
2.2.8 Bemerkung
Jeder lineare Raum x hat die trivialen Unterraume 0 und X.
Inhaltsverzeichnis Seite 29 von 75
Lineare Algebra Lucas Westermann
2.2.9 Beispiel (Stetige und stetig-dierenzierbare Funktion)
Es sei I R ein Intervall. Die Menge der stetigen Funktionen C(I, R
n
) auf I mit Bildern in
R
n
ist ein Unterraum von F(I, R). Ebenso sind stetig dierenzierbare Funktionen C
1
(I, R) ein
Unterraum von C(I, R) und F(I, R
n
)
2.2.10 Beispiel (Polynome)
Mit gegebenem Korper K denieren wir den Raum der Polynome ( uber K) durch
P(K) := p F(K, K)n N
0
: a
0
, ..., a
n
K : p(t) =

n
l=0
a
l
t
l
;
seine Elemente heien Polynome und die a
k
deren Koezienten. Dann ist P(K) ein Unterraum
von F(K, K).
Der Grad deg p eines Polynoms p P(K) ist der maximale Index k N
0
f ur den a
k
= 0 ist. F ur
m N
0
sind die Mengen P
m
(K) := p P(K) : deg p m
Unterraume von P(K), wogegen p P(K) : deg p = m f ur m ,= 0 kein Unterraum ist. Ferner
ist jedes P
n
(K) Unterraum von P
m
(K) f ur 0 n m.
2.2.11 Satz (Schnitte und Summen von Unterraumen)
Ist I eine nichtleere Indexmenge und (Y
i
)
iI
eine Familie von Unterraumen von X.
(a) Der Durchschnitt

iI
Y
i
ist ein Unterraum von X.
(b) F ur endliche I ist die Summe

iI
Y
i
:=

iI
y
i
X : y
i
Y
i
mit i I der kleinste
Unterraum von X, der jedes y
i
enthalt.
F ur I = 1, ..., n schreibt man auch Y
1
+ ... + Y
m
=

iJ
Y
i
.
Beweis:
(a) Es seien , p R und x, y
iI
Y
i
. Dann gilt x, y Y
i
f ur alle i I und da jedes Y
i
ein Unterraum von X ist, folgt x + y Y
i
f ur jedes i I. Dies impliziert, dass
x + y
iI
Y
i
(b) Wir zeigen Y :=

iI
Y
i
ist ein Unterraum von X. Dazu sei x =

iI
x
i
und y =

iI
y
i
mit
x
i
, y
i
Y
i
und wir erhalten f ur alle , R:
x + y =

iI
x
i
+

iI
y
i
=

iI
(x
i
+ y
i
. .
Y
i
)
Zu zeigen y ist kleinster Unterraum der alle Y
i
enthalt.
Dazu sei z X ein weiterer Unterraum von X der alle Y
i
enthalt. F ur x
i
Y
i
ist dann auch
Inhaltsverzeichnis Seite 30 von 75
Lineare Algebra Lucas Westermann
x
i
Z f ur alle i I, da Y
i
in Z enthalten sind.
Aus der Unterraumeigenschaft von Z resultiert

iI
x
i
Z und folglich ist Y Z
2.3 Lineare Abhangigkeiten
Gegeben sei eine nichtleere Menge S von Vektoren aus einem linearen Raum X uber dem Korper
K. Existieren zu einem gegebenem x X dann endlich viele Koezienten a
i
R und x
i
o,
1 i n, mit x =
n

i=1
a
i
x
i
so bezeichnen wir x als Linearkombination der Vektoren aus S.
2.3.1 Denition (Spann)
Es sei o X. Der Spann oder die lineare H ulle span o von o ist die Menge aller Linearkombina-
tionen. Ferner setzt man span0 = 0.
2.3.2 Beispiel
F ur endliche o = x
0
, ..., x
n
ist der span o =
n

i=1

i
x
i
X :
i
K
K = R: e
1
=
_
1
0
_
, e
2
=
_
0
1
_
gilt spane
i
, e
2
= R
2
spanx
1
, x
2
wenn x
1
=
_
1
1
_
und x
2
=
_
1
1
_
aber
y
1
=
_
1
1
_
und y
2
=
_
2
2
_
dann spany
1
, y
2
= R
_
1
1
_
R
2
2.3.3 Beispiel (Monome)
Polynome m
n
(l) := t
n
, n N
0
heien Monome. Dann lassen sich die Polynome als lineare H ulle
der Monome darstellen, d.h. spanm
n

nN
0
= P(K) insbesondere ist
spanm
0
, ..., m
n
= P
n
(K
n
)
spanm
2n

nN
0
= p P(K) : p(t) = p(t) auf K
spanm
2n1

nN
0
= p P(K) : p(t) = p(t) auf K
2.3.4 Proposition
Es sei o X nicht leer. Dann ist die lineare H ulle der kleinste o umfassende Unterraum von X
Inhaltsverzeichnis Seite 31 von 75
Lineare Algebra Lucas Westermann
Beweis: x, y o ist x + y, , K in span o. Also ist span o Unterraum von X. span o
enthalt die Vektoren aus o und damit ist o span o, Y X ein Unterraum von X mit x Y
f ur samtliche x o. Dann liegen samtliche Linearkombinationen von Vektoren aus o in Y . Also
ist span o in Y enthalten.
2.3.5 Korollar
Ist x eine Linearkombination von Vektoren aus o X, so gilt span o = span(o x).
Beweis: Wir zeigen die Behauptung durch zwei Inklusionen:
() Es ist klar dass span o span(o x)
() Also Linearkombination von Vektoren aus o liegt x auch in span o.
Demnach ist span o derjenige Unterraum welcher o und x enthalt.
Damit folgt aus Prop 2.3.4, dass span(o x) span o.
2.3.6 Denition (lineare Unabhangigkeit)
Eine endliche Menge x
1
, , x
n
von Vektoren aus X heit linear unabhangig falls gilt:
n

k=1

k
x
k
= 0
k
= 0n = 1, n
Griechische Buchstaben:
eta
xi
zeta
F ur beliebige Mengen o X nennt man o linear unabhangig, wenn jede endliche Teilmenge von
o linear unabhangig ist, die leere Menge wird als lineare unabhangig betrachtet. Eine Teilmenge
von X heit linear abhangig, falls sie nicht linear unabhangig ist.
Man nennt Vektoren x
1
, x
2
, linear unabhangig, wenn x
1
, x
2
, diese Eigenschaft hat.
2.3.7 Bemerkung
(1) lineare Abhangigkeit einer endlichen Menge x
1
, x
n
bedeutet, dass eine nichttriviale
Darstellung der Null aus Vektoren x
u
existiert:
Man kann also
(2.3a)
n

k=1

k
x
k
= 0
schreiben, ohne dass alle
k
verschwinden.
(2) Jede Obermenge einer linear abhangigen Menge ist linear abhangig. Jede Teilmenge einer
linear unabhangigen Menge ist linear unabhangig.
Inhaltsverzeichnis Seite 32 von 75
Lineare Algebra Lucas Westermann
2.3.8 Beispiel
Die Menge 0 ist linear abhangig, dagegen ist x, x ,= 0, linear unabhangig.
2.3.9 Proposition
Es sei o X nichtleer und x, x
1
, , x
n
X
(a) Ist o = x
1
, , x
n
linear abhangig, so lasst sich mindestens ein Vektor aus o als Linear-
kombination der weiteren Elementen von o darstellen.
(b) F ur jede Linearkombination x aus o ist o x linear abhangig.
Beweis:
(a) Weil x
1
, , x
n
linear abhangig ist, besitzt 0 die Darstellung (2.3a) in welcher nicht alle

k
verschwinden. Also existiert ein Index 1 k

n mit
k
,= 0 und damit
X
k
=
1
k
n

k=1
k=k

k
x
k
=
n

k=1
k=k

(
1
k

k
)x
k
(b) Mit x =

n
k=1

k
x
k
ist x

n
k=1

k
x
k
eine nichttriviale Darstellung der 0
In X = K
m
gilt: Es sei o = a
1
, , a
n
K
m
. Mit der m n-Matrize A := (a
1
, , a
n
) ist die
Beziehung

n
k=1

k
a
k
= 0 (vgl. (2.3a)) aquivalent zu:
(2.3b)Ax = 0, x
_
_
_

1
.
.
.

n
_
_
_
Demzufolge ist o genau dann linear unabhangig, wenn Ax = 0 nur die triviale Losung hat. Aus
Satz 1.4.8 (in Verbindung mit Blatt 5, Aufg. 1) erhalten wir daher, dass mehr als m Vektoren
stets linear abhangig sind.
2.3.10 Beispiel
(1) F ur die kanonischen Einheitsvektoren in K
m
e
1
=
_
_
_
_
_
1
0
.
.
.
0
_
_
_
_
_
, e
2
=
_
_
_
_
_
0
1
.
.
.
0
_
_
_
_
_
, e
m
=
_
_
_
_
_
0
0
.
.
.
1
_
_
_
_
_
gilt in obiger Terminologie A = I
m
. Also besitzt Ax = 0 nur die triviale Losung und
e
1
, , e
m
ist linear unabhangig.
Inhaltsverzeichnis Seite 33 von 75
Lineare Algebra Lucas Westermann
(2) Es sei R um die lineare Unabhangigkeit von
x
1
_
_
1
2
3
_
_
, x
2
=
_
_
4
5
6
_
_
, x
3
=
_
_
7
8

_
_
in R
3
zu untersuchen, betrachten wir die Gleichung (2.3b) mit
A =
_
_
1 4 7
2 5 8
3 6
_
_
und losen sie mit dem in Beispiel 1.4.6 beschriebenen Schema:
1 4 7 0
2 5 6 0
3 6 0
2I II
3I II

1 4 7 0
0 3 6 0
0 6 21 0
: 3
III 2II

1 4 7 0
0 1 2 0
0 0 9 0
: 3
III 2II
Also hat Ax = 0 f ur ,= 9 nur die triviale Losung (lineare Unabhangigkeit von x
1
, x
2
, x
3

und f ur = 9 nichttriviale Losungen (lineare Abhangigkeit).


2.3.11 Satz
Eine Menge o X ist genau dann linear unabhangig, wenn jedes x o auf nur eine Art (bis auf
Glieder mit Null-Koezienten) als Linearkombinationen von Vektoren aus o dargestellt werden
kann.
2.4 Basis und Dimensionen
Es sei X ein linearer Raum uber dem Korper K.
2.4.1 Denition (Basis)
Eine Menge A X heit Basis von X, falls A linear unabhangig mit X = span A ist:
Eine Menge A mit X = span A wird Erzeugendessystem (EZS) von X genannt. Man nennt X
endlich erzeugt, falls er ein endliches EZS hat.
2.4.2 Beispiel
Die Basis von 0 ist die leere Menge.
2.4.3 Beispiel (Standardbasis)
Die mittels der kanonischen Einheitsvektoren aus Beispiel 2.3.10 (1) gebildete Menge c
m
:=
e
1
, , e
m
ist eine Basis von K
m
, die sogenannte Standardbasis, damit ist K
m
endlich erzeugt.
Inhaltsverzeichnis Seite 34 von 75
Lineare Algebra Lucas Westermann
2.4.4 Beispiel (Polynome)
F ur K = R oder K = C sind /
n
:= m
0
, m
n
aus Beispiel 2.3.3 eine Basis der Polynome
T
n
(K) von maximalem Grad n. Ebenso ist m
n

nN
0
eine Basis von T(K). Somit ist jedes T
n
(K)
endlich erzeugt, T(K) dagegen nicht.
2.4.5 Lemma
Es sei o X linear unabhangig. Gilt dann x , span o, so ist auch o x linear unabhangig.
Beweis: Es ist nachzuweisen, dass jede endliche Teilmenge von o x linear unabhangig ist.
Dazu sei x
1
, x
n
, x eine solche Menge und

n
k=1

k
x
k
+ x = 0 eine Darstellung der Null.
Ware ,= 0, so konnte man x als Linearkombination der x
1
, , x
n
darstellen, dies widerspricht
x , span o. Also gilt = 0. Da aber x
1
, , x
n
linear unabhangig ist, folgt
1
= =
n
= 0.
In trivialer Weise: ist X ein EZS von X. Unser Interesse besteht aber gerade in

kleinen EZSen.
2.4.6 Satz
Mit nicht leerem A X sind aquivalent:
(a) A ist eine Basis von X
(b) Jeder Vektor x X lasst sich eindeutig als Linearkombination von Vektoren aus A darstel-
len.
(c) A ist maximal linear unabhangig, d.h. A ist linear unabhangig und f ur jedes x X A ist
A x linear abhangig.
(d) A ist ein minimales EZS, d.h. keine echte Teilmenge von A ist ein EZS.
2.4.7 Bemerkung (Koordinaten)
Besitzt x X bzgl. der Basis A := x
1
, , x
n
die nach Satz 2.4.6 (b) eindeutige Darstellung x =

n
k=1

k
x
k
mit Koezienten
k
K so bezeichnet man das n-tupel (
1
, ,
n
) also Koordinaten
von x (bzgl. A). Von nun an sei X endlich erzeugt.
2.4.8 Satz
Jedes endliche EZS eines Vektorraumes enthalt eine Basis. Insbesondere hat jeder endlich erzeugte
lineare Raum eine Basis.
Beweis: Es sei A ein endliches EZS. Ist A keine Basis, so kann A nicht minimal sein und es
existiert eine echte Teilmenge A
1

,= A, die ebenfalls ein EZS ist. Ist wiederum A


1
keine Basis, so
existiert erneut eine echte Teilmenge A
2

,= A
1
, die X erzeugt. Durch Iteration erhalt man eine
echt absteigende Folge von Teilmengen A
2
A
1
A. Diese Folge bricht nach endlich vielen
Inhaltsverzeichnis Seite 35 von 75
Lineare Algebra Lucas Westermann
schritten ab, da A endlich ist, d.h. es gibt ein minimales A
k
. Dieses A
k
ist nach Satz Satz 2.4.6
eine Basis von X.
2.4.9 Proposition
Ist X endlich erzeugbar und o X linear unabhangig, so existiert eine Basis von X, welche o als
Teilmenge enthalt.
2.4.10 Lemma (Austauschsatz von Steinitz)
Ist x
1
, x
p
linear unabhangig und y
1
, , y
n
ein EZS von X, so gilt p n und nach einer
Umnummerierung der y
k
ist x
1
, , x
p
, y
p+1
, , y
n
ein EZS von X.
2.4.11 Satz (Dimension)
Falls X eine Basis von n Elementen besitzt, enthalt jede Basis von X genau n Elemente. Wir
bezeichnen n als Dimension von X und schreiben n = dimX.
2.4.12 Bemerkung
Ein linearer Raum X heit unendlich-dimensional (symbolisch dimX = ) falls er kein endlichen
EZS besitzt, anderenfalls heit er endlich-dimensional.
Beweis: Es seien x
1
, , x
n
und auch y
1
, , y
m
Basen von X. Mit Lemma 2.4.10 folgt dann
n m, wie auch m n, und somit m = n.
2.4.13 Beispiel
F ur die bislang betrachteten Raume ist dimK
n
= n, dimK
mn
= m n, dimT
n
(R) = n + 1 und
dimT(R) = dimC
1
(R, R) = dimC(R, R) = dimF(R, R) = .
2.4.14 Beispiel
Die komplexen Zahlen C sind ein 2-dimensionaler Vektorraum uber R und ein 1-dimensionaler
Raum uber C.
2.4.15 Korollar
In linearen Raumen X mit n := dimX gilt:
(a) Weniger als n Vektoren aus X sind kein EZS.
(b) Mehr als n Vektoren aus X sind linear abhangig.
(c) Jedes EZS mit n Elementen ist eine Basis.
Inhaltsverzeichnis Seite 36 von 75
Lineare Algebra Lucas Westermann
(d) Jede linear unabhangige Menge mit n Elementen ist eine Basis.
Beweis:
(a) jedes EZS enthalt laut Satz 2.4.8 eine Basis. F ur jedes aus weniger als n Vektoren bestehenden
EZS gabe es dann auch eine Basis mit Weniger als n Elementen. Dies widerspricht Satz 2.4.11.
(b) Laut Proposition 2.4.9 ist jede linear unabhangige Menge Teil einer Basis. Somit hatte man
mit einer linear unabhangigen Familie von mehr als n Vektoren auch eine Basis mit mehr
als n Elementen - im Widerspruch zu Satz 2.4.11.
(c) Ein EZS enthalt wegen Satz 2.4.8 eine Basis und ist wegen Satz 2.4.11 bereits eine solche.
(d) Mit Proposition 2.4.9 ist eine linear unabhangige Familie Teilmenge einer Basis und mit
Satz 2.4.11 eine Basis.
2.4.16 Korollar
F ur jeden Unterraum Y eines endlich-dimensionalen Raumes X ist dimY dimX, Gleichheit
gilt genau f ur X = Y .
2.5 Komplemente und direkte Summen
Wieder sei X ein linearer Raum uber K.
2.5.1 Denition (direkte Summen)
Es seien Y
1
, Y
2
X Unterraume. Dann heit Y
2
Komplement von Y
1
in X, falls gilt Y
1
+ Y
2
= X
Y
1
Y
2
= 0, man schreibt X = y
1
y
2
und nennt X direkte Summe von Y
1
, Y
2
.
Beispiele:
Y
1
Y
2
,= 0 Y
1
Y
2
= R
3
Y
1
Y
2
R
3
Inhaltsverzeichnis Seite 37 von 75
Lineare Algebra Lucas Westermann
2.5.2 Beispiel
Im Raum X = R
3
ist die Gerade Y
2
:=
_
_
_
_
_
x
1
x
2
x
3
_
_
X : x
1
= x
2
= x
3
_
_
_
ein Komplement zur Ebene
Y
1
:= x X : x
1
x
2
+ x
3
= 0.
In der Tat liegt x Y
1
Y
2
, so erf ullen die Elemente des Durchschnitts
x
1
x
2
+ x
3
= 0
x
1
x
2
= 0
x
2
x
3
= 0
und folglich x = 0, dies bedeutet Y
1
Y
2
= 0. Andererseits liegen y
1
=
_
_
1
1
0
_
_
, y
2
=
_
_
1
0
1
_
_
in Y
1
und y
3
=
_
_
1
1
1
_
_
in Y
2
. Da y
1
, y
2
, y
3
eine Basis von R
3
= X bilden, gilt auch Y
1
+ Y
2
= X.
2.5.3 Beispiel
Wir betrachten den Unterraum Y
1
:= p P(K) : p(0) = 0 von X = P(K). Dann gilt P(K) =
Y
1
P
0
(K), d.h. der lineare Raum aller konstanten Polynome ist ein Komplement von Y
1
.
2.5.4 Satz
Es seien Y
1
, Y
2
X Unterraume. Es ist X = Y
1
Y
2
genau dann, wenn es zu jedem x X
eindeutige y
1
Y
1
, y
2
Y
2
mit x = y
1
+ y
2
gilt.
Beweis:
() Es sei Y
2
ein Komplement von Y
1
in X. Wegen Y
1
+Y
2
= X lasst sich jedes x X darstellen
als x = y
1
+ y
2
mit y
1
Y
1
, y
2
Y
2
. Um deren Eindeutigkeit zu verizieren, sein y
1
Y
1
, y
2
X
2
zwei weitere Vektoren mit x = y
1
+ y
2
. Dies impliziert y
1
y
2
= y
2
y
2
und y
1
y
1
Y
1
f ur
i = 1, 2 und folglich y
i
y
i
Y
1
Y
2
f ur i = 1, 2. Wegen Y
1
Y
2
= 0 folgt y
1
= y
1
und y
2
= y
2
.
() Umgekehrt seien Y
1
, Y
2
X Unterraume derart, dass sich jedes x X eindeutig als Summe
X = y
1
+ y
2
mit y
i
Y
i
, i = 1, 2, darstellen lasst. Dann gilt sicherlich Y
1
+ Y
2
= X. Ist nun
x Y
1
Y
2
, so gilt x = x+0 = 0 +x und da die Darstellung eindeutig sein muss, resultiert x = 0;
also Y
1
Y
2
= 0.
Inhaltsverzeichnis Seite 38 von 75
Lineare Algebra Lucas Westermann
2.5.5 Satz
Jeder Unterraum eines endlich dimensionalen linearen Raumes hat ein Komplement.
Beweis(-skizze):
Erganze eine Basis von Y
1
zu einer Basis von X gema Proposition 2.4.9.
2.6 Anwendung: Matrizen und lineare Gleichungen
Es sei K ein Korper und A K
mn
mit den n Spalten und den m Zeilen. Die n Spalten sei-
en a
1
, , a
n
K
m
und a
1
, , a
m
K
1n
die Zeilen von A. Man bezeichnet den Unterraum
spana
k

1kn
K
m
als Spaltenraum und spana
1
, , a
m
K
1n
als Zeilenraum von A.
A =
_
_
_
a
1
.
.
.
a
m
_
_
_
= (a
1
, , a
n
)
2.6.1 Denition (Rang einer Matrix)
Der Rang (rkA) einer Matrix A K
mn
ist die Dimension ihres Zeilenraumes.
2.6.2 Bemerkung
0 rkA m
(L
0
)Ax = 0
2.6.3 Proposition
Der Losungsraum L
0
K
n
von (L
0
) erf ullt dimL
0
= nrkA.
Beweis:
Wir konnen o.B.d.A (ohne Beschrankung der Allgemeinheit) annehmen, dass A K
mn
in strenger
Zeilen-Stufen-Form ist. Es sei r die Anzahl der Zeilen von A, welche mindestens ein Element ,= 0
besitzen - dies ist der Rang von A. F ur 1 i r sei j
i
derjenige Spaltenindex, in welcher das erste
Element ,= 0 der i-ten Zeile steht. Weiter seien k
1
, , k
nr
diejenigen Element von 1, , n,
welche nicht in j
1
, , j
r
sind. Dann gilt
L
0
=
_

_
x =
_
_
_

1
.
.
.

n
_
_
_
K
n
:
1
, ,
k
nr
K und
j
i
=
1
a
i,j
i
nr

j=1
a
i,k
j

k
j
f ur 1 i r
_

_
und x
1
, x
nr
K
n
bezeichne die Vektoren in L
0
mit
k
j
= 1 und
k
i
= 0 f ur i ,= j. Man uberlegt
sich nun, dass x
1
, x
nr
eine Basis von L
0
und die Behauptung folgt.
Inhaltsverzeichnis Seite 39 von 75
Lineare Algebra Lucas Westermann
3 Lineare Abbildungen
Es seien X, Y lineare Raume uber dem selben Korper K.
3.1 Grundlagen
3.1.1 Denition (lineare Abbildung)
Eine lineare Abbildung T : X Y erf ullt die Eigenschaft
(3.1a) T(
1
x
1
+
2
x
2
) =
1
Tx
1
+
2
Tx
2
f ur alle
1
,
2
K, x
1
, x
2
X. F ur die Menge aller solchen linearen Abbildungen schreiben wir
L(X, Y ).
F ur lineare Abbildungen schreibt man Tx := T(x).
3.1.2 Bemerkung
(1) F ur T L(X, Y ) ist T0 = 0
(2) Die Menge L(X, Y ) ist ein Unterraum von F(X, Y ); wir k urzen ferner ab L(X) := L(X, X).
Ist Z ein weiterer linearer Raum und T L(X, Y ), S L(Y, Z), so ist auch die Komposition
S T : X Z linear. (L(X), ) ist eine Halbgruppe mit neutralem Element id
x
.
3.1.3 Beispiel
Die Nullabbildung 0 : X Y, 0x := 0 Y ist linear, wie auch die identische Abbildung
id
x
: X X aus Beispiel 1.2.3
3.1.4 Beispiel (ane Abbildungen)
Eine Abbildung von S : X Y heit an, falls es T L(X, Y ) und y Y derart gibt, dass
S(x) = Tx + y. S ist genau dann linear , falls y = 0.
3.1.5 Beispiel (die Abbildung T
A
)
Die wichtigsten linearen Abbildungen dieser Vorlesung sind von der Form T
A
: K
n
K
m
, T
A
x =
Ax mit A K
mn
. Auch die Abbildung K
mn
L(K
n
, K
m
), A T
A
ist linear.
3.1.6 Beispiel
(1) Es sei ,= eine Menge und x . Dann ist die Auswertung ev
x
: F(, X) X, ev
x
(u) :=
u(x) linear.
Inhaltsverzeichnis Seite 40 von 75
Lineare Algebra Lucas Westermann
(2) Es sei I R ein Intervall. Dann ist die Dierenziation D : C
1
(I, R) C(I, R), Du := u

linear.
(3) Mit einem Intervall I R, den xen t
0
I und reellen Zahlen a < b denieren auch
nachfolgende Integrale lineare Abbildungen:
T
1
: C([a, b], R) R T
1,u
:=
_
b
a
u(s)ds
T
2
: C(I, R) C
1
(I, R), (T
2,u
)(t) :=
_
t
t
0
u(s)ds
3.1.7 Beispiel (Vorwarts-Shift)
Es sei X ein linearer Raum und I N
0
, Z. Bezeichnet dann l(I) den linearen Raum aller Folgen
F(I, X), so ist der durch (S)
k
:=
k+1
denierte Vorwarts-Shift eine Abbildung S L(l(I)).
3.1.8 Denition (Kern, Bild, Rang)
Ist T L(X, Y ), so bezeichnet N(T) := x X : Tx = 0 den Kern, R(T) := TX das Bild und
rkT := dimR(T) den Rang von T. Eine Verbindung des Begries

Rang einer Matrix (Denition


2.6.1) und Denition 3.1.8 wird in Satz 3.3.8 hergestellt.
3.1.9 Proposition
F ur jedes T L(X, Y ) ist der Kern N(T) ein Unterraum von X.
Beweis:

Ubungsaufgabe.
3.1.10 Satz
F ur jedes T L(X, Y ) gilt:
(a) T ist genau dann injektiv, wenn N(T) = 0
(b) T ist genau dann surjektiv, wenn R(T) = Y
Beweis:
(a) Die Abbildung T ist genau dann nicht injektiv, wenn es y Y und x
1
, x
2
X derart
gibt, dass x
1
,= x
2
und Tx
1
= y = Tx
2
. Dies ist aquivalent zu T(x
1
x
2
) = 0, also
0 ,= x
1
x
1
N(T)
(b) ist genau die Denition von Surjektivitat.
Inhaltsverzeichnis Seite 41 von 75
Lineare Algebra Lucas Westermann
3.1.11 Beispiel
(1) Die Auswertung ev
x
: F(, X) X aus Beispiel 3.1.6 (1) hat den Kern N(ev
x
) := m
F(, X) : u(x) = 0 und das Bild R(ev
x
) = X, ein Urbild zu einem beliebigen y X ist
gerade die konstante u(x) y auf .
(2) F ur die Nullabbildung 0 L(X, Y ) ist N(0) = X und R(0) = 0, f ur X ,= 0 ist 0 nicht
injektiv. F ur Y ,= 0 ist 0 nicht surjektiv.
(3) Mit einer Matrix A K
mn
ist T
A
L(K
n
, K
m
) aus Beispiel 3.1.5 genau dann
injektiv, wenn die linear homogene Gleichung (L
0
) nur die triviale Losung hat.
surjektiv, wenn es f ur jede Inhomogenitat b K
m
mindestens eine Losung x K
n
von
(L
b
) gibt.
(4) Bei der Dierenziation D : C
1
([a, b], R) C([a, b], R) aus Beispiel 3.1.6 (2) besteht der Kern
N(D) aus allen konstanten Funktionen. F ur das Bild R(D) erhalten wir dagegen C([a, b], R),
denn f ur ein beliebiges v C([a, b], R) gilt nach dem Hauptsatz der Dierential- und Inte-
gralrechnung Du = v mit u(t) := v(a)+
_
t
a
v(s)ds. Damit ist D nicht injektiv, aber surjektiv.
3.1.12 Satz (Dimensionssatz)
F ur jede T L(X, Y ) mit dimX < gilt dimN(T) + dimR(T) = dimX.
Beweis: Es sei x
1
, , x
m
eine Basis von N(T) und y
1
, , y
n
eine Basis von R(T). Wir
wahlen x
1
, , x
n
X derart, dass T x
i
= y
i
, y i n gilt und weisen nach, dass A :=
x
1
, , x
m
, x
1
, , x
n
eine Basis von X ist.
(i) A ist linear unabhangig: dimN(T) + dimR(T) = dimX
(ii) A ist ein EZS: dimm + dimn = dimX
3.1.13 Korollar
Sei T L(X, Y ) ist x
1
, , x
n
eine Basis von N(T) und x
1
, , x
n
, x
n+1
, , x
d
eine Basis
von X mit n < d. Das Bild R(T) hat folgende Basis:
Tx
n+1
, , Tx
d

Beweis: Sei d = dimX,n = dimN(T). Nach Dimensionssatz 3.1.12 gilt: dimR(T) = d n. Wir
suchen d n linear unabhangige Vektoren in R(T). Die Vektoren Tx
n+1
, , Tx
d
sind d n
Vektoren in R(T). Wir zeigen , dass diese linear unabhangig sind. Hierzu gehen wir indirekt vor.
Wir nehmen an, dass Tx
n+1
, , Tx
d
linear abhangig sind.
Es existiert ein Index j

, n < j

d, so dass Tx
j
=

d
j=n+1
j=j

j
Tx
j
. Das heit

d
j=n+1

j
Tx
j
= 0
Inhaltsverzeichnis Seite 42 von 75
Lineare Algebra Lucas Westermann
mit
j
= 1 . Aus der Linearitat von T folgt: T(

d
j=n+1

j
x
j
) = 0, d.h.

d
j=n+1

j
x
j
N(T).
Weil x
1
, , x
n
Basis von N(T) ist gilt:

d
j=n+1

j
x
j
=

n
j=1

j
x
j
f ur geeignete n
1
, , n
n
K,
also:

n
j=1

j
x
j

d
j=n+1

j
x
j
= 0
Weil nach Voraussetzung x
1
, x
d
Basis von X ist, folgt aus , dass
j
= 0 1 j d (Denition
der linearen Unabhangigkeit). Das ist ein Widerspruch zu . Das heit Tx
n+1
, , Tx
d
sind
linear unabhangig.
3.1.14 Satz (Prinzip der linearen Fortsetzung)
Sei x
1
, , x
n
ein Basis von X und y
1
, , y
n
Y .
(a) Sind T, S L(X, Y ) zwei linearen Abbildungen mit Tx
i
= Sx
i
1 i n. Dann gilt T = S
(b) Es existiert genau eine lineare Abbildung T L(X, Y ) mit Tx
i
= y
i
, 1 i n
3.1.15 Bemerkung
F ur gegebenes x =

n
k=1

k
x
k
,
k
K 1 k n, gilt Tx = T(

n
k=1

k
x
k
)
(3.1a)
=

n
k=1

k
Tx
k
.
Kenntnis der Koezienten
k
und der Werte Tx
i
, 1 i n erlaubt uns den Wert von Tx zu
bestimmen.
Beweis (Satz 3.1.14):
(a) Sei Tx
i
= Sx
i
; 1 i n. Sei x X mit x =

n
i=1

i
x
i
, 1 i n
i
K.
Tx =
n

i=1

i
Tx
i
=
n

i=1

i
Sx
i
= S(
n

i=1

i
x
i
) = Sx
.
(b) Wir denieren T wie folgt. Der Vektor x habe die Darstellung x =

n
i=1

i
x
i

i
K. Wir
denieren Tx :=

n
i=1

i
y
i
. Dann gilt Tx
j
=

n
j=1

i,j
y
i
= y
j
. Zeige noch: T ist linear. Sei
z X dargestellt als z =

n
i=1

i
x
i
und K.
zeige: T(x + z) = T(x) + T(z) und T(x) = T(x)
T(x+z) = T(
n

i=1

i
x
i
+
n

i=1

i
x
i
) = T(
n

i=1
(
i
+
i
)x
i
)
def.
=
n

i=1
(
i
+
i
) y
i
=
n

i=1

I
y
i
+
n

i=1

i
y
i
= Tx+Tz
T(x) = Tx analog
3.2 Isomorphismen
3.2.1 Denition
Eine bijektive Abbildung T L(X, Y ) heit Isomorphismus, und wir denieren GL(X, Y ) =
T L(X, Y ) : T bijektiv. Lineare Raume X, Y werden als isomorph bezeichnet, wenn es einen
Isomorphismus T L(X, Y ) gibt. Schreibweise: X

= Y .
Inhaltsverzeichnis Seite 43 von 75
Lineare Algebra Lucas Westermann
3.2.2 Bemerkung
(a) Wenn Z ein weiterer K-Vektorraum ist, und T GL(X, Y ) und S GL(Y, Z), dann ist
S T GL(X, Z). bildlich: X
T
Y
S
Z. Wir schreiben GL(X) f ur GL(X, X). Mit
neutralem Element id
x
wird GL(X) zu einer Gruppe, der sogenannten General Linear Group.
Achtung: GL(X) ist kein Untervektorraum von L(X)!
(b) Durch A = (X, Y ) : X und Y sind Isomorph wird eine

Aquivalenzrelation auf der Menge
aller linearen Raume erklart.
3.2.3 Beispiel (Transponierte)
Die Abbildung
T
: K
nm
K
mn
A = (a
i,j
)
1in
1jm
A
T
= (a
j,i
)
1in
1jm
(Zeilen und Spalten vertauschen!)
ist ein Isomorphismus. Es gilt das Inverse des Transponieren ist das Transponieren selbst, d.h.
((A)
T
)
T
= A (f ur n = m). Damit ist der Raum der n-Spalten isomorph zum Raum der n-Zeilen.
3.2.4 Beispiel (Polynome)
(1) Sei K Q, R, C und P
n
(K) die Polynome von maximalem Grad n N
0
. P
n
(K) ist
isomorph zu K
n+1
via den Isomorphismus T : P
n
(K) K
n+1
, p (
0
, ,
n
), wobei
p(t) =

n
k=0

k
t
k
. Zum Beispiel: p(t) = t
2
+ t p (0, 1, 1, 0, , 0).
(2) l
0,0
= (
k
)
kN
0
: n
0
n n
0

n
= 0 bezeichnet die Menge aller Folgen, die schlielich 0
sind.
l
0,0
ist Isomorph zum Raum der Polynome P(K) via den Isomorphismus T CP(K) l
0,0
;
p (
0
, ,
n
, 0, , 0, ) : p =

n
k=0

k
t
k
3.2.5 Lemma
F ur T L(X, Y ) ist mit o X auch To linear abhangig (in Y ).
3.2.6 Satz
Es sei T GL(X, Y ). Eine Menge o X ist genau dann linear abhangig, wenn To Y linear
abhangig ist.
Inhaltsverzeichnis Seite 44 von 75
Lineare Algebra Lucas Westermann
3.2.7 Bemerkung
Als logische Kontraposition erhalten wir, dass Isomorphismen linear unabhangige Mengen (oder
Basen) auf ebensolche abbilden.
Beweis:
() Folgt aus Lemma 3.2.5
() Nun sei To Y linear abhangig. Wegen T GL(X, Y ) ist auch T
1
(To) nach Lemma
3.2.5 linear abhangig.
3.2.8 Proposition
Jeder n-dimensionale lineare Raum ist isomorph zu K
n
, n N
0
.
Beweis: Es sei X ein linearer Raum mit m := dimX und der Basis A = x
1
, , x
n
. Wir
denieren T : K
n
X,
_
_
_

1
.
.
.

n
_
_
_


n
k=1

k
x
k
. Aufgrund der linearen Unabhangigkeit von A ist
N(T) = 0, nach Satz 3.1.10(a) ist T dann injektiv. Da A ein EZS ist, muss T auch surjektiv
sein.
3.2.9 Satz
Endlich dimensionale lineare Raume X, Y sind genau dann isomorph, wenn dimX = dimY .
Beweis
() Es sei n := dimX = dimY . Nach Proposition 3.2.8 existieren Isomorphismen : X
K
n
, : Y K, womit
1
GL(X, Y ) ein Isomorphismus ist.
() Sei T GL(X, Y ), A = x
1
, , x
n
. Dann ist y
i
:= Tx
i
, 1 i n nach Satz 3.2.6
Basis von Y .
3.2.10 Satz
F ur jedes T L(X, Y ) zwischen linearen Raumen X, Y mit dimX = dimY sind aquivalent:
(a) T ist ein Isomorphismus (d.h. T GL(X, Y ))
(b) T ist injektiv
(c) T ist surjektiv
Beweis: Es ist nachzuweisen, dass Surjektivitat und Injektivitat aquivalent sind. Es sei T L(X, Y )
injektiv. Wegen Satz 3.1.10(a) ist dies aquivalent zu N(T) = 0. Mit dem Dimensionssatz3.1.12
ist dann dimR(T) = dimXdimN(T) = dimY und T ist genau dann injektiv, wenn dimR(T) =
dimY , d.h. R(T) = Y gilt. Aufgrund von Satz 3.1.10(b) folgt die Behauptung.
Inhaltsverzeichnis Seite 45 von 75
Lineare Algebra Lucas Westermann
3.3 Lineare Abbildungen und Matrizen
X, Y lineare Raume, A = x
1
, , x
n
, } := y
1
, , y
m
. Wir folgern aus Satz 3.1.14, dass eine
lineare Abbildung T L(X, Y ) durch die Bilder Tx
i
der Basisvektoren von X bestimmt ist. Sind
etwa:
(3.3a) Tx
i
=
m

j=1
a
i,j
y
j
f ur 1 i n
und x =

n
k=1

k
x
k
mit Tx =

m
j=1

j
y
j
, so resultiert Tx = T(

n
k=1

k
x
k
) =

n
k=1

k
Tx
k
3.3a
=

n
k=1

m
j=1
a
k,j
y
j
=

m
i=1
(

n
k=1
a
i,k

k
)y
i
. F ur die Koordinaten
i
, ,
m
K von Tx bzgl. }
erhalten wir:
(3.3b)
i
=
n

k=1
a
i,k

k
f ur 1 i m
3.3.1 Satz (darstellende Matrix)
Jedes T L(X, Y ) wird eindeutig durch eine Matrix T
Y
X
K
mn
beschreiben, in deren kter
Spalte gerade die Koordinaten von Tx
k
bzgl der Basis } stehen. Man nennt T
Y
X
die T darstellende
Matrix in den Basen A und }; im Fall X = Y und A = } schreiben wir T
X
:= T
X
X
.
3.3.2 Bemerkung
Wir versehen X = K
n
und Y = K
m
mit Standardbasen c
n
bzw. c
m
aus Beispiel 2.4.3. F ur jede
Abbildung T L(K
n
, K
m
) mit darstellender Matrix
T
E
m
E
n
gilt dann T = T
T
E
m
E
n
(Erinnerung T
A
x = Ax)
3.3.3 Beispiel (Polynome)
Es sei n N und X = P
n
(R) ausgestattet mit der monomialen Basis /
n
:= m
0
, , m
n
aus
Beispiel 2.4.4. Als lineare Abbildung betrachten wir die Ableitung D : P
n
(R) P
n
(R) mit den
Bildern
D
m
0
= 0, D
m
k
= km
k1
f ur alle k N
und erhalten aus Satz 3.3.1 die darstellende Matrix
D
M
n
=
_
_
_
_
_
_
_
_
_
0 1 0 0 0
0 0 2 0 0
0 0 0 3 0
.
.
.
0 0 0 0 n 1
0 0 0 0 0
_
_
_
_
_
_
_
_
_
Inhaltsverzeichnis Seite 46 von 75
Lineare Algebra Lucas Westermann
3.3.4 Proposition
Zu jedem A K
mn
gibt es ein T L(X, Y ) mit A = T
Y
X
.
Beweis: Es sei A K
mn
. Zu beliebigen x X nden wir
i
, ,
n
K mit x =

n
k=1

k
x
k
. Die
gesuchte Abbildung T L(X, Y ) ist dann
Tx :=
m

i=1
_
n

j=1
a
i,j

j
_
y
i
3.3.5 Korollar
F ur endlich dimensionale Raume X, Y sind L(X, Y ) und K
dimY dimX
isomorph. Insbesondere ist
dimL(X, Y ) = dimX dimY .
Beweis: Es sei m = dimY ,n = dimX. Wir verwenden die lineare Abbildung : L(X, Y )
K
dimY dimX
,(T) = T
Y
X
die in Proposition 3.3.4 konstruiert wurde.
3.3.6 Satz
Es sei Z ein weiterer linearer Raum mit Basis :. F ur T L(X, Y ), S L(Y, Z) ist
(S T)
Z
X
= S
Z
Y
T
Y
X
3.3.7 Bemerkung
F ur A K
lm
, B K
mn
gilt
(3.3c) T
A
T
b
= T
AB
3.3.2 Die Abbildung T
A
In diesem Abschnitt sei A K
mn
und T
A
L(K
n
, K
m
) mit T
A
x := Ax.
3.3.8 Satz
Die Range von A K
mn
und T
A
L(K
n
, K
m
) stimmen uberein: rkT
A
=rkA.
3.3.9 Bemerkung
Mit den Spalten a
1
, a
n
K
m
von A gilt R(T
A
) = spana
1
, , a
n
, weshalb insbesondere
R(T
A
) und der Spaltenraum von A gleiche Dimension haben. Andererseits war rkA nach De-
nition 2.6.1 die Dimension des Zeilenraumes von A. Daher wird Satz 3.3.8 auch formuliert als:

Spaltenrang=Zeilenrang.
Inhaltsverzeichnis Seite 47 von 75
Lineare Algebra Lucas Westermann
Beweis: Zunachst merken wir an, dass N(T
A
) mit dem Losungsraum L
0
K
n
einer homogenen
Gleichung (L
0
) ubereinstimmt. Nach Proposition 2.6.3 gilt also dimN(T) = nrkA Andererseits
liefert der Dimensionssatz 3.1.12, dass n = dimN(T
A
) + dimN(T
A
) = dimN(T
A
) + rkT
A
und
folglich rkT
A
= rkA.
Nun sei A K
nn
quadratisch mit rkA = n. Dies ist mit Satz 3.2.10 aquivalent dazu, dass
T
A
L(K
n
) ein Isomorphismus ist. Wir interessieren uns nun f ur die simultane Losbarkeit von
Ax = e; f ur alle 1 i n welche wir mittels der augmentierten Matrix (A, e
1
, e
n
) = (A, I
n
)
K
n(2n)
notieren. Vermoge des Gau-Verfahrens lasst sich (A, I
n
) auf die Form (I
n
, B) mit einem
B K
nn
bringen; nach Konstruktion ist A B = I
n
.
3.3.10 Denition (inverse Matrix)
Eine Matrix A K
nn
heit invertierbar, falls ein B K
nn
mit der Eigenschaft A B = I
n
existiert. Man nennt B die Inverse von A und schreibt A
1
:= B.
3.3.11 Beispiel
Wir wollen die Matrix A :=
_
_
1 2 3
2 3 4
3 4 6
_
_
invertieren. Nach obigen Schema
1 2 3 1 0 0
2 3 4 0 1 0
3 4 6 0 0 1

1 2 3 1 0 0
0 1 2 2 1 0
0 2 3 3 0 1

1 2 3 1 0 0
0 1 2 2 1 0
0 0 1 1 2 1

1 2 0 2 6 3
0 1 0 0 3 2
0 0 1 1 2 1

1 0 0 2 0 1
0 1 0 0 3 2
0 0 1 1 2 1
und erhalten A
1
=
_
_
2 0 1
0 3 2
1 2 1
_
_
.
Eine testweise Multiplikation ergibt AA
1
= A
1
A = I
3
.
3.3.12 Korollar
Die inverse Matrix A
1
K
nn
ist eindeutig bestimmt mit A
1
A = I
n
. Ferner ist A genau dann
invertierbar, wenn T
A
GL(K
n
) ist.
3.3.13 Denition (regular, singular)
Eine Matrix A K
nn
heit regular, falls rkA = n gilt, andernfalls nennen wir sie singular.
Inhaltsverzeichnis Seite 48 von 75
Lineare Algebra Lucas Westermann
3.3.14 Satz (Charakterisierung regularer Matrizen)
Folgende Aussagen sind aquivalent f ur jedes A K
nn
(a) T
A
GL(K
n
)
(b) A ist regular
(c) Die Zeilen von A sind linear unabhangig
(d) Die Spalten von A sind linear unabhangig
(e) Die homogene Gleichung (L
0
) hat nur die triviale Losung
(f) F ur jedes b K
n
ist (L
0
) eindeutig losbar.
Beweis: Die

Aquivalenz von (b) und (c) ist Denition 3.3.13. Aufgrund von Satz 3.3.8 und Bemer-
kung 3.3.9 sind auch (c) und (d) gleichwertig.
(d) (e) resultiert aus Denition 2.3.6 der linearen Unabhangigkeit.
(e) (f) ergibt sich aus Satz 1.4.9(a).
(f) (a) Nach unserer Voraussetzung (f) ist T
1
A
(b) f ur jedes b K
n
einpunktig. Also ist
T
A
L(K
n
) bijektiv.
(a) (b)

Ubung!
Zum Abschluss des Unterabschnittes beschaftigen wir uns mit linear inhomogenen Gleichungen:
Ihre augmentierte Koezientenmatrix (A, b) K
m(n+1)
denieren wir durch
(A, b) =
_
_
_
a
1,1
a
1,n
b
1
.
.
.
.
.
.
.
.
.
a
m,1
a
m,n
b
m
_
_
_
3.3.15 Satz
Es sei b K
m
. Eine inhomogene Gleichung (L
b
) hat genau dann eine Losung, wenn gilt
rkA = rk(A, b)
Beweis:

Ubungsaufgabe.
3.3.3 Basiswechsel
Auf einem endlich dimensionalen RaumX seien die Basen A := x
1
, , x
n
und A

:= x

1
, , x

gegeben. Wie verhalt sich die Darstellungsmatrix von T L(X) wenn man von A auf die Basis
A

ubergeht?
Inhaltsverzeichnis Seite 49 von 75
Lineare Algebra Lucas Westermann
Zunachst lassen sich die Elemente von A

darstellen durch die Elemente von A


(3.3e) X

j
=
n

i=1
s
ij
x
i
f ur alle 1 j n
Hieraus wird die sogenannte Basiswechselmatrix S = (s
ij
)
1i,jn
gebildet, welche den

Ubergang
von A nach A

liefert:
Spalten von S = Koordinatenvektoren der

neuen Basisvektoren
Umgekehrt lassen sich die x
j
durch die x

i
ausdr ucken. Aus x
j
=

n
i=1
s
ij
x

i
erhalten wir
x
j
=

n
i=1
s
ij
(

n
k=1
s
ki
x
k
) =

n
k=1
(

n
i=1
s
ki
s

ij
)x
k
. Der Ausdruck in der letzten Klammer
ist genau das (k, j)-te Element von SS

. Wegen der linearen Unabhangigkeit von A folgern


wir, dass SS

= I
n
und somit S

= S
1
sein muss. Schlielich deniert man auch jede
invertierbare Matrix S einen Basiswechsel gema (3.3e) bzw. x

j
= Sx
j
.
3.3.16 Satz
Ist S K
nn
die Basiswechselmatrix zwischen A und A

, so gilt T
X
= S
1
T
X
S, f ur alle T L(X).
3.3.17 Denition (

Ahnlichkeit)
Zwei Matrizen A, B K
nn
heien ahnlich, falls es eine regulare Matrix S K
nn
derart gibt,
dass B = S
1
AS.
3.3.18 Bemerkung
(1) Laut Satz 3.3.16 sind Darstellungsmatrizen bez uglich verschiedener Basen ahnlich vermoge
der Basiswechselmatrix
(2) Die

Ahnlichkeit von Matrizen deniert eine

Aquivalenzrelation auf K
nn
.
Ziel: Finde

einfache Reprasentanten.
Inhaltsverzeichnis Seite 50 von 75
Lineare Algebra Lucas Westermann
4 Eigenwerte
Im gesamten Kapitel sei X ein linearer Raum uber dem Korper K.
4.1 Determinanten
Wir beginnen mit einem Exkurs uber Permutationen. Dazu sei (S
n
, ) die in Beispiel 2.1.7 ein-
gef uhrte symmetrische Gruppe aller bijektiven Selbstabbildungen von 1, , n, n N. Ihre
Elemente werden als Permutationen bezeichnet (von 1, , n) und man notiert sie als Sche-
ma:
_
1 2 n
(1) (2) (n)
_
oder als nTupel ((1), , (n)). Weil bijektiv ist, kommt jede Zahl j 1, , n genau
einmal in ((1), , (n)) vor; ferner gibt es genau n! solche Permutationen.
4.1.1 Denition (Signum)
Es sei S
n
und s() bezeichnet die Anzahle der Paare (i, j) N
2
mit 1 i < j n und
(i) > (j). Dann ist das Signum einer Permutation deniert durch
sgn := (1)
s()
4.1.2 Beispiel
F ur die identische Permutation id = (1, 2, , n) gilt s() = 0 und folglich sgn id = 1. Weiter
erhalt man
= (2, 1, 3, 4, , n), s() = 1, sgn = 1
= (n, n 1, , 2, 1), s() =
(n 1)n
2
, sgn = (1)
s()
4.1.3 Proposition
F ur alle , S
n
gilt sgn = sgn sgn .
4.1.4 Bemerkung
Mittels Beispiel 4.1.2 ist 1 = sgn id = sgn
1
und damit erhalten wir
(4.1.a) sgn
1
= sgn f ur alle S
n
Beweis: Es seien , S
n
und x
1
, , x
n
Q paarweise verschieden. Dann sind auch y
i
:= x
(i)
mit 1 i n paarweise verschieden.
Inhaltsverzeichnis Seite 51 von 75
Lineare Algebra Lucas Westermann
(I) Zunachst gilt die Identitat
(4.1b) sgn =

1i<jn
x
(i)
x
(j)
x
i
x
j
denn Zahler und Nenner des Produkts stimmen bis auf ihr Vorzeichen uberein. Im Zahler tritt
ein Faktor x
k
x
l
mit k > l genau s()-mal auf, wahrend dies im Nenner nicht vorkommt.
(II) Aufgrund von 4.1b erhalten wir
sgn =

1i<jn
y
(i)
y
(j)
y
i
y
j
=

1i<jn
x
(i)
x
(j)
x
(i)
x
(j)
und folglich resultiert die Behauptung aus
sgn
(4.1b)
=

1i<jn
x
(i)
x
(j)
x
i
x
j
=
_

1i<jn
x
(i)
x
(j)
x
(i)
x
(j)
__

1i<jn
x
(i)
x
(j)
x
i
x
j
_
= sgn sgn
4.1.5 Denition (Determinante)
Die durch det: K
nn
K
(4.1c) det A :=

S
n
sgn
n

i=1
a
i(i)
4.1.6 Bemerkung
(1) (4.1c) heit auch Leibniz-Formel
(2) Es gilt die Beziehung det(A) =
n
det A f ur alle K, A K
nn
, folglich ist die
Determinante f ur n 2 nicht linear.
4.1.7 Beispiel
Wir erhalten det 0 = 0 und det I
n
= 1
Inhaltsverzeichnis Seite 52 von 75
Lineare Algebra Lucas Westermann
4.1.8 Beispiel
In Dimensionen n 3 kann die Determinante einer Matrix A K
nn
verhaltnismaig einfach
berechnet werden.
(1) F ur n = 1 gilt det A = a
1,1
(2) F ur n = 2 ist S
2
= (1, 2), (2, 1) und wir erhalten det A = det
_
a
1,1
a
1,2
a
2,1
a
2,2
_
= a
1,1
a
2,2

a
2,1
a
1,2
(3) F ur n = 3 gilt S
3
= (1, 2, 3), (2, 3, 1), (3, 1, 2), (2, 1, 3), (3, 2, 1), (1, 3, 2) wobei die ersten
drei Permutationen das Signum 1 besitzen und die weiteren das Signum 1 besitzen. Dies
liefert die Regel von Sarrus
det A = det
_
_
a
1,1
a
1,2
a
1,3
a
2,1
a
2,2
a
2,3
a
3,1
a
3,2
a
3,3
_
_

a
1,1
a
1,2
a
2,1
a
2,2
a
3,1
a
3,2
Bildlich dargestellt wie die Regel funktioniert

= a
1,1
a
2,2
a
3,3
+ a
1,2
a
2,3
a
3,1
+ a
1,3
a
2,1
a
3,2
a
1,1
a
2,3
a
3,2
a
1,2
a
2,1
a
3,3
a
1,3
a
2,2
a
3,1
4.1.9 Lemma
F ur alle A, B K
nn
gilt
(a) det A = det A
T
(b) Entsteht B durch eine Permutation S
n
der Spalten von A (d.h. ist formal B =
(a
(1)
a
(2)
, , a
(n)
)), oder der Zeilen von A
_
_
_
d.h. formal B =
_
_
_
a
(1)
.
.
.
a
(n)
_
_
_
_
_
_
,
so gilt det B = sgn det A
(c) Falls zwei Spalten oder Zeilen von A ubereinstimmen, so ist det A = 0.
Beweis: Es seien A, B K
nn
(a) Durch direktes Nachrechnen und 4.1a folgt
det A
T
(4.1c)
=

S
n
sgn
n

i=1
a
(i)i
=

S
n
sgn
1
n

j=1
a
j
1
(j)
= det A
Inhaltsverzeichnis Seite 53 von 75
Lineare Algebra Lucas Westermann
(b) folgt ahnlich und (c) ist etwas involvierter.
Eine zentrale Eigenschaft von Determinanten ist ihre Multiplikativitat. Allerdings ist sie in Di-
mensionen n > 1 nicht additiv: Beispiel det(I
n
+ I
n
) = 2
n
, aber det I
n
= 1.
4.1.10 Satz (Multiplikativitat der Determinante)
Es gilt
(4.1d) det(AB) = det A det B f ur alle A, B K
nn
.
Zusatzlich zu Satz 3.3.14: Charakterisierung regularer Matrizen:
4.1.11 Satz (Regularitat und die Determinante)
Eine Matrix A K
nn
ist genau dann regular, wenn det A ,= 0. Dann gilt
(4.1e) det A
1
=
1
det A
4.1.12 Korollar
F ur ahnliche Matrizen A, B K
nn
ist det A = det B.
4.1.13 Bemerkung
Es sei X ein linearer Raum, mit dimX < . Auf Basis von Korollar 4.1.12 lasst sich auch die
Determinante det: L(X) K einer linearen Abbildung T L(X). Mit ihrer darstellenden Matrix
T
X
ist
det T := det T
X
Hierbei ist det T unabhangig von der Basis A, denn nach Satz 3.3.16 sind alle darstellenden
Matrizen ahnlich und haben gleiche Determinante.
Beweis: Mit A, B K
nn
und einer regularen Matrix S K
nn
mit B = S
1
AS gilt aufgrund
von Satz 4.1.10 und Satz 4.1.11
det B = det S
1
AS
(4.1d)
= det S
1
det Adet S = det A
Problem mit der Leibniz (4.1c): Sehr aufwandig!
Losung: Zu gegebenem A K
nn
und 1 k, l n sei A
kl
:= (a
ij
)
1in,i=k
1jn,i=l
K
(n1)n(1)
diejenige
Matrix, welche aus A durch Streichen der kten Zeile und der lten Spalte entsteht.
Inhaltsverzeichnis Seite 54 von 75
Lineare Algebra Lucas Westermann
4.1.14 Proposition (Entwicklung von det)
Es sei A K
nn
. F ur alle Indizes k, l 1, , n gilt dann:
(a) die Entwicklung nach der kten Zeile
det A =
n

i=1
(1)
k+j
a
kj
det A
kj
(b) die Entwicklung nach der lten Spalte
det A =
n

i=1
(1)
i+l
a
il
det A
il
4.1.15 Beispiel
Durch Entwicklung nach der ersten Zeile erhalten wir:
det
_
_
0 1 2
3 4 5
6 7 8
_
_
= 0 det
_
4 5
7 8
_
+ (1) det
_
3 5
6 8
_
+ 2 det
_
3 4
6 7
_
= 0
Entwicklung nach der ersten Spalte liefert entsprechend:
det
_
_
0 1 2
3 4 5
6 7 8
_
_
= 0 det
_
4 5
7 8
_
+ (1)3 det
_
1 2
7 8
_
+ 6 det
_
1 2
4 5
_
= 0
4.1.16 Beispiel (Dreiecksmatrizen)
Ist A K
nn
eine Dreiecksmatrix, so gilt det A =

n
i=1
a
ii
.
4.1.17 Proposition (Inverse und det)
Ist A K
nn
regular.
A
1
=
1
det A
_
(1)
i+j
det A
ji
_
1j,in
Inhaltsverzeichnis Seite 55 von 75
Lineare Algebra Lucas Westermann
4.1.18 Beispiel
In K
22
gilt
_
a
11
a
12
a
21
a
22
_
1
=
1
a
11
a
22
a
21
a
12
_
a
22
a
12
a
21
a
11
_
Beweis: Mittels der Matrix B := ((1)
i+j
det A
ji
)
1i,jn
erhalten wir durch Nachrechnen AB =
BA = det A I
n
. Wegen Korollar 3.3.12 ist (det A)
1
B die Inverse von A.
4.2 Eigenwerte und Eigenvektoren
Es sei X ein linearer Raum uber K.
Ziel: Finde zu T L(X) eine Basis A von X derart, dass T
X
K
nn
moglichst

einfach ist.
Hilfreich sind hierbei diejenigen Vektoren, welche von T auf ein Vielfaches abgebildet werden.
4.2.1 Denition (Eigenwert, Eigenvektor und Eigenraum)
Existiert zu T L(X) ein Skalar K und ein Vektor x X 0 mit
(4.2a) Tx = x
So nennt man x den zum Eigenwert gehorigen Eigenvektor von T. Der Kern E

:= N(T id x)
wird Eigenraum von T und dessen Dimension die geometrische Vielfachheit von genannt. Das
Spektrum (T) K ist die Menge aller Eigenwerte.
4.2.2 Bemerkung
(1) Eine Abbildung T L(X) besitzt genau dann einen nichttrivialen Kern, falls 0 (T) gilt.
Im Fall dimX < ist T genau dann invertierbar, wenn 0 , (T).
(2) F ur jedes (T) ist der zugehorige Eigenraum E

invariant bez uglich T, d.h.


x E

Tx E

Ist insbesondere m := dimE

< , so besitzt S := T [
E

L(E

) bez uglich jeder Basis A


von E

die Darstellung S
X
= diag(, , ) K
mm
.
(3) Mit A K
nn
besteht das Spektrum (T
A
) aus allen K derart, dass der Losungsraum
der homogenen Gleichung [A I
n
]x = 0 nichttrivial ist; letzterer stimmt mit E

uberein.
Inhaltsverzeichnis Seite 56 von 75
Lineare Algebra Lucas Westermann
4.2.3 Beispiel
(1) Mit der Nullabbildung 0 L(X) gilt
L(X)
0 x =
X
0 f ur alle x X. Folglich ist (0) = 0,
jedes x ,= 0 ist Eigenvektor und E
0
= X. F ur die Identitat id x gilt (id x) = 1 und
E
1
= X.
(2) Wir betrachten die von A =
_
1 2
2 1
_
induzierte Abbildung T
A
L(R
2
):
Wegen T
A
_
1
1
_
= 1
_
1
1
_
ist 1 ein Eigenwert,
_
1
1
_
zugehorigen Eigenvektor
und E
1
= R
_
1
1
_
Eigenraum zu 1; also hat 1 die geometrische Vielfachheit 1.
Aufgrund von T
A
_
1
1
_
= 3
_
1
1
_
ist ferner 3 ein Eigenwert
_
1
1
_
zugehoriger Eigenvektor
und E
3
= R
_
1
1
_
. Geometrische Vielfachheit ist 1.
4.2.4 Beispiel (Shift-Operator)
Auf dem Folgenraum X := F(Z, K) betrachten wir den Vorwarts-Shift (Tx)
k
:= x
k+1
, T L(X).
Im Fall ,= 0 gilt die Eigenwert - Eigenvektor - Beziehung (4.2a) genau dann, wenn
[x
k+1
= (Tx)
k
= x
k
], f ur alle k Z
dies ist wiederum f ur jede Folge x

X, x

k
=
k
erf ullt. Im Fall = 0 gibt es dagegen keine Folge
X ,= 0, welche (4.2a) erf ullt. Daher besitzt der Shift-Operator T das Spektrum (T) = K 0
und x

ist ein zu (T) gehoriger Eigenvektor. Aufgrund von E

= spanx

besitzt jedes
die geometrische Vielfachheit 1.
4.2.5 Proposition
Sind
i
, 1 i m, paarweise verschiedene Eigenwerte von T L(X) mit zugehorigen Eigenvek-
toren x
i
X, so ist x
1
, , x
m
linear unabhangig.
Beweis: Induktion uber m: Im Fall m = 1 ist wegen x
1
,= 0 nichts zu zeigen. Es gelte nun die
Aussage f ur m und wir machen den Ansatz
(4.2b)
m+1

i=1

i
x
i
= 0 mit
1
, ,
m+1
K
Es resultiert hieraus die Beziehungen
0
(4.2b)
= T(
m

i=1

i
x
i
)
(3.1a)
=
m+1

i=1

i
Tx
i
(4.2a)
=
m+1

i=1

i
x
i
Inhaltsverzeichnis Seite 57 von 75
Lineare Algebra Lucas Westermann
0 =
m+1
m+1

i=1

i
x
i
=
m+1

i=1

m+1
x
i
und durch Subtraktion folgt 0 =

m
i=1

i
(
i

m+1
)x
i
. Laut Induktionsannahme ist x
1
, , x
m

linear unabhangig und damit


i
(
i

m+1
) = 0. Da die Eigenwerte paarweise verschieden sind,
folgt zunachst
i
= 0, 1 i m. Mit (4.2b) folgt
m+1
x
m+1
= 0. Also Eigenvektor ist x
m+1
,= 0
und daher
m+1
= 0.
4.2.6 Korollar
Ist n = dimX < , so gilt:
(a) T hat hochstens n verschiedene Eigenwerte.
(b) Besitzt T genau n verschiedene Eigenwerte
i
mit zugehorigen Eigenvektoren x
i
, so ist
A := x
1
, , x
n
eine Basis von X und T
X
= diag(
1
, ,
n
).
Beweis:
(a) Hatte T mehr als n verschiedene Eigenwerte, so gabe es mehr als n linear unabhangige
Vektoren in X.
(b) Ergibt sich aus Korollar 2.4.15 und Bemerkung 4.2.2(2)
4.3 Das charakteristische Polynom
Im Folgendem gilt: =griechischer Buchstabe

chi, und A ein Skript-X


X sei linearer Raum uber K, dimX = n < , A sei Basis. Dann hat jede T L(X) eine
darstellende Matrix T
X
K
nn
. Bezeichnet A

eine weitere Basis von X, so folgern wir aus Satz


3.3.16 die Existenz einer regularen Basiswechselmatrix S mit T
X
= S
1
T
X
S und nach den Satzen
4.1.10, 4.1.11:
det(T
X
tI
n
) = det(S
1
T
X
S tS
1
S)
(4.1d)
= det S
1
det(T
X
tI
n
) det S
(4.1e)
= det(T
X
tI
n
)
f ur alle t K. Also hangen die Werte von t det(T
X
tI
n
) nur von T L(X) und nicht von A
ab.
4.3.1 Denition (charakteristisches Polynom)
Besitzt T L(X) eine darstellende Matrix T
X
K
nn
, so ist das charakteristisches Polynom von
T gegeben durch
T
(t) = det(T
X
tI
n
).
Inhaltsverzeichnis Seite 58 von 75
Lineare Algebra Lucas Westermann
4.3.2 Bemerkung
Es seien A K
nn
und die induzierte Abbildung T
A
L(K
n
) gegeben.
(1) Im Fall X = K
n
bezeichnet man
T
A
auch als charakteristisches Polynom von A.
(2) Die Spur von A ist deniert durch (vgl. Aufgabe)
trA =
n

i=1
a
ii
und mit
T
A
(t) = c
n
t
n
+ + c
1
t + c
0
gilt c
n
= (1)
n
, c
n1
= (1)
n1
trA, c
0
= det A.
Man sagt ein Polynom P
n
(K) zerfallt in Linearfaktoren falls es Koezienten K,
1
, ,
n

K gibt, mit
(4.3a)(t) =
n

i=1
(t
i
) auf K
Die Werte
i
sind dann die Nullstellen von , ihre algebraische Vielfachheit gibt an, wie oft der
Linearfaktor t
i
in (4.3a) vorkommt.
4.3.3 Satz
F ur jedes T L(X) gilt (T) =
1
T
(0), und die Vielfachheit von (T) heit algebraische
Vielfachheit des Eigenwerts .
Beweis: Mittels Denition 4.2.1 gelten die

Aquivalenzen
, (T) E

= N(T id x) = 0 [T
X
I
n
]x = 0 hat nur die triviale Losung.
T
X
I
n
ist regular (Satz 3.3.14)

T
() = det(T
X
I
n
) ,= 0 nach Satz 4.1.11
4.3.4 Beispiel
Es seien [0, 2), A =
_
cos sin
sin cos
_
(1)

Uber dem Korper K = R betrachten wir T = T
A
L(R
2
). Sie hat das charakteristische
Polynom
T
(t) = t
2
2cost+1. F ur = 0 ist (T) = 1 und f ur = gilt (T) = 1.
Die Eigenwerte sind doppelte Nullstellen von
T
und damit von algebraischer Vielfachheit
2. Ansonsten besitzt
T
f ur , 0, keine reellen Nullstellen, d.h. (T) = .
Inhaltsverzeichnis Seite 59 von 75
Lineare Algebra Lucas Westermann
(2) Mit K = C besitzt T = T
A
L(C
2
) f ur alle das Spektrum
(T) = cos i

1 cos
2
, cos + i

1 cos
2
.
Seine Elemente haben f ur , 0, die algebraische Vielfachheit 1.
Wir nennen einen Korper K algebraisch abgeschlossen, falls jedes Polynom p P(K) mit deg p > 0
mindestens eine Nullstelle hat.
4.3.5 Proposition
Ist K algebraisch abgeschlossen, so hat jedes T L(X) einen Eigenwert.
4.3.6 Beispiel
(1) R ist nicht algebraisch abgeschlossen (z.B. t
2
+1). Der Fundamentalsatz der Algebra besagt
gerade, dass C algebraisch abgeschlossen ist; folglich zerfallt auch jedes Polynom uber C in
Linearfaktoren.
(2) Q ist nicht algebraisch abgeschlossen (z.B. t
2
2).
4.3.7 Satz
Die geometrische Vielfachheit jedes Eigenwertes ist kleiner oder gleich seiner algebraischen Viel-
fachheit.
Beweis: Es sei T L(X) und (T) mit m := dimE

. Dann existieren m linear unabhangige


Eigenvektoren von T in E

. Wahlt man diese als ersten Teil einer Basis A von X, so gilt (vgl.
Bemerkung 4.2.2(2))
T
X
=
_
B
0 C
_
, = diag(, , ) K
nm
, B K
m(mn)
, C K
(nm)(nm)
und wir erhalten nach Satz 4.1.14, dass

T
(t) = ( t)
m
det(C tI
nm
)
Daher ist die algebraische Vielfachheit von mindestens m.
4.4 Diagonalisierung und Trigonalisierung
Wir betrachten ndimensionale lineare Raume X mit n < .
Inhaltsverzeichnis Seite 60 von 75
Lineare Algebra Lucas Westermann
4.4.1 Denition (diagonalisierbar, trigonalisierbar)
Eine Abbildung T L(X) heit
(a) diagonalisierbar, falls eine Basis A von X existiert, in der T
X
eine Diagonalmatrix ist.
(b) trigonalisierbar, falls eine Basis A von X existiert, in der T
X
obere Dreiecksform besitzt.
4.4.2 Bemerkung
(1) Entsprechend wird eine Matrix A K
nn
diagonalisierbar (trigonalisierbar) genannt, falls
T
A
L(K
n
) diese entsprechende Eigenschaft besitzt, bzw. ahnlich zu einer Diagonalmatrix
(obere Dreiecksmatrix) ist.
(2) Mit oberen Dreiecksmatrizen zu arbeiten ist reine Konvention und keine mathematische
Notwendigkeit.
4.4.3 Satz (Charakterisierung von Diagonalisierbarkeit)
Eine Abbildung T L(X) ist genau dann Diagonalisierbar, wenn gilt:
(i) Ihr charakteristisches Polynom zerfallt in Linearfaktoren.
(ii) Die geometrische Vielfachheit jedes Eigenwertes stimmt mit seiner algebraische Vielfachheit
uberein.
Beweis: Wir zeigen zwei Richtungen:
() Es sei T L(X) diagonalisierbar und A eine Basis von X derart, dass
T
X
= diag(a
1
, , a
n
) mit a
1
, , a
n
K.
Das charakteristisches Polynom ergibt sich daher zu
(4.4a)
T
=
n

k=1
(a
k
t)
_

_
= det(T
X
tI
n
) = det
_
_
_
a
1
t
.
.
.
a
n
t
_
_
_
_

_
und zerfallt oenbar in Linearfaktoren. Nach Satz 4.3.7 bleibt also nachzuweisen, dass die
geometrische Vielfachheit eines (T) mindestens gleich seiner algebraischen Vielfachheit
ist. Bezeichnet r die Algebraische Vielfachheit von , so kommt der Linearfaktor t genau
rmal in (4.4a) vor, d.h. r Diagonalelemente von T
X
sind gleich . Damit werden r Elemente
der Basis A auf ihr faches abgebildet und folglich ist dimE

r
Inhaltsverzeichnis Seite 61 von 75
Lineare Algebra Lucas Westermann
() Umgekehrt zerfalle
T
in Linearfaktoren, es gelte die Bedingung (ii) und es sei (T) =

1
, ,
m
mit paarweise verschiedenen Eigenwerten
i
, 1 i m n. Zu jedem
Eigenraum E

i
wahlen wir eine Basis
A
i
= x
i
1
, , x
i
r
i
mit 1 i m, r
1
+ r
m
= n.
und erhalten somit n Vektoren im Raum X. Wir wollen zeigen, dass diese linear unabhangig
sind. Dazu
(4.4b) 0 =
m

i=1
r
i

j=1

i
j
x
i
j
=
m

i=1
y
i
mit y
i
=
r
i

j=1

i
j
x
i
j
und Koezienten
i
j
Die Invarianz der E

i
zeigt, dass jedes solcher y
i
E

i
auf sein
i
-faches abgebildet wird,
also Eigenvektor von T ist. Mit Proposition 4.2.5 liefert dies die lineare Unabhangigkeit von
y
1
, , y
m
. Dann muss aber 0 = y
i
=

r
1
j=1

i
j
x
i
j
, 1 i m gelten, denn andernfalls ware
(4.4b) eine nichttriviale Darstellung der 0. Da A
i
Basis ist, folgt
i
j
= 0 und somit sind die
n Vektoren aus A
1
, , A
n
linear unabhangig, bilden also eine Basis von X, in welcher T
X
diagonal ist.
4.4.4 Beispiel
(1) Wir betrachten die lineare Abbildung
T L(R
3
), Tx =
_
_
0 1 1
3 2 3
2 2 3
_
_
x
und dem charakteristischen Polynom
T
(t) = t
3
+t
2
t1 = (t+1)
2
(t1). Es zerfallt in Li-
nearfaktoren und der Eigenwert 1 besitzt die algebraische Vielfachheit 2. Der Losungsraum
der homogenen linearer Gleichung [T + id]x = 0 lautet
E
1
= span
_
_
_
_
_
1
1
0
_
_
,
_
_
1
0
1
_
_
_
_
_
und ist der zugehorige Eigenraum zum Eigenwert1. Somit hat 1 die geometrische Viel-
fachheit 2. Der weitere Eigenwert 1 ist algebraisch einfach. Seine geometrische Vielfachheit
1 ergibt sich aus der Gleichung [T id]x = 0, deren Losungsraum
E
1
= span
_
_
_
_
_
1
3
2
_
_
_
_
_
Inhaltsverzeichnis Seite 62 von 75
Lineare Algebra Lucas Westermann
gerade der zum Eigenwert 1 gehorige Eigenraum ist. Deshalb garantiert Satz 4.4.3 die
Diagonalisierbarkeit von T. In der Tat, mit der aus den Eigenvektoren von T gebilde-
ten Basiswechselmatrix S =
_
_
1 1 1
1 0 3
0 1 2
_
_
(gebildet von E
1
und E
1
als Spalten) gibt
S
1
TS =
_
_
1 0 0
0 1 0
0 0 1
_
_
.
(2) Wir betrachten T L(R
3
)
Tx :=
_
_
2 1 3
2 1 1
7 2 7
_
_
x
mit dem charakteristischen Polynom
T
(t) = (t 2)
3
, das in Linearfaktoren zerfallt. Der
Eigenwert 2 von T hat die algebraische Vielfachheit 3. Man veriziert leicht E
2
= N(T
2 id) = R
_
_
1
1
1
_
_
, weshalb die geometrische Vielfachheit 1 ist. Also ist T nicht diagonalisierbar.
4.4.5 Satz (Charakterisierung von Trigonalisierbarkeit)
Eine Abbildung T L(X) ist genau dann trigonalisierbar, wenn ihr charakteristisches Polynom
in Linearfaktoren zerfallt.
4.4.6 Bemerkung (Jordan-Normalform)
Der Satz 4.4.5 lasst sich wesentlich praziser fassen - wenn auch mit deutlich aufwandigeren Beweis:
zu jedem T L(X), deren charakteristisches Polynom in Linearfaktoren zerfallt, existiert eine
Basis A von X, so dass die darstellende Matrix T
X
in Jordan-Normalform ist.
T
X
= diag(J
1
, , J
r
) mit 1 i r
Hierbei besitzt jeder Jordan-Block die Form
J
i
=
_
_
_
_
_

i
1

i
1
.
.
.
1

i
_
_
_
_
_
K
n
i
m
i
, 1 i r
mit (T) =
1
, ,
r
und n
1
+ + n
r
= n.
Inhaltsverzeichnis Seite 63 von 75
Lineare Algebra Lucas Westermann
4.4.7 Beispiel
(1) Mit [0, 2) und der aus Beispiel 4.3.4 bekannten Matrix:
A :=
_
cos sin
sin cos
_
R
22
betrachten wir die induzierte lineare Abbildung T = T
A
L(R
2
). Ihr charakteristisches
Polynom
T
(t) := t
2
2cos()t + 1 hat die Diskriminante 4(cos
2
1). Daher ist T genau
f ur 0, trigonalisierbar uber R.
(2) Weiter betrachten wir die in Beispiel 4.4.4(2) diskutierte Abbildung T L(R
3
)
Tx :=
_
_
2 1 3
2 1 1
7 2 7
_
_
x
Da ihr charakteristisches Polynom
T
(t) = (t 2)
3
in Linearfaktoren zerfallt, ist sie nach
Satz 4.4.5 trigonalisierbar. In der Tat liefert die Matrix S :=
_
_
3 4 1
3 2 0
3 7 0
_
_
ihre Jordan-
Normalform J = S
1
TS =
_
_
2 1 0
0 2 1
0 0 2
_
_
4.4.8 Korollar
Jede lineare Abbildung T L(X) auf einem endlich-dimensionalen Raum X uber C ist trigonali-
sierbar.
Beweis: Mit dem Fundamentalsatz der Algebra zerfallt jedes Polynom p P(C) in Linearfaktoren,
also insbesondere
T
.
4.4.9 Korollar
Zerfallt
T
in Linearfaktoren, so gilt
det T =
n

j=1

j
, tr T =
n

j=1

j
mit (T) =
1
, ,
n
.
Beweis: Nach Satz 4.4.5 ist T L(X) trigonalisierbar und folglich ist jede Darstellung T
X
ahnlich
zu einer Dreiecksmatrix D K
nn
vermoge S. Dann folgt mit Korollar 4.1.12, dass det T =
det D =
1
, ,
n
. Nach einer

Ubungsaufgabe ist trT = trS
1
(DS) = tr(DS)S
1
= trD =
Inhaltsverzeichnis Seite 64 von 75
Lineare Algebra Lucas Westermann

1
+ +
n
.
Wir denieren die Potenzen T
k
L(X), k N
0
, einer Abbildung T L(X) rekursiv.
T
0
:= id x, T
k+1
:= T T
k
f ur k N
0
und entsprechend f ur Matrizen A K
nn
. Wegen dimL(X) = n
2
(Korollar 3.3.5) ist die (n
2
+ 1)-
elementige Menge T
0
, T
1
, , T
n
2
linear abhangig. Tatsachlich hat sogar T
0
, , T
n
diese
Eigenschaft:
4.4.10 Satz (von Cayley-Hamilton)
Jede lineare Abbildung T L(X) erf ullt ihr charakteristisches Polynom, d.h. formal
T
(T) = 0.
4.4.11 Bemerkung
(1) Bezeichnet A eine Basis von X, so gilt f ur die darstellende Matrix
T
(T
X
) = 0
(2) F ur jedes A K
22
gilt A
2
= (trA)A (det A)I
2
Inhaltsverzeichnis Seite 65 von 75
Lineare Algebra Lucas Westermann
5 Innere Produkte
In diesem Kapitel sei stets K = R oder K = C. Wir beschranken uns weiter auf reelle oder
komplexe lineare Raume X. Insbesondere im Fall K = C erinnern wir an das komplex-konjugierte
z = (x, y) = x iy
einer komplexen Zahl z = (x, y) = x + iy, sowie ihren Betrag [z[ :=

zz =
_
x
2
+ y
2
. Wir
betrachten R als Teilmenge von C und erhalten: z = z z R.
5.1 Skalarprodukte und Orthogonalitat
5.1.1 Denition (inneres Produkt)
Ein inneres Produkt auf X ist eine Abbildung , : X X K mit
(i) x + y, z = x, z + y, z (Linearitat im 1. Argument)
(ii) x, y = y, x (konjugierte Symmetrie)
(iii) x, x 0 und Gleichheit genau f ur x = 0 (positive Denitheit)
F ur alle x, y, z X, , K. Ein linearer Raum mit innerem Produkt heit auch Pra-Hilbert-Raum.
Statt innerem Produkt sagt man auch Skalarprodukt.
5.1.2 Bemerkung
(1) Aufgrund der konjugierten Symmetrie ist stets x, x R, wahrend die positive Denitheit
x, x > 0 f ur x ,= 0 garantiert.
(2) Ein inneres Produkt ist Semilinear im 2. Argument:
(5.1a) x, y + z = x, y + x, z f ur alle x, y, z X, , K
(3) Unter einer Norm auf X versteht man die Funktion
| |: X R, |x| :=
_
x, x
Insbesondere gilt |x| = 0 x = 0. Zu jedemx ,= 0 nennen wir y :=
1
x
x den normierten Vektor
zu x, denn |y| = 1.
Inhaltsverzeichnis Seite 66 von 75
Lineare Algebra Lucas Westermann
5.1.3 Bemerkung (Orthogonalitat)
(1) Die Elemente x, y X heien orthogonal, falls x, y = 0. Die resultierende Relation
xy : x, y = 0
ist symmetrisch aber nicht transitiv. Wegen x, 0 = 0, x = 0 ist 0 X orthogonal zu
jedem x X.
(2) Die Teilmengen Y
1
, Y
2
X heien orthogonal, insofern
y
1
, y
2
= 0 f ur alle y
1
Y
1
, y
2
Y
2
5.1.4 Beispiel (Euklidischer Raum)
R
n
mit x, y :=

n
j=1
x
j
y
j
, |x| =
_

n
j=1
x
2
j
5.1.5 Beispiel (Unitarer Raum)
C
n
mit x, y =

n
j=1
x
j
y
j
, n = 1, i, i = i (i) = 1.
5.1.6 Beispiel
(1) Mit sogenannten Gewichten
1
, . . . ,
n
> 0 ist auch x, y

n
j=1

j
x
j
y
j
ein inneres Pro-
dukt auf K
n
mit induzierter Norm |x|

=
_

n
j=1

j
[x
j
[
2
(2) Mit einer stetigen Gewichtsfunktion : [a, b] (0, ), a < b sind auch die stetigen Funk-
tionen X = C([a, b], K) ein linearer Raum mit innerem Produkt
(5.1b) x, y

:=
_
b
a
(t)x(t)y(t)dt
5.1.7 Denition (Orthogonales Komplement)
Es sei S X. Dann heit S

:= x X: x, y = 0 f ur alle y S das orthogonale Komplement


von S (in X)
Inhaltsverzeichnis Seite 67 von 75
Lineare Algebra Lucas Westermann
5.1.8 Beispiel
(1) Es ist 0

= X und X

= 0
(2) Im Raum X = R
3
haben wir in Beispiel 2.5.2 nachgewiesen, dass die Gerade

Y := R
_
_
1
1
1
_
_
ein Komplement zur Ebene Y := x X, x
1
x
2
+ x
3
= 0 = R
_
_
1
1
0
_
_
+ R
_
_
1
0
1
_
_
ist.
Betrachtet man R
3
als Euklidischen Raum, so ist

Y wegen
_
_
_
1
1
1
_
_
,
_
_
1
1
0
_
_
_
= 2 jedoch kein
orthogonales Komplement von Y, vielmehr gilt Y

= R
_
_
1
1
1
_
_
5.1.9 Proposition
F ur jedes S X ist S

ein Unterraum von X mit (span S) S

= 0.
Beweis: Es seien x
1
, x
2
S

und wir erhalten


1
x
1
+
2
x
2
, y =
1
x
1
, y +
2
x
2
, y = 0 f ur
alle
1
,
2
K y S dies garantiert
1
x
1
+
2
x
2
S

und S

ist ein linearer Raum. Weiter sei


x S

und x span S, d.h. x =

n
i=1

i
x
i
mit Koezienten
i
K und x
i
S. Dies impliziert
x, x =

n
i=1

i
x
i
, x =

n
i=1

i
x
i
, x
. .
=0 weil xS

= 0 und folglich x = 0.
5.1.10 Satz
Ist dimX < und Y ein Unterraum von X, so gilt
(a) X = Y Y

(b) (Y

= Y
(c) dimX = dimY + dimY

Beweis (a): Y Y

= 0 gilt nach Proposition 5.1.9. Es bleibt X = Y Y

zu zeigen. Zu
jedem x X muss es also y Y und y

mit x = y + y

geben. Ist y
1
, . . . , y
n
eine
Orthonormalbasis von Y , so denieren wir
y :=
m

i=1
x, y
i
y
i
, y

:= x y usw.
Inhaltsverzeichnis Seite 68 von 75
Lineare Algebra Lucas Westermann
5.1.11 Denition (Orthogonal- und Orthonormalbasis)
Eine Familie o X heit
(a) orthogonal, falls x, y = 0, f ur alle x, y o x ,= y
(b) orthonormal, falls x, y =
_
1, x = y
0, x ,= y
, f ur x, y o
Eine Orthogonal- bzw. Orthonormalbasis von X ist eine orthogonale bzw. orthonormale Basis von
X.
Jede orthonormale Familie ist auch orthogonal.
5.1.12 Beispiel
(1) Die Standardbasis
n
= e
1
, . . . , e
n
aus Beispiel 2.4.3 ist eine Orthonormalbasis des Eukli-
dischen Raums R
n
wie auch des unitaren Raums C
n
.
(2) Die Legendre Polynome p
n
P(R), p
n
(t) =
1
2
n
n!
d
n
dt
n
(t
2
1)
n
f ur n N
0
denieren eine
orthogonale Familie p
n

nN
0
bzgl. dem inneren Produkt (5.1b) aus Beispiel 5.1.6(2) mit
(t) = 1 auf [1, 1]
(3) Wir denieren die trigonometrischen Funktionen c
n
, s
n
: [, ] R, c
n
(t) := cos(nt),
s(t) := sin(nt) mit n N
0
. Dann ist o := c
n

nN
0
s
n

nN
eine orthogonale Familie
in C([, ], R) bez uglich (5.1b) mit (t) = 1 auf [, ].
5.1.13 Proposition
Jede orthogonle Familie o X mit 0 / o ist linear unabhangig.
Beweis: Es sei x
1
, . . . , x
n
eine endliche Teilfamilie von o und

n
j=1

j
x
j
= 0 mit Koezienten

j
K. Dann resultiert 0 = 0, x
k
=

n
j=1

j
x
j
, x
k
=

n
j=1

j
x
j
, x
k
=
k
x
j
, x
k
f ur alle
1 k n. Wegen x
k
,= 0 folgt
k
= 0.
Vorteil von Orthonormalbasen: Koordinaten einfach berechenbar
5.1.14 Proposition
Ist x
1
, . . . , x
n
eine Orthonormalbasis von X so gilt x =

n
j=1
x, x
j
x
j
f ur alle x X.
Beweis: Da x
1
, . . . , x
n
orthonormal ist, gilt x
j
, x
k
=
jk
f ur 1 j, k n. Die Koezienten

j
K eines beliebigen x =

n
j=1

j
x
j

k
=

n
j=1

k
x
j
, x
k

. .

jk
=

n
j=1

j
x
j
, x
k
= x, x
k

Berechnung von Orthogonal- bzw. Orthonormalbasis aus einer gegebenen Basis: Orthogonalisie-
rungsverfahren von Gram-Schmidt:
Inhaltsverzeichnis Seite 69 von 75
Lineare Algebra Lucas Westermann
(0) Es sei eine linear unabhangige Familie o := x
1
, x
2
, x
3
, . . . gegeben auf X mit innerem
Produkt ,
(1) Setze y
1
:= x
1
(2) F ur k 1 deniere
(5.1c) y
k+1
:= x
k+1

j=1
y
j
, x
k+1

y
j
, y
j

y
j
f ur alle k N solange x
k+1
o. Wir erhalten aus x
1
, x
2
, eine Familie orthogonaler
Vektoren y
1
, y
2
, = } und normiert man die Elemente von } gema
(5.1d) z
k
:=
1
|y
k
|
y
k
,
so erhalten wir sogar eine orthonormale Familie.
5.1.15 Satz
Jeder endliche-dimensionale lineare Raum mit innerem Produkt hat eine Orthonormalbasis.
Beweis: Nach Satz 2.4.8 besitzt X eine Basis x
1
, , x
n
. Auf diese wenden wir obiges Gram-
Schmidt-Verfahren an: Es sei y
1
:= x
1
, y
k+1
f ur 1 k n durch (5.1c) gegeben und y
1
, , y
k

bereits orthogonal. Wir erhalten dann


y
i
, y
k+1

(5.1c)
=
_
y
i
, x
k+1

j=1
y
j
, x
k+1
y
j
, y
j

y
j
_
= y
i
, x
k+1

_
y
i
,
k

j=1
y
j
, x
k+1
y
j
, y
j

y
j
_
y
i
, x
k+1

k

j=1
y
j
, x
k+1

y
j
, y
j

ij
..
y
i
, y
j

y
i
, x
k+1
y
i
, x
k+1
= 0
dass y
i
f ur alle 1 i k orthogonal auf y
k+1
ist. Wir haben also induktiv eine orthogonale Familie
y
1
, , y
k
, y
k+1
erzeugt. Demnach ist y
1
, y
n
eine Orthogonalbasis von X. Die gesuchte
Orthonormalbasis z
1
, , z
n
ergibt sich aus (5.1d).
5.1.16 Beispiel (Legendre-Polynome)
Aufgrund von Beispiel 2.4.4 sind die Monome /
3
:= m
0
, m
1
, m
2
, m
3
eine Basis von P
3
(R).
Verwenden wir auf P
3
(R) nun das innere Produkt (vgl. (5.1b))
p, q :=
_
1
1
p(t)q(t)dt,
Inhaltsverzeichnis Seite 70 von 75
Lineare Algebra Lucas Westermann
so ist /
3
wegen m
k
, m
l
=
1 (1)
k+l+1
1 + k + l
jedoch keine Orthogonalbasis. Um eine solche zu
bestimmen, wenden wir das Gram-Schmidt-Verfahren an. Zunachst sei dazu p
0
= m
0
und wegen
p
0
, m
1
= 0, p
0
, m
2
=
2
3
, p
0
, m
3
= 0
erhalten wir p
1
= m
1

p
0
, m
1

p
0
, p
0

p
0
= m
1
, also p
1
(t) = t. Mittels der Beziehungen
p
1
, m
2
= 0, p
1
, m
3
=
2
5
ist weiter p
2
= m
2

p
0
, m
2

p
0
, p
0

p
0

p
1
, m
2

p
1
, p
1

p
1
= m
2

p
0
, m
2

p
0
, p
0

p
0
, also p
2
(t) = t
2

1
3
. Ebenso erhalt
man p
3
(t) = t
3

3
5
t und hieraus ergibt sich die Orthonormalbasis q
0
, q
1
, q
2
, q
3
des P
3
(R) mit
q
0
(t)
_
1
2
, q
1
(t) =
_
3
2
t, q
2
(t) =
3
2
_
5
2
(t
2

1
3
), q
3
(t) =
5
2
_
7
2
(t
3

3
5
t)
Fordert man nicht die Normierung q
k
, q
k
= 1, sondern q
k
(1) = 1, so ergibt sich durch Multipli-
kation der p
k
mit einem geeigneten Faktor, dass
q
0
(t) 1, q
1
(t) = t, q
2
(t) =
1
2
(3t
2
1), q
3
(t) =
1
2
(5t
3
3t);
dies sind die Legendre-Polynome aus Beispiel 5.1.12(2)
5.2 Adjungierte Abbildungen
Sei X ein linearer Raum uber K mit innerem Produkt , . Eine lineare Abbildung S: X K
heit Funktional. Mit gegebenem y X denieren wir das Funktional y

: X K durch
(5.2a) y

(x): = x, y f ur alle x X
Aufgrund von Denition 5.1.1(i) gilt namlich y

(
1
x
1
+
2
x
2
) =
1
x
1
+
2
x
2
, y =
1
x
1
, y +

2
x
2
, y =
1
y

(x
1
) +
2
y

(x
2
) f ur alle
1
,
2
K, x
1
, x
2
X, also y

L(X, K)
5.2.1 Satz (Rieszscher Darstellungssatz)
Ist dimX < , so gibt es zu jedem Funktional S L(X, K) ein eindeutiges y X mit Sx = x, y
f ur alle x X, d.h. S = y

.
Beweis: Nach Satz 5.1.15 gibt es eine Orthonormalbasis x
1
, , x
n
von X.
Inhaltsverzeichnis Seite 71 von 75
Lineare Algebra Lucas Westermann
(I) Existenz: Zu beliebig gegebenem S L(X, K) sei
(5.2b) y : =
n

i=1
Sx
i
x
i
X
und es gilt
x
j
, y
(5.2b)
=
_
x
j
,
n

i=1
Sx
i
x
i
_
=
n

i=1
Sx
i

ij
..
x
j
, x
i
= Sx
j
f ur 1 j n
Damit stimmen S und y

auf einer Basis von X uberein, weshalb Satz 3.1.14(a) sofort S = y

garantiert.
(II) Eindeutigkeit: Um nachzuweisen, dass obiges y aus (5.2b) eindeutig bestimmt ist, erf ulle
auch z X die Beziehung Sx = x, y = x, z f ur alle x X. Dies impliziert x, y z = 0
f ur alle x X und damit y z = 0
Nun seien T L(X), y X. Wir denieren S
y
: X K
S
y
x: = Tx, y
und es folgt sofort S
y
L(X, K). Bei festem T gibt es nach Satz 5.2.1 zu jedem y X ein
eindeutiges y
0
X mit S
y
x = x, y
0
f ur alle x X. Wir bezeichnen diese Zuordnung y y
0
mit
T

und die entsprechende Abbildung T

: X X ist festgelegt durch


Tx, y = x, T

y f ur alle x, y X
Gegeben T = L(X), y X. Wir denieren:
S
y
x := Tx, y
und mittels (3.1a), sowie Denition 5.1.1(i) folgt sofort S
y
L(X, K). Bei festen T L(X) gibt
es nach Satz 5.2.1 dann ein eindeutig bestimmtes y
0
Xmit S
y
x = x, y
0
. Wir bezeichnen diese
Zuordnung y y
0
mit T

und die Abbildung T

: X X ist festgelegt durch Tx, y = x, T

y
f ur alle x, y X. Aufgrund von Denition 5.1.1 erhalten wir mit beliebigen x
1
, x
2
X,
1
,
2
K,
dass
x, T

(
1
x
1
+
2
x
2
) = Tx,
1
x
1
+
2
x
2
=
1
Tx, x
1
+
2
Tx, x
2
=
1
x, T

x
1
+
2
x, T

x
2

x,
1
T

x
1
+
2
T

x
2

Damit ist T

L(X).
Inhaltsverzeichnis Seite 72 von 75
Lineare Algebra Lucas Westermann
5.2.2 Denition (adjungierte Abbildung)
Die zu T L(X) adjungierte Abbildung T

L(X) ist deniert durch


(5.2c) Tx, y = x, T

y f ur alle x, y X
Man beachte, dass T

von konkret auf X verwendete inneren Produkt abhangt.


5.2.3 Bemerkung
Direkt aus (5.2c) folgt
(1) Die Abbildung

: L(X) L(X) ist semilinear, d.h.


(
1
T
1
+
2
T
2
)

=
1
T

1
+
2
T

2
f ur
1
,
2
K, T
1
, T
2
L(X)
und erf ullt T

= T, sowie (ST)

= T

f ur S, T L(X)
(2) F ur T GL(X) ist auch T

GL(X) mit
(T

)
1
= (T
1
)

5.2.4 Beispiel (Transponierte)


Es sei X = R
n
(Euklidisch) ausgestattet mit der Standardbasis c
n
= e
1
, , e
n
und A R
nn
die darstellende Matrix von T L(X), d.h. Tx = Ax f ur alle X R
n
. Bezeichnet dann A

R
nn
die darstellende Matrix von T

, so ist
a

ij
=
_
e
i
,
_
_
_
a

1j
.
.
.
a

nj
_
_
_
_
= e
i
, T

e
j

(5.2c)
= Te
i
, e
j
=
_
_
_
_
a
1i
.
.
.
a
ni
_
_
_
, e
j
_
= a
ij
f ur alle 1 i, j n.
Folglich ist die adjungierte Abbildung T

in Euklidischen Raumen gerade durch die Transponierte


A

= A
T
gegeben (vergleiche Beispiel 3.2.3).
5.2.5 Beispiel (Hermitesche)
Im unitarer Raum C
n
mit seiner Standardbasis c
n
ergibt sich entsprechend:
a

ij
=
_
e
i
,
_
_
_
a

1j
.
.
.
a

nj
_
_
_
e
i
, T

e
j
_
(5.2c)
= Te
i
, e
j
=
_
_
_
_
a
1i
.
.
.
a
ni
_
_
_
, e
j
_
= a
ji
f ur alle 1 i, j n
und folglich a

ij
= a
ji
. F ur die adjungierte Abbildung in unitaren Raumen ist also A

= A

mit der
sogenannten Hermiteschen
A

= (A
T
) = (a
ji
)
1i,jn
Inhaltsverzeichnis Seite 73 von 75
Lineare Algebra Lucas Westermann
5.2.6 Satz
Ist dimX < und T L(X), so gilt
N(T

) = R(T)

rkT = rkT

Beweis: Wir erhalten


N(T

) = x X: T

x = 0 = x X: y, T

x = 0 f ur alle y X
(5.2c)
= x X: Ty, x = 0 f ur alle y X = R(T)

Mit Satz 5.1.10(c), der eben gezeigten Aussage und Satz 3.1.12
rkT = dimR(T) =
1
dimX dimR(T)

= dimX dimN(T

) = dimR(T

) = rkT

5.3 Sebstadjungierte Abbildungen


Wieder sei X ein linearer Raum mit inneren Produkt ,
5.3.1 Denition (Selbstadjungiert)
Eine Abbildung T L(X) heit selbstadjungiert, falls gilt T = T

, d.h.
(5.3a)Tx, y = x, Ty f ur alle x, y X
5.3.2 Beispiel (Euklidischer Raum)
Auf dem Euklidischen Raum R
n
ist eine Abbildung T L(X) genau dann selbstadjungiert, falls
ihre darstellende Matrix T
E
n
= A symmetrisch ist, d.h. A = A
T
z.B.
_
1 2
2 1
_
,
_
1 3
3 2
_
,
_
1 2
3 4
_
nicht.
5.3.3 Beispiel (unitarer Raum)
In einem unitaren Raum C
n
ist T L(C
n
) dann und nur dann selbstadjungiert, wenn A = T
E
n
Hermitesch ist (vergleiche Beispiel 5.2.5), d.h. A = A

.
1
gilt wegen: X = Y Y

dimX = dimY + dimY

Inhaltsverzeichnis Seite 74 von 75


Lineare Algebra Lucas Westermann
5.3.5 Satz
Es sei dimX < . Ist T L(X) selbstadjungiert, so gilt:
(a) (T) R
(b) Es gibt eine Orthonormalbasis von X aus Eigenvektoren von T
5.3.6 Bemerkung
Auf Matrizen bezogen besagt dies gerade, dass symmetrische und Hermitesche Matrizen reelles
Spektrum haben und der Raum K
n
eine Orthonormalbasis aus Eigenvektoren besitzt. Beweis:
(a) Es sei K ein Eigenwert von T mit zugehorigen Eigenvektor x X. Da T selbstadjungiert
ist, gilt
x, x = x, x
(4.2a)
= Tx, x = x, Tx
(4.2a)
= x, x = x, x
und wegen x ,= 0 folgt = , also R.
(b) Induktion uber n = dimX. F ur n = 1 ist nichts nachzuweisen. F ur n > 1 gilt den Funda-
mentalsatz der Algebra

T
(t) =
n

i=1
(
i
t) mit
i
C
und wegen Satz 4.3.3 ist jedes
i
Eigenwert von T; Aussage (a) garantiert sogar
i
R. Es
sei nun x
1
ein normierter Eigenvektor zu
1
und X
1
= (spanx
1
)

. Mittels Satz 5.1.10(c)


ist dann dimX
1
= n 1. F ur jedes x X
1
ist dann
x
1
, Tx
(5.3a)
= Tx
1
, x
(4.2a)
=
1
0
..
x
1
, x = 0
d.h. Tx X
1
. Wir haben damit gezeigt, dass X
1
invariant unter T ist. Damit induziert T
L(X) eine selbstadjungierte Abbildung T
1
: = T [
X
1
L(X
1
). Nach Induktionsvoraussetzung
gilt es eine Orthonormalbasis A
1
: = x
2
, , x
n
von X
1
aus nomierten Eigenvektoren x
i
von T. Da jeder Eigenvektor von T
1
auch Eigenvektor von T ist, muss x
1
, x
2
, , x
n
eine
Orthonormalbasis von X sein.
5.3.7 Korollar
Jede selbstadjungierte Abbildung ist diagonalisierbar. Beweis: Wahle Basis aus Eigenvektoren.
Inhaltsverzeichnis Seite 75 von 75

You might also like