Grundlagen der Theoretischen Informatik

mitgeschrieben von Martin Lenders
Dieses Dokument vom 6. Juli 2009 steht unter einer Creative Commons BY-NC-ND 3.0 Deutschland Lizenz f¨ r die Seite http://page.mi.fu-berlin.de/mlenders/mitschriften/gti/ u

Inhaltsverzeichnis
1 Turing-Maschine, Berechenbarkeit, Entscheidbarkeit 1.1 Definition der Turing-Maschine . . . . . . . . . . . . . . 1.2 Church’sche These . . . . . . . . . . . . . . . . . . . . . 1.3 Registermaschinen . . . . . . . . . . . . . . . . . . . . . 1.4 Formale Sprachen . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Multiplikation von W¨rtern . . . . . . . . . . . . o 1.4.2 Multiplikation von Sprachen . . . . . . . . . . . . 1.4.3 Potenz von W¨rtern und von Sprachen . . . . . . o 1.5 Konfiguration (Momentaufnahme einer Turingmaschine) 1.6 Turingmaschine mit mehreren B¨ndern . . . . . . . . . . a 1.7 Die universelle Turingmaschine . . . . . . . . . . . . . . 1.8 Unentscheidbarkeit . . . . . . . . . . . . . . . . . . . . . 1.8.1 Universelle Sprache und Diagonalsprache . . . . 1.8.2 Das Halteproblem . . . . . . . . . . . . . . . . . 1.8.3 Reduzierbarkeit von Problemen . . . . . . . . . . 1.8.4 Das Post’sche Korrespondenzproblem (PKP) . . 1.8.5 Andere unentscheidbare Probleme . . . . . . . . 1.8.6 Satz von RICE (1953) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 7 7 8 8 8 8 9 10 10 10 12 13 13 16 16 17 17 18 20 22 22 23 25 26 27 29 30 31 31 32 32 33 34 35 35 35 36 37 38 40 41 42 43 44 44

2 Regul¨re Sprachen und endliche Automaten a 2.1 Deterministische endliche Automaten . . . . . . . . . . . . . . 2.2 Regul¨re Ausdr¨ cke . . . . . . . . . . . . . . . . . . . . . . . a u 2.3 Nichtdeterministische endliche Automaten . . . . . . . . . . . ¨ 2.4 NEA mit ε-Uberg¨ngen . . . . . . . . . . . . . . . . . . . . . a ¨ 2.4.1 Elimination von ε-Uberg¨ngen . . . . . . . . . . . . . a 2.5 Minimierung deterministischer endlicher Automaten . . . . . 2.5.1 Algorithmus zur Bestimmung des Minimalautomaten: 2.5.2 Satz von Nerode . . . . . . . . . . . . . . . . . . . . . 2.6 Das Pumping-Lemma f¨ r regul¨re Sprachen . . . . . . . . . . u a 2.7 Abschlusseigenschaften regul¨rer Sprachen . . . . . . . . . . . a 2.8 Zusammenfassung: regul¨re Sprachen . . . . . . . . . . . . . . a 3 Grammatiken 3.1 Definition von Grammatiken . . . . . . . . . . . 3.2 Die Chomsky-Hierarchie . . . . . . . . . . . . . . 3.3 Typ-0-Sprachen (rekursiv aufz¨hlbare Sprachen) a 3.4 Typ-3-Sprachen (regul¨re Sprachen) . . . . . . . a 3.5 Typ-1-Sprachen (kontextsensitive Sprachen) . . . 4 Kontextfreie Sprachen (Typ-2-Sprachen) 4.1 Tiefenstruktur von Sprachen . . . . . . . . . . . 4.2 Dyck-Sprache . . . . . . . . . . . . . . . . . . . . 4.3 Kontextfreie Grammtiken als Gleichungssysteme 4.4 Eindeutigkeit . . . . . . . . . . . . . . . . . . . . 4.5 Chomsky-Normalform . . . . . . . . . . . . . . . 4.6 Algorithus von CYK“ . . . . . . . . . . . . . . . ” 4.7 (Erweiterte) Backus-Naur-Form (E)BNF . . . . . 4.8 Pumping-Lemma f¨ r kontextfreie Sprachen . . . u 4.9 Abschlusseigenschaften kontextfreier Sprachen . . 4.10 Entscheidungsprobleme kontextfreier Sprachen . 4.11 Kellerautomaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3

Inhaltsverzeichnis

4.12 Abschlusseigenschaften kontextfreier Sprachen gegen¨ ber regul¨ren Sprachen u a 4.13 Deterministische kontextfreie Sprachen . . . . . . . . . . . . . . . . . . . . . . 4.14 Deterministische Zweiwege-Kellerautomaten . . . . . . . . . . . . . . . . . . . 4.14.1 Teilwortproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

48 48 48 49

4

1 Turing-Maschine, Berechenbarkeit, Entscheidbarkeit
1.1 Definition der Turing-Maschine
Steuerung

Zustand (Programmzähler)

(q, a)

Programm

Schreib−/Lesekopf

(q ′ , a′ , b)
1
X

B

B

B

0

B

B

B

Zweiseitiges, unendliches Band

Eine Turingmaschine wird beschrieben durch: • Ein Eingabealphabet Σ • ein Bandalphabet Γ ⊃ Σ • ein Leerzeichen B ∈ Γ \ Σ • eine endliche Menge Q von Zust¨nden a ¨ • eine Uberf¨ hrungsfunktion δ : Q × Γ → Q × Γ × {−1, 0, 1} u • ein Anfangszustand q0 ∈ Q • (eventuell) eine Menge von akzeptierenden Zust¨nden F ⊆ Q a δ ist das Programm“ der TM ” • δ(q, a) = (q ′ , a′ , b) bedeutet: Wenn die Maschine im Zustand q ist und unter dem Kopf das Symbol a steht, dann wird a durch a′ auf dem Band ersetzt (a′ = a ist m¨glich), das Band wird um b verschoben und die o Maschine geht in den Zustand q ′ • Die Eingabe ist eine Folge von Symbolen aus Σ (ein Wort uber Σ). Sie steht am Anfang auf dem Band; ¨ der Kopf steht uber dem ersten Symbol. Der Zustand ist q0 . ¨ Beispiel: Σ = {0, 1}, Γ = {0, 1, B, X} Erkenne die Eingabe der Form: 0 1 , f¨ r n ≥ 1 u 01, 0011, 000111, ... (richtig) 001, 1100, 0100101, ... (falsch) rechts und links von der Eingabe stehen unendlich viele B-Symbole • Phase 1: laufe einmal von links nach rechts uber das Band und uberpr¨ fe, ob dort eine Folge von 0en u ¨ ¨ gefolgt von eine Folge von 1en steht. • Phase 2: Fahre abwechselnd nach links und nach rechts und ersetze jeweils 0 und eine 1 durch X. Akzeptiere, wenn am Ende alles durch X erstzt ist und kene 0, 1 ubrig bleibt ¨
n n

5

. 1) Kommentar fahre nach rechts uber Nullen ¨ fahre nach rechts uber Einsen ¨ fahre nach links und suche 0. wenn sie in einen Zustand q uber einen Symbol a mit δ(q. 0. X. 0) (q3 . L¨sche alle Markierungen o s qu . x} × {0. 0) (q+ . q− q+ (q− . . Bandalphabet f¨ r die i-te Spur. 0. Haltezustand: h ¨ ¨ s ∈ {0. B. 1. X. B. 2. was man intuitiv unter algorith” misch berechenbar“ versteht. ersetze sie durch X fahre nach rechts und suche 1. 0) (q+ . 1) (q2 . −1) (q3 . . 0. q+ . s := a (merken) Markiere diese Ziffer auf dem Band. wenn sie in einem Zustand aus F h¨lt. 1) (q4 . 1) (q3 . X. u z. q2 . 0. × Γk . 1} ¨ Eingabealphabet: Σ = {0. formal: Q = Q0 × V . 0) X egal egal (q2 . . unmarkierten Ziffer b von x ¨ Ersetze b durch b + s + u. 0. 1. 1. Beispiel: Addition zweier Bin¨rzahlen a Eingabe: bin(x)#bin(y)$ (bin(x) := Bin¨rdarstellung einer positiven Zahl. . akzeptiere wenn keine 1 mehr vorhanden ist. B. $} Bandalphabet: Γ = Σ ∪ {B. 0) (q+ . q3 . X. 1. 1) B (q− . 0) (q− . 0) (q− . 0) (q+ . ENTSCHEIDBARKEIT δ q0 q1 q2 q3 q4 0 (q0 . 1. u der Variablen. 1) (q− . 1. u := Ubertrag. f¨ hrende Nullen sind egal) a u Ausgabe: bin(x + y)#bin(y)$ Programmiertechniken: • Verwenden mehrerer Spuren: Jedes Feld des Bandes wird als aus mehreren Unterfeldern bestehend betrachtet. 1) (q4 . Wandere nach links zur 1. q4 . B. B. BERECHENBARKEIT. q1 . 1. a.} • Speichern von Variablen mit endlichen Wertebereich als Teil des Zustandes. 0) (q− . X. 0) (q2 . 1) (q+ . Wandere nach rechts zur 1. B. 0. 1) (q1 . X. .2 Church’sche These Das was von einer Turing-Maschine berechnet werden kann. a 1. Γi . 0) steht. B. −1) (q2 . 1} u ∈ {0. 1} 6 . ¨ 4. . a ¨ Q = {q0 . ersetze sie durch X fahre nach rechts und suche 1. V . −1) (q− . #. 1. TURING-MASCHINE. X 1 X 0 X 1 0 1 formal: Γ = Γ1 × Γ2 × Γ3 × . 1. Gehe zu 1 solange noch Ziffern ubrig sind. Wertebereich der Variablen. B. a) = (q. 1) 1 (q1 . B. . . 1) (q4 . M. entspricht dem. (Markiere diese Ziffer) ¨ ¨ 3. X. q− } q0 = q0 F = {q+ } • Die T. unmarkierten Ziffer a.KAPITEL 1. −1) (q4 . 0) • Die Maschine h¨lt. ¯ ¯ 0. Zustand (Programmzeile) q mit Werten s.: {’ ’. akzeptiert die Eingabe.

− p. ¯ − u 0. + z. 0 q0 . ¨ 0 y0 . . ¯ + ¨ 1.. − 0 wu . 1. REGISTERMASCHINEN δ 0 qu ¨ 0 ru ¨ s0 u ¨ ti u ¨ ui 0 u0 0 u1 . #. ¯ + 0. ¯ − u 1. 1. x0 . − 0 vu . + ¨ t1 . ¯ 1 0 qu . ¨ ui . 0. . ¯ − 1. 0 v0 . 0. 1. 0 ¯ y1 . . ¯ + 0. alle W¨rter endlicher L¨nge l. yi .. ¨ t0 . + ¨ 0 yu . . − h. ¯ − u 0. + p. 0. $. 0. 0 vu . 1. #. 1. $. ¯ − u 0. ¯ 1. − z. ¯ + 1. + 4 • Unterprogrammtechnik 1. ¯ + ¨ 1. 0 q0 . 0. + ¨ t0 . − u ¨ ui . #. endliches Alphabet (Vorrat an Zeichen) Σ∗ .3. + p. #. ¯ + 0. ¨ 0 q0 . + ¨ 0 ru .+ 1 v0 . ¯ − u 1.4 Formale Sprachen Σ . 0. B. − p. 0. 0 q1 . 0 vu . ¯ − u 1. .. ¨ ui . x0 .###[Programmcode] xi . + ¨ 0 ru . o a w = a 1 a 2 a 3 . a i ∈ Σ l = |w| L¨nge des Wortes l ≥ 0 a ε ist das leere Wort |ε| = 0 Definition: Eine formale Sprache L ist eine Teilmenge von Σ∗ Beispiel: L = {0n 1n |n ≥ 1} L=∅ L = {ε} 7 . B. ¯ + ¨ 0. + 0 ru . 1. ¨ 0 q0 . + z. #. ¯ + 1. ¯ − 0 0. ¯ − u 1. + z. Adresse. + ¨ 0 ru . ¯ 0. s0 . #. ¯ − u 0. + ¨ ¯ 0 0 qu . + ¨ 1 0 q0 . Inhalt auf Adresse xi 1.. s0 . 0 ¯ y1 . − ¨ 0 v0 .3 Registermaschinen Simulation eines RAM-Speichers auf einer TM: ##x1 #y1 ##x2 #y2 ##. 1..+ 2 3 z. − u ¨ B Schritt 1 0 vu . ¯ + 0. ¯ − 0 1. die man mit den Buchstaben aus Σ bilden kann. ¯ + 1. ¨ t1 .1. + ¨ u0 . u0 0 1 u1 1 0 vu ¨ 0 wu ¨ 0 xu ¨ 0 y0 0 y1 z p 0 0 qu . ¨ 0 y0 . 1.. − u ¨ $ s0 . #. ¯ + ¨ 0. . 0 q1 . al . ¯ − 0. # 0 ru .

L · {ε} = L Beispiel: L1 = {a. .4. .4.4. dass auf k1 nach beliebig vielen Schritten (≥ 0) die Konfiguration k2 folgt.3 Potenz von W¨rtern und von Sprachen o ui = u · u · u · . . . L · ∅ = ε · u = u 3.ba} L1 · L2 = {aa. L1 · (L2 · L3 ) = (L1 · L2 ) · L3 2. u2 ∈ L. . TURING-MASCHINE. . . · ui |u1 ∈ L.ab} L2 = {a. .KAPITEL 1. . .abba} 1.aba. y ∈ Γ∗ und q ∈ Q beschreibt den Zustand der Turingmaschine wo xy auf dem Band steht und der Kopf uber dem ersten Zeichen von y steht F¨ r zwei Konfigurationen k1 und k2 schreibt man u ¨ k1 ⊢ k2 wenn die Turingmaschine in einem Schrittvon k1 nach k2 ubergeht. (Nachfolgerrelation zwischen ¨ Konfigurationen. vielen (≥ 0) Bestandteilen ∈ L zusammen multiplizieren kann. ∀u ∈ Σ∗ : u · ε = ε · u = u Beispiel: u = abra v = kadabra u · v = abrakadabra v = kad ·u 1. u · (v · w) = (u · v) · w 2.1 Multiplikation von W¨rtern o u · v = uv (Buchstaben von u und v nebeneinander geschrieben) Rechenregeln: 1. v ∈ L2 } Rechenregeln: 1. das nicht mit B anf¨ngt oder a aufh¨rt (ein Wort ∈ Γ∗ QΓ∗ \ (B(Γ ∪ Q)∗ ∪ (Γ ∪ Q)∗ B)). · L = {u1 · u2 · . .5 Konfiguration (Momentaufnahme einer Turingmaschine) Definition: Eine Konfiguration einer Turingmaschine ist ein Wort aus Γ∗ QΓ∗ . ENTSCHEIDBARKEIT 1. = Menge der W¨rter. . · u i−mal u =u u0 = ε Li = L · L · .) k1 ⊢ k2 bedeutet. ∗ 8 . die man aus bel. o Das Wort xqy mit x.2 Multiplikation von Sprachen L1 · L2 = {uv|u ∈ L1 . ui ∈ L} i−mal 1 L1 = L L0 = {ε} L∗ := L0 ∪ L1 ∪ L2 ∪ . o 1. BERECHENBARKEIT.

a o • Das erste Band ist das Eingabeband. . Satz: Eine k-Band-Turingmaschine die nach T Schritten h¨lt kann durch eine 1-Band-Turinmaschine simuliert a werden. a ¨ ¨ • Die Ubergangsfunktion δ : Q × Γk → Q × Γk × {−1. a a • Die simulierte Maschine kann in T Schritten h¨chstens T Schritte nach links und rechts gehen.T 2 Schritten h¨lt.log n Schritten multipliziert a o werden (Martin F¨hrer 2008.6. . Γ1 = Γ ∪ (Γ × {X. mit y. 2 i-mal Die Umkehrfunktion von log ist 2 ∗ =2↑i Definition: Die von einer Turingmaschine M mit einer Teilmenge F ⊆ Q von akzeptierenden Zust¨nden akzepa tierte Sprache L(M ) ist die Menge der W¨rtern bei deren Eingabe die Maschine einen akzeptierenden o Zustand erreicht (und dann anh¨lt). bestehender Rekord vorher const. In einer konstanten Anzahl von Fahrten uber das gesamte Band (ausgehend a ¨ von L) kann die Turingmaschine die Band¨nderungen auf den k B¨ndern simulieren. (n)) (mit einem a a Band in O(n2 ) Schritten).T Schritten T -mal ⇒ T 2 ∗ • 2 n-Bit Bin¨rzahlen k¨nnen auf einem k-Band-TM in n · log n · const. 0. . Zuerst wird bin(y) auf das 2. log2 n ≤ 1} -mal 22 . die in h¨chstens const. • Die ubrigen B¨nder sind zu Beginn leer.n·log n log log n (Arnold Sch¨ nu o hage ≈ 1970)) log∗ n := min{i| log2 log2 log2 .¨ 1. +1}k Beispiel: bin¨re Addition von 2 n-Bit Zahlen geht mit 2 B¨ndern in O(n) Schritten (≤ konst. o • Die L¨nge des uberstrichenen Bandinhalts in jedem Simulationsschritt ist ≤ 2T + 1 a ¨ • Ein Simulationsschritt geht in ≤ const.6 Turingmaschine mit mehreren B¨ndern a • Eine Turingmaschine mit k B¨ndern hat k Schreib-/Lesek¨pfe. a L(M ) = x ∈ Σ∗ q0 x ⊢ yqz. . z ∈ Γ∗ und q ∈ F ∗  M h¨lt in q ∈ F a → x ∈ L(M )  Eingabe x M h¨lt in q ∈ F a / → x ∈ L(M ) /   M terminiert nicht → x ∈ L(M ) / 9 . TURINGMASCHINE MIT MEHREREN BANDERN 1. o a Beweis: Simulation der k B¨nder auf k Spuren eines einzigen Bandes. Die Kopfposition der B¨nder ist af der a a jeweiligen Spur vermerkt. und dann bitweise von rechts nach links addiert. ’ ’})k ∪ {L} • L markiert die Position links neben der linkesten Position die die simulierte Turingmaschine auf allen B¨ndern besucht hat. Band kopiert.

+1).KAPITEL 1. m1 ). 3. qk1 . (qi1 . .7 Die universelle Turingmaschine Eine universelle Turingmaschine liest als Eingabe: 1. Die Beschreibung einer beliebigen Turingmaschine M 2.. γj1 . BERECHENBARKEIT.. • Man nennt M die G¨delnummer von M . −1). recursiv enumerable) wenn es a eine Turingmaschine M mit L = L(M ) gibt. γ5 ) = (q2 .. steht ein Wort y ∈ Σ∗ auf dem Ausgabeband (bzw. • Wenn die Maschine h¨lt. b. 1}∗ bezeichnet. wenn M h¨lt.. γl1 .|111| Beispiel: δ(q1 . 1}∗ Satz: Es gibt eine universelle Turingmaschine MU mit L(MU ) = LU Beweisskizze: MU muss zun¨chst den Anfang der Eingabe bis zum zweiten 111-Block lesen und entscheiden a ob es sich um eine g¨ ltige G¨delnummer handelt. . je nach M ). Die Eingabe f¨ r M .8 Unentscheidbarkeit 1... |Γ| − 1} (keine wesentlichen Einschr¨nkungen).. . m) geschrieben. die auf allen Eingaben h¨lt und a mit L = L(M ) Unterscheide: abz¨hlbare (denumerable) Mengen: endlich oder gleichm¨chtig mit N a a Turingmaschine die etwas berechnet: x ∈ Σ∗ steht auf dem Eingabeband. (qi1 . engl. .. 1} b) M hat Zustandsmenge Q = {q1 . dann h¨lt auch MU (in einem akzeptierenden oder nicht akzepa a tierenden Zustand. γ5 . 1. ⇒ M = 111010100100010110000100000100100000100011. . 1. B. γj1 .111 1. o Konventionen: a) M hat das Eingabealphabet {0.1 Universelle Sprache und Diagonalsprache Definition: Die universelle Sprache LU ist die Sprache LU = { M x|M akzeptiert x} ⊆ {0. wenn es eine Turingmaschine M mit f = fM gibt. L heißt entscheidbar (rekursiv)... q2 . 5. u Dann simuliert sie M mit dieser Eingabe und h¨lt genau dann..8. a. a a • Die Beschreibung von M wird als M ∈ {0. a) = (q ′ . TURING-MASCHINE. Wenn die simulierte Maschine M h¨lt. qk } q1 ist der Startzustand q2 ist der einzige akzeptierende Zustand c) M hat Bandalphabet {0. a • Die von der Turingmaschine berechnete (partielle) Funktion fM ist definiert auf der Menge A = {x ∈ Σ ∗ |M h¨lt bei Eingabe um x} a fM : A → Σ∗ mit A ⊆ Σ∗ • Eine partielle Funktion f : A → Σ∗ mit A ⊆ Σ∗ oder eine totale Funktion f : Σ∗ → Σ∗ heißt berechenbar. m) wird als (q. . . auf dem einzigen Band). q ′ . 10 . B. a Jetzt m¨ ssen wir nur noch δ kodieren: u als Liste von 5-Tupeln: δ(q. wenn es eine Turingmaschine M gibt. δ(q4 . ENTSCHEIDBARKEIT Definition: Eine Sprache L heißt rekursiv aufz¨hlbar (semi-entscheidbar. und kann anschließend die Maschine M Schritt f¨ r u Schritt simulieren.. 4.).. 0) = (q2 . . ⇒ |111|0i1 10j1 10j1 10k1 10l1 10m1 |11|0i2 10j2 10j2 10k2 10l2 10m2 |11|. b. u o MU kopiert die Beschreibung auf ein zweites Band.

a D = {wi | wi ∈ L(Mi ) / falls wi = M ist Mi falls wi keine g¨ ltige G¨delnummer ist u o Definition: Die Diagonalsprache D ist . .. . UNENTSCHEIDBARKEIT Aufz¨hlung aller W¨rter aus {0. M2 . i = 1. a Beweis durch Widerspruch: Angenommen.8.. Mi D w1 +− + − + + − w2 +− + − +− − w3 −+ − + + ··· wi ··· wk ··· + Satz: D ist nicht rekursiv aufz¨hlbar und damit auch nicht entscheidbar.  Turingmaschine M .   Turingmaschine. .. es gibt eine Turingmaschine Mk die D akzeptiert: D = L(Mk ) = {w|Mk akzeptiert w} Betrachtet das Wort wk : wk ∈ D Definition von D ⇐⇒ wk ∈ L(MK ) / wk ∈ D / Annahme: Mk akzeptiert die Sprache D ⇐⇒ Satz: Das Komplement D der Diagonalsprache D = {wi |wi ∈ L(Mi )} ist rekursiv aufz¨hlbar.. . . M1 .. die einen Schritt = nach links macht. aber nicht entscheidbar a 11 . 1}∗ und aller Turingmaschinen: a o w1 = ε w2 = 0 w3 = 1 w4 = 00 w5 = 01 w6 = 10 w7 = 11 w8 = 000 . 2. Mi .} Mi akzeptiert wi nicht. 3. M1 M2 M3 M4 .. . und dann in einem    akzeptierenzen Zustand anh¨lt.1. ..

dann terminiert M1 . ob wi ∈ D ist. Wir wollen untersuchen. 1. o U = { M x|x ∈ L(M ). . Beweis: Mit der Entscheidbarkeit von U k¨nnte man auch die Diagonalsprache D = {wi |wi ∈ L(Mi )} entscheio / den. dann terminiert M2 . verdopple die Eingabe und starte die universelle Turingmaschine: Mi wi =wi akzeptiert genau dann. dann akzeptiere.. a L L entscheidbar entscheidbar rekursiv aufz¨hlbar. L entscheidbar ⇒ L entscheidbar ⇒ L. u o u • Wenn nein: L(Mi ) = Σ∗ wi ∈ Σ∗ → Antwort: JA • Wenn ja: Mi = M ¨ Uberpr¨ fe ob Mi wi ∈ U ⇔ wi ∈ L(Mi ) u – wenn ja → Antwort: NEIN. Annahme: Es gibt einen Algorithmus. ob die Eingabe eine g¨ ltige G¨delnummer M ist. BERECHENBARKEIT. nicht entscheidbar a nicht rekursiv aufz¨hlbar a nicht rekursiv aufz¨hlbar a rekursiv aufz¨hlbar. – wenn nein → Antwort: JA. ¨ Uberpr¨ fe ob wi die G¨delnummer einer g¨ ltigen Turingmaschine M ist.8. ist die Antwort bekannt. M2 akeptiert L Lasse M1 und M2 parallel“ laufen (abwechselnd) auf derselben Eingabe x ∈ Σ∗ ” Wenn x ∈ L. u u o ¨ wenn nein. 2. a Satz: 1. Behauptung: Dann k¨nnten wir auch die universelle Sprache U entscheiden. L ist genau dann entscheidbar. Wenn ja. a Beweis: 1. Java. 2. MD uberpr¨ ft. Wenn x ∈ L.KAPITEL 1. mit einer Eingabe). nicht entscheidbar a nicht rekursiv aufz¨hlbar a nicht rekursiv aufz¨hlbar a Satz: Die universelle Sprache U ist unentscheidbar.. der das Halteprolem entscheidet. a ⇐ M1 akzeptiert L. 2. Frage: H¨lt die Turingmaschine nach endlich vielen Schritten? a Formuliereung des Problems als formale Sprache: H = { M |M h¨lt bei Eingabe von x} a Satz: Das Halteproblem ist unentscheidbar Beweis: indirekt. wenn sowohl L als auch L rekursiv aufz¨hlbar sind. wenn wi ∈ L(Mi ) / Nichtentscheidbarkeit folgt aus dem n¨chsten Satz. Drehe die Angabe des Entscheidungsalgorithmus um. ENTSCHEIDBARKEIT Beweis: 1.2 Das Halteproblem Gegeben: Eine Turingmaschine M und eine Eingabe x ∈ Σ∗ (oder ein Programm in C. Eine Sprache L ⊆ Σ∗ ist genau dann entscheidbar. wenn die Komplement¨rsprache L = Σ∗ − L a entscheidbar ist. Sobald eine der simulierten Turingmaschinen M1 und M2 anh¨lt. M h¨lt bei Eingabe von x in einem akzeptierenden Zustand} a 12 . L rekursiv aufz¨hlbar. TURING-MASCHINE.

der Hε entscheidet. 101). ob x ∈ A ist: Berechne f (x) und entscheide.. Wenn nein.. (01. 011). 111). a Behauptung: Dann k¨nnten wir H entscheiden. (y1 . o M x sei Eingabe f¨ r H.yik ? @ @= @ x @111 @ @ y @@@@ @= 111111111 i4 = 3 x = 10111 1 1 10 i1 = 2 i2 = 1 i3 = 1 y = 10 111 111 0 (10. Indirekter Beweis: Annahme wir h¨tten einen Algorithmus A.. A ≤ B ∧ B ≤ C ⇒ A ≤ C 2.. ob der Haltezustand von M ein akzeptierender Zustand ist oder nicht. (10111.8.xik = yi1 yi2 . (xn . A ≤ B und B entscheidbar ⇒ A entscheidbar 3. Wir wollen entscheiden. u Konstruiere eine neue Turingmaschine M ′ die am Anfang das Wort x auf das Band schreibt. . dann ist M x ∈ U . Wenn ja. . a 1. 0). yn ) o Frage: Gibt es eine Folge von Indizes i1 .. logisch ¨quivalent zu 2. diese Simulation muss terminieren. ik Beispiel (1. 0) @ @@@ i1 = @@@@@1 ⇒ i3 = 1 1 i2 = @ @@ xi .8. B ⊆ Σ∗ A ist auf B reduzierbar A≤B wenn es eine berechenbare Funktion f : Σ∗ → Σ∗ gibt mit x ∈ A ⇔ f (x) ∈ B. 10). ob M ∈ Hε M ′ ∈ Hε ⇔ M x ∈ H 1. ob M x ∈ H ist. 101). 3. ob f (x) ∈ B ist. Je nachdem. Transitivit¨t a 2. A ≤ B und A unentscheidbar ⇒ B unentscheidbar Beweis: 1. a ( y ist keine korrekte Eingabe f¨ r das Halteproblem“) u ” Beispiel: D ≤ U Satz: 1. die nie h¨lt. (101. UNENTSCHEIDBARKEIT Teste zuerst.3 Reduzierbarkeit von Problemen Definition: A. x2 ).. u Teste mit dem Algorithmus A. geh¨rt M x zu U oder nicht. 001) k¨ rzeste L¨sung k = 66 u o 13 . o Das spezielle Halteproblem Hε = { M |M h¨lt bei Eingabe ε} a Folgerung: Hε ist unentscheidbar. (011. 11). dann nach links zur¨ ckkehrt und dann wie M weitermacht. simuliere M auf der Eingabe / x. 011) (001.1. ∀x ∈ Σ∗ Beispiel: H ≤ Hε f ( M x) = M ′ f (y) = M ∞ . falls y nicht mit der g¨ ltigen Codierung einer Turingmaschine beginnt u M ∞ := eine Turingmaschine.. (10. (01.. i2 ..8.4 Das Post’sche Korrespondenzproblem (PKP) Gegeben: Eine Folge von Paaren von W¨rtern (x1 .. yi ∈ Σ∗ (k ≥ 1) mit xi1 xi2 xi3 . (10. y2 ).

(xn . x1 x1 #q0 v# u1 q 1 v1 #u2 q 2 v2 #u3 q 3 v3 #. #q ′ Bb#). 0) (q#. ik k ≥ 1 mit i1 = 1 Sodass xi1 xi2 . . y1 ) = (#. ↑ y1 yi Beispiel xi + 1 xi ↓ ↓ # 0 0 #0010q110# 0 0 ↑ ↑ yi yi + 1 xj 1 1 0 0 q1 10# 0q ′ 10# yi δ(a. 0. falls δ(q. B) = (q ′ b. +1) Gegeben: M. falls δ(q. B) = (q ′ . 1) = (q ′ . 0) (qa. q ′ cb). b.. ym ) Frage f¨r MPKP: Gibt es eine Folge u i 1 . i2 . . a) = (q ′ .. y2 ). B) = (q ′ . bq ′ ). yn+1 ). b.. yi ) = (a. Folge von Konfigurationen einer Turingmaschine xi ↓ q0 v#u1 q 1 v1 #u2 q 2 v2 #u3 q 3 v3 #. y1 ). . 1) (cqa. b. B) = (q ′ . (x′ . falls δ(q. (x2 .. . a) = (q ′ . −1) (#q#. −1) (#qa. q ′ b).. . b. falls δ(q. a) f¨ r a ∈ Γ ∪ {#} u Zustands¨berg¨nge: u a (qa. q ′ b#). b. a) = (q ′ ... q ′ cb#). falls δ(q. (x′ . b.xik = yi1 . #q ′ Bb). . 1) (q#. bq ′ #). b. .. #q0 x#) Kopierpaare: (xi . −1) M P KP ≤ P KP Gegeben: Eingabe f¨ r M P KP u (x1 . falls δ(q. o u o 14 .yik ′ ′ ′ Reduktion: Wir konstruieren uns eine Eingabe (x′ . BERECHENBARKEIT. y0 ).. y1 ). −1) (cq#.. falls δ(q. 0 1 n+1 Dieses PKP hat eine L¨sung ⇔ Das urspr¨ ngliche MPKP hat eine L¨sung.KAPITEL 1. ENTSCHEIDBARKEIT Satz: PKP ist unentscheidbar Beweis: U ≤ P KP Zwischenschritt: Modifiziertes PKP zus¨tzliche Bedingung: i1 = 1 M P KP ≤ P KP a U ≤ P KP .. falls δ(q. . TURING-MASCHINE. x ∈ Σ∗ Alphabet f¨ r PKP = Γ ∪ Q ∪ {#} u Anfangspaar: (x1 . a) = (q ′ .

#0#1#0) 1 Eingabe f¨ r MPKP u mit einem neuen Symbol # nach jedem Buchstaben mit einem neuen Symbol # vor jedem Buchstaben ′ (x′ . y3 ) = (1#0#1#. b... #q0 x#) Anfangsregel (a. bq ′ )   ′ (q ...yik = #K1 #|K2 #|K3 #K4 #| Das y-Wort ist immer einen Schritt vorraus. −1) ⇒ (cqa. ui . vi ∈ Γ∗ L¨schregeln: o Wenn M in einen akzeptierenden Zustand q ∈ F ger¨t. #0) 2 ′ (x′ . y2 ) = (1#1#. +1) ⇒ (qa. 0) ⇒ (qa. −1) ⇒ (cq#. dass Ki+1 aus Ki o durch einen Schritt vom M entsteht.xik = #|K1 #|K2 #K3 #| yi1 yi2 . a) = ′  ′ (q . b.. q) ∀q ∈ F. . q ′ b) δ(q. y1 ) = (0#.01 → 0#1#$ . (x′ . (xn ..1.. b. +1) ⇒ (q#. yn ) berechenbar. yn+1 ) 0 n+1 ist aus (x1 . dadurch k¨nnen wir sicherstellen. 0) ⇒ (q#... b. a ∈ Γ (aq.. q) Abschlusspaar: (q##. y1 ) = (#. (x1 . #q ′ Bb)  ′ (q .8.... (11. Beweis: Gegeben ist eine Eingabe M x f¨ r U u Wir konstruieren daraus eine Eingabe f¨ r MPKP mit folgenden Eigenschaften u MPKP hat eine L¨sung ⇔ M x ∈ U o (M akzeptiert x) Idee: MPKP simuliert die Berechnung von M L¨sungswort: #K0 #K1 #K2 #.. b. dann frisst“ dieser Zustand den Bandinhalt a ” (qa. y1 ). y0 ) beginnen 0 x′ = #0# 0 ′ ′ ′ y0 = y1 y0 = #0#1#0 x1 x3 = 0101 x′ x′ = #0#1#0#1# 0 3 ′ ′ y0 y3 = #0#1#0#0#1y1 y3 = 01001 ′ x′ n+1 = $yn+1 = #$ . .. o Ki aufeinanderfolgende Konfigurationen von M Ki = ui q i vi xi1 xi2 . q cb#)   (#q#. a) a ∈ Γ ∪ {#}.. q ′ b#) δ(q. 0)... #) Satz: Das Post’sche Korrespondenzproblem ist unentscheidbar. bq ′ #)   ′ (q .01 → #0#1#$ Die Eingabe Lemma: U ≤ M P KP ′ ′ (x′ . #q ′ Bb#) K0 = q0 x qi ∈ Q. Kopierregel Zustandsregeln:  ′ (q . b. 01) x′ = xi i ′ yi = yi ′ (x′ . B) = ′  ′ (q . y0 ). #0#1) 3 x′ = #x′ 0 1 ′ Dieses PKP kann nur min(x′ .. (101. ∀q ∈ F 15 . q cb)   (#qa.. UNENTSCHEIDBARKEIT Beispiel: (0. 010).

KAPITEL 1. Fall 1: M h¨lt nicht bei Eingabe ε a ⇒ M ′ h¨lt nie ⇒ L(M ) = ∅ ⇒ L(M ) hat Eigenschaft S nicht. . die von einigen aber nicht von allen rekursiv aufz¨hlbaren a erf¨ llt wird: u Beispiele: Ist S = ∅? Ist S = {ε}? ε ∈ S? Ist S endlich? Ist S = {0n 1n |n ≥ 1} 1. die Eigenschaft S hat und eine Turingmaschine M + mit L(M + ) = L+ Wir reduzieren das spezielle Halteproblem Hε auf das Entscheidungsproblem f¨ r S: u Gegeben: Turingmaschine M Frage: H¨lt M bei Eingabe ε? a Wir konstruieren daraus eine neue Turingmaschine M ′ mit der Eigenschaft L(M ′ ) hat Eigenschaft S ⇔ M h¨lt bei Eingabe ε a • M ′ bekommt die Eingabe x ∈ Σ∗ • M ′ simuliert zun¨chst M mit leerer Eingabe.6 Satz von RICE (1953) Satz: F¨ r jede nichttriviale Eigenschaft S (im obigen Sinn) ist das folgende Problem unentscheidbar: u Gegeben: Turingmaschine M . und akzeptiert genau dann. a wenn M + akzeptiert. Frage: Hat L(M ) die Eigenschaft S? Annahme: ∅ hat nicht Eigenschaft S Es gibt eine Sprache L+ .8. a ¯ Wenn ∅ die Eigenschaft S hat. . a ” 16 .8. ENTSCHEIDBARKEIT 1. dann simuliert M ′ die M + mit der Eingabe x. 1970) o c ¨  x = 3y − z 2   z 2 + u3 y − x4 = 0 . TURING-MASCHINE. a Fall 2: M h¨lt bei Eingabe ε a ⇒ M ′ verh¨lt sich wie M + ⇒ L(M ) = L(M + ) = L+ ⇒ L(M ) hat Eigenschaft S. dann betrachte die komplement¨re Eigenschaft S ( nicht S“). BERECHENBARKEIT. S sei eine Eigenschaft von formalen Sprachen L. ′ M ist aus M berechenbar.5 Andere unentscheidbare Probleme • L¨sbarkeit von Polynomgleichungen uber Z. a • Wenn M h¨lt. (Matijasevi´.

a1 a2 . Σ. F ) Ein (deterministischen) endlicher Automat (DEA) (engl. q2 . a1 a2 . an )).. 1} F = {q3 } Eingabe: x = 0 0 1 1 0 0 1 ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ q0 q1 q0 q2 q0 q1 q0 q2 ∈ L(A) / ∈F / L(A) = die von A akzeptierte Sprache = {x ∈ {0. DFA) hat: • eine endliche Zustandsmenge Q • ein endliches Eingabealphabet Σ • eine Zustands¨ berf¨ hrungsfunktion δ : Q × Σ → Q u u • einen Startzustand q0 ∈ Q • eine Menge von akzeptierenden Zust¨nden F ⊆ Q a Arbeitsweise: Der Automat beginnt in q0 und liest in jedem Schritt das n¨chste Eingabesymbol und ¨ndert a a denm Zustand gem¨ß δ. Beispiel: Q = {q0 . 1}∗|x enth¨lt eine gerade Anzahl an 0en und eine ungrade Anzahl an 1en} a Wir erweitern δ : Q × Σ → Q auf δ : Q × Σ∗ → Q δ(q. q0 .an−1 . Er akzeptiert das Eingabewort. q3 } q0 = q0 δ q0 q1 q2 q3 Zustandsdiagramm: 0 q1 q0 q3 q2 1 q2 q3 q0 q1 Σ = {0.1 Deterministische endliche Automaten A = (Q.: deterministic finite automaton. (∀q ∈ Q) (n ≥ 1) 17 . ε) = q.an ) = δ(δ(q.. δ.2 Regul¨re Sprachen und endliche Automaten a 2.. wenn er sich nach dem Lesen des letzten Bucha stabens in einem Zustand ∈ F befindet. q1 . δ(q..

} schreiben Jeder regul¨re Ausdruck beschreibt eine Sprache: a • L(∅) = ∅ • L(ε) = {ε} • L(a) = {a} f¨ r a ∈ Σ u • L((A) · (B)) = L(A) · L(B) • L((A) + (B)) = L(A) ∪ L(B) 18 .¨ KAPITEL 2.) · kann man weglassen 4. Wenn A und B regul¨re Ausdr¨ cke sund. 0j 1i ) = δ(δ(q0 . 0i 1i ) ∈ F ⇒ A akzeptiert 0j 1i =δ(q0 . a f¨ r a ∈ Σ.) ∗ hat h¨chste Priorit¨t.. 1}∗ (((((0)∗ ) + ((0) · ((1)∗ ))) · (1)) · (0)) · ((1)∗ ) Man verwendet folgende Vereinfachungsregeln: 1. sind regul¨re Ausdr¨ cke u a u 2. Nach h¨chstens |Q| Schritten muss sich ein Zustand wiederholen o ∃i ≤ j : δ(q0 .) Uberfl¨ ssige Klammern kann man weglassen. 0i ). 0i 1i ) ∈ F weil A das Wort 0i 1i akzeptieren soll.. 3.. δ(q0 .. ε. 1i ) = δ(q0 .. .. 0). a u Beispiele: ((0) + (1))∗ = {0. 0) L(A) = die von A akzeptierte Sprache = {x ∈ Σ∗ |δ(q0 . . 00). a u 1.0i ) Definition: Die von DEA akzeptierten Sprachen heißen regul¨re Sprachen. dann + o a ¨ u 2. .. dann sind auch a u • (A) · (B) • (A) + (B) • (A)∗ regul¨re Ausdr¨ cke.) Endliche Mengen kann man auch als {. δ(q0 .. 010) = q0 = δ(δ(δ(δ(q2 . a Andere Charakteresierungen von regul¨ren Sprachen: a • regul¨re Ausdr¨ cke a u • NEA: nichtdeterministische endliche Automaten • Typ-3-Grammatiken 2. 0j ). x) ∈ F } Kann ein DEA die Sprache L = {0n 1n |b ≥ 0} akzeptieren? Wir betrachten δ(q0 .. REGULARE SPRACHEN UND ENDLICHE AUTOMATEN Beispiel: δ(q2 . δ(q0 .2 Regul¨re Ausdr¨cke a u Beispiele f¨ r regul¨re Ausdr¨ cke: u a u (0 + 1)∗ (0∗ + 01∗ )10(1∗ ) Definition: regul¨re Ausdr¨ cke sind induktiv folgendermaßen definiert.. ∅. dann ·. 0i ) = δ(q0 . 000). 0j ) δ(δ(q0 . 0). 1i ) = δ(q0 . 1). ε).

. ausgehend a ij ” von qi besucht.2. keine Einschr¨nkung der Zwischenzust¨nde a a L(A) = qj ∈F Ln 1j ¨ k = 0.. k−1 Lkk k−1 beliebig vielen (≥ 0) Zwischenst¨ cken ∈ Lkk und einem u Wenn i = k oder j = k ist. . qk } f¨ r 1 ≤ l < n} u ij k = n.... δ. . q2 ... .. a) = qi } ∪ {ε} ii Die Lk k¨nnen induktiv f¨ r k = 0.. qk a Lk = {x1 x2 ..¨ ¨ 2. qk−1 . δ(qi .... 1953) L = L(A) Lk ij A = ({q1 .... qk qk qk qk qi k−1 ∈ Lik qj k−1 ∈ Lkj ∈ x besteht aus einem Anfangsst¨ ck ∈ u k−1 Endst¨ ck ∈ Lkj u k−1 Lik . dann kann man die Formel vereinfachen: k−1 k−1 Beispiel: Lk = Lik · (Lkk ) ik k−1 k−1 k−1 ∗ k Lkk = (Lkk ) Lk = ((Lkk )∗ Lkj kj 19 . a ⊆“ Betrachte ein Wort x ∈ Lk und die Folge der Zust¨nde die der Automat beim Lesen von x. x1 . Σ... nur direkten Ubergang a L0 = {a ∈ Σ|δ(qi .. q1 . . q2 .. qk besuchen und in qj enden. und dabei als Zwischenzust¨nde (außer dem ersten o u a und letzen Zustand) nur die Zust¨nde q1 ... u ij o k−1 k−1 k−1 k−1 Lemma: Lk = Lij ∪ Lik (Lkk )∗ Lkj ij Beweis: k−1 k−1 k−1 k−1 ⊇“ Lij ⊆ Lk nach Definition. ein Wort aus dieser Sprache wird. beginnend ij ” in qi nur Zust¨nde q1 . 1}∗|Anzahl der Nullen ist gerade} Satz: Jede regul¨re Sprache wird durch einen regul¨ren Ausdruck beschrieben: a a Beweis mit Kleene-Algorithmus: (Kleene. a) = qj } ij i=j L0 = {a ∈ Σ|δ(qi . F ) = Menge der W¨rter.. . Lik (Lkk )∗ Lkj . REGULARE AUSDRUCKE • L((A)∗ ) = (L(A))∗ Beispiel: 1∗ (01∗ 01∗ ) = {x ∈ {0. keine Zwischenzust¨nde. qn }.xl ) ∈ {q1 .. 1. n definiert werden.. k−1 Fall 1: qk tritt nicht als Zwischenzustand auf ⇒ x ∈ Li j Fall 2: Zerlege x in Bestandteile an jeder Stelle. 2. die von qi nach qj f¨ hren..xn ) = qj .. wo der Zustand qk erreicht wird..xn |δ(qi . x1 .

die 0101 enthalten} = (0 + 1)∗ 0101(0 + 1)∗ o δ q0 q1 q2 q3 q4 0 {q0 .. . q1 .Gesund K¨lte a Gesund • Eine Berechnung des Automaten bei Eingabe von x = a1 a2 . q1 } ∅ {q3 } ∅ {q4 } 1 {q0 } {q2 } ∅ {q4 } {q4 } Beispiel: 010 0101 0010000 w¨ rde akzeptiert werden.1 0 q1 1 q2 0 q3 1 q4 0. a)| = 1 f¨ r alle q und a. q ′ ) ∈ δ 20 .) a o Der Algorithmus von Floyd-Warshall f¨ r k¨ rzeste Wege in Graphen beruht auf dem gleichen Prinzip. REGULARE SPRACHEN UND ENDLICHE AUTOMATEN Durch Induktion nach k ergibt sich: Alle Sprachen Lk sind durch regul¨re Ausdr¨ cke darstellbar. . qn−1 . an . a) gehen. u / Ein DEA entspricht dem Spezialfall wo |δ(q. F ) ist ¨hnlich wie ein DEA.. wenn es eine akzeptierende Berechnung f¨ r x gibt.¨ KAPITEL 2. kann er in irgendeinem der Zust¨nde aus der Menge δ(q. Σ... a Gesund Hochdruckwetter Gesund Kopfweh Gewitter Kopfweh. u L(A) = Menge der akzeptierten W¨rter o 0.: nondeterministic finite automaton. und a u ij sonst auch L(A).an ∈ Σ∗ ist eine Folge (q0 . • Eine akzeptierende Berechnung ist eine Berechnung mit qn ∈ F .1 → q0 L(A) = {W¨rter. q2 . 011110000111 ∈ L(A) jedoch nicht.3 Nichtdeterministische endliche Automaten DEA → ↑ NEA ←− regul¨rer Ausdruck a ↓ (NEA + ε) Definition: Ein nichtdeterministischer endlicher Automat (NEA) (engl.. Schranke f¨ r die L¨nge des Ausdrucks: u a (|Σ| + 1) · 4|Q| · |Q| ¨ (beim Ubergang von k auf k + 1 wird die L¨nge h¨chstens mit 4 multipliziert.. u u 2. u Urspr¨ nglicher Formalismus u δ : Q × Σ → 2Q q ′ ∈ δ(q. q0 . δ. a1 . außer dass: a δ : Q × Σ → 2Q (Potenzmenge von Q) Wenn ein Automat sich im Zustand q ∈ Q befindet und das Symbol a ∈ Σ liegt.. n − 1. a2 . NFA) A = (Q. qn ) mit qi ∈ Q mit q0 = Anfangszustand und qi+1 ∈ δ(qi .. ai+1 ) f¨ r i = u 0. • Ein Wort x ∈ Σ∗ wird von A akzeptiert. a) Alternativer Formalismus δ ⊆ Q × Σ × Q (dreistellige Relation) (q. a.

1 q3 0. q4 } ′ q7 {q0 . q0 . q1 .1 → q0 1 q1 0. q1 . q3 . q2 . q′ 0 1 ′ q0 {q0 } {q0 .} = m¨gliche Zust¨nde nach Lesen der ersten k Eingabezeichen. q1 . q2 . q3 } {q0 . ′ In der Praxis beginnt man mit q0 = {q0 } und erzeugt nur diejenigen Zustandsmengen.. δ ′ . q3 . q1 . a1 a2 . q2 . q4 } {q0 .ak die im Zustand q0 beginnt und in q u endet. q3 .. q4 } ′ q4 {q0 . q4 }|q4 ∈ q ′ } ′ Beweis: δ ′ (q0 . q2 } {q0 } ′ q1 {q0 . o a ” Beweis durch Induktion nach k. q2 . NICHTDETERMINISTISCHE ENDLICHE AUTOMATEN ′ Konstruktion eines ¨quivalenten DEA A′ = (Q′ . q1 } ∪ ∅ ∪ {q4 } = {q0 . q1 } {q0 . q4 } {q0 ...2. q4 } {q0 . q4 } {q0 . q2 } ′ q2 {q0 . q4 }. q4 } 0 q1 0 0 1 1 q2 0 → q0 0 q7 1 q3 1 0 q4 1 0 0 q6 q5 1 1 0 L = {W¨rter. q1 . q2 }. q4 } {q0 . a) δ ′ (q ′ .ak ) = {q ∈ Q | es gibt eine Berechnung f¨ r a1 . qq } {q0 . q0 . q1 . q1 . q4 } ′ q5 {q0 . δ. 0) = {q0 . q1 . a) = q∈q′ ′ q0 == {q0 } F ′ = {q ′ ∈ Q|q ′ ∩ F = ∅} Behauptung: L(A′ ) = L(A) δ ′ ({q1 . q1 . q3 } {q0 } ′ q3 {q0 . q2 . F ′ ) zu einem gegebenen NEA A = (Q. 0) = ∅ ∪ {q3 } = {q3 } δ ′ ({q0 . q2 } {q0 .1 q4 ⇒ NEA hat k + 1 Zust¨nde a Jeder DEA ben¨tigt mindestens 2k−1 Zust¨nde o a 21 . 0) ∪ δ(q2 . q1 . die von q0 erreichbar sind. 0) = δ(q0 . Σ. q4 } {q0 . q4 } {q0 . 0) ∪ δ(q1 . q4 } F ′ = {q ′ ∈ {q0 . q4 } ′ q6 {q0 . q4 } {q0 . 0) ∪ δ(q4 . deren 4-letzter Buchstabe eine 1 ist} o 0. 0) = δ(q1 . q1 . Σ.1 q2 0.3. q1 } {q0 . F ) a (Potenzmengenkonstruktion) Q′ = 2 Q δ ′ : Q′ × Σ → Q′ δ(q.

einen ε-Ubergang durchf¨ hren.. q1 . qi ∈ δ(qi−1 .4. b1 .1 Elimination von ε-Uberg¨ngen a ¨ ¨ Idee: Zusammenpacken einer Folge von ε-Uberg¨ngen mit dem nachfolgenden Ubergang wo ein Buchstabe a ¨ gelesen wir. 0 1 q5 0 ε. b2 . in einem einzigen Ubergang... bi ). 1 q2 ε.. qk ∈ F ¨ Satz: Zu jedem regul¨ren Ausdruck S. 0 → q1 ε 1 0 ε. 0 q3 0 22 1 q4 . REGULARE SPRACHEN UND ENDLICHE AUTOMATEN ¨ 2.¨ KAPITEL 2.bk . u bi ∈ Σ ∪ {ε}. q2 .4 NEA mit ε-Uberg¨ngen a Unterschied: δ : Q × (Σ ∪ {ε}) → 2Q ¨ Der Automat kann auch. x = b1 b2 . .. Eine akzeptierende u Berechnung f¨ r x ∈ Σ∗ ist eine Folge (q0 . qk ) mit q0 = Startzustand. gibt es einen NEA A mit ε-Uberg¨ngen und einem einzigen akzepa a tierenden Zustand mit L(A) = L(S) Beweis: Induktion nach der Struktur von S S=a∈Σ S=∅ S=ε → → → A1 a ε S = S1 + S2 → → ε ε A2 ε ε ε L(A) = L(A1 ) ∪ L(A2 ) S = S1 · S2 A1 A2 ε A1 L(A) = L(A1 ) · L(A2 ) S = (S1 )∗ → Kleene-Algorithmus L(A) = L(A1 )∗ DEA regul¨re Ausdr¨ cke a u Potenzmengenkonstruktion NEA ¨ Elimination von ε-Uberg¨ngen a ¨ NEA mit ε-Uberg¨ngen a ¨ 2. statt einen Buchstaben zu lesen.

0) F ′ = {q|Rε (q) ∩ F = ∅} 2.2. a) r∈Rε (q) Beispiel: δ ′ (q1 . δ. Σ. } a a R := {q}. q5 . . } ¨ F ′ = {q ∈ Q | Von q aus kann der Automat A in k ≥ 0 ε-Uberg¨ngen einen akzeptierenden Zustand r ∈ F a erreichen } Der Automat A′ kann jede akzeptierende Berrechnung von A durch eine akzeptierende Berechnung ohne ε¨ Uberg¨ngen simulieren“ und umgekehrt. 0) ∪ δ(q2 ..5 Minimierung deterministischer endlicher Automaten 0 → 1 a 0 1 b 1 c 0 d e 1 f 1 0 0 1 g 0 1 1 0 h 0 23 .. q2 . q0 .. . und a ¨ einen Ubergang wo a gelesen wird. MINIMIERUNG DETERMINISTISCHER ENDLICHER AUTOMATEN δ ′ (q1 . a) = {r ∈ Q | r kann im Automaten A von q aus durch eine Folge von k ≥ 0 ε-Uberg¨ngen. 0) ∪ δ(q5 . epsilon): if !(s aus R) then R := R + {s} Q := Q + {s} → q0 ε ε q1 ε q4 ε q2 δ ′ (q.5. erreicht werden. 0) = δ(q1 . q1 . q5 } Gegeben: A = (Q. Σ. 0) ∪ δ(q3 . die von q aus durch ε-Uberg¨nge erreichbar sind. a) = q3 δ(r.. F ) δ : Q × (Σ ∪ {ε}) → 2Q ¨ neuer Automat: A′ = (Q. δ ′ .Ergebnismenge Q := {q}. q4 }F ′ = {q1 . 0) = {q3 . q3 . q0 . a ” ¨ Berechnung der Menge Rε (q) = { Zust¨nde. F ′ ) ohne ε-Uberg¨nge a ¨ δ ′ (q.Liste der zu bearbeitedenden Zust¨nde a while !isEmpty(Q) entferne einen Zustand r aus Q forall s aus delta(r.

Entfernen unerreichbarer Zust¨nde: Zust¨nde die nicht von q0 erreichbar sind a a 0 1 a b c 0 1 → 0 1 f 1 0 2. 0) ∈ K4 24 . 0) = a ∈ K1 δ(e. 0) = g ∈ K2 ⇒ c unterscheidet sich vom Rest. e. h} neue Klasseneinteilung: Q = {a} ∪ {c} ∪ {b. 0) ∈ K4 δ(h. a a a a in welchem der beiden Zust¨nde man ist. h} = K1 ∪ K2 δ(b. 0) Zerlege K2 = A ∪ B. y) ∈ F ) ∨ (δ(q. 0) = g ∈ K2 δ(c. f. e. x) ∈ F ∧ δ(r. Zwei Zust¨nde heißen ¨quivalent. 0) ∈ K4 δ(e. x) ∈ F ∧ δ(r. Diese Klasseneinteilung wird nach und nach verfeinert. h} Neue Zerlegung: Q = {a} ∪ {c} ∪ {f } ∪ {b. e. e. wenn es keine Rolle spielt. x) ∈ F (∗) (XOR) def 1 e 0 1 1 g 0 0 h ⊕ δ(r. g. g. da δ(c. x) ∈ F q ≡ r ⇐⇒ ∃x ∈ Σ∗ . 0) ∈ K3 δ(e. a Invariante: Wenn q und r nicht in derselben Klasse sind. e. je nachdem in welche (bisherige) Klasse δ(q. dass Zust¨nde in der gleichen a Klasse nicht ¨quivalent sind. δ(q. 0) = g ∈ K2 δ(h. c. wenn sich herrausstellt. x) ∈ F ⇔ δ(r. 0) ∈ K2 δ(g. f. 0) = c ∈ K2 δ(g. h}. 0) ∈ K4 δ(g. 0) ∈ K1 ∧ δ({b. x) ∈ F Der Algorithmus beginnt mit einer ganz groben Klasseneinteilung in zwei Klassen Q = F ∪ (Q − F ). 0) ∈ K3 δ(h. a q ≡ r ⇐⇒ ∀x ∈ Σ∗ . g. 0) ist K2 = {c} ∪ {b.¨ KAPITEL 2. 0) ∈ K3 δ(f. g. g. h} K1 K2 K3 K4 δ(b. REGULARE SPRACHEN UND ENDLICHE AUTOMATEN 1. Zusammenfassen von ¨quivalenten Zust¨nden. f. h} K1 K2 K3 δ(b. g. δ(q. x) ∈ F ) / / Beispiel: Q = {a} ∪ {b. dann gilt (∗): ∃x ∈ Σ∗ : (δ(q. f. e. 0) ∈ K3 Zerlege K3 = {f } ∪ {b. 0) = h ∈ K2 δ(f.

0) = h und h ≡ a weil h ∈ F. 1) = c. a ∈ F / weil δ(h. der die gleiche Sprache akzeptiert. 10) ∈ F. . a) geh¨rt.2.1 Algorithmus zur Bestimmung des Minimalautomaten: • Beginne mit der Terlegung Q = K1 ∪ K2 in zwei Klassen K1 = F K2 = Q − F Q = K1 ∪ K2 ∪ . h} Neue Zerlegung: Q = {a} ∪ {c} ∪ {e} ∪ {f } ∪ {g} ∪ {b. 0) ∈ K6 δ(h.5. 10) ∈ F / 2. 1) = e und c ≡ e weil δ(c. 0) = a.. a) geh¨rt (q ∈ Ki ) o Abbruchbedingung: ∀Ki ∀q. o u a Satz: Zu jedem DEA (zu jeder regul¨ren Sprache) gibt es einen eindeutig bestimmten (eindeutig bis auf a Bennenung der Zust¨nde) Minimalautomaten. δ(e. 1) ∈ K3 δ(h... 1) = c ∈ K2 δ(e. 1) = f ∈ K3 δ(g. 1) ∈ K3 Es ergibt sich keine weitere Verfeinerung 0 1 a 0 {b. h} K1 K2 K3 K4 K5 K6 δ(b. r ∈ Ki . δ(g. ∀a ∈ Σ: δ(q. f¨ r irgendein q ∈ Ki (unabh¨ngig von der Wahl von q). a) = KLasse. a) geh¨ren zur gleichen Klasse. a) und δ(r. a • Dieser hat unter allen ¨quivalenten DEA’s die kleinste Anzahl von Zust¨nden. 1) = c ∈ K2 Zerlege K4 = {e} ∪ {g} ∪ {b. r in derselben Klasse Ki gibt und einen Buckstaben a ∈ Σ mit: a Klasse δ(q. a a 2 • Der Minimalautomat kann in O(|Q| · |Σ|) Schritten berechnet werden.5. 25 . ∪ Kj Solange es zwei Zust¨nde q. o Zust¨nde des neuen Automaten: {K1 . MINIMIERUNG DETERMINISTISCHER ENDLICHER AUTOMATEN δ(b.. h} 1 c → e 0 1 f 1 0 1 0 1 g 0 a≡c h≡g c≡e h≡a h≡g wenn x = ε weil δ(h.. 1) = e ∈ K4 δ(h. Kj } a δ ′ (Ki . δ(g. zu der δ(q. 0) ∈ K6 δ(b.

1}∗ | k-letzter Buchstabe ist eine 1. wie ≡L o a ¨ Aquivalenzklassen hat. v hat dort eine 1. |x| ≥ k} = Σ∗ · 1 · Σk−1 Behauptung: u. v ∈ Σk . ux) ∈ F ⇔ δ(δ(q0 . u = v u ≡L v ¨ ⇒ ≡L hat mindestens 2k Aquivalenzklassen. vx) ∈ F ⇔ vx ∈ L ¨ Folgerung: ≡L hat h¨chstens |Q| Aquivalnzklassen. 0) δ(q2 . a ¨ Die Anzahl der Aquivalenzklassen ist in diesem Fall die Anzahl der Zust¨nde des Minimalautomaten. vx ∈ L u / 26 . v) dann u ≡L v ∀x ∈ Σ∗ : ux ∈ L ⇔ δ(q0 . o. Hopcroft: Die Nerode-Relation bez¨ glich einer Sprache L. u). v).¨ KAPITEL 2. u hat dort eine 0. 1) ein Verfeinerungsschritt O(|Q| · |Σ|)   δ(q2 . A. u v x = 1000100100000 ∈ L / = 1000110100000 ∈ L Beweis der Behauptung: u = v unterscheiden sich in der i-ten Position. x) ∈ F ⇔ δ(δ(q0 . B. δ.5. u Definition: Zwei W¨rter u und v heißen Nerode-¨quivalent. def 2. a Beweis: ⇒“ ” L = L(A) f¨ r DEA A = (Q. Beispiel: L = {x ∈ {0. d. x) ∈ F ⇔ δ(δ(q0 . REGULARE SPRACHEN UND ENDLICHE AUTOMATEN [l]Q = {q1 . wenn o a u ≡L v ⇐⇒ ∀x ∈ Σ∗ : ux ∈ L ⇔ vx ∈ L ¨ ¨ Diese Relation ist eine Aquivalenzrelation. Daher k¨nnen wir die Aquivalenzklassen [u]L = {v ∈ Σ∗ | v ≡L u} o bilden. Jeder DEA hat mindestens so viele Zust¨nde. 0) in der selben Klasse?  δ(q3 . Σ. F ) u Wenn δ(q0 . wenn die Nerode-Relation endlich viele Aquivalenzklassen hat. q3 } ∪ {q4 . u) = δ(q0 . q0 . 0) Man kann h¨chstens (|Q| − 1)-mal verfeinern o Zus¨tzlich: Verwalten der Kalssen Einteilung a        δ(q1 . 1) ?    δ(q3 . F¨ r x = 0i−1 ux ∈ L. q7 } ∪ {q5 }  δ(q1 . q2 . 1) ∪{q6 } q1 1 q2 1 q3 1 q4 2 q5 3 q6 4 q7 2 Entfernen der unerreichbaren Zust¨nde O(|Q| · |Σ|) a Es geht auch in O(|Q| · log |Q| · |Σ|) Zeit.2 Satz von Nerode ¨ Satz: Eine Sprache L ist genau dann regul¨r.

. a Annahme: L w¨re regul¨r ⇒ Pumping-Lemma ist anwendbar a a ∃n0 : W¨hle x = 0n0 1n0 a ∃x = uvw. .6 Das Pumping-Lemma f¨r regul¨re Sprachen F¨ r jede Regul¨re Sprache L gibt es eine n0 ∈ N (∀L ⊆ Σ∗ : L regul¨r ⇒ ∃n0 ∈ N).6. a a ⇒∈ L Widerspruch / 00001 11 u v 1 w 00001|1 00001111 00001 1111 1 v2 i=0 i=1 i=2 ∈L .. u a a ∀x ∈ L: |x| ≥ n0 ∃u. a ∈ Σ ⇒ va ≡L ui a def ∀x ∈ Σ∗ : vax ∈ L ⇔ ui ax ∈ L ∀y ∈ Σ∗ : vy ∈ L ⇔ ui y ∈ L ↑ y = a · x F : z. a ! ⇔ui ≡L v u a 2.. . an der man pumpen“ kann.. ya) = δ(δ(q0 . a δ: v ≡ ui ([v]L = [ui ]L ) ⇒ [va]L = [ui a]L ⇔ va ≡L ui a v ≡L ui . [[ui ]L ] ≡ [v]L ⇒ (ui ∈ L ⇔ v ∈ L) ⇔ ∀x ∈ Σ∗ : (ui x ∈ L ⇔ vx ∈ L) ⇒ F¨ r x = ε: ui ∈ L ⇔ v ∈ L u 2) Der Automat akzeptiert L. |uv| ≤ n0 Sogar diese st¨rkere Aussage gilt a In Worten: In einer rgul¨ren Sprache hat jedes gen¨ gend lange Wort eine Stelle. v = ε. [uk ]L } Σ δ([ui ]L . DAS PUMPING-LEMMA FUR REGULARE SPRACHEN Beweis: ⇐“ ” ¨ [u1 ]L [u2 ]L . v. dass eine Sprache nicht regul¨r ist. a) = [ui a]L q0 = [ε]L F = {[ui ]L | ui ∈ L} zu zeigen: 1) Dieser Automat ist wohldefiniert : ¨ Das Ergebnis von δ. x) = δ(q0 . x) = [x]L Beweis durch Induktion nach |x| IA: |x| = 0 x=ε δ(q0 . ∀i ≥ 0: u · v i · w ∈ L.¨ ¨ 2. a) = [ya] = [x] Weil Definition von δ unabh¨ngig von der Wahl des Representanten y in der Klasse [y] ist. a u ” Das Lemma wird in der Regel dazu verwendet.. a Beispiel: L = {0n 1n | n ≥ 1} nicht regul¨r. .z. sodass ∀i: uv i w ∈ L Fall 1: v enth¨lt nur Einsen uv 0 w enth¨lt weniger Einsen als Nullen. Behauptung: δ(q0 . . f¨ r y ist die Aussage bewiesen. y). a) = u δ([y]. [uk ]L seine Aquivalenzklassen von ≡L Q = {[u1 ]L [u2 ]L . δ(q0 . ε) = q0 = [ε]L IS: x = y · a a ∈ Σ. v = ε. welcher Representant ui aus der Aquivalenza klasse [ui ]L gew¨hlt wird. w ∈ Σ∗ : x = u · v · w. um zu zeigen. die Menge F h¨ngt nicht davon ab. 27 ..

¨ KAPITEL 2.        Ein Zustand q ′ muss mehrfach vorkommen       δ(q0 . dessen L¨nge (n2 )2 < |uv i w| < (n2 + 1)2 ist.. REGULARE SPRACHEN UND ENDLICHE AUTOMATEN Fall 2: v enth¨lt nur Nullen ... x1 x2 ..xi ). a 001 001 ⇒∈ L / L = {0n 1n | n ≥ 1} ist nicht regul¨r a 2 ∈L n0 0n0 = uvw uv i w Die L¨ngen der W¨rter uv i w bilden eine arithmetische Folge mit Abstand |v| ≤ n2 a o 0 Abstand zwischen zwei Quadratzahlen: (n2 + 1)2 − (n2 )2 = ¨¨2 + 2(n2 ) + 1 − (n2 )2 = 2n2 + 1 > n2 (n2¨ 0 0 0) 0 0 0 0 > n2 0 0n0 +(i−1)·|v| Es gibt ein Wort uv i w..xi+1 .xi ) = δ(q ′ .... ⇒ Widerspruch a 0 0 Beweis: L sei regul¨r (L ∈ L3 )... x1 . die vor Nullen stehen.xn0 ) q0 u v δ(q0 . x1 .. a Fall 3: v enth¨lt Nullen und Einsen a uv 2 w = u v v w enth¨lt Einsen. A.. x1 x2 ) . x1 ) δ(q0 .. xi+1 . ε) = q0 δ(q0 .... .xj ) δ(δ(q0 ... .xj ) = q ′ 28 + + + + + + + + + + + q′ .. x1 . DEA mit L(A) = L a n0 := |Q| |x| ≥ 0 x = x1 x2 .xJ )=q′ =q′ q′ ∃0 ≤ i < j ≤ n0 : δ(q0 .xn q0 Betrachte die Zust¨nde: a δ(q0 .

uvw) ∈ F x i L = {01} n0 = 3 0 L = {0i 1j | i ≥ 0..xn ∀i ≥ 0: δ(q0 . q0 . ∗ Substution ist gegeben durch die Abbildung σ : Σ → 2Γ σ(L) = {y | y ∈ σ(x1 ) · σ(x2 )σ(x3 ). uv w) = δ(q0 .. Homomorphismen und inverse Homoa morphismen. Durchschnitt. z. Σδ. Vereinigung mit DEA ¨ Produkt zweier Automaten“ (Ubung) ” Anwendungsbeispiel L = {x ∈ {0. *-Operation: regul¨re Ausdr¨ cke a u • Komplement: a Wenn L regul¨r ist. 1}∗ | x enth¨lt gleich viele Einsen und Nullen} a L′ = L ∩ 0∗ 1∗ = {0n 1n |n ≥ 0} nicht regul¨r a nicht regul¨r a • Homomorphismus Definition: Ein Homomorphismus h zwischen Σ∗ und Γ∗ ist eine Abbildung h : Σ∗ → Γ∗ mit der Eigenschaft h(x. Komplement.7. D. Produkt. B.¨ 2. x1 x2 x3 .7 Abschlusseigenschaften regul¨rer Sprachen a Satz: Die regul¨ren Sprachen sind abgeschlossen gegen¨ ber Vereinigung.xi v = xi+1 ...xn ∈ L} 29 .. h... *-Operation. y) = h(x) · h(y) (∀x. ABSCHLUSSEIGENSCHAFTEN REGULARER SPRACHEN u = x1 . · h(xn ) xi ∈ Σ h(abaabaab) = 0101010101 • Substitution Definition: Bei einer Substitution σ wird ein Buchstabe a ∈ Σ durch die Sprache σ(a) ersetzt.. Beispiel: h(a) = 01 h(b) = ε h(c) = 01 h(x1 . F ) akzeptiert L A′ = (Q.σ(xn ). Σ. q0 . a • Durchschnitt: L1 ∩ L2 = L1 ∪ L2 • Durchschnitt.: L1 . Q − F ) akzeptiert L • Umkehrung (alle W¨rter von hinten nach vorne gelesen) o regul¨re Ausdr¨ cke Bsp... Produkt. a u Umkehrung.. y ∈ Σ∗ ) Ein Homomorphismus ist durch eine beliebige Abbildung h : Σ∗ → Γ∗ eindeutig gegeben (Σ∗ = Γ∗ ) ist nicht ausgeschlossen. L2 ∈ L3 ⇒ L1 ∪ L2 ∈ L3 Beweise: • Vereinigung.: (a + b)(ab)∗ a∗ b∗ → b∗ a∗ (ba)∗ (a + b) a u Beispiel: k-te Buchstabe von rechts = 1 DEA ben¨tigt 2k Zust¨nde o a k-te Buchstabe von links = 1 DEA kommt mit k + 2 Zust¨nde aus.. dann ist auch L = Σ∗ − L regul¨r.xn ) = h(x2 ) · h(x2 ) · .. δ.xj = ε w = xj+1 . Substitution mit regul¨ren Sprachen. a Beweis: DEA A = (Q. j ≥ 0} 1 2 ⊲ q0 · 2..

8 Zusammenfassung: regul¨re Sprachen a ¨ • DEA. q0 . NEA: Uberpr¨ fen ob x ∈ L u • NEA. x ∈ Σ b 2. Ra regul¨rer Ausdruck f¨ r σ(a). .. F ) 1 ⊲ 0. h(x))... 1 a a. ε. c} σ(L) = {ababab.¨ KAPITEL 2. Beweis: requl¨re Ausdr¨ cke a u R: regul¨rer Ausdruck f¨ r L. . Σ.. regul¨re Ausdr¨ cke: Erzeugen der W¨rter aus L a u o 30 . δ ′ . ac. abacacab. Homomorphismus. δ.} = (a(b + c))∗ —— σ(0) = a σ(1) = ab∗ b σ(L) = {aabbbbbaabaabbbb. Γ. ababac. REGULARE SPRACHEN UND ENDLICHE AUTOMATEN Beispiel: L = (01)∗ σ(0) = {a} σ(1) = {b.. a ∈ Σ a u a u Ersetze in R jedes Vorkommen eines Buchstaben a ∈ Σ durch Ra • inverse Homomorphismen h : Σ∗ → Γ∗ Homomorphismus Satz: (L ⊆ Γ∗ ) ∈ L3 ⇒ h−1 := {x ∈ Σ∗ | h(x) ∈ L} ∈ L3 Beispiel: h(a) = 0 h(b) = 10 abaab Beweis: DEA A = (Q..} = σ(a(ab∗ b))∗ = (aab∗ b)∗ Satz: L ⊆ Σ∗ regul¨r a σ(a). a ∈ Σ seien regul¨r ⇒ σ(L) regul¨r a a Spezialfall: |σ(a)| = 1. x) = δ(q. b 0 b 1 b b 0a 0 a neuer DEA A′ = (Q. q0 . F ) δ ′ (q.

∃u1 .. P.|9 B → B. U → 1. Σ. V ′ → V ′ B. 1.. arithmetische Ausd¨ cke: u • Zahlen und Variablen sind arithmetische Ausdr¨ cke u • wenn A und B arithmetische Ausdr¨ cke... y) ∈ P durch die rechte Seite (Konklusion) ersetzt. y) ∈ P. S → S − S. B → b. → S + S. B → a... V ′ → V ′U B → c. 9. dass man ein Vorkommen einer linken Seite (Pr¨misse) x einer a Regel (x.3 Grammatiken 3. −. B} Beispiel: 5 + (13 ∗ 2) ∈ L(G) 3 ∗ (−4) ∈ L(G) / S → S + S → Z + S → U + S → 5 + S → 5 + (S) → 5 + (S ∗ S) → 5(S ∗ Z) → 5 + (Z ∗ Z) → 5 + (U Z ∗ Z) → 5 + (U U ∗ Z) → 5 + (1U ∗ U ) → 5 + (13 ∗ U ) → 5 + (13 ∗ 2) Definition: Eine Grammatik G besteht aus: • einer Menge V aus Variablensymbolen • einer Menge Σ aus Terminalsymbolen (Σ ∩ V = ∅) • einer Menge P von Ersetzungsregeln (Produktionen).. . (A) arithmetische u Ausdr¨ cke u S → V. U. u2 ∈ (Σ ∪ V )∗ : u = u1 xu2 ∧ v = u1 yu2 Wenn v aus u in k ≥ 0 Schritten abgeleitet werden kann.. dann schreibt man u → v: ∃v0 . ). A/B.. Z. .. v1 . /.. S) beschriebene Spache L(G) ist L(G) = {x ∈ Σ∗ | S → x} ∗ 31 ... 0. Z → U. +. ∗. c. dann sind auch A + B.1 Definition von Grammatiken Beispiel: in Programmiersprachen. dann schreibt man u → {ε} v ist aus u in einem Schritt ableitbar. S. vk : u = v0 → v1 → v2 → . u → v ⇔ ∃(x. S → Z. V ′ .. .. wenn v aus u dadurch entsteht.. U →9 Σ = {(. → vk = v eine Ableitung ∗ V + = V ∗ − {ε} Definition: Die von einer Grammatik G = (V.} V = {S. U → 0. P ∈ V + × (V ∪ Σ)∗ • einem Startsymbol S ∈ V W¨rter aus (V ∪ Σ)∗ nennt man auch Satzformen. b. A − B.. Z → U. ⇒U → 0|1|. . S → (S) S → S/S. A ∗ B.. a. . o u ∈ (V ∪ Σ)∗ . ⇒B → a|b|c|.. S → S ∗ S.

3 Typ-0-Sprachen (rekursiv aufz¨hlbare Sprachen) a Satz: Typ-0-Sprachen sind genau die rekursiv aufz¨hlbaren Sprachen. . Typ-1-Sprachen. a) = (q ′ . L1 . δ. ∀c ∈ Γ {Va | a ∈ Γ} neue Variablen..2 Die Chomsky-Hierarchie Nach Noam Chomsky (zeitgen¨ssischer Linguist) o • Typ-0-Grammatiken: beliebige Grammtiken • Typ-1-Grammatiken: monotone bzw......KAPITEL 3.. Typ-1-Sprachen. y ∈ (Σ ∪ V \ {S})∗ . die dem Bandalphabet entsprechen ∪{S} 32 . Γ. ⊢ k2 Simulation durch G: x ← $q0 x# ← .. Ist x ∈ L(G)? ” Algorithmus: Probiere alle Ableitungen der L¨nge k systematisch durch und pr¨ fe... b. q0 . 2. a) = (q ′ . ob dabei x hera u auskommt. x ∈ Σ∗ . Σ. L0 . a Beweis: ⇒“ G = (V. 0) δ(q. F ) ” Idee: q0 x ⊢ k1 ⊢ k2 ⊢ . ← $kn−1 # ← $kn # ← . Σ.. +1) δ(q. die Konklusionen der Regeln sind mindestest so lang wie die Pr¨missen. P ) sei gegeben. h.... −1) ⇒ q ′ Vb → qVa ⇒ Vb q ′ → qVa ⇒ q ′ Vc Vb → Vc qVa . a) = (q ′ . u Dieser Algorithmus akzeptiert gdw. kontext-sensitive Grammtiken P ⊆ {(x... b. |x| ≤ |y|} ∪ {(S. a • Typ-2-Grammatiken: kontextfreie Grammatiken P ⊆ V × (Σ ∪ V )∗ • Typ-3-Grammatiken: rechtslineare Grammatiken P ⊆ V × (ΣV ∪ {ε}) Beispiel: S → aT |bS T → +V T →ε Die beschriebenen Sprachen dieser Grammatiken entsprechen den regul¨ren Sprachen (es gibt auch linkslina eare Grammatiken) Entsprechend gibt es Typ-0-Sprachen. f¨ r k = 0. x ∈ L(G) (andernfalls kann er nicht terminieren). b. L3 seien die Typ-0-Sprachen. ← S V = Q ∪ {$. . 1. trivial L3 ⊂ L2 ⊂ L1 ⊂ L0 regul¨r = kontextfrei = kontextsensitiv = rekursiv aufz¨hlbar a a L= {0n 1n } L= {0n 1n 0n } Die Sprachen aus L1 sind entscheidbar 3. ε)} D. S. #} ∪ Produktionen P : δ(q. y) | x ∈ V + . B.. L2 .. GRAMMATIKEN 3. . 3.. ⇐“ Gegeben TM M = (Q.

a)} ∪ {q → ε | q ∈ F } q′ ∈δ(q. Σ. u Jede Ableitung eines Wortes x entspricht einer akzeptierenden Berechnung. ∀q ∈ F Endregeln: B-Symbole an den R¨ndern l¨schen. T } Σ = {a. $VB → $. NEA) A = (Q. S) ” Gesucht: NEA A mit L(A) = L(G) A: Q=V Σ=Σ δ(q. x∈Σ #→ε $q0 → ε Jede akzeptierende Berechnung f¨ r w ∈ Σ∗ kann in eine Ableitung von w transformiert werden. F ) ” Gesucht: Typ-3-Grammatik f¨ r L(A) u G: V =Q Σ=Σ a q q′ q → aq ′ P = {q → aq ′ | q ∈ Q. # l¨schen. Vx → x. $. TYP-3-SPRACHEN (REGULARE SPRACHEN) Anfangsregeln: Erzeuge eine beliebige Konfiguration mit einem akzeptierenden Zustand und gen¨ gend u vielen B-Symbolen rechts und links. a ∈ Σ. ∀a ∈ Γ T → q.4.a) S = q0 ⇒“ Gegeben: G = (V. Σ. δ. P. q0 l¨schen u o ¨ VB # → #. q0 . 3. q ′ = δ(q. Symbole Vx in Terminalsymbole x a o o uberf¨ hren. b} S → aT → abS → abbS → abbaT → abbabT → abbab ∈L(G) Beweis: ⇐“ Gegeben: DEA (bzw. aber sie ist eine Typ-2-Sprache G: S → 0S1|ε S → 0S1 → 00S11 → 000S111 → 000111 33 . a) = {q ′ | (q → aq ′ ) ∈ P } F = {q ∈ V | (q → ε) ∈ P } q0 = S Zust¨nde des Automaten entsprechen den Variablen der Grammatik. L = {0n 1n |n ≥ 0} ist keine Typ-3-Sprache. a Berechnungen des Automaten werden durch Ableitungen der Grammatik dargestellt und umgekehrt. S → $T # T → T Va |Va T.¨ 3.4 Typ-3-Sprachen (regul¨re Sprachen) a Satz: Typ-3-Sprachen sind genau die regul¨ren Sprachen a Beispiel: S → aT |bS T → bT |bS|aS|ε V = {S.

aber o diese Ableitung ist in einem Schritt zu Ende. X2 . U. 1} S → ε|V0 T V1 V0 |010 T → V0 V1 U V0 → 0 U V1 → V1 U V1 → 1 ∗ U V0 → W V0 V0 |00 V1 W → W V1 V1 W → W V1 U 1 → 1U V0 W → V0 T U V1 → V1 U S → 0T 10 → 001U10 → 0011U0 → 0011W 00 → 00W 1100 → 00T 1100 → 000W 111000 → 00001111U000 → 000011110000 L(G) = {0n 1n 0n | n ≥ 0} Bemerkung: Man kann die Regeln einer kontextsensitiven Grammatik in die Form bringen. S → y. |x| ∗ |M | ≤ i=1 (|Σ| + |V |)i endlich. V1 } Σ = {0. die h¨chstend so lang wie x. . V0 . Beispiel: V = {S. s o l a n g e neue Elemente zu M dazugekommen s i n d . GRAMMATIKEN 3.. a Ausnahme: S → ε ist erlaubt. Folgerung: in einer Ableitung k¨nnen die Satzformen nicht schrumpfen. X3 . o o M = {y ∈ (V ∪ Σ)∗ | |y| ≤ |x|. z..5 Typ-1-Sprachen (kontextsensitive Sprachen) Bei alle Regeln ist die Konklusion mindestens so lang wie die Pr¨misse. W. S darf jedoch in keiner Konklusion vorkommen. Gramatik. Daher muss die Schleife irgendwann terminieren x ∈ L(G) ⇔ x ∈ M 34 .KAPITEL 3. außer bei der Ableitung S → ε. y = ε} M kann folgendermaßen induktiv konstruiert werden: Beginne mit M := {S} Schleife : ∀y ∈ M : ∀z ∈ (V ∪ Σ∗ ): y → z. Beweis: G.. B. |z| ≤ |x| . ABA C Kontext ∗ ∗ ∗ ∗ A Kontext → ABAA01DA Beispiel: Regel ABC → BAD wird ersetzt durch: neue Variablen X1 . T. dass immer nur eine einzelne Variable durch etwas Neues ersetzt wird. M := M ∪ {z} w i e d e r h o l e . x ∈ Σ∗ Frage: x ∈ L(G) (auch bekannt als das Wortproblem) Wenn x = ε x ∈ L(G) ⇔ (S → ε) ∈ P Andernfalls k¨nnen in der Ableitung von x nur Satzformen auftreten. X1 X2 X3 → BX2 X3 BX2 X3 → BAX3 BAX3 → BAD ABC → X1 BC X1 BC → X1 X2 C X1 X2 C → X1 X2 X3 Satz: Typ-1Sprachen sind entscheidbar..

Satz Subjektgruppe Pr¨dikatgruppe a Nominalgruppe Verb Adverb Pr¨dikat a Artikel Hauptwort war“ ” gestern“ ” Adjektiv das“ Wetter“ regnerisch“ ” ” ” Bei einer kontextfreien Grammatik wird bei der Syntaxanalyse ein solcher Syntax-Baum“ aufgebaut. ” Gestern hat | es | geregnet.2 Dyck-Sprache D1 S → SS | (S) | ε ∗ S → SS → (S)S → (SS)S → ((S)S)S → (()S)S → (()(S))S → (()())S → (()())((S)) → (()())(()) ∈ D1 ())(() ∈ D1 / Klammertiefe: Dyck-Weg ( ( ) ( ) ) ( ( ) ) Definition: Der Weg mit n Schritten nach oben ր und n Schritten nach unten ց.4 Kontextfreie Sprachen (Typ-2-Sprachen) 4. Subjekt (Im Deutschen kann das Pr¨dikat zerlegt werden ⇒ Analyse kann sehr schwer sein!) a 4.1 Tiefenstruktur von Sprachen Das Wetter war gestern regnerisch. 35 . der oberhalb der x-Achse bleibt wird Dyck-Weg genannt.

k verschiedene Klammerpaare. a a b b S → SS | (S) | [S] | ε L = {x ∈ {a...3 Kontextfreie Grammtiken als Gleichungssysteme Man kann eine kontextfreie Grammatik auch als Gleichungssystem. VP .. b}∗ | x enth¨lt gleich viele as wie bs} a a b b b S → SS|ε|aP b|bN a P → P P |aP b|ε N → N N |bN a|ε a b a a a b P. ) = b o ” N. positive“ Dyck-W¨rter (= a. negative“ Dyck-W¨rter ) = a. VN sind unbekannte“ Sprachen. (= b o ” 4... dessen L¨sungen unbekannte Sprachen sind o interpretieren VS = VS · VS ∪ {ε} ∪ a · Vp · b ∪ b · Vn · a VP = VP · VP ∪ a · VP · b ∪ {ε} VN = VN · VN ∪ b · VN · a ∪ {ε} VS . KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) D2 ⇒ ([()()])[] ∈ D2 Dk .KAPITEL 4. o S S ( S ( S ε ) ( S ) S S ε ( ( ) S S S ε ) ) ∗ ∗ ∗ 36 . ” VS = {x ∈ Σ∗ | S → x} = L VP = {x ∈ Σ∗ | P → x} VN = {x ∈ Σ∗ | N → x} sind eine L¨sung des Gleichungssystems (nicht unbedingt eindeutig)..

Linksableitung: Es wird immer die linkeste Variable ersetzt 2. wenn jedes Wort eine eindeutige Linksableitung / eine eideutige Rechtsableitung / einen eindeutigen Syntaxbaum hat. EINDEUTIGKEIT ∗ Rechtsableitung: S → SS → S(S) → S((S)) → S (()) → (S)(()) → (SS)(()) → (()())(()) entspricht der bottom-up-Syntaxanalyse Linksableitung: S → SS → (S)S → (SS)S → ((S)S)S → (()S)S → (()(S))S → (()())S → (()())((S)) → (()())(()) entspricht der top-down-Syntaxanalyse Die Beliebigkeit bei der Auswahl..4 Eindeutigkeit Definition: Eine kontextfreie Sprache ist eindeutig. Beispiel: S → if B then S | if B then S else S | while .... dargestelltes Wort wird durch die Folge a der Bl¨tter gegeben. | . Syntaxbaum: Wurzel = S. welche Variable be einer Ableitung als n¨chstes ersetzt wird. Rechtsableitung: Es wird immer die rechteste Variable ersetzt 3. if B1 then (if B2 then )S1 else S2 if B1 then (if B2 then S1 else S2 ) Grammatik nicht eindeutig! 37 . kann auf drei a Arten aus der Welt geschafft werden: 1. a ()()() kann durch 2 verschiedene Syntaxb¨ume / Linksableitungen / Rechtsableitungen dargestellt werden.4. Bl¨tter sind Terminalsymbole.¨¨S 3 ¨ ¨¨ ¨ ¨ + 4 5 S 4. a S S ( S ε ) ( S S ε ) ( S S S ε ) ∗ S S S ( S ε anders arithmetische Ausdr¨ cke (am Beispiel 3 − 5 + 5): u S S 3 + 4 5 ) ( S S ε ( ) S S ε ) ¨ ¨ ¨¨ ¨ .4. Kinder einses Variablenknotens sind die Symbole auf der rechten Seite einer Regel in der passenden Reihenfolge.

u u • Ersetze a durch Va auf allen rechten Seiten • F¨ ge Regeln Va → a hinzu. 38 . a ¨quivalente Grammatik.. erstelle eine neue Regel. Elimination von ε-Regeln ∗ Konstruiere die Menge M aller Variablen A ∈ V . bedingte Anweisung... bbeliebige Anweisung. A → BC. Elimination von Terminalsymbolen auf der rechten Seite: • F¨ hre f¨ r jedes a ∈ Σ eine neue Variable Va ein. inklusive einer bedingten Anweisung mit else-Klausel.. S → V( SV) V( → ( V) →) 2. A.... C ∈ V A ∈ V. f¨ r die A → ε.. aber S darf nie auf der rechten Seite einer Regel vorkommen.5 Chomsky-Normalform Definition: Eine kontextfreie Grammatik ist in Chomsky-Normalform (CNF). f¨ r die es keine eindeutige Grammatik gibt: u {0i 1j 01k | i = j ∨ j = k} = {0n 1n }0∗ ∪ 0∗ {1n 0n } 0n 1n 0n sind in beiden Teilsprachen“ enthalten. die abgeschlossen ist S → A|T A → if B then S | if B then T else A T → if B then T else T | while . ” Solche Sprachen heißen inh¨rent mehrdeutig. b ∈ Σ Ausnahme: Die Regel S → ε ist erlaubt. A → b. B.KAPITEL 4.. die eindeutig ist. F¨ r jede Regel. Zerlegung von Regeln mit mehr als 2 Variablen auf der rechten Seite • Einf¨ hren von zus¨tzlichen Zwischenvariablen in mehreren Schritten u a Beispiel: A → BAAS.. S → S + S|S − S|Z S → Z|S + Z|S − Z Es gibt Sprachen. a (mehrdeutig) (eindeutig) 4. u Beispiel: S → (S).. 2. KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) A. die noch auf else“ wartet. A → BSV1 V1 → AV2 V2 → AS 3. Satz: Zu jeder kontextfreien Grammatik G gibt es eine Grammatik G′ in CNF mit L(G′ ) = L(G) − {ε} 1. | andere Anweisungen. ” T.. wenn jede Regel lediglich folgende Gestalt haben: 1. in der ein Vorkommen dieser Variablen a gestrichen wird. die eine Variable u u aus M auf der rechten Seite enth¨lt.

.5. → U V DU U ) B→V A AB a 39 . u ∗ • Durch das Aufstellen neuer verk¨ rzter Regeln k¨nnen neue Regeln der Form A → ε entstehen. u X → Y Z: Eventuell wird Y oder Z in der Ableitung zu ε gemacht. . u • Erstelle f¨ r jede Variable A aus M eine neue Variable A′ . S → S ′ ein u 4. Behauptung: F¨ r alle A ∈ M gilt u LA′ = LA − {ε} ∗ (LX = {s ∈ Σ∗ | X → s}) ∗ Begr¨ndung: X → S. • Die Regeln f¨ r A’ sind dieselben wie f¨ r A. X → x f¨ r alle X ∈ VA . f¨ ge u u u u daf¨ r die Regeln S → ε.. u • Auf der rechten Seite aller Regeln wird wird jede diese Variablen A durch A′ ersetzt. nur die ε-Regel wird gestrichen. CHOMSKY-NORMALFORM Beispiel: M := {V. In diesem Fall enth¨lt die a neue Grammatik eine Regel X ′ → Y ′ oder X ′ → Z ′ . • Erstelle neue Regeln X → BC bzw. . Elimination von K → L • F¨ r jede Regel der Form A → BC. A → x ∈ Σ berechne die Variablenmenge u VA = {X ∈ V | X → A}. u F¨ r die n¨chsten Ableitungsschritte geht man genauso vor.. u • Anschließend entferne alle Regeln der Form A → B. u o • Die entsprechende Variablen werden dann zu M hinzugef¨ gt. außer f¨ r S. A→B→C→A→B→B→C→A→B→C →D (U V A U U → U V BU U → . u a Lasse die Regeln f¨ r die urspr¨ nglichen Variablen A ∈ M weg. S = ε Betrachte die rechte Seite der ersten Regel dieser Ableitung. U. Beispiel: Angenommen f¨ r alle Regeln K → L ergeben folgenden Zusammenhang: u ∗ A B D C E In einer Ableitung kann eine Kette von Anwendungen derartiger REgeln vorkommen.. Falls S ∈ M ist. A} f¨ r u U →VW | V | W | ε V →W | VV | ε | V A→U | VV | ε | V (B → AU BV | ABV | AU B | AB | BV | U B | B) ↓ ↓ ε ε U →VW U →W ∗ • M wird initialisiert mit den Variablen A f¨ r die es eine Regel A → ε gibt..4. u u Am Beispiel: U → V ′W ′ | V ′ | W ′ | ε U ′ → V ′W ′ | V ′ | W ′ V → W ′ | V ′V ′ | V ′ | ε V ′ → W ′ | V ′V ′ | V ′ . wo das bereits ber¨ cksichtigt ist...

j } vorher berechnet Beispiele: Gegeben sei folgende Grammatik in CNF: Σ = {0. C.. a A → BC. Younger) wird zur L¨sung des Wortproblems f¨ r kontextfreie o u Sprachen in CNF angewandt. Ist s ∈ L(G) ∗ Vij := {X ∈ V | X → si si+1 .. Folgerung: Typ-2-Sprachen sind Typ-1-Sprachen.sj . Grund: CNF-Grammatik erf¨ llt die Forderungen von Typ-1-Grammatiken u 4. (D → AB).. E} A → AB. Kasami. C → AB. S} V12 = {S} V22 = {P } V23 = ∅ V33 = {M } oder 40 .sn ∈ Σ∗ .KAPITEL 4. j 1 2 3 4 5 1 M. D... V12 = {S} V13 = ∅ oder k = 2 k=1 oder k = 2 oder V11 = {M... S ⇒ 0 + 1 + 0 ist nicht in der Sprache L(G).sk |sk+1 .sj .sn s ∈ L(G) ⇔ s ∈ V1n Berechne Mengen Vij induktiv.sj Vii = {X | (X → si ) ∈ P } Vij = {X | ∃(X → BC) ∈ P.. nach L¨nge j − i + 1 der Teilkette si .. E → AB Die Menge VA k¨nnen durch umgekehrte Graphensuche bestimmt werden: Suche alle Variablen o X.. S 2 S P 3 − − M 4 − − − P 5 − − − − M. si . S} V11 = {M... → si si+1 .. ∃k: i ≤ k ≤ j: B ∈ Vik ∧ C ∈ Vk+1.sj } (1 ≤ i ≤ j ≤ n). KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) D → AB VD = {A. von denen aus A erreichbar ist.. B → AB. Teilprobleme s1 s2 . +} S → 0 | SP P → MS | + M → 0 | 1 | PP Ist das Wort s = 0 + 1 + 0 = s1 s2 s3 s4 s5 in der Sprache L(G)? i..6 Algorithus von CYK“ ” Der CYK-Algorithmus (Cocke.... (basiert auf dem Prinzip dynamischer Programmierung) Eingabe: s = s1 s2 . 1. B...

i+1.7. Jede Berechnung ist eine Schleife uber u o ¨ h¨chstens n Werte k. (ERWEITERTE) BACKUS-NAUR-FORM (E)BNF S S S 0 P + P + s=0+++0 i.. ⇒ O(n3 ) o 4.. j 1 2 3 4 5 1 M...j } Laufzeit: Es m¨ ssen h¨chstens n2 Mengen Vij berechnet werden.4..] Optional. S 0 i < j: Vij = k=i.j−1 P M P + S 0 {X | ∃(X → BC) ∈ P : B ∈ Vik ∧ C ∈ Vk+1.} beliebig viele Wiederholungen (auch 0) des Inhalts [. Der Inhalt kann auch weggelassen werden.. Argument } ::= | { } [ ] Metasymbole {. 41 ..7 (Erweiterte) Backus-Naur-Form (E)BNF Beispiel: (hypothetische) Grammatik eines Ausschnitts einer Programmiersprache arithmetischer Ausdruck ::= Term { Additionsoperator Term } ↑ Variable der Grammatik → Additonsoperator ::= Terminalsymbol oder“ Terminalsymbol ” + | − Term ::= Faktor { Multiplikationsoperator Faktor } Multiplikationsoperator ::= ∗ | / Faktor ::= Zahl | Variable | ( Arithmetischer Ausdruck | Funltionsaufruf ) Funktionsaufruf ::= Name () | Name ( Argumentliste ) Argumentliste ::= Argument {.. S 0 2 S P + 3 S M P + 4 S − M P + 5 S M P − M.

KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) ¨ { } [ ] m¨ ssen bei der Ubersetzung in eine kontextfreie Grammatik aufgel¨st werden. z. a ¨ z 2 . w ∈ Σ∗ : x = yzuvw ∈ L ∧ (∀i ≥ 0)yz i uv i w ∈ L ∧ z. dann |x| ≤ 2h−1 a v 1 2 3 4 X a X 0 X X S X X X 1 b X c 42 .enth¨lt mehr Uberg¨nge zwischen 0 und 1 als z a a 2 2 ¨ ⇒yz uv w enth¨lt mehr als 2 Uberg¨nge a a ⇒yz 2 uv 2 w ∈ L / Fall 2: v enth¨lt 0 und 1 analog. 0n0 enthalten. a Also ist z und v jeweils in einem der drei Bl¨cke 0n0 . 1n0 . mindestens ein Block ¨ndert seine L¨nge nicht.KAPITEL 4. u ∀x ∈ L: |x| ≥ n0 ∃y. v. a a a a ⇒yz i uv i w ∈ L f¨ r i = 1 / u ⇒ L ist nicht kontextfrei Beweis: Sei L(G). durch Einf¨ hren von u o u neuen Variablen und zus¨tzlichen Regeln. ≤ h Variablenknoten enth¨lt.. a {abc} ↔ (abc)∗ [abc] ↔ (abc + ε) als regul¨rer Ausdruck a |↔+ 4. z 3 . u. v = ε z Beispiel: L = {0n 1n | n ∈ N} Annahme: L sein kontextfrei ⇒ n0 x = 0n0 1n0 0n0 = yzuvw Fall 1: z enth¨lt sowohl 0 als auch 1. . o yz i uv i w. G in CNF Ein Ableitungsbaum f¨ r x mit |x| = n hat n − 1 innere Knoten A mit je zwei Kindern. aus dem ein Terminalsymbol entsteht. u Der Ableitungsbaum ist ein bin¨rer Baum a Wenn jeder Weg von der Wurzel zu einem Knoten.8 Pumping-Lemma f¨r kontextfreie Sprachen u F¨ r jede kontextfreie Sprache L gibt es eine Schranke n0 ∈ N..mindestens ein Block ¨ndert seine L¨nge...

die unter diesen beiden a Knoten h¨ngen heißen T1 und T2 a T2 ⊂ T1 A T2 A y z u v w ∗ S → yAw T1 : A → zAv T2 : A → u ∗ ∗ (zv = ε) S → yAw→yzAvw → yzuvw beliebig oft wiederholen S → yAw → yuw (= yz 0 uv 0 w) (i=0) ∗ ∗ ∗ ∗ ∗ S → yAw → yzAvw → yzzAvvw → yz i Av i w → yz i uv i w (i≥1) ∗ ∗ ∗ ∗ ∗ Folgerung: Die Chomsky-Hierarchie ist echt: L0 . dann w¨re sie auch abgeschlossen u a a bez¨ glich ∩ u Das Komplement von {0n 1n 0n } ist kontextsensitiv. L1 ∩ L2 = L1 ∪ L2 (de-Morgan) Wenn kontextfreie Sprachen abgeschlossen bez¨ glich Komplement w¨ren. S n := 2|V |−1 + 1 funktioniert T1 Die beiden Teilb¨ume..4.9 Abschlusseigenschaften kontextfreier Sprachen Satz: Kontextfreie Sprachen sind abgeschlossen bez¨ glich ∪. L3 ⊂ L2 ⊂ L1 ⊂ L0 regul¨r = kontextfrei = kontextsensitiv = rekursiv aufz¨hlbar a a L= {0n 1n } L= {0n 1n 0n } ⊂ entscheidbare Sprachen Halteproblem 4. der h Variablenknoten enth¨lt a h := |V | + 1 → Dieser Weg muss eine Variable A mehrfach enthalten. ∗ u u Kontextfreie Sprachen sind nicht abgeschlossen bez¨ glich ∩ und Komplement Beweis: L1 = {0n 1n 0m | m. ·. L1 . dann gibt es einen Weg von der Wurzel. L2 . L3 seien die Typ-0-Sprachen. n ∈ N} L1 ∩ L2 = {0n 1n 0n | b ∈ N} nicht kontextfrei. Typ-1-Sprachen. L1 = {0n 1m 0m | m.. 43 . .9. ABSCHLUSSEIGENSCHAFTEN KONTEXTFREIER SPRACHEN Wenn |x| > 2h−2 . n ∈ N}.

dann setze M2 = M2 ∪ {B. u 4. C ∈ M gibt. dass G1 in CNF vorliegt. 44 .. Das Ergebnis ist eine Grammatik ohne Uberfl¨ ssige Variablen. bis M3 sich stabilisiert. Variablen in M = V − M sind uberfl¨ ssig aus dem zweiten Grund.KAPITEL 4. KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) 4. von S nicht ereichbar. a Beispiel: A → AB (einzige Regel f¨ r A) u • Menge M : Initialisiere M := {A ∈ V | (A → x) ∈ P } • Wenn ses eine Regel A → BC mit B. C}. bis keine neuen Varaiblen mehr in M aufgenommen werden. die M enthalten aus der Grammatik. wenn sie in keiner Ableitung eines Wortes ∈ Σ∗ vorkommt. Aus der Variable l¨sst sich kein Terminalwert erzeugen. ¨ Streiche Variablen in V − M2 . h.10 Entscheidungsprobleme kontextfreier Sprachen Seien G1 . den nur das erste Variablensymbol wird durch etwas anderes ersetzt. Definition: Eine Variable heißt ¨ berfl¨ ssig. Anderung nur am Anfang. S → AB → ABA → . • • • • Initialisiere M2 := {S} Wenn es eine Regel A → BC mit A ∈ M2 gibt. • Wiederhole. Wiederhole. die von S aus erreichbar sind. u u 2 Gr¨nde: 1. G2 kontextfreie Grammatiken • • • • • • • • L(G1 ) = 0? L(G1 ) = 0? Ist L(G1 ) regul¨r? a L(G1 ) = Σ∗ ? L(G1 ) = L(G2 )? L(G1 ) ⊆ L(G2 )? L(G1 ) ∩ L(G2 ) = ∅? L(G1 ) = ∅? entscheidbar entscheidbar unentscheidbar unentscheidbar unentscheidbar unentscheidbar unentscheidbar (ohne Beweis) (ohne Beweis) (ohne Beweis) ¨ (s.11 Kellerautomaten Typ-0-Sprachen (Typ-1-Sprachen Typ-2-Sprachen Typ-3-Sprachen Linksableitung: S → ABC → bAABC → bbAAABC → bbAABC → bb B BSBC ⇐⇒ ∼ ⇐⇒ ⇐⇒ Turingmaschinen Turingmaschinen mit linearem Platzbedarf) Kellerautomaten endliche Automaten Terminalsymbole des endg¨ ltigen Wortes u aktuelle Variable zuk¨ nftige Variablen“ u ” ¨ D. Ubung 11) Wir nehmen an. ¨ S →¨ AC (A ∈ M ) M2 := Menge der Variablen.. dann setzte M := M ∪ {A}. u 2. u ¨ • Entferne die Variablen in M und alle Reglen.

q1 . KELLERAUTOMATEN Definition: Ein (nichtdeterministischer) Kellerautomat (Push-down automaton. z1 . q2 } mit F = {q2 } δ(q0 .4. 1. w1 . 1)} δ(q0 . γ) bedeutet: Wenn der PDA im Zustand q ist. 0)} δ(q0 . Z0 ) = {(q1 . 00)} δ(q0 . 0) = {q1 .. z) ∈ δ(q. Z0 ){q1 .. Z0 )} δ(q1 . Z0 ) ⊢ (q0 ...wn . 1) = {(q0 . augenblicklicher Zustand. 10Z0 ) ⊢ (q1 . Z0 ) = {(q0 . 1}} Σ = {0. ε. falls a = ε ist). 0. 0.zk ) ⊢ (q ′ . nichts liest. #. b) solche. as obere Kellersymbol γ ist. ε.wn . #. w1 w2 .wm . 1) = ∅ ... 0..11. 10Z0 ) ⊢ (q1 . #} Γ = {0. ε.. . 0) = {(q0 .. Z0} a) Q = {q0 .. usw. z1 ). 0) = {(q0 . ε. PDA) hat • • • • • • ein Eingabealphabet Σ eine Zustandsmenge Q ein Kelleralphabet Γ ein Bodensymbol Z0 ∈ Γ einen Anfangszustand q0 ∈ Q ∗ ¨ eine Ubergangsrelation δ: Q × (Σ ∪ {ε}) × Γ → 2Q×Γ (q ′ . Z0 ){q2 .. #10.. 1. 1Z0 )} δ(q0 .wn ∈ Σ∗ . ε} a)δ(q1 . 11)} δ(q0 .zk ) (q.. ε) (q0 . w2 . ε. 1. z) ∈ δ(q. 1) = {q1 .. 1. 0) = {(q1 . dann kann er in den Zustand q ′ wechseln und die Spitze des Kellers durch z ersetzen (z = ε: Das oberste Symbol γ wird gel¨scht). • w1 .wn . Z0 } δ(q1 . a. die mit leerem Keller akzeptieren. Definition: Eine Konfiguration eines Kellerautomaten ist ein Tripel (q. 0. z1 . 01)} δ(q0 . o Es gibt zwei Arten von Kellerautomaten: a) solche. Z0 ) (b) ⊢ (q2 . 01#10. .. w1 ....wn .. z) mit • q ∈ Q. w1 ∈ Σ falls (q ′ .) Beispiel: (a) ⊢ (q1 . 10)} δ(q0 . Z0 ) Nachfolgerelation ⊢ f¨ r Konfiguration u (q.. ε} a)δ(q1 . 1) = {(q1 .. zz2 . 0. 1#10. Z0 ) = {(q0 . Inhalt des Stapels (Spitze ist links. 1. 10. w1 w2 . die durch eine Menge F ⊆ Q von akzeptierenden Zust¨nden akzeptieren a Beispiel: L = {w#wR | w ∈ {0. 1) = {(q0 . q1 } b) Q = {q0 .. 1.. 0. noch nicht gelesener Teil des Eingabewortes und • z ∈ Γ∗ . #. zz2 . 0Z0 ) ⊢ (q0 .zk ) ⊢ (q ′ . w1 . 0Z0 ) ⊢ (q1 . 0Z0 )} δ(q0 ... ε} δ(q1 . z1 ) 45 . transitive reflexive H¨ lle von ⊢ u ∗ falls (q ′ . ε.. z) ∈ δ(q. und er den Buchstaben a liest (bzw...zk ) ⊢ .

Bk ) ∈ δ(q0 .. A) ein.Bk ∈ V ∗ ) ∈ P } δ(q0 . x.Bk ) | (A → B1 . ε) ∈ δ(q0 . die Grammatik ist in CNF. h. u u F¨ r jede Regel A → u ∈ Σ f¨ ge (q0 . F = {qF }) ein PDA. Automat akzeptiert mit leerem Keller. Γ ∪ {Z0 }. 1}∗} Σ = {0. 10. der mit leerm Keller akzeptiert. a. q ′ ) Tripelkonstruktion“ ” 46 . wo der Keller geleert wird. Z0 ) ⊢ (q ′ . q0 . u. 0110. Z0) ⊢ (q0 . 0110. w. 10Z0) ⊢ . der nach b) akzeptiert ” neuer Automat M ′ : • f¨ gt ein zus¨tzliches unterestes Kellersymbol ein. q ′ ∈ F. δ ′ . 10Z0) ⊢ (q1 . unser obiges Beispiel ist eigentlich ein DPDA Beispiel: L2 = {wwR | w ∈ {0. γ)| ≤ 1 (Dann gibt es zu jeder Konfiguration h¨chstens eine Nachfolgekonfiguration. KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) Die vom PDA M akzeptierte Sprache ist: a) L(M ) = {x ∈ Σ∗ : (q0 . ⇐“ Gegeben: Kellerautomat. q ′ ∈ Q} b) L(M ) = {x ∈ Σ∗ : (q0 . Z0 . Satz: Die kontextfreien Sprachen sind genau die Sprachen. Beweis: ⇒“ Seien M = (Q. Z0 . Σ. ε.. {q0 }.. V = Q × Γ × Q ∪ {S} Variablen haben die Form (q. ABC) ⊢ (q0 . ε. F¨ r jede Regel A → B1 B2 . γ) wie oben (w ∈ {0. AAC) ⊢ . δ. Z0) ⊢ (q0 . BC) ⊢ (q0 .) wie oben. uvuv. 1} Γ = {0. Σ. u u δ(q0 . ohne die Eingabe gelesen wird. Beweis: ⇒“ ” • • • Wir nehmen an.. dass M ′ nicht nur deshalb akzeptiert. q0 . a ¨ ′ ′ • M f¨ gt ein zus¨tzliches Kellersymbol Z0 als unterstes ein. a ∈ Σ: |δ(q. 110. ε... u ∈ Σ Der Kellerautomat kann nun genau die Linksableitung der Grammatik nachbilden.. A) := {(q0 . die von Kellerautomaten akzeptiert werden.. Γ. Z0 ) = {(q0 . Z0 Z0 )} ′ δ ′ (q. der nach b) akzeptiert ′ ′ ′ δ ′ (q0 . a ” Gesucht: Grammatik G.Bk f¨ ge (q0 . q0 . u a ⇐“ M = (Q. vuv. Σ. δ) ein PDA. A) := {(q0 . ε.) o D.KAPITEL 4.. Z. (q0 .. F ) sei ein Automat. S) ⊢ (q0 . γ) = {(q1 . Wenn M in einem akzeptierenden Zustand u a ubergehen. Z0 .. Z0 ) = {(qF .. ¨ • Das zus¨tzliche Kellersymbol stellt sicher. γ)| + |δ(q. x. ε. Γ. akzeptieren dieselbe Klasse von Sprachen. akzeptiert durch F ⊆ Q von akzeptierenden Zust¨nden. die nach (a) und nach (b) akzeptieren. q0 }. ǫ. u. 10. B1 . ε)} ∗ ∗ ¨ • Alle Uberg¨nge von δ werden ubernommen. ε) | (A → u) ∈ P }. ε.. Z0} δ(q0 . 110. uvuv. Z0 = S. Γ = V. vuv. 0Z0) ⊢ (q1 . S → ABC → uBC → uAAC → uAC → uvC → uvBC → uvuC → uvuv (q0 . 1}) δ(q0 . B1 . weil M den a Keller leert. und ” ′ ′ ′ ′ ′ M = (Q ∪ {qF . γ ∈ Γ. 1. 0Z0) ⊢ (q0 . . 110. 0Z0 ) STOP. Σ. z). 1. Z0} u δ(q1 .weiter wie bisher ⊢ (q0 . z ∈ Γ∗ } Definition: Ein PDA ist ein deterministischer Kellerautomat (DPDA) wenn: ∀q ∈ Q. Satz: Die PDAs. ε). γ)} f¨ r γ ∈ {0.. A) ein. ε. Z0 ) ⊢ (q ′ .

Z0 ) = {(q0 . 0)} (q1 . a.. 0. ε. ε. z)} δ(q1 .. Z0 . Z0 . 0Z0) ⊢ (q1 . a. 0. z) = {(q1 ... q1 ) → 0110(q1 . z ∈ {0. x ∈ {0. a a Beispiel: L = {wwT | w ∈ {0. ε) ⇔ w ∈ L(M ) ∗ ∗ Beh. ql−1 . . Z0 . 1. q1 ) (3) am Beispiel δ(q0 .. q0 )(q0 . 10. ε.. 0.) • qi>1 ist der Zustand. q0 ) → 0(q0 . ¯ F¨ r alle (q ′ . Z3 . 0)} (q0 . Z2 . 0) = {(q1 . Z0 . z. ∗ ∗ ∗ ∀q1 . 0. KELLERAUTOMATEN ∗ Idee: S → w1 w2 . Z0 . q1 ) −→ (q0 . q ′ ) → a Behauptung: (q.. ε. x. q1 ) → 0(q0 . z0} δ(q0 . 1. q0 ) −→ (q0 . 0) = {(q1 . ε)}. werden geraten. Z0 . xz)}. q1 )(q1 . 0.. x. 0Z0 )} (q0 . q0 ) → (q1 . ε) Der Automat hat w gelesen und sieht das erste Mal. q ¯ (a ∈ Σ ∪ {ε}) (1) (2) (3) 47 .. q1 )(q1 . . q1 ) → 01(q1 . wk+1 . q2 ). x) = {(q1 . Regeln: F¨ r alle (q ′ . 110. z2 . q1 ) → (q1 . Z0 ) ⊢ (q1 . Z0) ⊢ (q0 . 1.Zl ) ∗ (die ersten k Symbole sind gelesen. z) = {(q0 .. sobald Zi als oberstes Startsymbol erscheint.. Z0 . q1 )(q1 . Beweis durch Induktion nach der L¨nge der Ableitung bzw. q4 ). nach der L¨nge der Rechnung. q1 } δ(q0 . ε. Z0 . q ).. Z0 . was unter Z auf dem Stapel ist.zl u ¯ (q. q0 ) (q0 .. q2 )(q2 . q2 . w1 . q1 ) (2) am Beispiel δ(q0 . Z0 . Z0 ..wn . w. ε. 10Z0) ⊢ (q1 . w.11. Z0 . 0. q) → a(q ′ . q3 . ε. 1. q1 )(q1 . Z0 . 0. 10. z0 ) = {(q1 . 0. 0. q ) → w ⇐⇒ ∃¯: (q0 . q0 ) → 0(q0 . q1 ) → 01(q0 . 1}} δ(q1 . 1}∗ } Q = {q0 . 0. ql+1 ) das soll folgende Rechnung widerspiegeln (q0 . Z0 ) ⊢ (¯.. zl . q1 ) → 1 (q0 . q0 )(q0 . z1 .(ql .. 0110. ε)} Also werden die folgenden Produktionen gebildet (1) am Beispiel δ(q0 . q ′ ) → w ∈ Σ∗ ⇔ (q. 0. 1}. q1 ) → 0(q0 . Z1 Z2 . x ∈ {x ∈ {0. ε) S → (q0 . • q2 . ε) ∈ δ(q. q1 )(q1 . Z0 . Zl . 0. q3 )(q3 . z ′ ) ∈ δ(q..wn . z) mit |z ′ | ≥ 1. z) u (q. 0. Z ′ = z1 z2 . Z0 . q1 ) → 0110 Annahme: Automat akzeptiert durch leeren Keller Startregeln: S → (q0 . 0.(ql−1 . q1 )(q1 . Z) ⊢ (q ′ . Z0 ) ⊢ (q1 . q1 )(q1 .. 10Z0) ⊢ (q1 . q0 ) (q0 . der in der weiteren Rechnung angenommen wird.. Z. q1 ) → 011(q1 . q1 ) → 0(q0 . q1 )(q1 . Z1 . q ) f¨ r alle q ∈ Q ¯ u ¯ Aus der Behauptung folgt: L(G) = L(M ) q ¯ q q w ∈ L(G) ⇔ S w⇔ ∃¯: (q0 . z. q1 )(q1 . Z0 .wk (q1 . ε. 0Z0) ⊢ (q0 .4.

die von einem deterministischen Kellerautomaten mit einer akzeptierenden Zustandsmenge akzeptriert werden.12 Abschlusseigenschaften kontextfreier Sprachen gegen¨ber regul¨ren u a Sprachen Satz: Die kontextfreien Sprachen sind abgeschlossen gegen¨ ber dem Durchschnitt mit regul¨ren Sprachen. δ2 (q2 . z ′ ) : (q ′ . q0 ) a∈Σ 4. %w1 w2 .KAPITEL 4. u a Bew. Z)} δ((q1 . Z) := {((q ′ .. δ(q. b).. 4. ε.13 Deterministische kontextfreie Sprachen Definition: Eine deterministische kontextfreie Sprache ist eine Sprache. q2 ). a ∈ Σ ∪ {%. A2 sei ein u a DEA f¨ r L2 . $}. a.14 Deterministische Zweiwege-Kellerautomaten ⇐⇒ K1 K2 K1 K2 Kellerautomaten mit zwei Kellern. aber nicht deterministisch kontextfrei Bemerkung: Deterministisch kontextfreie Sprachen sind abgeschlossen unter Komplement. ε. q2 ). 1}∗} ist kontextfrei. a)). Z) := {((q ′ . a Deterministische Zweiwege-Kellerautomaten k¨nnen auf dem Eingabeband beliebig nach links uder nach rechts o fahren. −1}: Bewegung des Kopfes Die Eingabe ist durch % und $ auf dem Eingabeband begrenzt.Zk . +1. u • PDA: M mit Q = Q1 × Q2 δ((q1 . Z))} q0 = F = F1 × F2 Produkt der Automaten: Der neue Kellerautomat M simuliert M1 und A2 gleichzeitig: ” L(M )) = L(M1 ) ∩ L(A2 ) 1 2 (q0 . z ′ ) ∈ δ1 (q1 . z) = (q ′ .: M1 sei ein PDA f¨ r die kontextfreie Sprache L1 . a. Beispiele: • {0n #1n | n ∈ N} ist deterministisch kontextfrei • {w#wR | w ∈ Σ∗ } ist deterministisch kontextfrei • {wwR | w ∈ {0. b ∈ {0. a.. der durch akzeptierende Zust¨nde akzeptiert.wn $ Lesekopf Ausgangskonfiguration 48 . aber nicht unter Umkehrung. sind genauso m¨chtig wie Turingmaschinen. z ′ ) ∈ δ1 (q1 . Z1 Z2 . KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) 4. z ′ : (q ′ .. q2 ).

Folgerung: Teilwortproblem ist in linearer Zeit l¨sbar. b) := δ(q.14.. Z. i) gestartet werden. . q ′ ∈ Q. i ] := true . j) q. 0 ≤ i.14. von rechts nach links • Fahre zur ersten Position von x . i) aufgerufen ist. i ] then STOP . j ≤ n + 1 Wenn der Automat im Zustand q an Position i ist. Z. W¨hrend ent(q.4. j) i n A r b e i t [ q. wo das darunterliegende Stapelsymbol sichtbar wird. Z. o • Wenn # gelesen wird → Teilwort vorhanden → akzeptiere • Bei einem Konflikt fahre zur¨ ck zum Anfang und f¨ lle den Stapel mit den Symbolen von x auf. DETERMINISTISCHE ZWEIWEGE-KELLERAUTOMATEN 4. 2.... . k (q ′ . Z ∈ Γ. weil sich die Konfiguration (q. Der Stapel wird dabei immer weiter wachsen oder konstant bleiben. v ∈ (Σ0 )∗ } % x # $ . die Symbole werden vom Stapel gel¨scht. ⇒ Kellerautomat terminiert nicht. dann ist er zu dem Zeitpunkt. i f ENT[ q. // Wort wir d n i c h t a k z e p t i e r t 49 . Z. z. L¨sche u u o erstes Symbol des Stapels und gehe zu (A). ↑ n+1 ent(q. und das oberste Stapelsymbol Z ist. i] der Gr¨ße O(n) sobald sie berechnet o wurden (Initialisiere zu 0). Zl ..Zk . u. i ] := f a l s e return ( q ’ . . z. Z. i ) i f i n A r b e i t [ q. in Zustand q ′ und an Position j e n t ( q. j) := e n t ( q ′ . Z... j ) Idee: Speichere die Werte der Entladefunktion in einem Feld ENT[q. Z1 . Satz: Jede Sprache. wi . • (A) Vergleiche die Symbole von x mit dem Sybol auf dem Stapel. o Beweis: Entladefunktion Eingabe: %w1 . (q ′ . o Problem: Bei rekursiven Aufrufen kann die Laufzeit ∞ sein. i) unendlich oft wiederholt. z. ⇒ Algorithmus terminiert nicht.wn $ 0 1 ↑ ↑ . kann ein rekura siver Aufruf mit denselben Parametern (q.. kann in linearer Zeit von einer Registermaschine (RAM) entschieden werden. j ) ENT[ q. i ] := (q.. Z.1 Teilwortproblem Eingabe: x#y Frage: Kommt das Muster x im Text y vor? L = {x#uxv | x. die von enem deterministischen Zweiwege-Kellerautomaten akzeptiert wird. i) = (q ′ . • Kopiere y auf den Stapel. memorization) Laufzeit: O(n) Jeder Eintrag von ENT wird h¨chstens einmal berechnet. Die Technik heißt Tabellieren (engl. i ] = 0 then return ENT[ q. Z. i ] i n A r b e i t [ q.. Z) j := i + b for l := 1. Z.

wenn er ein Wort akzeptieren will. 1) = (q ′ . Wort wird akzeptiert ⇐⇒ ent(q0 . i] (am Anfang false) wird endlose Rekursion vermieden. dass der Kellerautomat. KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) Durch ein Boolsches Feld inArbeit[q. j) mit q ′ ∈ F 50 . z. Wir k¨nnen annehmen. in einen akzeptierenden o Zustand geht und dann der Keller leert.KAPITEL 4. z0 .

Sign up to vote on this title
UsefulNot useful