Grundlagen der Theoretischen Informatik

mitgeschrieben von Martin Lenders
Dieses Dokument vom 6. Juli 2009 steht unter einer Creative Commons BY-NC-ND 3.0 Deutschland Lizenz f¨ r die Seite http://page.mi.fu-berlin.de/mlenders/mitschriften/gti/ u

Inhaltsverzeichnis
1 Turing-Maschine, Berechenbarkeit, Entscheidbarkeit 1.1 Definition der Turing-Maschine . . . . . . . . . . . . . . 1.2 Church’sche These . . . . . . . . . . . . . . . . . . . . . 1.3 Registermaschinen . . . . . . . . . . . . . . . . . . . . . 1.4 Formale Sprachen . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Multiplikation von W¨rtern . . . . . . . . . . . . o 1.4.2 Multiplikation von Sprachen . . . . . . . . . . . . 1.4.3 Potenz von W¨rtern und von Sprachen . . . . . . o 1.5 Konfiguration (Momentaufnahme einer Turingmaschine) 1.6 Turingmaschine mit mehreren B¨ndern . . . . . . . . . . a 1.7 Die universelle Turingmaschine . . . . . . . . . . . . . . 1.8 Unentscheidbarkeit . . . . . . . . . . . . . . . . . . . . . 1.8.1 Universelle Sprache und Diagonalsprache . . . . 1.8.2 Das Halteproblem . . . . . . . . . . . . . . . . . 1.8.3 Reduzierbarkeit von Problemen . . . . . . . . . . 1.8.4 Das Post’sche Korrespondenzproblem (PKP) . . 1.8.5 Andere unentscheidbare Probleme . . . . . . . . 1.8.6 Satz von RICE (1953) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 7 7 8 8 8 8 9 10 10 10 12 13 13 16 16 17 17 18 20 22 22 23 25 26 27 29 30 31 31 32 32 33 34 35 35 35 36 37 38 40 41 42 43 44 44

2 Regul¨re Sprachen und endliche Automaten a 2.1 Deterministische endliche Automaten . . . . . . . . . . . . . . 2.2 Regul¨re Ausdr¨ cke . . . . . . . . . . . . . . . . . . . . . . . a u 2.3 Nichtdeterministische endliche Automaten . . . . . . . . . . . ¨ 2.4 NEA mit ε-Uberg¨ngen . . . . . . . . . . . . . . . . . . . . . a ¨ 2.4.1 Elimination von ε-Uberg¨ngen . . . . . . . . . . . . . a 2.5 Minimierung deterministischer endlicher Automaten . . . . . 2.5.1 Algorithmus zur Bestimmung des Minimalautomaten: 2.5.2 Satz von Nerode . . . . . . . . . . . . . . . . . . . . . 2.6 Das Pumping-Lemma f¨ r regul¨re Sprachen . . . . . . . . . . u a 2.7 Abschlusseigenschaften regul¨rer Sprachen . . . . . . . . . . . a 2.8 Zusammenfassung: regul¨re Sprachen . . . . . . . . . . . . . . a 3 Grammatiken 3.1 Definition von Grammatiken . . . . . . . . . . . 3.2 Die Chomsky-Hierarchie . . . . . . . . . . . . . . 3.3 Typ-0-Sprachen (rekursiv aufz¨hlbare Sprachen) a 3.4 Typ-3-Sprachen (regul¨re Sprachen) . . . . . . . a 3.5 Typ-1-Sprachen (kontextsensitive Sprachen) . . . 4 Kontextfreie Sprachen (Typ-2-Sprachen) 4.1 Tiefenstruktur von Sprachen . . . . . . . . . . . 4.2 Dyck-Sprache . . . . . . . . . . . . . . . . . . . . 4.3 Kontextfreie Grammtiken als Gleichungssysteme 4.4 Eindeutigkeit . . . . . . . . . . . . . . . . . . . . 4.5 Chomsky-Normalform . . . . . . . . . . . . . . . 4.6 Algorithus von CYK“ . . . . . . . . . . . . . . . ” 4.7 (Erweiterte) Backus-Naur-Form (E)BNF . . . . . 4.8 Pumping-Lemma f¨ r kontextfreie Sprachen . . . u 4.9 Abschlusseigenschaften kontextfreier Sprachen . . 4.10 Entscheidungsprobleme kontextfreier Sprachen . 4.11 Kellerautomaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3

Inhaltsverzeichnis

4.12 Abschlusseigenschaften kontextfreier Sprachen gegen¨ ber regul¨ren Sprachen u a 4.13 Deterministische kontextfreie Sprachen . . . . . . . . . . . . . . . . . . . . . . 4.14 Deterministische Zweiwege-Kellerautomaten . . . . . . . . . . . . . . . . . . . 4.14.1 Teilwortproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

48 48 48 49

4

1 Turing-Maschine, Berechenbarkeit, Entscheidbarkeit
1.1 Definition der Turing-Maschine
Steuerung

Zustand (Programmzähler)

(q, a)

Programm

Schreib−/Lesekopf

(q ′ , a′ , b)
1
X

B

B

B

0

B

B

B

Zweiseitiges, unendliches Band

Eine Turingmaschine wird beschrieben durch: • Ein Eingabealphabet Σ • ein Bandalphabet Γ ⊃ Σ • ein Leerzeichen B ∈ Γ \ Σ • eine endliche Menge Q von Zust¨nden a ¨ • eine Uberf¨ hrungsfunktion δ : Q × Γ → Q × Γ × {−1, 0, 1} u • ein Anfangszustand q0 ∈ Q • (eventuell) eine Menge von akzeptierenden Zust¨nden F ⊆ Q a δ ist das Programm“ der TM ” • δ(q, a) = (q ′ , a′ , b) bedeutet: Wenn die Maschine im Zustand q ist und unter dem Kopf das Symbol a steht, dann wird a durch a′ auf dem Band ersetzt (a′ = a ist m¨glich), das Band wird um b verschoben und die o Maschine geht in den Zustand q ′ • Die Eingabe ist eine Folge von Symbolen aus Σ (ein Wort uber Σ). Sie steht am Anfang auf dem Band; ¨ der Kopf steht uber dem ersten Symbol. Der Zustand ist q0 . ¨ Beispiel: Σ = {0, 1}, Γ = {0, 1, B, X} Erkenne die Eingabe der Form: 0 1 , f¨ r n ≥ 1 u 01, 0011, 000111, ... (richtig) 001, 1100, 0100101, ... (falsch) rechts und links von der Eingabe stehen unendlich viele B-Symbole • Phase 1: laufe einmal von links nach rechts uber das Band und uberpr¨ fe, ob dort eine Folge von 0en u ¨ ¨ gefolgt von eine Folge von 1en steht. • Phase 2: Fahre abwechselnd nach links und nach rechts und ersetze jeweils 0 und eine 1 durch X. Akzeptiere, wenn am Ende alles durch X erstzt ist und kene 0, 1 ubrig bleibt ¨
n n

5

a 1. unmarkierten Ziffer b von x ¨ Ersetze b durch b + s + u. B. 0) (q+ . −1) (q2 . . wenn sie in einen Zustand q uber einen Symbol a mit δ(q. 1. 0) (q+ . X. 0) (q+ . V . 1) (q4 . ersetze sie durch X fahre nach rechts und suche 1. 1. M. q3 . 0. B. q1 .} • Speichern von Variablen mit endlichen Wertebereich als Teil des Zustandes. q4 .KAPITEL 1. u := Ubertrag. 1) Kommentar fahre nach rechts uber Nullen ¨ fahre nach rechts uber Einsen ¨ fahre nach links und suche 0. 1) (q+ . formal: Q = Q0 × V . 0. 0) X egal egal (q2 . 0) (q+ . 0. 1) 1 (q1 . 1. 1) (q1 . a ¨ Q = {q0 . B. wenn sie in einem Zustand aus F h¨lt. akzeptiere wenn keine 1 mehr vorhanden ist. Wertebereich der Variablen. 0) (q− . 0. ENTSCHEIDBARKEIT δ q0 q1 q2 q3 q4 0 (q0 . q− } q0 = q0 F = {q+ } • Die T. u der Variablen. X. 1) (q4 . entspricht dem. L¨sche alle Markierungen o s qu .: {’ ’. 1) (q2 . was man intuitiv unter algorith” misch berechenbar“ versteht. X. B. X. Γi . . 1} u ∈ {0. a) = (q. 0. Bandalphabet f¨ r die i-te Spur. 1) (q3 . ersetze sie durch X fahre nach rechts und suche 1. Beispiel: Addition zweier Bin¨rzahlen a Eingabe: bin(x)#bin(y)$ (bin(x) := Bin¨rdarstellung einer positiven Zahl. u z. B. −1) (q− . 1) (q− . B. Wandere nach links zur 1. Wandere nach rechts zur 1. Gehe zu 1 solange noch Ziffern ubrig sind. akzeptiert die Eingabe. Haltezustand: h ¨ ¨ s ∈ {0. Zustand (Programmzeile) q mit Werten s. BERECHENBARKEIT. (Markiere diese Ziffer) ¨ ¨ 3. 1. . f¨ hrende Nullen sind egal) a u Ausgabe: bin(x + y)#bin(y)$ Programmiertechniken: • Verwenden mehrerer Spuren: Jedes Feld des Bandes wird als aus mehreren Unterfeldern bestehend betrachtet. −1) (q3 . X. . ¯ ¯ 0. 2. 0) (q− . 0. 1. 1. . $} Bandalphabet: Γ = Σ ∪ {B. 0) steht. X. 0) (q3 . B. X 1 X 0 X 1 0 1 formal: Γ = Γ1 × Γ2 × Γ3 × . 0) (q2 . B. 1) B (q− . 0) • Die Maschine h¨lt. 1.2 Church’sche These Das was von einer Turing-Maschine berechnet werden kann. 1. . × Γk . 1) (q4 . unmarkierten Ziffer a. . X. s := a (merken) Markiere diese Ziffer auf dem Band. B. . x} × {0. TURING-MASCHINE. 1. . 1} 6 . q− q+ (q− . 0) (q− . #. a. q+ . −1) (q4 . q2 . ¨ 4. 1} ¨ Eingabealphabet: Σ = {0.

+ z.3 Registermaschinen Simulation eines RAM-Speichers auf einer TM: ##x1 #y1 ##x2 #y2 ##. #. ¯ − u 0. 1. die man mit den Buchstaben aus Σ bilden kann. ¯ + 1. ¯ + ¨ 0. 1. ¯ − u 0. 0. 0. − ¨ 0 v0 .4 Formale Sprachen Σ .. s0 . . 1. + p. ¯ + 0. ¯ − u 0. .. + z. 0 q1 . − p. o a w = a 1 a 2 a 3 . ¯ − u 1. # 0 ru . ¨ 0 y0 . + 0 ru . + ¨ 1 0 q0 . yi . REGISTERMASCHINEN δ 0 qu ¨ 0 ru ¨ s0 u ¨ ti u ¨ ui 0 u0 0 u1 . 0 q0 . . ¯ 0. . ¯ − u 1. + ¨ 0 ru . ¨ 0 q0 . 1. ¯ − u 1. 0 vu . 0.. ¯ + 1. 0 q0 . ¯ − 0 0. + ¨ 0 ru . Inhalt auf Adresse xi 1. 0 v0 . #. . + ¨ t0 . 1. − h. $. ¯ + ¨ 0. − 0 wu . 0 ¯ y1 . ¨ t0 . #. ¯ + 0. + 4 • Unterprogrammtechnik 1. − u ¨ $ s0 . s0 . endliches Alphabet (Vorrat an Zeichen) Σ∗ . + ¨ t1 . ¯ + 1. ¨ 0 y0 . + z.. − u ¨ ui .+ 2 3 z. ¯ + 0. 0. Adresse. ¨ ui . − z.+ 1 v0 . ¨ t1 . 1. B. ¯ − 0. + ¨ 0 ru . − u ¨ B Schritt 1 0 vu . B. 0 vu . + ¨ 0 yu . ¯ 1 0 qu . 1. − p.3. 1. $. ¨ ui . x0 . ¯ + ¨ 1.. 0. 0. x0 . al . ¯ + ¨ 1. 0 ¯ y1 . ¯ − u 0. #. alle W¨rter endlicher L¨nge l. + p. #.. ¯ − 0 1. ¨ 0 q0 . + ¨ ¯ 0 0 qu . + ¨ u0 . #. ¯ − 1. #. ¯ − u 1. ¯ 1. − 0 vu . u0 0 1 u1 1 0 vu ¨ 0 wu ¨ 0 xu ¨ 0 y0 0 y1 z p 0 0 qu . ¯ + 0.1. a i ∈ Σ l = |w| L¨nge des Wortes l ≥ 0 a ε ist das leere Wort |ε| = 0 Definition: Eine formale Sprache L ist eine Teilmenge von Σ∗ Beispiel: L = {0n 1n |n ≥ 1} L=∅ L = {ε} 7 .###[Programmcode] xi . 0. . 0 q1 .

2 Multiplikation von Sprachen L1 · L2 = {uv|u ∈ L1 . vielen (≥ 0) Bestandteilen ∈ L zusammen multiplizieren kann. ∀u ∈ Σ∗ : u · ε = ε · u = u Beispiel: u = abra v = kadabra u · v = abrakadabra v = kad ·u 1. . . y ∈ Γ∗ und q ∈ Q beschreibt den Zustand der Turingmaschine wo xy auf dem Band steht und der Kopf uber dem ersten Zeichen von y steht F¨ r zwei Konfigurationen k1 und k2 schreibt man u ¨ k1 ⊢ k2 wenn die Turingmaschine in einem Schrittvon k1 nach k2 ubergeht. das nicht mit B anf¨ngt oder a aufh¨rt (ein Wort ∈ Γ∗ QΓ∗ \ (B(Γ ∪ Q)∗ ∪ (Γ ∪ Q)∗ B)). dass auf k1 nach beliebig vielen Schritten (≥ 0) die Konfiguration k2 folgt. u · (v · w) = (u · v) · w 2. . .5 Konfiguration (Momentaufnahme einer Turingmaschine) Definition: Eine Konfiguration einer Turingmaschine ist ein Wort aus Γ∗ QΓ∗ . .ab} L2 = {a.1 Multiplikation von W¨rtern o u · v = uv (Buchstaben von u und v nebeneinander geschrieben) Rechenregeln: 1. · ui |u1 ∈ L.aba. L1 · (L2 · L3 ) = (L1 · L2 ) · L3 2. (Nachfolgerrelation zwischen ¨ Konfigurationen.3 Potenz von W¨rtern und von Sprachen o ui = u · u · u · .KAPITEL 1. L · {ε} = L Beispiel: L1 = {a. v ∈ L2 } Rechenregeln: 1.abba} 1. o Das Wort xqy mit x. .ba} L1 · L2 = {aa.4. · L = {u1 · u2 · . u2 ∈ L. ∗ 8 .4. die man aus bel. TURING-MASCHINE. ENTSCHEIDBARKEIT 1.4. ui ∈ L} i−mal 1 L1 = L L0 = {ε} L∗ := L0 ∪ L1 ∪ L2 ∪ . . . BERECHENBARKEIT. . o 1. . . L · ∅ = ε · u = u 3. .) k1 ⊢ k2 bedeutet. = Menge der W¨rter. · u i−mal u =u u0 = ε Li = L · L · .

log2 n ≤ 1} -mal 22 . a a • Die simulierte Maschine kann in T Schritten h¨chstens T Schritte nach links und rechts gehen. o • Die L¨nge des uberstrichenen Bandinhalts in jedem Simulationsschritt ist ≤ 2T + 1 a ¨ • Ein Simulationsschritt geht in ≤ const. .¨ 1. und dann bitweise von rechts nach links addiert.log n Schritten multipliziert a o werden (Martin F¨hrer 2008.T Schritten T -mal ⇒ T 2 ∗ • 2 n-Bit Bin¨rzahlen k¨nnen auf einem k-Band-TM in n · log n · const. a ¨ ¨ • Die Ubergangsfunktion δ : Q × Γk → Q × Γk × {−1. TURINGMASCHINE MIT MEHREREN BANDERN 1.6.6 Turingmaschine mit mehreren B¨ndern a • Eine Turingmaschine mit k B¨ndern hat k Schreib-/Lesek¨pfe. 0. In einer konstanten Anzahl von Fahrten uber das gesamte Band (ausgehend a ¨ von L) kann die Turingmaschine die Band¨nderungen auf den k B¨ndern simulieren. a L(M ) = x ∈ Σ∗ q0 x ⊢ yqz. ’ ’})k ∪ {L} • L markiert die Position links neben der linkesten Position die die simulierte Turingmaschine auf allen B¨ndern besucht hat. Zuerst wird bin(y) auf das 2. • Die ubrigen B¨nder sind zu Beginn leer. mit y. Band kopiert. . . (n)) (mit einem a a Band in O(n2 ) Schritten). o a Beweis: Simulation der k B¨nder auf k Spuren eines einzigen Bandes. +1}k Beispiel: bin¨re Addition von 2 n-Bit Zahlen geht mit 2 B¨ndern in O(n) Schritten (≤ konst. bestehender Rekord vorher const. die in h¨chstens const. Die Kopfposition der B¨nder ist af der a a jeweiligen Spur vermerkt. Γ1 = Γ ∪ (Γ × {X. 2 i-mal Die Umkehrfunktion von log ist 2 ∗ =2↑i Definition: Die von einer Turingmaschine M mit einer Teilmenge F ⊆ Q von akzeptierenden Zust¨nden akzepa tierte Sprache L(M ) ist die Menge der W¨rtern bei deren Eingabe die Maschine einen akzeptierenden o Zustand erreicht (und dann anh¨lt). Satz: Eine k-Band-Turingmaschine die nach T Schritten h¨lt kann durch eine 1-Band-Turinmaschine simuliert a werden.n·log n log log n (Arnold Sch¨ nu o hage ≈ 1970)) log∗ n := min{i| log2 log2 log2 .T 2 Schritten h¨lt. a o • Das erste Band ist das Eingabeband. z ∈ Γ∗ und q ∈ F ∗  M h¨lt in q ∈ F a → x ∈ L(M )  Eingabe x M h¨lt in q ∈ F a / → x ∈ L(M ) /   M terminiert nicht → x ∈ L(M ) / 9 . .

auf dem einzigen Band). • Man nennt M die G¨delnummer von M . γj1 . . L heißt entscheidbar (rekursiv).1 Universelle Sprache und Diagonalsprache Definition: Die universelle Sprache LU ist die Sprache LU = { M x|M akzeptiert x} ⊆ {0.KAPITEL 1. q2 .. . wenn es eine Turingmaschine M mit f = fM gibt. dann h¨lt auch MU (in einem akzeptierenden oder nicht akzepa a tierenden Zustand. a a • Die Beschreibung von M wird als M ∈ {0. Wenn die simulierte Maschine M h¨lt. Die Beschreibung einer beliebigen Turingmaschine M 2. a • Die von der Turingmaschine berechnete (partielle) Funktion fM ist definiert auf der Menge A = {x ∈ Σ ∗ |M h¨lt bei Eingabe um x} a fM : A → Σ∗ mit A ⊆ Σ∗ • Eine partielle Funktion f : A → Σ∗ mit A ⊆ Σ∗ oder eine totale Funktion f : Σ∗ → Σ∗ heißt berechenbar. 10 . (qi1 .. a) = (q ′ .. 1}∗ bezeichnet. engl... b. BERECHENBARKEIT. 0) = (q2 . recursiv enumerable) wenn es a eine Turingmaschine M mit L = L(M ) gibt.. wenn es eine Turingmaschine M gibt. 1.8. q ′ . 4. ⇒ M = 111010100100010110000100000100100000100011.|111| Beispiel: δ(q1 . B. 3. a Jetzt m¨ ssen wir nur noch δ kodieren: u als Liste von 5-Tupeln: δ(q. . m1 ). a. o Konventionen: a) M hat das Eingabealphabet {0. . −1). TURING-MASCHINE.8 Unentscheidbarkeit 1. γl1 . 1.. und kann anschließend die Maschine M Schritt f¨ r u Schritt simulieren.. steht ein Wort y ∈ Σ∗ auf dem Ausgabeband (bzw. . δ(q4 . • Wenn die Maschine h¨lt. γ5 ) = (q2 . je nach M ). b. . wenn M h¨lt. die auf allen Eingaben h¨lt und a mit L = L(M ) Unterscheide: abz¨hlbare (denumerable) Mengen: endlich oder gleichm¨chtig mit N a a Turingmaschine die etwas berechnet: x ∈ Σ∗ steht auf dem Eingabeband. 1} b) M hat Zustandsmenge Q = {q1 .. γ5 . m) geschrieben.. +1). qk } q1 ist der Startzustand q2 ist der einzige akzeptierende Zustand c) M hat Bandalphabet {0. 1}∗ Satz: Es gibt eine universelle Turingmaschine MU mit L(MU ) = LU Beweisskizze: MU muss zun¨chst den Anfang der Eingabe bis zum zweiten 111-Block lesen und entscheiden a ob es sich um eine g¨ ltige G¨delnummer handelt. u Dann simuliert sie M mit dieser Eingabe und h¨lt genau dann.). B.. u o MU kopiert die Beschreibung auf ein zweites Band. |Γ| − 1} (keine wesentlichen Einschr¨nkungen). m) wird als (q. ENTSCHEIDBARKEIT Definition: Eine Sprache L heißt rekursiv aufz¨hlbar (semi-entscheidbar. . . ⇒ |111|0i1 10j1 10j1 10k1 10l1 10m1 |11|0i2 10j2 10j2 10k2 10l2 10m2 |11|.. Die Eingabe f¨ r M . 5..7 Die universelle Turingmaschine Eine universelle Turingmaschine liest als Eingabe: 1. qk1 . γj1 . (qi1 .111 1.

. aber nicht entscheidbar a 11 . 2.....  Turingmaschine M .1.} Mi akzeptiert wi nicht. und dann in einem    akzeptierenzen Zustand anh¨lt.. Mi D w1 +− + − + + − w2 +− + − +− − w3 −+ − + + ··· wi ··· wk ··· + Satz: D ist nicht rekursiv aufz¨hlbar und damit auch nicht entscheidbar. M2 .   Turingmaschine. es gibt eine Turingmaschine Mk die D akzeptiert: D = L(Mk ) = {w|Mk akzeptiert w} Betrachtet das Wort wk : wk ∈ D Definition von D ⇐⇒ wk ∈ L(MK ) / wk ∈ D / Annahme: Mk akzeptiert die Sprache D ⇐⇒ Satz: Das Komplement D der Diagonalsprache D = {wi |wi ∈ L(Mi )} ist rekursiv aufz¨hlbar. . Mi . . a D = {wi | wi ∈ L(Mi ) / falls wi = M ist Mi falls wi keine g¨ ltige G¨delnummer ist u o Definition: Die Diagonalsprache D ist . a Beweis durch Widerspruch: Angenommen. . UNENTSCHEIDBARKEIT Aufz¨hlung aller W¨rter aus {0. M1 . .. 3. die einen Schritt = nach links macht.. .8. . M1 M2 M3 M4 . 1}∗ und aller Turingmaschinen: a o w1 = ε w2 = 0 w3 = 1 w4 = 00 w5 = 01 w6 = 10 w7 = 11 w8 = 000 . i = 1.

dann terminiert M1 . mit einer Eingabe). M2 akeptiert L Lasse M1 und M2 parallel“ laufen (abwechselnd) auf derselben Eingabe x ∈ Σ∗ ” Wenn x ∈ L.. L ist genau dann entscheidbar. Drehe die Angabe des Entscheidungsalgorithmus um. Wenn ja..KAPITEL 1. o U = { M x|x ∈ L(M ). Java. Wir wollen untersuchen. MD uberpr¨ ft. ist die Antwort bekannt. Wenn x ∈ L. wenn die Komplement¨rsprache L = Σ∗ − L a entscheidbar ist. Annahme: Es gibt einen Algorithmus. dann terminiert M2 . der das Halteprolem entscheidet.2 Das Halteproblem Gegeben: Eine Turingmaschine M und eine Eingabe x ∈ Σ∗ (oder ein Programm in C. ENTSCHEIDBARKEIT Beweis: 1. – wenn nein → Antwort: JA. ob die Eingabe eine g¨ ltige G¨delnummer M ist. 2. u u o ¨ wenn nein. Sobald eine der simulierten Turingmaschinen M1 und M2 anh¨lt. a Satz: 1. Behauptung: Dann k¨nnten wir auch die universelle Sprache U entscheiden. L entscheidbar ⇒ L entscheidbar ⇒ L. Frage: H¨lt die Turingmaschine nach endlich vielen Schritten? a Formuliereung des Problems als formale Sprache: H = { M |M h¨lt bei Eingabe von x} a Satz: Das Halteproblem ist unentscheidbar Beweis: indirekt. wenn wi ∈ L(Mi ) / Nichtentscheidbarkeit folgt aus dem n¨chsten Satz. Eine Sprache L ⊆ Σ∗ ist genau dann entscheidbar. verdopple die Eingabe und starte die universelle Turingmaschine: Mi wi =wi akzeptiert genau dann. BERECHENBARKEIT. wenn sowohl L als auch L rekursiv aufz¨hlbar sind. u o u • Wenn nein: L(Mi ) = Σ∗ wi ∈ Σ∗ → Antwort: JA • Wenn ja: Mi = M ¨ Uberpr¨ fe ob Mi wi ∈ U ⇔ wi ∈ L(Mi ) u – wenn ja → Antwort: NEIN. dann akzeptiere. M h¨lt bei Eingabe von x in einem akzeptierenden Zustand} a 12 . ¨ Uberpr¨ fe ob wi die G¨delnummer einer g¨ ltigen Turingmaschine M ist. L rekursiv aufz¨hlbar. a Beweis: 1. nicht entscheidbar a nicht rekursiv aufz¨hlbar a nicht rekursiv aufz¨hlbar a rekursiv aufz¨hlbar. nicht entscheidbar a nicht rekursiv aufz¨hlbar a nicht rekursiv aufz¨hlbar a Satz: Die universelle Sprache U ist unentscheidbar. . a ⇐ M1 akzeptiert L. 2. Beweis: Mit der Entscheidbarkeit von U k¨nnte man auch die Diagonalsprache D = {wi |wi ∈ L(Mi )} entscheio / den. 1. a L L entscheidbar entscheidbar rekursiv aufz¨hlbar.8. ob wi ∈ D ist. 2. TURING-MASCHINE.

. (01. (011.8. ob der Haltezustand von M ein akzeptierender Zustand ist oder nicht. UNENTSCHEIDBARKEIT Teste zuerst. falls y nicht mit der g¨ ltigen Codierung einer Turingmaschine beginnt u M ∞ := eine Turingmaschine. x2 ). 0) @ @@@ i1 = @@@@@1 ⇒ i3 = 1 1 i2 = @ @@ xi .... ob x ∈ A ist: Berechne f (x) und entscheide. 001) k¨ rzeste L¨sung k = 66 u o 13 . logisch ¨quivalent zu 2. o M x sei Eingabe f¨ r H.3 Reduzierbarkeit von Problemen Definition: A. (y1 . o Das spezielle Halteproblem Hε = { M |M h¨lt bei Eingabe ε} a Folgerung: Hε ist unentscheidbar. (01. a ( y ist keine korrekte Eingabe f¨ r das Halteproblem“) u ” Beispiel: D ≤ U Satz: 1. Wenn nein... ob M ∈ Hε M ′ ∈ Hε ⇔ M x ∈ H 1. yn ) o Frage: Gibt es eine Folge von Indizes i1 . . a Behauptung: Dann k¨nnten wir H entscheiden. dann ist M x ∈ U . geh¨rt M x zu U oder nicht. B ⊆ Σ∗ A ist auf B reduzierbar A≤B wenn es eine berechenbare Funktion f : Σ∗ → Σ∗ gibt mit x ∈ A ⇔ f (x) ∈ B. i2 . (10111.1.. y2 ).yik ? @ @= @ x @111 @ @ y @@@@ @= 111111111 i4 = 3 x = 10111 1 1 10 i1 = 2 i2 = 1 i3 = 1 y = 10 111 111 0 (10. Indirekter Beweis: Annahme wir h¨tten einen Algorithmus A. yi ∈ Σ∗ (k ≥ 1) mit xi1 xi2 xi3 .. 0). (xn . Transitivit¨t a 2. 011). 11). 111). ob f (x) ∈ B ist. Wir wollen entscheiden. a 1.8. u Konstruiere eine neue Turingmaschine M ′ die am Anfang das Wort x auf das Band schreibt. ik Beispiel (1. 101).. 101). 011) (001. u Teste mit dem Algorithmus A.. (101.4 Das Post’sche Korrespondenzproblem (PKP) Gegeben: Eine Folge von Paaren von W¨rtern (x1 .. dann nach links zur¨ ckkehrt und dann wie M weitermacht. der Hε entscheidet.xik = yi1 yi2 . A ≤ B ∧ B ≤ C ⇒ A ≤ C 2. simuliere M auf der Eingabe / x. A ≤ B und B entscheidbar ⇒ A entscheidbar 3. Je nachdem.8. ∀x ∈ Σ∗ Beispiel: H ≤ Hε f ( M x) = M ′ f (y) = M ∞ . 3. (10. 10). diese Simulation muss terminieren. A ≤ B und A unentscheidbar ⇒ B unentscheidbar Beweis: 1. (10. Wenn ja. die nie h¨lt. ob M x ∈ H ist.

a) = (q ′ . 0) (qa. ik k ≥ 1 mit i1 = 1 Sodass xi1 xi2 . b. q ′ cb#). b. . −1) M P KP ≤ P KP Gegeben: Eingabe f¨ r M P KP u (x1 .. q ′ b).. (xn . a) = (q ′ .. falls δ(q. ym ) Frage f¨r MPKP: Gibt es eine Folge u i 1 . 0) (q#.. . x ∈ Σ∗ Alphabet f¨ r PKP = Γ ∪ Q ∪ {#} u Anfangspaar: (x1 . b. b. (x′ . yi ) = (a. q ′ cb). falls δ(q. b.. (x2 . a) f¨ r a ∈ Γ ∪ {#} u Zustands¨berg¨nge: u a (qa. B) = (q ′ . −1) (cq#. b... .yik ′ ′ ′ Reduktion: Wir konstruieren uns eine Eingabe (x′ . #q0 x#) Kopierpaare: (xi . B) = (q ′ b. .KAPITEL 1. B) = (q ′ . i2 . falls δ(q. yn+1 ). #q ′ Bb). −1) (#q#. b. TURING-MASCHINE. ↑ y1 yi Beispiel xi + 1 xi ↓ ↓ # 0 0 #0010q110# 0 0 ↑ ↑ yi yi + 1 xj 1 1 0 0 q1 10# 0q ′ 10# yi δ(a. (x′ . y1 ). o u o 14 . bq ′ #). falls δ(q. .xik = yi1 .. falls δ(q. . +1) Gegeben: M. q ′ b#). y1 ) = (#. falls δ(q. 0.. y1 ).. y2 ).. x1 x1 #q0 v# u1 q 1 v1 #u2 q 2 v2 #u3 q 3 v3 #. 1) = (q ′ . −1) (#qa. B) = (q ′ . 0 1 n+1 Dieses PKP hat eine L¨sung ⇔ Das urspr¨ ngliche MPKP hat eine L¨sung. 1) (q#. . 1) (cqa. y0 ). bq ′ ). . Folge von Konfigurationen einer Turingmaschine xi ↓ q0 v#u1 q 1 v1 #u2 q 2 v2 #u3 q 3 v3 #. falls δ(q. a) = (q ′ . #q ′ Bb#). a) = (q ′ . BERECHENBARKEIT. falls δ(q. ENTSCHEIDBARKEIT Satz: PKP ist unentscheidbar Beweis: U ≤ P KP Zwischenschritt: Modifiziertes PKP zus¨tzliche Bedingung: i1 = 1 M P KP ≤ P KP a U ≤ P KP .

q) Abschlusspaar: (q##.... +1) ⇒ (q#. b.8.01 → 0#1#$ . b. y3 ) = (1#0#1#. b. dann frisst“ dieser Zustand den Bandinhalt a ” (qa. #0) 2 ′ (x′ .1. (11.xik = #|K1 #|K2 #K3 #| yi1 yi2 . Beweis: Gegeben ist eine Eingabe M x f¨ r U u Wir konstruieren daraus eine Eingabe f¨ r MPKP mit folgenden Eigenschaften u MPKP hat eine L¨sung ⇔ M x ∈ U o (M akzeptiert x) Idee: MPKP simuliert die Berechnung von M L¨sungswort: #K0 #K1 #K2 #. −1) ⇒ (cqa. #) Satz: Das Post’sche Korrespondenzproblem ist unentscheidbar. #q ′ Bb)  ′ (q .. y2 ) = (1#1#. q cb)   (#qa.. UNENTSCHEIDBARKEIT Beispiel: (0. #0#1) 3 x′ = #x′ 0 1 ′ Dieses PKP kann nur min(x′ .. (x′ . #q0 x#) Anfangsregel (a. q ′ b) δ(q. #0#1#0) 1 Eingabe f¨ r MPKP u mit einem neuen Symbol # nach jedem Buchstaben mit einem neuen Symbol # vor jedem Buchstaben ′ (x′ .. ui . dass Ki+1 aus Ki o durch einen Schritt vom M entsteht. 0).. y0 ). y1 ) = (0#... y0 ) beginnen 0 x′ = #0# 0 ′ ′ ′ y0 = y1 y0 = #0#1#0 x1 x3 = 0101 x′ x′ = #0#1#0#1# 0 3 ′ ′ y0 y3 = #0#1#0#0#1y1 y3 = 01001 ′ x′ n+1 = $yn+1 = #$ . q cb#)   (#q#. dadurch k¨nnen wir sicherstellen. +1) ⇒ (qa. b.. b. o Ki aufeinanderfolgende Konfigurationen von M Ki = ui q i vi xi1 xi2 .yik = #K1 #|K2 #|K3 #K4 #| Das y-Wort ist immer einen Schritt vorraus. 0) ⇒ (q#.. #q ′ Bb#) K0 = q0 x qi ∈ Q. a ∈ Γ (aq. B) = ′  ′ (q . yn+1 ) 0 n+1 ist aus (x1 . bq ′ #)   ′ (q . a) = ′  ′ (q . q) ∀q ∈ F.. y1 ). . (x1 . yn ) berechenbar. (xn .01 → #0#1#$ Die Eingabe Lemma: U ≤ M P KP ′ ′ (x′ ... bq ′ )   ′ (q .. 010). Kopierregel Zustandsregeln:  ′ (q . −1) ⇒ (cq#. q ′ b#) δ(q. b. 01) x′ = xi i ′ yi = yi ′ (x′ . (101. vi ∈ Γ∗ L¨schregeln: o Wenn M in einen akzeptierenden Zustand q ∈ F ger¨t.. a) a ∈ Γ ∪ {#}. 0) ⇒ (qa. . y1 ) = (#... ∀q ∈ F 15 ..

a ¯ Wenn ∅ die Eigenschaft S hat. BERECHENBARKEIT. Fall 1: M h¨lt nicht bei Eingabe ε a ⇒ M ′ h¨lt nie ⇒ L(M ) = ∅ ⇒ L(M ) hat Eigenschaft S nicht. S sei eine Eigenschaft von formalen Sprachen L. . die Eigenschaft S hat und eine Turingmaschine M + mit L(M + ) = L+ Wir reduzieren das spezielle Halteproblem Hε auf das Entscheidungsproblem f¨ r S: u Gegeben: Turingmaschine M Frage: H¨lt M bei Eingabe ε? a Wir konstruieren daraus eine neue Turingmaschine M ′ mit der Eigenschaft L(M ′ ) hat Eigenschaft S ⇔ M h¨lt bei Eingabe ε a • M ′ bekommt die Eingabe x ∈ Σ∗ • M ′ simuliert zun¨chst M mit leerer Eingabe. dann betrachte die komplement¨re Eigenschaft S ( nicht S“). . a • Wenn M h¨lt. TURING-MASCHINE. und akzeptiert genau dann.6 Satz von RICE (1953) Satz: F¨ r jede nichttriviale Eigenschaft S (im obigen Sinn) ist das folgende Problem unentscheidbar: u Gegeben: Turingmaschine M .KAPITEL 1. ′ M ist aus M berechenbar.8. die von einigen aber nicht von allen rekursiv aufz¨hlbaren a erf¨ llt wird: u Beispiele: Ist S = ∅? Ist S = {ε}? ε ∈ S? Ist S endlich? Ist S = {0n 1n |n ≥ 1} 1. (Matijasevi´. dann simuliert M ′ die M + mit der Eingabe x.5 Andere unentscheidbare Probleme • L¨sbarkeit von Polynomgleichungen uber Z. 1970) o c ¨  x = 3y − z 2   z 2 + u3 y − x4 = 0 . Frage: Hat L(M ) die Eigenschaft S? Annahme: ∅ hat nicht Eigenschaft S Es gibt eine Sprache L+ . a ” 16 .8. a wenn M + akzeptiert. a Fall 2: M h¨lt bei Eingabe ε a ⇒ M ′ verh¨lt sich wie M + ⇒ L(M ) = L(M + ) = L+ ⇒ L(M ) hat Eigenschaft S. ENTSCHEIDBARKEIT 1.

F ) Ein (deterministischen) endlicher Automat (DEA) (engl. DFA) hat: • eine endliche Zustandsmenge Q • ein endliches Eingabealphabet Σ • eine Zustands¨ berf¨ hrungsfunktion δ : Q × Σ → Q u u • einen Startzustand q0 ∈ Q • eine Menge von akzeptierenden Zust¨nden F ⊆ Q a Arbeitsweise: Der Automat beginnt in q0 und liest in jedem Schritt das n¨chste Eingabesymbol und ¨ndert a a denm Zustand gem¨ß δ. Er akzeptiert das Eingabewort.an ) = δ(δ(q. δ..: deterministic finite automaton. 1} F = {q3 } Eingabe: x = 0 0 1 1 0 0 1 ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ q0 q1 q0 q2 q0 q1 q0 q2 ∈ L(A) / ∈F / L(A) = die von A akzeptierte Sprache = {x ∈ {0. an )). q2 . Beispiel: Q = {q0 . ε) = q. q1 . a1 a2 .. 1}∗|x enth¨lt eine gerade Anzahl an 0en und eine ungrade Anzahl an 1en} a Wir erweitern δ : Q × Σ → Q auf δ : Q × Σ∗ → Q δ(q.. q3 } q0 = q0 δ q0 q1 q2 q3 Zustandsdiagramm: 0 q1 q0 q3 q2 1 q2 q3 q0 q1 Σ = {0.1 Deterministische endliche Automaten A = (Q.2 Regul¨re Sprachen und endliche Automaten a 2. δ(q. q0 . wenn er sich nach dem Lesen des letzten Bucha stabens in einem Zustand ∈ F befindet. a1 a2 . (∀q ∈ Q) (n ≥ 1) 17 .. Σ.an−1 .

¨ KAPITEL 2. x) ∈ F } Kann ein DEA die Sprache L = {0n 1n |b ≥ 0} akzeptieren? Wir betrachten δ(q0 .0i ) Definition: Die von DEA akzeptierten Sprachen heißen regul¨re Sprachen. 0j 1i ) = δ(δ(q0 . Nach h¨chstens |Q| Schritten muss sich ein Zustand wiederholen o ∃i ≤ j : δ(q0 . δ(q0 . 0i ) = δ(q0 . 0). 0i 1i ) ∈ F weil A das Wort 0i 1i akzeptieren soll. a Andere Charakteresierungen von regul¨ren Sprachen: a • regul¨re Ausdr¨ cke a u • NEA: nichtdeterministische endliche Automaten • Typ-3-Grammatiken 2.. δ(q0 . . ∅..2 Regul¨re Ausdr¨cke a u Beispiele f¨ r regul¨re Ausdr¨ cke: u a u (0 + 1)∗ (0∗ + 01∗ )10(1∗ ) Definition: regul¨re Ausdr¨ cke sind induktiv folgendermaßen definiert. . 1i ) = δ(q0 .. . sind regul¨re Ausdr¨ cke u a u 2.) Uberfl¨ ssige Klammern kann man weglassen. 0i ). 3.. ε..} schreiben Jeder regul¨re Ausdruck beschreibt eine Sprache: a • L(∅) = ∅ • L(ε) = {ε} • L(a) = {a} f¨ r a ∈ Σ u • L((A) · (B)) = L(A) · L(B) • L((A) + (B)) = L(A) ∪ L(B) 18 . 0j ). 1}∗ (((((0)∗ ) + ((0) · ((1)∗ ))) · (1)) · (0)) · ((1)∗ ) Man verwendet folgende Vereinfachungsregeln: 1. 00).) · kann man weglassen 4.) Endliche Mengen kann man auch als {. δ(q0 .) ∗ hat h¨chste Priorit¨t. 000). a f¨ r a ∈ Σ. dann + o a ¨ u 2... dann ·. 1). Wenn A und B regul¨re Ausdr¨ cke sund. a u 1. a u Beispiele: ((0) + (1))∗ = {0. dann sind auch a u • (A) · (B) • (A) + (B) • (A)∗ regul¨re Ausdr¨ cke. 0i 1i ) ∈ F ⇒ A akzeptiert 0j 1i =δ(q0 .. ε). 0) L(A) = die von A akzeptierte Sprache = {x ∈ Σ∗ |δ(q0 . REGULARE SPRACHEN UND ENDLICHE AUTOMATEN Beispiel: δ(q2 . 1i ) = δ(q0 . 0j ) δ(δ(q0 . 0)... 010) = q0 = δ(δ(δ(δ(q2 .

. keine Einschr¨nkung der Zwischenzust¨nde a a L(A) = qj ∈F Ln 1j ¨ k = 0. a) = qi } ∪ {ε} ii Die Lk k¨nnen induktiv f¨ r k = 0. Σ..xn |δ(qi .. qk−1 . x1 . REGULARE AUSDRUCKE • L((A)∗ ) = (L(A))∗ Beispiel: 1∗ (01∗ 01∗ ) = {x ∈ {0. 2. . wo der Zustand qk erreicht wird.. u ij o k−1 k−1 k−1 k−1 Lemma: Lk = Lij ∪ Lik (Lkk )∗ Lkj ij Beweis: k−1 k−1 k−1 k−1 ⊇“ Lij ⊆ Lk nach Definition. 1953) L = L(A) Lk ij A = ({q1 . a) = qj } ij i=j L0 = {a ∈ Σ|δ(qi .. 1}∗|Anzahl der Nullen ist gerade} Satz: Jede regul¨re Sprache wird durch einen regul¨ren Ausdruck beschrieben: a a Beweis mit Kleene-Algorithmus: (Kleene. qk besuchen und in qj enden.. a ⊆“ Betrachte ein Wort x ∈ Lk und die Folge der Zust¨nde die der Automat beim Lesen von x..2. und dabei als Zwischenzust¨nde (außer dem ersten o u a und letzen Zustand) nur die Zust¨nde q1 . n definiert werden. keine Zwischenzust¨nde. δ(qi . die von qi nach qj f¨ hren. q2 .xl ) ∈ {q1 . q2 .... qk a Lk = {x1 x2 .. .... dann kann man die Formel vereinfachen: k−1 k−1 Beispiel: Lk = Lik · (Lkk ) ik k−1 k−1 k−1 ∗ k Lkk = (Lkk ) Lk = ((Lkk )∗ Lkj kj 19 ... ausgehend a ij ” von qi besucht. δ. . qn }... k−1 Lkk k−1 beliebig vielen (≥ 0) Zwischenst¨ cken ∈ Lkk und einem u Wenn i = k oder j = k ist. 1.. x1 . q1 .. k−1 Fall 1: qk tritt nicht als Zwischenzustand auf ⇒ x ∈ Li j Fall 2: Zerlege x in Bestandteile an jeder Stelle. . Lik (Lkk )∗ Lkj .... beginnend ij ” in qi nur Zust¨nde q1 .. qk qk qk qk qi k−1 ∈ Lik qj k−1 ∈ Lkj ∈ x besteht aus einem Anfangsst¨ ck ∈ u k−1 Endst¨ ck ∈ Lkj u k−1 Lik . ...¨ ¨ 2.. F ) = Menge der W¨rter.xn ) = qj . ein Wort aus dieser Sprache wird.. qk } f¨ r 1 ≤ l < n} u ij k = n. nur direkten Ubergang a L0 = {a ∈ Σ|δ(qi .

q ′ ) ∈ δ 20 . a) gehen. a2 . u Urspr¨ nglicher Formalismus u δ : Q × Σ → 2Q q ′ ∈ δ(q. q1 } ∅ {q3 } ∅ {q4 } 1 {q0 } {q2 } ∅ {q4 } {q4 } Beispiel: 010 0101 0010000 w¨ rde akzeptiert werden. n − 1. F ) ist ¨hnlich wie ein DEA. 011110000111 ∈ L(A) jedoch nicht. u L(A) = Menge der akzeptierten W¨rter o 0.. Schranke f¨ r die L¨nge des Ausdrucks: u a (|Σ| + 1) · 4|Q| · |Q| ¨ (beim Ubergang von k auf k + 1 wird die L¨nge h¨chstens mit 4 multipliziert.. a Gesund Hochdruckwetter Gesund Kopfweh Gewitter Kopfweh.3 Nichtdeterministische endliche Automaten DEA → ↑ NEA ←− regul¨rer Ausdruck a ↓ (NEA + ε) Definition: Ein nichtdeterministischer endlicher Automat (NEA) (engl.. δ.an ∈ Σ∗ ist eine Folge (q0 . REGULARE SPRACHEN UND ENDLICHE AUTOMATEN Durch Induktion nach k ergibt sich: Alle Sprachen Lk sind durch regul¨re Ausdr¨ cke darstellbar. a. und a u ij sonst auch L(A). die 0101 enthalten} = (0 + 1)∗ 0101(0 + 1)∗ o δ q0 q1 q2 q3 q4 0 {q0 . q0 .¨ KAPITEL 2. .. a) Alternativer Formalismus δ ⊆ Q × Σ × Q (dreistellige Relation) (q. q2 . wenn es eine akzeptierende Berechnung f¨ r x gibt.1 0 q1 1 q2 0 q3 1 q4 0. • Eine akzeptierende Berechnung ist eine Berechnung mit qn ∈ F . NFA) A = (Q. qn ) mit qi ∈ Q mit q0 = Anfangszustand und qi+1 ∈ δ(qi . • Ein Wort x ∈ Σ∗ wird von A akzeptiert. außer dass: a δ : Q × Σ → 2Q (Potenzmenge von Q) Wenn ein Automat sich im Zustand q ∈ Q befindet und das Symbol a ∈ Σ liegt.Gesund K¨lte a Gesund • Eine Berechnung des Automaten bei Eingabe von x = a1 a2 . a1 . u u 2.: nondeterministic finite automaton.1 → q0 L(A) = {W¨rter. u / Ein DEA entspricht dem Spezialfall wo |δ(q. a)| = 1 f¨ r alle q und a. qn−1 . an .. ai+1 ) f¨ r i = u 0.) a o Der Algorithmus von Floyd-Warshall f¨ r k¨ rzeste Wege in Graphen beruht auf dem gleichen Prinzip.. kann er in irgendeinem der Zust¨nde aus der Menge δ(q. . Σ. q1 ...

. q2 } {q0 } ′ q1 {q0 . q0 . δ ′ . q4 } {q0 . q1 . q3 . o a ” Beweis durch Induktion nach k. q4 } ′ q5 {q0 . q0 . q1 } {q0 . q4 }|q4 ∈ q ′ } ′ Beweis: δ ′ (q0 . 0) = δ(q1 . 0) = δ(q0 . q2 . 0) ∪ δ(q4 . q2 } {q0 . q4 } {q0 . q2 . q2 } ′ q2 {q0 .2. Σ.1 q2 0. F ′ ) zu einem gegebenen NEA A = (Q. q4 } 0 q1 0 0 1 1 q2 0 → q0 0 q7 1 q3 1 0 q4 1 0 0 q6 q5 1 1 0 L = {W¨rter. a) δ ′ (q ′ . q1 . q1 . q3 .1 q4 ⇒ NEA hat k + 1 Zust¨nde a Jeder DEA ben¨tigt mindestens 2k−1 Zust¨nde o a 21 . q4 } {q0 . qq } {q0 . 0) = {q0 .1 → q0 1 q1 0. q1 . q3 } {q0 . q4 } ′ q6 {q0 .ak die im Zustand q0 beginnt und in q u endet. 0) ∪ δ(q2 . q2 }.ak ) = {q ∈ Q | es gibt eine Berechnung f¨ r a1 . q1 . q′ 0 1 ′ q0 {q0 } {q0 . q1 . q4 } ′ q4 {q0 . q3 } {q0 } ′ q3 {q0 .3. ′ In der Praxis beginnt man mit q0 = {q0 } und erzeugt nur diejenigen Zustandsmengen. 0) ∪ δ(q1 . q4 } F ′ = {q ′ ∈ {q0 . q4 } {q0 . q2 . F ) a (Potenzmengenkonstruktion) Q′ = 2 Q δ ′ : Q′ × Σ → Q′ δ(q. Σ. q1 . q1 .1 q3 0. q4 } {q0 . q3 . a) = q∈q′ ′ q0 == {q0 } F ′ = {q ′ ∈ Q|q ′ ∩ F = ∅} Behauptung: L(A′ ) = L(A) δ ′ ({q1 . q1 . q4 }. q4 } {q0 . q2 . q4 } {q0 . q1 } {q0 . die von q0 erreichbar sind. NICHTDETERMINISTISCHE ENDLICHE AUTOMATEN ′ Konstruktion eines ¨quivalenten DEA A′ = (Q′ .. 0) = ∅ ∪ {q3 } = {q3 } δ ′ ({q0 .. q1 } ∪ ∅ ∪ {q4 } = {q0 .. q2 . a1 a2 . q4 } ′ q7 {q0 . q4 } {q0 . δ. q1 .} = m¨gliche Zust¨nde nach Lesen der ersten k Eingabezeichen. q1 . deren 4-letzter Buchstabe eine 1 ist} o 0.

. Eine akzeptierende u Berechnung f¨ r x ∈ Σ∗ ist eine Folge (q0 .bk .. 0 → q1 ε 1 0 ε. einen ε-Ubergang durchf¨ hren.4. gibt es einen NEA A mit ε-Uberg¨ngen und einem einzigen akzepa a tierenden Zustand mit L(A) = L(S) Beweis: Induktion nach der Struktur von S S=a∈Σ S=∅ S=ε → → → A1 a ε S = S1 + S2 → → ε ε A2 ε ε ε L(A) = L(A1 ) ∪ L(A2 ) S = S1 · S2 A1 A2 ε A1 L(A) = L(A1 ) · L(A2 ) S = (S1 )∗ → Kleene-Algorithmus L(A) = L(A1 )∗ DEA regul¨re Ausdr¨ cke a u Potenzmengenkonstruktion NEA ¨ Elimination von ε-Uberg¨ngen a ¨ NEA mit ε-Uberg¨ngen a ¨ 2. . 0 1 q5 0 ε. REGULARE SPRACHEN UND ENDLICHE AUTOMATEN ¨ 2. x = b1 b2 . statt einen Buchstaben zu lesen. u bi ∈ Σ ∪ {ε}. qi ∈ δ(qi−1 . b2 .1 Elimination von ε-Uberg¨ngen a ¨ ¨ Idee: Zusammenpacken einer Folge von ε-Uberg¨ngen mit dem nachfolgenden Ubergang wo ein Buchstabe a ¨ gelesen wir.. in einem einzigen Ubergang. q1 . 0 q3 0 22 1 q4 . 1 q2 ε. bi ). qk ) mit q0 = Startzustand. q2 .. b1 .4 NEA mit ε-Uberg¨ngen a Unterschied: δ : Q × (Σ ∪ {ε}) → 2Q ¨ Der Automat kann auch. qk ∈ F ¨ Satz: Zu jedem regul¨ren Ausdruck S..¨ KAPITEL 2.

.Ergebnismenge Q := {q}. epsilon): if !(s aus R) then R := R + {s} Q := Q + {s} → q0 ε ε q1 ε q4 ε q2 δ ′ (q. δ ′ . 0) F ′ = {q|Rε (q) ∩ F = ∅} 2. q3 .5. Σ. 0) = δ(q1 . δ. F ) δ : Q × (Σ ∪ {ε}) → 2Q ¨ neuer Automat: A′ = (Q. und a ¨ einen Ubergang wo a gelesen wird.Liste der zu bearbeitedenden Zust¨nde a while !isEmpty(Q) entferne einen Zustand r aus Q forall s aus delta(r. q5 . die von q aus durch ε-Uberg¨nge erreichbar sind. q0 . 0) ∪ δ(q3 . . MINIMIERUNG DETERMINISTISCHER ENDLICHER AUTOMATEN δ ′ (q1 .5 Minimierung deterministischer endlicher Automaten 0 → 1 a 0 1 b 1 c 0 d e 1 f 1 0 0 1 g 0 1 1 0 h 0 23 . a) = q3 δ(r. q5 } Gegeben: A = (Q.. erreicht werden. 0) ∪ δ(q2 ... a) = {r ∈ Q | r kann im Automaten A von q aus durch eine Folge von k ≥ 0 ε-Uberg¨ngen. q2 . q4 }F ′ = {q1 . q0 . } ¨ F ′ = {q ∈ Q | Von q aus kann der Automat A in k ≥ 0 ε-Uberg¨ngen einen akzeptierenden Zustand r ∈ F a erreichen } Der Automat A′ kann jede akzeptierende Berrechnung von A durch eine akzeptierende Berechnung ohne ε¨ Uberg¨ngen simulieren“ und umgekehrt. F ′ ) ohne ε-Uberg¨nge a ¨ δ ′ (q.2. Σ. a ” ¨ Berechnung der Menge Rε (q) = { Zust¨nde. a) r∈Rε (q) Beispiel: δ ′ (q1 . . 0) ∪ δ(q5 . q1 . 0) = {q3 . } a a R := {q}.

g. 0) ∈ K3 Zerlege K3 = {f } ∪ {b. y) ∈ F ) ∨ (δ(q. e. 0) ∈ K4 24 . h} = K1 ∪ K2 δ(b. 0) ∈ K4 δ(g. x) ∈ F (∗) (XOR) def 1 e 0 1 1 g 0 0 h ⊕ δ(r. 0) ist K2 = {c} ∪ {b. 0) ∈ K3 δ(e. x) ∈ F q ≡ r ⇐⇒ ∃x ∈ Σ∗ . a a a a in welchem der beiden Zust¨nde man ist. 0) = a ∈ K1 δ(e. g. c. 0) ∈ K3 δ(h. 0) = c ∈ K2 δ(g. Zusammenfassen von ¨quivalenten Zust¨nden. h}. δ(q. h} K1 K2 K3 δ(b. δ(q. je nachdem in welche (bisherige) Klasse δ(q. x) ∈ F ∧ δ(r. 0) ∈ K2 δ(g. x) ∈ F ) / / Beispiel: Q = {a} ∪ {b. x) ∈ F Der Algorithmus beginnt mit einer ganz groben Klasseneinteilung in zwei Klassen Q = F ∪ (Q − F ). Diese Klasseneinteilung wird nach und nach verfeinert. Entfernen unerreichbarer Zust¨nde: Zust¨nde die nicht von q0 erreichbar sind a a 0 1 a b c 0 1 → 0 1 f 1 0 2.¨ KAPITEL 2. a Invariante: Wenn q und r nicht in derselben Klasse sind. 0) = h ∈ K2 δ(f. x) ∈ F ∧ δ(r. g. e. Zwei Zust¨nde heißen ¨quivalent. e. REGULARE SPRACHEN UND ENDLICHE AUTOMATEN 1. f. g. f. 0) = g ∈ K2 δ(c. f. g. 0) = g ∈ K2 δ(h. 0) ∈ K4 δ(e. 0) Zerlege K2 = A ∪ B. e. h} neue Klasseneinteilung: Q = {a} ∪ {c} ∪ {b. g. 0) ∈ K3 δ(f. e. e. da δ(c. 0) ∈ K1 ∧ δ({b. h} K1 K2 K3 K4 δ(b. 0) ∈ K4 δ(h. f. x) ∈ F ⇔ δ(r. wenn es keine Rolle spielt. wenn sich herrausstellt. a q ≡ r ⇐⇒ ∀x ∈ Σ∗ . h} Neue Zerlegung: Q = {a} ∪ {c} ∪ {f } ∪ {b. dass Zust¨nde in der gleichen a Klasse nicht ¨quivalent sind. 0) = g ∈ K2 ⇒ c unterscheidet sich vom Rest. dann gilt (∗): ∃x ∈ Σ∗ : (δ(q.

. a) = KLasse. . 1) = e und c ≡ e weil δ(c. 1) = f ∈ K3 δ(g. MINIMIERUNG DETERMINISTISCHER ENDLICHER AUTOMATEN δ(b. 1) = c ∈ K2 Zerlege K4 = {e} ∪ {g} ∪ {b.5. 1) ∈ K3 δ(h. Kj } a δ ′ (Ki . 0) ∈ K6 δ(b. r in derselben Klasse Ki gibt und einen Buckstaben a ∈ Σ mit: a Klasse δ(q.. 1) = e ∈ K4 δ(h. 1) = c.2. a) und δ(r. h} K1 K2 K3 K4 K5 K6 δ(b. a • Dieser hat unter allen ¨quivalenten DEA’s die kleinste Anzahl von Zust¨nden. o Zust¨nde des neuen Automaten: {K1 . r ∈ Ki . 0) = a. 25 .1 Algorithmus zur Bestimmung des Minimalautomaten: • Beginne mit der Terlegung Q = K1 ∪ K2 in zwei Klassen K1 = F K2 = Q − F Q = K1 ∪ K2 ∪ .. δ(g.. ∀a ∈ Σ: δ(q. 10) ∈ F. a a 2 • Der Minimalautomat kann in O(|Q| · |Σ|) Schritten berechnet werden. 0) ∈ K6 δ(h. δ(g.. h} 1 c → e 0 1 f 1 0 1 0 1 g 0 a≡c h≡g c≡e h≡a h≡g wenn x = ε weil δ(h. a) geh¨rt. 0) = h und h ≡ a weil h ∈ F. a) geh¨rt (q ∈ Ki ) o Abbruchbedingung: ∀Ki ∀q. o u a Satz: Zu jedem DEA (zu jeder regul¨ren Sprache) gibt es einen eindeutig bestimmten (eindeutig bis auf a Bennenung der Zust¨nde) Minimalautomaten. zu der δ(q.5. a) geh¨ren zur gleichen Klasse. der die gleiche Sprache akzeptiert. ∪ Kj Solange es zwei Zust¨nde q. f¨ r irgendein q ∈ Ki (unabh¨ngig von der Wahl von q). 10) ∈ F / 2. h} Neue Zerlegung: Q = {a} ∪ {c} ∪ {e} ∪ {f } ∪ {g} ∪ {b. 1) ∈ K3 Es ergibt sich keine weitere Verfeinerung 0 1 a 0 {b. 1) = c ∈ K2 δ(e. a ∈ F / weil δ(h. δ(e.

q7 } ∪ {q5 }  δ(q1 . B. 0) Man kann h¨chstens (|Q| − 1)-mal verfeinern o Zus¨tzlich: Verwalten der Kalssen Einteilung a        δ(q1 . δ. v ∈ Σk . REGULARE SPRACHEN UND ENDLICHE AUTOMATEN [l]Q = {q1 . 1) ?    δ(q3 . v). F ) u Wenn δ(q0 . wenn o a u ≡L v ⇐⇒ ∀x ∈ Σ∗ : ux ∈ L ⇔ vx ∈ L ¨ ¨ Diese Relation ist eine Aquivalenzrelation. u = v u ≡L v ¨ ⇒ ≡L hat mindestens 2k Aquivalenzklassen. vx) ∈ F ⇔ vx ∈ L ¨ Folgerung: ≡L hat h¨chstens |Q| Aquivalnzklassen. Beispiel: L = {x ∈ {0. Hopcroft: Die Nerode-Relation bez¨ glich einer Sprache L. 0) δ(q2 . x) ∈ F ⇔ δ(δ(q0 . wenn die Nerode-Relation endlich viele Aquivalenzklassen hat. v hat dort eine 1. q0 . vx ∈ L u / 26 . F¨ r x = 0i−1 ux ∈ L. Σ. x) ∈ F ⇔ δ(δ(q0 . q3 } ∪ {q4 . u Definition: Zwei W¨rter u und v heißen Nerode-¨quivalent. def 2. 1}∗ | k-letzter Buchstabe ist eine 1. Jeder DEA hat mindestens so viele Zust¨nde. A. 0) in der selben Klasse?  δ(q3 . d. a ¨ Die Anzahl der Aquivalenzklassen ist in diesem Fall die Anzahl der Zust¨nde des Minimalautomaten. u v x = 1000100100000 ∈ L / = 1000110100000 ∈ L Beweis der Behauptung: u = v unterscheiden sich in der i-ten Position. 1) ∪{q6 } q1 1 q2 1 q3 1 q4 2 q5 3 q6 4 q7 2 Entfernen der unerreichbaren Zust¨nde O(|Q| · |Σ|) a Es geht auch in O(|Q| · log |Q| · |Σ|) Zeit.¨ KAPITEL 2. 1) ein Verfeinerungsschritt O(|Q| · |Σ|)   δ(q2 . Daher k¨nnen wir die Aquivalenzklassen [u]L = {v ∈ Σ∗ | v ≡L u} o bilden. u hat dort eine 0. ux) ∈ F ⇔ δ(δ(q0 .2 Satz von Nerode ¨ Satz: Eine Sprache L ist genau dann regul¨r. o.5. a Beweis: ⇒“ ” L = L(A) f¨ r DEA A = (Q. q2 . v) dann u ≡L v ∀x ∈ Σ∗ : ux ∈ L ⇔ δ(q0 . u). u) = δ(q0 . |x| ≥ k} = Σ∗ · 1 · Σk−1 Behauptung: u. wie ≡L o a ¨ Aquivalenzklassen hat.

sodass ∀i: uv i w ∈ L Fall 1: v enth¨lt nur Einsen uv 0 w enth¨lt weniger Einsen als Nullen. δ(q0 . um zu zeigen. a δ: v ≡ ui ([v]L = [ui ]L ) ⇒ [va]L = [ui a]L ⇔ va ≡L ui a v ≡L ui . v. . a Beispiel: L = {0n 1n | n ≥ 1} nicht regul¨r. [uk ]L } Σ δ([ui ]L . a) = [ui a]L q0 = [ε]L F = {[ui ]L | ui ∈ L} zu zeigen: 1) Dieser Automat ist wohldefiniert : ¨ Das Ergebnis von δ. a ∈ Σ ⇒ va ≡L ui a def ∀x ∈ Σ∗ : vax ∈ L ⇔ ui ax ∈ L ∀y ∈ Σ∗ : vy ∈ L ⇔ ui y ∈ L ↑ y = a · x F : z. f¨ r y ist die Aussage bewiesen.z. Behauptung: δ(q0 . DAS PUMPING-LEMMA FUR REGULARE SPRACHEN Beweis: ⇐“ ” ¨ [u1 ]L [u2 ]L .. ε) = q0 = [ε]L IS: x = y · a a ∈ Σ. . v = ε.6. .¨ ¨ 2. a) = [ya] = [x] Weil Definition von δ unabh¨ngig von der Wahl des Representanten y in der Klasse [y] ist.. welcher Representant ui aus der Aquivalenza klasse [ui ]L gew¨hlt wird.6 Das Pumping-Lemma f¨r regul¨re Sprachen F¨ r jede Regul¨re Sprache L gibt es eine n0 ∈ N (∀L ⊆ Σ∗ : L regul¨r ⇒ ∃n0 ∈ N). a ! ⇔ui ≡L v u a 2. a u ” Das Lemma wird in der Regel dazu verwendet. w ∈ Σ∗ : x = u · v · w. u a a ∀x ∈ L: |x| ≥ n0 ∃u. |uv| ≤ n0 Sogar diese st¨rkere Aussage gilt a In Worten: In einer rgul¨ren Sprache hat jedes gen¨ gend lange Wort eine Stelle.. a Annahme: L w¨re regul¨r ⇒ Pumping-Lemma ist anwendbar a a ∃n0 : W¨hle x = 0n0 1n0 a ∃x = uvw. ∀i ≥ 0: u · v i · w ∈ L.. [uk ]L seine Aquivalenzklassen von ≡L Q = {[u1 ]L [u2 ]L . y).. x) = δ(q0 . ya) = δ(δ(q0 . an der man pumpen“ kann. v = ε. a) = u δ([y]. dass eine Sprache nicht regul¨r ist. a a ⇒∈ L Widerspruch / 00001 11 u v 1 w 00001|1 00001111 00001 1111 1 v2 i=0 i=1 i=2 ∈L . x) = [x]L Beweis durch Induktion nach |x| IA: |x| = 0 x=ε δ(q0 . die Menge F h¨ngt nicht davon ab. [[ui ]L ] ≡ [v]L ⇒ (ui ∈ L ⇔ v ∈ L) ⇔ ∀x ∈ Σ∗ : (ui x ∈ L ⇔ vx ∈ L) ⇒ F¨ r x = ε: ui ∈ L ⇔ v ∈ L u 2) Der Automat akzeptiert L. .. 27 .

xi ).xn q0 Betrachte die Zust¨nde: a δ(q0 . .xJ )=q′ =q′ q′ ∃0 ≤ i < j ≤ n0 : δ(q0 .. x1 ... A.. ... xi+1 .. x1 ) δ(q0 ..xi ) = δ(q ′ ... a Fall 3: v enth¨lt Nullen und Einsen a uv 2 w = u v v w enth¨lt Einsen. x1 x2 ) ... a 001 001 ⇒∈ L / L = {0n 1n | n ≥ 1} ist nicht regul¨r a 2 ∈L n0 0n0 = uvw uv i w Die L¨ngen der W¨rter uv i w bilden eine arithmetische Folge mit Abstand |v| ≤ n2 a o 0 Abstand zwischen zwei Quadratzahlen: (n2 + 1)2 − (n2 )2 = ¨¨2 + 2(n2 ) + 1 − (n2 )2 = 2n2 + 1 > n2 (n2¨ 0 0 0) 0 0 0 0 > n2 0 0n0 +(i−1)·|v| Es gibt ein Wort uv i w.xj ) = q ′ 28 + + + + + + + + + + + q′ .xi+1 . DEA mit L(A) = L a n0 := |Q| |x| ≥ 0 x = x1 x2 . REGULARE SPRACHEN UND ENDLICHE AUTOMATEN Fall 2: v enth¨lt nur Nullen .xn0 ) q0 u v δ(q0 . x1 ...... x1 x2 .¨ KAPITEL 2.xj ) δ(δ(q0 .        Ein Zustand q ′ muss mehrfach vorkommen       δ(q0 . ε) = q0 δ(q0 .. die vor Nullen stehen.. x1 . ⇒ Widerspruch a 0 0 Beweis: L sei regul¨r (L ∈ L3 ). dessen L¨nge (n2 )2 < |uv i w| < (n2 + 1)2 ist.

q0 .. · h(xn ) xi ∈ Σ h(abaabaab) = 0101010101 • Substitution Definition: Bei einer Substitution σ wird ein Buchstabe a ∈ Σ durch die Sprache σ(a) ersetzt. uvw) ∈ F x i L = {01} n0 = 3 0 L = {0i 1j | i ≥ 0. Produkt..xj = ε w = xj+1 . Homomorphismen und inverse Homoa morphismen. ABSCHLUSSEIGENSCHAFTEN REGULARER SPRACHEN u = x1 . *-Operation. y) = h(x) · h(y) (∀x.. Beispiel: h(a) = 01 h(b) = ε h(c) = 01 h(x1 . Produkt.xi v = xi+1 . D..σ(xn ).. δ. *-Operation: regul¨re Ausdr¨ cke a u • Komplement: a Wenn L regul¨r ist. Vereinigung mit DEA ¨ Produkt zweier Automaten“ (Ubung) ” Anwendungsbeispiel L = {x ∈ {0. z. x1 x2 x3 .. a • Durchschnitt: L1 ∩ L2 = L1 ∪ L2 • Durchschnitt. dann ist auch L = Σ∗ − L regul¨r. uv w) = δ(q0 .. 1}∗ | x enth¨lt gleich viele Einsen und Nullen} a L′ = L ∩ 0∗ 1∗ = {0n 1n |n ≥ 0} nicht regul¨r a nicht regul¨r a • Homomorphismus Definition: Ein Homomorphismus h zwischen Σ∗ und Γ∗ ist eine Abbildung h : Σ∗ → Γ∗ mit der Eigenschaft h(x. j ≥ 0} 1 2 ⊲ q0 · 2.: (a + b)(ab)∗ a∗ b∗ → b∗ a∗ (ba)∗ (a + b) a u Beispiel: k-te Buchstabe von rechts = 1 DEA ben¨tigt 2k Zust¨nde o a k-te Buchstabe von links = 1 DEA kommt mit k + 2 Zust¨nde aus. Durchschnitt.7. Substitution mit regul¨ren Sprachen.. a u Umkehrung....7 Abschlusseigenschaften regul¨rer Sprachen a Satz: Die regul¨ren Sprachen sind abgeschlossen gegen¨ ber Vereinigung. Komplement..¨ 2. y ∈ Σ∗ ) Ein Homomorphismus ist durch eine beliebige Abbildung h : Σ∗ → Γ∗ eindeutig gegeben (Σ∗ = Γ∗ ) ist nicht ausgeschlossen. F ) akzeptiert L A′ = (Q. B.xn ∀i ≥ 0: δ(q0 .xn ∈ L} 29 .: L1 .. ∗ Substution ist gegeben durch die Abbildung σ : Σ → 2Γ σ(L) = {y | y ∈ σ(x1 ) · σ(x2 )σ(x3 ).xn ) = h(x2 ) · h(x2 ) · . h.. Σδ. a Beweis: DEA A = (Q. Q − F ) akzeptiert L • Umkehrung (alle W¨rter von hinten nach vorne gelesen) o regul¨re Ausdr¨ cke Bsp. L2 ∈ L3 ⇒ L1 ∪ L2 ∈ L3 Beweise: • Vereinigung. q0 . Σ.

8 Zusammenfassung: regul¨re Sprachen a ¨ • DEA. REGULARE SPRACHEN UND ENDLICHE AUTOMATEN Beispiel: L = (01)∗ σ(0) = {a} σ(1) = {b. a ∈ Σ seien regul¨r ⇒ σ(L) regul¨r a a Spezialfall: |σ(a)| = 1. ababac. h(x)).. x) = δ(q. Γ. . ac. regul¨re Ausdr¨ cke: Erzeugen der W¨rter aus L a u o 30 . x ∈ Σ b 2.. F ) δ ′ (q.} = (a(b + c))∗ —— σ(0) = a σ(1) = ab∗ b σ(L) = {aabbbbbaabaabbbb. Σ. b 0 b 1 b b 0a 0 a neuer DEA A′ = (Q. NEA: Uberpr¨ fen ob x ∈ L u • NEA... ε. δ ′ . q0 . abacacab. 1 a a. c} σ(L) = {ababab. F ) 1 ⊲ 0.¨ KAPITEL 2.. . Ra regul¨rer Ausdruck f¨ r σ(a). δ. Homomorphismus. q0 .. a ∈ Σ a u a u Ersetze in R jedes Vorkommen eines Buchstaben a ∈ Σ durch Ra • inverse Homomorphismen h : Σ∗ → Γ∗ Homomorphismus Satz: (L ⊆ Γ∗ ) ∈ L3 ⇒ h−1 := {x ∈ Σ∗ | h(x) ∈ L} ∈ L3 Beispiel: h(a) = 0 h(b) = 10 abaab Beweis: DEA A = (Q.} = σ(a(ab∗ b))∗ = (aab∗ b)∗ Satz: L ⊆ Σ∗ regul¨r a σ(a). Beweis: requl¨re Ausdr¨ cke a u R: regul¨rer Ausdruck f¨ r L.

Z → U.. y) ∈ P. S → (S) S → S/S. v1 . . ∃u1 ....|9 B → B. Σ. ∗. arithmetische Ausd¨ cke: u • Zahlen und Variablen sind arithmetische Ausdr¨ cke u • wenn A und B arithmetische Ausdr¨ cke.. . U →9 Σ = {(.. V ′ → V ′ B.. /. A ∗ B.} V = {S.. U → 0. b. 0.. V ′ .. P ∈ V + × (V ∪ Σ)∗ • einem Startsymbol S ∈ V W¨rter aus (V ∪ Σ)∗ nennt man auch Satzformen. o u ∈ (V ∪ Σ)∗ . A − B. S. dann schreibt man u → v: ∃v0 . ⇒U → 0|1|. S → S − S. → vk = v eine Ableitung ∗ V + = V ∗ − {ε} Definition: Die von einer Grammatik G = (V. dann sind auch A + B. S → Z. −. Z → U. +.. → S + S. S → S ∗ S.3 Grammatiken 3.1 Definition von Grammatiken Beispiel: in Programmiersprachen. V ′ → V ′U B → c. ⇒B → a|b|c|. U → 1. dann schreibt man u → {ε} v ist aus u in einem Schritt ableitbar. . ).. B → a. 9. c. vk : u = v0 → v1 → v2 → .. S) beschriebene Spache L(G) ist L(G) = {x ∈ Σ∗ | S → x} ∗ 31 . wenn v aus u dadurch entsteht. (A) arithmetische u Ausdr¨ cke u S → V. A/B. Z. U.. u → v ⇔ ∃(x. dass man ein Vorkommen einer linken Seite (Pr¨misse) x einer a Regel (x. a.. . P. B} Beispiel: 5 + (13 ∗ 2) ∈ L(G) 3 ∗ (−4) ∈ L(G) / S → S + S → Z + S → U + S → 5 + S → 5 + (S) → 5 + (S ∗ S) → 5(S ∗ Z) → 5 + (Z ∗ Z) → 5 + (U Z ∗ Z) → 5 + (U U ∗ Z) → 5 + (1U ∗ U ) → 5 + (13 ∗ U ) → 5 + (13 ∗ 2) Definition: Eine Grammatik G besteht aus: • einer Menge V aus Variablensymbolen • einer Menge Σ aus Terminalsymbolen (Σ ∩ V = ∅) • einer Menge P von Ersetzungsregeln (Produktionen).... 1. B → b. u2 ∈ (Σ ∪ V )∗ : u = u1 xu2 ∧ v = u1 yu2 Wenn v aus u in k ≥ 0 Schritten abgeleitet werden kann. y) ∈ P durch die rechte Seite (Konklusion) ersetzt.. .

q0 . 3. GRAMMATIKEN 3. die Konklusionen der Regeln sind mindestest so lang wie die Pr¨missen.. Typ-1-Sprachen. #} ∪ Produktionen P : δ(q. |x| ≤ |y|} ∪ {(S... . a Beweis: ⇒“ G = (V.. Ist x ∈ L(G)? ” Algorithmus: Probiere alle Ableitungen der L¨nge k systematisch durch und pr¨ fe... Σ. b. b. 0) δ(q. a) = (q ′ .3 Typ-0-Sprachen (rekursiv aufz¨hlbare Sprachen) a Satz: Typ-0-Sprachen sind genau die rekursiv aufz¨hlbaren Sprachen. S. Γ.. die dem Bandalphabet entsprechen ∪{S} 32 . L2 . f¨ r k = 0. P ) sei gegeben. ⇐“ Gegeben TM M = (Q. y) | x ∈ V + .2 Die Chomsky-Hierarchie Nach Noam Chomsky (zeitgen¨ssischer Linguist) o • Typ-0-Grammatiken: beliebige Grammtiken • Typ-1-Grammatiken: monotone bzw.. y ∈ (Σ ∪ V \ {S})∗ . ← $kn−1 # ← $kn # ← .KAPITEL 3. F ) ” Idee: q0 x ⊢ k1 ⊢ k2 ⊢ . a) = (q ′ .. a • Typ-2-Grammatiken: kontextfreie Grammatiken P ⊆ V × (Σ ∪ V )∗ • Typ-3-Grammatiken: rechtslineare Grammatiken P ⊆ V × (ΣV ∪ {ε}) Beispiel: S → aT |bS T → +V T →ε Die beschriebenen Sprachen dieser Grammatiken entsprechen den regul¨ren Sprachen (es gibt auch linkslina eare Grammatiken) Entsprechend gibt es Typ-0-Sprachen.. Σ. b. kontext-sensitive Grammtiken P ⊆ {(x. ∀c ∈ Γ {Va | a ∈ Γ} neue Variablen.. a) = (q ′ . ⊢ k2 Simulation durch G: x ← $q0 x# ← . 2. δ. −1) ⇒ q ′ Vb → qVa ⇒ Vb q ′ → qVa ⇒ q ′ Vc Vb → Vc qVa .. L3 seien die Typ-0-Sprachen. ← S V = Q ∪ {$. L1 .... L0 . . ε)} D. B.. x ∈ L(G) (andernfalls kann er nicht terminieren). u Dieser Algorithmus akzeptiert gdw. 1. h... ob dabei x hera u auskommt.. x ∈ Σ∗ . . +1) δ(q. Typ-1-Sprachen. trivial L3 ⊂ L2 ⊂ L1 ⊂ L0 regul¨r = kontextfrei = kontextsensitiv = rekursiv aufz¨hlbar a a L= {0n 1n } L= {0n 1n 0n } Die Sprachen aus L1 sind entscheidbar 3.

3. L = {0n 1n |n ≥ 0} ist keine Typ-3-Sprache. NEA) A = (Q. S → $T # T → T Va |Va T. b} S → aT → abS → abbS → abbaT → abbabT → abbab ∈L(G) Beweis: ⇐“ Gegeben: DEA (bzw. a) = {q ′ | (q → aq ′ ) ∈ P } F = {q ∈ V | (q → ε) ∈ P } q0 = S Zust¨nde des Automaten entsprechen den Variablen der Grammatik. q0 . a)} ∪ {q → ε | q ∈ F } q′ ∈δ(q. T } Σ = {a. $.¨ 3. $VB → $. δ.a) S = q0 ⇒“ Gegeben: G = (V. TYP-3-SPRACHEN (REGULARE SPRACHEN) Anfangsregeln: Erzeuge eine beliebige Konfiguration mit einem akzeptierenden Zustand und gen¨ gend u vielen B-Symbolen rechts und links. P. ∀q ∈ F Endregeln: B-Symbole an den R¨ndern l¨schen. aber sie ist eine Typ-2-Sprache G: S → 0S1|ε S → 0S1 → 00S11 → 000S111 → 000111 33 . Σ. Vx → x. q ′ = δ(q. Σ. q0 l¨schen u o ¨ VB # → #. x∈Σ #→ε $q0 → ε Jede akzeptierende Berechnung f¨ r w ∈ Σ∗ kann in eine Ableitung von w transformiert werden. u Jede Ableitung eines Wortes x entspricht einer akzeptierenden Berechnung. F ) ” Gesucht: Typ-3-Grammatik f¨ r L(A) u G: V =Q Σ=Σ a q q′ q → aq ′ P = {q → aq ′ | q ∈ Q. Symbole Vx in Terminalsymbole x a o o uberf¨ hren. S) ” Gesucht: NEA A mit L(A) = L(G) A: Q=V Σ=Σ δ(q.4.4 Typ-3-Sprachen (regul¨re Sprachen) a Satz: Typ-3-Sprachen sind genau die regul¨ren Sprachen a Beispiel: S → aT |bS T → bT |bS|aS|ε V = {S. ∀a ∈ Γ T → q. # l¨schen. a Berechnungen des Automaten werden durch Ableitungen der Grammatik dargestellt und umgekehrt. a ∈ Σ.

Daher muss die Schleife irgendwann terminieren x ∈ L(G) ⇔ x ∈ M 34 . x ∈ Σ∗ Frage: x ∈ L(G) (auch bekannt als das Wortproblem) Wenn x = ε x ∈ L(G) ⇔ (S → ε) ∈ P Andernfalls k¨nnen in der Ableitung von x nur Satzformen auftreten. ABA C Kontext ∗ ∗ ∗ ∗ A Kontext → ABAA01DA Beispiel: Regel ABC → BAD wird ersetzt durch: neue Variablen X1 . U. z. a Ausnahme: S → ε ist erlaubt. s o l a n g e neue Elemente zu M dazugekommen s i n d . V1 } Σ = {0. GRAMMATIKEN 3. Gramatik. außer bei der Ableitung S → ε. y = ε} M kann folgendermaßen induktiv konstruiert werden: Beginne mit M := {S} Schleife : ∀y ∈ M : ∀z ∈ (V ∪ Σ∗ ): y → z. B.5 Typ-1-Sprachen (kontextsensitive Sprachen) Bei alle Regeln ist die Konklusion mindestens so lang wie die Pr¨misse. |x| ∗ |M | ≤ i=1 (|Σ| + |V |)i endlich. X3 . S → y. |z| ≤ |x| .KAPITEL 3.. o o M = {y ∈ (V ∪ Σ)∗ | |y| ≤ |x|. Folgerung: in einer Ableitung k¨nnen die Satzformen nicht schrumpfen.. S darf jedoch in keiner Konklusion vorkommen. W. Beispiel: V = {S. Beweis: G. V0 . .. X2 . M := M ∪ {z} w i e d e r h o l e . aber o diese Ableitung ist in einem Schritt zu Ende.. X1 X2 X3 → BX2 X3 BX2 X3 → BAX3 BAX3 → BAD ABC → X1 BC X1 BC → X1 X2 C X1 X2 C → X1 X2 X3 Satz: Typ-1Sprachen sind entscheidbar. T. die h¨chstend so lang wie x. dass immer nur eine einzelne Variable durch etwas Neues ersetzt wird. 1} S → ε|V0 T V1 V0 |010 T → V0 V1 U V0 → 0 U V1 → V1 U V1 → 1 ∗ U V0 → W V0 V0 |00 V1 W → W V1 V1 W → W V1 U 1 → 1U V0 W → V0 T U V1 → V1 U S → 0T 10 → 001U10 → 0011U0 → 0011W 00 → 00W 1100 → 00T 1100 → 000W 111000 → 00001111U000 → 000011110000 L(G) = {0n 1n 0n | n ≥ 0} Bemerkung: Man kann die Regeln einer kontextsensitiven Grammatik in die Form bringen.

” Gestern hat | es | geregnet. der oberhalb der x-Achse bleibt wird Dyck-Weg genannt. Subjekt (Im Deutschen kann das Pr¨dikat zerlegt werden ⇒ Analyse kann sehr schwer sein!) a 4. Satz Subjektgruppe Pr¨dikatgruppe a Nominalgruppe Verb Adverb Pr¨dikat a Artikel Hauptwort war“ ” gestern“ ” Adjektiv das“ Wetter“ regnerisch“ ” ” ” Bei einer kontextfreien Grammatik wird bei der Syntaxanalyse ein solcher Syntax-Baum“ aufgebaut.4 Kontextfreie Sprachen (Typ-2-Sprachen) 4.1 Tiefenstruktur von Sprachen Das Wetter war gestern regnerisch. 35 .2 Dyck-Sprache D1 S → SS | (S) | ε ∗ S → SS → (S)S → (SS)S → ((S)S)S → (()S)S → (()(S))S → (()())S → (()())((S)) → (()())(()) ∈ D1 ())(() ∈ D1 / Klammertiefe: Dyck-Weg ( ( ) ( ) ) ( ( ) ) Definition: Der Weg mit n Schritten nach oben ր und n Schritten nach unten ց.

KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) D2 ⇒ ([()()])[] ∈ D2 Dk . negative“ Dyck-W¨rter ) = a... a a b b S → SS | (S) | [S] | ε L = {x ∈ {a. (= b o ” 4. dessen L¨sungen unbekannte Sprachen sind o interpretieren VS = VS · VS ∪ {ε} ∪ a · Vp · b ∪ b · Vn · a VP = VP · VP ∪ a · VP · b ∪ {ε} VN = VN · VN ∪ b · VN · a ∪ {ε} VS .. b}∗ | x enth¨lt gleich viele as wie bs} a a b b b S → SS|ε|aP b|bN a P → P P |aP b|ε N → N N |bN a|ε a b a a a b P. VP . ” VS = {x ∈ Σ∗ | S → x} = L VP = {x ∈ Σ∗ | P → x} VN = {x ∈ Σ∗ | N → x} sind eine L¨sung des Gleichungssystems (nicht unbedingt eindeutig)... VN sind unbekannte“ Sprachen. o S S ( S ( S ε ) ( S ) S S ε ( ( ) S S S ε ) ) ∗ ∗ ∗ 36 .3 Kontextfreie Grammtiken als Gleichungssysteme Man kann eine kontextfreie Grammatik auch als Gleichungssystem.KAPITEL 4.. k verschiedene Klammerpaare. ) = b o ” N. positive“ Dyck-W¨rter (= a.

| . Bl¨tter sind Terminalsymbole.4. Linksableitung: Es wird immer die linkeste Variable ersetzt 2. a S S ( S ε ) ( S S ε ) ( S S S ε ) ∗ S S S ( S ε anders arithmetische Ausdr¨ cke (am Beispiel 3 − 5 + 5): u S S 3 + 4 5 ) ( S S ε ( ) S S ε ) ¨ ¨ ¨¨ ¨ . dargestelltes Wort wird durch die Folge a der Bl¨tter gegeben.... if B1 then (if B2 then )S1 else S2 if B1 then (if B2 then S1 else S2 ) Grammatik nicht eindeutig! 37 . Rechtsableitung: Es wird immer die rechteste Variable ersetzt 3.. kann auf drei a Arten aus der Welt geschafft werden: 1.4. wenn jedes Wort eine eindeutige Linksableitung / eine eideutige Rechtsableitung / einen eindeutigen Syntaxbaum hat.4 Eindeutigkeit Definition: Eine kontextfreie Sprache ist eindeutig.¨¨S 3 ¨ ¨¨ ¨ ¨ + 4 5 S 4. a ()()() kann durch 2 verschiedene Syntaxb¨ume / Linksableitungen / Rechtsableitungen dargestellt werden. Kinder einses Variablenknotens sind die Symbole auf der rechten Seite einer Regel in der passenden Reihenfolge. welche Variable be einer Ableitung als n¨chstes ersetzt wird. EINDEUTIGKEIT ∗ Rechtsableitung: S → SS → S(S) → S((S)) → S (()) → (S)(()) → (SS)(()) → (()())(()) entspricht der bottom-up-Syntaxanalyse Linksableitung: S → SS → (S)S → (SS)S → ((S)S)S → (()S)S → (()(S))S → (()())S → (()())((S)) → (()())(()) entspricht der top-down-Syntaxanalyse Die Beliebigkeit bei der Auswahl. Syntaxbaum: Wurzel = S. Beispiel: S → if B then S | if B then S else S | while .

a ¨quivalente Grammatik.. | andere Anweisungen.5 Chomsky-Normalform Definition: Eine kontextfreie Grammatik ist in Chomsky-Normalform (CNF).. die noch auf else“ wartet. A → b. die eindeutig ist. bedingte Anweisung. die eine Variable u u aus M auf der rechten Seite enth¨lt. Elimination von Terminalsymbolen auf der rechten Seite: • F¨ hre f¨ r jedes a ∈ Σ eine neue Variable Va ein. S → V( SV) V( → ( V) →) 2. B.. erstelle eine neue Regel.. f¨ r die es keine eindeutige Grammatik gibt: u {0i 1j 01k | i = j ∨ j = k} = {0n 1n }0∗ ∪ 0∗ {1n 0n } 0n 1n 0n sind in beiden Teilsprachen“ enthalten..KAPITEL 4. u Beispiel: S → (S)... u u • Ersetze a durch Va auf allen rechten Seiten • F¨ ge Regeln Va → a hinzu. A → BSV1 V1 → AV2 V2 → AS 3. f¨ r die A → ε. Satz: Zu jeder kontextfreien Grammatik G gibt es eine Grammatik G′ in CNF mit L(G′ ) = L(G) − {ε} 1. aber S darf nie auf der rechten Seite einer Regel vorkommen. A. C ∈ V A ∈ V. KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) A. b ∈ Σ Ausnahme: Die Regel S → ε ist erlaubt. Elimination von ε-Regeln ∗ Konstruiere die Menge M aller Variablen A ∈ V . inklusive einer bedingten Anweisung mit else-Klausel. Zerlegung von Regeln mit mehr als 2 Variablen auf der rechten Seite • Einf¨ hren von zus¨tzlichen Zwischenvariablen in mehreren Schritten u a Beispiel: A → BAAS.. bbeliebige Anweisung. ” Solche Sprachen heißen inh¨rent mehrdeutig. A → BC... wenn jede Regel lediglich folgende Gestalt haben: 1. ” T.. 38 . 2. S → S + S|S − S|Z S → Z|S + Z|S − Z Es gibt Sprachen. in der ein Vorkommen dieser Variablen a gestrichen wird. F¨ r jede Regel. die abgeschlossen ist S → A|T A → if B then S | if B then T else A T → if B then T else T | while .. a (mehrdeutig) (eindeutig) 4.

A} f¨ r u U →VW | V | W | ε V →W | VV | ε | V A→U | VV | ε | V (B → AU BV | ABV | AU B | AB | BV | U B | B) ↓ ↓ ε ε U →VW U →W ∗ • M wird initialisiert mit den Variablen A f¨ r die es eine Regel A → ε gibt. u X → Y Z: Eventuell wird Y oder Z in der Ableitung zu ε gemacht.. In diesem Fall enth¨lt die a neue Grammatik eine Regel X ′ → Y ′ oder X ′ → Z ′ .4. u • Erstelle f¨ r jede Variable A aus M eine neue Variable A′ ... wo das bereits ber¨ cksichtigt ist. . u ∗ • Durch das Aufstellen neuer verk¨ rzter Regeln k¨nnen neue Regeln der Form A → ε entstehen.. Falls S ∈ M ist. X → x f¨ r alle X ∈ VA . nur die ε-Regel wird gestrichen. u o • Die entsprechende Variablen werden dann zu M hinzugef¨ gt.. A→B→C→A→B→B→C→A→B→C →D (U V A U U → U V BU U → . → U V DU U ) B→V A AB a 39 . Beispiel: Angenommen f¨ r alle Regeln K → L ergeben folgenden Zusammenhang: u ∗ A B D C E In einer Ableitung kann eine Kette von Anwendungen derartiger REgeln vorkommen. u F¨ r die n¨chsten Ableitungsschritte geht man genauso vor. außer f¨ r S.. • Die Regeln f¨ r A’ sind dieselben wie f¨ r A. f¨ ge u u u u daf¨ r die Regeln S → ε. . u u Am Beispiel: U → V ′W ′ | V ′ | W ′ | ε U ′ → V ′W ′ | V ′ | W ′ V → W ′ | V ′V ′ | V ′ | ε V ′ → W ′ | V ′V ′ | V ′ .5. u a Lasse die Regeln f¨ r die urspr¨ nglichen Variablen A ∈ M weg. CHOMSKY-NORMALFORM Beispiel: M := {V. • Erstelle neue Regeln X → BC bzw. u • Auf der rechten Seite aller Regeln wird wird jede diese Variablen A durch A′ ersetzt. Elimination von K → L • F¨ r jede Regel der Form A → BC. Behauptung: F¨ r alle A ∈ M gilt u LA′ = LA − {ε} ∗ (LX = {s ∈ Σ∗ | X → s}) ∗ Begr¨ndung: X → S. u • Anschließend entferne alle Regeln der Form A → B. S → S ′ ein u 4. A → x ∈ Σ berechne die Variablenmenge u VA = {X ∈ V | X → A}. U. S = ε Betrachte die rechte Seite der ersten Regel dieser Ableitung..

nach L¨nge j − i + 1 der Teilkette si . S} V12 = {S} V22 = {P } V23 = ∅ V33 = {M } oder 40 .. B → AB.sn s ∈ L(G) ⇔ s ∈ V1n Berechne Mengen Vij induktiv. von denen aus A erreichbar ist. B. D. +} S → 0 | SP P → MS | + M → 0 | 1 | PP Ist das Wort s = 0 + 1 + 0 = s1 s2 s3 s4 s5 in der Sprache L(G)? i..sn ∈ Σ∗ .. Younger) wird zur L¨sung des Wortproblems f¨ r kontextfreie o u Sprachen in CNF angewandt. j 1 2 3 4 5 1 M.. C → AB. Folgerung: Typ-2-Sprachen sind Typ-1-Sprachen.. V12 = {S} V13 = ∅ oder k = 2 k=1 oder k = 2 oder V11 = {M. C.. (D → AB).j } vorher berechnet Beispiele: Gegeben sei folgende Grammatik in CNF: Σ = {0. Teilprobleme s1 s2 ..KAPITEL 4.. S ⇒ 0 + 1 + 0 ist nicht in der Sprache L(G). 1.sj .. E → AB Die Menge VA k¨nnen durch umgekehrte Graphensuche bestimmt werden: Suche alle Variablen o X.. a A → BC.. KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) D → AB VD = {A. si .sj Vii = {X | (X → si ) ∈ P } Vij = {X | ∃(X → BC) ∈ P.sj ... E} A → AB. S} V11 = {M. S 2 S P 3 − − M 4 − − − P 5 − − − − M. → si si+1 ... ∃k: i ≤ k ≤ j: B ∈ Vik ∧ C ∈ Vk+1..6 Algorithus von CYK“ ” Der CYK-Algorithmus (Cocke.. Grund: CNF-Grammatik erf¨ llt die Forderungen von Typ-1-Grammatiken u 4..sk |sk+1 . Kasami.sj } (1 ≤ i ≤ j ≤ n). Ist s ∈ L(G) ∗ Vij := {X ∈ V | X → si si+1 . (basiert auf dem Prinzip dynamischer Programmierung) Eingabe: s = s1 s2 ...

⇒ O(n3 ) o 4..} beliebig viele Wiederholungen (auch 0) des Inhalts [.... Der Inhalt kann auch weggelassen werden.. Argument } ::= | { } [ ] Metasymbole {.j } Laufzeit: Es m¨ ssen h¨chstens n2 Mengen Vij berechnet werden.7. 41 .4. S 0 i < j: Vij = k=i.. Jede Berechnung ist eine Schleife uber u o ¨ h¨chstens n Werte k. S 0 2 S P + 3 S M P + 4 S − M P + 5 S M P − M.j−1 P M P + S 0 {X | ∃(X → BC) ∈ P : B ∈ Vik ∧ C ∈ Vk+1.i+1..] Optional.. j 1 2 3 4 5 1 M.7 (Erweiterte) Backus-Naur-Form (E)BNF Beispiel: (hypothetische) Grammatik eines Ausschnitts einer Programmiersprache arithmetischer Ausdruck ::= Term { Additionsoperator Term } ↑ Variable der Grammatik → Additonsoperator ::= Terminalsymbol oder“ Terminalsymbol ” + | − Term ::= Faktor { Multiplikationsoperator Faktor } Multiplikationsoperator ::= ∗ | / Faktor ::= Zahl | Variable | ( Arithmetischer Ausdruck | Funltionsaufruf ) Funktionsaufruf ::= Name () | Name ( Argumentliste ) Argumentliste ::= Argument {. (ERWEITERTE) BACKUS-NAUR-FORM (E)BNF S S S 0 P + P + s=0+++0 i.

aus dem ein Terminalsymbol entsteht. ≤ h Variablenknoten enth¨lt. a ¨ z 2 .8 Pumping-Lemma f¨r kontextfreie Sprachen u F¨ r jede kontextfreie Sprache L gibt es eine Schranke n0 ∈ N.. KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) ¨ { } [ ] m¨ ssen bei der Ubersetzung in eine kontextfreie Grammatik aufgel¨st werden. z. mindestens ein Block ¨ndert seine L¨nge nicht.mindestens ein Block ¨ndert seine L¨nge. durch Einf¨ hren von u o u neuen Variablen und zus¨tzlichen Regeln. 0n0 enthalten. G in CNF Ein Ableitungsbaum f¨ r x mit |x| = n hat n − 1 innere Knoten A mit je zwei Kindern. a {abc} ↔ (abc)∗ [abc] ↔ (abc + ε) als regul¨rer Ausdruck a |↔+ 4.KAPITEL 4. o yz i uv i w. dann |x| ≤ 2h−1 a v 1 2 3 4 X a X 0 X X S X X X 1 b X c 42 . a a a a ⇒yz i uv i w ∈ L f¨ r i = 1 / u ⇒ L ist nicht kontextfrei Beweis: Sei L(G).. w ∈ Σ∗ : x = yzuvw ∈ L ∧ (∀i ≥ 0)yz i uv i w ∈ L ∧ z.. a Also ist z und v jeweils in einem der drei Bl¨cke 0n0 .. v. u. 1n0 .enth¨lt mehr Uberg¨nge zwischen 0 und 1 als z a a 2 2 ¨ ⇒yz uv w enth¨lt mehr als 2 Uberg¨nge a a ⇒yz 2 uv 2 w ∈ L / Fall 2: v enth¨lt 0 und 1 analog. v = ε z Beispiel: L = {0n 1n | n ∈ N} Annahme: L sein kontextfrei ⇒ n0 x = 0n0 1n0 0n0 = yzuvw Fall 1: z enth¨lt sowohl 0 als auch 1. u ∀x ∈ L: |x| ≥ n0 ∃y. . u Der Ableitungsbaum ist ein bin¨rer Baum a Wenn jeder Weg von der Wurzel zu einem Knoten. z 3 .

L1 . ABSCHLUSSEIGENSCHAFTEN KONTEXTFREIER SPRACHEN Wenn |x| > 2h−2 . dann w¨re sie auch abgeschlossen u a a bez¨ glich ∩ u Das Komplement von {0n 1n 0n } ist kontextsensitiv. dann gibt es einen Weg von der Wurzel. L1 ∩ L2 = L1 ∪ L2 (de-Morgan) Wenn kontextfreie Sprachen abgeschlossen bez¨ glich Komplement w¨ren. L2 . ·. . n ∈ N}. ∗ u u Kontextfreie Sprachen sind nicht abgeschlossen bez¨ glich ∩ und Komplement Beweis: L1 = {0n 1n 0m | m.. L1 = {0n 1m 0m | m. L3 seien die Typ-0-Sprachen.9 Abschlusseigenschaften kontextfreier Sprachen Satz: Kontextfreie Sprachen sind abgeschlossen bez¨ glich ∪. S n := 2|V |−1 + 1 funktioniert T1 Die beiden Teilb¨ume. Typ-1-Sprachen.4. L3 ⊂ L2 ⊂ L1 ⊂ L0 regul¨r = kontextfrei = kontextsensitiv = rekursiv aufz¨hlbar a a L= {0n 1n } L= {0n 1n 0n } ⊂ entscheidbare Sprachen Halteproblem 4. n ∈ N} L1 ∩ L2 = {0n 1n 0n | b ∈ N} nicht kontextfrei. der h Variablenknoten enth¨lt a h := |V | + 1 → Dieser Weg muss eine Variable A mehrfach enthalten.. die unter diesen beiden a Knoten h¨ngen heißen T1 und T2 a T2 ⊂ T1 A T2 A y z u v w ∗ S → yAw T1 : A → zAv T2 : A → u ∗ ∗ (zv = ε) S → yAw→yzAvw → yzuvw beliebig oft wiederholen S → yAw → yuw (= yz 0 uv 0 w) (i=0) ∗ ∗ ∗ ∗ ∗ S → yAw → yzAvw → yzzAvvw → yz i Av i w → yz i uv i w (i≥1) ∗ ∗ ∗ ∗ ∗ Folgerung: Die Chomsky-Hierarchie ist echt: L0 . 43 .9.

Variablen in M = V − M sind uberfl¨ ssig aus dem zweiten Grund. bis keine neuen Varaiblen mehr in M aufgenommen werden. bis M3 sich stabilisiert. den nur das erste Variablensymbol wird durch etwas anderes ersetzt. • • • • Initialisiere M2 := {S} Wenn es eine Regel A → BC mit A ∈ M2 gibt. Anderung nur am Anfang. Definition: Eine Variable heißt ¨ berfl¨ ssig. u ¨ • Entferne die Variablen in M und alle Reglen. a Beispiel: A → AB (einzige Regel f¨ r A) u • Menge M : Initialisiere M := {A ∈ V | (A → x) ∈ P } • Wenn ses eine Regel A → BC mit B.11 Kellerautomaten Typ-0-Sprachen (Typ-1-Sprachen Typ-2-Sprachen Typ-3-Sprachen Linksableitung: S → ABC → bAABC → bbAAABC → bbAABC → bb B BSBC ⇐⇒ ∼ ⇐⇒ ⇐⇒ Turingmaschinen Turingmaschinen mit linearem Platzbedarf) Kellerautomaten endliche Automaten Terminalsymbole des endg¨ ltigen Wortes u aktuelle Variable zuk¨ nftige Variablen“ u ” ¨ D. h. C ∈ M gibt. ¨ S →¨ AC (A ∈ M ) M2 := Menge der Variablen. KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) 4. C}.KAPITEL 4. dann setze M2 = M2 ∪ {B. Das Ergebnis ist eine Grammatik ohne Uberfl¨ ssige Variablen. ¨ Streiche Variablen in V − M2 . Ubung 11) Wir nehmen an. Aus der Variable l¨sst sich kein Terminalwert erzeugen. 44 . von S nicht ereichbar. u 4. die von S aus erreichbar sind. S → AB → ABA → . die M enthalten aus der Grammatik. dann setzte M := M ∪ {A}.. Wiederhole.. wenn sie in keiner Ableitung eines Wortes ∈ Σ∗ vorkommt. u u 2 Gr¨nde: 1.10 Entscheidungsprobleme kontextfreier Sprachen Seien G1 . G2 kontextfreie Grammatiken • • • • • • • • L(G1 ) = 0? L(G1 ) = 0? Ist L(G1 ) regul¨r? a L(G1 ) = Σ∗ ? L(G1 ) = L(G2 )? L(G1 ) ⊆ L(G2 )? L(G1 ) ∩ L(G2 ) = ∅? L(G1 ) = ∅? entscheidbar entscheidbar unentscheidbar unentscheidbar unentscheidbar unentscheidbar unentscheidbar (ohne Beweis) (ohne Beweis) (ohne Beweis) ¨ (s. • Wiederhole. dass G1 in CNF vorliegt. u 2.

. ε. 1) = {q1 . noch nicht gelesener Teil des Eingabewortes und • z ∈ Γ∗ . w2 ... augenblicklicher Zustand.. ε. z) ∈ δ(q.. 1. Z0 ){q1 . Definition: Eine Konfiguration eines Kellerautomaten ist ein Tripel (q. z) ∈ δ(q. 0. die mit leerem Keller akzeptieren. Z0 } δ(q1 . 0. Z0 ) (b) ⊢ (q2 .wn .wn . 0Z0 ) ⊢ (q1 . 1) = {(q1 . Z0 ) = {(q1 . Z0 ) = {(q0 . . b) solche. ε. 0)} δ(q0 . as obere Kellersymbol γ ist. a. o Es gibt zwei Arten von Kellerautomaten: a) solche.. 0. 0) = {(q1 . 1. 10. γ) bedeutet: Wenn der PDA im Zustand q ist. die durch eine Menge F ⊆ Q von akzeptierenden Zust¨nden akzeptieren a Beispiel: L = {w#wR | w ∈ {0. z1 . #. 0Z0 ) ⊢ (q0 ...wn . 1. zz2 . 01#10. 1.. #10. 1)} δ(q0 . w1 . 10Z0 ) ⊢ (q1 ... 0. w1 w2 . • w1 . 10)} δ(q0 . nichts liest. ε.wn ∈ Σ∗ . q2 } mit F = {q2 } δ(q0 . Z0 ) = {(q0 . 1Z0 )} δ(q0 .wn .. z) ∈ δ(q.zk ) ⊢ (q ′ . Z0 ){q2 . 1) = {(q0 . ε. 0) = {q1 . 1#10. ε} a)δ(q1 . 0. w1 w2 . usw.zk ) ⊢ . z1 ). 1}} Σ = {0.. w1 ∈ Σ falls (q ′ . 1. Z0 ) Nachfolgerelation ⊢ f¨ r Konfiguration u (q.. PDA) hat • • • • • • ein Eingabealphabet Σ eine Zustandsmenge Q ein Kelleralphabet Γ ein Bodensymbol Z0 ∈ Γ einen Anfangszustand q0 ∈ Q ∗ ¨ eine Ubergangsrelation δ: Q × (Σ ∪ {ε}) × Γ → 2Q×Γ (q ′ . ε} a)δ(q1 . w1 . KELLERAUTOMATEN Definition: Ein (nichtdeterministischer) Kellerautomat (Push-down automaton. 1) = ∅ . z1 ) 45 . 1) = {(q0 . q1 } b) Q = {q0 ... z) mit • q ∈ Q. q1 . ε.. 10Z0 ) ⊢ (q1 . transitive reflexive H¨ lle von ⊢ u ∗ falls (q ′ ... 00)} δ(q0 .wm ... ε) (q0 . ε} δ(q1 . 11)} δ(q0 . Z0 )} δ(q1 .. 01)} δ(q0 . 0) = {(q0 ... 1. zz2 .4. #} Γ = {0. 0. z1 .zk ) (q. 0Z0 )} δ(q0 .11. Z0 ) ⊢ (q0 . falls a = ε ist).zk ) ⊢ (q ′ . #. dann kann er in den Zustand q ′ wechseln und die Spitze des Kellers durch z ersetzen (z = ε: Das oberste Symbol γ wird gel¨scht). .... Inhalt des Stapels (Spitze ist links. Z0} a) Q = {q0 . und er den Buchstaben a liest (bzw. #. w1 .) Beispiel: (a) ⊢ (q1 . 0) = {(q0 ..

q ′ ∈ Q} b) L(M ) = {x ∈ Σ∗ : (q0 .. B1 . 0Z0) ⊢ (q1 . x. Z0 ) ⊢ (q ′ . S) ⊢ (q0 . dass M ′ nicht nur deshalb akzeptiert..Bk ) ∈ δ(q0 . γ ∈ Γ. q0 ..) wie oben. Γ = V. a ¨ ′ ′ • M f¨ gt ein zus¨tzliches Kellersymbol Z0 als unterstes ein. Z0 ) = {(q0 . Beweis: ⇒“ Seien M = (Q. q ′ ∈ F. 0110. ABC) ⊢ (q0 . ε. uvuv.. F = {qF }) ein PDA. Z0 Z0 )} ′ δ ′ (q. ε. ε. Z0 = S. δ. und ” ′ ′ ′ ′ ′ M = (Q ∪ {qF . A) := {(q0 . 10. 110. 0Z0) ⊢ (q0 . u ∈ Σ Der Kellerautomat kann nun genau die Linksableitung der Grammatik nachbilden. BC) ⊢ (q0 . die nach (a) und nach (b) akzeptieren. u u F¨ r jede Regel A → u ∈ Σ f¨ ge (q0 . δ ′ . 1}) δ(q0 . ohne die Eingabe gelesen wird.. Σ. vuv.Bk ) | (A → B1 . 10. V = Q × Γ × Q ∪ {S} Variablen haben die Form (q. ε)} ∗ ∗ ¨ • Alle Uberg¨nge von δ werden ubernommen. 1} Γ = {0. S → ABC → uBC → uAAC → uAC → uvC → uvBC → uvuC → uvuv (q0 . a ∈ Σ: |δ(q. ε). der mit leerm Keller akzeptiert.) o D... die von Kellerautomaten akzeptiert werden.KAPITEL 4. δ) ein PDA. u u δ(q0 . w. Σ. ε. 10Z0) ⊢ (q1 . ε) | (A → u) ∈ P }. B1 . Z0 ) ⊢ (q ′ . q0 . u. ε.. γ)| + |δ(q. unser obiges Beispiel ist eigentlich ein DPDA Beispiel: L2 = {wwR | w ∈ {0. γ) = {(q1 . γ) wie oben (w ∈ {0.Bk f¨ ge (q0 . Σ. ε) ∈ δ(q0 . Z0} δ(q0 . 1. der nach b) akzeptiert ′ ′ ′ δ ′ (q0 . Γ ∪ {Z0 }. Satz: Die kontextfreien Sprachen sind genau die Sprachen. ⇐“ Gegeben: Kellerautomat. 1}∗} Σ = {0. Z0} u δ(q1 . 1. F¨ r jede Regel A → B1 B2 . ¨ • Das zus¨tzliche Kellersymbol stellt sicher.weiter wie bisher ⊢ (q0 . Automat akzeptiert mit leerem Keller.. der nach b) akzeptiert ” neuer Automat M ′ : • f¨ gt ein zus¨tzliches unterestes Kellersymbol ein. Γ. weil M den a Keller leert. (q0 . 0Z0 ) STOP. a ” Gesucht: Grammatik G. A) ein. Σ. akzeptieren dieselbe Klasse von Sprachen.. KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) Die vom PDA M akzeptierte Sprache ist: a) L(M ) = {x ∈ Σ∗ : (q0 . F ) sei ein Automat. u a ⇐“ M = (Q. ε. γ)| ≤ 1 (Dann gibt es zu jeder Konfiguration h¨chstens eine Nachfolgekonfiguration. q ′ ) Tripelkonstruktion“ ” 46 . Z0 ) = {(qF . . Z0) ⊢ (q0 . Z0 . ǫ. {q0 }.Bk ∈ V ∗ ) ∈ P } δ(q0 . ε. u. vuv. A) := {(q0 . die Grammatik ist in CNF. 110.. 0110.. wo der Keller geleert wird. 110. Z. Wenn M in einem akzeptierenden Zustand u a ubergehen. akzeptiert durch F ⊆ Q von akzeptierenden Zust¨nden. Z0) ⊢ (q0 . Γ. q0 }. z). 10Z0) ⊢ .. z ∈ Γ∗ } Definition: Ein PDA ist ein deterministischer Kellerautomat (DPDA) wenn: ∀q ∈ Q. a. Z0 . uvuv. x.. A) ein. Z0 . Beweis: ⇒“ ” • • • Wir nehmen an. Satz: Die PDAs. h. q0 . γ)} f¨ r γ ∈ {0. AAC) ⊢ .

0)} (q0 . z) = {(q0 . q3 )(q3 . 1}∗ } Q = {q0 . 0Z0) ⊢ (q1 . Z0 . 110. Z0 . q ′ ) → a Behauptung: (q. q1 ) −→ (q0 . x ∈ {x ∈ {0. q ). sobald Zi als oberstes Startsymbol erscheint. 0. Z0 . ε. z ′ ) ∈ δ(q.4. q ) f¨ r alle q ∈ Q ¯ u ¯ Aus der Behauptung folgt: L(G) = L(M ) q ¯ q q w ∈ L(G) ⇔ S w⇔ ∃¯: (q0 . 0)} (q1 . ∗ ∗ ∗ ∀q1 . z) u (q. q1 )(q1 . 1. was unter Z auf dem Stapel ist. q1 ) → 011(q1 . Z0 ) ⊢ (¯. Z.. q3 . 10Z0) ⊢ (q1 . z0 ) = {(q1 .. 0) = {(q1 . KELLERAUTOMATEN ∗ Idee: S → w1 w2 . 0. q1 ) → 01(q1 . Z0 . 0. q1 )(q1 . ε. z) mit |z ′ | ≥ 1. ε. Z0 . q1 )(q1 . z2 . z)} δ(q1 . Z0 . ε) ∈ δ(q.Zl ) ∗ (die ersten k Symbole sind gelesen. ε. z0} δ(q0 . q) → a(q ′ . xz)}. 0. q0 ) (q0 . z.. q ¯ (a ∈ Σ ∪ {ε}) (1) (2) (3) 47 .. q1 )(q1 . q1 ) (2) am Beispiel δ(q0 . q2 ). Zl . q1 )(q1 . q0 ) −→ (q0 .11. q1 ) → 0(q0 . q1 } δ(q0 . nach der L¨nge der Rechnung. 0. q1 ) → 0110 Annahme: Automat akzeptiert durch leeren Keller Startregeln: S → (q0 . x. 0. 0.. 1. ε.. 0. ε) S → (q0 . q1 )(q1 . ε) ⇔ w ∈ L(M ) ∗ ∗ Beh. 1}.. x) = {(q1 . wk+1 . w. ε. ¯ F¨ r alle (q ′ . ε)}. Z2 . q1 )(q1 . w1 . ql−1 . 0110. Z0 . q1 )(q1 . 1. q2 . . 0..wn . q1 ) → 1 (q0 . 10. 0. Z) ⊢ (q ′ . z) = {(q1 . q1 ) → 0110(q1 . q0 )(q0 .wk (q1 . q0 ) → 0(q0 . 0.. der in der weiteren Rechnung angenommen wird. q0 ) → 0(q0 . a a Beispiel: L = {wwT | w ∈ {0. z. ε. Z0 . Z1 Z2 .(ql−1 . q ) → w ⇐⇒ ∃¯: (q0 . q2 )(q2 . 10Z0) ⊢ (q1 . Z ′ = z1 z2 . . zl . x. x ∈ {0. q1 ) (3) am Beispiel δ(q0 .. q1 )(q1 . Regeln: F¨ r alle (q ′ . 10. 0. q4 ). 1. Z0 . Z0 . ε)} Also werden die folgenden Produktionen gebildet (1) am Beispiel δ(q0 .. Z0 . Z0 ) = {(q0 . q0 ) (q0 .zl u ¯ (q. Z1 . werden geraten. q1 ) → 0(q0 . q0 ) → (q1 . ε) Der Automat hat w gelesen und sieht das erste Mal.. Z0 ) ⊢ (q1 . a.. z ∈ {0. 0) = {(q1 .. 0. ql+1 ) das soll folgende Rechnung widerspiegeln (q0 .wn .. 0Z0 )} (q0 .. Z0 .(ql . Z0 ... a. q1 ) → 01(q0 . Z0) ⊢ (q0 . Z0 . ε. 0. Z0 . Z3 . 0Z0) ⊢ (q0 . Beweis durch Induktion nach der L¨nge der Ableitung bzw.) • qi>1 ist der Zustand. 1}} δ(q1 . q ′ ) → w ∈ Σ∗ ⇔ (q.. w. Z0 ) ⊢ (q1 . q1 ) → (q1 . Z0 . q0 )(q0 . • q2 . z1 . q1 ) → 0(q0 .

u • PDA: M mit Q = Q1 × Q2 δ((q1 . q2 ). z ′ ) ∈ δ1 (q1 . a. Beispiele: • {0n #1n | n ∈ N} ist deterministisch kontextfrei • {w#wR | w ∈ Σ∗ } ist deterministisch kontextfrei • {wwR | w ∈ {0.14 Deterministische Zweiwege-Kellerautomaten ⇐⇒ K1 K2 K1 K2 Kellerautomaten mit zwei Kellern. q2 ). b). %w1 w2 . a ∈ Σ ∪ {%. Z)} δ((q1 .12 Abschlusseigenschaften kontextfreier Sprachen gegen¨ber regul¨ren u a Sprachen Satz: Die kontextfreien Sprachen sind abgeschlossen gegen¨ ber dem Durchschnitt mit regul¨ren Sprachen. a.. Z) := {((q ′ .wn $ Lesekopf Ausgangskonfiguration 48 . q0 ) a∈Σ 4. δ2 (q2 . z ′ ) : (q ′ .Zk . a Deterministische Zweiwege-Kellerautomaten k¨nnen auf dem Eingabeband beliebig nach links uder nach rechts o fahren.. ε.. sind genauso m¨chtig wie Turingmaschinen. Z1 Z2 . der durch akzeptierende Zust¨nde akzeptiert. KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) 4. A2 sei ein u a DEA f¨ r L2 . b ∈ {0. z ′ : (q ′ . ε. z ′ ) ∈ δ1 (q1 . a)). aber nicht unter Umkehrung. Z))} q0 = F = F1 × F2 Produkt der Automaten: Der neue Kellerautomat M simuliert M1 und A2 gleichzeitig: ” L(M )) = L(M1 ) ∩ L(A2 ) 1 2 (q0 . +1. $}.: M1 sei ein PDA f¨ r die kontextfreie Sprache L1 . 1}∗} ist kontextfrei.KAPITEL 4.. 4. aber nicht deterministisch kontextfrei Bemerkung: Deterministisch kontextfreie Sprachen sind abgeschlossen unter Komplement. q2 ). die von einem deterministischen Kellerautomaten mit einer akzeptierenden Zustandsmenge akzeptriert werden. a.13 Deterministische kontextfreie Sprachen Definition: Eine deterministische kontextfreie Sprache ist eine Sprache. u a Bew. δ(q. Z) := {((q ′ . z) = (q ′ . −1}: Bewegung des Kopfes Die Eingabe ist durch % und $ auf dem Eingabeband begrenzt.

memorization) Laufzeit: O(n) Jeder Eintrag von ENT wird h¨chstens einmal berechnet. in Zustand q ′ und an Position j e n t ( q. wi . . i) = (q ′ . i ] := f a l s e return ( q ’ . Z) j := i + b for l := 1. L¨sche u u o erstes Symbol des Stapels und gehe zu (A). v ∈ (Σ0 )∗ } % x # $ .. wo das darunterliegende Stapelsymbol sichtbar wird.wn $ 0 1 ↑ ↑ . . k (q ′ . Z. ⇒ Kellerautomat terminiert nicht. j) := e n t ( q ′ . i ] i n A r b e i t [ q. Die Technik heißt Tabellieren (engl. i ) i f i n A r b e i t [ q. von rechts nach links • Fahre zur ersten Position von x . und das oberste Stapelsymbol Z ist. Z. 2.. Satz: Jede Sprache. Z. o Problem: Bei rekursiven Aufrufen kann die Laufzeit ∞ sein. die von enem deterministischen Zweiwege-Kellerautomaten akzeptiert wird.. Z.. i ] = 0 then return ENT[ q. j) q.14. Z1 . j ) Idee: Speichere die Werte der Entladefunktion in einem Feld ENT[q. DETERMINISTISCHE ZWEIWEGE-KELLERAUTOMATEN 4. o • Wenn # gelesen wird → Teilwort vorhanden → akzeptiere • Bei einem Konflikt fahre zur¨ ck zum Anfang und f¨ lle den Stapel mit den Symbolen von x auf. i) gestartet werden. W¨hrend ent(q..4. z. q ′ ∈ Q. ⇒ Algorithmus terminiert nicht. i ] then STOP . dann ist er zu dem Zeitpunkt.Zk . kann ein rekura siver Aufruf mit denselben Parametern (q...14. Der Stapel wird dabei immer weiter wachsen oder konstant bleiben. Zl . ↑ n+1 ent(q. u. die Symbole werden vom Stapel gel¨scht. j ≤ n + 1 Wenn der Automat im Zustand q an Position i ist. Z. kann in linearer Zeit von einer Registermaschine (RAM) entschieden werden. (q ′ . Z. b) := δ(q. Z ∈ Γ. z. 0 ≤ i. Z. i ] := true . i ] := (q. j ) ENT[ q. • Kopiere y auf den Stapel. Z. weil sich die Konfiguration (q..1 Teilwortproblem Eingabe: x#y Frage: Kommt das Muster x im Text y vor? L = {x#uxv | x. • (A) Vergleiche die Symbole von x mit dem Sybol auf dem Stapel. // Wort wir d n i c h t a k z e p t i e r t 49 . i) aufgerufen ist. i f ENT[ q. j) i n A r b e i t [ q. z.. Folgerung: Teilwortproblem ist in linearer Zeit l¨sbar.. i] der Gr¨ße O(n) sobald sie berechnet o wurden (Initialisiere zu 0). Z. i) unendlich oft wiederholt. o Beweis: Entladefunktion Eingabe: %w1 . .

dass der Kellerautomat.KAPITEL 4. j) mit q ′ ∈ F 50 . KONTEXTFREIE SPRACHEN (TYP-2-SPRACHEN) Durch ein Boolsches Feld inArbeit[q. wenn er ein Wort akzeptieren will. Wort wird akzeptiert ⇐⇒ ent(q0 . Wir k¨nnen annehmen. z. z0 . i] (am Anfang false) wird endlose Rekursion vermieden. 1) = (q ′ . in einen akzeptierenden o Zustand geht und dann der Keller leert.

Sign up to vote on this title
UsefulNot useful