1

Faszinierende Welt der Verschlüsselung – Prinzipien der Informationsverarbeitung
Ein Streifzug durch Methoden, Erkenntnisse und Anwendungen aus der Zahlentheorie, Quantenphysik, Genetik und Gehirnforschung

Vorwort

Wie können aus der Vielzahl von Wissensthemen, die heutzutage in den umfangreichen naturwissenschaftlichen Forschungsgebieten vorliegen, Parallelen und Schnittpunkte gefunden werden, die sich in zwei Kernthemen zusammenfassen lassen? Dieser Grundgedanke hat mich dazu bewogen, dieses Buch zu schreiben, indem ich Ihnen grundlegende Informationskonzepte aus den Bereichen Mathematik, Physik und Biologie näher bringen möchte. Obwohl ich mir schon lange vorgenommen hatte, ein Buch aus diesem Themenbereich zu schreiben, ist mir die Idee einer interdisziplinären Darstellung von Informationsverarbeitung und Verschlüsselungsprinzipien erst vor Kurzem beim Selbststudium der Zahlentheorie, einem Teilgebiet der Mathematik, gekommen. Mein Fokus beim Studium der Zahlentheorie lag dabei auf dem Gebiet der Faktorisierungsverfahren, die ich Ihnen später noch näher erläutern werde. Bei meinen weiteren Recherchen stieß ich auf das weitläufige Feld der Verschlüsselungskunst, die mich auf den Gedanken brachte, ein Buch über die ineinander greifenden Themen der Zahlentheorie und Verschlüsselungsverfahren zu verfassen.

2

Damit gab ich mich aber nicht zufrieden. Auf Grund meiner theoretischen Erfahrung in der Physik – ich absolvierte im Jahr 1997 das Studium der technischen Physik in Wien – und meinen starken naturwissenschaftlichen Ambitionen war es mir ein Anliegen, noch weitere Themen aus den Gebieten Physik und Biologie in diesem Buch aufzunehmen, die sich meiner Meinung nach sehr gut mit allen anderen Bereichen decken. Daher war es nahe liegend, den Inhalt um die Quantenphysik im Kontext von Verschlüsselungsprinzipien zu ergänzen. Da auch in diesem Forschungszweig neue Entwicklungen im Gange sind, die auf der Idee eines perfekten Verschlüsselungssystems beruhen, werde ich auf eine sehr junge Fachrichtung – die Quantenkryptografie – und ihr Umfeld noch näher eingehen. Neben der Darstellung der Grundkonzepte in der Quantenmechanik werden Sie mehr über Quantencomputer und -teleportation sowie einen äußerst schnellen Faktorisierungsalgorithmus, der auf quantenmechanischen Prinzipien basiert, erfahren. Nachdem bei den bisher genannten Themen der Grundgedanke in der Verschlüsselung von Informationen liegt, lässt sich damit im weiteren Sinne auch die Verschlüsselung der Erbinformation in der menschlichen DNA verbinden, deren Aufbau ebenso auf bestimmten Verschlüsselungsmechanismen beruht. Aus dieser Überlegung heraus traf ich die Entscheidung, dem Thema Genetik ein eigenes Kapitel zu widmen, das neben den Grundlagen auch die Entschlüsselung der menschlichen Erbinformation und die neue Forschungsrichtung mit dem Namen DNA-Computing enthält. Zu guter Letzt wählte ich das Thema Gehirnforschung und eine Anwendung davon – die künstliche Intelligenz –, die sich meiner Meinung nach sehr gut im Kontext der Prinzipien der Informationsverarbeitung in der Natur eingliedern lassen. Gemeinsam mit der Abhandlung aus den Bereichen Mathematik und Physik und den beiden Beispielen der Genetik und Gehirnforschung aus der Biologie entstand der Titel meines Buches, dessen Inhalt auf die zentralen Themen Verschlüsselung und Prinzipien der Informationsverarbeitung sowie auf ihre Anwendungen abzielt. Der Inhalt wurde von mir so gestaltet, dass er sich in zwei große Themenschwerpunkte aufteilt – einerseits werde ich Ihnen die wichtigsten mathematischen und physikalischen Konzepte, Methoden und Verfahren zur Ver- und Entschlüsselung von Informationen aus den Bereichen der Zahlentheorie und Quantenphysik erläutern, andererseits grundlegende Prinzipien der Informationsverarbeitung und deren Anwendungen aus den Forschungsgebieten der Genetik und Gehirnforschung vorstellen. Jedes Kapitel beinhaltet neben den Kernthemen einen historischen Überblick über die Entwicklung der einzelnen Teilgebiete. Dieses Buch richtet sich daher an alle Leser, die sich bereits mit Themen Zahlentheorie, Quantenphysik, Genetik oder Gehirnforschung beschäftigt haben oder sich 3

damit befassen möchten. Der Inhalt dieses Werkes ist nicht nur für Fachleute ausgelegt, sondern richtet sich auch an alle Laien, die an dem einen oder anderen Thema Interesse finden. Im ersten Kapitel meines Buches möchte ich dem Leser einen Überblick über das weitläufige Gebiet der Zahlentheorie vermitteln. Aus diesem Grund ist dieses Kapitel der Geschichte der Zahlentheorie gewidmet, in dem die wichtigsten Vertreter, die entscheidend zur Entdeckung bedeutender mathematischer Sätze und Konzepte beigetragen haben, vorgestellt werden. Auf Grund der Vielzahl einflussreicher Persönlichkeiten habe ich mich fast ausschließlich auf jene beschränkt, die mit ihren mathematischen Erkenntnissen zum Grundverständnis für die nachfolgenden Kapitel beitragen sollen. Neben dem Streifzug durch die Anfänge der Mathematik werde ich Ihnen das Leben und Wirken folgender herausragender Zahlentheoretiker erläutern: aus der Antike: Pythagoras, Euklid und Diophant; aus der Renaissance und Neuzeit: Pierre de Fermat; aus der Aufklärung: Euler, Gauß und Riemann. Am Ende meiner Ausführungen werden noch einige zahlentheoretische Fragestellungen im Zusammenhang mit der Darstellung von Primzahlen diskutiert. Im zweiten Kapitel werde ich, aufbauend auf der Darstellung der grundlegenden zahlentheoretischen Fragestellungen aus Kapitel 1, auf einige der bedeutendsten und wichtigsten Faktorisierungsmethoden von heute und früher eingehen. Faktorisierungsmethoden dienen, wie Sie sehen werden, der Zerlegung einer natürlichen, zusammengesetzten Zahl in ihre Primfaktoren und ihr Laufzeitverhalten ist von entscheidender Bedeutung, wenn es um die Fragestellung der sicheren Verschlüsselung von Nachrichten geht. Bei dem sehr bekannten und weit verbreitenden RSAVerschlüsselungsverfahren ist das schwierig zu lösende Problem der Primfaktorisierung großer natürlicher Zahlen die Basis, um verschlüsselte Botschaften vor den Attacken eines unbefugten Angreifers zu schützen. Aus diesem Grund ist es von immenser Wichtigkeit, wie schnell und effizient Faktorisierungsmethoden dieses Problem lösen können. Neben der Geschichte der Faktorisierungsverfahren mit den wichtigsten Meilensteinen werde ich Ihnen folgende Faktorisierungsalgorithmen präsentieren: Probedivision, Faktorisierungsverfahren nach Fermat, quadratisches Sieb, ein Algorithmus aus eigener Idee, Pollard-p-1-Methode und Pollard-Rho-Methode. Im Kontext des jeweiligen Algorithmus habe ich Ihnen jedes Mal ein Rechenbeispiel angeführt, um den mathematischen Sachverhalt besser zu veranschaulichen. Ebenso wird das Laufzeitverhalten, das als maßgebende Kenngröße für den Einsatz von bestimmten Kryptosystemen verantwortlich ist, analysiert.

4

Wie bereits erwähnt, bauen moderne Verschlüsselungsverfahren ihre Sicherheit auf schwer zu lösenden zahlentheoretischen Problemstellungen auf. Aus diesem Grund ist Kapitel 3 der Geschichte und Kunst der Verschlüsselung gewidmet. Verschlüsselungsverfahren sind heutzutage ein typisches Anwendungsgebiet der Zahlentheorie geworden. Nachdem die Zahlentheorie lange Zeit nur als theoretisches Gebäude galt, hielt sie erst in jüngster Zeit Einzug in die Welt der Verschlüsselungstechniken. Daher möchte ich Ihnen in diesem Kapitel einerseits den geschichtlichen Hintergrund in der Kunst der Verschlüsselung von der Antike bis ins Internetzeitalter vorstellen und andererseits einige ältere und neuere Verschlüsselungsverfahren aus dem Repertoire der symmetrischen, asymmetrischen und hybriden Verschlüsselungstechniken näher bringen. Unter anderem können Sie sich mit den alten Verschlüsselungsmethoden, wie z. B. der Caesar-Chiffrierung und den heute gängigen Public-Key-Verfahren, wie beispielsweise dem RSA-Verfahren, vertraut machen. Da heutzutage sichere Public-Key-Verfahren häufig auf große Primzahlen zurückgreifen, werde ich Ihnen im Abschnitt Primzahlen Methoden erläutern, wie man die Primalität einer Zahl prüfen kann. Auch in diesem Kapitel werde ich die vorgestellten mathematischen Methoden durch Beispiele unterlegen. Im letzten Abschnitt habe ich einen Ausflug in die Welt der Biologie gewagt und dem Paarungsverhalten von Zikaden einen eigenen Abschnitt gewidmet, da die Länge des Zyklus der Vermehrung von Zikaden in der Natur mit ganz bestimmten Primzahlen verknüpft ist. Um das kryptografische Gesamtbild mit einem neuen Mosaikstein zu komplettieren, folgt in Kapitel 4 und 5 eine Einführung in die physikalischen Phänomene der Quantentheorie mit dem Ziel, die Quanteninformatik und ihre Systeme zu durchleuchten. Neben den grundlegenden Konzepten werde ich Ihnen die Begriffe Verschränkung und Kohärenz erklären sowie den jüngsten Erkenntnisstand im Bereich des Quantencomputing, der Quantenkryptografie effizienten und der Quantenteleportation kennen lernen, darlegen. der Im Abschnitt den Vorteil zum des Faktorisierungsalgorithmus von Peter Shor werden Sie außerdem einen sehr eleganten und Faktorisierungsalgorithmus sich Quantenparallelismus eines quantenmechanischen Vielteilchensystems zu Nutze macht, um das zahlentheoretische Problem der Primfaktorisierung einer natürlichen Zahl theoretisch zu lösen. Nach der Behandlung der mathematisch-physikalischen Themenbereiche möchte ich Sie im zweiten Teil meines Buches in die Welt der Genetik und Gehirnforschung entführen. Kapitel 6 behandelt das Thema der Genetik und lässt sich grob in folgende zentrale Bereiche unterteilen: Grundlagen der Genetik, Genexpression, Entschlüsselung des menschlichen Genoms, Biometrie und DNA-Computer. Mein Ziel wird es hierbei sein, neben einer 5

grundlegenden Darstellung über den Aufbau des menschlichen Genoms und der Freisetzung der menschlichen Erbinformation im Zellkern bis hin zur Proteinsynthese ein Verfahren zu erläutern – die so genannte Polymerasekettenreaktion –, das es ermöglicht hat, das menschliche Genom im Zuge des Human Genom Project zu entschlüsseln. Ein Anwendungsgebiet der Genetik wird im Rahmen biometrischer Verfahren erläutert – der genetische Fingerabdruck, der in der Kriminalistik häufig bei der Erstellung eines Täterprofils zum Einsatz kommt. Abschließend werde ich Ihnen ein zukunftsweisendes Experiment von Leonard M. Adleman vorstellen, der es auf molekularer Ebene mit Hilfe von DNA-Molekülen zu Stande gebracht hat, das Handelsreisendenproblem mit einer bestimmten Ausgangskonfiguration zu lösen. Eine revolutionäre Art der Berechnung, um ein Optimierungsproblem zu lösen. In Kapitel 7 folgen ein kurzer Überblick über den Aufbau des Gehirns sowie eine Einführung in dessen Informationsverarbeitung. Hierbei werden Neuronen, Dendriten, Axone und Synapsen eine zentrale Rolle in der Informationsstrukturierung, -speicherung und -übertragung spielen. Der Abschnitt künstliche Intelligenz – ein Anwendungsgebiet in der Gehirnforschung – steht für eine Reihe von Versuchen des Menschen, die komplexe und mannigfaltige Strukturierung des Gehirns der Natur zu kopieren und auf künstliche Systeme zu übertragen. Jedoch scheint mir diese relativ junge Fachrichtung noch weit von dem Vorhaben der Realisierung eines künstlichen Systems, das vergleichbar mit der Funktionsweise des Gehirns ist, entfernt zu sein. Im letzten Abschnitt möchte ich einerseits auf die Sicherheit von Verschlüsselungssystemen und ihre Angriffspunkte eingehen und Ihnen andererseits eine kurze Zusammenfassung und einen Ausblick über die junge Forschungsrichtung der Quanteninformatik und DNA-Computing geben sowie die Unterschiede und Gemeinsamkeiten in der Informationsverarbeitung von Computer und Gehirn herausarbeiten. Schlussendlich werden wir der Frage nachgehen, ob das Gehirn genetisch bestimmt ist. Ich hoffe, es ist mir gelungen, Ihnen eine anschauliche Darstellung der einzelnen Bereiche zu geben.

6

Inhaltsverzeichnis
1. GESCHICHTE DER ZAHLENTHEORIE........................................................................9
1.1 MATHEMATIK DER ANTIKE......................................................................................................................................9 1.2 PYTHAGORAS, EUKLID UND DIOPHANT....................................................................................................................12 1.3 MATHEMATIK DER RENAISSANCE UND NEUZEIT – PIERRE DE FERMAT.........................................................................26 1.4 MATHEMATIK DER AUFKLÄRUNG – EULER, GAUSS UND RIEMANN..............................................................................29 1.5 UND NOCH MEHR INTERESSANTE ZAHLENTHEORETISCHE FRAGESTELLUNGEN...................................................................33

2. FAKTORISIERUNGSMETHODEN – GESCHICHTE UND METHODEN..............38
2.1 GESCHICHTE DER FAKTORISIERUNGSVERFAHREN........................................................................................................38 2.2 SIEB DES ERATOSTHENES UND PROBEDIVISION..........................................................................................................40 2.3 FAKTORISIERUNGSVERFAHREN NACH FERMAT............................................................................................................44 2.4 QUADRATISCHES SIEB ..........................................................................................................................................49 2.5 EIN ALGORITHMUS AUS EIGENER IDEE.....................................................................................................................57 2.6 POLLARD-P-1-METHODE.......................................................................................................................................60 2.7 POLLARD-RHO-METHODE......................................................................................................................................62

3. GESCHICHTE UND KUNST DER VERSCHLÜSSELUNG........................................67
3.1 GESCHICHTE DER VERSCHLÜSSELUNG VON DER ANTIKE BIS INS INTERNETZEITALTER......................................................67 3.2 PRIMZAHLEN........................................................................................................................................................75 3.2.1 ALLGEMEINES ZU PRIMZAHLEN............................................................................................................................76 3.2.2 PROBEDIVISION..................................................................................................................................................77 3.2.3 FERMAT-TEST...................................................................................................................................................79 3.2.4 PRIMZAHLEN EINMAL ANDERS – NATURPHÄNOMEN ZIKADEN...................................................................................82 3.3 VERSCHLÜSSELUNGSVERFAHREN..............................................................................................................................84 3.3.1 KLASSISCHE BEISPIELE SYMMETRISCHER VERSCHLÜSSELUNGSVERFAHREN..................................................................87 3.3.2 CAESAR-CHIFFRIERUNG .....................................................................................................................................87 3.3.3 VIGENÈRE-VERSCHLÜSSELUNG............................................................................................................................88 3.3.4 ONE-TIME-PAD-VERFAHREN..............................................................................................................................90 3.4 DAS RSA-VERFAHREN.........................................................................................................................................90 3.4.1 SCHLÜSSELERZEUGUNG.......................................................................................................................................91 3.4.2 VERSCHLÜSSELUNG – ENTSCHLÜSSELUNG.............................................................................................................93 3.5 PRETTY GOOD PRIVACY – EIN HYBRIDES VERSCHLÜSSELUNGSVERFAHREN....................................................................95 3.6 ..........................................................................................................................................................................96 AUSBLICK IN DIE ZUKUNFT..........................................................................................................................................96

4. GRUNDLEGENDE KONZEPTE DER QUANTENTHEORIE....................................98
4.1 VERSCHRÄNKUNG UND KOHÄRENZ........................................................................................................................103 4.1.1 VERSCHRÄNKUNG............................................................................................................................................103 4.1.2 EINSTEIN-PODOLSKY-ROSEN-PARADOXON..........................................................................................................105 4.1.3 KOHÄRENZ.....................................................................................................................................................107

5. QUANTENINFORMATIK..............................................................................................110
5.1 GRUNDLAGEN DER QUANTENINFORMATION.............................................................................................................111 5.1.1 QUANTENCOMPUTER.........................................................................................................................................111 5.1.2 FAKTORISIERUNGSALGORITHMUS VON PETER SHOR...............................................................................................114 5.2 QUANTENKRYPTOGRAFIE......................................................................................................................................117 5.3 QUANTENTELEPORTATION.....................................................................................................................................120

6. GENETISCHE VERSCHLÜSSELUNG........................................................................123
6.1 GRUNDLAGEN DER GENETIK.................................................................................................................................123 6.1.1 TRANSKRIPTION...............................................................................................................................................127 6.1.2 PROTEINBAUSTEINE AUS DER ERBINFORMATION....................................................................................................130 6.1.3 TRANSLATION.................................................................................................................................................131 6.2 ENTSCHLÜSSELUNGSMETHODIK ZUR ENTSCHLÜSSELUNG DES MENSCHLICHEN GENOMS ..................................................134

7

6.3 BIOMETRIE – NEUE TECHNOLOGIE DER AUTHENTIFIZIERUNG.....................................................................................140 6.3.1 HÄUFIGE BIOMETRISCHE ERKENNUNGSVERFAHREN ...............................................................................................144 6.3.2 GESICHTSERKENNUNG.......................................................................................................................................144 6.3.3 IRIS-SCAN......................................................................................................................................................144 6.3.4 FINGERABDRUCK..............................................................................................................................................145 6.3.5 GENETISCHER FINGERABDRUCK.........................................................................................................................146 6.4 DNA-COMPUTER..............................................................................................................................................147

7. GEHIRN – WUNDERWERK DER NATUR.................................................................152
7.1 AUFBAU DES GEHIRNS........................................................................................................................................153 7.2 INFORMATIONSVERARBEITUNG IM GEHIRN ..............................................................................................................156 7.3 KÜNSTLICHE INTELLIGENZ – KI...........................................................................................................................165 7.4 GRUNDLAGEN UND ANWENDUNG NEURONALER NETZE.............................................................................................166

8. RESÜMEE, DISKUSSION UND AUSSICHT...............................................................170

8

1. Geschichte der Zahlentheorie

Um auf die Frage, wo und wann die Geschichte der Mathematik begann, eine Antwort zu finden, müssen wir 5000 Jahre in der Geschichte der Menschheit zurückgehen. Es war ein langer und schöpferischer Akt von der antiken bis zur heutigen modernen Mathematik. Ursprünglich aus einer eher praktischen Notwendigkeit entstanden und später zu jenem theoretischen Forschungsgebiet avanciert, wie wir die Mathematik heute in ihrer extremen Vielfalt vorfinden. Die Wissenschaft der Mathematik zerfällt heute in viele unterschiedliche Teilgebiete, wie z. B. in das der Analysis, Geometrie, Wahrscheinlichkeitsrechnung und der Zahlentheorie. Es ist keinem noch so begnadeten Wissenschaftler heute mehr möglich, den gesamten mathematischen Forschungsstand zu überblicken, jedoch fand so mancher Zeitgeist seine Berufung in der Zahlentheorie, die Carl Friedrich Gauß als „Königin der Mathematik“ bezeichnete. Sie hat – wie alle mathematischen Teildisziplinen – ihren Ursprung in der antiken Welt und erfreut sich heutzutage einer ungebrochenen Beliebtheit. Um auf den Pfaden jener Menschen durch alle Epochen von der Antike bis heute zu wandeln, werde ich versuchen, Ihnen das Leben und mathematische Wirken der kreativsten Köpfe, die entscheidenden Einfluss auf das zahlentheoretische Gebäude nahmen, näher zu bringen. Um eine bessere Vorstellung von den zahlentheoretischen Erkenntnissen der einzelnen Epochen zu bekommen, werde ich für den mathematisch interessierten Leser die wichtigsten Sätze und Herleitungen anführen, möchte aber darauf aufmerksam machen, dass dieses Kapitel eher als Übersicht über die geschichtlichen Hintergründe gedacht ist und keineswegs eine mathematische Einführung in die Zahlentheorie darstellen soll. Jedoch werden wir bestimmte Sätze und Beweise, die hier vorgestellt werden, für spätere Diskussionen noch einmal brauchen. Ich möchte nun mit Ihnen gemeinsam einen Streifzug durch die verschiedenen Epochen der Geschichte der Zahlentheorie machen. Wir werden hierfür die wichtigsten Daten und Meilensteine von der Antike bis zur Zeit der Aufklärung kennen lernen.

1.1 Mathematik der Antike
9

Die Anfänge mathematischen Denkens beginnen in Babylon um etwa 3000 vor Christus. Mit der Entwicklung komplexerer Gesellschaftsformen entstand auch das Bedürfnis einer Systematisierung der Abläufe in sozialer und wirtschaftlicher Hinsicht. Archäologische Funde aus dieser Zeit zeugen bereits von der Fähigkeit der Menschen, zu zählen und zu messen. Die wichtigsten und reichhaltigsten Quellen sind uns in Form von Tontafeln erhalten, die zum Zählen des Viehbestandes und des Lohnes dienten. Die Bestandsaufnahme erfolgte mit Hilfe kleiner Hölzer, die vorne abgespitzt waren und auf den Tontafeln festgehalten wurden. Wie in allen Stromkulturlandschaften beschäftigten sich die Babylonier überwiegend mit der Geometrie – die daraus entstandenen geometrischen Formeln wurden beim Entwurf ihrer Baupläne für Häuser und Bauwerke berücksichtigt. Aus den Bedürfnissen der Feldvermesser und Kaufleute entwickelten sich Formeln für die Berechnung von Flächeninhalten und der Zinsesrechnung, der ersten finanzmathematischen Anwendung. Die Babylonier waren die Ersten, die ein vollständiges Zahlensystem verwendeten. Sie rechneten im Sexagesialsystem, einem Zahlensystem zur Basis 60 – auf dieses geht die Einteilung der Stunde in 60 Minuten und der Minute in 60 Sekunden zurück. Neben der Erfindung eines Algorithmus für die Berechnung der Quadratwurzel konnten sie bereits einfache Gleichungssysteme lösen. Die Mathematik entstand in dieser Zeit aus eher praktischem Nutzen und entwickelte sich erst später zu einer eigenen Wissenschaft; das Fundament dafür wurde aber schon in dieser Zeit gelegt. Nicht so viele und reichhaltige Quellen sind aus der Zeit der Ägypter um etwa 2900 vor Christus erhalten. Aber wie bei den Babyloniern kamen die meisten Formeln beim Planen ihrer Bauwerke zu Stande. Ihre epochalen Bauwerke, die Pyramiden, sind uns bis heute noch erhalten und zeugen von ihrer meisterhaften Baukunst. Die wichtigsten Überlieferungen über die mathematischen Fähigkeiten der Ägypter sind aus den Papyrusrollen „Rhind“ und „Moskau“ sowie aus der so genannten „Mathematischen Lederrolle“ erhalten. Trotz des geringen Materials konnten die Fachwissenschaftler einiges über das damalige Wissen der Ägypter herausfinden. In einer Aufgabe des mathematischen Papyrus „Rhind“ wird eine Methode zur Kreisberechnung beschrieben. Daraus geht hervor, dass die Ägypter den Flächeninhalt eines Kreises mit einem Wert von 3,1605 für die Zahl Pi bestimmten – einer marginalen Abweichung von 0,6 % des heute bekannten Wertes. Erstaunlicherweise kannten die Ägypter bereits einen Lösungsweg für die Berechnung der Fläche einer Halbkugel; die Berechnungsmethode zu dieser Aufgabe wurde in der Papyrusrolle „Moskau“ entdeckt. In der 10

Geometrie war ihnen bereits die Berechnung für die Flächen von Dreieck, Rechteck und Trapez, und in der Algebra das Lösen von Gleichungen mit einer Variablen bekannt. Der Ursprung der Mathematik als Wissenschaft beginnt in der klassischen Antike etwa 600 vor Christus mit Pythagoras von Samos. Mit dem Beginn der griechischen Philosophie entsteht die eigentliche Mathematik, wie wir sie heute kennen, in der allgemein gültige mathematische Sätze ausgesprochen und bewiesen werden. Überlieferungen zufolge stammt der Ausspruch „Alles ist Zahl“ von Pythagoras, in dem die Vorstellung zum Ausdruck kam, die ganze Wirklichkeit durch mathematische Formeln beschreiben zu können. Mit Pythagoras entstand die Methodik der Beweistechnik, mit der er den Nachweis der Irrationalität der Wurzel aus der Zahl 2 führte. Es handelte sich hierbei um einen sehr brisanten Beweis, der einer strengen Geheimhaltung unterzogen wurde, da er der pythagoräischen Grundannahme „Alles ist Zahl“ aus damaliger Sicht widersprach. Platons Ideenlehre, die sich in seinem berühmten Höhlengleichnis widerspiegelt, hatte damals einen prägenden Einfluss auf die Philosophie der Mathematik und deckte sich sehr gut mit den abstrakten Objekten dieser. Mit seinem Höhlengleichnis wollte Platon seine objektividealistischen Grundgedanken verdeutlichen, in denen die Welt, in der die Menschen leben, nur ein unvollkommenes Abbild, ein Schatten der wahren Welt der Ideen ist. Wichtige zeitgenössische Vertreter der griechischen Mathematik sind auch Thales von Milet, auf den der Satz von Thales zurückgeht, und Euklid von Alexandria, der als Erster ein mathematisches Lehrbuch mit dem Titel „Elemente“ schrieb. Dieses Buch beinhaltet fast das gesamte mathematische Wissen der damaligen Zeit. Diophant von Alexandria, der sich mit ganzzahligen Lösungen für algebraische Gleichungen mit mehreren Unbekannten beschäftigte, lässt sich in die Spätzeit der klassischen Antike, etwa bis 300 n. Chr., einordnen. Um eine bessere Vorstellung davon zu bekommen, wie der Stand des Wissens der damaligen Zeit war, möchte ich auf die zeitgenössischen Vertreter Pythagoras, Euklid und Diophant sowie auf ihre mathematischen Ergüsse etwas näher eingehen. Der Zugang erfolgt nicht nur aus einem rein geschichtlichen Aspekt, sondern ist auch als Aufbau für die späteren Betrachtungen im Hinblick auf zahlentheoretische Probleme gedacht. Nach einem Überblick über die Geschichte der Mathematik respektive der Zahlentheorie werden wir uns eingehender mit zahlentheoretischen Problemen unserer Zeit beschäftigen. Wir werden dabei auf das Problem der Primfaktorisierung großer natürlicher Zahlen stoßen und uns hierfür mit den unterschiedlichsten Lösungstechniken vertraut machen. Dabei werden wir eine Verbindung zwischen dem rein theoretischen Ansatz und der praktischen Relevanz herstellen.

11

Die Zahlentheorie galt lange Zeit nur als theoretisches Gebäude, ist aber inzwischen ein fixer Bestandteil der Wirtschaftswelt geworden. Eine weit verbreitete Anwendung liegt in der Welt der Verschlüsselungsverfahren, in der man sich ein mathematisch schwer zu knackendes Problem zu Nutze macht, um die Sicherheit unseres weltweit elektronisch vernetzten Globus zu gewähren. Verschlüsselung ist heutzutage ein Stichwort, das nicht mehr wegzudenken ist – ob es sich nun um das Versenden von geheim zu haltenden Nachrichten oder um den bargeldlosen Zahlungsverkehr geht. Umso wichtiger ist es natürlich auch – egal, ob in privaten oder unternehmerischen Belangen –, jeden Einzelnen vor den Angriffen von Computerhackern zu schützen. Interessanterweise liefert hier gerade die Zahlentheorie, das Lieblingskind von Gauß, den entscheidenden Beitrag. Da Primzahlen in der Mathematik schon immer als geheimnisvolle Objekte galten, werden wir uns eingehender mit diesen beschäftigen. Ich werde Ihnen dazu einige Techniken für die Primzahlensuche vorstellen. Primzahlen stehen, wie bereits erwähnt, eng im Zusammenhang mit der Verschlüsselung von Informationen; um allerdings ein sicheres Verfahren zu finden, sind Primzahlen mit besonderer Charakteristik notwendig. Mehr werden wir dazu im Kontext der Primzahlentests erfahren. In bestimmten Abschnitten werde ich meine eigenen Überlegungen einfließen lassen, so z. B. in Form von selbst codierten C-Programmen.

1.2 Pythagoras, Euklid und Diophant

Von Zahlen ging schon immer eine magische Anziehung aus – sie aber in ihrer Klarheit und Schönheit zu erfassen, davon konnten nur jene leidenschaftlichen Zahlenkünstler träumen, die einen Blick in die scheinbar undurchdringlichen Tiefen der Zahlenlogik wagten. Untrennbar sind damit jene Köpfe bis spät in die Antike verbunden, die ich Ihnen in den nächsten Abschnitten mit ihrer gesamten mathematischen Tragweite vorstellen werde. Einer der wichtigsten Vertreter seiner Zeit war der gelehrte griechische Philosoph und Mathematiker Pythagoras von Samos, der etwa um 570–500 vor Christus lebte und als Begründer der pythagoräischen Lehre gilt. Im Mittelpunkt seiner Lehre standen kurze Sprüche, so genannte „Akusmata“, die als rätselhafte oder symbolhafte Antworten auf seine Zentralfragen „Was ist?“, „Was ist am meisten?“ und „Was soll man tun und lassen?“ galten. 12

Einige seiner Antworten wirken heute auf uns etwas unverständlich und bizarr. Neben seiner Hauptlehre verband Pythagoras und seine Anhänger der Glaube an eine unsterbliche Seele und eine damit verbundene Seelenwanderung und Wiedergeburt. Eng im Zusammenhang mit der religiösen Weltanschauung stand ein gut sittlicher Lebensstil, der sich darin manifestierte, keine Tiere zu essen oder gar zu töten und den Umgang mit Menschen so zu gestalten, dass Freunde nicht zu Feinden, aber Feinde zu Freunden wurden. In seiner religiös behafteten Weltanschauung befasste sich Pythagoras ebenso mit Zahlen und deren Geheimnissen. Er sah in den Zahlen nicht nur mathematische Größen, sondern auch Symbole. Ein Akusma spricht für die Kraft und Bedeutung der Grundzahlen von 1 bis 10 in seiner Zahlenlehre: „Was ist das Weiseste?“ – „Die Zahl.“ Darin drückt sich das Bedürfnis der pythagoräischen Lehre aus, die Zahl als Baustein und Geheimnis der Welt zu sehen. Dass Pythagoras nicht nur etwas Geheimnisvolles in Zahlen sah, sondern auch eine rationale Sicht auf die Welt der Zahlen hatte, lässt sich an einem bedeutenden Lehrsatz der Mathematik erkennen. Die Rede ist hier vom Satz des Pythagoras, der theoretische Ausdruck der von babylonischen und ägyptischen Baumeistern und Priestern entwickelten praktischen Kunst, bei Abmessungen von Feldern und Bauten mit Hilfe von Seilen präzise rechte Winkel zu erzeugen. Schon eine kleine Abweichung vom rechten Winkel führte bei den Bauwerken zu katastrophalen Ergebnissen; insbesondere bei großen Konstruktionen wie den Pyramiden konnten sich die Ingenieure nicht die geringste Abweichung erlauben. Der Satz des Pythagoras stellt einen Zusammenhang zwischen den Katheten und der Hypotenuse eines rechtwinkeligen Dreiecks her und ist so manchen Lesern sicherlich noch aus ihrer Schulzeit bekannt. Überlieferungen zufolge geht dieser Satz nicht auf Pythagoras selbst zurück, sondern war den babylonischen und indischen Mathematikern bereits lange davor bekannt. Die Bezeichnung geht auf Euklid zurück, der in seinem berühmtesten Werk mit dem Titel Elemente diesen Satz Pythagoras zuschrieb. Pythagoras entdeckte diesen elementaren Satz wieder und führte ihn in seiner Epoche zu neuem Bekanntheitsgrad. Mathematisch betrachtet kann der Satz des Pythagoras auf folgende Weise beschrieben werden: Bezeichnen a und b die Längen der Katheten und c die Länge der Hypotenuse eines rechtwinkeligen Dreiecks, so gilt:

a² + b² = c² – Satz des Pythagoras
13

In genaueren Worten lässt sich der Satz folgendermaßen formulieren: Im rechtwinkeligen Dreieck ist das Quadrat über der Hypotenuse gleich der Summe der Quadrate über den beiden Katheten. Natürliche Zahlen a, b und c, die diese Gleichung erfüllen, bezeichnet man ebenfalls als pythagoräische Zahlen oder genauer als pythagoräisches Tripel. Um ein besseres Verständnis davon zu bekommen, was dieser Satz aussagen möchte, wollen wir uns ein Beispiel genauer ansehen. Betrachten wir die Zahlen 3, 4 und 5, wobei wir a = 3, b = 4 und c = 5 setzen. Werden nun die Zahlen a = 3, b = 4 und c = 5 in die obige Gleichung eingesetzt, so resultiert daraus folgende Darstellung: 3² + 4² = 5² oder 9 + 16 = 25. Damit haben wir drei natürliche Zahlen (3, 4, 5) gefunden, die den pythagoräischen Lehrsatz erfüllen. Daher werden solche Zahlen auch pythagoräisches Zahlentripel genannt. Der interessierte Leser möge sich davon überzeugen, dass folgende Zahlentripel ebenfalls eine Lösung dieser Gleichung darstellen: (5, 12, 13), (8, 15, 17) und (7, 24, 25). Es gibt für diesen Satz über 400 existierende verschiedene Beweisführungen. Einen sehr anschaulichen Beweis möchte ich Ihnen hier kurz demonstrieren. Ein äußeres Quadrat beinhaltet ein kleineres Quadrat und dieses innere Quadrat berührt mit seinen Eckpunkten die Linien des äußeren Quadrats. Die Eckpunkte des inneren Quadrats teilen die Seitenlängen des äußeren Quadrats in zwei Abschnitte a und b.

Abbildung 1 14

Nun gibt es zwei Varianten, die Fläche des äußeren Quadrats zu berechnen: 1) Inhalt der Fläche des äußeren Quadrats: Fläche = (a + b)2 2) Inhalt der Fläche des inneren Quadrats + 4-mal die Fläche der eingeschlossenen Dreiecke: Fläche = c2 + 4 * ½ ab Setzen wir die Fläche aus Ansatz 1 gleich der Fläche aus Ansatz 2, so können wir schreiben:

(a + b)2 = c2 + 4 * ½ ab

1.1

Nach dem binomischen Lehrsatz lässt sich der Klammerausdruck in (a + b)2 = a2 + 2 ab + b2 auflösen. Daraus folgt, wenn wir in die Gleichung 1.1 einsetzen:

a2 + 2 ab + b2 = c2 + 2 ab

1.2

Subtrahieren wir in Gleichung 1.2 auf beiden Seiten 2 ab, so erhalten wir als Ergebnis den Satz von Pythagoras.

a² + b² = c²

1.3

Dies ist doch eine elegante und kurze Beweisführung, finden Sie nicht auch? Die Keilschrifttafel Plimpton 322, die um 1600 v. Chr. in Babylon entstanden ist, enthält bereits eine Liste von 15 pythagoräischen Zahlentripeln. Bestimmte pythagoräische Zahlentripel werden auch babylonische Zahlentripel genannt, da ihr Aufbau in bestimmter Weise mit dem Zahlensystem der Babylonier verknüpft ist. In Babylon wurde damals die Basis 60 für mathematische Berechnungen herangezogen. Brahmagupta, ein indischer Mathematiker und Astronom, beschrieb bereits 628 n. Chr. ein sehr altes Verfahren zur Generierung von pythagoräischen Zahlentripeln, das auch als indische Formel bekannt ist. Nebenbei bemerkt können mit diesem Algorithmus unendlich viele solcher Tripel erzeugt werden. Eine Erklärung des Verfahrens sei hier angeführt. 15

Man erhält die indische Formel aus der altbabylonischen Multiplikationsformel, die schon im alten Babylon zur Multiplikation zweier Zahlen verwendet wurde.

4 ab = (a + b)2 – (a – b)2

1.4

In Kapitel 2 werden wir auf diese Formeln noch einmal zu sprechen kommen, wenn wir uns mit der Faktorisierung natürlicher Zahlen beschäftigen. Pierre de Fermat wählte diese Darstellung als Ansatz für die Zerlegung einer zusammengesetzten Zahl in ihre Primfaktoren.

Wenn nun a = m2 und b = n2 gesetzt wird, folgt aus Gleichung 1.4:

4 m2n2 = (m2 + n2)2 – (m2 – n2)2

1.5

4 m2n2 lässt sich zu (2 mn)2 umformen. Bringt man noch (m2 – n2)2 auf die linke Seite, so ergibt sich folgende Gleichung: (2 mn)2 + (m2 – n2)2 = (m2 + n2)2

1.6

Setzen wir a = (m2 – n2), b = (2 mn), c = (m 2 + n2) mit m > n sowie m und n teilerfremd, so können wir mit entsprechender Wahl von m und n immer ein pythagoräisches Zahlentripel erzeugen. Knüpfen wir an unser Beispiel von vorher an, lässt sich mit m = 2 und n = 1 das Zahlentripel (3, 4, 5) bestimmen. a = (m2 – n2) = (22 – 12) = 3 b = (2 mn) = (2 * 2 * 1) = 4 c = (m2 + n2) = (22 + 12) = 5 Die Darstellung von Brahmagupta hat den großen Vorteil, mit der Variation von m und n auf sehr einfache Weise ein pythagoräisches Zahlentripel erzeugen zu können. Quadratzahlen nehmen in der Zahlentheorie eine wichtige Funktion ein – wir werden in den nachfolgenden Abschnitten noch einmal genauer darauf eingehen.

16

In der pythagoräischen Vorstellung war die Zahl eng mit der Musik verbunden. In ihrer Lehre vertraten die Anhänger die Meinung, dass nicht nur die Musik, sondern auch alle anderen Dinge mit der Zahl in Verbindung stehen. Daraus ging die Idee hervor, dass eine umfassende mathematische Weltordnung existiere, die sich in Pythagoras’ Lehre „Harmonie der Sphären“ äußerte. Nachdem sich Pythagoras intensiv mit der Theorie der Musik beschäftigte, erzeugte er mit Hilfe einfacher Brüche zu einer bestimmten Saitenlänge eine Tonleiter. Die Hälfte einer Saitenlänge ergab den Ton C1 (Oktave), ⅔ der Saitenlänge den Ton G1 (Quint), ¾ der Saitenlänge den Ton F1 (Quart) usw. So ordnete Pythagoras jedem Ton eine bestimmte mathematische Schwingungsfrequenz zu. Nachdem der Satz des Pythagoras einen nicht unbedeutenden Einfluss in der Mathematik ausübte, hat er auch in die Lyrik Eingang gefunden, was im folgenden Sonett, einer speziellen Gedichtform, zum Tragen kommt: Die Wahrheit, sie besteht in Ewigkeit, Wenn erst die blöde Welt ihr Licht erkannt; Der Lehrsatz nach Pythagoras benannt Gilt heute, wie er galt zu seiner Zeit. Ein Opfer hat Pythagoras geweiht Den Göttern, die den Lichtstrahl ihm gesandt; Es taten kund, geschlachtet und verbrannt, Einhundert Ochsen seine Dankbarkeit. Die Ochsen seit dem Tage, wenn sie wittern, Dass eine neue Wahrheit sich enthülle, Erheben ein unmenschliches Gebrülle; Pythagoras erfüllt sie mit Entsetzen; Und machtlos sich dem Licht zu widersetzen Verschließen sie die Augen und erzittern.

17

Euklid von Alexandria lebte etwa um 300 v. Chr. und wurde durch sein Werk mit dem Titel Elemente bekannt. Seine Leistung bestand darin, dass er das mathematische Wissen seiner Zeit zusammentrug und in eine einheitliche Form brachte. Sein Werk wurde teilweise bis ins 18. Jahrhundert in Schulen als Unterrichtsbuch verwendet und kann daher als sehr umfangreiches mathematisches Sammelwerk angesehen werden. Leider ist über Euklids Leben sehr wenig bekannt und seine Persönlichkeit ist bis heute nicht historisch gesichert. Neben geometrischen Betrachtungen enthält Euklids Elemente die Anfänge der Zahlentheorie, indem er die Konzepte der Teilbarkeit und des größten gemeinsamen Teilers einführte und für dessen Bestimmung er einen nach ihm benannten Algorithmus entwickelte, den euklidischen Algorithmus. Unter anderem konnte er zeigen, dass es unendlich viele Primzahlen im Bereich der natürlichen Zahlen gibt und dass die Quadratwurzel von 2 eine irrationale Zahl ist. Wir benötigen die Grundlagen des größten gemeinsamen Teilers für spätere Betrachtungen in Kapitel 2, in dem ich Ihnen eine Methode für die Primfaktorzerlegung natürlicher Zahlen mit Hilfe des Konzeptes des größten gemeinsamen Teilers vorstellen werde. Ebenfalls werden wir uns kurz mit der Primzahlenverteilung im Bereich der natürlichen Zahlen beschäftigen. Aus diesem Grund ist es meiner Meinung nach erforderlich, zu zeigen, dass die Anzahl der Primzahlen aus der Menge der natürlichen Zahlen unendlich ist. Die Primzahlenverteilung folgt dabei einer bestimmten asymptotischen Gesetzmäßigkeit. Den Beweis der Irrationalität der Quadratwurzel aus 2 möchte ich Ihnen deswegen nicht vorenthalten, da sich anhand dieses Beispiels klar erkennen lässt, wie weit damals die Mathematik als wissenschaftlicher Zweig bereits fortgeschritten war. Zunächst wollen wir uns aber, bevor wir in die Tiefe der mathematischen Beweisführung eintauchen, mit den grundsätzlichen Begriffen der natürlichen Zahl und der Primzahl beschäftigen. Eine wichtige Rolle spielen Primzahlen in der Kryptografie. Moderne Verschlüsselungsverfahren basieren darauf, dass zwei große Primzahlen zwar schnell miteinander multipliziert werden können, sich aber die Umkehrung, sprich die Zerlegung in zwei Primfaktoren, bei hinreichender Größe äußerst schwierig und ineffizient gestaltet. Das Laufzeitverhalten der unterschiedlichen Faktorisierungsmethoden werden wir noch genauer analysieren. Was können wir uns eigentlich unter den Begriffen natürliche Zahl und Primzahl vorstellen?

18

Unter dem Begriff der natürlichen Zahl versteht man eine Zahl, die nur ganzzahlig positive Werte annehmen kann. Das erste Element ist die Zahl 1, der unmittelbare Nachfolger ist immer um eins größer und die Zahlenreihe kann bis ins Unendliche fortgesetzt werden. Daher können die Elemente wie folgt angeschrieben werden: 1, 2, 3, 4 usw. Unter einer Primzahl versteht man eine natürliche Zahl, die nur durch sich selbst oder durch 1 teilbar ist. Daraus folgt, dass die Anzahl der Teiler stets 2 ist. Jede andere Zahl, die keine Primzahl ist – in der Mathematik wird auch von einer zusammengesetzten Zahl gesprochen – lässt sich als Produkt solcher Primzahlen darstellen, daher ist die Anzahl der Teiler immer größer 2. So besagt der Fundamentalsatz der Arithmetik, dass jede natürliche Zahl größer 1 eine eindeutige Primfaktorzerlegung besitzt und diese bis auf ihre Reihenfolge eindeutig bestimmt ist. Primzahlen können daher auch als die „kleinsten Bausteine“ im Bereich der natürlichen Zahlen angesehen werden und sind von fundamentaler Bedeutung. Folgende natürliche Zahlen im Bereich von 2 bis 50 sind Primzahlen und können nur durch 1 oder durch sich selbst geteilt werden: 2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47

Es lässt sich nun leicht erkennen, dass z. B. 6 keine Primzahl ist. Warum? Da 6 als Produkt zweier Primzahlen, der 2 und 3, geschrieben werden kann und damit eine zusammengesetzte Zahl ist. 6=2*3 Obwohl es bis jetzt niemandem gelungen ist, eine mathematische Formel für die Berechnung von Primzahlen zu entdecken, gibt es bis zu einer gewissen Schranke gesetzmäßige Zusammenhänge, aus denen sich Primzahlen erzeugen lassen. Euler entdeckte folgenden Term, der für x = 0, 1, 2, …, 40 stets eine Primzahl ergibt.

x2 – x + 41
Wir wollen diesen Zusammenhang anhand eines Beispiels für x = 3 verdeutlichen: 32 – 3 + 41 = 9 – 3 + 41 = 47 – eine Primzahl 19

Wir werden von dieser Formel noch einmal Gebrauch machen, um anhand bestimmter Beispiele die zu diskutierenden Faktorisierungsverfahren besser begreifbar zu machen. Nachdem Euklid stets Wert auf eine strenge Beweisführung legte, möchte ich Ihnen eine Beweistechnik vorstellen, mit der die Unendlichkeit der Primzahlen nachgewiesen werden kann. Euklid ging von der Annahme endlich vieler Primzahlen aus und konnte durch einen sehr eleganten Ansatz zeigen, dass diese Annahme zu einem Widerspruch führt. Diese Beweistechnik ist in der Mathematik üblich und wird Widerspruchsbeweis genannt. Angenommen, wir haben endlich viele Primzahlen, p1, p2, ..., pr, gefunden und gehen davon aus, dass es keine weiteren Primzahlen gibt. Wir konstruieren nun eine neue Zahl, die als Produkt dieser Primzahlen geschrieben werden kann, und ergänzen dieses Produkt um die Zahl 1:

n = p1 * p2 * ... * pr + 1
Diese natürliche Zahl n ist nun entweder eine Primzahl oder eine zusammengesetzte Zahl. Handelt es sich bei n um eine Primzahl, so führt dies sofort zu einem Widerspruch, da wir davon ausgegangen sind, dass es keine weiteren Primzahlen gibt. Ist die Zahl n keine Primzahl, muss sie sich aus neuen Primzahlen entgegen der obigen Annahme zusammensetzen. Und weshalb? Eigentlich ganz klar, da bei der Division der Zahl n durch die Primzahlen p1, p2, ..., pr immer der Rest 1 übrig bleibt und die Zahl n damit durch p1, p2, ..., pr nicht teilbar ist. Somit haben wir zwangsweise neue Primzahlen gefunden, die n teilen, und unsere Annahme führt uns in beiden Fällen zu einem Widerspruch. Damit wäre bewiesen, dass es unendliche viele Primzahlen gibt. Ich möchte Ihnen gerne noch eine zweite gängige Beweistechnik in der Mathematik vorstellen, die man Beweis durch vollständige Induktion oder Schluss von n auf n + 1 nennt. Mit dieser Technik werden üblicherweise bestimmte Aussagen für alle natürlichen Zahlen bewiesen. Wie begründen sich die Motivation und die Idee dieser Technik? Man stellt eine Vermutung auf, die für alle natürlichen Zahlen gelten soll. Da die Menge der natürlichen Zahlen unendlich ist, ist es unmöglich, die Richtigkeit für jede Zahl einzeln zu 20

beweisen. Daher verwendet man die Technik der vollständigen Induktion, indem man zeigt, dass die Aussage für eine Anfangszahl gilt. Wenn aus der Entsprechung der Aussage für eine natürliche Zahl n eine Entsprechung für die nächste Zahl n + 1 folgt, so gilt die Behauptung für alle natürliche Zahlen, die auf die Anfangszahl folgen. Wir werden nun zeigen, wie man die Beweistechnik auf die Summe der ungeraden Zahlen anwenden kann. Betrachten wir zunächst die ersten Teilsummen der ungeraden Zahlen: 1=1 1+3=4 1+3+5=9 1 + 3 + 5 + 7 = 16 1 + 3 + 5 + 7 + 9 = 25 Die ersten Teilsummen für ungerade Zahlen ergeben die Quadratzahlen 1, 4, 9, 16 und 25. Daher liegt die Vermutung nahe, dass die Summe der ungeraden Zahlen eine Quadratzahl ist. Mit der Beweistechnik durch vollständige Induktion wird sich unsere Vermutung als richtig herausstellen.

In Worten ausgedrückt: Die Summe aller ungeraden Zahlen von i = 1 bis n ergibt immer eine Quadratzahl. Wie können wir diese Behauptung verifizieren? Wir müssen zeigen, dass die Aussage für 1) n = 1 (= Anfangszahl) gilt und 2) wenn sie für n, dann auch für n + 1 gilt. 1) Setzen wir n = 1 in die Summenformel ein:

21

Damit ist die Behauptung für n = 1 bewiesen, da die Summe der ersten ungeraden Zahl 1 ist und 1 eine Quadratzahl darstellt. 2) Wenn ,

so ist

Beweis:

In Worten formuliert: Die Summe alle ungeraden Zahlen von i = 1 bis n + 1 ist die Summe alle ungeraden Zahlen von i = 1 bis n + den nächsten ungeraden Nachfolger 2 (n + 1) – 1. Die Summe der ungeraden Zahlen von i = 1 bis n ergibt laut Annahme die Quadratzahl n2. Addieren wir die Terme n2 und 2 (n + 1) – 1, erhalten wir mit Hilfe des binomischen Lehrsatzes das Ergebnis (n + 1)2, was auch zu zeigen war. Somit ist unsere Behauptung bewiesen. Wieder konnte ich Ihnen eine sehr schöne Beweistechnik in der Mathematik zeigen. Die Mathematik ist voll von Beweisen, denn jede Vermutung wird in der Fachwelt erst dann als richtig anerkannt, wenn sie auch bewiesen werden konnte. Wir wollen uns nun den ungeklärten Begriffen größter gemeinsamer Teiler und irrationale Zahl widmen. Von diesen Begriffen werden wir in Kapitel 2 noch einmal Gebrauch machen, wenn wir uns mit dem Auffinden von Primzahlen für zusammengesetzte Zahlen beschäftigen. Mit dem größten gemeinsamen Teiler, in abgekürzter Form ggT, zweier Zahlen m und n ist eine größte natürliche Zahl d gemeint, die sowohl m als auch n ohne Rest teilt. In mathematischer Weise formuliert:

d = ggT (m, n)
22

Für zwei Primzahlen gilt stets, dass der größte gemeinsame Teiler 1 ist. Zur Veranschaulichung des euklidischen Algorithmus bestimmen wir den größten gemeinsamen Teiler ggT zwischen 135 und 25. 135 = 5 * 25 + 10 25 = 5 * 5 Der größte gemeinsame Teiler von 135 und 25 ist 5 oder in formaler Schreibweise: ggT (135, 25) = 5. Den euklidischen Algorithmus bezeichnet man auch als Wechselwegnahme, da abwechselnd ein Vielfaches der einen Zahl von der anderen subtrahiert wird. Die Wechselwegnahme ist dann beendet, wenn der Rest 0 entsteht. In unserem Beispiel ist das Ende somit schon nach zwei Schritten erreicht. Mit Hilfe der Wechselwegnahme wurde in der Antike das rationale Verhältnis zwischen zwei Zahlen untersucht. Eine irrationale Zahl ist eine Zahl, die nicht als Bruch zweier ganzer Zahlen dargestellt werden kann, also nicht in der Form p/q. Hierbei handelt es sich um Zahlen, deren Dezimaldarstellung nicht periodisch ist und nicht abbricht. Im Gegensatz dazu können rationale Zahlen als Bruch p/q geschrieben werden und sind daher periodisch und abbrechende Dezimalzahlen. Ein bekanntes Beispiel für eine irrationale Zahl ist die Zahl Pi, die auch als transzendente Zahl bezeichnet wird. Wir wollen nun zeigen, warum die Wurzel aus 2 irrational ist und nicht als Bruch zweier rationaler Zahlen m/n geschrieben werden kann. Der Beweis wird wieder über die Beweistechnik des Widerspruchbeweises geführt. Wir nehmen an, die Wurzel aus 2 ist rational, also als Bruch darstellbar:

√2 = m / n
Quadriert man nun die Gleichung. so erhält man:

1.7

2 = m2 / n2
23

1.8

Wir gehen davon aus, dass dieser Bruch bereits vollständig gekürzt wurde, die Zahlen m und n zueinander also teilerfremd sind. Insbesondere können m und n nicht beide gerade sein, sonst wären sie nicht zueinander teilerfremd. m2 ist doppelt so groß wie n2, daher können wir 1.8 auch als

2 n2 = m2

1.9

schreiben. Es folgt daraus, dass m2 eine gerade Zahl ist und in Konsequenz dessen auch m. Der entscheidende Punkt in der Beweisführung ist nun, dass m2 nicht nur gerade, sondern auch durch 4 teilbar ist. Wir haben festgestellt, dass m gerade ist, daher lässt es sich als

m=2k
schreiben. Folglich ist

1.10

m2 = 4 k2

1.11

In 1.9 eingesetzt, ergibt sich

2 n2 = 4 k2

1.12

Wir schließen daraus, dass n2 doppelt so groß ist wie k2 und daher n2 eine gerade Zahl ist und folglich natürlich auch n. Aus unserer Beweisführung erhalten wir als Ergebnis, dass m und n gerade sind – ein Widerspruch zu unserer Annahme. Aus der Konstruktion eines Widerspruchs konnten wir zeigen, dass die Wurzel aus 2 keine rationale Zahl sein kann.

Diophant von Alexandria war ein griechischer Mathematiker und er lebte vermutlich um 250 n. Chr. Über sein Leben ist so gut wie nichts bekannt, lediglich seine Werke sind bis heute 24

überliefert. Sein wichtigstes Werk Arithmetica besteht aus 13 Bänden. Ein wesentlicher Teil davon beschäftigt sich mit der Lösung von algebraischen Gleichungen. Diophant beschränkte sich in seinen Untersuchungen auf rationale oder ganzzahlige Lösungen, daher nennt man heute noch Gleichungen, für die rationale oder nur ganzzahlige Lösungen gesucht werden, diophantische Gleichungen. Eine typische Aufgabe, die als diophantische Gleichung oder Gleichungssystem aufgefasst werden kann, findet man in einem mittelalterlichen Text. Vermutlich wurde diese von Alcuin von York (735–804 n. Chr.) dem Lehrer Karls des Großen gestellt: „Hundert Maß Korn werden unter hundert Leuten so verteilt, dass jeder Mann drei Maß, jede Frau zwei Maß und jedes Kind ein halbes Maß erhält. Wie viele Männer, Frauen und Kinder sind es?“ Aus der Textaufgabe kann man schließen, dass hier drei Unbekannte oder auch Variablen gesucht werden.

x + y + z = 100 3 x + 2 y + ½ z = 100
Diese Aufgabe ist nicht eindeutig lösbar, da insgesamt sechs verschiedene Lösungen in Frage kommen. Unter die berühmten diophantischen Gleichungen fallen der Satz des Pythagoras und Fermats letzter Satz, auf den wir später noch einmal zurückkommen werden. Letztlich blieb Fermats letzter Satz für 357 Jahre unbewiesen, bis einem Mathematiker namens Andrew Wiles nach jahrelanger Arbeit ein sehr langer und komplizierter Beweis gelang, der in den Medien viel Aufsehen erregte. Wie uns die Geschichte lehrt, war jede Epoche von Zerstörung, Unruhen und Unterdrückung geprägt. So auch die antike Zeit. In der Zeit um das 4. Jahrhundert n. Chr. verschwand ein großer Teil der antiken Wissenschaft unwiederbringlich in den Flammen jener Fanatiker, die in den Geschichtsbüchern ihren festen Platz eingenommen haben. Darüber hinaus gab es eine Verfolgung vieler Gelehrter; manche davon siedelten sich aus diesem Grund im heutigen Iran an und begründeten damit eine neue Epoche wissenschaftlicher Blüte im islamischen Raum. Bis hierhin konnten wir uns einen Überblick über einige Vertreter der Zahlenlehre aus der antiken Zeit verschaffen. Alle Persönlichkeiten dieser Zeit mit ihrem Einfluss auf die Zahlentheorie vorzustellen, würde den Rahmen eines solchen Buches sprengen. Ich hoffe aber, ich konnte Sie zu ein paar neuen Gedanken anregen und so manchem Leser einen groben Einblick in die antike Zahlenwelt geben. 25

1.3 Mathematik der Renaissance und Neuzeit – Pierre de Fermat

In eine sehr fruchtbare und wissenschaftlich revolutionäre Zeit fällt Pierre de Fermat, der als Vater der neuzeitlichen Zahlentheorie gilt. Pierre de Fermat hat die Zahlentheorie entscheidend weiterentwickelt und auf ihn gehen einige wunderbare Sätze zurück, die wir später noch genauer untersuchen werden. Was weiß man über Pierre de Fermat und wer waren seine Zeitgenossen? Das Geburtsjahr von Pierre de Fermat wird mit 1607 im Geburtsort Beaumont de Lomagne in Frankreich datiert. Er studierte Rechtswissenschaften und wirkte im Alter von 33 Jahren als Rat am Gericht von Toulouse. Seine Freizeitbeschäftigung und Liebe galt jedoch der Mathematik und als hervorragender Autodidakt begann er, die griechischen Texte der Mathematik zu studieren. Vor allem das Werk Arithmetica von Diophant von Alexandria war der Ausgangspunkt einer glanzvollen Karriere als Amateurmathematiker. Fermat war ein Pionier der Infinitesimalrechung und gilt als Begründer der analytischen Geometrie. Neben dem Studium vieler Teilgebiete der Mathematik war er besonders im Auffinden und Lösen zahlentheoretischer Probleme ein wahrhaftiges Genie. Mit seinen berühmten Zeitgenossen wie Blaise Pascale, René Descartes oder Christiaan Huygens pflegte er meist nur in Briefform zu verkehren und da er als Mann galt, der seine fruchtbaren Erkenntnisse nicht gerne an die Öffentlichkeit trug, sind die meisten seiner mathematischen Arbeiten nur in Briefen an seine Zeitgenossen erhalten. Welche Ideen und Gedanken Fermats waren für die Entwicklung der Zahlentheorie von maßgeblicher Bedeutung? Sein wohl bekanntester Satz ist die letzte fermatsche Vermutung; diese gilt als Verallgemeinerung des pythagoräischen Lehrsatzes. Angeregt wurde dieser Satz durch Fermats Studien von Diophants Arithmetica. Auf einem Exemplar findet man eine Notiz von Fermat am Rande seines Buches, dass er zwar die Unlösbarkeit dieser Gleichung für ganze Zahlen beweisen könne, sich dafür aber zu wenig Platz biete. Es spricht wohl auch für die

26

Verschwiegenheit Fermats in solchen Dingen. Dieses Exemplar wurde erst von Fermats Sohn im Jahr 1670 veröffentlicht. Fermat starb am 12. Januar 1665 im Alter von 57 Jahren. Auf der Suche nach der Beweisbarkeit dieser Vermutung haben sich großartige mathematische Methoden entwickelt, denn erst im Jahr 1995 gelang Andrew Wiles der Beweis der fermatschen Vermutung. Es handelt sich hierbei um einen äußerst schwierigen und langwierigen Beweis, der vielleicht als größte mathematische Leistung des 20. Jahrhunderts angesehen werden kann. Wir wollen diesen Satz nun etwas genauer betrachten und seiner mathematischen Formulierung auf den Grund gehen:

xn + yn = zn – fermatsche Vermutung
mit x, y, z, n ganzzahlig nur für n ≤2 lösbar. Wie schon oben erwähnt, stellt dieser Satz eine Verallgemeinerung des pythagoräischen Lehrsatzes dar. Das lässt sich daran erkennen, dass wir exakt die formale Darstellung des pythagoräischen Lehrsatzes erhalten, wenn in der fermatschen Vermutung n = 2 gesetzt wird. Andrew Wiles konnte zeigen, dass es keine Lösung für ganzzahlige Werte x, y, z und n > 2 dieser Gleichung gibt. Im Gegensatz dazu haben wir gesehen, dass es für den Satz des Pythagoras unendlich viele Lösungen gibt, die so genannten pythagoräischen Zahlentripel. Erstaunlich, wie so ein auf den ersten Blick einfach anmutender Satz Mathematikergenerationen scheitern ließ und noch erstaunlicher scheint es mir, dass es dafür keine ganzzahlige Lösung geben kann, wobei es sich um eine Kette von Gleichungen handelt, die niemals endet, da n beliebig groß gewählt werden darf. Einer der wichtigsten Sätze in der Zahlentheorie ist der Satz von Euler-Fermat, der im Speziellen für Primzahlen von Fermat entdeckt wurde und als kleiner fermatscher Satz bekannt ist. Später wurde dieser Satz von Leonhard Euler in allgemeiner Form für alle natürlichen Zahlen niedergeschrieben. Dieser Satz ist die Basis für mannigfaltigste Anwendungen. Ein paar davon möchte ich Ihnen jetzt kurz erläutern, im nächsten Kapitel werden wir dieses Thema noch weiter vertiefen. Früher galt die Zahlentheorie nur als theoretisches Gebäude, in dem man keinen Platz für praktische Anwendungen sah, aber mit dem Aufbruch in das Informationszeitalter war auch das Tor für die Zahlentheorie in die praktische Welt geöffnet. Eine sehr verbreitete Anwendung liegt in der Welt der Verschlüsselungsverfahren, der Kryptografie. Ein häufig benutztes Verfahren ist das RSAVerfahren – dieses zählt zu den ersten Public-Key-Verschlüsselungsverfahren. Bei 27

Verschlüsselungsverfahren wird besonders Wert auf Sicherheit gelegt, da es um den Austausch geheimer Daten zwischen Sender und Empfänger geht. Aus diesem Grund soll es einem Angreifer, einem Dritten, nicht möglich sein, einen zuvor verschlüsselten Klartext einfach zu knacken. Die Sicherheit beim RSA-Verfahren baut auf große zusammengesetzte Zahlen auf, deren Zerlegung ein aufwändiges Unternehmen ist. Daher reduziert sich die Sicherheit bekannter Verschlüsselungsverfahren darauf, bestimmte Berechnungsprobleme aus der Zahlentheorie in relativ kurzer Laufzeit zu lösen. Eng damit sind die Primzahlenerzeugung und der Primzahlentest verbunden. Da bei PublicKey-Verfahren häufig zufällige große Primzahlen gebraucht werden, erzeugt man natürliche Zahlen der richtigen Größe und prüft, ob diese auch Primzahlen sind.

Wir wollen uns nun einer näheren mathematischen Untersuchung des kleinen fermatschen Satzes widmen. Wir werden im Detail in Kapitel 2 eine Anwendung für die Primfaktorisierung großer Zahlen kennen lernen. Der kleiner Satz von Fermat lässt sich in folgende Worte fassen: Wenn p eine Primzahl ist und a eine Zahl, die zu p teilerfremd ist, dann ist ap-1 stets um 1 größer als das nächste kleinere Vielfache von p. Betrachten wir dazu ein Rechenbeispiel: Wir ziehen für unsere Berechnung die Primzahl p = 7 und eine dazu teilerfremde Zahl a = 3 heran, daher ist ggT (3, 7) = 1. Setzen wir nun die beiden Zahlen in den Ausdruck ap-1 ein, so erhalten wir: ap-1 für a = 3 und p = 7: 37-1 = 36 = 729

Nun ziehen wir von 729 die Zahl 1 ab und prüfen, ob das Ergebnis durch p = 7 teilbar ist. 729 – 1 = 728 durch 7 = 104 Eine Erweiterung dafür ist der Satz von Euler-Fermat, der in seiner Formulierung für alle natürlichen Zahlen gilt, daher wird statt der Primzahl p die natürliche Zahl n betrachtet, im Exponent wird die Primzahl p durch die Anzahl der Teiler φ der natürlichen Zahl n ersetzt. Die Funktion φ wird im nächsten Abschnitt behandelt.

28

1.4 Mathematik der Aufklärung – Euler, Gauß und Riemann

Leonhard Euler war ein Schweizer Mathematiker und wurde 1707 in Basel als ältester Sohn des Pfarrers Paul Euler geboren. Euler nahm neben seiner schulischen Laufbahn am Gymnasium in Basel Privatunterricht beim Mathematiker Johannes Burkhardt und er rechnete so mühelos, dass andere davon nur träumen konnten. Seine wissenschaftliche Laufbahn begann im Jahr 1727 im Todesjahr Newtons. Trotz des Verlusts seines Augenlichts während seiner letzten 17 Lebensjahre war sein Tatendrang ungebrochen. In seiner Phase der Blindheit konnte er einen beträchtlichen Teil seines Lebenswerkes beenden – scheinbar war sein Blick auf das innere Wesen der Natur durch den schwer wiegenden Verlust keineswegs getrübt. Er war, wie man heute sagen würde, ein richtiges Arbeitstier und in seinem produktiven Schaffen entstanden hunderte Publikationen, in denen er die mathematische Schreibweise einführte, wie sie auch heute noch gebräuchlich ist. Auf ihn gehen folgende bekannte mathematische Notationen zurück: e, π, f (x) als Darstellung für eine Funktion. Euler gilt als der eigentliche Begründer der Analysis, 1748 publizierte er das Grundlagenwerk „Introductio in analysin infinitorum“, in dem zum ersten Mal der Begriff der Funktion eine zentrale Rolle spielte. Nicht nur in der Mathematik tat er sich als außergewöhnlicher Wissenschaftler hervor, sondern auch in der Physik auf den Gebieten der Mechanik und der Wellentheorie. So entstanden die eulerschen Bewegungsgleichungen in der Hydrodynamik und die eulerschen Kreiselgleichungen in der Kreiseltheorie. Erwähnenswert erscheint mir, dass man ihm eine gewisse männliche Potenz nicht absprechen konnte, da er angeblich 13 Kinder zeugte. Nebenbei bemerkt, 13 ist eine Primzahl. Ein Zufall? Aus der Schulmathematik ist Ihnen vielleicht noch die eulersche Zahl e bekannt. Sie ist die Basis des natürlichen Logarithmus und die Grundlage für Berechnungen in den verschiedensten naturwissenschaftlichen Teilgebieten. Bei der eulerschen Zahl e = 2,7182818284... handelt es sich um eine transzendente Zahl, die zur Gruppe der irrationalen Zahlen gehört. In der Zahlentheorie gilt Euler neben dem Satz von Euler-Fermat als Entdecker der eulerschen Phi-Funktion φ, die nach dem griechischen Symbol Phi benannt ist. Unter der eulerschen Phi-Funktion versteht man die Anzahl der teilerfremden Zahlen m von 1 bis n zu einer gegebenen natürlichen Zahl n, sprich ggT (m, n) = 1. Für eine Primzahl p ist die Anzahl der teilerfremden Zahlen stets p – 1, da eine Primzahl immer nur durch 1 oder p

29

teilbar ist. Daher sind die Zahlen 1 bis p – 1 zu p teilerfremd – natürlich auch die Zahl 1 selbst, da sie per Definition nur durch 1 teilbar ist.

φ (p) = p – 1
Will man aber nun Phi φ für eine zusammengesetzte Zahl bestimmen, ist es erforderlich, alle teilerfremden Zahlen einer gegebenen Zahl zu ermitteln. Wir wollen dazu wieder ein Beispiel betrachten: Angenommen, wir wollen Phi φ für die Zahl 12 ermitteln. Die teilerfremden Zahlen sind 1, 5, 7 und 11. Daher ist

φ (12) = 4
Als einer der bedeutendsten Mathematiker aller Zeiten wird Carl Friedrich Gauß angesehen. Man sprach von ihm als dem „princeps mathematicorum“, dem „Fürst der Mathematik“. Gauß war ein Sohn sehr einfacher Leute und erblickte im Jahr 1777 in Braunschweig das Licht der Welt. Eine Anekdote erzählt, dass Gauß bereits im Alter von drei Jahren seinem Vater bei der Lohnabrechnung geholfen haben soll. Er hatte ein breit gefächertes Interesse an den unterschiedlichsten naturwissenschaftlichen Fächern, daher ist es wenig erstaunlich, dass er sich als Mathematiker, Astronom und Physiker hervortat. Gauß hat einmal über sich selbst behauptet, er habe das Rechnen vor dem Reden gelernt. Es scheint, als hätte er die Wahrheit gesagt, wenn man folgende Aufgabe betrachtet. Mit neun Jahren bekam er in der Schule die Aufgabe gestellt, die Summe der Zahlen 1 bis 100 zu berechnen, was für ihn keine Schwierigkeit war, indem er diese paarweise zusammenfasste (1 + 100, 2 + 99, 3 + 98, …, 50 + 51) und daraus das Ergebnis 5050 ableitete. Die daraus entstandene Formel wird auch der kleine Gauß genannt und steht für das Wunderkind Gauß in der Mathematik.

s bezeichnet die Summe der Zahlen von 0 bis n und lässt sich mit der einfachen Formel n (n + 1) / 2 berechnen. Diese Summenformel wird rein intuitiv klar: Durch die paarweise Zusammenfassung der Elemente entstehen nur halb so viele Paare, jedes Paar trägt die gleiche Summe und das erste Paar ist die Summe aus dem ersten und dem letzten Element, also n + 1. 30

Das Produkt aus der Anzahl der Paare und der Summe des ersten und des letzten Elements ergibt die Summenformel vom kleinen Gauß. Das Lieblingskind von Carl Friedrich Gauß war die Zahlentheorie, die er die „Königin der Mathematik“ nannte. Ein Meilenstein in der Entwicklung der Zahlentheorie ist seine Arbeit mit dem Titel „Disquisitiones arithmeticae“, die er bereits als Achtzehnjähriger schrieb und die im Jahr 1801 erschien. Gauß hatte eine zutiefst religiöse und konservative Weltanschauung und trotz eines Professorstuhls in der Mathematik hegte er gegen das Unterrichten eine starke Ablehnung. Jedoch gingen unten seiner Lehre mehrere sehr einflussreiche Mathematiker wie Richard Dedekind oder Bernhard Riemann hervor. Welches sind die herausragenden Errungenschaften von Gauß? Mit 18 Jahren entdeckte er einige Eigenschaften über die Primzahlenverteilung im Bereich der natürlichen Zahlen und entwickelte die Methode der kleinsten Quadrate, die als Basis die Berechnung der Bahnen von Himmelskörpern revolutionierte. Mit den neu durchgeführten Berechnungen gelang Heinrich Olbers die Wiederentdeckung des Planetoiden Ceres. Durch diese Entdeckung wurde Gauß weltbekannt. Er entwickelte auch eine geschlossene Formel für die Berechnung des Osterdatums. Auf ihn geht ebenfalls die gaußsche Glockenkurve zurück, die auch als Standardnormalverteilung bekannt ist und in der Wahrscheinlichkeitsrechnung angewendet wird. Entscheidende Beiträge lieferte Gauß im Bereich der komplexen Zahlen, indem er einen strengen Beweis führte und zeigen konnte, dass jede algebraische Gleichung n-ten Grades genau n reelle oder komplexe Wurzeln besitzt – der Fundamentalsatz der Algebra war geboren. Gauß war nicht nur auf mathematischem Gebiet erfolgreich, er erfand auch das erste Magnetometer und es gelang ihm damit, gemeinsam mit Wilhelm Eduard Weber, die erste elektromagnetische Telegrafenverbindung weltweit herzustellen. Einige Kritiker warfen ihm einen starken Geltungsdrang vor, da er seine Zeitgenossen oft darauf hinwies, bestimmte mathematische Resultate schon vor ihnen bewiesen zu haben. Später konnte belegt werden, dass sich seine Behauptungen sehr oft als wahr erwiesen. Gauß starb 1855 in Göttingen; seine erst 1898 gefundenen Tagebücher enthalten viele wissenschaftliche Entdeckungen.

Ein Koryphäe auf seinem Gebiet war der berühmte deutsche Mathematiker Bernhard Riemann. In seiner kurzen Lebenszeit schrieb er entscheidende Beiträge zu den Themen der Funktionstheorie und riemannschen Geometrie. Als Mitbegründer der Funktionstheorie, die sich mit Funktionen komplexer Veränderlicher beschäftigt, und als Entdecker der 31

riemannschen Geometrie, die als Wegbereiter der allgemeinen Relativitätstheorie von Einstein gilt, hat er unauslöschliche Spuren in der Zahlentheorie hinterlassen. Wir wollen uns im Anschluss damit noch eingehender beschäftigen, aber vorher möchte ich Ihnen noch einen kurzen Einblick in Riemanns Leben geben. Bernhard Riemann wurde 1826 in Dannenberg als Sohn eines Pastors geboren und starb sehr früh im Alter von 39 Jahren an Tuberkulose. Trotz längerer Aufenthalte in milden Gebieten konnte seine Krankheit nicht geheilt werden. Viele Historiker sehen den frühen Tod Riemanns in der Unternährung in seiner Jugendzeit – er stammte aus sehr ärmlichen Verhältnissen. Während seiner Grundschulzeit bekam er von seinem Vater und seinem Lehrer Privatunterricht, da er aber im Fach Mathematik seinen Lehrer bald übertraf, zog er zu seiner Großmutter nach Hannover, wo er das Gymnasium Johanneum besuchte. Riemann galt als sehr schüchterner Schüler, was ihn aber nicht am Fortschritt seiner schulischen Leistungen hinderte. Seine mathematische Hochbegabung zeigte sich bereits sehr früh, doch trotz der Einwände des Lehrers wollte sein Vater, dass er Theologie studiere und somit in seine Fußstapfen trete. Bernhard Riemann begann zwar das Studium der Theologie in Göttingen, besuchte aber neben seinem Studium auch Mathematikvorlesungen. Zum Glück gelang es dem jungen Riemann, seinen Vater doch noch umzustimmen und so konnte er sich seiner Lieblingsbeschäftigung, der Mathematik, widmen. Riemann war während seiner Studienzeit ein Schüler von Gauß und Dirichlet und nach seiner Habilitation folgte er Dirichlet als ordentlicher Professor auf den Lehrstuhl von Gauß. Riemann trug trotz seiner kurzen Lebenszeit und der geringen Anzahl an Publikationen maßgeblich zur Entwicklung der Geometrie, Funktionen- und Zahlentheorie bei. Nicht immer ist die Quantität entscheidend. Bernhard Riemann hat durch seine riemannsche Vermutung einen festen Platz in der Geschichte der Mathematik gefunden. Der Beweis der riemannschen Vermutung wurde von David Hilbert im Jahr 1900 in eine Liste von 23 mathematischen Jahrhundertproblemen aufgenommen. Da es bis zum 20. Jahrhundert niemanden gelungen war, einen schlüssigen Beweis zu finden, hat das Clay Mathematics Institute im Jahr 2000 für denjenigen, der als Erster einen Beweis für die riemannsche Vermutung erbringen kann, ein Preisgeld von einer Million US-Dollar ausgeschrieben. Wir können gespannt sein, wer das mathematische Rüstzeug dazu hat. Mit Hilfe von Großrechnern wurde im Jahr 2001 gezeigt, dass die ersten zehn Milliarden Nullstellen der riemannschen Zetafunktion auf einer Geraden mit Realteil ½ liegen und somit die riemannsche Vermutung erfüllen. Riemann stellte die Behauptung auf, dass alle nicht-trivialen Nullstellen der riemannschen Zetafunktion den Realteil ½ haben; er erweiterte die eulersche Zetafunktion auf die komplexe Ebene und daraus entstand seine 32

Vermutung. Die mathematische Formulierung dieser Vermutung würde über den Rahmen des Buches hinausgehen und verlangt ein tiefes Verständnis für zahlentheoretische Probleme. Ich möchte dem Leser daher weitere Details zu diesem sehr schwierigen mathematischen Problem ersparen. Wie wir aber sehen, kann ein mathematisches Rätsel sehr lange ungelöst bleiben. Ich hoffe, sie konnten sich auf unserem Streifzug durch die Geschichte der Zahlentheorie einen Eindruck über einige sehr wichtige und einflussreiche Persönlichkeiten in der Zahlentheorie machen. Sie überzeugen nicht nur durch ihren Scharfsinn und ihre unbestechliche Logik, sondern auch durch die innere Kraft, sich den persönlichen und gesellschaftlichen Schicksalsschlägen ihrer Zeit zu widersetzen. Viele von ihnen fallen in politisch und gesellschaftlich schwierige Zeiten, umso mehr wiegt ihr unglaublicher Tatendrang, der Menschheit ein fantastisches Dokument voll mathematischer Schönheit zu hinterlassen.

1.5 Und noch mehr interessante zahlentheoretische Fragestellungen

Aus den unzähligen zahlentheoretischen Problemen, die im Laufe der Jahrhunderte entstanden sind, konnten wir nur einige besprechen, daher möchte ich an dieser Stelle noch einige weitere interessante zahlentheoretische Fragestellungen diskutieren. In diesem Abschnitt werden wir mersennsche Primzahlen, Fibbonaci-Zahlen und die Darstellung der Primzahlen durch die Summe zweier Quadratzahlen diskutieren. Was liegt näher, als im Zeitalter des Internets ein Projekt zu starten, wie das von George Woltman ins Leben gerufene GIMPS-Projekt? GIMPS bedeutet „Great Internet Mersenne Prime Search“ und beschäftigt sich mit der Suche sehr großer mersennscher Primzahlen. Die bist jetzt größte gefundene Primzahl hat unvorstellbare 7.816.230 Stellen. Die Idee des Projektes liegt darin, einen großen Kreis von Internetbenutzern zu motivieren, ihre freie Rechnerzeit für die Primzahlensuche zur Verfügung zu stellen. Die Kapazität der RechenPower aus der bestehenden Internetgemeinde reicht mittlerweile an die eines Supercomputers heran, sprich die Rechenleistung aus der Parallelschaltung vieler kleiner Workstations von Internetusern kann mit der Rechenleistung der schnellsten Großrechneranlage verglichen

33

werden. Ein ähnliches Projekt mit den Namen SETI gibt es schon seit mehreren Jahren bei der Suche nach außerirdischer Intelligenz. Warum werden mersennsche Primzahlen für die Primzahlensuche herangezogen? Die mersennschen Primzahlen gehen auf den Theologen Marin Mersenne zurück, der dem religiösen Orden der Minimen angehörte. Er hatte es sich zur Aufgabe gemacht, eine Formel für die Darstellung aller Primzahlen zu finden, was ihm aber nicht gelang. Jedoch stieß er auf Interesse bei der Untersuchung von Zahlen mit folgender Darstellung:

Mp = 2p – 1 – mersennsche Primzahl
Eine der wichtigsten Eigenschaften für die Suche großer mersennscher Primzahlen ist folgende: Wenn Mp eine Primzahl ist, dann muss auch p eine Primzahl sein, die Umkehrung gilt jedoch nicht. Mersenne stellte die Behauptung auf, dass Mp für die Primzahlen p = 2, 3, 5, 7, 13, 17, 19, 31, 67, 127 und 257 eine Primzahl ist. Er irrte jedoch bei den Zahlen 67 und 257. Für die Ermittlung großer Primzahlen kann man sich auf Primzahlen p im Exponenten beschränken, daher reicht die Überprüfung, ob Mp eine Primzahl ist. Ein einfaches Verfahren dafür ist der Lucas-Lehmer-Test, der sich für die Suche von Primzahlenrekorden eignet. Leonardo von Pisa, besser bekannt als Fibonacci, war ein Handelsreisender und lebte im 12. Jahrhundert. Auf seinen vielen Reisen lernte er alle damals bekannten Rechenverfahren kennen. Sein 1202 erschienenes Werk Liber Abaci beschreibt unter anderem auch die indische Rechenkunst, die durch sein Werk in Europa publik wurde. Er war der Erste, der in Europa die arabische Schreibweise der Zahlen einführte und auf ihn gehen die berühmten FibonacciZahlen zurück, die für eine rekursiv definierte Zahlenfolge stehen. Fibonacci-Zahlen können zur Beschreibung ganz allgemeiner Wachstumsvorgänge herangezogen werden. Ein sehr altes Wachstumsproblem hatte Fibonacci bereits in seinem Werk Liber Abaci angeführt – das berühmte Kaninchenwachstumsproblem. Wie können die Fibonacci-Zahlen bestimmt werden und wo finden sie Anwendung? Die Fibonacci-Zahlen können, wie schon erwähnt, aus einer rekursiv definierten Zahlenfolge berechnet werden. Unter einer rekursiv definierten Funktion versteht man einen Funktionswert, der sich aus der Verknüpfung bereits vorher berechneter Funktionswerte ergibt. Mit ausreichend genügend festgelegten Startwerten kann daraus jeder Funktionswert bestimmt werden. Die Fibonacci-Folge lässt sich in folgender Weise schreiben:

an+2 = an+1 + an
34

Dabei werden die Startwerte a1 = 1 und a2 = 1 festgelegt. Aus der Definition ergibt sich folgende konkrete Zahlenfolge:

a1 = 1 a2 = 1 a3 = a1 + a2 = 1 + 1 = 2 a4 = a2 + a3 = 1 + 2 = 3
usw.

Die Fibonacci-Folge lässt sich in folgender Zahlenreihe weiterführen: 1, 1, 2, 3, 5, 8, 13, 21, 43, 55, 89, 144, 233, 377, … Die Glieder der Folge werden stets aus der Summe der beiden Vorgängerglieder bestimmt. Die gleiche Folge entsteht auch bei der Formulierung des folgenden Kaninchenwachstumsproblems: - Jedes Kaninchenpaar kann ab einem Alter von 2 Monaten Nachwuchs zeugen - Jedes Kaninchenpaar bringt ab diesem Monat jeden Monat ein neues Kaninchenpaar zur Welt - Die Kaninchen leben ewig Die Anzahl der Kaninchen an entspricht der Folge von Fibonacci und stellt für die drei getroffenen Annahmen einen Wachstumsvorgang dar. Durch Abänderung der Startwerte und Rekursionsvorschrift sind unzählige Varianten entstanden, so auch die Lucas-Folge, die eine wichtige Rolle im Lucas-Lehmer-Test bei der Bestimmung von mersennschen Primzahlen spielt. Fibonacci-Zahlen stehen mit dem goldenen Schnitt eng im Zusammenhang. Sehr interessante Untersuchungen auf dem Gebiet der Zahlentheorie gab es bezüglich der Darstellung von Zahlen als Quadratsummen. Man interessierte sich also für die diophantische Gleichung der Form

35

x2 + y2 = n
Im Speziellen ging Fermat der Frage nach, welche Primzahlen durch die Summe zweier Quadratzahlen darstellbar sind und formulierte im Jahr 1640 folgenden Satz, der in einem Briefwechsel mit Mersenne behandelt wurde. Dieser war allerdings schon Albert Girard (1595–1632) bekannt und wird daher auch Satz von Girard genannt. Einen Beweis publizierte Euler im Jahr 1754. Der Satz lautet in Worten: Eine ungerade Primzahl p ist genau dann als Summe zweier Quadrate darstellbar, wenn bei Division der Primzahl p durch 4 der Rest 1 übrig bleibt. Oder anders formuliert, die Primzahlen müssen von der Form

p=4n+1
sein, dann können sie als Summe zweier Quadratzahlen geschrieben werden. Man interessiert sich deswegen nur für ungerade Primzahlen, weil die einzige gerade Primzahl, die Zahl 2, als 2 = 12 + 12 geschrieben werden kann. Warum kommen Primzahlen der Form 4 n + 3 nicht in Frage? Das möchte ich Ihnen kurz anhand der folgenden Überlegungen vor Augen führen. Welche Kombinationen kommen für die Summe zweier Quadratzahlen in Frage? 1) Die Summe zweier gerader Quadratzahlen. 2) Die Summe einer geraden und einer ungeraden Quadratzahl oder umgekehrt. 3) Die Summe zweier ungerader Quadratzahlen. Zu 1) Wir setzen x = 2 n und y = 2 m und quadrieren beide Zahlen x und y und erhalten (2 n)2 + (2 m)2 = 4 n2 + 4 m2. Teilt man nun 4 n2 + 4 m2 durch 4, ergibt sich der Rest 0, da sowohl 4 n2 als auch 4 m2 durch 4 ohne Rest teilbar ist. Zu 2) Wir setzen x = 2 n und y = 2 m + 1 und quadrieren beide Zahlen x und y und erhalten (2 n)2 + (2 m + 1)2 = 4 n2 + 4 m2 + 4 m +1. Teilt man nun 4 n2 + 4 m2 + 4 m + 1 durch 4, ergibt sich der Rest 1, da bei Division von 4 n2 durch 4 der Rest 0 und für 4 m2 + 4 m + 1 durch 4 der Rest 1 übrig bleibt. Beide Reste addieren sich zu einem Gesamtrest von 1. Zu 3) 36

Wie wir gesehen haben, bleibt bei der Division einer ungeraden Quadratzahl durch 4 der Rest 1 übrig. So erhalten wir bei der Division zweier ungerader Quadratzahlen durch 4 und anschließender Addition den Rest 2. Es lässt sich unschwer erkennen, dass der Rest der Summe zweier Quadratzahlen bei Division durch 4 entweder 0, 1 oder 2 ist. Wir sind jedoch von einer Primzahl der Form 4 n + 3 ausgegangen, die bei Division durch 4 den Rest 3 übrig lässt. Weil aber der Rest für die Summe zweier Quadratzahlen bei Division durch 4 nie 3 ergeben kann, ist somit eine Primzahl der Form 4 n + 3 nie als Summe zweier Quadratzahlen darstellbar.

37

2. Faktorisierungsmethoden – Geschichte und Methoden
Eng mit der Sicherheit für die Entschlüsselung einer codierten Nachricht ist die Herausforderung verbunden, große natürliche Zahlen in Primfaktoren zu zerlegen. Eine bekannte Verschlüsselungsmethode ist das RSA-Verfahren, das sich bis dato als sehr effizient und sicher herausgestellt hat und heutzutage zu den wichtigsten Verschlüsselungsverfahren gezählt wird. Wir wollen uns in diesem Kapitel aber nicht mit den gängigen Verschlüsselungsverfahren beschäftigen, sondern mit den unterschiedlichen Algorithmen zur Bestimmung der Primfaktoren einer gegebenen natürlichen Zahl. Wir werden wieder durch die Geschichte wandern – von den sehr alten, teilweise sehr langsamen bis zu den neuesten und schnellsten Faktorisierungsalgorithmen. Mich hat an diesem zahlentheoretischen Problem stets die einfache Ausgangssituation fasziniert. Es gilt lediglich, eine bekannte natürliche zusammengesetzte Zahl in vernünftiger Zeit in ihre Primfaktoren zu zerlegen. Wie schwer sich das Problem jedoch für eine zusammengesetzte Zahl für große Primzahlen darstellt, werden wir noch sehen. Nur noch so viel: Sollte es jemand schaffen, einen äußerst effizienten Algorithmus zu finden, der die momentane Sicherheit der bekannten Verschlüsselungsverfahren gefährden könnte, winkt – neben einem Platz in der Geschichte der Zahlentheorie – ein stolzer Preis. Aber Vorsicht, die Konsequenzen wären auf wirtschaftlicher Ebene fatal. Begeben wir uns nun in die Welt der Algorithmen.

2.1 Geschichte der Faktorisierungsverfahren

Seit der Formulierung des Fundamentalsatzes der Arithmetik, der besagt, dass jede Zahl eindeutig in ihre Primfaktoren zerlegt werden kann, und den Euklid schon 300 v. Chr. in seinem Werk Elemente das erste Mal erwähnt und bewiesen hat, wurden auf dem Gebiet der Primfaktorisierung große Fortschritte erzielt. Das erste bekannte Faktorisierungsverfahren, das im Wesentlichen auch schon Euklid bekannt war, ist die Methode der Probedivision. Damit hatte man schon sehr früh ein Verfahren zur Faktorisierung von natürlichen Zahlen entdeckt, wenngleich es für sehr große Zahlen nicht geeignet ist, da die Methode für solche Zahlen ein sehr langsames Laufzeitverhalten aufweist. Im Jahr 1643 beschrieb Pierre de Fermat ein Verfahren – die nach ihm benannte Methode von Fermat, die heutzutage die Grundlage für nahezu alle modernen Faktorisierungsverfahren bildet. Fermat betrachtete für die Faktorisierung einer natürlichen Zahl die Differenz zwischen zwei Quadratzahlen. Auf diese Methode werden wir später noch einmal genauer zu sprechen kommen. Nur so viel 38

dazu: Die Methode von Fermat hat in bestimmten Fällen ein schlechteres Laufzeitverhalten als das sehr alte Verfahren der Probedivision. Bis zur Erfindung der Computer wurden Faktorisierungsverfahren nicht sehr intensiv untersucht, aber mit dem Boom der Informationstechnologie wurde es notwendig, die Sicherheit im Internet für die Übertragung von Daten zu garantieren. Daraus entstand ein ständiger Wettlauf zwischen Kryptografen und Kryptologen, also zwischen Verschlüsslern und Entschlüsslern, der sich bis heute fortgesetzt hat. Man kann heutzutage relativ schnell festzustellen, ob eine natürliche Zahl eine Primzahl oder eine zusammengesetzte Zahl ist, viel schwieriger gestaltet sich jedoch das Unterfangen, einen sehr schnellen Faktorisierungsalgorithmus zu finden, der die heutigen gängigen Verschlüsselungsmethoden in Gefahr bringen könnte. Momentan sind die Kryptologen den Kryptografen immer um eine Nasenlänge voraus, wenn es darum geht, Nachrichten sicher zu verschlüsseln. Ob das immer so sein wird, hängt im Wesentlichen von der zukünftigen Entwicklung ab, ob es jemandem gelingen wird, einen neues, äußerst schnelles Faktorisierungsverfahren zu entdecken, vor dem die heutigen Methoden der Verschlüsselung nicht mehr sicher sind. Sollte es jedoch in ferner Zukunft gelingen, die revolutionäre Technologie der Quantenkryptografie praxistauglich zu machen, haben die Entschlüssler wohl endgültig verloren, denn ab diesem Zeitpunkt wird es keine denkbare Möglichkeit mehr geben, einen Lauschangriff zu starten. Die Quantenkryptografie wird uns in Kapitel 5 noch intensiver beschäftigen. Die entscheidenden Entwicklungen in der Technik der Zerlegung von Zahlen gab es im 20. Jahrhundert, wobei die wichtigsten Schritte in den letzten 30 Jahren gemacht wurden. 1926 veröffentlichte Maurice Kraitchik eine Arbeit, in der er einige Verbesserungen der Methode von Fermat vorschlug. Er betrachtete neben der Untersuchung der zu faktorisierenden Zahl auch deren Vielfaches und das bedeutet, die Kongruenzen x2 ≡ y2 mod n zu lösen. Wir werden auf diesen Ansatz bei der Diskussion der Faktorisierung nach dem quadratischen Sieb noch einmal zurückkommen. Derrick Lehmer und R. E. Powers schlugen 1931 eine Methode vor, um geeignete Kongruenzen für die Form x2 ≡ y2 mod n zu finden, die sich der Näherungsbrüche der Kettenbruchentwicklung von n bedienen. Aufbauend auf der Idee von Lehmer und Power gelang es John Brillhart 1975, ein Verfahren mit subexponentiellem Aufwand zu entwickeln, mit dem er die für die damalige Zeit extrem große 39-stellige Fermat-Zahl F7 zerlegen konnte. Inspiriert durch die Vorarbeiten seiner Kollegen erfand Carl Pomerance 1981 das bis dahin schnellste Faktorisierungsverfahren mit der Bezeichnung quadratisches Sieb, mit dem es 1995 möglich war, die 129-stellige Zahl RSA-129 zu faktorisieren. Dieses Verfahren ist bis 39

heute das schnellste Verfahren, um Zahlen bis zu 100 Stellen in Primzahlen zu zerlegen. Einen Meilenstein in der Welt der Technik der Faktorisierung setzte John Pollard 1988 mit seinem Zahlenkörpersieb für spezielle Zahlen, das aber später von einer Reihe von Leuten wie Hendrik Lenstra, Carl Pomerance oder Len Adleman auf beliebige Zahlen erweitert wurde. Es gelang damit 1990 die vollständige Faktorisierung der 155-stelligen Fermat-Zahl F9. In der Praxis ist meist folgende Vorgehensweise für die Suche von Primzahlen für zusammengesetzte Zahlen üblich: 1) Mittels Probedivision nach kleinen Faktoren der zusammengesetzten Zahl suchen. 2) Mit Hilfe eines Primzahltests herausfinden, ob die Zahl eine Primzahl oder eine Primpotenz ist. 3) Mit der Methode der elliptischen Kurven nach vergleichsweise kleinen Primfaktoren (< 1030) suchen. 4) Mit dem quadratischen Sieb (für Zahlen mit weniger als 120 Dezimalstellen) oder dem Zahlkörpersieb faktorisieren. Wir werden uns nun den klassischen und modernen Faktorisierungsverfahren widmen. Hierbei werde ich versuchen, Ihnen das nötige mathematische Rüstzeug zu vermitteln, um ein tieferes Verständnis für die heute gängigen Methoden zu bekommen. Wir stehen heutzutage vor der Schwelle zu einer neuen Technologie, die in naher Zukunft das gesamte Gebäude der Informationstechnologie grundlegend verändern könnte. Die Rede ist hier von der Entwicklung hinsichtlich der Quantencomputer. Quantenphänomene werden möglicherweise zukünftig eine zentrale Bedeutung in der Informationsverarbeitung spielen und die Faktorisierungsverfahren von heute werden möglicherweise bald nur noch einen nostalgischen Wert besitzen. Bis dorthin geht er aber weiter – der Wettlauf zwischen den Parteien der Kryptografen und Kryptologen.

2.2 Sieb des Eratosthenes und Probedivision

Eratosthenes von Kyrene lebte etwa um 280 bis 200 v. Chr. und war ein griechischer Mathematiker, der als Erfinder des Sieb des Eratosthenes zur Bestimmung von Primzahlen 40

gilt, daher wurde das Verfahren auch nach ihm benannt. Der Algorithmus basiert darauf, innerhalb eines bestimmten Bereichs der natürlichen Zahl alle Primzahlen zu ermitteln. Wir wollen uns das Siebverfahren anhand der natürlichen Zahlen von 2 bis 50 veranschaulichen. Ausgehend von der ersten Primzahl 2 bis zu einer festen Schranke s = 50 können über folgende Siebschritte alle Primzahlen ermittelt werden. Wir schreiben dafür zunächst einmal die Zahlen 2 bis 50 an. 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Als ersten Schritt betrachten wir die Ausgangszahl 2 und streichen alle Zahlen, die sich als Vielfaches von 2 darstellen lassen. Logischerweise sind die Vielfachen von 2 keine Primzahlen, sie sind alle durch den Primfaktor 2, der einzigen geraden Primzahl, teilbar. 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Im zweiten Schritt wandern wir zu der nächsten unmarkierten Zahl, in unserem Fall ist das die Zahl 3. Als Nächstes werden alle Vielfachen von 3 gestrichen, was in unserem Beispiel folgendermaßen aussieht: 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Schritt 2 wird so oft wiederholt, bis die zu betrachtende Zahl größer als Wurzel √s ist. In unserem Beispiel haben wir eine feste Schranke s = 50 angenommen. Die Wurzel aus √50 ergibt die gerundete nächste ganze Zahl 7, sprich: 7 ist die letzte Zahl, die wir bearbeiten müssen. Werden jetzt noch die Vielfachen von 5 und 7 ausgesiebt, sieht das Ergebnis im Folgenden so aus:

41

2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Unser Ergebnis bildet alle Primzahlen von 2 bis zur Schranke s = 50 ab, die aus den einzelnen Siebschritten hervorgingen. Aus welchen Bestandteilen setzt sich das Sieb des Eratosthenes zusammen? 1) Es wird eine bestimmte Grenze für die Betrachtung der Zahlen festgelegt. 2) Es wird in iterativen Schritten eine Siebmethode angewendet. Die verallgemeinerte Darstellung in Punkt 1) und 2) gilt im Prinzip für jedes Siebverfahren, das zur Faktorisierung zusammengesetzter Zahlen verwendet wird. Warum kann für die Ermittlung der Primzahlen die Grenze √n für eine feste Schranke n angenommen werden? Die Grenze lässt sich aus einem Satz für zusammengesetzte Zahlen ableiten: Ist n eine zusammengesetzte Zahl, dann existiert ein Primteiler p von n mit p ≤ √n. Dieser Satz lässt sich auf Grund folgender Überlegung herleiten. Angenommen, wir haben eine zusammengesetzte Zahl und diese besitzt einen kleinsten von 1 verschiedenen Primteiler p. Da es sich um den kleinsten Primteiler handelt, müssen noch weitere Primteiler existieren, die größer sind. Daher gilt:

p≤n/p p2 ≤ n p ≤ √n

2.1 2.2 2.3

Somit konnten wir zeigen, dass für eine feste Schranke n mindestens ein Primteiler existiert, der kleiner gleich √n ist.

42

Wie können wir gemeinsam mit dem Sieb des Eratosthenes einen brauchbaren Faktorisierungsalgorithmus herstellen? Dazu sind zwei elementare Schritte notwendig: 1) Wir legen die obere Berechnungsgrenze mit √n fest. 2) Es wird geprüft, ob es eine Primzahl bis zu dieser Grenze gibt, die eine zusammengesetzte Zahl n teilt. Am einfachsten können wir uns das wieder anhand eines Rechenbeispiels verdeutlichen. Angenommen, wir wollen prüfen, ob die Zahl n = 2881 zusammengesetzt ist. Welche Schritte sind notwendig? 1) Bestimmung des gerundeten ganzzahligen Werts für die Wurzel aus 2881. Das Ergebnis ist die Zahl 53. 2) Wir müssen bis zu dieser Grenze alle Primzahlen als mögliche Teiler von 2881 prüfen, die wir aus dem Sieb des Eratosthenes erzeugen können. Welche Primteiler kommen bis zur Zahl 53 in Frage? Dafür greifen wir auf die zuvor mit dem Sieb des Eratosthenes ermittelten Primteiler zurück. 2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53 Gehen wir nun der Reihe nach alle Primzahlen durch, erhalten wir als Primteiler der Zahl n = 2881, die Zahl p = 43. An dieser Stelle kann unser Algorithmus beendet werden, die Zahl 2881 ist das Produkt folgender Primzahlen:

2881 = 43 * 67
Dieses Faktorisierungsverfahren ist in der Fachwelt als Probedivision bekannt. Es fällt unter jene Methoden, die einem exponentiellen Zeitaufwand unterliegen und ist aus diesem Grund für zusammengesetzte Zahlen mit sehr großen Primzahlen nicht geeignet, kann jedoch für die Ermittlung kleinerer Primfaktoren verwendet werden. Die Probedivision wird oftmals als Teilschritt in komplexeren Faktorisierungsverfahren verwendet, um Primfaktoren unter einer gewissen Schranke zu finden.

43

Die Methode benötigt im schlimmsten Fall

Schritte und die mittlere Laufzeit liegt etwa in der gleichen Größenordnung.

2.3 Faktorisierungsverfahren nach Fermat

Für sehr große Zahlen sind die Primfaktoren auf Anhieb nicht ohne Weiteres, wie beispielsweise aus der Zifferndarstellung, erkennbar. Aus diesem Grund ist es in der Regel sehr mühsam, eine Primfaktorzerlegung für eine bestimmte Ausgangszahl zu finden. Mit dieser Problemstellung sah sich auch Pierre de Fermat konfrontiert und entwickelte daher eine elegante Methode zur Bestimmung von Primfaktoren für zusammengesetzte Zahlen, die aber nicht immer schnell zum Ergebnis führen muss und im schlechtesten Fall langsamer als die Probedivision sein kann. Ausgangspunkt seiner Überlegungen war die Multiplikationsformel, die schon im alten Babylon Verwendung fand. Wir haben diese Formel bereits in Kapitel 1 kennen gelernt. Sie besagt nichts anderes, als dass das Produkt zweier Zahlen durch die Differenz zweier Quadrate ausgedrückt werden kann. Nachdem wir uns für das Produkt von Zahlen interessieren, wählen wir folgende Darstellung für eine zusammengesetzte Zahl n:

n = x2 – y2

2.4

Können aus dieser Darstellung die Zahlen x und y ermittelt werden, so erhalten wir aus der Beziehung x2 – y2 = (x – y) (x + y) das Produkt zweier Zahlen. Falls x – y und x + y Primzahlen sind, haben wir unser gesuchtes Ergebnis gefunden und können unsere Suche beenden, ansonsten müssen wir mit den gefundenen Zahlen in analoger Weise mit dem Ansatz x2 – y2 fortfahren.

44

Wie können aus diesem Ansatz die Zahlen x und y ermittelt werden und wo liegen die Schwierigkeiten? Bei der Suche nach der Darstellung n = x 2 – y2 starten wir mit dem kleinstmöglichen Wert von x, nämlich der Wurzel aus x. Weil wir uns im Bereich der ganzen Zahlen bewegen, wird dieser Wert wieder auf eine ganze Zahl gerundet. Wir bezeichnen diesen Wert mit x0 und er ist folglich der Startwert für die Suche der Quadratzahlen x und y. Zusätzlich benötigen wir noch eine Laufvariable i = 0, 1, 2, 3, … Wir untersuchen nun, ob

(x0 + i)2 – n

2.5

eine Quadratzahl ist. Ist dies für i = i0 das erste Mal der Fall, so sind die Quadratzahlen x und y gefunden. Man erhält dann folgende Darstellung für beide Quadratzahlen:

x2 = (x0 + i)2 y2 = x2 – n

2.6 2.7

Eventuell können sich daraus zwei numerisch schwierige Aufgaben ergeben: 1) Die Bestimmung von √n. 2) Die Prüfung, ob (x0 + i)2 – n eine Quadratzahl ist. Falls n keine zusammengesetzte Zahl ist, sprich eine Primzahl, so sind insgesamt (n – 1) / 2 Schritte erforderlich, um das festzustellen. Man ist daher gut beraten, schon vor diesem Schritt mit schnelleren Methoden, den so genannten Primzahlentests, zu bestimmen, ob es sich bei der zu zerlegenden Zahl um eine Primzahl handelt. Am besten lässt sich der fermatsche Algorithmus wieder an einem Beispiel veranschaulichen: Wir wählen die zusammengesetzte Zahl 9991, ziehen aus dieser Zahl die Wurzel und runden das Ergebnis auf den nächsten ganzzahligen Wert ab. Wir erhalten als Ergebnis den Startwert x0 = 99. Wir durchlaufen nun so lange die Variable i, bis wir eine Quadratzahl finden. i = 0: 992 – 9991 = – 190 i = 1: 1002 – 9991 = 9 → keine Quadratzahl → bingo, eine Quadratzahl!

45

Nach nur zwei Schritten haben wir unser gesuchtes Ergebnis gefunden: 9991 = 1002 – 32 Aus der Zerlegung 1002 – 32 = (100 – 3) (100 + 3) finden wir die beiden Primfaktoren: 9991 = 97 * 103 Es ist schon erstaunlich, wie viele verschiedene Zugänge uns die Mathematik für ein und dasselbe Problem eröffnen kann. Von der Laufzeit ist das Faktorisierungsverfahren nach Fermat für jene Zahlen schnell, die sich als Produkt n = cd schreiben lassen, wobei c und d in der Größenordnung von √n liegen. Jedoch ist die Probedivision deutlich schneller, wenn sich die Ausgangszahl aus kleinen Primfaktoren zusammensetzt. Ich habe mir die Mühe gemacht, diesen Algorithmus in ein C-Programm zu implementieren, das ich Ihnen nicht vorenthalten möchte. Diese Funktion unterliegt jedoch der Einschränkung, dass sich die bekannte Zahl aus zwei Primfaktoren zusammensetzen muss. Ich hoffe, dieses Programm ist ausreichend mit Kommentaren versehen! //Faktorisierungsverfahren nach Fermat #include <iostream> #include <stdlib.h> #include <stdio.h> #include <math.h> using namespace std; //Initialisierung Array, die letzten beiden Ziffern der Zahl stehen für ein Quadrat Ziffern_2[22] = {0, 1, 21, 41, 61, 81, 4, 24, 44, 64, 84, 9, 29, 49, 69, 89, 16, 36, 56, 76, 96, 25}; int primfakt(long double); 46

bool quadrat(long double); int main(int argc, char *argv[]) { //Eingabe einer Integerzahl double Zahl; cout << "Geben Sie eine Zahl ein:"; cin >> Zahl; //Solange die Zahl nicht null ist, fortfahren! while (Zahl != 0) { primfakt(Zahl); cout << "Geben Sie eine Zahl ein:"; cin >> Zahl; } return 0; } //Diese Funktion zerlegt eine zusammengesetzte Zahl in ihre Primfaktoren int primfakt (long double zus_zahl) { //Festlegung des Startwertes double k = floor(sqrt(zus_zahl)) + 1; double start = pow(k,2) – zus_zahl; //Variablen für die Deklarierung von Zähler und Zwischenergebnis double zaehler = 1, zaehler_neu = 0; double zwis_erg = start; double basis = 0; //Grenze = (n – 3) / 2 für die Laufvariable i 47

double grenze = (zus_zahl – 3) / 2; //Schalter, ob es sich um eine Quadratzahl handelt bool schalter = 0; //Prüfung, ob der Anfangswert x0 2 – n eine Quadratzahl ist if (sqrt(start) – floor(sqrt(start)) == 0) { zaehler_neu = zaehler; zaehler = grenze + 1; basis = sqrt(start); } //Schleife über die Laufvariable i for (int i = 1; zaehler ≤ grenze;i + = 2) { zaehler++; //Berechnung der Quadratzahl nach der Formel (k + 1)2 = k2 + 2 k + 1 zwis_erg + = 2 * k + i; //Bestimmung, ob die letzten beiden Ziffern für eine Quadratzahl in Frage kommen schalter = quadrat(zwis_erg); if (schalter == 1) { basis = sqrt(zwis_erg); //Prüfung, ob der Wert (x0 + i)2 – n eine Quadratzahl ist if ((basis – floor(basis))== 0) { zaehler_neu = zaehler; // Wenn ja, dann Abbruch zaehler = grenze + 1; } } 48

} //Berechnung der Primzahlen p1 und p2. double prim1 = k – basis + zaehler_neu – 1; double prim2 = k + basis + zaehler_neu – 1; //Ausgabe der Primzahlen cout << "Primfaktorzerlegung:" << "\n" ; cout << "1.Primfaktor:"; printf("%.100g \n", prim1); cout << "2. Primfaktor: "; printf("%.100g \n", prim2); return 0; } //* Die letzten beiden Ziffern einer Zahl können für die Bestimmung einer Quadratzahl herangezogen werden, wurde in dieser Funktion implementiert *// bool quadrat(long double quadr) { long double vergleich = quadr – floor(quadr / 100) * 100; for (int i = 0; i ≤ 21; i++) { if (Ziffern_2[i] == vergleich) return 1; } return 0; }

2.4 Quadratisches Sieb

49

Zu den schnellsten bekannten Algorithmen zur Faktorisierung großer Zahlen gehört das quadratische Sieb, das Carl Pomerance im Jahr 1981 erfunden hat. Mit diesem Verfahren war es das erste Mal möglich, Zahlen bis zu 100 Stellen in Primfaktoren zu zerlegen. Es kann heute noch als effizientestes Verfahren zur Faktorisierung großer Zahlen mit weniger als 100 Stellen angesehen werden. 1994 gelang es einer Gemeinschaft von 600 Helfern aus 20 verschiedenen Ländern, die 129-stellige Zahl RSA-129 in einer Zeit von acht Monaten mit diesem Verfahren zu zerlegen, die sich in voller Länge ausgeschrieben wie folgt darstellt: 114381625757888867669235779976146612010218296721242362562561842935706935245 733897830597123563958705058989075147599290026879543541 Diese zusammengesetzte Zahl kann als Produkt der beiden Primzahlen 3490529510847650949147849619903898133417764638493387843990820577 und 32769132993266709549961988190834461413177642967992942539798288533 geschrieben werden. Ihnen scheint vielleicht diese Zahl auf den ersten Blick nicht sehr groß vorzukommen, man sollte aber bedenken, dass es immerhin 17 Jahre von der Formulierung bis zur Dekodierung gedauert hat. Sie können sich zu Hause, wenn Sie in einer ruhigen Stunde einmal Lust dazu haben, überlegen, wie viele Rechenschritte mit der Probedivision für die Zerlegung dieser Zahl notwendig wären. Ich sage nur so viel: Mit Ihrem PC zu Hause sind hierfür viele Jahre Rechenzeit erforderlich. Wir wollen uns nun der mathematischen Formulierung dieser Methode widmen, die etwas mehr zahlentheoretisches Verständnis erfordert, daher werde ich an manchen Stellen einen Ausflug in die Basisthemen der Zahlentheorie machen. Ausgangspunkt wird wieder die fermatsche Darstellung für zusammengesetzte Zahlen, also die Differenz zweier Quadratzahlen, sein. Damit wir uns aber ein vollständiges Bild des quadratischen Siebs machen können, werde ich Sie zunächst einmal in die Welt der Kongruenzen und Restklassen entführen. Betrachten wir die natürliche Zahl m. Wenn zwei ganze Zahlen a und b bei der Division durch m denselben Rest lassen, wenn also

50

a = um + r b = vm + r,

und

so nennt man a und b kongruent modulo m und schreibt

a

b mod m

Begriff und Schreibweise wurden bereits von Gauß eingeführt. Der Modulo-Operator mod ermittelt den Rest für die Division zweier Zahlen. Betrachten wir die Definition anhand eines konkreten Beispiels. Wir wählen a = 12, b = 37 und m = 5 und erhalten: 12 = 2 * 5 + 2 37 = 7 * 5 + 2 mit u = 2 und v = 7. Fazit: Die Division von 12 und 37 durch 5 ergibt jeweils den Rest 2 oder anders formuliert: 12 ist kongruent 23 modulo 5. 12 37 mod 5

Die Kongruenz modulo m induziert also eine Klasseneinteilung in Restklassen. Für m = 5 erhalten wir die Restklassen 0, 1, 2, 3 und 4; das ist leicht einzusehen, wenn wir uns folgende Liste ansehen: 0, 5, 10, 15, … 1, 6, 11, 16, … 2, 7, 12, 17, … 3, 8, 13, 18, … 4, 9, 14, 19, … lässt immer den Rest 0 bei Division durch 5 = Restklasse modulo 0 lässt immer den Rest 1 bei Division durch 5 = Restklasse modulo 1 lässt immer den Rest 2 bei Division durch 5 = Restklasse modulo 2 lässt immer den Rest 3 bei Division durch 5 = Restklasse modulo 3 lässt immer den Rest 4 bei Division durch 5 = Restklasse modulo 4

Es werden also alle Zahlen, die bei Division durch 5 denselben Rest bilden, in Gruppen, so genannte Restklassen, zusammengefasst. 51

Nach einem kurzen Ausflug in die Restklassenbildung haben wir nun das mathematische Rüstzeug gewonnen, uns mit dem quadratischen Sieb zu befassen. Wie schon eingangs erwähnt, ist unsere Ausgangsbasis der Ansatz von Fermat:

n = x2 – y2

2.8

Ich werde Ihnen nun zeigen, worin die Idee dieses Verfahrens liegt. Zu Beginn werden Ihnen der eine oder andere Gedankengang und auch Rechenschritt eventuell etwas schwierig erscheinen, aus diesem Grund würde ich Ihnen empfehlen, gewisse Stellen mehrmals zu lesen und zu überdenken. Es lohnt sich, denn es ist meiner Meinung nach ein sehr lehrreiches Beispiel, wie man sich zahlentheoretischen Problemen nähern kann. Als ersten Schritt werden wir eine andere Darstellung für den Ansatz von Fermat wählen, und zwar in der Schreibweise der Kongruenz:

x2

y2 mod n

2.9

Die Äquivalenz zwischen 2.8 und 2.9 ist am einfachsten mit der Modulo-Operation einzusehen. Dividieren wir die Gl. 2.8 auf der linken und rechten Seite durch n und betrachten den Rest dazu. Wir dürfen natürlich diese Operation ausführen, da es sich links und rechts um den gleichen Wert handelt und daher das Ergebnis bei einer Division durch n auf beiden Seiten dasselbe ist. Der Rest auf der linken Seite von Gl. 2.8 ergibt, wenn n durch sich selbst dividiert wird, logischerweise immer 0. Daher lässt sich Gleichung 2.8 umschreiben in

0

x2 – y2 mod n

2.10

Die Schreibweise kongruent modulo n ist uns schon aus der oben angeführten Erklärung geläufig. In Worten bedeutet das nicht anderes, als dass die Zahl n die Differenz der beiden Quadratzahlen x und y ohne Rest teilt. Daher können wir schreiben

n | x2 – y2

2.11

| ist hierbei der Divisionsoperator. Nach der binomischen Formel lässt sich x2 – y2 in
(x + y) (x – y) zerlegen. Eingesetzt in Gleichung 2.11 erhalten wir 52

n | (x + y) (x – y)

2.12

Sofern n nicht bereits einen der beiden Faktoren x + y oder x – y teilt, sind mit

ggT (n, x + y)
und

2.13 2.14

ggT (n, x – y)

zwei Faktoren gefunden. Wäre einer der beiden Faktoren ein Vielfaches von n, wäre uns damit nicht viel geholfen, denn wir suchen die Primteiler von n. Die Bedingung, dass n weder x + y noch x – y teilt, lässt sich nach der Definition von formulieren als

x

± y mod n

2.15

Unser Ziel ist es also, zwei Zahlen x und y zu finden, für die die folgenden Bedingungen gelten:

x2 x

y2 mod n ± y mod n

2.16 2.17

Wenn die beiden Quadrate auf unterschiedliche Weise erzeugt werden können, haben wir gute Chancen, zwei Zahlen zu finden, für die Gl. 2.17 zutrifft. Ich denke, wir haben vorerst einmal genug Theorie über uns ergehen lassen. Wir werden uns wieder einem Beispiel widmen, um das Ganze besser zu verstehen. Für unser Beispiel brauchen wir eine Zahl, die sich aus zwei Primfaktoren zusammensetzt. Wir wählen die Primzahlen p1 = 13 und p2 = 157. Die zusammengesetzte Zahl ist also n = p1 * p2 = 13 * 157 = 2041. Gehen wir nun davon aus, dass wir die Primfaktoren unserer Ausgangszahl n nicht kennen und berechnen mit dem Verfahren des quadratischen Siebs die Primteiler. Im ersten Schritt gehen wir wie bei der Faktorisierung nach Fermat vor und sehen uns die Folge der Differenzen x2 – n an. Sprich: Wir ziehen wieder die Wurzel von n, runden die Zahl

53

auf den nächsten ganzzahligen Wert und bestimmen die Zahlenfolge mit der Laufvariablen i = 1, 2, 3 usw. Die Wurzel aus 2041 auf die nächste ganze Zahl gerundet ist x0 = 45. Wir beginnen nun mit unserem Verfahren. Wir werden aber sehen, dass Carl Pomerance eine entscheidende Verbesserung im Vergleich zu Fermats Verfahren einführte. i 1 2 3 4 5 6 (x0 + i)2 – n 462 – 2041 472 – 2041 482 – 2041 492 – 2041 502 – 2041 512 – 2041 Ergebnis 75 168 263 360 459 560 Tabelle 1 Sehen wir uns Tabelle 1 etwas genauer an. Wir haben Schrittweise beginnend mit i = 1 bis 6 die Differenz zwischen (x0 + i)2 – n berechnet und jedes Einzelergebnis in Primfaktoren zerlegt. Auffällig ist dabei, dass bestimmte Differenzen relativ kleine Primfaktoren aufweisen, beispielsweise 75 oder 360. In unserem Beispiel ist keine der angeführten Zahlen (x0 + i)2 – n eine Quadratzahl, aber aus folgendem Produkt kann eine Quadratzahl gebildet werden: 75 * 168 * 360 * 560 = 504002 = y2 Warum stellt dieses Produkt gerade eine Quadratzahl dar? Setzen wir dazu im Produkt anstatt der Zahlen die Primfaktoren aus Tabelle 1 ein und fassen diese aufsteigend nach der Größe der Primzahlen in Exponentenschreibweise zusammen. 75 * 168 * 360 * 560 = 210 * 34 * 54 * 72 Quadratzahlen sind dadurch charakterisiert, dass für jede Basiszahl (= Primzahl) die Zahl im Exponenten gerade sein muss, was einleuchtet, wenn die Umkehrfunktion, die Quadratwurzel, betrachtet wird. Die Wurzel zu ziehen bedeutet ja nichts anderes, als die Zahl im Exponenten zu halbieren und das ist nur dann ohne Nachkommastelle möglich, wenn es sich um eine 54 Ergebnis in Primfaktoren zerlegt 3*5*5 2*2*2*3*7 2 * 2 * 3 * 41 2*2*2*3*3*5 3 * 3 * 51 2*2*2*2*5*7

gerade Zahl handelt. Bei einer ungeraden Hochzahl würde bei einer Halbierung immer die Nachkommastelle 0,5 erzeugt werden und das entspricht der Wurzel aus einer Zahl. Ziehen wir die Wurzel aus einer Primzahl, so kann das Ergebnis nie eine ganze Zahl sein. So weit, so gut. In unserem Beispiel ist die Zahl 210 * 34 * 54 * 72 eine Quadratzahl, da alle Exponenten gerade sind, wie wir leicht an den Zahlen 10, 4 und 2 erkennen können. An dieser Stelle muss ich einen mathematischen Einschub machen, um mit dem quadratischen Sieb fortfahren zu können. Schauen wir uns noch einmal die Folge der Differenz von (x0 + i)2 – n an, die wir zu einer Quadratzahl ergänzt haben, und bezeichnen die Folge mit x12 – n, x22 – n usw. Bilden wir nun das Produkt dieser Folge und den Rest modulo n.

(x12 – n) · ... · (xk2 – n) mod n

2.18

Durch die Operation modulo n fällt der Ausdruck n im Klammerausdruck weg, da bei der Division einer Zahl durch sich selbst der Rest 0 übrig bleibt. Dann erhalten wir

x12 · ... · xk2 mod n

2.19

Gl. 2.18 und 2.19 angewandt auf unser Beispiel führen uns zu folgender Quadratzahl: (462 – 2041) (472 – 2041) (492 – 2041) (512 – 2041) mod 2041 = 462 * 472 * 492 * 512 mod 2041 oder (46 * 47 * 49 * 51)2 mod 2041 = 54028382 = x2 Wir haben zwei Zahlen x und y gefunden, die Gl. 2.16 erfüllen, denn 504002 54028382 mod 2041.

Jetzt müssen wir noch zeigen, dass die Bedingung aus Gl. 2.17 erfüllt wird, also

5402838

50400 mod 2041.

55

Bilden wir den Rest von 5402838 und 50400 mod 2041, so erhalten wir 311 und 1416. Da sich beide Zahlen unterscheiden, ist auch Gl. 2.17 erfüllt. Mit dem größten gemeinsamen Teiler können nun die Primfaktoren von 2041 bestimmt werden. Aus Gl. 2.14 ggT (x – y, n) mit x = 1416 und y = 311 folgt ggT (1416 – 311, 2041) = 13. Wir haben unsere gesuchten Primteiler gefunden. Eine Innovation dieser Methode ist das Siebverfahren, das sich wie folgt beschreiben lässt: Es wird zunächst einmal eine Faktorbasis festgelegt. Dies sind jene Primfaktoren, die innerhalb einer festen Grenze B liegen. Lässt sich nun die Differenz x 2 – n in diese Primfaktoren zerlegen, ist diese Zahl eine Basis für die Kombination zu der Quadratzahl y = (x12 – n) (xk2 – n). Es kommen aber nur jene Zahlen in Frage, die zu einem Produkt von Primzahlenpotenzen mit geraden Exponenten kombiniert werden können. In unserem Beispiel wählen wir die Faktorbasis a = 2, 3, 5 und 7. Wir sehen anhand von Tabelle 1, dass sich folgende Zahlen in diese Faktorbasis zerlegen lassen: 75, 168, 360 und 560. Diese Zahlen konnten zu der Quadratzahl 504002 kombiniert werden. Doch wir sind mit unserer Überlegung noch nicht ganz am Ende. Der Siebvorgang kann nämlich wie folgt durchgeführt werden: Ist die Zahl x2 – n durch p teilbar, so sind alle in p-Schritten folgende Zahlen durch p teilbar. Betrachten wir dazu folgende Gleichung, dann gilt für alle k:

x2 – n

(x + k·p)2 – n mod p

2.20

Am Besten lässt sich Gl. 2.20 wieder an einem Beispiel verdeutlichen. Z. B. sind die Zahlen 75 und 360 durch 5 teilbar, daher sind nach obiger Gleichung auch die 6., 11. und 16. usw. sowie die 9., 14. und 19. usw. Zahl durch 5 teilbar. Das heißt, wir brauchen ausgehend von der ersten Zahl, die sich durch einen Primteiler unterhalb der Schranke B teilen lässt, immer nur jene Zahlen zu betrachten, deren Position mit Referenzpunkt zur Ausgangszahl ein Vielfaches von p ist. Wir haben in diesem Kapitel eine sehr interessante und lehrreiche Methode zur Primfaktorzerlegung kennen gelernt. Ich muss gestehen, diese Methode ist mathematisch nicht ganz einfach zu durchblicken, aber ich hoffe, ich konnte so manchen interessierten Leser für ein Stück Zahlentheorie mit all ihrer mathematischen Raffinesse begeistern. Carl Pomerance hat uns mit diesem Verfahren ein kreatives Konzept zur Ermittlung von

56

Primfaktoren hinterlassen. Ich möchte Ihnen an dieser Stelle noch einmal kurz die wesentlichen Schritte punktuell anführen: 1) Wahl einer bestimmten Faktorbasis a. 2) Ermittlung der Differenz (x0 + i)2 – n mit x0 ist Wurzel aus n und i = 1, 2, 3 … 3) Überprüfung, ob die Differenz (x0 + i)2 – n sich in die Faktorbasis a zerlegen lässt. 4) Siebvorgang mit jeder x + k·p-ten Zahl. 5) Kombination der Primzahlenpotenzen zu einer Quadratzahl y. 6) Bestimmung des größten gemeinsamen Teilers ggT (x + y, n) oder ggT (x – y, n). Wir sehen anhand der aufgezählten Punkte, dass es sich um einen relativ komplizierten Faktorisierungsalgorithmus handelt. Vielleicht hat der eine oder andere Leser jetzt Lust bekommen, diesen Algorithmus in ein Programm umzusetzen. Ich würde hier auf jeden Fall eine Programmiersprache wählen, die eine umfangreiche mathematische Bibliothek beinhaltet; sehr gut erweist sich dafür die Programmiersprache C.

2.5 Ein Algorithmus aus eigener Idee

Ich würde mich selbst als eine mathematisch interessierte Person bezeichnen, die es in ihrer Euphorie manchmal zu neuen mathematischen Herausforderungen hinzieht und die zuweilen unermüdlich nach neuen mathematischen Ansätzen und Ideen zu suchen beginnt. Aber das ist gerade das Besondere an der Mathematik, dass man bloß mit einem Buch, Bleistift und Blatt Papier seinen neuen Gedanken und Spielereien stundenlang nachgehen und das – wahrscheinlich in konträrer Ansicht zu vielen anderen Menschen – auch noch Spaß machen kann. Der Erfahrung nach verlieren viele Schüler das Interesse an der Mathematik schon sehr früh. Das liegt wahrscheinlich daran, dass der Unterricht zu wenig übergreifend zwischen den einzelnen Wissenschaftsgebieten gestaltet wird und die Anwendungsmöglichkeiten der Mathematik ebenso zu wenig aufgezeigt werden. Meiner Meinung nach ist es relativ langweilig, wenn man die Integralrechnung in der Schule lernen muss und dafür keine praktischen Anwendungen zu sehen bekommt. Und von diesen gibt es reichlich. Zu trocken 57

sollte der Mathematikunterricht nicht ausfallen; vor allem würden sich viele Querbezüge in die Physik herstellen lassen. In dieser gibt es Stoff genug, mathematischen Anschauungsunterricht zu betreiben, der den schwer zu verarbeitenden Stoff genießbarer macht. Daher werden wir uns im nächsten Kapitel mit den Anwendungsmöglichkeiten der Zahlentheorie in der Kryptografie beschäftigen. Vorerst möchte ich Ihnen aber meinen selbst entwickelten Algorithmus vorstellen. Die Beschäftigung mit dieser Problematik hat mich dazu bewogen, dieses Buch zu schreiben. Daher habe ich mich nach langem Zögern dazu entschlossen, diesen Algorithmus in dieses Buch aufzunehmen. Meine Überlegungen beruhen, wie auch viele andere Faktorisierungsverfahren, auf der Annahme der fermatschen Darstellung für zusammengesetzte Zahlen. Daher ist der Ausgangspunkt meiner Betrachtungen folgender Ansatz:

n = x2 – y2

2.21

Jede ungerade Primzahl kann – wie jede ungerade Zahl – als Differenz zweier Quadratzahlen geschrieben werden, was sich logisch aus dem fermatschen Ansatz ableiten lässt, da wir von der Annahme ausgehen, dass n ungerade und das Produkt zweier ungerader Primzahlen ist. Wir wählen diesen Ansatz der Einfachheit halber für unsere Berechnung – natürlich kann die Annahme auf mehr als zwei Primfaktoren erweitert werden. Wir können also für jede ungerade Primzahl p schreiben:

p = x2 – y2
Und mit unserer Annahme n = p1 * p2 folgt daraus

2.22

n = (a2 – b2) (c2 – d2)

2.23

Wir lösen die beiden Klammerausdrücke aus Gl. 2.23 auf und erhalten folgendes Ergebnis: a2b2 – b2c2 – a2d2 + b2d2. Wir werden nun den Ausdruck –a2d2 – b2c2 um den Term –2 abcd und den Ausdruck a2b2 + b2d2 um den Term 2 abcd erweitern; damit erhalten wir jeweils ein vollständiges Quadrat. Wir können natürlich nur um einen Gesamtausdruck erweitern, der in der Summe wieder 0 ergibt, was bei den beiden Termen 2 abcd und –2 abcd auch der Fall ist. Also können wir schreiben: 58

(a2 – b2) (c2 – d2) = (a2b2 + 2 abcd + b2d2) – (a2d2 + 2 abcd + b2c2) = (ac + bd)2 – (ad + bc)2. Die Darstellung (ac + bd)2 – (ad + bc)2 ist nicht eindeutig. Es gibt noch eine zweite Darstellungsmöglichkeit, wenn in den beiden Klammerausdrücken statt dem positiven ein negatives Vorzeichen gesetzt wird: (a2 – b2) (c2 – d2) = (a2c2 – 2 abcd + b2d2) – (a2d2 – 2 abcd + b2c2) = (ac – bd)2 – (ad – bc)2. n besitzt außer der Zerlegung n = p1 * p2 noch die triviale Zerlegung n = n * 1 oder anders ausgedrückt: n = (n + 1)2 / 4 – (n – 1)2 / 4 = n * 1 Vergleich man nun die Darstellung von n als Differenz zweier Quadrate mit (ac + bd)2 – (ad + bc)2, so lässt sich folgendes Gleichungssystem aufstellen: ac + bd = (n + 1) / 2 ad + bc = (n – 1) / 2 Lösen wir dieses Gleichungssystem nach b auf, so ergibt sich folgender Zusammenhang zwischen b und d:

b = ((n – 1) / 2 – d) / (2 d + 1)

2.24

Betrachten wir dazu wieder ein konkretes Beispiel: Wir ermitteln uns mit der Formel von Euler zunächst zwei Primfaktoren (diese Formel haben wir bereits in Kapitel 1 behandelt). Die Formel von Euler zur Generierung von Primzahlen lautet: x2 – x + 41. Wir setzen x = 3 und x = 5 und erhalten aus der Formel von Euler die beiden Primzahlen p1 = 47 und p2 = 61 und n = 47 * 61 = 2867. Diese Zahl gilt es nun mit der Darstellung aus Gl. 2.24 zu faktorisieren. Zu diesem Zweck führen wir eine Laufvariable d = 1, 2, 3 usw. ein. Bestimmen wir nun (n – 1) / 2 und führen schrittweise bei d = 1 beginnend unsere 59

Berechnungen durch, so lange, bis b einen ganzen Wert annimmt, dann erhalten wir folgendes Ergebnis: (n – 1) / 2 = (2867 – 1) / 2 = 1433 d =1 : b = (1433 – 1) / 3 = 1432 / 3 – nicht ganzzahlig d = 2 : b = (1433 – 2) / 5 = 1431 / 5 – nicht ganzzahlig d = 3 : b = (1433 – 3) / 7 = 1430 / 7 – nicht ganzzahlig d = 4 : b = (1433 – 4) / 9 = 1429 / 9 – nicht ganzzahlig . . . d = 23 : b = (1433 – 23) / 47 = 30 → bingo, wir haben einen ganzzahligen Wert gefunden! Mit den Gleichungen p1 = 2 * d + 1 und p2 = 2 * b + 1 folgen die Primzahlen 47 und 61 und somit haben wir die Zahl n = 2867 in ihre Primfaktoren zerlegt. Wo liegt nun die obere Grenze für die Laufvariable d? Dazu müssen wir folgende Ungleichung lösen: b = ((n – 1) / 2 – d) / (2 d + 1) ≥ 1 Es ist einleuchtend, dass man b ≥ 1 annehmen darf, da 1 der kleinste Wert ist, der gerade noch mit 2 * b + 1 zu einer ungeraden Primzahl führt, nämlich zu der 3. Würden wir von b = 0 ausgehen, wäre das Ergebnis für 2 * b + 1 = 1 und dann wäre n keine zusammengesetzte Zahl, sondern eine Primzahl. Lösen wir die Ungleichung nach d auf, so führt das zu der oberen Schranke: d ≤ (n - 3) / 6 Ich möchte jedoch anführen, dass es sich hierbei um einen nicht allzu schnellen Algorithmus handelt. Das Verfahren kann aber für die Primfaktorisierung bis zu einer etwa 20-stelligen zusammengesetzten Zahl herangezogen werden.

2.6 Pollard-p-1-Methode
60

Es gibt Zahlen mit bestimmten Eigenschaften, die mit geeigneten Faktorisierungsmethoden, wie beispielsweise der Pollard-p-1-Methode, relativ gut zerlegt werden können. Solche Zahlen müssen bei Verschlüsselungsverfahren, die auf zahlentheoretischen Ansätzen beruhen, wie z. B. das RSA-Verfahren, vermieden werden. Die p-1-Methode geht auf John M. Pollard zurück, der sie 1974 beschrieben hat. Das p-1-Verfahren ist für zusammengesetzte Zahlen n mit einem Primfaktor p geeignet, wobei aber p – 1 in kleine Primfaktoren zerlegt werden kann. Dann ist es möglich, ein Vielfaches k von p – 1 zu bestimmen, ohne p zu kennen. Ausgangspunkt in unserer Überlegung ist der kleine fermatsche Satz, den wir bereits in Kapitel 1 erläutert haben. Dieser beruht darauf, dass für eine Primzahl p der Ausdruck ap-1 – 1 durch p ohne Rest geteilt werden kann oder in kongruenter Schreibweise: ap-1

1 mod p

2.25

Potenzieren wir nun Gl. 2.25 mit k, das dem Vielfachen von p – 1 entspricht, erhalten wir

a(p-1)k

1k mod p

2.26

1 hoch k ergibt natürlich immer 1 und a(p-1)k kann auch in der Form a(p-1)ak geschrieben werden. Also kann Gl. 2.26 wie folgt formuliert werden:

ap-1ak
Nachdem aber ap-1 lässt sich Gl. 2.27 zu

1 mod p

2.27

1 mod p und für Restklassenverknüpfungen das Kommutativgesetz gilt,

ak

1 mod p

2.28

umformen. Gl. 2.28 ist somit die Basis für die Berechnung der Primfaktoren einer zusammengesetzten Zahl, vorausgesetzt, dass a und p teilerfremde Zahlen sind, sprich ggT (a, p) = 1. Da p ein Teiler von ak – 1 ist und mit der zusätzlichen Bedingung, dass a k – 1 nicht durch n teilbar ist, haben wir mit ggT (ak – 1, n) einen echten Teiler von n gefunden. Damit ist n faktorisiert. 61

Der Algorithmus von Pollard verwendet als Kandidaten für k die Produkte aller Primzahlenpotenzen, die nicht größer als eine bestimmte Schranke B sind. Wir betrachten zur Veranschaulichung des Pollard-p-1-Algorithmus ein Beispiel: Wir wählen als zusammengesetzte Zahl n = 27869 und a = 2. Mit Hilfe des euklidischen Algorithmus kann man zeigen, dass ggT (3, 27869) = 1 ist. Als obere Schranke wählen wir B = 8, d. h., es kommen für k alle Produkte der Primzahlenpotenzen der Primzahlen 2, 3, 5 und 7 in Frage, die nicht größer als 8 sind. Wir gehen nun schrittweise vor und beginnen mit den kleinsten Primzahlenpotenzen, die innerhalb dieser Schranke liegen: k = 2: ggT (22 – 1, 27869) = 1 k = 3: ggT (23 – 1, 27869) = 1 k = 5: ggT (25 – 1, 27869) = 31 → bingo, wir haben einen Teiler von n = 27869 gefunden Die Zerlegung der Zahl n = 27869 in ihre Primfaktoren lautet: 27869 = 29 * 31 * 31 Eine Weiterentwicklung der Pollard-p-1-Methode ist die Faktorisierungsmethode mit elliptischen Kurven. Diese funktioniert für beliebig zusammengesetzte Zahlen.

2.7 Pollard-Rho-Methode

In diesem Abschnitt werden wir uns mit einem probalistischen Algorithmus beschäftigen, der von John M. Pollard im Jahr 1975 vorgestellt wurde. Dieses Verfahren beruht auf einer zufälligen Ermittlung der Primfaktoren einer zusammengesetzten Zahl, wobei die Laufzeit im Wesentlichen von der Größe des kleinsten Primfaktors abhängt. Dieses Verfahren ist für zusammengesetzte Zahlen mit relativ kleinen Primfaktoren besonders gut geeignet. Ausgangspunkt unserer Betrachtung ist eine Funktion, mit der natürliche Zahlen aufeinander abgebildet werden können. Aus dieser Funktion können mit einem bestimmten Startwert x0 Pseudozusfallszahlen in bestimmten iterativen Schritten generiert werden. Die Pseudozufallszahlen werden aus den Funktionswerten x0, f (x0), f (f (x0)) usw. berechnet. Gehen wir von der Annahme aus, dass wir bereits den Primfaktor p kennen, so können wir den Funktionswert modulo p bestimmen. Mit der Operation modulo p können nur p 62

verschiedene Funktionswerte berechnet werden und nach einer bestimmten Anzahl von Schritten wird sich der Wert der Folge wiederholen, sprich: die Folge wird irgendwann periodisch. Aus dem Verhalten der Folge entstand der Name des Verfahrens, das sich aus der Form eines Kreises, der bildlich gesehen eine periodische Funktion beschreibt, ergibt. Mit dem Anfangswert, der wie ein Stiel in den Kreis mündet, ergänzt sich das Bild zu dem griechischen Buchstaben ρ. Sind nun x und y zwei Zahlen der Folge der Pseudozufallszahlen, für die gilt

x ≡ y modulo p

2.29

so erhalten wir mit ggT (x – y, n) ein Vielfaches von p und in vielen Fällen resultiert daraus ein echter Teiler von n. Da wir aber p nicht kennen und somit die Periodenlänge modulo p nicht berechnet werden kann, wählt man folgende Vorgehensweise bei der Pollard-RhoMethode: Im ersten Schritt werden x und y durch die gleiche Zufallszahl s initialisiert Es wird so lange x = f (x) mod n, y =f (f (y)) mod n berechnet, bis die Bedingung ggT (x – y, n) erfüllt ist Die Berechnung wird so lange durchgeführt, bis die Zahl aus ggT (x – y, n) ungleich n und ein echter Teiler von n ist. Wenn das nicht der Fall ist, muss die Berechnung schlimmstenfalls immer wieder mit neuen Startwerten x0 so lange wiederholt werden, wie die Länge der Periode ist. Um den Algorithmus zu veranschaulichen, werden wir eine zusammengesetzte Zahl in ihre Primfaktoren zerlegen. Ausgangspunkt unseres Beispiels ist die zusammengesetzte Zahl n = 703. In seiner ursprünglichen Version wählte John Pollard für die zu betrachtende Funktion folgenden Ansatz:

f (x) = x2 + a

2.30

In unserem Beispiel wählen wir für a = 23, damit erhalten wir für die Funktion f (x) = x 2 + 23. Als Zufallszahl legen wir s = 13 fest. Nun können wir mit der Ermittlung der Primfaktoren beginnen: 63

1. Schritt: Initialisierung x0 = y0 = s = 13 2. Schritt: Bestimmung x1 = f (x0) und y1 = f (f (y0)) x1 = f (x0) = f (13) = 132 + 23 = 192 ≡ 192 mod 703 y1 = f (f (y0)) = f (f (13) = 1922 + 23 = 36887 ≡ 331 mod 703 ggT (x1 – y1, n) = ggT (192 – 331, 703) = 1 3.Schritt: Bestimmung x2 = f (x1) und y2 = f (f (y1)) x2 = f (x12) = f (192) = 1922 + 23 = 36887 ≡ 331 mod 703 y2 = f (f (y1)) = f (f (331)) → um f (331) zu bestimmen, benötigen wir einen Zwischenschritt:

f (331) = 3312 + 23 = 109584 ≡ 619 mod 703 y2 = f(f (331)) = 6192 + 23 = 383184 ≡ 49 mod 703 ggT (x2 – y2, n) = ggT (331 – 49, 703) = 1 4.Schritt: Bestimmung x3 = f (x2) und y3 = f (f (y2)) x3 = f (x2) = f (311) = 3312 + 23 = 109584 ≡ 619 mod 703 y3 = f (f (y2)) = f (f (49)) → um f (49) zu bestimmen, benötigen wir erneut einen Zwischenschritt:

f (49) = 492 + 23 = 2424 ≡ 315 mod 703 y3 = f(f (49)) = 3152 + 23 = 99248 ≡ 125 mod 703

64

ggT (x3 – y3, n) = ggT (619 – 125, 703) = 19 → bingo, wir haben einen Primfaktor gefunden Nach nur vier Rechenschritten hat uns der Ansatz von John Pollard zum gewünschten Ergebnis geführt. Hätte man hingegen im Vergleich dazu die Faktorisierungsmethode der Probedivision auf die Zahl n = 703 angewandt, die in der Praxis bei der Ermittlung kleiner Primfaktoren üblich ist, wären bei der Überprüfung etwa doppelt so viele Rechenschritte erforderlich gewesen, wenn man die Rechung bloß auf die fraglichen Primzahlen begrenzt hätte. Somit ist die Methode von John Pollard ein gutes Instrumentarium zur Überprüfung kleiner Primfaktoren einer zusammengesetzten Zahl. Die Zahl n = 703 in Primfaktoren zerlegt lautet demnach: 703 = 19 * 37

Ich möchte an dieser Stelle meine Ausführungen über Faktorisierungsverfahren beenden. Es ließe sich noch eine Reihe anderer Verfahren beschreiben, ich denke aber, das würde den Rahmen des Buches sprengen. Trotzdem konnten wir einen grundlegenden Einblick in die Welt der Faktorisierungsalgorithmen gewinnen, von den eher langsamen und alten Verfahren der Probedivision und fermatschen Methode bis hin zu den sehr schnellen und trickreichen Methoden des quadratischen Siebs, der Pollard-p-1-Methode und Pollard-Rho-Methode. Nebenbei konnte ich Ihnen eine Eigenentwicklung präsentieren, die – wie ich hoffe – vielleicht den einen oder anderen Leser möglicherweise anspornen kann, eine eigene Faktorisierungsmethode zu entwerfen. Wie wir gesehen haben, gibt es viele verschiedene Wege, ein zahlentheoretisches Problem wie das der Primfaktorzerlegung zu lösen. Ich möchte daher jene, die sich auf dem Gebiet der Faktorisierung vertiefen wollen, noch auf folgende Algorithmen aufmerksam machen: - Faktorisierungsmethode von Lehman - Pollard-p+1-Methode - Methode der elliptischen Kurven - Zahlkörpersieb Im nächsten Kapitel werden wir uns einen geschichtlichen Überblick über die Entwicklung der Verschlüsselungstechniken verschaffen. Mit diesem Rückblick werden wir neben der 65

historischen Entwicklung auch die Kunst der Verschlüsselung kennen lernen. Ebenso werden wir anhand der RSA-Verschlüsselung ein typisches Beispiel einer zahlentheoretischen Anwendung diskutieren und wir werden sehen, wie eng die Kryptografie mit bestimmten Themen der Zahlentheorie verwoben ist.

66

3. Geschichte und Kunst der Verschlüsselung
Das Wort „Kryptografie“ stammt aus dem Griechischen und bedeutet soviel wie „verborgen schreiben“. Mit diesen Wörtern wird eigentlich schon das Wesentliche über die Kunst der Verschlüsselung zum Ausdruck gebracht. Erfolgt ein Austausch von Nachrichten zwischen Sender und Empfänger, sollte es einem Dritten nicht möglich sein, diese Nachrichten zu lesen. Dazu bedarf es komplizierter Verschlüsselungstechniken, die aus einem Klartext einen Geheimtext generieren. Entscheidend dabei ist, verschlüsselte Nachrichten vor Angriffen eines Dritten zu schützen. Dass das in der Geschichte der Verschlüsselung nicht immer gelang, werden wir anhand bestimmter historischer Ereignisse sehen, die manchmal sogar zu einer Wende in der Geschichte führten. Gelangt nun die Nachricht an seinen Adressaten, so sollte der Geheimtext wieder in einen leserlichen Klartext umgewandelt werden können. Dazu ist allerdings der Zugriff auf einen Schlüssel erforderlich, mit dem der Klartext zuvor in einen Geheimtext verschlüsselt wurde und mit dem auch der Umkehrprozess ermöglicht werden kann. Lange Zeit waren für die Erzeugung, Aufbewahrung und Versendung solcher Schlüssel gewaltige logistische Anstrengungen und Sicherheitsvorkehrungen notwendig – erst vor Kurzem wurden diese Probleme mit neuen Verschlüsselungstechniken mit einem Schlag gelöst. Wir werden später noch näher darauf eingehen. In Kapitel 3 werden wir nun mehr über folgende Themen erfahren: Geschichte der Verschlüsselung, Verschlüsselungsmethoden, Bezüge zur Zahlentheorie und zukünftige Entwicklungen. Es handelte sich um einen langen Kraftakt in der Kunst der Verschlüsselung von der Antike bis heute, wie wir im nächsten Abschnitt sehen werden.

3.1 Geschichte der Verschlüsselung von der Antike bis ins Internetzeitalter

Obwohl die Kryptografie auf eine lange und komplexe Geschichte zurückblicken kann, begann diese sich erst im 20. Jahrhundert zu einer systematischen Wissenschaftsdisziplin zu entwickeln. Im Zeitalter des Internets wurde dann der Zugang für jedermann möglich und so ist es für uns heutzutage beinahe zu einer Selbstverständlichkeit geworden, Daten sicher und

67

schnell auszutauschen. Die Zahlentheorie hat eine große Portion zu dieser Entwicklung beigetragen. Schon in der Antike wurden unübliche Hieroglyphen zum Austausch geheimer Botschaften benutzt. Die ersten Aufzeichnungen stammen aus Ägypten um etwa 1900 v. Chr. So wurden bei Pharaonen untypische Zeichen in Gräbern verewigt, deren Sinn und Zweck bis heute nicht bekannt ist. Im eigentlichen Sinne waren die ersten geheimen Botschaften keine verschlüsselten Texte, sondern die überbrachten Nachrichten wurden lediglich versteckt. Beispielsweise wurden Nachrichten in Holzplatten geritzt und mit Wachs überzogen oder man tätowierte Sklaven die Nachricht auf ihre Glatze und wartete, bis das Haar nachgewachsen war und schickte sie dann mit der Botschaft zum Empfänger. Die ersten systematischen Verschlüsselungen findet man bereits im alten Testament – dort wurde beispielsweise das Wort „Babel“ an manchen Stellen durch das Wort „Sheshech“ ersetzt. Die Verschlüsselungstechnik funktionierte nach einem Substitutionsalgorithmus, in dem der erste Buchstabe mit dem letzten, der zweite Buchstaben mit dem vorletzten usw. vertauscht wurde. Daraus ergab sich dann das umgekehrte Alphabet. Das gleiche Prinzip wurde um 600 v. Chr. in Palästina in der hebräischen Geheimschrift „Atbash“ angewandt. Ein nach Caesar benanntes Verschlüsselungsverfahren, die so genannte „Caesar-Cipher“, bediente sich ebenfalls einer Substitutionstechnik. Nachdem damals nur sehr wenige Leute bis drei zählen konnten, wurde ein Buchstabe durch einen Buchstaben, der drei Stellen weiter im Alphabet stand, ersetzt. Dieses Verfahren hatte aber auf Grund des zunehmenden Bildungsniveaus nur kurze Zeit Erfolg. Im Laufe der Zeit wurden die Verschlüsselungsverfahren immer komplizierter und das Klartextalphabet, womit die ursprüngliche Nachricht geschrieben war, wurde mit immer besser entwickelten Methoden – durch das Geheimtextalphabet, das an Stelle der Klarbuchstaben trat – ersetzt. Grundsätzlich lässt sich feststellen, dass die Sicherheit eines Kryptosystems nicht auf der Geheimhaltung des Algorithmus, sondern auf der Geheimhaltung des Schlüssels beruht. Nicht nur in der Geheimhaltung dessen, sondern auch in der Anzahl der möglichen Kombinationen. Beispielsweise hat die Caesar-Verschiebung insgesamt nur 25 mögliche Schlüssel. Wenn nun der Gegner die verschlüsselte Nachricht abfängt und vermutet, dass die Caesar-Verschiebung als Verschlüsselungsmethode gebraucht wurde, muss er nur diese 25 Möglichkeiten prüfen. Ein wesentlich sichereres Verfahren beruht darauf, einen Klarbuchstaben nach dem Zufallsprinzip mit einem Geheimbuchstaben zu paaren, was schon 400 v. Chr. als 45. von 64 Künsten im Kamasutra beschrieben wurde. Die Kunst der Geheimschrift war den Frauen von damals gewidmet, um ihre Affären geheim 68 zu halten. Der Vorteil dieser

Verschlüsselungsmethode lag in der riesigen Anzahl von Kombinationen. Selbst wenn der Gegner eine Vermutung über den Algorithmus anstellen konnte, bestand gute Hoffnung, dass er den Schlüssel nicht erraten würde. Der Schlüssel, der in diesem Fall die zufällige Zuordnung von Klar- auf Geheimtextalphabet ist, musste natürlich streng geheim bleiben. Der Oberbegriff für diese Substitutionsmethode, bei der das Klartextalphabet durch Buchstaben, Symbole oder Zahlen ersetzt wird, nennt man monoalphabetische Verschlüsselung. Diese galt lange als unverwundbar, doch wie so oft in der Geschichte wurde man eines Besseren belehrt. Nachdem das Substitutionsverfahren viele Jahrhunderte die höchste Verschlüsselungskunst war, gelang der Durchbruch zur Entschlüsselung im arabischen Raum um 800 bis 1200 n. Chr. Damals steckte Europa noch tief im Mittelalter. Die arabischen Gelehrten dieser Zeit sind die Erfinder der Kryptoanalyse, also der Wissenschaft der Entschlüsselung eines Geheimtextes ohne Kenntnis des Schlüssels. In der Blütezeit der islamischen Kultur und Wissenschaft wurde durch eine Mischung aus Mathematik, Statistik und Sprachwissenschaft die Methode der Häufigkeitsanalyse geboren, die das Ende der monoalphabetischen Substitutionsmethode besiegelte. Aus dem Studium des Korans entwickelten arabische Theologen diese Technik, in dem sie die Anzahl der Wörter und Buchstaben zählten. Im Arabischen kommen beispielsweise das A und das l am häufigsten, jedoch das J zehnmal weniger häufig vor. Diese scheinbar harmlose Beobachtung ist aber genau der Schlüssel zur Dechiffrierung der damaligen geheimen Botschaften. Analysiert man den fraglichen Geheimtext und stellt die Häufigkeit jedes Buchstaben fest, lässt sich aus einem Vergleich mit der Häufigkeit der Buchstaben in der jeweiligen Sprache eine Paarung nach der Häufigkeit herstellen. Im Deutschen ist das E der häufigste Buchstabe, wäre jetzt der häufigste Buchstabe im Geheimtext das J, dann steht er wahrscheinlich für das E. Somit lassen sich durch Analyse der Häufigkeit der Buchstaben in der chiffrierten Nachricht die Buchstaben im Geheimtext entschlüsseln. Ein geschichtlich interessantes Ereignis steht im Zusammenhang mit der Entschlüsselung eines geheimen Briefwechsels zwischen Maria Stewart und ihren katholischen Anhängern, der zu Maria Stewarts Enthauptung führte. Anthony Babington plante im Jahr 1586 gemeinsam mit seinen befreundeten Katholiken eine Verschwörung, die zum Ziel hatte, die protestantische englische Königin Elisabeth I. zu ermorden. Diese Verschwörung ging als „Babington-Komplott“ in die Geschichte ein. Der Überbringer dieser Botschaft, Maria Stewart, saß zu diesem Zeitpunkt gerade im Gefängnis war ein Spion der englischen Königin – so kamen die Mordabsichten schnell ans Tageslicht. Die Briefe zwischen Maria Stewart und 69

ihren Anhängern waren zwar verschlüsselt worden, aber mit der Kenntnis der Häufigkeitsanalyse war es in dieser Zeit keine Schwierigkeit mehr, die Texte zu dechiffrieren. Sie wurde auf Grund der erdrückenden Beweislage von einem Gericht schuldig gesprochen und am 8. Februar 1586 in Anwesenheit von 300 Zuschauern enthauptet. Die Fortschritte in der Kryptoanalyse wurden Maria Stewart zum schicksalhaften Verhängnis. Nachdem die Kryptologen ein Verfahren entwickelt hatten, um das damals sicherste Verschlüsselungskonzept zu sprengen, lag nun der Ball wieder bei den Kryptografen, eine neue, stärkere Verschlüsselung zu entwickeln. Die Vorarbeiten dafür lieferte der Florentiner Mathematiker Leon Battista Alberti, der im Jahr 1640 ein verbessertes Konzept, aufbauend auf der monoalphabetischen Verschlüsselung, vorschlug. Seine Idee lag darin, statt einem einzigen Geheimtextalphabet zwei oder mehrere Geheimtextalphabete als Schlüssel zu verwenden. Damit konnte ein Buchstabe aus dem Klartext in mehrere unterschiedliche Buchstaben des Geheimtextes chiffriert werden. Alberti gelang hiermit zwar der bedeutendste Durchbruch in der Kryptografie seit über tausend Jahren, doch er entwickelte seine Idee nicht zu einem ausgereiften Verschlüsselungssystem weiter. Den entscheidenden Schritt dazu machte der französische Diplomat Blaise de Vigenère mit der nach ihm benannten VigenèreVerschlüsselung, die dem neuen Verschlüsselungssystem seine endgültige Gestalt gab. Die Stärke bei dieser Verschlüsselung beruht darauf, dass nicht nur ein, sondern 26 Geheimtextalphabete benutzt werden, um eine Botschaft zu verschlüsseln. Als ersten Schritt zeichnet man ein so genanntes Vigenère-Quadrat. Unter einem Klartextalphabet sind 26 Geheimtextalphabete aufgelistet und jedes davon um einen Buchstaben gegenüber dem Vorgänger verschoben, wie es aus Tabelle 2 hervorgeht.

Klar A B C D E F G H I J K L M N O P Q R S T U V W X Y Z 1 2 3 4 5 6 7 8 9 10 B C D E F G H I J K L M N O P Q R S T U V WX Y Z A C D E F G H I J K L M N O P Q R S T U V WX Y Z A B D E F G H I J K L M N O P Q R S T U V WX Y Z A B C E F G H I J K L M N O P Q R S T U V WX Y Z A B C D F G H I J K L M N O P Q R S T U V WX Y Z A B C D E G H I J K L M N O P Q R S T U V WX Y Z A B C D E F H I J K L M N O P Q R S T U V WX Y Z A B C D E F G I J K L M N O P Q R S T U V WX Y Z A B C D E F G H J K L M N O P Q R S T U V WX Y Z A B C D E F G H I K L M N O P Q R S T U V WX Y Z A B C D E F G H I J 70

11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

L M N O P Q R S T U V WX Y Z A B C D E F G H I J K M N O P Q R S T U V WX Y Z A B C D E F G H I J K L N O P Q R S T U V WX Y Z A B C D E F G H I J K L M O P Q R S T U V WX Y Z A B C D E F G H I J K L M N P Q R S T U V WX Y Z A B C D E F G H I J K L M N O Q R S T U V WX Y Z A B C D E F G H I J K L M N O P R S T U V WX Y Z A B C D E F G H I J K L M N O P Q S T U V WX Y Z A B C D E F G H I J K L M N O P Q R T U V WX Y Z A B C D E F G H I J K L M N O P Q R S U V WX Y Z A B C D E F G H I J K L M N O P Q R S T V WX Y Z A B C D E F G H I J K L M N O P Q R S T U WX Y Z A B C D E F G H I J K L M N O P Q R S T U V X Y Z A B C D E F G H I J K L M N O P Q R S T U V W Y Z A B C D E F G H I J K L M N O P Q R S T U V WX Z A B C D E F G H I J K L M N O P Q R S T U V WX Y A B C D E F G H I J K L M N O P Q R S T U V W X Y Z Tabelle 2: Vigenère-Quadrat

Um nun eine Nachricht zu verschlüsseln, muss als Erstes ein Schlüssel zwischen dem Sender und dem Empfänger festgelegt werden. Dieser kann aus einem Wort, einem Satz oder einem ganzen Text bestehen. Danach wird er entsprechend der Länge der zu verschlüsselten Nachricht mehrmals hintereinander geschrieben. Nun folgt der geheime Text, den man unter die Anreihung des Schlüssels notiert. Dazu betrachten wir folgendes Beispiel: Wir definieren als Schlüssel das Wort QUADRAT und wollen folgenden Text in eine geheime Botschaft umwandeln: Kunst der Verschlüsselung. Schreiben wir nun das Wort QUADRAT in wiederholender Sequenz über den Klartext, erhalten wir folgende Darstellung: QUADRATQUADRATQUADR (Anreihung des Schlüssels) Kunst der Verschlüsselung (Klartext) Nun können wir mit der eigentlichen Verschlüsselung beginnen. Um in unserem Beispiel den ersten Klarbuchstaben zu verschlüsseln, betrachten wir im Vigenère-Quadrat die Q-Zeile, da sich über dem K von „Kunst der Verschlüsselung“ der Schlüsselbuchstabe Q befindet. Die QZeile entspricht nun dem Geheimtextalphabet, das zur Verschlüsselung von K verwendet 71

wird. Da über dem Vigenère-Quadrat ein Klartextalphabet steht, fällt es nicht schwer, aus diesem das K herauszusuchen und dann senkrecht nach unten bis zur Q-Zeile zu gehen. Dabei erhält man den Geheimbuchstaben A. Also wird der erste Klarbuchstabe K im Geheimtext durch ein A ersetzt. Man kann nun immer nach dem gleichen Schema fortfahren und daraus den Geheimtext generieren. Ich möchte es an dieser Stelle dem Leser überlassen, den Klartext „Kunst der Verschlüsselung“ in einen Geheimtext zu chiffrieren. An diesem Beispiel kann man deutlich das Hauptmerkmal der polyalphabetischen Verschlüsselung erkennen. Derselbe Klarbuchstabe wird im Geheimtext nicht immer vom gleichen Geheimbuchstaben dargestellt. Trotz der Komplexität und extrem hohen Sicherheit gelang es einem exzentrischen Briten namens Charles Babbage Mitte des 19. Jahrhunderts, diese Verschlüsselungsmethode zu knacken. Das Genie Charles Babbage ist vor allem für den ersten Entwurf eines modernen Computers bekannt geworden. Am Ende des 19. Jahrhunderts hatten die Kryptologen wieder mal den Wettstreit um die Vorherrschaftsstellung in der Kunst der Verschlüsselung und Entschlüsselung gewonnen und so begann die Suche nach einem neuen Verfahren, das durch die Entdeckung des italienischen Physikers Guglielmo Marconi notwendiger denn je wurde. Marconi ist der Entdecker des ersten Funkgeräts, mit dem Nachrichten zwischen Sender und Empfänger drahtlos übermittelt werden konnten. Zuvor war der Telegraf schon seit einem halben Jahrhundert in Gebrauch, doch für diese Art der Telekommunikation war bis dato immer eine Drahtverbindung notwendig gewesen. Der Vorteil in der drahtlosen Verbindung durch Funkwellen lag in der direkten Kommunikation zwischen beliebigen Orten – damit waren Funkgeräte ideale Instrumente für militärische Zwecke. Nachdem sich Funkwellen in alle Richtungen ausbreiten können, liegt der entscheidende Nachteil darin, dass diese nicht nur den gewollten Empfänger, sondern auch unweigerlich den Gegner erreichen können. Eine zuverlässige Verschlüsselung wurde damit unumgänglich, damit der Gegner an der Entschlüsselung militärischer Meldungen gehindert werden konnte. Mit Ausbruch des Ersten Weltkriegs waren alle Kriegsgegner darauf konzentriert, die Möglichkeiten des Funkverkehrs voll auszuschöpfen; zugleich hatte man aber bis dahin kein sicheres Konzept für die Verschlüsselung von Nachrichten entdeckt. Trotz vieler Bemühungen seitens der Kryptografen gab es eine Reihe kryptografischer Fehlschläge. In der Zeit zwischen 1914 und 1918 wurden zwar einige neue Verschlüsselungsmethoden entdeckt, aber diese hielten den Entschlüsselungskünsten der Kryptologen nicht lange stand. Erst mit Ende des Ersten Weltkriegs begann sich das Blatt wieder zu Gunsten der Kryptografen zu wenden. Der deutsche Erfinder Arthur Scherbius entwarf als Erster eine elektronisch72

mechanische Chiffriermaschine, die er „Enigma“ nannte und für die er 1918 sein erstes Patent erwarb. Sie sollte die gefürchteste Chiffriermaschine der Geschichte werden. Die „Enigma“ bestand aus mehreren Walzen und einer Schreibmaschinentastatur. Wurde eine Taste gedrückt, floss über elektronische Kontakte Strom durch die Walzen bis zu der Anzeige, an der die verschlüsselten Buchstaben aufleuchteten. Bei jedem Tastendruck drehten sich die Walzen weiter, somit wurde derselbe Buchstabe immer wieder anders verschlüsselt. Die Standardversion der „Enigma“ hatte drei Walzen und vier vertauschbare Buchstabenpaare, die über ein so genanntes „Steckerbrett“ mittels Kabelverbindungen gewechselt werden konnten. Aus der Lage und Anfangsstellung der Walzen und der vertauschbaren Buchstabenpaare ergibt sich eine ungemein große Anzahl an Schlüsselkombinationen. Insgesamt sind es 17.298.883.602.000 mögliche Schlüssel. Schon vor dem Zweiten Weltkrieg lieferte eine Gruppe polnischer Mathematiker um Marian Rejweski große Erfolge bei der Entschlüsselung von Texten, die mit der „Enigma“ codiert wurden. Mit Hilfe elektronischer Rechenmaschinen, die als „Bomben“ bezeichnet wurden, konnte innerhalb von Stunden der Tagesschlüssel, der zum Chiffrieren militärischer Nachrichten während des Zweiten Weltkriegs von den Deutschen benutzt wurde, ermittelt werden. Daher verbesserten die Deutschen 1939 ihre alte Version der „Enigma“, verwendeten statt bisher drei nun fünf Walzen und erweiterten die Anzahl der vertauschbaren Buchstabenpaare von vier auf zehn. Eine wahre Armada von britischen Kryptoanalysten arbeitete während des Zweiten Weltkriegs, um an die Arbeiten des polnischen Mathematikers Marian Rejweski anzuknüpfen. Insgesamt 7000 Frauen und Männer waren in Bletchley Park beschäftigt, um die von der deutschen „Enigma“ verschlüsselten Nachrichten zu knacken. Letztlich hatte sich der Aufwand an Rechenmaschinen und geistigen Potenzial gelohnt, denn die entschlüsselten militärischen Nachrichten der Deutschen und die damit verbundene Offenbarung ihrer Strategie haben den Ausgang des Zweiten Weltkrieges entscheidend zu Gunsten der Alliierten beeinflusst. Wir werden uns nun der modernen Kryptografie widmen, die aus grundlegenden mathematischen Konzepten entstanden ist. Als eigentlicher Begründer der mathematischen Kryptografie wird Claude Shannon angesehen, der auch als Schöpfer der Informationstheorie gilt. Seine Arbeit über Informations- und Kommunikationstheorie im Jahr 1949 bildete die mathematische Grundlage der modernen Kryptografie. 1976 gelangen zwei wichtige Schritte in der modernen Kryptografie: Einerseits die Entwicklung des Data-Encryption-StandardAlgorithmus (kurz: DES-Algorithmus), der von der IBM und der NSA gemeinsam entworfen wurde, und andererseits die Veröffentlichung eines Artikels, in dem Whitfield Diffie und 73

Martin Hellman, zwei sehr bedeutende Kryptografen in jüngerer Zeit, eine Lösung des fundamentalen Problems der Schlüsselverteilung vorschlagen. DES war ein weit verbreiteter symmetrischer Verschlüsselungsalgorithmus, der ursprünglich entwickelt wurde, um sichere Bankentransaktionen durchführen zu können. Allerdings wird dieser auf Grund der unsicheren kurzen Schlüssellänge von 56 Bit heutzutage nicht mehr verwendet. Wir werden auf diesen Algorithmus im nächsten Kapitel noch genauer eingehen. Die neue radikale Methode der Schlüsselverteilung von Diffie und Hellman, die besser unter dem Namen Public-Key-Verfahren bekannt ist, ist entscheidend anders als das herkömmliche Verteilungsprinzip, das stets auf einem symmetrischen Schlüssel beruhte. Bei den vorangegangenen Verschlüsselungsmethoden erlaubte der Besitz eines Schlüssels die Verund Entschlüsselung einer Nachricht, daher musste der Schlüssel immer über einen äußert sicheren Weg ausgetauscht werden. Das änderte sich nun schlagartig mit dem grundlegenden neuen Konzeptvorschlag von Diffie und Hellman. Im Public-Key-Verfahren gibt es ein Paar zusammenpassender Schlüssel. Einer davon ist der öffentliche Schlüssel und der andere der private Schlüssel. Der öffentliche Schlüssel wird zum Verschlüsseln einer Nachricht, der private Schlüssel zum Entschlüsseln der Nachricht verwendet. Der öffentliche Schlüssel kann von jedermann benutzt werden, um dem Eigentümer des privaten Schlüssels eine Nachricht zu schicken. Der private Schlüssel, wie das Wort schon zum Ausdruck bringt, muss vom Besitzer geheim gehalten werden und dient zum Entschlüsseln der gesendeten Nachricht. Mit dieser Methode wird das Problem der Schlüsselverteilung gänzlich gelöst, da nur ein Schlüsselpaar für jeden Empfänger benötigt wird. Der Besitz des öffentlichen Schlüssels setzt die Sicherheit des privaten Schlüssels nicht aufs Spiel. Ein solches Kryptosystem wird als „asymmetrisch“ bezeichnet. Auf den Vorarbeiten von Diffie und Hellmann entwickelten die drei Mathematiker Rivest, Shamir und Adleman ein neues Public-Key-Verfahren mit den Namen RSA, das heutzutage zu den gängigsten und wichtigsten Verschlüsselungsverfahren zählt. Ihre Idee basiert auf der Faktorisierung einer großen Zahl mit mindestens zwei Primfaktoren. Die Multiplikation zweier Primzahlen ist eine einfache Angelegenheit, jedoch ist die Zerlegung, wie wir schon ausgiebig in Kapitel 2 diskutiert haben, eine äußerst aufwändige Sache. Die große zusammengesetzte Zahl ist nun die Basis für den öffentlichen Schlüssel und kann zur Verschlüsselung einer Nachricht verwendet werden. Die Kenntnis der Primfaktoren der zusammengesetzten Zahl dient zum Entschlüsseln einer Nachricht und ist die Grundlage für den privaten Schlüssel. Wie schon in Kapitel 2 erwähnt, haben wir es hier mit einer zahlentheoretischen Anwendung für ein sehr modernes und sicheres Kryptoverfahren zu tun. 74

Funktionen, bei denen die eine Richtung leicht, die andere Richtung jedoch schwer zu berechnen ist, nennt man „Einwegfunktionen“. Auf solche Funktionen werden wir noch einmal bei der Diskussion im Zusammenhang mit Verschlüsselungsverfahren treffen. Das britische Government Communications Headquarters hatte am 17. Dezember 1997 veröffentlicht, dass sie bereits vor Diffie und Hellman ein ähnliches Public-Key-Verfahren entwickelt haben. Es liegt anscheinend in der Natur der Sache, dass das Militär über die notwendigen Mittel verfügt, in diesen Dingen eine bedeutende Rolle zu spielen, aber seit jeher sehr verschwiegen in solchen Angelegenheiten war. Ich hoffe, ich konnte Ihnen einen kurzen geschichtlichen Überblick über die Kunst der Verschlüsselung vermitteln. Wie wir gesehen haben, war die Entwicklung der Kryptografie immer eng an militärische Ziele gekoppelt und nicht nur einmal wurde der Ausgang einer kriegerischen Auseinandersetzung durch den Ausgang des Wettlaufs zwischen Kryptografen und Kryptologen bestimmt. Die Entwicklung war immer dadurch gekennzeichnet, dass Verschlüssler versuchten, immer schwerer zu knackende Kryptosysteme zu konstruieren und die Entschlüssler probierten, diese mit gefinkelten Methoden und Überlegungen wieder zu Fall zu bringen. Aus heutiger Sicht gehen die Kryptografen mit ihren modernen mathematischen Verschlüsselungsverfahren als Sieger hervor; wie lange das so sein wird, wird uns die Zeit zeigen – keiner weiß es. Bevor wir uns den Verschlüsselungsverfahren zuwenden, werde ich hier einen Einschub machen und Ihnen die Methoden zur Primzahlenbestimmung vorstellen. Primzahlen bestimmter Charakteristik sind die grundlegenden Elemente, damit überhaupt ein sicheres Verschlüsselungsverfahren wie das RSA-Verfahren funktionieren kann. Wir werden uns daher nun einen genaueren mathematischen Einblick in Primzahlen verschaffen.

3.2 Primzahlen

Für Public-Key-Verfahren braucht man häufig große Primzahlen. Aus diesem Grund erzeugt man natürlich Zahlen der richtigen Größe und prüft, ob sie Primzahlen sind. Dazu wurden effiziente Primzahlentests entwickelt, die ich Ihnen in diesem Kapitel vorstellen möchte. Die Definition einer Primzahl habe ich schon in Kapitel 1 gebracht, die besagt, dass jede Primzahl 75

nur die Zahl 1 und sich selbst geteilt werden kann. Alle anderen Zahlen können eindeutig, laut dem Fundamentalsatz der Arithmetik, in Primfaktoren zerlegt werden. In diesem Kapitel werden wir uns mit folgenden Themen befassen: Allgemeines zu Primzahlen, Probedivision, Fermat-Test, Pseudoprimzahlen und Naturphänomene. Mit dem Thema Naturphänomene möchte ich einen kurzen Ausflug in die Welt der Biologie machen, um die vielfältigen Anwendungsmöglichkeiten der Primzahlen aufzuzeigen. In diesem Zusammenhang ist es einer Forschergruppe das erste Mal gelungen, eine Brücke zwischen den weit auseinander liegenden Disziplinen, der Zahlentheorie und der Biologie, zu schlagen.

3.2.1 Allgemeines zu Primzahlen

Wir werden uns hier kurz mit den Eigenschaften von Primzahlen beschäftigen, da sie, wie schon mehrmals erwähnt, eine zentrale Rolle in der Kryptografie respektive für Verschlüsselungsverfahren spielen. Primzahlen nehmen in der Mathematik eine besondere Stellung ein und man kann sie mit Recht als die atomaren Bausteine der Zahlentheorie bezeichnen. Mit Ausnahme der Zahl 2 sind alle Primzahlen ungerade, daher lassen sich alle ungeraden Primzahlen in der Form

p=2*k+1

3.1

darstellen. Jede Primzahl kann aber auch entweder in der Form

p=4*k+1
oder in der Form

3.2

p=4*k+3

3.3

76

geschrieben werden. Wir haben bereits in Kapitel 1 Primzahlen der Form 4 * k + 1 behandelt und festgestellt, dass sie als Summe zweier Quadratzahlen darstellbar sind. Daraus lässt sich sogar ein Primzahlenkriterium definieren. Hätte nämlich eine Zahl genau nur eine Darstellung a2 + b2 mit a und b größer 1 und wäre noch ggT (a, b) = 1 erfüllt, dann haben wir eine Primzahl der Form 4 * k + 1 gefunden. Jede Zahl der Form 4 * k + 3 enthält mindestens einen Primfaktor der Form 4 * k + 3. Ein weiteres Primzahlenkriterium lässt sich aus der Darstellung der Differenz zweier Quadrate ableiten. Besitzt eine ungerade Primzahl 2 * k + 1 keine weitere Darstellung außer (k + 1)2 – k2, dann haben wir es ebenfalls mit einer Primzahl zu tun. Für sehr große Zahlen sind das natürlich keine praktikablen Kriterien. Ein sehr interessanter Zusammenhang ergibt sich aus dem Primzahlsatz, mit dem die Verteilung der Primzahlen unterhalb einer bestimmten Schranke abgeschätzt werden kann. Der Primzahlsatz besagt, dass

3.4 gilt, d. h., dass der Quotient von linker und rechter Seite für bestimmt werden: . gegen 1 strebt. Anhand

folgender Beispiele kann die Anzahl der Primzahlen bis zur Grenze 10, 100 und 1000

Die Anzahl der Primzahlen innerhalb einer bestimmten Grenze ist natürlich auch im Kontext der Primzahlensuche zu sehen. Wir betrachten nun zwei Methoden zur Überprüfung von Primzahlen.

3.2.2 Probedivision

Wir haben schon in Kapitel 2 zum Thema „Faktorisierungsmethoden“ das Verfahren der Probedivision besprochen, das auf Eratosthenes von Kyrene zurückgeht. Unser Primzahlenkriterium beruhte auf folgendem Satz: Wenn n eine zusammengesetzte natürliche 77

Zahl ist, dann hat n einen Primteiler, der nicht größer als √n ist. Die Richtigkeit dieses Satzes wurde in den dazugehörigen Gl. 2.1 – 2.3 gezeigt. Wir werden im Folgenden anhand eines Beispiels diese einfache Methode veranschaulichen. Wir wählen als zusammengesetzte natürliche Zahl n = 10151. Wir werden zeigen, dass es sich bei dieser Zahl um eine Primzahl handelt. Folgende Schritte sind für die Berechnung notwendig: 1) Bestimmung des gerundeten ganzzahligen Wertes aus √n. 2) Prüfung aller Primteiler bis zu √n. Zu 1): Der gerundete Wert von √10151 = 100. Zu 2): Folglich müssen wir prüfen, ob es einen ungeraden Primteiler mit p ≤ 100 gibt. Welche Primzahlen kommen bis zu der natürlichen Zahl 100 in Frage? 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 67, 71, 73, 79, 83, 89, 97. Wir müssen nun testen, ob einer dieser Primzahlen ein Teiler der natürlichen Zahl n = 10151 ist. Sie können sich selbst davon überzeugen, dass keine dieser Zahlen n teilt. Daraus folgt, dass n = 10151 eine Primzahl ist. Wie wir schon gesehen haben, kann die Probedivision auch verwendet werden, um die Primfaktorzerlegung einer natürlichen Zahl zu finden. In Faktorisierungsalgorithmen verwendet man die Probedivision mit Primzahlen bis zu einer Größe von 106, um kleinere Primfaktoren zu ermitteln. Nach einer Abschätzung, siehe auch Kapitel 2, sind

Probedivisionen notwendig. Im RSA-Verfahren sind Primzahlen gebräuchlich, die größer als 1075 sind. Nach dieser Abschätzung wären mehr als 1036 Probedivisionen erforderlich. Das ist mit den momentanen technischen Mitteln nicht machbar. Im nächsten Abschnitt werden wir ein effizienteres Verfahren besprechen, um die Primalität einer Zahl zu zeigen.

78

3.2.3 Fermat-Test

Um zu beweisen, dass eine Zahl n eine Primzahl ist, ist ein sehr aufwändiges Verfahren nötig und dies ist für große Zahlen kaum möglich. Daher greift man auf eine Reihe von Verfahren zurück, die feststellen können, dass eine natürliche Zahl n mit hoher Wahrscheinlichkeit eine Primzahl ist. Man nennt solche Verfahren probalistische Primzahlentests. Ein solcher Primzahlentest ist der Fermat-Test, der auf dem kleinen Satz von Fermat beruht, den wir in Kapitel 1 im Zusammenhang mit der Biografie von Pierre de Fermat diskutiert haben. Nachdem uns die Begriffe der Kongruenz und der Modulo-Operation aus der Besprechung des quadratischen Siebs bekannt sind, kann der Satz von Fermat in folgender Version geschrieben werden: Ist n eine Primzahl, so gilt

an-1

1

mod n

3.5

mit ggT (a, n) = 1. Der kleine Satz von Fermat besagt nichts anderes, als dass der Ausdruck an-1 – 1 durch n ohne Rest teilbar ist. Dieses Theorem ist eine Möglichkeit, um festzustellen, ob eine Zahl n zusammengesetzt ist. Man setzt anstatt a eine Zahl aus der Menge 2, …, n – 1 ein und berechnet an-1 mod n mit Hilfe der schnellen Exponentiation. Danach prüft man, ob das Ergebnis ungleich 1 ist. Trifft dies zu, ist n eine zusammengesetzte Zahl. Warum können wir gerade eine Zahl aus der Menge 2, …, n – 1 wählen? Wenn wir von der Annahme ausgehen, dass n eine Primzahl ist, dann sind die Zahlen 2, …, n – 1 keine echten Teiler der Zahl n, da diese nicht als Vielfache einer Primzahl geschrieben werden können. Daher ist die Voraussetzung ggT (a, n) = 1 erfüllt. Bei 1 handelt es sich um einen trivialen Teiler, daher kommt dieser in der Betrachtung nicht in Frage. Was versteht man unter einer schnellen Exponentiation? Unter schneller Exponentiation versteht man ein Verfahren für die schnelle Berechnung von Exponenten. Dazu schreibt man den Exponenten zunächst einmal in Binärdarstellung. Danach bestimmt man an mod n mit der Bildung sukzessiver Quadrate. Schauen wir uns dazu wieder

79

ein Beispiel an: Angenommen wir wollen 65 mod 7 bestimmen. Wir schreiben zunächst die Zahl 5 in Binärdarstellung an: 5 = 1 + 22 Jetzt bestimmen wir für die Zahl 6 sukzessive die Quadrate: 6, 62 = 36 1 mod 7, 64 = 362 1 mod 7

Also bekommen wir mit einer Quadrierung und einer Multiplikation folgendes Ergebnis: 65 = 6 * 64 6 * 1 mod 7 = 6 mod 7

Fünf Multiplikationen wären mit der normalen Multiplikation notwendig gewesen. Natürlich wächst der Rechenaufwand der normalen Multiplikation im Vergleich zur schnellen Exponentiation mit steigendem Exponenten. Wir haben nun das mathematische Rüstzeug gewonnen, um ein Beispiel zum Fermat-Test zu betrachten. Wir wählen für die Variable a in der vorangegangenen Gl. 3.5 den Wert 2. Man sagt auch, dass die Zahl 2 die Rolle eines Belastungszeugen übernimmt, um festzustellen, ob eine natürliche Zahl n zusammengesetzt ist. Wir wollen nun prüfen, ob die Zahl n = 561 eine Primzahl oder eine zusammengesetzte Zahl ist. Dafür ermitteln wir zunächst einmal mit Hilfe der schnellen Exponentiation das Resultat des Ausdrucks an-1 mod n mit a = 2 und n = 561. Wir stellen dazu die Zahl n – 1 = 560 in Binärschreibweise dar: 560 = 24 + 25 + 29 = 16 + 32 + 512 Also müssen wir aus folgender riesiger Zahl den Rest aus der Division durch 561, sprich modulo 561, bestimmen: 2560 mod 561 = 216 + 32 + 512 mod 561 = 216 * 232 * 2 512 mod 561 Anhand dieser extrem großen Zahl können wir den klaren Vorteil der schnellen Exponentiation erkennen. Bei der üblichen Multiplikation wären für die Berechnung 2560 mod 80

561 insgesamt 560 Multiplikationen notwendig gewesen, jedoch sind, wie wir gleich sehen werden, mit der schnellen Exponentiation wesentlich weniger Schritte erforderlich. Nun bilden wir, wie schon eingangs beschrieben, sukzessive die Quadrate von 2. 2, 22 = 4, 24 = 16, 28 = 256, 216 = 65536 511 mod 561, 2128 561 Wir können nun den Ausdruck 216 * 232 * 2 Berechnungen auflösen: 216 232 2512 460 mod 561 103 mod 561 103 mod 561 460 * 103 * 103 mod 561 1 mod 561
512

460 mod 561, 232 2562

4602

103 mod 561, 264 4602

1032

5112

256 mod 561, 2256

460 mod 561, 2512

103 mod

mod 561 mit den bereits dargestellten

216 * 232 * 2 512 mod 561

Würden wir an dieser Stelle unsere Berechnungen abbrechen, kämen wir zu dem Schluss, dass 561 eine Primzahl ist, da der kleine fermatsche Satz mit dem Resultat 2560 1 mod 561

erfüllt ist. Wir haben in diesem Abschnitt bereits einmal festgestellt, dass eine beliebige Zahl aus der Zahlenmenge 2, …, n – 1 zur Überprüfung, ob der kleine fermatsche Satz gilt, herangezogen werden kann. Aus diesem Grund befragen wir noch einen anderen Belastungszeugen. Wir wählen die Zahl 3 und nach einer kurzen Rechnung, die analog zu dem obigen Beispiel durchgeführt wird, erhalten wir folgendes Ergebnis: 3560

1 mod 561

Damit ist 561 überführt worden – es handelt sich um eine zusammengesetzte Zahl. In diesem Fall haben wir Glück gehabt, dass schon der zweite Belastungszeuge den ggT (3, 561) <> 1 liefert. Sobald wir ein Element aus der Menge 2, …, n – 1 finden, das den kleinen fermatschen Satz nicht erfüllt, haben wir es mit einer zusammengesetzten Zahl zu tun. 81

Was konnten wir aus diesem Beispiel lernen? Der Fermat-Test liefert keine hundertprozentig sichere Aussage darüber, ob n eine Primzahl ist, außer man prüft alle Belastungszeugen, womit wir aber einen Aufwand wie bei der klassischen Methode, der Probedivision, in Kauf nehmen müssten. Ist nämlich für einen Belastungszeugen a der kleine fermatsche Satz erfüllt, so heißt das noch nicht, dass n eine Primzahl ist, denn für bestimmte Belastungszeugen, in unserem Beispiel war das der Belastungszeuge a = 2, gilt auch für eine zusammengesetzte Zahl der kleine fermatsche Satz. Man nennt solche Zahlen „Pseudoprimzahlen“ oder „Carmichaelzahlen“. Derartige Zahlen sind allerdings eher selten. Die Zahl 561 setzt sich aus folgenden Primteilern zusammen: 561 = 3 * 11 * 17 Wenn wir aber für viele Basen a keinen Beweis gefunden haben, dass n zusammengesetzt ist, scheint es wahrscheinlich zu sein, dass n eine Primzahl ist. Darum spricht man beim FermatTest von einem probalistischen Primzahlentest.

3.2.4 Primzahlen einmal anders – Naturphänomen Zikaden

Nicht nur in der Mathematik sind Primzahlen von zentraler Bedeutung, auch in der Biologie interessiert man sich für Fragestellungen im Zusammenhang mit dem Auftreten von Primzahlen. Ich möchte an dieser Stelle einen Einschub machen und ein interessantes Beispiel aus der Biologie erläutern. Wir werden sehen, dass ein Modell in der Biologie herangezogen werden kann, um große Primzahlen zu erzeugen. Lange blieb das Paarungsverhalten der Zikaden, die sich nur in einem Zyklus von 13 oder 17 Jahren vermehren, ein Rätsel der Natur. Zikaden sind Insekten, die in weiten Teilen Nordamerikas auftreten und sich alle 13 oder 17 Jahre massenhaft auf der Erde vermehren. Danach ziehen sie sich wieder als Larven unter die Erde zurück, in der sie wieder für den angegebenen Zyklus verweilen. Eine Forschergruppe von Wissenschaftlern des Max-Planck82

Instituts und chilenischen Forschern entwickelte ein Jäger-Beute-Modell, in dem nur Lebenszyklen, deren Länge eine Primzahl von Jahren ist, in Frage kommen. Nur unter dieser Voraussetzung bleibt das Modell stabil. Im Jahr 1634 wurden europäische Siedler im Osten Tennessees erstmals mit einer Zikadenplage konfrontiert. Seitdem wiederholt sich die Plage im Zyklus von 17 Jahren und trat auch 1991 pünktlich zum 22. Mal auf. Die Plage beginnt mit der Metamorphose von einer Larve zu einem zirpenden Insekt, dabei werden bis zu 40000 Löcher um einen Baum gezählt, die von den kriechenden Larven hinterlassen werden. Von der Paarung über die Eiablage bis zum Tod vergehen nur wenige Wochen, aber in dieser Zeit können die kleinen Insekten einen gewaltigen Schaden anrichten. Erstaunlicherweise hält sich das Erscheinen der Tiere zeitlich sehr genau an die Prognosen – die Werte liegen höchstens eine Woche auseinander. Das massenhafte Auftreten der Zikaden ist in ihrem Überlebenstrieb begründet, da potenzielle Räuber, wie beispielsweise Vögel oder Wespen, durch das überproportionale Nahrungsangebot übersättigt werden. Wie lässt sich nun der Zyklus von 13 oder 17 Jahren erklären?

Die Vermehrung im Intervall von 13 oder 17 Jahren erklärt man mit der Jäger-BeuteBeziehung: Betrüge die Zykluslänge beispielsweise nur 12 Jahre, so könnten die Zikaden von allen synchronisierten Räubern gefressen werden, die alle 1, 2, 3, 4, 6 und 12 Jahre erscheinen. Erscheinen die Zikaden jedoch in einem Zyklus von 13 Jahren, kommen nur Fressfeinde in Frage, die jedes Jahr oder alle 13 Jahre auftreten. Daher sollten Primzahlen für Vermehrungsintervalle bevorzugt sein. Aufbauend auf diesen Überlegungen entwickelte die Forschungsgruppe ein Evolutionsmodell, das durch Mutation und Selektion von Räuber und Beute Primzyklen der Beute erzeugt. Die Forschergruppe konnte mathematisch zeigen, dass ein Primzyklus der Beute stabil gegenüber zyklusverändernden Mutationen von Räuber oder Beute ist. Neben der zeitlichen Komponente flossen in die Modellierung auch noch räumliche Aspekte ein, indem die Wechselwirkung zwischen benachbarten Populationen berücksichtigt wurde. Daraus resultierten, wie auch in der Natur, in Eigenorganisation entstandene Territorien, die einen bevorzugten Zyklus von 13 oder 17 Jahren aufweisen konnten. Die Forschungsgruppe nahm – unabhängig von der Natur – als Anfangsbedingung Zyklen an, deren Länge die Grenzen der Rechnerkapazität erreichten; in solchen Fällen war die Simulation bei sehr hohen Primzahlen stabil. Damit hatte man aber ein Modell entwickelt, das sehr große Primzahlen erzeugen konnte. Es ist äußerst 83

erstaunlich, dass ein biologischer Vorgang mit der Zahlentheorie anhand eines Evolutionsmodells verknüpft werden kann.

3.3 Verschlüsselungsverfahren

In diesem Abschnitt werden wir uns noch grundlegender mit den unterschiedlichen Methoden der Verschlüsselung auseinander setzen. Als Einleitung möchte ich Ihnen zunächst einmal einige Grundbegriffe erklären, die wir in den nächsten Abschnitten bei der Diskussion des jeweiligen Verfahrens benötigen. Wir werden im ersten Schritt die Klassifizierungen und die Grundelemente für Verschlüsselungsverfahren kennen lernen. Fast alle Verschlüsselungsverfahren lassen sich in folgende drei Gruppen einteilen: Symmetrische Verschlüsselungsverfahren Asymmetrische Verschlüsselungsverfahren Hybride Verschlüsselungsverfahren

Unter symmetrische Verschlüsselungsverfahren fallen all jene, die mit einem einzigen Schlüssel arbeiten. Das bedeutet, dass dem Sender und dem Empfänger für die Ver- und Entschlüsselung einer Nachricht der Schlüssel bekannt sein muss. Aus dieser Tatsache heraus arbeiten symmetrische Verschlüsselungsverfahren normalerweise sehr schnell und effizient. Da es sich bei dieser Art der Verschlüsselung historisch gesehen um eine klassische Variante handelt, spricht man auch häufig von „herkömmlicher Verschlüsselung“. Symmetrische Verschlüsselungsverfahren bieten bei einer geeigneten Schlüssellänge ein hohes Maß an Sicherheit, vorausgesetzt natürlich, dass die Schlüsselübergabe zwischen Sender und Empfänger sicher erfolgt. Der Schwachpunkt bei symmetrischen Verschlüsselungsverfahren liegt in der Vertraulichkeit des Schlüssels, dass am Beispiel Pay-TV illustriert werden soll. Beim Pay-TV wird das Fernsehsignal verschlüsselt versendet und kann mit einem passenden Schlüssel wieder entschlüsselt werden. Um einen Zugang auf das Fernsehprogramm zu erhalten, muss dieses abonniert und an den Abonnenten ein elektronischer Schlüssel per Chipkarte verschickt werden. Diese Karte muss dann nur noch in den Decoder gesteckt werden und schon ist man im Genuss eines vielfältigen Programmangebots. Wo aber liegt 84

hierbei der Haken? Es besteht die Möglichkeit, eine Kopie von der Chipkarte anzufertigen und damit hat auch ein Schwarzseher Zugang zu den vertraulichen Daten. Man kann Abhilfe schaffen, indem der Schlüssel derart gut auf der Chipkarte untergebracht wird, dass er nicht ohne Zerstörung der Karte extrahiert werden kann. Gleichzeitig wird der Schlüssel extrem lang gewählt, so dass eine manuelle Suche nach dem richtigen Schlüssel auf Grund der Vielzahl an theoretischen Möglichkeiten ein extrem aufwändiges Unterfangen ist. Ein weiterer Nachteil liegt in der Anzahl der benötigten Schlüssel. Für jedes Paar Personen, das geheime Nachrichten austauschen will, wird ein eigener Schlüssel benötigt. Daher braucht man für die Kommunikation von n Personen n (n – 1) / 2 Schlüssel, wünschenswert wären aber n Schlüssel. Ist z. B. n = 1000, so sind das 499500 Schlüssel. Einen Ausweg kann die Einrichtung eines zentralen Schlüsselservers bieten, der aber wiederum die Vertraulichkeit des Betreibers sowie die Sicherheit des Schlüsselservers usw. voraussetzt. In der Praxis wird wegen dieser Gründe meist ein hybrides Verschlüsselungsverfahren verwendet, auf das wir im Anschluss zu sprechen kommen. Ein bekanntes symmetrisches Verschlüsselungsverfahren ist DES (Digital Encryption Standard). Asymmetrische Schlüsselverfahren arbeiten mit so genannten „Schlüsselpaaren“, die sich aus einem öffentlichen und einem privaten Schlüssel zusammensetzen. Die Schlüsselpaare hängen so miteinander zusammen, dass mit dem öffentlichen Schlüssel verschlüsselte Nachrichten nur mit dem privaten Schlüssel entschlüsselt werden können. Das heißt, damit ein Absender eine Nachricht verschicken kann, benötigt er den öffentlichen Schlüssel des Empfängers. Nur der Empfänger, der im Besitz des privaten Schlüssels ist, kann die Nachricht auch wieder entschlüsseln. Das starke Konzept dieser Verschlüsselungsvariante liegt darin, dass vom öffentlichen Schlüssel nicht auf den privaten Schlüssel geschlossen werden kann. Technisch wird der Schlüssel durch eine so genannte „Einwegfunktion“ realisiert. Bei einer Einwegfunktion handelt es sich um eine mathematische Funktion, die schwer umkehrbar ist. Der Nachteil des asymmetrischen Verschlüsselungsverfahrens beruht auf der Tatsache, dass es langsamer und weniger effizient arbeitet als das symmetrische. Zu den bekanntesten asymmetrischen Verschlüsselungsverfahren zählt das RSA-Verfahren. Hybride Verschlüsselungsverfahren vereinen, wie das Wort „hybrid“ schon sagt, die Vorteile von symmetrischen und asymmetrischen Verschlüsselungsverfahren. Einerseits machen sie sich die Schnelligkeit einer symmetrischen Verschlüsselung und andererseits die Sicherheit aus der Idee eines Public-Key-Verfahrens zu Nutze. In hybriden Verschlüsselungsverfahren wird die Nachricht auf Basis einer symmetrischen Verschlüsselung zunächst mit einem zufällig generierten Schlüssel codiert. Der zufällig generierte Schlüssel wird anschließend mit 85

einem asymmetrischen Verschlüsselungsverfahren chiffriert. Beide Informationen werden in einer gemeinsamen kryptografischen Nachricht an den Empfänger gesandt (siehe dazu Abbildung 1). Besitzt nun der Empfänger den privaten Schlüssel des Schlüsselpaares, so kann er mit diesem den Schlüssel des symmetrischen Verschlüsselungsverfahrens extrahieren und daraufhin die chiffrierte Nachricht entschlüsseln. Sehr wichtig dabei ist die Qualität des Schlüsselgenerators für den zufällig generierten Schlüssel. Dieser Schlüssel darf keine Systematik zu anderen generierten Schlüsseln aufweisen. Praktisch arbeiten heutzutage alle Verschlüsselungsprogramme, die nach dem Public-Key-Verfahren funktionieren, in Wirklichkeit mit einem hybriden Verfahren.

Abbildung 2: Prinzip des hybriden Verschlüsselungsverfahrens Aus welchen Grundelementen besteht nun ein Verschlüsselungsverfahren? Im Wesentlichen haben wir bereits alle grundlegenden Elemente eines Kryptosystems kennen gelernt; ich möchte sie hier aber noch einmal kurz zusammenfassen. Ein Kryptosystem besteht aus folgenden Komponenten: Klartextraum: die Elemente heißen Klartexte, gemeint ist die unverschlüsselte Nachricht

86

-

Chiffriertextraum: die Elemente heißen Chiffrier- oder Schlüsseltexte, gemeint ist die verschlüsselte Nachricht Schlüsselraum: die Elemente heißen Schlüssel Verschlüsselungsfunktionen Entschlüsselungsfunktionen

Wir werden im Folgenden einige bekannte symmetrische, asymmetrische und hybride Verschlüsselungsverfahren besprechen.

3.3.1 Klassische Beispiele symmetrischer Verschlüsselungsverfahren

Zu den klassischen Beispielen der symmetrischen Verschlüsselungsverfahren zählen die Caesar-Chiffrierung, Vigenère-Verschlüsselung und das One-Time-Pad-Verfahren.

3.3.2 Caesar-Chiffrierung

Die Caesar-Chiffrierung verdankt ihren Namen Julius Caesar, der für die militärische Nachrichtenübermittlung jeden Buchstaben seiner Botschaften des 20 Buchstaben umfassenden lateinischen Alphabets um drei Buchstaben nach rechts verschob. Ein bekannter Ausspruch Caesars kann mit der Caesar-Chiffrierung wie folgt verschlüsselt werden: veni, vidi, vici (Klartext) YHQL, YLGL, YLFL (Geheimtext) Um die Elemente aus dem Klartextraum, sprich: des Klartextalphabets, des früheren lateinischen Alphabets in einen Chiffretext zu transformieren, wird die folgende Verschlüsselungsfunktion benutzt:

c = k + 3 mod 20
87

3.6

k bezeichnet hier den Klartextbuchstaben und c den Geheimtextbuchstaben. Um die verschlüsselte Botschaft wieder rückgängig zu machen, greift man auf folgende Entschlüsselungsfunktion zurück:

p = c – 3 mod 20

3.7

Der Schlüssel zum Ver- und Entschlüsseln der Botschaft ist also die Zahl 3. Natürlich können alle Zahlen von 1 bis 19 als Schlüssel benutzt werden. Somit ergeben sich 19 mögliche Schlüsselvarianten. In unserem heutigen Alphabet wird die Zahl 20 durch die Zahl 26 ersetzt und man erhält damit 25 Schlüsselkandidaten. Man spricht bei der Caesar-Chiffrierung von einem symmetrischen Schlüsselverfahren, weil für die Ver- und Entschlüsselung derselbe Schlüssel verwendet wird. Das Verfahren findet heutzutage sogar noch Anwendung bei dem kommerziell genutzten Dateimanager „Xtree“ für Dos. Dieses Programm nutzt eine Variante der Caesar-Chiffrierung zum Schutz der eingebauten Seriennummer.

3.3.3 Vigenère-Verschlüsselung

Bei der Vigenère-Verschlüsselung handelt es sich, wie schon gesagt, um eine polyalphabetische Verschlüsselung. Ein Beispiel dazu haben wir bereits erläutert. Ich möchte an dieser Stelle noch einmal die wichtigsten Merkmale in einen mathematischen Kontext bringen. Bei dieser Substitutionsmethode wird ein Klarbuchstabe k durch verschiedene Geheimbuchstaben c ersetzt. Es wird zunächst einmal ein Schlüssel s mit einer beliebigen Zeichenfolge der Länge n festgelegt. Die Zeichenfolge wird in wiederholender Sequenz über den Klartext geschrieben. Anschließend werden die übereinander stehenden Paare addiert und mit der Formel

c = s + k mod 26

3.8

wird das Chiffrezeichen c bestimmt. Jedem Buchstaben wird dabei eine Zahl von A = 0 bis Z = 25 zugeordnet. Gl. 3.8 ist in diesem Verfahren unsere Verschlüsselungsfunktion. Die Entschlüsselungsfunktion dazu lautet: 88

s = c – k mod 26

3.9

Betrachten wir zur Verdeutlichung ein Beispiel: Wir wählen das Wort VIGENERE als Klartextalphabet und WIE als Schlüsselwort. Wir schreiben nun das Schlüsselwort WIE wiederholt über das Klartextalphabet: WIEWIEW (Schlüssel) VIGENERE (Klartextalphabet) Nun ordnen wir jedem Buchstaben des Schlüssels und des Klartextalphabets eine Zahl im Bereich von 0 bis 25 zu. Schlüssel W – 22 I – 8 E – 4 Klartextalphabet V – 21 I – 8 G– 6 E – 4 N – 13 E – 4 R – 17 E – 4 Wendet man nun die Verschlüsselungsfunktion aus Gl. 3.8 an, so kann daraus der Geheimtext generiert werden. Für den ersten Geheimbuchstaben erhalten wir: c = W + V mod 25 = 22 + 21 mod 25 = 43 mod 25 = 17 = R Nach kurzer Rechnung führt das zu dem Geheimtext: RQKAVINM. In analoger Form kann der Geheimtext wieder in den Klartext entschlüsselt werden. Wie wir ausführlich in der Geschichte der Verschlüsselung aufgezeigt haben, wurde diese Art der Verschlüsselung mit der Häufigkeitsanalyse geknackt, trotzdem ist die Anzahl der möglichen Schlüssel bei einer Schlüssellänge von fünf Zeichen bereits enorm.

89

Anzahl der möglichen Schlüssel: 26m, bei m = 5 also bereits 1,1 * 107 Schlüsselkandidaten. Ein reines Durchprobieren der Schlüssel per Hand ist in diesem Fall ausgeschlossen.

3.3.4 One-Time-Pad-Verfahren

One-Time-Pad ist das einzige bekannte Verfahren mit absoluter theoretischer Sicherheit, doch in der Praxis ziemlich unhandlich. Man spricht bei dieser Methode auch von VernamVerschlüsselung, die nach dem Amerikaner Gilbert Vernam benannt wurde. Die Sicherheit beruht auf der Zufälligkeit des Schlüssels, der mindestens genauso lang wie der Klartext sein muss und der nur ein einziges Mal zur Verschlüsselung herangezogen wird. Es darf sich um keine Pseudozufallszahl, wie sie der Computer generiert, handeln, sondern es muss eine echte Zufallszahl sein. Daher muss man bei der Wahl des Schlüssels äußerst sorgfältig vorgehen. Für echte zufällige Zahlen würde z. B. das Ticken eines Geigerzählers, das durch den Zerfall eines radioaktiven Elements verursacht wird, in Frage kommen. Die Schwierigkeit liegt nun darin, dass beide Kommunikationspartner den Schlüssel über einen sicheren Kanal austauschen müssen. Da der Schlüssel aber genauso lang ist wie die zu verschlüsselnde Nachricht, ist es nicht sehr praktisch, längere Botschaften über diesen Weg auszutauschen. Ein weiterer Nachteil des Verfahrens liegt in der permanenten Versorgung mit neuen Zufallszahlen und das damit verbundene Problem der logistischen Verteilung der geheimen Schlüssel an die beteiligten Partner. Bei einer geringen Teilnehmerzahl eignet sich die OneTime-Pad-Verschlüsselung ideal für die Chiffrierung nicht zu langer Nachrichten oder zum Aufbewahren oder Teilen von Geheimnissen.

3.4 Das RSA-Verfahren

Bei

der

RSA-Verschlüsselung

handelt

es

sich

um

ein

asymmetrisches

Verschlüsselungsverfahren. Der große wirtschaftliche Vorteil des RSA-Verfahrens resultiert aus der Lösung des Problems der Schlüsselverteilung. In der Vergangenheit mussten immense Transport- und Sicherheitskosten für den Austausch von Schlüssel- und Codebüchern zwischen Sender und Empfänger in Kauf genommen werden – dies fällt mit dem neuen 90

Prinzip der Schlüsselpaarung eines Public-Key-Verfahrens weg. Die Sicherheit der bekannten Verfahren hängt eng mit der Schwierigkeit zusammen, effiziente Lösungen für bestimmte zahlentheoretische Probleme zu finden. Wie ich bereits erwähnt habe, liegt die Sicherheit im RSA-Verfahren in der Herausforderung, eine große natürliche Zahl in ihre Primfaktoren zu zerlegen. Wir werden im Anschluss im Detail den Algorithmus für das RSA-Verfahren diskutieren und uns das Verfahren anhand eines Beispiels veranschaulichen.

3.4.1 Schlüsselerzeugung

Es sind drei Schritte für die Erzeugung eines öffentlichen Schlüssels notwendig: 1) Man wähle zufällig zwei große Primzahlen und berechne deren Produkt. 2) Man wähle eine Zahl e, die kleiner als n und teilerfremd zu (p – 1) und (q – 1) ist. 3) Man finde eine Zahl d, so dass ed – 1 durch (p – 1) * (p – 1) teilbar ist. Mathematisch ausgedrückt können die Punkte 1)–3) wie folgt formuliert werden:

zu 1): zu 2): zu 3):

n=p*q ggT (e, (p – 1) (q – 1)) = 1 1 < d < (p – 1) (q – 1) de 1 mod (p – 1) (q – 1)

3.10 3.12 3.13 3.14

1 < e < φ (n) = (p – 1) (q – 1) 3.11

In Kapitel 1 haben wir uns bereits mit der eulerschen Phi-Funktion φ vertraut machen können. Die Funktion steht für die Anzahl der teilerfremden Zahlen zu einer gegebenen natürlichen Zahl. Da wir es bei n mit einer zusammengesetzten Zahl aus zwei Primfaktoren zu tun haben, lässt sich die Anzahl der teilerfremden Zahlen mit (p – 1) (q – 1) bestimmen, denn jede Primzahl hat stets 1 bis p – 1 teilerfremde Zahlen. Daher ergibt sich für eine zusammengesetzte Zahl n = pq die Anzahl der teilerfremden Zahlen aus dem Produkt (p – 1) (q – 1). Betrachten wir für die Schlüsselerzeugung folgendes Beispiel: Wir wählen p = 19 und q = 31 und bestimmen daraus die Zahlen n, e und d. Die Zahl n heißt RSA-Modul 91

und die Zahlen e und d bezeichnet man als Verschlüsselungs- und Entschlüsselungsexponent. Der öffentliche Schlüssel besteht aus dem Paar n und e. Der private Schlüssel ist die Zahl d. Setzen wir dies in Gl. 3.10 ein, erhalten wir für n = pq = 19 * 31 = 589 Des Weiteren bestimmen wir die Anzahl der teilerfremden Zahlen mit der eulerschen PhiFunktion: φ (n) = (p – 1) (q – 1) φ (589) = (19 – 1) (31 – 1) = 18 * 30 = 540 Um e zu bestimmen, müssen wir zunächst einmal φ (589) in Primfaktoren zerlegen und eine Zahl suchen, so dass die Bedingung ggT (e, 589) = 1 erfüllt ist. φ (589) = 540 = 2 * 2 * 3 * 3 * 3 * 5 Wir wählen für e die kleinste Primzahl, die kein Primfaktor der Zahl 540 darstellt, also e = 7. 7 ist kein Teiler von 540. Mit e = 7 sind die Gl. 3.11 und 3.12 erfüllt: Gl. 3.11: 1 < e < φ (n) = (p – 1) (q – 1) 1 < 7 < 540 Gl. 3.12: ggT (e, (p – 1) (q – 1)) = 1 ggT (7, 540) = 1 Mit dem Paar (n, e) = (589, 7) haben wir den öffentlichen Schlüssel gefunden. Als nächsten Schritt bestimmen wir mit den Gl. 3.13 und 3.14 den privaten Schlüssel d. Wir müssen also folgende Gleichung lösen: Gl. 3.14: ed 7d 1 mod (p – 1) (q – 1) 1 mod 540

92

Oder in anderen Worten ausgedrückt: 7 d – 1 muss ein Vielfaches von 540 sein oder nochmals anders ausgedrückt: 7 d – 1 muss durch 540 ohne Rest teilbar sein. Wir können daher die Gleichung 7d 7 d – 1 = 540 * r d = (540 * r + 1) / 7 Wir beginnen bei r = 1 und erhöhen r so lange schrittweise um 1, bis d als ganze Zahl geschrieben werden kann: r = 1: d = 541 / 7 → keine ganze Zahl r = 2: d = 1081 / 7 → keine ganze Zahl . . . r = 6: d = 3241 / 7 = 463 → bingo, eine ganze Zahl Die Berechnung des privaten Schlüssels führt mit d = 463 zum Resultat. Wie wir sehen, erforderte die Ermittlung des öffentlichen und privaten Schlüssels einige Überlegungen und Rechenschritte. Unsere Bemühungen werden sich aber am Ende lohnen, wenn wir es mit einem sehr modernen Verfahren geschafft haben, einen Klartext in einen Geheimtext zu chiffrieren. Es war mein Ziel, Ihnen den nötigen mathematischen Background zu verschaffen, damit sie letztlich die Verschlüsselung als Anwendung der Zahlentheorie mit dem theoretischen Grundgerüst der Zahlentheorie verknüpfen können. Als nächsten Schritt werde ich Ihnen das Verschlüsselungsprinzip des RSA-Verfahrens erläutern. 1 mod 540 wie folgt umschreiben:

oder

3.4.2 Verschlüsselung – Entschlüsselung

Wie ich eingangs erläutert habe, besteht ein Kryptosystem aus mehreren Komponenten, unter anderem auch aus einer mathematischen Verschlüsselungsfunktion. Auch das RSA-Verfahren benutzt eine solche Verschlüsselungsfunktion, um aus einem Klartext einen Chiffretext zu erzeugen. Wir werden nun Schritt für Schritt das nötige Wissen aufbauen, um die Verschlüsselungsmethode in ihrer Gesamtheit erfassen zu können. 93

Zunächst definieren wir den Klartextraum, der aus allen natürlichen Zahlen m mit

0≤m<n

3.15

besteht. Das ist sozusagen unser Klartextalphabet, das uns zur Verfügung steht. Jetzt definieren wir die Verschlüsselungsfunktion mit unserem öffentlichen Schlüssel. Jeder, der diesen kennt, kann wie folgt einen Klartextbuchstaben m in einen Geheimtextbuchstaben c umwandeln:

c = me mod n

3.16

In unserem vorangegangenen Beispiel ist also der Klartextraum {0, 1, …, 589}. Wir setzen m = 3 und bestimmen mit Gl. 3.16 den Geheimbuchstaben. Die Berechnung von me mod n erfolgt wieder mit Hilfe der schnellen Exponentiation. c = 37 mod 589 Nun bestimmen wir den Wert für c mit Hilfe der Bildung von sukzessiven Quadraten der Zahl 3 modulo 589. 3, 32 = 9, 34 = 81 37 = 3 * 32 * 34 = 3 * 9 * 81 = 72 * 81 = 5832 531 mod 589

Nach kurzer Rechnung resultiert für c = 531. Die Zahl 3 wird also zur Zahl 531 verschlüsselt. Dabei haben wir den öffentlichen Schlüssel e = 7 herangezogen. Klarerweise muss für ein vollständiges Kryptosystem auch der umgekehrte Prozess möglich sein, sprich: die Entschlüsselung der Nachricht mittels einer Entschlüsselungsfunktion oder wie in unserem Fall, die Entschlüsselung der Geheimtextbuchstaben. Die Entschlüsselungsfunktion des RSAVerfahrens lautet wie folgt:

m = cd mod n

3.17

Wenn wir für c und d die Werte 531 und 463 in Gl. 3.17 einsetzen, kann daraus der Klarbuchstabe bestimmt werden: 94

3 = 531463 mod 589 Es liegt beim RSA-Verfahren ein sensibles Gleichgewicht zwischen der Sicherheit und der Effizienz vor. Der öffentliche Schlüssel muss also so gewählt werden, dass die Sicherheit, aber auch die Effizienz bei der Berechnung gegeben sind. Das bedeutet, je kleiner der Exponent in der Verschlüsselungsfunktion ist, desto effizienter kann die Verschlüsselung durchgeführt werden. Aber Vorsicht: Bei der Wahl eines kleinen Exponenten ist die Sicherheit vor einem Angreifer nicht mehr gegeben, da man mit der so genannten „LowExponent-Attacke“ den Schlüssel dechiffrieren könnte. Daher ist die Wahl eines Schlüssels richtiger Größe für die Sicherheit dieses Kryptosystems entscheidend.

3.5 Pretty Good Privacy – ein hybrides Verschlüsselungsverfahren

Wir haben bereits erläutert, dass hybride Verschlüsselungsverfahren auf der Mischung symmetrischer und asymmetrischer Verschlüsselungsprinzipien aufbauen und diese häufig als Kryptoverfahren Anwendung in der Praxis finden. Phil Zimmermann startete im Jahr 1990 ein Programm, um der breiten Öffentlichkeit einen Zugang zur Verschlüsselung privater elektronischer Daten zu ermöglichen. Das unter dem Namen Pretty Good Privacy (PGP) bekannte Verschlüsselungsprogramm wurde für private Internetuser entwickelt, die Nachrichten über einen frei zugänglichen Quellcode chiffrieren und später versenden möchten. Schätzungen zufolge geht man heutzutage von etwa 25 Millionen Anwendern aus und man vermutet, dass immerhin bis zu 90 % aller E-Mails mit PGP verschlüsselt werden. Der Erfinder Phil Zimmermann hat es durch großen persönlichen Einsatz und einer cleveren Strategie fertig gebracht, sein Programm – trotz massiver Widerstände und amerikanischer Exportrestriktionen – für jedermann verfügbar zu machen. Auf Grund der Offenlegung des Source Codes kann man davon ausgehen, dass die Software PGP auf Herz und Nieren getestet wurde und dass somit heutzutage eine äußerst stabile Version zur sicheren Chiffrierung privater Informationen vorliegt.

95

Was sind nun die wichtigsten Komponenten der Software PGP? PGP ist ein Programm, das jedem Benutzer kryptografische Routinen zur Verfügung stellt. Zu übermittelnde Nachrichten oder Dateien können vor dem Versand verschlüsselt sowie durch eine digitale Unterschrift signiert werden. Im Gegensatz zu symmetrischen Verschlüsselungsverfahren, die sowohl zum Verschlüsseln als auch zum Entschlüsseln den gleichen Schlüssel benutzen, basiert PGP auf einem Zwei-Schlüssel-Prinzip. PGP bietet Funktionen zum Ver- und Entschlüsseln von Dateien und Texten. Dabei werden Private-Keyund Public-Key-Verfahren gemeinsam eingesetzt. Das schnellere Private-Key-Verfahren stellt eine Implementierung des IDEA-Algorithmus dar. Für die langsamere Public-KeyVerschlüsselung wird der RSA-Algorithmus verwendet. Soll eine Datei in verschlüsselter Form verschickt werden, verschlüsselt PGP diese Datei zunächst mit dem IDEA-Algorithmus. Der notwendige Schlüssel wird von PGP zufällig erzeugt. Anschließend wird dieser zufällige Schlüssel mit dem öffentlichen Schlüssel des Empfängers nach dem RSA-Algorithmus verschlüsselt. Dieser so erzeugte Schlüssel wird „Session-Key“ genannt, da er nur für diese Kommunikation gültig ist. Die verschlüsselte Nachricht wird gemeinsam mit dem SessionKey an den Empfänger geschickt. Die PGP-Software des Empfängers führt dann die entsprechenden Entschlüsselungsschritte durch. Die Verwaltung der Schlüssel geschieht durch bestimmte Dateien, die PGP verwaltet. In diese Dateien können die öffentlichen Schlüssel anderer Benutzer aufgenommen werden, um die Kommunikation zu vereinfachen. PGP unterscheidet dabei zwischen verschiedenen Vertrauensstufen für die einzelnen Schlüssel.

3.6

Ausblick in die Zukunft

96

Wie wir gesehen haben, gibt es sehr sichere und effiziente Verschlüsselungsverfahren, anhand derer verschlüsselte Nachrichten vor den Attacken eines Angreifers geschützt werden können. Jedoch wurde bis jetzt kein schlüssiger Beweis erbracht, ob es in Zukunft nicht doch einem hochgradigen Kryptoanalytiker gelingen könnte, eine neue Methode zu finden, auch die sichersten Kryptosysteme zu knacken. Aus diesem Grund wäre es wünschenswert, eine absolut sichere Art der Verschlüsselung zu entwickeln. Momentan arbeiten Kryptografen an einem technischen Wunderwerk, das Aussicht auf perfekte Geheimhaltung bietet. Die Rede ist hier von der Quantenkryptografie. Wie das Wort schon sagt, beruht die Idee eines perfekten Systems auf der Quantentheorie, der physikalischen Welt der kleinsten Bausteine der Materie. Die Geschichte der Quantenkryptografie geht auf eine Idee in den Sechzigerjahren zurück. Der Urheber war Stephen Wiesner, der damals als Doktorand an der Columbia University gearbeitet hat und als Erster vorschlug, Quantengeld zu entwickeln. Wiesner hatte das Pech, dass er seiner Zeit weit voraus war und keiner seine Idee wirklich ernst nahm. Bevor wir uns aber mit der Quantenkryptografie vertraut machen können, müssen wir zunächst tiefer in die Welt der Quanten eindringen. Daher werde ich Ihnen im nächsten Kapitel die Grundlagen und Phänomene der Quantentheorie erläutern. Wir verlassen jetzt das Feld der Zahlentheorie und begeben uns in die Welt der Physik mit ihren bedeutenden Erkenntnissen in den kleinsten Strukturen und Dimensionen.

97

4. Grundlegende Konzepte der Quantentheorie
Als Begründer der Quantentheorie gilt Max Planck, der am 14. Dezember 1900 die Grundidee der Quantentheorie in einem Vortrag vor der physikalischen Gesellschaft in Berlin präsentierte. Max Planck führte mit seiner Arbeit über die Strahlung des schwarzen Körpers den Begriff des diskreten Energiequants ein. Er postulierte, dass die Energie und die Frequenz des Lichts über eine universelle Konstante, das so genannte „Wirkungsquantum“, korreliert seien. Mathematisch kann die Beziehung folgendermaßen formuliert werden: E = hf E … Energie, h … planksches Wirkungsquantum, f … Frequenz

Dieses Postulat hat die Menschen zu einem tief greifenden Umdenken über die Vorstellung der Natur der physikalischen Realität geführt. Trotz dieser revolutionären Umwälzung in der grundlegenden Anschauung der physikalischen Vorgänge in der Welt des Mikrokosmos hat die planksche Relation keine weit verbreitete Popularität erreicht. Das Jahr 1900 ist zwar das Geburtsjahr der Quantentheorie, aber erst in den Jahren 1925 und 1927 gelang Werner Heisenberg, Max Born, Erwin Schrödinger und Paul Dirac eine adäquate Interpretation dieser Theorie. Von der Quantenmechanik kann man nicht behaupten, dass sie zur Alltagsphysik gehört, jedoch sind wir von den technischen Anwendungen der Quantenphysik im alltäglichen Leben ständig umgeben, ob es sich nun um die Lasertechnik oder um die Halbleitertechnik mit ihrer Mikrochiptechnologie handelt. Wir werden uns nun mit den faszinierenden Phänomenen der Quantenmechanik beschäftigen und ihren fundamentalen Prinzipien auf den Grund gehen. Bei der Quantenmechanik handelt es sich um eine physikalische Theorie, die sich mit der Beschreibung der Bewegung, der Wechselwirkung und den Zuständen von atomaren und subatomaren Teilchen beschäftigt. Die Quantenmechanik trifft im Gegensatz zur klassischen Theorie Wahrscheinlichkeitsaussagen, daher lassen sich bestimmte klassische Vorstellungen auf die Quantenmechanik nicht übertragen. Um sich eine richtige Vorstellung von der Quantenmechanik machen zu können, muss man sich daher von klassischen Begriffen lösen, wie wir später noch sehen werden. Um die Eigenschaften subatomarer Bausteine wie beispielsweise Elektronen, Neutronen oder Protonen zu verstehen, betrachten wir im ersten Schritt ein bekanntes Experiment. Es ist schon verwunderlich, wenn man zu hören bekommt, dass sich Elementarteilchen situationsabhängig einmal wie Wellen und ein anderes Mal wie 98

Teilchen verhalten. Man spricht hier auch von einem „Welle-Teilchen-Dualismus“ der Elementarteilchen. Je nach Anordnung des Experiments tritt das eine oder andere Phänomen in Erscheinung und das widerspricht im hohen Grade der physikalischen Alltagserfahrung, denn dort gibt es eine klare Trennung der Objekte und Zustände. Einem vergleichsweise massiven Objekt, wie beispielsweise einer Billardkugel, würde man erfahrungsgemäß nur Teilcheneigenschaften und keine – wie bei einer Welle, bei der das Auftreten bestimmter Interferenzbilder oder Beugungserscheinungen üblich ist – Welleneigenschaften zusprechen. Aber das gerade gilt für quantenmechanische Objekte wie z. B. Elektronen nicht mehr, da es hier sehr wohl auch zu Wellenerscheinungen kommen kann, wie folgendes Experiment zeigen wird. In den Anfangsjahren handelte es sich lediglich um ein Gedankenexperiment, inzwischen kann das Experiment an Elektronen, Neutronen, Atomen und Molekülen durchgeführt werden. Die Rede ist hier vom Doppelspaltexperiment, mit dem Beugungsphänomene von Quantenobjekten nachgewiesen werden können. Betrachten wir dazu die Versuchsanordnung in Abbildung 3. Wir sehen auf diesem Bild eine Elektronenquelle, daher sind Elektronen unsere Quantenobjekte, die wir untersuchen wollen. Die Elektronen treten aus dieser Quelle aus und bewegen sich Richtung Blende, bei der sie einen Spalt oder zwei Spalte passieren können. Wenn die Elektronen den Weg durch den Spalt genommen haben, treffen sie auf einen Schirm, auf dem sich ein Detektor befindet, mit dem die Elektronen beobachtet werden können. Nun ergibt sich bei der Beobachtung eine verwirrende Situation: Wird nur Spalt 1 geöffnet und Spalt 2 geschlossen und misst man die Intensitätsverteilung der Elektronen durch einen Elektronendetektor an der Position des Schirmes, so erhalten wir eine Verteilungsfunktion 1, wie sie in der roten Kurve dargestellt wird. Analog ergibt sich dieselbe Verteilungsfunktion 2 (blau dargestellt), nur in Richtung Spalt 2 verschoben, wenn man Spalt 2 öffnet und Spalt 1 schließt. Man sollte jetzt annehmen, wenn beide Spalte geöffnet werden, dass sich eine Verteilungsfunktion ergibt, die aus der Summe der beiden Verteilungen 1 und 2 gebildet werden kann. Sind jedoch beide Spalte offen, stellt der Elektronendetektor eine ganz andere Intensitätsverteilung fest, die durch die Kurve P12 wiedergegeben wird. Obwohl der Detektor jedes Mal nur ein Elektron gemessen hat und dieses entweder Spalt 1 oder Spalt 2 passiert haben muss, beobachtet man eine Intensitätsverteilung, die eine Interferenzstruktur darstellt. Wir haben also für Quantenobjekte ein Beugungsbild erhalten. Dieses Quantenphänomen widerspricht gänzlich unserer Alltagserfahrung und dennoch ist es Realität. Wir haben es hier mit einer Welleneigenschaft zu tun, obwohl die gemessenen Quantenobjekte Elektronen, also Teilchen, sind. 99

Abbildung 3: Doppelspaltexperiment

Es ist bemerkenswert, dass ein und dieselbe Intensitätsverteilung auf drei ganz unterschiedlichen Wegen realisiert werden kann: Man schickt einen dichten Elektronenstrom durch die Anordnung Spalt und Schirm, so dass viele Quantenobjekte gleichzeitig am Schirm beobachtet werden können Man schickt immer nur nacheinander ein einzelnes Quantenobjekt durch die Versuchsanordnung Man baut eine große Zahl gleicher Versuchsanordnungen auf und schickt immer nur genau ein Quantenobjekt durch jede dieser Versuchsanordnungen. Die unterschiedlichen Aufnahmen aus jeder Versuchsanordnung werden zu einem Bild zusammengefügt. In allen drei Fällen ergibt sich oben gezeigtes Interferenzbild. Voraussetzung ist natürlich, dass die Quantenobjekte nicht miteinander wechselwirken können, d. h., ein einzelnes Quantenobjekt hat keinerlei Information darüber, wo ein anderes Quantenobjekt aufgetroffen ist. Das Einzelereignis, also wo ein Quantenobjekt auftreffen wird, ist absolut undeterministisch, mithin zufällig. Wird das Experiment jedoch mit vielen Quantenobjekten wiederholt, entsteht immer wieder dasselbe Beugungsbild. Daher ist die Entstehung des 100

Gesamtbildes

ein

deterministischer

Vorgang.

Es

handelt

sich

dabei

um

einen

Ensemblezustand. Anhand des Doppelspaltexperiments konnten wir sehen, dass Quantenobjekte, wie beispielsweise Elektronen, je nach Versuchsanordnung entweder Teilchenoder Wellencharakter zeigen. Das gleiche Interferenzbild wie in Abbildung 3 würde durch Licht hervorgerufen werden, da es sich bei der Ausbreitung von Licht um einen Wellenvorgang handelt. Tritt eine ebene Lichtwelle durch einen Doppelspalt, wobei die Dimension der Durchtrittsöffnung in der Größenordnung der Wellenlänge liegen muss, so wird analog dem Doppelspaltexperiment mit Elektronen eine Interferenzerscheinung mit Hauptmaximum und Nebenmaxima in der Intensitätsverteilung beobachtet. Unter „Interferenz“ versteht man die Überlagerung von Wellen, die sich verstärken oder abschwächen können. Verursacht durch die auftreffende ebene Welle gehen vom Spalt Kugelwellen aus, die sich hinter dem Spalt überlagern. Treffen nun an einem Ort zwei Wellenberge aufeinander, so entsteht ein höherer Wellenberg und es tritt eine Verstärkung ein. Treffen jedoch ein Wellenberg und ein Wellental aufeinander, heben sich beide gegenseitig auf. Das resultierende Wellenbild hinter dem Spalt ist also das Ergebnis einer Addition, siehe Abbildung 4. Man spricht auch von einer Superposition von Elementarwellen.

Abbildung 4: Beugungsbild am Doppelspalt

Bildet man das Quadrat des resultierenden Wellenfeldes zum Beispiel am Ort x des Schirmes, so erhält man eine normierte Intensitätsverteilung. Übertragen wir nun unser Wellenbild mit der Superposition von Lichtwellen auf Quantenobjekte, so können wir folgenden Analogieschluss ziehen: Es zeigt sich für die 101

Aufschläge von Elektronen auf dem Schirm dasselbe Beugungsbild wie bei Lichtwellen im Doppelspaltversuch. Da nun für Lichtwellen das Superpositionsprinzip, also die Überlagerung von Einzelwellen, die aus den Spalten 1 und 2 kommen, gilt, können wir in Analogie zu den Lichtwellen auch für Quantenobjekte so genannte Materiewellen definieren, die sich ebenfalls auf additive Weise überlagern. Man spricht deswegen von Materiewellen, weil es sich bei diesen Quantenobjekten um Masseteilchen handelt. Um nun eine mathematische Beschreibung für dieses Quantenphänomen zu finden, führen wir eine Funktion Ψ (r) ein. Ψ (r), die nach dem griechischen Buchstaben Psi benannt ist, ist von dem Ort abhängig, den die Wellensituation am Schirm beschreibt. Diese Funktion dient also der Beschreibung eines quantenmechanischen Zustandes eines physikalischen Systems. Gebräuchlich in diesem Zusammenhang ist der Begriff der Wellenfunktion, der allerdings etwas unglücklich gewählt wurde, weil die Funktion mathematisch gesehen in bestimmten Situationen die Form einer Welle hat, jedoch im physikalischen Sinne nicht so aufzufassen ist. Daher werden wir in Zukunft die Funktion Ψ (r) als Zustandsfunktion bezeichnen, weil sie einen quantenmechanischen Zustand beschreibt. Das Quadrat des Betrages der Funktion |Ψ (r)|² interpretieren wir physikalisch als Auftreffwahrscheinlichkeit am Ort r in einem kleinen Volumselement rund um r. Mit den beiden mathematischen Elementen der Zustandsfunktion und Auftreffwahrscheinlichkeit haben wir das Grundgerüst geschaffen, um in diesem Buch die Phänomene der Quantenmechanik und -kryptografie mathematisch zu beschreiben. Betrachten wir noch einmal die Situation im Doppelspaltexperiment für Elektronen, und zwar den Fall, bei dem beide Spalte geöffnet sind. Wir haben bereits gesehen, dass in dieser Versuchsanordnung ein Beugungsbild mit Minima und Maxima entsteht, wie es auch bei Wellen beobachtet wird. Wir können nun die Überlagerung der Materiewellen für Elektronen in folgender Weise formulieren: Ψ1 (r) ist die Zustandsfunktion, wenn Spalt 1 geöffnet und Spalt 2 geschlossen ist. Umgekehrt ist Ψ2 (r) die Zustandsfunktion, wenn Spalt 2 geöffnet und Spalt 1 geschlossen ist. Jetzt kann der Zustand, wenn beide Spalte geöffnet sind, als Überlagerung der Zustände 1 und 2 geschrieben werden, also:

Ψ (r) = Ψ1 (r) + Ψ2 (r)

(1)

Der Vollständigkeit halber muss nach angeführt werden, dass zusätzlich noch ein Normierungsfaktor wegen der Wahrscheinlichkeitsinterpretation der Zustandsfunktionen notwendig wäre, dieser aber für das Prinzip vorerst keine Relevanz hat. Es gibt eine Vielzahl quantenmechanischer Systeme, die als Überlagerung von Zuständen geschrieben werden 102

kann. Das Experiment am Doppelspalt zeigt in drastischer Weise, dass sich Quantenobjekte nicht mehr wie klassische Teilchen mit Masse verhalten. Die Häufigkeit der Aufschläge ist nicht etwa hinter den beiden Spaltöffnungen am größten, wie man es bei der klassischen Mechanik annehmen würde, sondern im Zwischenbereich beider Spalte. Durch die Addition der beiden Zustandsfunktionen kann es zu einer konstruktiven oder destruktiven Interferenz kommen, daher auch das gänzlich andere Verhalten für die Auftreffwahrscheinlichkeit der Teilchen am Schirm. Ich möchte am Ende dieses Abschnitts noch einmal die wichtigsten Elemente, die wir kennen lernen konnten, anführen: Quantenmechanische unterschiedliches widerspiegelt Quantenmechanische Objekte können durch eine Zustands- oder Wellenfunktion beschrieben werden Superposition: Quantenmechanische Zustände können überlagert werden und zeigen Interferenzerscheinungen, wie sie auch im klassischen Sinne bei Wellen auftreten Objekte weisen auf, das je sich nach im Versuchsanordnung ein Verhalten Welle-Teilchen-Dualismus

4.1 Verschränkung und Kohärenz

4.1.1 Verschränkung

Zu den besonderen quantenmechanischen Eigenschaften zählt die Verschränkung, die typischerweise in der klassischen Physik nicht beobachtet wird. Die Verschränkung ist ein quantenmechanisches Phänomen, das in den Anfängen der Quantenphysik großen Widerstand hervorrief, heute jedoch als physikalische Realität weitgehend anerkannt ist. Als Quantenverschränkung bezeichnet man ein Zwei- oder Mehrteilchensystem, in dem Teilchen nicht unabhängig voneinander beschrieben werden können. In der klassischen Physik ist es immer möglich, Eigenschaften, z. B. Geschwindigkeit oder Ort eines Teilchens, zu 103

beschreiben, ohne die Eigenschaft anderer Objekte zu kennen. In der Quantenphysik ist das jedoch anders. So können sich mehrere Teilchen nach einer bestimmten Wechselwirkung in einem gemeinsamen Zustand befinden, der durch eine gemeinsame Wellenfunktion beschrieben wird. Die Wahrscheinlichkeit, eine Eigenschaft des einen Teilchens zu messen, hängt dabei von der Messung des anderen Teilchens ab. Dabei steht zur Zeit der Trennung der beiden Teilchen jedoch noch nicht fest, in welchem Zustand sich die Teilchen bei der Messung befinden werden. Für jedes einzelne der verschränkten Quantenteilchen ist also der Ausgang einer Messung unbestimmt, während die Korrelation von Beginn an feststeht. Dieser Effekt, der als Konsequenz des Superpositionsprinzips gesehen werden kann, ist eigentlich erst für die spezifischen Eigenschaften von quantenmechanischen Informationssystemen verantwortlich. Wir wollen uns die Quantenverschränkung anhand eines Standardexperiments an verschränkten Photonen, also an Lichtteilchen, veranschaulichen. Diese lassen sich aus einem Kristall erzeugen, der die Eigenschaft besitzt, aus einem Photon zwei zu erzeugen. Auf Grund von Erhaltungssätzen sind die Eigenschaften der beiden Photonen nicht unabhängig voneinander, sondern verschränkt. Eine dieser Eigenschaften ist die Polarisation eines Photons. Darunter versteht man die Schwingung einer Welle in einer bestimmten Ebene. Im Gegensatz dazu spricht man von unpolarisierten Photonen, wenn die Schwingungen einer Welle wahllos über alle möglichen Ebenen, die senkrecht zur Ausbreitungsrichtung der Welle stehen, verteilt sind. Jedes Photon der zwei erzeugten Photonen kann nun eine beliebige Polarisationsrichtung aufweisen. Wird jedoch die Polarisation eines Photons gemessen, dann folgt daraus direkt die Polarisation des anderen Photons. Eine solche Abhängigkeit wird in der Physik als „Korrelation“ bezeichnet. Das interessante und verblüffende an der quantenmechanischen Korrelation spiegelt sich in der Situation wider, dass die Polarisation der einzelnen Photonen zum Zeitpunkt ihrer Entstehung noch gar nicht feststeht. Diese wird erst zum Zeitpunkt der Messung festgelegt. Bei der Erzeugung der Photonen liegt jedoch schon eine Korrelation der Photonen vor. Der scheinbare Widerspruch lässt sich rein mathematisch durch eine gemeinsame Wellenfunktion beschreiben. Die Beschreibung führt dazu, dass es sich bei der Quantenmechanik um eine nicht lokale Theorie handelt, denn die Messung an einem Photon bestimmt den Ausgang der Messung an einem beliebig weit entfernten Ort des anderen Photons. Die Korrelation erfolgt instantan, also ohne Zeitverzögerung, egal, wie weit die Photonen voneinander räumlich getrennt sind. Bei der Verschränkung erfolgt allerdings keine Informationsübertragung, somit ist die Lichtgeschwindigkeit nach wie vor die maximale Geschwindigkeit, mit der Informationen 104

übertragen werden können. Nach Einsteins Relativitätstheorie sind die Lichtgeschwindigkeit und der Maximumwert, mit dem die Informationsübermittlung erfolgen kann, konstant. Die Nichtlokalität der Quantenmechanik bezeichnete Einstein als spukhafte Fernwirkung. Einstein wollte gemeinsam mit Podolsky und Rosen anhand eines Gedankenexperiments (EPRExperiment) zeigen, dass die quantenmechanische Beschreibung der physikalischen Realität unvollständig sei. Dieses Gedankenexperiment und seine Folgen werden wir im Anschluss näher erläutern.

4.1.2 Einstein-Podolsky-Rosen-Paradoxon

Zu Beginn des 20. Jahrhunderts revolutionierten zwei Entwicklungen das Gebäude der Physik – die Relativitätstheorie und die Quantenmechanik. Einsteins Relativitätstheorie hat unsere Vorstellung des Zusammenhanges von Raum, Zeit und Materie grundlegend verändert, hingegen stand Einstein der Quantenmechanik – einer neuen Theorie des Mikroskopischen – von Anfang an sehr skeptisch gegenüber. Niels Bohr, einer der Begründer der Quantenphysik, versuchte im Jahr 1927 auf einem Kongress in Brüssel, sein Auditorium davon zu überzeugen, dass die Quantenmechanik kein Stückwerk, sondern eine verständliche, vollständige und fundamentale Theorie der Materie sei. Im Anschluss des Vortrages trat Einstein in einer emotionsgeladenen Diskussion Bohr öffentlich entgegen, indem er behauptete, dass sich die Quantenmechanik momentan nur in einem Übergangsstadium befände, bis die Mikroobjekte und ihre Wechselwirkungen endgültig vollständig verstanden seien. Einstein glaubte nicht an den prinzipiellen Zufall beim Aufbau der Materie, denn nach seinem Verständnis hätte das bedeutet, dass der Mensch eine prinzipielle Grenze im Verständnis der Natur erreicht hätte und das konnte er so nicht einfach hinnehmen. Hier sah Einstein einen krassen Widerspruch in seiner religiösen Anschauung, dass ein Schöpfer wohl die Welt in einer Weise erschaffen würde, dass auch der Mensch diese im Prinzip begreifen könne. Ein berühmter Ausspruch von Einstein bringt es auf den Punkt: „Raffiniert ist der Herrgott, aber bösartig ist er nicht.“ Dies war der Anfang einer jahrzehntelangen Diskussion zwischen Bohr und Einstein, der so genannten „Bohr-Einstein-Debatte“. 105

Aus dieser Diskussion ging ein Aufsatz hervor, den Einstein gemeinsam mit den jungen Physikern Podolsky und Rosen im Jahr 1935 veröffentlichte. Dieses ursprüngliche Gedankenexperiment, später im Labor als nachgewiesener EPR-Effekt, das gegen die Regeln des klassisch-lokalen Realismus verstieß, beinhaltete das Grundproblem beim Verständnis der Quantenmechanik. In diesem Aufsatz störten sich die drei daran, dass in der Quantenmechanik die Messung der Eigenschaft eines Teilchens, z. B. eines Elektrons oder Photons, ein weit entferntes, scheinbar unabhängiges Teilchen beeinflussen kann. Nach ihrer Auffassung sollten nach gesundem Menschenverstand drei Prämissen, wie sie auch in der klassischen Physik gelten, in der Quantenmechanik erfüllt sein: Lokalität, Realität und Vollständigkeit. Da die Originalarbeit schwer verständlich ist, möchte ich Ihnen das EPR-Experiment anhand der Polarisation von Photonen erläutern: Angenommen, wir haben eine Lichtquelle, die in entgegengesetzte Richtungen gleichzeitig zwei Photonen aussendet (siehe Abbildung 5).

Abbildung 5: EPR-Effekt Die Quelle ist so beschaffen, dass beide Photonen verschränkt werden können, d. h., wird die Polarisation des einen Photons gemessen, ist somit die Polarisation des anderen Photons senkrecht dazu festgelegt. Vor der Messung sind die Polarisationsrichtungen der Photonen unbestimmt. Für die Messung der Polarisationsrichtungen werden in großer Entfernung

106

Polarisationsfilter aufgestellt. Über Detektoren hinter den Filtern kann dann beobachtet werden, ob ein Photon den Polarisator passiert hat oder nicht. Was ist nun das Ergebnis dieses Experiments? Bei paralleler Stellung der Polarisationsfilter lässt sich immer folgendes Ergebnis beobachten: Wenn die Polarisationsrichtung des linken Photons mit Polarisationsfilter 1 bestimmt wird, wird das rechte Photon absorbiert und umgekehrt. Das gilt für jede parallele Stellung der Polarisationsfilter – unabhängig davon, welchen Winkel man einstellt. Das gilt auch dann noch, wenn die Polarisatoren nach Erzeugung des Photonenpaares eingestellt wurden. Die Erklärung durch die Quantenphysik ist, dass wenn ein Photon den Polarisator passiert, es durch die Messung in eine bestimmte Richtung in diesen Zustand präpariert wird. In dem Augenblick, in dem die Polarisation des einen Photons durch den Polarisator festgelegt wird, ist die Polarisation des anderen Photons ohne zeitliche Verzögerung senkrecht dazu festgelegt. Einstein nannte diesen Effekt, wie schon gesagt, eine geisterhafte Fernwirkung. In der klassischen Physik wäre ein solcher Effekt unmöglich, denn wenn damit eine Wechselwirkung lokal an einem bestimmten Ort feststellbar ist, müsste eine Information von einem Photon auf das andere übertragen werden und das wäre maximal mit Lichtgeschwindigkeit möglich. Auf Grund der makroskopischen Entfernung der beiden Teilchen ist die Informationsübertragung nur in endlicher Zeit gegeben. Nachdem die klassische Physik dem Kausalitätsprinzip, also dem Ursache-Wirkungsprinzip unterliegt, kann zwischen Vergangenheit und Zukunft unterschieden werden. Experimentell kann der EPR-Effekt heutzutage jederzeit nachgewiesen werden. Aus der Beobachtung heraus lässt sich der Schluss ziehen, dass auf quantenmechanischer Ebene nichtlokale Effekte auftreten, die sich einer kausalen Wirkung entziehen. Wir sehen also, dass wir es hier mit einer gänzlich anderen Erscheinungswelt als in der klassischen Physik zu tun haben. Mit dieser scheinbar sehr bizarren Welt konnte sich Einstein nie wirklich anfreunden, letztlich musste aber auch er die Fakten der scheinbar widersprüchlichen Quantenwelt akzeptieren.

4.1.3 Kohärenz

107

Die Kohärenz und die Verschränkung sind grundlegende Konzepte der Quantenmechanik; sie bilden die Grundlage für zukunftsweisende Anwendungen wie Quantenkryptografie und Quantencomputer. Bei allen Versuchen im Labor konnten bis jetzt verschränkte Zustände nur relativ kurz aufrechterhalten für die werden, die z. B. verglichen Ausführung komplexerer mit der Dauer von auf einem Rechenoperationen Rechnungen

Quantencomputer nicht ausreichend sind. Was verbirgt sich nun hinter dem Begriff der Kohärenz? Greifen wir zur Erklärung noch einmal auf die interferierenden Wellen zurück, wie wir sie am Doppelspaltversuch beobachten konnten. Unser Interferenzmuster am Doppelspalt entstand aus vielen Einzelereignissen; das heißt, aus einer Vielzahl von Elektronen, die durch den Doppelspalt geschickt werden, erhält man ein klares Interferenzmuster nur dann, wenn alle Elektronen phasengleich sind, sonst versucht jedes Elektron, sein eigenes Interferenzmuster aufzubauen. Unter gleicher Phase oder auch gleichem Takt verstärkt sich die Amplitude zweier Wellen, man spricht daher von konstruktiver Interferenz. Sind jedoch die beiden Wellen um 180° phasenverschoben, tritt eine destruktive Interferenz auf. Tritt nun eine Störung der Phasenbeziehung auf, wie sie beispielsweise durch eine zu geringe Isolierung von der Umwelt hervorgerufen werden kann, weisen die Einzelereignisse der Elektronen in der Summe keine Interferenz mehr auf. Unter Kohärenz wird also nichts anderes verstanden, als die Fähigkeit, Interferenz zu erzeugen; hingegen führen Prozesse, die eine Interferenz beeinträchtigen oder gar verhindern, zu einer Dekohärenz. Ebenso verlieren quantenmechanische Wellen ihre Kohärenz durch einen gezielten Eingriff einer Messung. In diesem Fall entsteht ein verschränkter Zustand zwischen dem Quantenobjekt und dem Messgerät. Will man z. B. bestimmen, durch welchen Spalt sich das Elektron im Doppelspaltversuch bewegt hat, ist es notwendig, eine Ortsbestimmung durchzuführen. Zu diesem Zweck kann der Raum hinter der Blende mit einem Lichtstrahl ausgeleuchtet werden. Hierfür darf aber der Lichtstrahl nicht beliebig schwach gewählt werden, sondern es muss zumindest ein Lichtquant respektive ein Photon in Wechselwirkung mit dem Elektron treten. Durch die Streuung des Photons am Elektron erhält man die Information über die Position des Elektrons. Somit entsteht eine Verschränkung zwischen dem Zustand des Elektrons und dem des Photons. Wird nun das Photon gemessen und erfolgt damit eine gleichzeitige Bestimmung

108

über den Aufenthaltsort des Elektrons, wird diese Information an die Umwelt übertragen und das Elektron ist lokalisiert. Ganz allgemein kann gesagt werden, dass jedes komplexe System, das nicht von seiner Umwelt isoliert ist, durch Interaktion mit seiner Umwelt in einen ständig verschränkten Zustand übergeht. Die damit verbundene Dekohärenz führt zu einem klassischen Erleben unserer Umwelt. Um die Quantenwelt zu erfahren, bedarf es eines perfekt abgeschotteten Systems von der Umgebung, mit dem Ziel, die Komplexität der Verschränkung zu beherrschen und für neue Anwendungen zu nutzen.

109

5. Quanteninformatik
Die Quantenmechanik eröffnet faszinierende Perspektiven für die Kommunikation und Informationsverarbeitung. Wir sind gegenwärtig Zeugen der rasanten Entwicklung eines neuen interdisziplinären Fachgebiets, das Ideen der Informationstheorie, Mathematik und Physik in sich vereinigt. Die Quanteninformatik beschäftigt sich mit der Informationsverarbeitung auf Grundlage der Quantenphysik sowie mit den physikalischen Konzepten des Informationsbegriffes. Das große Interesse an den Themenkreisen Quantencomputer und Quantenkommunikation hat verschiedene Gründe: Einerseits beinhaltet es grundsätzliche Fragen über die Quantenphysik und Informationstheorie und verspricht andererseits Anwendungen wie geheime Kommunikation und effiziente Quantenalgorithmen. Beispiele sind hierfür der Shor-Algorithmus zur Faktorisierung großer Zahlen oder der Grover-Algorithmus zur Datenbanksuche. Ich werde Ihnen die Anwendungsmöglichkeiten der Quanteninformatik noch näher erläutern. Die momentane Entwicklung erinnert an die Pionierzeit der klassischen Informatik, als die moderne Informationstechnologie geschaffen wurde. Trotz der beachtlichen Fortschritte in dieser Disziplin stecken die experimentelle Realisierung und die praktische Implementierung derzeit noch in den Kinderschuhen. Zwar sind einige bemerkenswerte Experimente in der Quantenkommunikation und -informationsverarbeitung demonstriert worden, jedoch in welcher Form die Entwicklung zu einer technologischen Anwendung führen wird, ist momentan noch ungewiss.

110

5.1 Grundlagen der Quanteninformation

5.1.1 Quantencomputer

Wir können in diesem Abschnitt auf die grundlegenden Konzepte der Quantenmechanik zurückgreifen, die wir in dem vorangegangenen Abschnitt erläutert haben. Die Quanteninformation wird in Quantenzuständen eines physikalischen Systems gespeichert. Neue Quanteninformationsverfahren beruhen auf der Erweiterung der üblichen digitalen Verschlüsselung der Information. In der klassischen Informatik sind Bits, die durch die Werte 0 und 1 repräsentiert sind, die Informationseinheiten, die für die Speicherung und Manipulation von Daten verwendet werden; dagegen wird in der Quanteninformatik als Informationseinheit das Qubit (= Quantenbit) herangezogen. Für die Realisierung von Qubits werden Quantenobjekte als Träger der Information verwendet. Um die Einstellungen von den klassischen Werten 0 und 1 des Bits zu unterscheiden, verwenden wir die Quantenschreibweise |0 > und |1 >. Das Qubit misst den Informationsgehalt, der in einem Zwei-Zustandssystem gespeichert wird. Es gibt eine Reihe von Möglichkeiten, wie ein ZweiZustandssystem realisiert werden kann. Beispiele sind die lineare Polarisation eines Lichtquants mit den Einstellungen |H > für horizontale und |V > für vertikale Polarisierung oder der Spin eines Elektrons mit den Einstellung +|½ > oder –|½ > für die Spinausrichtung. | H > und |V > stehen für |0 > und |1 >. Wo liegt nun der wesentliche Unterschied zur herkömmlichen binären Information? Im letzten Kapitel haben wir gesehen, dass Quantenzustände überlagert werden können. Und hierin liegt genau der Unterschied zur klassischen binären Informationsverarbeitung. Die Quanteninformatik macht sich zu Nutze, dass nicht nur die Schalterstellungen |0 > und |1 >, sondern auch beliebige Linearkombinationen beider Basiszustände realisiert werden können.

a|0 > + b|1 >
111

(1)

Bei a und b handelt es sich um komplexe Koeffizienten. Physikalisch vom Standpunkt der Wahrscheinlichkeitsinterpretation aus gesehen befindet sich das Quantensystem mit der Wahrscheinlichkeit |a|2 im Zustand |0 > und mit der Wahrscheinlichkeit |b|2 im Zustand |1 >. Die Beobachtung ergibt einen der beiden Werte mit der angegebenen Wahrscheinlichkeit, somit ist bei einer Messung, welcher Wert bestimmt wird, ungewiss. Natürlich kommt man bei der Beschreibung von komplexeren Informationssystemen mit 2 Bits nicht aus, dafür ist eine Vielzahl von Informationseinheiten notwendig. Aus diesem Grund ist vom Standpunkt der praktischen Betrachtung die Überlagerung von mehreren Qubits von Interesse. Der Einfachheit halber betrachten wir hier ein Paar von Qubits. In klassischer Hinsicht ergibt sich die Wertekombination 00, 01, 10 und 11. In Analogie dazu erhalten wir für ein Paar von Qubits folgende Basiseinstellungen |0 >|0 >, |0 >|1 >, |1 >|0 > und |1 >|1 >. Zustände dieser Art bezeichnet man als Produktzustände, da der Gesamtzustand durch ein Produkt von Einzelzuständen beschrieben werden kann. Beide Qubits können natürlich wieder durch eine Überlagerung der Basiszustände hergestellt werden. Betrachten wir ein Paar von Lichtquanten, so genannte „Photonen“. Wir gehen davon aus, dass sich das Paar im folgenden Überlagerungszustand befindet:

(|HV > – |VH >) / √2
Der Normierungsfaktor 1 / √2 Die ergibt sich aus

(2)
Überlegungen aus der Summe der der

Wahrscheinlichkeitsrechnung.

Gesamtwahrscheinlichkeit

Einzelwahrscheinlichkeiten aller zu messenden Zustände ist klarerweise gleich 1. Wir nehmen an, dass beide Zustände |HV > und |VH > mit gleich hoher Wahrscheinlichkeit gemessen werden, also mit der Wahrscheinlichkeit ½. Wir haben bereits festgestellt, dass die Wahrscheinlichkeit, z. B. einen Zustand |0 > zu messen, gleich |a|2 ist. In Analogie zu |HV > ist daher |a|2 = ½ und folglich a = 1 / √2. Misst man jetzt das erste Photon mit einer Wahrscheinlichkeit von ½ in horizontaler Polarisation, so folgt aus unserer Annahme, dass das zweite Photon in vertikaler Richtung beobachtet wird. In diesem Fall haben wir es immer mit zwei unabhängigen Qubit-Zuständen zu tun. Zeigt sich aber eine gegenseitige Abhängigkeit der beiden Qubits, so können die Zustände nicht mehr als Produkte von zwei unabhängigen Qubit-Zuständen geschrieben werden.

112

Welche schwierigen Herausforderungen ergeben sich bei der Realisierung eines Quantencomputers? Als Quantencomputer bezeichnet man ein System, in dem eine kontrollierte Verarbeitung von Quanteninformationen möglich ist. Die Definition des Informationsbegriffes und der Informationsverarbeitung basiert hier auf einer physikalischen Theorie, nämlich der Quantentheorie, die die möglichen Zustände und die Dynamik der Informationsträger bestimmt. Insofern ist das Problem der Quanteninformationsverarbeitung eng mit dem Problem der Dekohärenz verbunden. Jedes reale System ist, wenn auch nur schwach, an Freiheitsgrade seiner Umgebung gekoppelt. Damit ist eine unkontrollierte Wechselwirkung mit der Umgebung gegeben, sprich eine Dekohärenz. Quantenmechanische Überlagerungen werden dadurch empfindlich gestört und daher sind Quantenfehlerkorrekturen der wesentliche Bestandteil eines Quantencomputers. Für die Implementierung eines Quantencomputers ist ein physikalisches System notwendig, das es erlaubt, Quantenzustände verlässlich zu speichern, aber auch Quantenoperationen präzise durchzuführen. In der Praxis gibt es dafür nur wenige taugliche Kandidaten. Zur Realisierung von Quantencomputern muss eine Reihe von Bedingungen erfüllt sein: • • • • • Identifikation einzelner Qubits Schwache Dekohärenz, sprich schwache Wechselwirkung mit der Umgebung Effiziente Implementierung von Fehlerkorrekturen Implementierung von Quantengattern Adressierbarkeit und Auslesen einzelner Bits

In einem Quantencomputer haben wir als Input und Output eine Anzahl von Qubits, der Computer erzeugt mit Hilfe quantenmechanischer Operationen aus einem Input einen Output. Die charakteristischen Eigenschaften der Quantenmechanik – etwa Superposition, Interferenz und letztlich die Verschränkung zwischen Qubits – ermöglichen im Vergleich zum Aufwand bei klassischen Berechnungen eine erhebliche Beschleunigung in der Berechnung von zeitkritischen Problemen. Ein wesentlicher Punkt liegt im Quantenparallelismus, mit dem es möglich ist, Eigenschaften herauszufinden, die allen Resultaten gemein sind, ohne dass jedes Mal die Rechung für jeden einzelnen Input separat ausgeführt werden muss. So hat Peter Shor eine Formulierung des bisher effektivsten Quantenalgorithmus für die Zerlegung einer großen Zahl in ihre Primfaktoren auf einem Quantenparallelismus aufgebaut. 113

5.1.2 Faktorisierungsalgorithmus von Peter Shor

Wir haben uns bereits ausführlich in Kapitel 2 mit Faktorisierungsverfahren auseinander gesetzt und sind dabei der Problematik der Faktorisierung großer Zahlen auf den Grund gegangen. Es stellte sich heraus, dass ein enormer Rechenaufwand mit langen Laufzeiten für die Faktorisierung großer Zahlen in Kauf genommen werden muss. Peter Shor hat einen Algorithmus entdeckt, der, wenn es jemals eine praktische Umsetzung in Form eines Quantenrechners geben sollte, alle bekannten Faktorisierungsverfahren in ihrem Laufzeitverhalten in den Schatten stellen wird. In diesem Abschnitt werden wir uns im Detail damit beschäftigen. Die Faktorisierung großer Zahlen erfolgt im Shor-Algorithmus nicht direkt, sondern auf Umwegen. Ausgangspunkt ist ein schwieriges zahlentheoretisches Problem, bei dem es um die Bestimmung der Periode der Funktion

ax mod n

(1)

geht. Im ersten Schritt wollen wir zeigen, warum die Lösung dieser Aufgabe auch das Faktorisierungsproblem löst. Wir wählen n als die zu faktorisierende Zahl und eine Zahl a, die zunächst beliebig angenommen wird, jedoch einigermaßen groß und zu n teilerfremd ist, sprich ggT (a, n) = 1. Die Idee liegt einfach in der binomischen Formel:

a2m – 1 = (am – 1) ( am + 1)

(2)

Es wird nun nach Werten von m gesucht, mit denen n die linke Seite der Gl. (2) und folglich auch die rechte Seite der Gl. (2) teilt. Auf der rechten Seite steht dann das Produkt zweier Zahlen, das durch n teilbar ist. Es stellt sich also die Frage, wie wir m finden, so dass a2m durch n geteilt den Rest 1 lässt. In Form der kongruenten Schreibweise bedeutet das, folgende Aufgabe zu lösen:

ax

1 mod n

(3)

114

Im Prinzip haben wir im Auffinden der Zahl x eine große Ähnlichkeit zu der Lösungsvariante des quadratischen Siebs. Als Beispiel betrachten wir die Zahl 21, die es zu faktorisieren gilt. Welche Zahlen sind zu 21 teilerfremd, also ggT (a, 21) = 1? 2, 4, 5, 8, 10, 11, 13, 16, 17, 19, 20. Wir wählen a = 5 und bestimmen den Exponenten x, indem wir bei x = 1 beginnen x und schrittweise um 1 erhöhen: 51 52 53 55 56 5 mod 21 4 mod 21 –1 mod 21 –4 mod 21 1 mod 21 → bingo, Gl. (3) ist erfüllt

Aus der Zerlegung von Gl. (2) folgt, wenn man 2 m = 6 setzt: 56 – 1 = (53 – 1) ( 53 + 1) Nun teilt zwar die Zahl 21 das Ergebnis aus 56 – 1, aber auch die Zahl 53 + 1 = 126. Somit haben wir eine triviale Lösung gefunden, denn 126 ist ein Vielfaches der Zahl 21 und somit kein Primteiler. Wir versuchen einen neuen Ansatz und wählen a = 2. Wir werden sehen, dass wir mit a = 2 eine gute Wahl getroffen haben und damit die Primfaktoren bestimmen können. Wir zerlegen die Zahl 64 in folgender Weise: 64 = 3 * 21 + 1 64 kann mit der Basis a = 2 in exponentieller Schreibweise wie folgt formuliert werden: 26 = 64 = 3 * 21 + 1 Bilden wir nun auf beiden Seiten modulo 21, so erkennen wir, dass Gl. (3) wieder erfüllt ist: 26 1 mod 21 115

Zerlegen wir nun die Zahl 26 – 1 mit der binomischen Formel, so erhalten wir: 26 – 1 = (23 – 1) (23 + 1) Mit 23 – 1 = 7 ist ein nicht-trivialer Primfaktor von 21 gefunden und wir können unsere Berechnung an dieser Stelle beenden. Fassen wir unsere Rechenschritte für den klassischen Teil des Shor-Algorithmus noch einmal zusammen: 1) Man wähle zu einer gegebenen Zahl n eine teilerfremde Zahl a, also ggT (a, n) = 1. 2) Man berechne die Periode y von ax mod n, also ay trivialer Lösung ist. 4) Berechne p = ggT (x – 1, n) und p = ggT (x + 1, n) → n = p * q. Es stellt sich im diesen Zusammenhang natürlich die Frage, wie groß die Wahrscheinlichkeit ist, eine gerade Periode y zu bekommen, denn nur in diesem Fall funktioniert auch unser Algorithmus. Wir können klarerweise bei der Wahl von a auch Pech haben und eine ungerade Periode finden. Dazu bedarf es einer Abschätzung; dabei handelt es sich um ein rein zahlentheoretisches Problem, die Berechnung hat mit der Quantenmechanik nichts zu tun. Wir wählen also ein ungerades n und fragen nach der Wahrscheinlichkeit W, ein teilerfremdes a mit einer geraden Periode y zu finden. Die Größe lässt sich wie folgt abschätzen: 1 mod n → x = ay/2. 3) Wiederholung von Schritt 1 und 2, wenn y eine ungerade Zahl bzw. eine gerade Zahl mit

W ≥ 1 – 1 / 2k-1

(4)

k steht für die Anzahl der verschiedenen Primfaktoren von n. Für k = 1, also wenn n = py, versagt unser Algorithmus, denn mit W ≥ 0 kann auch der Fall W = 0 eintreten. Zum Glück gibt es aber für Zahlen dieser Form schnelle Faktorisierungsmethoden, daher müssen für den vollständigen Shor-Algorithmus Zahlen der Form py geprüft werden. Setzt sich nun die zusammengesetzte Zahl aus zwei Primfaktoren zusammen, erhält man pro Durchgang mit einer Wahrscheinlichkeit von ½ die Lösung. Also ist nach t Schritten die Wahrscheinlichkeit eines Misserfolgs 2-t. Wir haben nun die Feinheiten des Shor-Algorithmus ausführlicher diskutiert und wir wenden uns nun dem quantenmechanischen Teil zu.

116

Die Aufgabe, die der Shor-Algorithmus leistet, ist das Auffinden der Periode einer Funktion. Angewendet wird das Ganze auf die Funktion f (x) = ax mod n, aber man könnte dafür auch praktisch jede andere periodische Funktion heranziehen. Wir interessieren uns nun insgesamt für das Laufzeitverhalten. Der eigentliche Unterschied zu den bisherigen klassischen Algorithmen zur Faktorisierung von Zahlen liegt darin, für alle x die Funktion f (x) in einem Schritt berechnen zu können. Ich möchte an dieser Stelle den mathematisch-physikalisch interessierten Leser auf weiterführende Literatur verweisen. Im Rahmen dieses Buches wäre eine quantenmechanische Abhandlung des Problems zu kompliziert, aber die Vorteile liegen klar auf der Hand. Mit dem Shor-Algorithmus gelingt die Faktorisierung großer Zahlen auf Quantencomputern genauso schnell wie das Multiplizieren. Der Quantencomputer gibt das gesuchte Ergebnis zwar nur mit einer gewissen Wahrscheinlichkeit richtig aus, doch Shor konnte beweisen, dass die Fehlerwahrscheinlichkeit beliebig klein wird, sofern man diesen Rechenschritt oft genug wiederholt. Dieses Wiederholen mag den Quantencomputer verlangsamen, doch er bleibt trotzdem schneller als herkömmliche Computer. Für das Zerlegen einer 130-stelligen Zahl benötigt ein Quantencomputer 10 Millionen Mal weniger Rechenschritte als ein klassischer Rechner. Bei einer 600-stelligen Zahl ist Shors Quantenalgorithmus sogar um eine eins mit zwanzig Nullen mal schneller. Aus dieser Tatsache heraus wird eines Tages die Sicherheit von derzeit sicheren Verschlüsselungssystemen gefährdet sein. Mit dem zukünftigen gewaltigen Potenzial eines Quantencomputers ist mit Shors Quantenalgorithmus die Zerlegung einer sehr großen zusammengesetzten Zahl kein Hindernis mehr, jedoch haben die Quantenkryptologen eine neue Entdeckung gemacht, mit der dieser Angriff auf sichere Verschlüsselungssysteme umgangen werden kann. Im nächsten Abschnitt widmen wir uns der Idee eines absolut sicheren Verschlüsselungsverfahrens, das seinen Ursprung ebenfalls in der Quantenmechanik hat, der so genannten „Quantenkryptografie“.

5.2 Quantenkryptografie

Seit langer Zeit versuchen Menschen, Nachrichten so sicher zu übertragen, dass außer dem Sender und dem Empfänger keiner Zugang zu den Nachrichten hat. Die klassische Kryptografie hat sich trickreicher Methoden bedient, um einen maximalen hohen Grad an Sicherheit zu gewähren. Mit der Zunahme des Datenverkehrs, bedingt durch die steigende 117

Vernetzung durch das Internet, werden zuverlässige und schnelle Verschlüsselungsverfahren immer wichtiger. Bis jetzt wurde jedoch kein absolut sicheres und auch praktikables Verfahren entdeckt, mit dem das Abhören von gesendeten Informationen verhindert und dieses Vorgehen auch von Sender und Empfänger bemerkt werden könnte. Die Quantenkryptografie schafft hier Abhilfe. Das erste kryptografische Protokoll wurde das erste Mal von Ch. Bennett und G. Brassard vorgeschlagen. Wie schon erwähnt, können Quantenobjekte und im Besonderen die Superpositionszustände bei einer Beobachtung empfindlich gestört werden. Werden nun für eine Schlüsselübertragung Quantenobjekte übermittelt und versucht ein Angreifer, den Schlüssel abzuhören, wird der Vorgang durch die quantenmechanische Veränderung sofort aufgedeckt. In der quantenmechanischen Schlüsselübertragung wird zwischen zwei Klassen unterschieden, basierend auf der Verwendung von Ein- oder Zweiteilchensystemen. Ein Einteilchensystem ist in Abbildung 5 am Beispiel von Polarisationskodierung von Einzelphotonen skizziert. Dieses Protokoll wurde von Charles Bennet und Gilles Brassard vorgeschlagen und ist heutzutage als BB84-Protokoll bekannt.

Abbildung 5: Abhörsicheres System anhand des BB84-Protokolls In unserem Beispiel wählen wir für den Sender und Empfänger zwei Personen, die wir Alice und Bob nennen wollen. Alice, die mit der Übertragung beginnt, sendet an Bob linear polarisierte Photonen. Photonen sind Lichtteilchen und die ausgesuchten Quantenobjekte für die Schlüsselübertragung. Wir ordnen horizontal sowie im Winkel von –45° polarisierten Photonen den Bitwert 0 und vertikal sowie im Winkel von 45° polarisierten Photonen den Bitwert 1 zu. Alice sendet einzelne Photonen in einem dieser vier Polarisationszustände und 118

überträgt die gewählten Zustände in eine Liste. Bob, der als Empfänger fungiert, hat zwei Analysatoren zur Verfügung. Der erste ermöglicht die Unterscheidung zwischen horizontal und vertikal polarisierten Photonen, der zweite kann zur Unterscheidung von diagonal polarisierten Photonen benutzt werden. Vor jeder Messung wählt Bob einen dieser beiden Analysatoren. Er notiert in einer Liste, ob er ein Photon und mit welchen Analysator er ein Photon registriert hat. Nach der Übertragung ausreichender Photonen vergleichen Alice und Bob öffentlich ihre Listen. Sie wählen nur jene Ereignisse, bei denen Bobs Stellung des Analysators an der Ausrichtung der von Alice versendeten Photonen angepasst war. In diesen Fällen haben beide identische Bit-Werte. Alle Ereignisse, bei denen keine Übereinstimmung gegeben ist, werden nicht weiter berücksichtigt. Hierbei ist es wichtig zu verdeutlichen, dass die Kommunikation, ob ein Photon horizontal, vertikal oder diagonal polarisiert war, zwischen Alice und Bob zwar öffentlich ist, aber keine Detailinformation über den Zustand der gesendeten Teilchen offen gelegt wird. Somit erhalten Alice und Bob Zahlenketten mit gleicher Abfolge von Nullen und Einsen. Wie aber ist die Sicherheit bei dieser Art der Informationsübertragung gewährleistet? Angenommen, ein Angreifer möchte einen Lauschangriff starten und den übertragenen Schlüssel abhören. Für den Angreifer ist es unmöglich, einen geringen Teil des optischen Signals abzuzweigen, ohne dass Bob es merkt. Er hat nun entweder die Wahl, nicht zu messen (in diesem Fall bekommt er keinerlei Informationen über den Zustand des Photons) oder er misst das Photon als Ganzes und schickt entsprechend dem Resultat der Messung ein präpariertes Ersatzphoton weiter. Wählt der Angreifer einen von zwei Analysatoren, so wird er in einer Vielzahl der Fälle den falschen Zustand messen und ein zufälliges Ergebnis erhalten. In den Fällen, in denen der Angreifer ein falsches Ergebnis gemessen hat, hat der Angreifer in den quantenmechanischen Zustand eingegriffen und die Photonen kommen verändert bei Bob an. Vergleichen nun Alice und Bob eine zufällige Auswahl von Bits, können sie auf Grund der Abweichungen einzelner Bits feststellen, dass ein Angreifer gelauscht hat. Wir haben soeben eine Methode erläutert, wie auf quantenmechanischer Basis ein abhörsicheres Verfahren realisiert werden kann. Sollte es jemals gelingen, Quantenkommunikation und -informationsverarbeitung im großen Maßstab praxistauglich zu machen, gehen wir einer sicheren Zukunft beim Austausch heikler Daten entgegen.

119

5.3 Quantenteleportation

Die Quantenteleportation beschreibt ein Verfahren, mit dem quantenmechanische Zustände oder Eigenschaften eines Teilchens ohne Zeitverzögerung auf ein anderes, auch unter Umständen weit entferntes, Teilchen übertragen werden kann. Bei diesem Verfahren wird aber nicht im klassischen Sinne die Materie von einem zu einem anderen Ort transportiert, sondern man macht sich die extreme Nichtlokalität der Quantenmechanik zu Nutze. Gehen wir davon aus, dass Alice einen Gegenstand mit all seinen Eigenschaften an Bob versenden möchte. Will nun Alice alle Eigenschaften ihres Gegenstands genau bestimmen, also eine exakte Kopie des ursprünglichen Objekts herstellen, und an Bob weitergeben, so ist das auf Grund der Unbestimmtheitsrelation in der Quantenphysik unmöglich. So besagt die Quantenmechanik, dass sich Eigenschaften eines Objekts von einem bestimmten Punkt an nicht mehr beliebig genau ermitteln lassen. Werner Heisenberg entdeckte im Jahr 1927 die nach ihm benannte heisenbergsche Unschärferelation, die besagt, dass Ort und Impuls eines Teilchens nicht gleichzeitig beliebig genau bestimmt werden können. Das gilt auch für andere Paare physikalischer Messgrößen, wie z. B. Drehimpuls und Winkel oder Energie und Zeit. Wie ist es nun aber möglich, eine exakte Kopie der Eigenschaften eines Objekts an einen Empfänger zu übertragen? Im Prinzip muss lediglich dafür gesorgt werden, dass Bobs Gegenstand am Ende der Übertragung die gleichen Eigenschaften aufweist, die Alices Gegenstand zu Beginn hatte. Dies kann mit Hilfe einer Verschränkung zwischen Quantenobjekten erreicht werden. Wie schon erwähnt, haben zwei verschränkte Teilchen für sich keinen wohl bestimmten Zustand. Das eigentlich Neue bei der Quantenteleportation ist nun, dass es möglich ist, einen Quantenzustand zu übertragen, ohne das Teilchen selbst zu transportieren; dabei kann der zu übertragende Quantenzustand völlig unbekannt sein. Für eine Teleportation ist die Kenntnis des zu übertragenden Zustands nicht erforderlich. Schickt nun Alice ein Teilchen aus dem zunächst gemeinsamen Mischzustand aus zwei verschränkten Teilchen durch einen Kommunikationskanal zu Bob, so kann sie das 120

verbliebene Teilchen mit dem zu übertragenden Teilchen kombinieren; dabei entsteht bei Bob simultan und ohne unmittelbare Einwirkung eine exakte Kopie des zu teleportierenden Teilchens. Das gleiche Phänomen konnten wir auch beim EPR-Effekt beobachten, daher zieht man zur Realisierung einer Teleportation eine EPR-Quelle heran. Die Quanteninformation wird somit vom Ursprungsort zu einem anderen Ort transportiert, wobei die Information am Ursprungsort verloren geht. Abbildung 6 illustriert schematisch eine Quantenteleportation. Anton Zeilinger und sein Team waren 1997 die Ersten, die eine Quantenteleportation im Labor in die Realität umgesetzt haben. Die am weitesten entwickelte Anwendung der Quantenteleportation ist sicher die Quantenkryptografie. Die Quantenverschränkung macht es dabei möglich, den Schlüssel für die Dekodierung beim Empfänger und Sender gleichzeitig zu erzeugen.

121

Abbildung 6: Schema einer Quantenteleportation. Erhalten Alice und Bob von einer EPRQuelle jeweils ein Teilchen eines verschränkten Paares A und B, so kann der Quantenzustand auf das teleportierte Objekt O übertragen werden.

122

6. Genetische Verschlüsselung
Sie sind vielleicht etwas verwundert, dass ich der Genetik in diesem Buch ein eigenes Kapitel widme, jedoch ist für mich gerade die Genetik eine faszinierende Thematik, wie effizient und ausgeklügelt in der Natur Informationen verschlüsselt werden können. Der Mensch hat zwar stets durch seine intellektuellen Fähigkeiten sehr komplizierte künstliche Systeme geschaffen, aber die Kreativität und Vielfältigkeit der Vorgänge und Erscheinungen in natürlichen Systemen sind ohne Zweifel unerreicht. Die Menschheit hat zwar in vielen Bereichen großartige technische und wissenschaftliche Fortschritte gemacht, trotzdem scheint es so, als ob der Facettenreichtum in der Natur für den menschlichen Verstand nicht ganzheitlich fassbar ist. Da in den letzten Jahrzehnten revolutionäre Entdeckungen auf dem Gebiet der Genetik gemacht wurden, wobei bestimmte Entwicklungen nicht ganz unkritisch gesehen werden sollten, möchte ich Ihnen einen Einblick in die Welt der kleinsten Bausteine des Lebens geben – der Gene. Wie vielseitig und schwierig die Organisation, die Speicherung und die Strukturierung der genetischen Information im Kern der kleinsten Organismen, der Zellen, stattfindet, werden wir in diesem Kapitel sehen. Um einen besseren Einblick in das Gebiet der Genetik zu bekommen, werden wir uns im ersten Abschnitt mit Grundlagen der Genetik befassen. Darüber hinaus möchte ich in den folgenden Abschnitten Querbezüge hin zur Mathematik und Physik herstellen und Verwandtschaften zwischen natürlichen und den von Menschen geschaffenen künstlichen System herstellen. Wie gesagt, gibt es viele unterschiedliche Teilbereiche in den unterschiedlichen wissenschaftlichen Disziplinen, aber man findet immer wieder Schnittstellen und Ähnlichkeiten zwischen den Teilen eines übergeordneten Ganzen.

6.1 Grundlagen der Genetik

Sobald ein Kind geboren wird und die ersten Verwandten und Freunde in das Krankenhaus kommen, um den Sprössling zu bewundern, stellen sich alle die Frage, wem das Kind ähnlich sieht. Soweit ist jedem klar, dass bestimmte Merkmale vererbt werden können – ob es sich nun um äußere Attribute wie Augenfarbe, Haarfarbe oder andere Körpermerkmale oder um 123

eher schon umstrittenere Eigenschaften wie persönlicher Charakter oder Intelligenz handelt. Soweit hat heutzutage praktisch fast jeder eine Assoziation mit der Genetik oder Vererbungslehre. Wissenschaftlich zum Ausdruck gebracht beschäftigt sich die Genetik mit dem Aufbau und der Funktion von Erbanlagen, der Gene, sowie der Weitervererbung von Genen. Schon seit der Antike versuchen die Menschen, die Gesetzmäßigkeiten der Vererbung durch unterschiedlichste Annahmen zu erklären. So lehrte bereits der griechische Philosoph Anaxagoras um 500 v. Chr., dass das Geschlecht des Kindes nur vom Vater abhängig sei. Ebenso vertrat Aristoteles die Anschauung, dass Erbanlagen nur von der väterlichen Seite weitergegeben werden und den Frauen nur eine ernährende Funktion zukommt. Solche Anschauungen über Fortpflanzung und Vererbung waren bis zur Neuzeit gang und gäbe. Einen entscheidenden Schritt in der Vererbungslehre machte der Mönch Gregor Mendel, der 1865 als Erster Vererbungsregeln aufstellte und erklären konnte, nach welchen Mustern Eigenschaften der Eltern an ihre Nachkommen weitergegeben werden. Seine Gesetze, die heute als mendelsche Gesetze bekannt sind, fand er auf Grund von Kreuzungsversuchen an Erbsen. Mendel prägte die Begriffe „dominant“ und „rezessiv“ – diese Eigenschaften spielen bei der Vererbung von Genen eine entscheidende Rolle. Auf diese Begriffe werden wir später noch genauer eingehen. Von dieser Zeit an wurden entscheidende Fortschritte in der Genetik gemacht und die Grundlagen dazu möchte ich Ihnen jetzt vorstellen. Im Mittelpunkt aller gentechnischen und molekularbiologischen Untersuchungen stehen die Nukleinsäuren, die Träger der Erbinformation sind. In fast allen Organismen kommen zwei verschiedene Arten von Nukleinsäuren vor, die DNA und die RNA. DNA steht für Desoxyribonukleinsäure und RNA für Ribonukleinsäure. 1954 entdeckten James Watson und Francis Crick, dass die DNA die Gestalt einer Doppelhelix aufweist. Die Doppelhelix weist eine geometrische Struktur auf, bei der sich zwei Stränge in Form einer Spirale schraubenartig umeinander schlingen, die beiden DNA-Molekül-Stränge werden dabei durch chemische Bindungen zusammengehalten. In Abbildung 7 sehen wir ein Modell der DNA-Struktur. Die Erbinformation ist in einer bestimmten Form, dem genetischen Code, in der DNA festgeschrieben und aus dieser Information können Proteine synthetisiert werden. Proteine sind lebenswichtige Bausteine des Lebens, auf deren Erklärung wir später noch einmal zurückkommen werden. Wie gestaltet sich der Aufbau der DNA?

124

Die Desoxyribonukleinsäure ist ein Makromolekül, das sich aus vielen Einzelbausteinen zusammensetzt. Die Einzelbausteine, die so genannten „Nukleotide“, reihen sich aneinander und bilden eine Molekülkette, wobei die Nukleotide selbst wieder aus drei Komponenten zusammengesetzt sind: aus Zucker, einer Phosphatgruppe und einer Base. Die drei Komponenten werden über chemische Bindungen zusammengehalten.

Abbildung 7: Struktur des DNA-Moleküls

In der DNA findet man vier unterschiedliche Basen, die die Namen Adenin, Cytosin, Guanin und Thymin tragen. Die DNA liegt in der Zelle die meiste Zeit als Doppelstrang vor, der entsteht, indem sich zwischen den Basen eines Stranges und denen eines anderen Wasserstoffbrückenbindungen bilden. Die Bindung der beiden Stränge aneinander erfolgt über eine komplementäre Basenpaarung, so bindet sich Adenin an Thymin und Guanin an Cytosin. Das hat zur Folge, dass in einem DNA-Doppelstrang immer gleich viel Adenin und Thymin sowie Guanin und Cytosin vorhanden sind. Ist nun die Bindung zwischen zwei DNAEinzelsträngen vollständig abgeschlossen, verbleiben die beiden Stränge nicht einfach in der

125

Ebene, sondern werden räumlich schraubenartig verdreht. Daraus entsteht, wie oben bereits erwähnt, die räumliche Struktur der Doppelhelix. Wie ist die DNA in der Zelle „verpackt“? Zunächst wollen wir uns einmal den gigantischen Informationsgehalt, den die DNA beinhalten muss, vor Augen führen. Wählen wir als Beispiel die menschliche DNA. Diese besteht etwas aus 6 Milliarden Basenpaaren, was ausgestreckt etwa einer Länge von 2 Metern gleichkommt. Der DNA-Strang befindet sich in einem winzigen Zellkern von ungefähr 10 Mikrometern Größe als ein Hundertstelmillimeter verpackt. Daher muss die Natur eine besonders Platz sparende, aber auch stabile Form für die Verpackung des Genmaterials gewählt haben. Aus diesem Grund windet sich die DNA-Doppelhelix um bestimmte Proteinpartikel und wird so weiter aufgeschraubt. Das Aufwinden erfolgt bis zu einer maximalen Verdichtung, bis die DNA im Zustand eines Chromosoms vorliegt. Bei Chromosomen handelt es sich um faden- oder x-förmige Gebilde, die die genetische Information tragen. Wir haben bis jetzt die wichtigsten Merkmale der DNA erläutert, daher werden wir uns jetzt mit der Genexpression beschäftigen. Unter dieser versteht man die Realisierung von Information, die in der DNA eines Gens gespeichert ist. In den Basensequenzen der DNA sind alle notwendigen Informationen gespeichert, damit sich ein lebensfähiger Organismus entwickeln kann. Als Gen bezeichnet man einen DNA-Abschnitt, der als Vorlage für die Synthese eines Proteins dient. Um die Genexpression vollständig zu verstehen, widmen wir uns noch einer wichtigen Komponente, der RNA. Die RNA unterscheidet sich von der DNA durch folgende Eigenschaften: • • • RNA besitzt als Zucker eine Ribose, die DNA hingegen eine Desoxyribose In der RNA wird die Base Thymin durch die Base Uracil ersetzt, alle anderen Basen sind gleich Die RNA besteht in der Regel nur aus einem Einzelstrang

Insgesamt lassen sich in der Zelle drei verschiedene RNA-Arten unterscheiden: MessengerRNA, Ribosomale-RNA und Transfer-RNA.

126

Es interessiert uns nun, wie diese im Zellkern vorliegende genetische Information umgesetzt werden kann, damit aus einer Abfolge von Nukleotiden letztlich ein spezifischer Stoffwechsel zu Stande kommt. Die Vorgänge bei der Genexpression werden in zwei Phasen unterteilt – der Transkription und der Translation. Wir werden nun ein natürliches Verfahren kennen lernen, mit dem die verschlüsselte genetische Information entschlüsselt wird, und auch die Art und Weise, wie die genetische Information zum Empfänger gelangt.

6.1.1 Transkription

Wie wir schon erläutert haben, ist die DNA der Träger der Erbinformation und diese setzt sich aus einer Kette von Basenpaaren zusammen. Daher ist die genetische Information in den Basensequenzen der DNA verschlüsselt. Es lassen sich generell zwei Typen von Genträgern unterscheiden: einerseits die Eukaryonten, das sind Organismen mit echtem Zellkern, und andererseits Prokaryonten, hier handelt es sich um Organismen ohne echten Zellkern. Die Erbinformation liegt bei Eukaryonten im Zellkern, hingegen ist sie bei Prokaryonten im Cytoplasma oder Zellplasma angesiedelt. Um die genetische Information freizusetzen oder zu exprimieren, muss zunächst eine Übertragung der Erbinformation von der DNA auf die RNA stattfinden. Dieser Vorgang wird als „Transkription“ bezeichnet. Wie gestaltet sich der Ablauf der Transkription? Zur Veranschaulichung betrachten wir für die Genfreisetzung Organismen mit echtem Zellkern. Der Vorgang der Transkription findet bei Eukaryonten im Zellkern statt. Die Transkription ist dem Vorgang der DNA-Replikation, sprich der Verdopplung des gesamten Erbguts bei der Zellteilung, sehr ähnlich. Ein Enzym mit den Namen „RNA-Polymerase“ kopiert die Nukleotidabfolge eines DNA-Matrizenstranges nach den Regeln der komplementären Basenpaarung. Enzyme sind lebenswichtige Proteine, die chemische Reaktionen katalysieren, d. h. sie beschleunigen als Katalysatoren chemische Reaktionen, indem sie die Aktivierungsenergie, die für einen Stoffwechsel benötigt wird, herabsetzen. Bevor die Übertragung eines DNA-Abschnittes auf die RNA erfolgen kann, muss die DNADoppelhelix aufgetrennt werden. Für diesen Prozess sind die so genannten „DNA-Helicasen“ verantwortlich, die sich entlang des DNA-Stranges 127 bewegen und die die

Wasserstoffbrückenbindungen zwischen den komplementären Basenpaaren lösen. Nach der Trennung des DNA-Doppelstrangs kann sich die RNA-Polymerase daran machen, eine Kopie des DNA-Stranges herzustellen, wobei bei der RNA-Synthese statt der Base Thymin die Base Uracil eingebaut wird. Die RNA-Polymerase knüpft nun ein Nukleotid nach dem anderen an die wachsende RNA-Kette an. Dabei übernimmt die RNA die Rolle eines Boten, der die genetische Information vom Zellkern zum Ort der Proteinsynthese, zu den Ribosomen im Zellplasma, transportiert. Daher wird eine solche RNA als „Boten-“ oder „Messenger-RNA“ (mRNA) bezeichnet. Abbildung 8 veranschaulicht den Prozess von der Genexpression bis zur Informationsübertragung zu den Ribosomen in einer eukaryontischen Zelle. Die Synthese beginnt aber nicht wahllos an irgendwelchen Stellen im Genom des Organismus, sondern setzt an ganz definierten Punkten an. Dafür gibt es in der DNA eine bestimmte Erkennungssequenz, die man „Promoter“ nennt. An dieser Stelle, sprich am Promoter, bindet die RNA-Polymerase und beginnt von diesem Punkt an, das zu transkribierende Gen zu lesen. Promotoren markieren also den Startpunkt oder die Startsequenz für die Übersetzung von der DNA in die RNA. Nun liegt die Gensequenz in Form der Messenger-RNA vor, die aber noch weiter modifiziert werden muss. Einerseits erfolgt eine Modifikation zur Stabilisierung, andererseits kommt es zum so genannten „Spleißen“ der Boten-RNA. Die molekulare Struktur der Gene bei Eukaryonten weist eine ganz besondere Eigenart auf. Diese schlägt sich in einer nicht fortlaufenden genetischen Informationscodierung nieder. Codierende Gensequenzen, so genannte „Exons“, werden durch nicht codierende Sequenzen, den „Introns“ unterbrochen. Letztere bezeichnet man auch als „Nonsens-“ oder „Junksequenzen“. Jüngste Forschungen zeigen jedoch, dass möglicherweise auch Introns bei der Expression eine wichtige Rolle spielen könnten.

128

Abbildung 8: Schematische Darstellung der Genexpression und Transfer via Boten-RNA zu den Ribosomen

Nach der Transkription werden die nicht codierenden Sequenzen, sprich die Introns, herausgeschnitten und die Enden der beiden Exons mit Hilfe von Enzymen wieder verknüpft. Während des Spleißvorgangs bilden die Introns eine Schleifenstruktur aus. Abbildung 9 zeigt einen schematischen Ablauf des Vorgangs des Spleißens:

129

Abbildung 9: Vorgang des Spleißens

Nach der vollständigen Reifung der Boten-RNA kann diese vom Zellkern ins Cytoplasma transportiert werden, wo während der Phase der Translation die Basensequenz der BotenRNA in Aminosäuresequenzen eines Proteins übersetzt wird.

6.1.2 Proteinbausteine aus der Erbinformation

Wie ich Ihnen schon erläutert habe, bedeutet der Begriff der Genexpression, dass bestimmte Nukleinsäuresequenzen in die Boten-RNA umgeschrieben werden und in Folge das transkribierte Gen in Proteine übersetzt wird (= Translation). Dazu existiert ein genetischer

130

Code in der DNA beziehungsweise in der RNA, der auf den vier Basen A = Adenin, G = Guanin, C = Cytosin und T = Thymin beziehungsweise U = Uracil aufbaut. Wie aber kann eine Kombination der vier Basen eine Verschlüsselung einzelner Aminosäuren, die als Bausteine der Proteine fungieren, bewirken? In der Natur kommen insgesamt 20 verschiedene Aminosäuren vor, die für alle bekannten Proteine codieren. Da aber den 20 Aminosäuren nur vier Basen gegenüberstehen, ist es unmöglich, dass nur eine Base für die Codierung einer Aminosäure zuständig ist. Wie lange muss nun eine Nukleotidsequenz sein, damit 20 verschiedene Aminosäuren codiert werden können? Angenommen, wir gehen von zwei Basen für die Verschlüsselung einer Aminosäure aus, dann könnten damit theoretisch 42 = 16 Aminosäuren zusammengesetzt werden. Damit hätten wir noch immer zu wenig Kombinationen, um alle 20 Aminosäuren abzudecken. Erst mit der Kombination von drei Basen ergibt sich die Möglichkeit, alle 20 Aminosäuren zu codieren. Daraus resultieren nämlich 43 = 64 Kombinationsmöglichkeiten. Der rein rechnerische Ansatz wurde auch experimentell bestätigt. Die 43 verschiedenen Kombinationen stellen eine redundante oder degenerierte Repräsentation der Aminosäuresequenz dar, daher codieren verschiedene Kombinationen für ein und dieselbe Aminosäure. Fassen wir also noch einmal zusammen: Die Kombination dreier Basen – ein Basen-Triplett oder die Aneinanderreihung dreier Nukleotide – ergibt eine Aminosäure. Ein solches BasenTriplett wird auch noch als Codon bezeichnet. Somit ist der genetische Code entschlüsselt. Wie wir sehen, gibt es auch in der Natur zur Verschlüsselung von Informationen eine eigene Sprache – die genetische. Um nun unser Bild zu komplettieren, müssen wir uns noch im Detail mit dem Prozess der Translation beschäftigen.

6.1.3 Translation

Wie bereits erwähnt, bildet der Prozess der Translation den zweiten Schritt in der Genexpression. Hier erfolgt die Übersetzung der genetischen Information der MessengerRNA in Proteine. Es existiert ein wesentlicher Unterschied bei der Genexpression für Prokaryonten und Eukaryonten. Während bei Prokaryonten keine räumliche Trennung zwischen Transkription und Translation vorliegt, findet bei Eukaryonten die Transkription im 131

Kern statt, hingegen die Translation im Zellplasma. Wir werden an dieser Stelle wieder Organismen mit echtem Zellkern als Eukaryonten betrachten. Beim Prozess der Translation sind so genannte „Ribosomen“ eingebunden, mit deren Hilfe die Synthetisierung von Proteinen ermöglicht wird. Wie lässt sich der Vorgang der Translation im Detail beschreiben? Ein Ribosom setzt sich aus zwei Untereinheiten zusammen: einer großen Untereinheit, die bei der Proteinproduktion die Aminosäuren zu einer Kette verknüpft, und einer kleineren Untereinheit, die für die Erkennung der Boten-RNA zuständig ist. Beide Untereinheiten, die bei der Proteinbiosynthese eng zusammenarbeiten, setzen sich aus Proteinen und der ribosomalen RNA zusammen. Die Untereinheiten des Ribosoms heften sich nun an eine bestimmte Region der mRNA und ermöglichen so den Kontakt zwischen den Codons der mRNA und der Transfer-RNA. Dabei müssen verschiedene Faktoren für die korrekte Platzierung der mRNA sichergestellt sein. Den Beginn der Proteinbiosynthese kennzeichnet ein Startcodon oder eine Startsequenz der mRNA, bestehend aus den drei Basen AUG, also Adenin, Uracil und Guanin. Die Transfer-RNAs (tRNAs) spielen beim Ablauf der Proteinerzeugung eine wichtige Rolle, da sie als Vermittler zwischen den Codons der mRNA und den dazu passenden Aminosäuren fungieren. Die Moleküle der tRNAs schwimmen quasi frei im Cytoplasma, nehmen die zu ihnen passenden Aminosäuren auf und wandern zu den Ribosomen. Das Ribosom bringt dabei die mRNA und das frei herumschwimmende tRNA-Molekül, das eine Aminosäure aufgenommen hat, so zusammen, dass sich an ein bestimmtes Codon auf der mRNA – quasi als passendes Gegenstück – ein komplementäres Anticodon der tRNA anlagert. Eine zweite tRNA, die ebenfalls eine Aminosäure trägt, setzt sich neben der ersten tRNA an die mRNA. Die beiden an den tRNA-Molekülen hängenden Aminosäuren werden mit einer Peptidbindung verknüpft und die erste tRNA verlässt ohne Aminosäure das Ribosom. Die auf das nächste Codon passende tRNA lagert sich nun an die mRNA an. Ihre Aminosäure wird an die bereits bestehende Aminosäurekette geknüpft und erweitert diese so um ein neues Glied. Dieser Prozess verläuft so lange, bis das Stoppcodon erreicht ist und den Prozess stoppt. Ein neues Protein ist entstanden. Eine schematische Darstellung der Translation wird in Abbildung 10 gezeigt. Allerdings wird nicht die gesamte mRNA in eine Aminosäuresequenz übersetzt, sondern nur der Bereich, der zwischen einem Start- und einem Stoppcodon liegt. Nach dem Abschluss der Proteinbiosynthese zerfällt das Ribosom in seine beiden 132

Untereinheiten und das entstandene Protein entweicht in das Zellplasma. Ebenso wird die nicht mehr benötigte Messenger-RNA von Enzymen abgebaut. Die Erzeugung eines Proteins findet oft in einem Verbund von mehreren Ribosomen statt. Hierfür wird von jedem Ribosom dieselbe mRNA abgelesen; somit kann sichergestellt werden, dass ein benötigtes lebenswichtiges Protein in größerer Menge in kürzerer Zeit von der Zelle produziert werden kann.

Abbildung 10: Prozess der Translation Die Struktur der tRNA lässt sich mit der Form eines Kleeblatts vergleichen (siehe Abbildung 11). An einem Ende besitzt die tRNA eine Aminosäure-Anheftungsregion, an die sich eine bestimmte Aminosäure binden kann, und am anderen Ende befindet sich ein Triplett, das so genannte „Anticodon“, das komplementär zum Codon der mRNA ist. Die neu gebildeten Proteine im Zellplasma haben ihre Wirkungsorte oft an weit entfernten Stellen im Organismus, aus diesem Grund müssen die Proteine an ihren richtigen Platz transportiert werden. Dafür sind bestimmte Erkennungsmerkmale notwenig; daher besitzen viele Proteine am Ende eine zusätzliche Aminosäuresequenz, die als Adresse fungiert und das Protein zu seinem Bestimmungsort lenkt. Wir haben anhand des Beispiels der Genexpression ein sehr schönes Beispiel aus der Biologie respektive der Genetik erläutert, das man sehr wohl auch als hohe Kunst der Verschlüsselung bezeichnen könnte. Wir werden später noch, auch im Hinblick auf die Gehirnforschung, die Parallelen zu den Verschlüsselungsprinzipien der Mathematik und der Physik erläutern. 133

Davor aber werden wir uns der erfolgreichen Attacke zur Entschlüsselung der menschlichen Erbinformation zuwenden, die man ohne Weiteres als Meilenstein in der Genforschung bezeichnen kann.

Abbildung 11: Struktur der Transfer-RNA

6.2 Entschlüsselungsmethodik zur Entschlüsselung des menschlichen Genoms

In der Tat kann die Entschlüsselung des menschlichen Genoms, sprich: die Entzifferung der gesamten menschlichen Erbinformation, als einer der bedeutendsten Meilensteine in der 134

Geschichte der Wissenschaft bezeichnet werden. Die Entschlüsselung des Genoms ist das Ergebnis einer mühsamen und aufwändigen Forschungsarbeit Tausender Wissenschaftler aus vielen Ländern dieser Erde. Begonnen hatte die Erforschung des menschlichen Erbgutes mit dem offiziellem Start des mit staatlichen Geldern finanzierten, internationalen „Human Genome Project“ (HGP) im Oktober 1990. Ziel der internationalen Zusammenarbeit war die Sequenzierung, das heißt die Bestimmung der Reihenfolge der über 3 Milliarden Bausteine und circa 30.000 bis 40.000 menschlichen Gene bis zum Jahr 2003. Durch verbesserte und schnellere Sequenzierungsmethoden, nicht zuletzt aber vor allem durch die Beiträge der USBiotechnologiefirma Celera unter der Leitung von Craig Venter wurden jedoch bereits bis zum Januar 2000 etwa 90 % des Genoms entschlüsselt. Die Zusammenarbeit von öffentlichen Instituten im Human Genome Project, dessen Ergebnisse Wissenschaftlern aus aller Welt umgehend im Internet zur Verfügung gestellt wurden, und dem Privatunternehmen Celera, das selbstverständlich auch kommerzielle Ziele verfolgt, ermöglichte die Präsentation einer Rohversion des menschlichen Genoms schon im Juni 2000. Wie bereits erläutert, beinhaltet jede Zelle die gesamte menschliche Erbinformation, die wie Buchstaben in der DNA aneinander gereiht sind. Unsere Erbinformation besteht etwa aus 3 Milliarden dieser Buchstaben, die abgekürzt als A, C, G und T für die Nukleotidbasen Adenin, Cytosin, Guanin und Thymin stehen. Davon bilden etwa 1.000 bis 3.000 solcher Buchstaben ein Gen, wobei die Gene über insgesamt 23 Chromosomenpaare verteilt sind. Anhand der großen Datenmenge und auch der Datenverteilung kann man sich vorstellen, dass es alles andere als leicht war, die Erbinformation zu entschlüsseln. Wie gelang es überhaupt, die gesamte Erbinformation zu entschlüsseln? Der Schlüssel dazu liegt, wie bereits dargestellt, in der Sequenzierung der DNA. Die wichtigste und grundlegendste Information, die man über ein Gen erhalten will, ist seine Sequenz, also die exakte Reihenfolge der vier Nukleotide A, C, G und T. Auf Grund der exakten Nukleotidsequenz kann man bestimmte Eigenschaften des zu untersuchenden Gens bestimmen. Die Techniken, die uns heute zur Sequenzierung der DNA zur Verfügung stehen, wurden bereits Ende der 1970er-Jahre entwickelt und wurden in den letzten 20 Jahren entscheidend vereinfacht. Prinzipiell werden zwei Verfahren zur Bestimmung einer DNA-Sequenz unterschieden: die enzymatische bzw. die nach ihren Entwicklern benannte Sanger-Coulson-Sequenzierung und die chemische Sequenzierung, die auch nach den Entdeckern als Maxam-Gilbert135

Sequenzierung benannt ist. Beide Methoden liefern eine Vielzahl an DNA-Fragmenten, die an genau definierten Stellen beginnen. Die meisten Sequenzierungen werden heutzutage wie auch im Human Genome Project nach dem Sanger-Coulson-Prinzip durchgeführt. Für die enzymatische Sequenzierung wird die zu sequenzierende DNA in einer Synthesereaktion vervielfältigt. Die Methode kann in zwei Teilschritte aufgeteilt werden: Markierungsreaktion: Erstellen einer markierten Ausgangsprobe Terminationsreaktion: In dieser wird die Synthese nach der Erzeugung des ersten hervorgegangenen DNA-Teilstücks beendet

Bevor wir uns der Sanger-Coulson-Methode widmen können, muss ich ein wenig ausholen, denn dieses Verfahren basiert auf einem sehr ähnlichen Prinzip wie die PCR (Polymerasekettenreaktion), dessen Erklärung zum Verständnis der Sequenzierungsmethode nach Sanger-Coulson helfen soll. Keine andere Methode hat seit der Erfindung der Polymerasekettenreaktion die Arbeitsweise so entscheidend in der Biotechnologie und der Molekularbiologie revolutioniert. Für die Entwicklung dieser Methode erhielt Kary Mullis 1993 den Nobelpreis für Chemie. Das Prinzip der PCR ist relativ einfach und beruht auf der natürlichen Replikation der DNA in der Zelle. Ein bestimmter Abschnitt eines DNAMoleküls wird durch die DNA-Polymerase in sehr kurzer Zeit millionenfach dupliziert – dieser Vorgang wird als Amplifikation bezeichnet. Nach der PCR steht das betreffende DNAMolekül in sehr großen Mengen für weitere Versuche zur Verfügung. Was sind nun die Grundprinzipien der Polymerasekettenreaktion? Es gibt für die Vermehrung eines bestimmten DNA-Abschnittes gewisse einzelne Reaktionskomponenten in einer Polymerasekettenreaktion. • Ausgangsmaterial: Theoretisch würde ein DNA-Molekül als Ausgangsmaterial für die PCR genügen, jedoch werden tatsächlich meist zwischen zehntausend und einer Million Moleküle Template-DNA in einer PCR verwendet. Die erforderliche DNA-Menge ist von der Genomgröße des zu untersuchenden Organismus abhängig. • DNA-Polymerase: Zur Synthetisierung werden eines DNA-Abschnittes die eine in einer

Polymerasekettenreaktion

Polymerasen 136

eingesetzt,

bestimmte

Hitzebeständigkeit

haben

müssen.

Dafür

stehen

unterschiedliche

thermostabile

Polymerasen zur Verfügung. Die Hitzebeständigkeit bestimmter Polymerasen hat die Automatisierung der PCR wesentlich vereinfacht. • Primer: Unter einem Primer versteht man eine Starthilfe, die von allen Polymerasen benötigt wird, um DNA-Abschnitte zu vervielfältigen. Ein Primer besteht aus einem kurzen Nukleinsäurestück, das auf Grund der Basenkomplementarität an den Startpunkt des zu replizierenden DNA-Abschnitts anheftet. Die DNA-Polymerase bindet sich im Folgenden an den Primer und kann mit der Replizierung beginnen. Primer, die in einer PCR Einsatz finden, werden künstlich hergestellt. Dabei müssen aber bereits vor der Synthetisierung von Primern kurze Nukleotidsequenzen für den zu replizierenden DNAAbschnitt bekannt sein. • Nukleotide: Die vier Nukleotide Adenin, Cytosin, Guanin und Thymin sind die Bausteine für die neu gebildeten Nukleinsäurestränge. • Puffer: Damit die Polymerase optimal arbeiten kann, wird bei der PCR-Reaktion ein Puffer eingesetzt. Einerseits dient er der Aufrechterhaltung des pH-Wertes, andererseits wird er für das korrekte Anlagern der Primer an ihre Zielsequenz benötigt. All diese Komponenten werden nun in einem bestimmten Verhältnis in einem kleinen Reaktionsbehälter gemischt und dann einer PCR-Maschine, einem so genannten „Thermocycler“, einer Polymerasekettenreaktion, unterworfen. Die PCR kann dabei in drei Schritte mit unterschiedlichen Reaktionstemperaturen eingeteilt werden: Schritt 1: Der erste Schritt ist die Denaturierung der Ausgangs-DNA. Wie bereits erläutert, sind die Einzelstränge eines Doppelstrangs einer DNA über Wasserstoffbrückenbindungen miteinander verbunden. Die Bindungen können durch Erhitzen der Probe auf 94° C für die Dauer von etwa 30–60 Sekunden aufgebrochen werden. Der Doppelstrang zerfällt dabei in seine beiden Einzelstränge. Schritt 2: Im zweiten Schritt erfolgt die Anlagerung des Primers an seine Zielsequenz. Um das gewährleisten zu können, wird die Temperatur auf etwa 45 bis 65° C gesenkt. Damit kann sich der Primer an der passenden Stelle auf dem DNA-Einzelstrang binden. 137

Schritt 3: Im letzten Schritt der Polymerasekettenreaktion erfolgt die Neusynthese des gewünschten DNA-Abschnitts durch die Polymerase. Hierfür wird die Temperatur auf 72° C erhöht – das entspricht dem Temperaturoptimum der Polymerase. Nun kann die Polymerase, ausgehend von beiden Primern auf den beiden Einzelsträngen, eine komplementäre Genabschrift des zu replizierenden Genabschnitts erzeugen. Die Schritte 1 bis 3 werden etwa in 25–35 Zyklen wiederholt, wobei sich die Zahl der vervielfältigten Fragmente exponentiell mit jedem Zyklus erhöht. Am Ende der PCR liegt der gewünschte DNA-Abschnitt in mehreren Millionen Kopien im Reaktionsbehälter vor. In Abbildung 12 ist der Prozess der PCR schematisch dargestellt:

Abbildung 12: Schematische Darstellung der PCR: 1. Denaturierung, 2. Primeranlagerung, 3. Polymerase

138

Wie bereits erwähnt, wird die Sanger-Coulson-Methode zur Sequenzierung des menschlichen Genoms herangezogen. Es handelt sich bei diesem Verfahren um eine enzymatische Sequenzierung, die der Polymerasekettenreaktion sehr ähnlich ist. Bei diesem Verfahren denaturiert man ebenso wie bei der PCR das zu sequenzierende DNA-Stück, lagert daraufhin einen Primer an und synthetisiert mittels der DNA-Polymerase die neuen komplementären Stränge. Hierbei erfolgt aber keine Neusynthese eines einzelnen durchgehenden Stranges, sondern es werden nur Teilstücke repliziert, die komplementär zu dem zu sequenzierenden DNA-Abschnitt sind. Das Ziel dieser Methode ist, alle Teilstücke zu erhalten, die theoretisch möglich sind. Die Methode von Sanger-Coulson wird auch als Kettenabbruchmethode bezeichnet, da man sich bei der Erzeugung kurzer DNA-Teilstücke eines Tricks bedient, der zum Abbruch der Synthese führt. Zur Synthese des komplementären Strangs werden der Polymerase außer den vier Nukleotiden A, C, G und T noch die so genannten Didesoxynukleotide zur Verfügung gestellt. Sie werden zwar auch wie die Nukleotide in den DNA-Abschnitt eingebaut, können jedoch an keine weiteren Nukleotide angefügt werden – somit kommt es zum Abbruch der Synthese. Wichtig ist hierbei aber, dass nur eine geringe Menge an Didesoxynukleotiden vorliegt, damit es überwiegend zum Einbau normaler Nukleotide kommt und dadurch die DNA-Stränge bis zu mehreren Hundert Basen lang sind. Was kann aber nun mit dem Kettenabbruch erreicht werden? Um die gewünschte Sequenz des betreffenden DNA-Abschnitts zu erhalten, wird die gesamte Reaktion auf vier Einzelreaktionen aufgeteilt. Dazu werden vier Reaktionsgefäße verwendet, deren Inhalt aus den normalen Nukleotiden gemeinsam mit je einem anderen Didesoxynukleotid besteht. Dem ersten Gefäß wird Adenin zugesetzt, dem zweiten Cytosin, dem dritten Guanin und dem vierten schließlich Thymin. Also wird in jeder der vier Einzelreaktionen der Abbruch jeweils an einer anderen Stelle stattfinden. Im ersten Reaktionsgefäß hat man daher eine Mischung neu synthetisierter DNA-Stücke, die auf das Nukleotid A enden, im zweiten Reaktionsgefäß enden die unterschiedlich langen Fragmente auf C usw. Die Reaktionsansätze werden nun nebeneinander auf einem hochauflösenden Gel aufgetragen, dabei werden die unterschiedlich langen Fragmente, die sich lediglich durch ein Nukleotid unterscheiden, durch radioaktive oder auch nicht-radioaktive Markierungen sichtbar gemacht. Aus dem Bandenmuster lässt sich die Sequenz des DNA-Abschnittes bestimmen. Man beginnt mit dem kleinsten Fragment, sucht dann nach dem zweitkleinsten

139

Fragment, das um ein Nukleotid größer ist, und fährt so fort. Die Größenabfolge entspricht der Reihenfolge unseres DNA-Stücks. Ich habe Ihnen ein elegantes Verfahren zur Sequenzierung des menschlichen Genoms erläutert, mit dem der genetische Code geknackt und das menschliche Genom entziffert werden konnte. Die Ergebnisse der Entschlüsselung der menschlichen Erbinformation sollen das Verständnis der Erbkrankheiten erleichtern und – wenn möglich – neue Wege der Diagnostik und Therapie aufzeigen. Im nächsten Abschnitt werden wir eine Anwendung der Biologie respektive auch der Genetik, besprechen, die eng mit dem Schutz vor Datenzugriffen nicht berechtigter Personen verbunden ist. Im Zweig der Biometrie macht man sich die Erkennung eines Lebewesens mit Hilfe geeigneter Körpermerkmale zu Nutze, um eine maximale Sicherheit beim Zugang zu vertraulichen Daten zu erreichen. Diese Art der Erkennung ist in Sicherheitsfragen sogar teilweise gegenwärtigen Kryptosystemen überlegen, da sie auf ganz individuelle Merkmale jedes einzelnen Menschen zurückgreifen kann.

6.3 Biometrie – neue Technologie der Authentifizierung

Mit dem Begriff „Biometrie“ wird ein Forschungszweig assoziiert, der sich mit der Vermessung quantitativer Merkmale von Lebewesen beschäftigt. Hierfür werden statistische Methoden herangezogen, die auf großen Datenmengen aufsetzen und deren Bearbeitung erst mit der Entwicklung der Informationstechnologie ausreichend beherrschbar wurde. Die klassische Biometrie beschäftigte sich mit der Anwendung statistischer Methoden in der Human- und Veterinärmedizin sowie in der Land- und Forstwirtschaft. In jüngerer Zeit ging die Entwicklung der Biometrie in Richtung der Merkmalsanalyse von Menschen, wobei aus einzelnen oder mehreren Merkmalen auf die Identität einer Person geschlossen werden kann. Die hinterlegten biometrischen Daten einer Person können beispielsweise durch computergestützte Anwendungen für die Authentifizierung beim Zugang zu streng vertraulichen Daten benutzt werden. Bereits zur Zeit der Assyrer wurde der Fingerabdruck als Form der Identifizierung eines Menschen eingesetzt, wie archäologische Funde belegen. Dazu wurden Tonvasen mit dem Fingerabdruck des Töpfers gekennzeichnet. Um Verträge zu unterzeichnen und um danach den Unterzeichner zu authentifizieren, wurden in der Tang-Dynastie (618–906 n. Chr.) Fingerabdrücke verwendet. Schon zur Zeit der Pharaonen wurde die Körpergröße einer Person zum Nachweis seiner Identität benutzt. Im Zuge der Strafverfolgung wird die 140

Vermessung menschlicher Körpermerkmale schon sehr lange angewendet, wie historische Überlieferungen belegen. Die ersten Vorschläge zur Nutzung des Fingerabdrucks in der Kriminalistik stammen aus dem Jahr 1858; im gleichen Jahr wurde der Fingerabdruck das erste Mal verwendet, um Verträge mit Handelsreisenden zu authentifizieren. Alphonse Bertillon entwickelte 1879 ein Messsystem, das das Ziel verfolgte, die Identifikation einer Person durch physiologische Merkmale zu sichern. Diese Methode wurde zu Beginn des 20. Jahrhunderts für polizeiliche Untersuchungen auf der ganzen Welt eingeführt. Im Jahr 1892 entdeckte Sir Francis Galton, ein Statistiker und Cousin von Charles Darwin, dass der Fingerabdruck ein einzigartiges Merkmal für jedes Individuum darstellt und sich im Laufe des Lebens einer Person nicht ändert. Fünf Jahre später wurden bereits die ersten Straftäter durch New Scotland Yard mittels Fingerabdruck identifiziert. Die Erkennung einer Person durch ein automatisiertes Fingerabdrucksystem erfolgte erst viel später, die Anfänge dafür liegen in den Sechzigerjahren. In dieser Zeit wurde die automatische Fingerabdruckerkennung auch das erste Mal im nicht-forensischen Bereich für Hochsicherheitssysteme eingesetzt. Etwa zehn Jahre später, in den Siebzigerjahren, folgten Entwicklungen von Handgeometrieerkennungssystemen. Ab Mitte der Achtzigerjahre wurden neue Verfahren entwickelt, die bei der Erkennung von Retina und Iris ansetzen. Seit etwa 1995 werden biometrische Systeme auf Basis von neuronalen Netzen entwickelt; in diesen Zeitraum fällt auch die Kommerzialisierung biometrischer Systeme. Wir werden uns nun einen kurzen Überblick über biometrische Merkmale verschaffen und die generellen Vor- und Nachteile biometrischer Anwendungen ebenso wie ihre Einsatzmöglichkeiten diskutieren. Welche biometrischen Merkmale lassen sich grundsätzlich unterscheiden? Biometrische Merkmale basieren stets auf drei Komponenten. Daher lassen sie sich grundsätzlich in drei Kategorien einteilen: konditioniert, vererbt und zufällig. • Konditionierte Merkmale: Hierbei handelt es sich um verhaltensgesteuerte Merkmale, die man sich im Laufe des Lebens angeeignet hat. Darunter fallen beispielsweise die Handschrift, Rhythmus und Dynamik von Tastaturanschlägen sowie teils das Aussehen und die Körperform. Hierzu ergibt sich die Problematik, dass solche Merkmale, nachdem sie konditioniert sind, auch von einer anderen Person erlernbar sind.

141

Vererbte Merkmale: Unter genetisch bedingte Merkmale fallen neben der DNA das Gesicht und die Körperdimension oder auch die Handgeometrie. Es ergeben sich ähnlich ausgeprägte Eigenschaften innerhalb der Vererbungslinie oder humangenetische Ähnlichkeiten in einer Region. Solche Ähnlichkeiten können die Qualität des Merkmals bei Anwendungen einschränken.

Zufällige Merkmale: Darunter versteht man Merkmale, die sich im Heranwachsen eines Menschen zufällig entwickeln. Solche Merkmale können z. B. das Venenmuster der Retina, die Rissbildung der Regenbogenhaut oder die Minutien der Fingerabdrücke sein. Diese Merkmale bilden ein hohes Maß an Sicherheit, da sie eine hohe Unterscheidbarkeit zwischen Individuen aufweisen. Eine Kopie dieser Merkmale ist nicht durch Erlernen oder die gezielte Suche in einem Personenkreis möglich, sondern bedarf der Erstellung eines Replikates.

Allgemein gesehen führen zufällige oder vererbte Merkmale fast immer zu statischen Verfahren. Folgende Merkmale, wobei es sich hier nicht unbedingt um eine vollständige Liste handelt, werden im Zuge biometrischer Verfahren verwendet: Venenmuster Fingerabdruck Gesichtsform Retina Handgeometrie Sprachbild Handschriftdynamik Unterschrift DNA

Biometrische Verfahren lassen sich grundsätzlich in zwei unterschiedliche Zielsetzungen einteilen. Einerseits macht man sich die Verifikation zu Nutze, um eine Person durch ein repräsentatives Merkmal gegen ein Referenzmerkmal zu vergleichen, andererseits bestimmt man eine Person aus einem bekannten Personenkreis durch Vergleich ihrer Referenzmerkmale. Letzteres entspricht einem 1:n-Vergleich.

142

Wie ist nun der Ablauf einer biometrischen Erkennung und welche Verfahren kommen häufig zur Anwendung? Grundsätzlich kann man sagen, dass die biometrische Erkennung für alle Systeme mehr oder weniger gleich funktioniert. Alle biometrischen Systeme setzen sich unabhängig vom individuellen technologischen Aufbau aus folgenden Komponenten zusammen: • • • • Personalisierung oder Registrierung des Systembenutzers Erfassung der relevanten biometrischen Eigenschaften einer Person Erstellung von Datensätzen, so genannten „Templates“ Vergleich der aktuellen mit den zuvor abgelegten Daten

Will man nun eine Person in einem biometrischen System erfassen, muss im ersten Schritt vom Originalmerkmal ein Abbild erzeugt und aufgezeichnet werden. Dieses Abbild, das in Rohdatenform vorliegt, wird mittels spezifischer Algorithmen in ein so genanntes „Template“ umgewandelt und als solches im System gespeichert. Dabei handelt es sich um extrahierte Daten aus der Originalaufnahme. Beim so genannten „Matching“ wird schließlich ein Vergleich zwischen dem gespeicherten Template und dem auszuwertenden Merkmal gemacht. Bei einer Übereinstimmung gibt es eine positive Rückmeldung des Geräts, was bedeutet, dass der Benutzer im System erkannt wurde. Naturgemäß unterliegen Erfassung, Auswertung und Vergleich biometrischer Merkmale Messfehlern, da sich die erfassten Merkmale im Laufe der Zeit verändern können. Änderungen können altersbedingt oder auch durch äußere Einflüsse wie Krankheit oder Verletzung auftreten. Hinzu kommen noch äußerliche Veränderungen wie beispielsweise das Tragen einer Brille oder das Tragen von Kontaktlinsen. Zugleich wird das biometrische Merkmal nie in gleicher Art und Weise im System erfasst, sondern kann sich z. B. durch unterschiedliche Positionen des Fingers auf einem Fingerabdrucksensor oder durch Änderung des Blickwinkels des Gesichts bei jeder Nutzung geringfügig ändern. Das hat zur Folge, dass zwei digitale Abbilder eines biometrischen Merkmals niemals identisch sein können. Daraus resultiert wieder, dass ein exakter Abgleich der Daten nicht erreicht werden kann. Die tatsächliche Entscheidung über Match oder Non-Match beruht vielmehr auf den eingestellten Parametern mit einer bestimmten Toleranzgrenze im System. Zusammenfassend gesagt werden biometrische Daten nicht auf Gleichheit, sondern nur auf hinreichende Ähnlichkeit geprüft. Als Nächstes möchte ich Ihnen die häufigsten Verfahren zur Erkennung biometrischer Merkmale erläutern. Unter 143

anderem werden wir uns auch mit dem Prinzip des genetischen Fingerabdrucks, wie er in der Kriminalistik zur Aufklärung von Gewaltverbrechen verwendet wird, beschäftigen.

6.3.1 Häufige biometrische Erkennungsverfahren

In diesem Abschnitt werden wir auf folgende vier biometrische Verfahren genauer eingehen: Gesichtserkennung, Iris-Scan, Fingerabdruck und genetischer Fingerabdruck.

6.3.2 Gesichtserkennung

Die Gesichtserkennung basiert auf der Erfassung markanter Punkte des menschlichen Gesichtes, die Aufzeichnung erfolgt hierbei über Videoaufnahmen. Der Einsatz solcher Erkennungssysteme dient auf Flughäfen zur Identifikation bei der Lokalisierung von Passagieren oder zur Identifikation im Zuge einer Fahndung über Überwachungskameras, aber auch zur Verifikation, um beispielsweise eine Person bei einer Grenzkontrolle mit dem Foto eines vorgelegten Reisedokumentes zu vergleichen. Der große Vorteil in der Gesichtserkennung liegt in der kontaktlosen Erfassung der biometrischen Merkmale, die sich über größere Distanzen erstrecken kann, hingegen ist die geringe Vielfalt des Merkmals, das auch vererbte Charakteristika aufweist, problematisch.

6.3.3 Iris-Scan

Erfolgt eine Analyse eines Bildes der Regenbogenhaut, so spricht man von Iris-Scan. Hauptsächlich werden dazu monochrome Videoaufnahmen herangezogen, selten wird hingegen die Farbinformation ausgewertet. Im Gegenteil zur Gesichtserkennung liegt der klare Vorteil hierbei in der hohen Vielfalt des Merkmals sowie in sehr geringen Fehlerakzeptanzraten. Somit ist der Iris-Scan für beide Zieltypen einsetzbar, sowohl für den der Verifikation als auch für den der Identifikation. Darüber hinaus ist die Erkennung handelsüblicher kosmetischer Kontaktlinsen möglich, jedoch gibt es derzeit keine 144

systematische Untersuchung zur Umgehung von Iris-Scan-Systemen. Der Nachteil wird in der komplizierten Erfassung der Daten gesehen, da sich der Abstand zwischen Auge und Kamera in einer relativ kleinen Bandbreite bewegen muss, um ein gutes Bild zu erhalten. Ebenso kann es auf Grund erweiterter Pupillen zu Fehlrückweisungen kommen.

6.3.4 Fingerabdruck

Zu den bekanntesten biometrischen Verfahren zählt die Erfassung des Fingerabdrucks, der den autorisierten Zugang zu Netzen und Geräten sichert. Da die Papillarlinien eines Fingerabdrucks eines Menschen unverwechselbar sind, können damit Personen eindeutig identifiziert werden. Abbildung 13 zeigt ein typisches Muster eines Fingerabdrucks mit der Kennzeichnung der Minutien. Minutien sind besondere Merkmale der Papillarlinien und stellen eine Endung oder Verzweigung der Papillarlinien eines Fingerabdrucks dar. Diese werden daher zur Identifizierung einer Person über einen Fingerabdrucksensor herangezogen.

Abbildung 13: Kennzeichnung der Minutien eines Fingerabdrucks Häufig findet die Fingerabdrucktechnik Einsatz in der Kriminalistik, bei der die am Tatort gefundenen Fingerabdrücke mit den katalogisierten Fingerabdrücken einer Datenbank verglichen werden, um verdächtige Personen zu identifizieren. Erst durch das Aufkommen leistungsfähiger Computer ist der Abgleich eines Fingerabdrucks mit einer Datenbank möglich geworden. Der Fingerabdruck wird häufig bei biometrischen Systemen zur Unterscheidung zwischen berechtigten und nicht berechtigten Benutzern eingesetzt, jedoch ist in der Praxis die Fehlrückweisung durch Verschmutzung der Sensoren oder auch durch 145

Verletzungen oder Verschmutzungen an Händen und Fingern gegeben. Daher ist bei breitem Einsatz dieses biometrischen Erkennungsverfahrens mit Fehlrückweisungen zu rechnen.

6.3.5 Genetischer Fingerabdruck

Der genetische Fingerabdruck zählt zu den Anwendungen in der Genetik, mit denen ein Individuum eindeutig identifiziert werden kann. Bei dieser Technik greift man bei der Analyse auf die nicht-codierenden Sequenzen in der DNA zurück. Da der analysierte Bereich beim genetischen Fingerabdruck der nicht-codierende Abschnitt aus der DNA ist, können keine Rückschlüsse auf andere Merkmale gemacht werden. Eine Ausnahme bildet hier jedoch das Geschlecht. Beim genetischen Fingerabdruck wird an definierten Stellen auf der DNA gezählt, wie oft sich dort eine bestimmte Buchstabenreihenfolge der vier Nukleotide A, C, G und T wiederholt. Bei jedem Individuum ist die Kombination der Anzahl der Wiederholungen unterschiedlich. Daraus kann die gewünschte Person identifiziert werden. Wo lässt sich der genetische Fingerabdruck anwenden? Die häufigsten Anwendungen des genetischen Fingerabdrucks liegen in der Kriminalistik und der Abstammungsanalyse. Mit der DNA-Analyse haben die Kriminalisten ein äußerst wirksames Mittel zur eindeutigen Identifizierung einer Person in der Hand. Die Wahrscheinlichkeit einer zufälligen absoluten Übereinstimmung zweier Personen liegt bei 1 : 100.000.000.000. Das Verfahren scheitert jedoch bei eineiigen Zwillingen, da in diesem Fall ein identisches Erbgut vorliegt. Die DNA ist ein sehr stabiles Molekül, das in fast allen Körperzellen vorkommt. Somit lassen sich genetische Fingerabdrücke aus Zellproben reproduzieren, die am Tatort gefunden werden. Damit ist das genetische Profil des Täters bekannt und kann mit dem von verdächtigen Personen aus einer Gendatenbank verglichen werden. Zur Erstellung eines genetischen Fingerabdrucks können zellhaltige Proben wie beispielsweise Haarwurzeln, Blut- und Sekretspuren oder Hautschuppen verwendet werden. Typische Spuren am Tatort sind z. B. benutzte Taschentücher, Kleidungsstücke mit Haaren, Sekretflecken, gerauchte Zigarettenfilter oder Hautabrieb. In der Zwischenzeit verwenden beinahe alle kriminalbiologischen Labors das PCR-Verfahren, das wir im vorigen Abschnitt ausführlich im Kontext der Sequenzierungsverfahren besprochen haben. Wie bereits erwähnt, werden zur Identifizierung einer Person die nicht146

codierenden Sequenzen aus der DNA analysiert. Auf diese funktionslosen Bereiche haben es die Biologen beim PCR-Verfahren abgesehen, da ihre Länge von Mensch zu Mensch verschieden ist. Um für den genetischen Fingerabdruck die Länge dieser nicht-codierenden Sequenzen zu bestimmen, muss eine Vielzahl identischer Kopien des gesuchten Abschnitts hergestellt werden. Für diesen Vorgang bedient man sich des Verfahrens der Polymerasekettenreaktion. Eine faszinierende junge Forschungsrichtung liegt in der Vision, einen Computer zu entwerfen, der auf Basis von DNA-Molekülen rechnen kann. Wie dieser realisiert wird und welche Voraussetzungen dafür gegeben sein müssen – mit diesen Themen werden wir uns im nächsten Kapitel eingehender beschäftigen.

6.4 DNA-Computer

Bei der Erläuterung des RSA-Verschlüsselungsverfahrens sind wir bereits auf Leonard M. Adleman gestoßen, der zu den Entdeckern des RSA-Verfahrens zählt und der entscheidend zu neuen Verschlüsselungsprinzipien beigetragen hat. Derselbe überraschte 1994 die Fachwelt mit seinen in der Fachzeitschrift „Science“ publizierten Experimenten, die eine ganze neue Art der Berechnung demonstrieren sollten. Adleman konnte zeigen, dass chemische Einheiten von DNA-Molekülen Informationen speichern und verarbeiten können, indem er ein einfaches Beispiel des bekannten hamiltonschen Wegproblems der Informatik im Labor löste. Diese vom irischen Hofastronom William Rowan Hamilton Mitte des 19. Jahrhunderts aufgestellte Aufgabe lässt sich wie folgt formulieren: ausgehend von einem Startknoten einen Weg zu einem Ziel finden und dabei auf dem Weg alle anderen vorgegebenen Stationen genau einmal berühren. Diese Aufgabe ist auch unter dem Namen des Handlungsreisendenproblems bekannt. Ein Handlungsreisender soll eine bestimmte Anzahl von Städten besuchen und den kürzesten Weg zwischen ihnen finden. Die Aufgabe wird allerdings dadurch erschwert, dass die Städte nur einmal besucht werden dürfen und nicht immer eine Direktverbindung zwischen ihnen gegeben ist. Das Faszinierende daran ist, dass Adleman dieses Problem mit bestimmten Annahmen mit Hilfe von DNA-Molekülen berechnen konnte. Dieses Experiment war der Auftakt für das interdisziplinäre Forschungsgebiet des DNA-Computing.

147

Was versteht man unter DNA-Computing und wie lässt sich ein DNA-Computer realisieren? Es gibt in der Natur bestimmte erprobte Mechanismen, die in der Informationsverarbeitung entscheidende Verbesserungen bringen können. Mittlerweile gibt es in der Molekularbiologie etablierte Techniken, mit Hilfe derer man sich Verfahren bedienen kann, die es ermöglichen, Informationen in Erbmolekülen der Desoxyribonukleinsäure (DNA) zu speichern und zu verarbeiten. Dadurch sind heutzutage Computer auf molekularer Ebene denkbar, die den momentanen Stand der Informationstechnik an Speicherdichte, Energieausnutzung und Anzahl möglicher Rechenschritte um viele Zehnerpotenzen übertreffen könnten. Die Idee ist nun, das über Jahrmillionen optimierte Genmaterial für Informationsspeicherung und -verarbeitung zu nutzen, um damit die Möglichkeit zu schaffen, neuartige programmierbare Parallelrechner zu entwickeln. Der kühne Gedanke, dass DNA-Moleküle rechnen können, kam Leonhard M. Adleman, als er über die Turingmaschine nachdachte. Der englische Mathematiker Alan M. Turing (1912– 1954) hatte sich eine Maschine ausgedacht, die zwar für Berechnungen im größeren Umfang ungeeignet war, jedoch durch seine geniale Einfachheit und Durchschaubarkeit bestach. Eine Version seiner Maschine bestand aus zwei Magnetbändern und einer Steuereinheit. Die Steuereinheit konnte sich gleichzeitig entlang beider Bänder bewegen, wobei das eine Band als Eingabeband diente, von dem nur gelesen werden konnte, und das zweite Band als Ausgabeband fungierte, das sowohl die Funktion des Lesens als auch des Schreibens beherrschte. Es ist nun relativ leicht, diese Maschine so zu programmieren, dass sie eine Folge der Zeichen Adenin (A), Cytosin (C), Guanin (G) und Thymin (T) vom Eingabeband liest und deren Komplemente auf das Ausgabeband überträgt. Als nun Leonhard M. Adleman über diese Übereinstimmung nachdachte, kam ihm der geniale Gedanke, dass die DNAPolymerase Eigenschaften einer Turing-Maschine hatte und somit für Berechnungen herangezogen werden könnte. Aus dieser Idee heraus entwarf er ein DNA-Experiment, mit dem er das hamiltonsche Wegproblem mit folgenden Annahmen löste: Adleman wählte einen Grafen mit sieben Städten und 14 Einbahnstraßen aus. Untersuchungen zufolge brauchte ein Mensch durchschnittlich 54 Sekunden, um in dieser Anordnung den einzigen Weg zu finden, der alle Städte genau nur einmal berührt. Jetzt lag natürlich auch die Frage nahe, wie lang die Berechnung anhand von DNA-Molekülen dauern würde. Adleman ordnete für diese Zwecke allen Städtenamen eine bestimmte DNA-Sequenz zu, die jeweils aus acht Basen bestand. Die ersten vier Basen bildeten gewissermaßen den Vornamen, die letzten vier Basen den 148

Nachnamen der Stadt. Jeder Direktflug zwischen den Städten bildete den Nachnamen der Ausgangsstadt und den Vornamen der Zielstadt. Nehmen wir an, die Sequenz ACGG TTAT steht für Ohio und die Sequenz TGGT ACAT steht für Paris. In diesem Beispiel und mit der Annahme von oben hätten wir für den Direktflug Ohio–Paris quasi die Flugnummer: TTAT TGGT. Wie bereits erläutert, bindet sich eine Base immer nur an eine bestimmte andere komplementäre Base: Adenin (A) bindet sich an Thymin (T) und Cytosin (C) bindet sich an Guanin (G). Aus dieser Tatsache heraus gibt es zu jedem Städtenamen auch eine komplementäre Version. So wäre beispielsweise die komplementäre Sequenz zu Ohio: TGCC AATA. Adleman ließ nun alle komplementären Städtenamen und die Flugrouten-Sequenzen künstlich synthetisieren und gab eine winzige Menge davon gemeinsam mit einer Salzlösung und mit bestimmten Enzymen, die als „Ligasen“ bezeichnet werden, in ein Reagenzgefäß. Unter Ligasen versteht man Enzyme, die DNA- oder RNA-Stücke zusammenfügen können. Nachdem die chemische Reaktion eingesetzt hatte, verging genau eine Sekunde, bis die Lösung des Problems vorlag. Was war passiert? Im Reagenzglas hatten sich die komplementären Städtenamen und die Flugrouten zu einem Doppelstrang verbunden, der Reihenfolge nach wurden dabei die Nachnamen der einen Stadt über die FlugroutenSequenzen mit den Vornamen der Folgestadt verbunden. Die Ligasen verbanden die aufeinander folgenden Sequenzen jedes Stranges untereinander. Am Ende des Prozesses lag ein Gemisch von Billionen von DNA-Strängen mit unterschiedlichen Reihenfolgen der Städte vor. Daraus entstand aber das Problem, dass zwar der DNA-Computer alle möglichen Kombinationen innerhalb einer extrem kurzen Zeitspanne mit Hilfe der Parallelrechnung ermittelt hatte, jedoch lag die einzig richtige Lösung inmitten einer gigantischen Auswahl falscher Kombinationen. Wie kann die richtige Sequenz aus der Vielzahl der Möglichkeiten ermittelt werden? Die Lösung des Problems kann über mehrere Teilschritte erreicht werden: Schritt 1: Im ersten Schritt werden alle Sequenzen ausgesondert, die nicht die richtige Anfangs- und Zielsequenz haben. Dazu wird das Verfahren der Polymerasekettenreaktion, das wir bereits erläutert haben, eingesetzt. Mit dieser Technik lassen sich gezielt und in großen Mengen DNA-Moleküle herstellen, die mit einer bestimmten vorgegebenen Primersequenz behaftet sind. Auf diese Weise können zwar die falschen Sequenzen nicht eliminiert werden, 149

jedoch die richtigen so stark vermehrt werden, dass die falschen in der Masse untergehen. Der Primer setzt sich aus dem Nachnamen der Anfangsstadt und dem Komplement des Vornamens der Zielstadt zusammen. Die DNA-Polymerase kann somit in großen Mengen die Sequenz zur richtigen Anfangsstadt und die Wirkung für die richtige Zielstadt erzeugen, wobei das PCR-Verfahren zu einem schnellen exponentiellen Wachstum der zu vervielfältigenden Sequenzen verhilft. Schritt 2: Die Lösung erhält man aus jenen Strängen, die alle sieben Stadtsequenzen beinhalten. Da es sich dabei um die längsten Moleküle handelt, werden die kürzeren Sequenzen ausgesiebt und die übrig gebliebenen Sequenzen mittels Gelektrophorese auf einem Gel sichtbar gemacht. Übrig bleibt nun ein Gemisch aus DNA-Strängen mit der richtigen Länge, Start- und Zielsequenz, die aber unterschiedliche Zwischenstationen aufweisen. Aus diesen muss nun die richtige Lösung bestimmt werden, die jede Stadtsequenz jeweils nur einmal enthält. Das ist der langwierigste Teil des Experiments. Schritt 3: Im letzten Schritt erfolgt die Auslese nach Affinität. An mikroskopisch kleine Eisenkugeln werden Sondenmoleküle angebracht, die dem komplementären Namen einer Stadt entsprechen. Im Anschluss werden diese Kugeln mit den verbliebenen Molekülen, die als Einzelstränge vorliegen, im Reagenzglas verrührt. Diejenigen, die den richtigen Stadtnamen enthalten, verbinden sich mit dem komplementären Strang der Sonden. Die Eisenkugeln werden daraufhin mit einem Magneten an der Wand des Reagenzglases festgehalten und der flüssige Teil der Lösung wird entfernt. Damit werden alle Moleküle ausgefiltert, die diesen Namen nicht enthalten. Als Nächstes wird das Reagenzgefäß mit einer neuen Flüssigkeit befüllt und der Magnet wieder entfernt, um die Kugeln freizugeben. Daraufhin wird das Reagenzglas erhitzt, durch die Temperaturerhöhung trennen sich die Moleküle wieder von den Sonden und vermischen sich mit der Flüssigkeit. Die Eisenkugeln werden jetzt abermals, diesmal im Originalzustand, an die Wand des Reagenzglases gebunden. Die Lösung, die nur noch die gewünschten Stränge enthält, wird in ein neues Reagenzglas umgegossen. Dieser Vorgang wird für die restlichen Zwischenstationen wiederholt. Am Ende müssen im Reagenzglas genau jene DNA-Moleküle vorhanden sein, die einen hamiltonschen Weg darstellen.

150

Bis die Lösung im Labor vorlag, benötigte Adleman insgesamt eine Woche Laborarbeit. Wir sehen anhand dieses Verfahrens, dass ein Optimierungsproblem wie das des Handelsreisenden auf Basis von DNA-Molekülen gelöst werden kann. Eine äußerst interessante Tatsache. Wir wollen nun bestimmte Zukunftsperspektiven diskutieren, die einige attraktive Aspekte im Hinblick auf molekulare Computer bieten. Molekulare DNA-Computer können Informationen mit extrem hoher Dichte speichern, so enthält ein Gramm DNA, das entspricht im trockenen Zustand etwa einem Kubikzentimeter, genau so viel Information wie eine Billion CD-ROMs. Sie sind besonders für die parallele Informationsverarbeitung geeignet. Selbst die äußerst geringe Menge eines Tröpfchens Lösung, das Adleman in seinem Experiment verwendete, führte dazu, dass 1014 DNA-Flugnummern gleichzeitig verkettet wurden und das innerhalb von einer Sekunde. Eine unvorstellbar hohe Zahl, wenn man bedenkt, wie gering die Ausgangsmenge war. Es ist fragwürdig, ob der schnellste Supercomputer heutzutage mit dieser Geschwindigkeit mithalten könnte. Molekulare Computer wären zumindest theoretisch ungemein energieeffizient. Im Prinzip würde man für 2 * 1019 DNA-Operationen ungefähr ein Joule benötigen, davon sind die derzeit existierenden Supercomputer viele Größenordnungen entfernt. Ihre Kapazität liegt etwa bei 109 Operationen pro Joule. Auf Basis der massiven Parallelität von DNA-Computern und mit der Aussicht auf eine praktische Umsetzung in den nächsten Jahrzehnten stellt sich in diesem Zusammenhang natürlich auch die Frage, ob die heute gängigen Kryptosysteme vor den Attacken molekularer Rechner auf Grund der ungeheuer schnellen Informationsverarbeitung sicher sein werden. Sollte es gelingen, eine praxistaugliche Technologie auf einer molekularen Ebene zu schaffen, können wir mit Spannung in die Zukunft sehen, in der heutzutage schwierig zu lösende Probleme, wie z. B. das der Primfaktorzerlegung von sehr großen natürlichen Zahlen, der Vergangenheit angehören. Es bleibt auf jeden Fall spannend! Keineswegs weniger faszinierend ist der Vorgang der Informationsverarbeitung, wie er in unserem empfindlichsten Organ, dem Gehirn, stattfindet. Auch hierbei werden wir zunächst mit den Grundlagen der Gehirnforschung beginnen, um anschließend die Anwendungen in diesem Bereich näher zu betrachten.

151

7. Gehirn – Wunderwerk der Natur
Das Gehirn ist eines der kompliziertesten Strukturen, die wir kennen, und war stets im Mittelpunkt des Interesses menschlichen Denkens. Es wurde bereits in der Frühzeit mit mystischen und religiösen Vorstellungen in Verbindung gebracht. So glaubten die Menschen der Vorzeit, der Kopf sei eine Behausung böser Geister, die Besitz von besessenen Menschen ergreifen können. Um die bösen Geister zu entfernen, wurden Löcher in den Kopf geschabt. Wir können uns vorstellen, dass dieser Vorgang ein sehr schmerzlicher Prozess gewesen sein muss. So suchten schon griechische Anatomen wie Anaxagoras nach dem Sitz des Geistes im menschlichen Körper. Anaxagoras vermutete, dass die Flüssigkeit in den Hohlräumen des menschlichen Gehirns den Hauch des Geistes beinhaltete. Erste zielgerichtete Forschungen, die der normalen Ansicht, dass die geistige Aktivität nichts mit dem Gehirn zu tun habe, widersprach, führte Alkmaion von Kroton (570–500 v. Chr.) durch. Bei Tiersektionen fand er Nervenbahnen, die die Sinnesorgane mit dem Gehirn verbanden. Daraufhin verkündete er, dass das Gehirn auf jeden Fall der Sitz des Denkens sein müsste. Jedoch hielt er das Gehirn für eine Drüse, die Gedanken genauso absondere wie die Tränendrüse Tränen. Herophilos (335 v. Chr.) und Erasistratos (300 v. Chr.) waren offiziell die Ersten, die entdeckten, dass bei einer Durchtrennung bestimmter Nervenbahnen die Menschen nicht mehr sehen konnten. Sie schlossen daraus, dass es ein zusammenhängendes System von Nervenbahnen geben müsse, wobei das Gehirn das Zentrum bilde. Ihre Beschreibung des Gehirns war schon wesentlich detaillierter und sie trafen bereits eine Unterscheidung zwischen Bewegungs- und Empfindungsnerven. Einem römischen Arzt namens Claudius Galenus gelang allmählich der Durchbruch zur allgemein akzeptierten Anschauung, dass das Gehirn das Zentrum menschlichen Denkens und des Gedächtnisses sei. In seiner systematischen Untersuchung bei verschiedenen Tieren beobachtete er Lähmungserscheinungen, wenn er Teile des Gehirns entfernte oder das Rückenmark durchtrennte. Er irrte jedoch im Aufbau des Nervensystems, das er für ein Röhrensystem hielt, in das das Gehirn den Seelengeist aus den Hirnhöhlen pumpe. Die Vorstellung, dass das Gehirn der Sitz der Seele sei, blieb für Jahrhunderte vorherrschend. Leonardo da Vinci änderte das Bild vom Gehirn, indem er dieses mit Wachs ausgoss und dabei feststellte, dass die Hirnkammern labyrinthartig voneinander getrennt sind. Ein sehr mechanisches Bild vom Gehirn hatte René Descartes, das er mit den Funktionen einer Maschine verglich. So betrachtete er Funktionen wie das Schlafen, Gedächtnis oder Gefühle als eine Anordnung von 152

Organen, deren Zusammenwirken er wie das einer Maschine sah. Ein wahrlich sehr vereinfachtes Bild von dem, das sich durch die moderne Gehirnforschung heutzutage darstellt. Wir sehen also, dass es viele Irrtümer in der Geschichte der Erforschung unseres wichtigsten Organs gegeben hat und sich erst in jüngster Zeit ein halbwegs vollständiges Gesamtbild der Vorgänge und Strukturierung im Gehirn ergab. Wie ist nun eigentlich der Aufbau des Gehirns und wie erfolgen die Speicherung und Verarbeitung der von außen einströmenden Informationen? Wie können wir uns überhaupt Erlebnisse und Fakten merken, kurz: wie funktioniert unser Gedächtnis?

7.1 Aufbau des Gehirns

Die äußere Erscheinung des Gehirns lässt sich wie folgt beschreiben: Es handelt sich hierbei um ein cremefarbenes, runzeliges Objekt, das im Durchschnitt etwa 1,3 Kilogramm wiegt. Es ist durch gegeneinander abgegrenzte Bereiche bestimmter Form und Struktur aufgeteilt, die nach einem großen Bauplan miteinander verbunden sind. Im Aufbau des Gehirns erkennt man zwei deutlich getrennte Hälften, die so genannten „Hemisphären“, die sich um einen dicken Stiel, den Hirnstamm, anordnen. Der Hirnstamm geht von den beiden Hirnhälften in das Rückenmark über, in dem er sich allmählich verjüngt. Auf der Rückseite befindet sich eine blumenkohlartige Ausbuchtung, die als „Kleinhirn“ bezeichnet wird und unter dem Großhirn angesiedelt ist. In Abbildung 14 sehen wir einen Längsschnitt durch das menschliche Gehirn:

Abbildung 14: Längsschnitt durch das menschliche Gehirn

153

Das Gehirn kann als wichtigstes Organ des Zentralnervensystems angesehen werden, es ist sozusagen die Kontrollinstanz, die aus etwas über einhundert Milliarden Nervenzellen besteht. Unser wichtigstes Organ ist für alle Aktivitäten, ob es sich nun um bewusste oder unbewusste handelt, verantwortlich, daher kann es als Sitz unserer Persönlichkeit angesehen werden. Um das Gehirn besser zu verstehen und untersuchen zu können, unterteilt man es in verschiedene Bereiche, die für ganz bestimmte Funktionen zuständig sind. Wie aus Abbildung 14 ersichtlich, kann das Gehirn grob in folgende Bereiche eingeteilt werden: Großhirnrinde, Großhirn, Thalamus, Hypothalamus, Hirnstamm und Kleinhirn, deren Funktionen ich kurz beschreiben möchte. • Großhirnrinde: Bei dieser handelt es sich um eine graue Substanz, die die äußere Nervenzellschicht des Gehirns bildet. Die Oberfläche der Großhirnhemisphären ist durch viele Furchen und Krümmungen stark vergrößert. Folgende Teile der Großhirnrinde werden durch vier Bereiche, die als „Lappen“ bezeichnet werden, unterschieden: der Schläfenlappen ist für Geruch, Gehör und Sprache zuständig, der Scheitellappen für Tastsinn und Geschmack, der Hinterhauptslappen für das Sehen und der Stirnlappen, in dem man den Sitz des Bewusstseins vermutet, für Bewegung, Sprache und Denkvorgänge. Diese Grobeinteilung muss allerdings unter Vorbehalt gesehen werden, da die Gehirnforschung beim Thema Bewusstsein immer noch vor vielen Rätseln steht und vermutlich immer stehen wird. • Großhirn: Für unser Denken und Wahrnehmungsvermögen ist das Großhirn zuständig. Man vermutet hier die Intelligenz und das Urteilsvermögen des Menschen. Die Längsfurche unterteilt das Großhirn in zwei spiegelgleiche Hemisphären, die zum gleichen Zeitpunkt unterschiedliche Funktionen ausüben können. Im Zentrum der Hemisphäre sitzen die Basalganglien, die für das Bewegungsmuster der Skelettmuskulatur wie das Sitzen oder Gehen zuständig sind. Je nachdem, ob in der linken oder rechten Gehirnhälfte eine stärkere Aktivität vorhanden ist, werden unterschiedliche Fähigkeiten des Menschen angesprochen. So ist die linke Gehirnhälfte mehr für das mathematisch logische und analytische Denken zuständig, hingegen ist die rechte Gehirnhälfte für die visuelle Wahrnehmung verantwortlich. In der rechten Gehirnhälfte liegen auch die kreativen Fähigkeiten eines Menschen sowie die Wahrnehmung von emotionalen Zuständen. In Abbildung 15 sehen Sie die Einteilung der wichtigsten Charakteristika eines Menschen in die linke und rechte Gehirnhälfte.

154

Abbildung 15: Einteilung der menschlichen Charakteristika in die linke und rechte Gehirnhälfte • Thalamus: Allgemein gesehen ist der Thalamus die zentrale Schaltstelle von sensorischen und motorischen Funktionen sowie für das vegetative Nervensystem. • Hypothalamus: Unter dem Hypothalamus versteht man einen kleinen Bereich im Zwischenhirn, der dieses mit dem Hormonsystem verbindet. Der Hypothalamus hat Kontakt zur Hirnanhangdrüse und reguliert deren Hormonausschüttung. Ein beträchtlicher Teil des Informationsaustausches findet über dieses System durch Hormone statt, die in den Nervenzellen des Hypothalamus gebildet werden. Er regelt so die Körpertemperatur, den Herzschlag und die Nierenfunktion, aber auch Hunger und Durst sowie unseren Schlafrhythmus und den Geschlechtstrieb. • Hirnstamm: Der Hirnstamm verbindet das Gehirn mit dem Rückenmark und steuert allgemeine Lebensfunktionen wie die Herzfrequenz, den Blutdruck und die Atmung. Das Schlaf-Wach-Zentrum ist ebenfalls hier angesiedelt. • Kleinhirn: Das Kleinhirn ist in erster Mit 155 Linie Hilfe für die Koordination Nerven unserer können

Bewegungsabläufe

verantwortlich.

sensibler

Körperbewegungen, so auch die Feinmotorik, kontrolliert werden. Informationen, die über unsere Sinne empfangen werden, gelangen in das Kleinhirn und werden dort verarbeitet. Wir können schon an der Grobeinteilung in wenige, aber wichtige Regionen im Gehirn erkennen, dass es wir hier mit einem komplexen Zusammenspiel unterschiedlicher Gehirnzentren zu tun haben. Auf die Feinaufteilung möchte ich hier im Detail nicht eingehen, da wir in erster Priorität an der prinzipiellen Funktionsweise des Gehirns interessiert sind. Ich möchte daher an dieser Stelle mit der Erklärung der Informationsverarbeitung im Gehirn fortfahren.

7.2 Informationsverarbeitung im Gehirn

Eine Entdeckung, die einen großen Fortschritt für die Neurowissenschaft bedeutete, gelang dem jungen italienischen Arzt Camillo Golgi (1844–1926). Um das Wesen des physischen Gehirns zu verstehen, war es notwendig, die Materie, aus der es besteht, zu erforschen. Einer Anekdote zu Folge ließ Golgi versehentlich ein Gehirnstücken in eine Schale mit einer Silbernitratlösung fallen, in der es für mehrere Wochen lang liegen blieb. In dieser Zeit hatte ein Umwandlungsprozess stattgefunden, der unter dem Mikroskop betrachtet ein komplexes Muster dunkler Tropfen inmitten netzartig verwobener Strukturen hervorbrachte. Golgi hatte damit den Grundbaustein des Gehirngewebes, einen charakteristischen Zelltyp, den man als „Nervenzelle“ oder „Neuron“ bezeichnet, entdeckt. Was kann man sich nun unter Nervenzellen oder Neuronen vorstellen? Immer findet man ein kompaktes, mehr oder minder tropfenförmig vergleichbares Zentrum, das den Namen „Zellkörper“ oder „Soma“ (das griechische Wort für Körper) trägt. Typisch für eine Nervenzelle sind die mit einem mikroskopisch kleinen Baum vergleichbaren, aus der Nervenzelle wachsenden Dendriten, die sich aus dem griechischen Wort für Baum ableiten. Die Dendriten können in ihrem Aussehen beträchtlich variieren; so können sie einerseits sternförmig dem Zellkörper entspringen und andererseits auch von einem oder beiden Enden des Zellkörpers ausgehen. Man kann etwa 50 unterschiedliche Grundformen bei Gehirnneuronen unterscheiden. Typisch für Neuronen sind nicht nur die klein gewachsenen Zweige, sondern auch ein langer, dünner Fortsatz, der sich vom Zellkörper ausgehend ins umliegende Gewebe fortsetzt. Dieser Fortsatz wird als „Axon“ bezeichnet und ist wesentlich länger als das übrige Neuron. Der Durchmesser des Zellkörpers liegt in einem Bereich von bis zu etwa einem 1/100.000 156

Millimeter, hingegen kann sich das Axon im Extremfall bis in das menschliche Rückenmark hinunterziehen und somit bis zu einem Meter lang werden. Bild 16 zeigt eine typische Nervenzelle mit ihren wichtigsten Merkmalen:

Abbildung 16: Aufbau einer Nervenzelle/eines Neurons Dendriten sind echten Zweigen sehr ähnlich, da sie sich zum Ende hin zuspitzen, was Axone nicht tun. Wie alle anderen Körperzellen sind auch Neuronen zum Teil damit beschäftigt, das Überleben der Zelle zu sichern und die nötigen chemischen Verbindungen herzustellen. Die Rolle, die Dendriten und Axone spielen, ist nicht so eindeutig zu beantworten, da diese ausschließlich bei Nervenzellen vorkommen. Daher sind sie für ganz spezifische Funktionen verantwortlich. In diesem Abschnitt wollen wir uns damit beschäftigen, wie Neuronen elektrische Signale aussenden und empfangen. Luigi Galvani (1737–1798) war der Erste, der nachwies, dass Nerven Elektrizität erzeugen können. Die vielen Milliarden Nervenzellen, die in einem ausgewachsenen menschlichen Gehirn vorhanden sind, sind pausenlos damit beschäftigt, Informationen von außen über die Sinne oder aus verschiedenen Körperstellen zu empfangen und weiterzugeben. Um den Informationsfluss im menschlichen Körper aufrechtzuerhalten, werden Signale von einer bestimmten Stelle im Gehirn über Tausende von Neuronen und Synapsen an andere Bereiche im Gehirn oder Körperstellen weitergeleitet. Für die Kommunikation sind die Dendriten und Axone zuständig, die als Empfänger und Sender die elektrischen Signale entgegennehmen und an andere umliegende Neuronen weitergeben. Bei der neuronalen Kommunikation spielen chemische Verbindungen eine zentrale Rolle, wobei die Kommunikation beispielsweise durch Drogen leicht gestört und verändert werden kann.

157

Wie lässt sich die Interaktion zwischen den Neuronen im Detail beschreiben? Unter elektrischem Strom versteht man das Fließen von Ladungen, wobei ein derartiger Ladungsfluss im menschlichen Gehirn durch die Bewegung einer oder mehrerer Ionenarten bewerkstelligt wird. Ein Ion ist ein Atom, dem entweder mindestens ein Elektron fehlt oder das überschüssige Elektronen besitzt. Häufige Ionenarten, die im menschlichen Körper vorkommen, sind: Natrium, Kalium, Chlorid oder Kalzium. Diese Ionen können sich entweder im Inneren (wie z. B. Kalium) oder auf der Außenseite des Neurons (wie Kalzium, Natrium oder Chlorid) befinden. Nun liegt der Umstand vor, dass Ionen nicht nach Belieben zwischen innen und außen wechseln können, sondern sie werden durch eine Barriere, der so genannten „Zellmembran“, daran gehindert. Die Zellmembran ist nicht nur eine einfache Wand, sondern sie besteht aus zwei Schichten mit einer fettreichen Mittelregion. Da nun Ionen diese fettreiche Mittelschicht nicht einfach überwinden können, kann kein Ion ungehindert in das Neuron hinein- oder aus ihm hinauswandern. Die Konsequenz daraus ist, dass sich die Ionen an der Innen- und Außenseite des Neurons konzentrieren. Zusätzlich befinden sich in der Zelle negativ geladene Eiweißmoleküle, sprich Proteine. Addiert man nun die Ladungen der Proteine und Ionen, so ergibt sich eine ungleiche Ladungsverteilung auf der Innen- und Außenseite des Neurons. Auf der Innenseite existiert ein Überschuss an negativen Ladungen, daher ist die Innenseite im Vergleich zur Außenseite negativ geladen. Somit entsteht eine Potenzialdifferenz zwischen innen und außen, was bedeutet, dass eine Spannung über der Membran liegt, die (in Volt ausgedrückt) einen negativen Wert von –70 bis –80 Millivolt ergibt. Wie können sich nun die Ionen durch die undurchdringliche, fettreiche Membranschicht bewegen? Dafür sind bestimmte Spezialstrukturen, die aus großen Proteinen gebildet werden, verantwortlich. Sie helfen bestimmten Ionenarten dabei, von der wässrigen, fettarmen Zone – der Außenseite – zur Innenseite des Neurons gelangen können. In der Neurowissenschaft spricht man daher von einem Kanal, der das Passieren der Ionen ermöglicht. Welche Vorgänge sind in einem Neuron erforderlich, damit dieses ein Signal aussenden kann? Der Potenzialverlauf kann in vier Phasen eingeteilt werden. Damit ein Neuron ein elektrisches Signal aussenden kann, müssen für kurze Zeit positiv geladene Natriumionen in die Zelle eindringen. Lagern sich nun die positiv geladenen Teilchen auf der Innenseite des Neurons an, 158

dreht sich die Potenzialdifferenz über der Membran um und die Innenseite ist vorübergehend gegenüber der Außenseite positiv geladen. Diese Phase entspricht der Depolarisation. Abbildung 17 zeigt einen typischen Potenzialverlauf mit seinen unterschiedlichen Phasen, wie er bei einer Stimulation im Neuron auftritt:

159

160

Abbildung 17: Aktionspotenzial in einem Neuron Befindet sich nun die Zelle im Zustand der Depolarisation, so führt die Spannung von etwa +20 bis +30 mV zu einer Entladung der Kaliumionen. Es erfolgt ein Öffnen der Kaliumkanäle und die Kaliumionen verlassen die Zelle. Diese Phase bezeichnet man als „Repolarisation“. Nachdem so viele geladene Kaliumionen die Zelle verlassen haben, dass die Spannung über der Membran kurzfristig negativ im Vergleich zum Ruhezustand wird, tritt die Phase der Hyperpolarisation ein. Wird nun das Neuron auf eine Weise stimuliert, dass es zu einer kurzen, aber typischen Veränderung der Potenzialdifferenz mit einem positiven Impuls, gefolgt von einem negativen Nachpotenzial kommt, so spricht man von einer positivnegativen Stosswelle, die etwa ein bis zwei Millisekunden dauert und als „Aktionspotenzial“ bezeichnet wird. Beim wiederhergestellten Ruhepotenzial wartet die Zelle erneut auf einen depolarisierenden Stimulus. Was löst nun eigentlich das Aktionspotenzial aus?

161

Dazu müssen wir noch einmal zu den Dendriten zurückkehren. Dendriten dienen als Empfänger für Signale, die von anderen Neuronen stammen. Ist nun das Signal stark genug, so laufen die Signale entlang des Dendritenzweiges und werden so zum Zellkörper transportiert. So können gleichzeitig Hunderte oder Tausende von Signalen im Zellkörper zusammenlaufen, die die Wahrscheinlichkeit erhöhen, dass in der Zielzelle ein Aktionspotenzial respektive ein elektrisches Signal erzeugt wird. Die einlaufenden Signale am Zellkörper addieren sich auf und führen gemeinsam zu einer Spannungsänderung, die, wenn sie groß genug ist, ein neues Aktionspotenzial erzeugt. Nachdem nun das Aktionspotenzial unabhängig vom Neuron immer dieselbe Größe hat, in etwa 90 Millivolt, wird bei verstärktem Auftreten von einlaufenden Signalen nicht das Aktionspotenzial vergrößert, sondern es werden stattdessen mehr Aktionspotenziale erzeugt. Dass heißt, das Neuron ist stärker erregt und kann dementsprechend mehr Signale senden, die sich wieder in der Frequenz der erzeugten Aktionspotenziale widerspiegeln. Manche Neuronen weisen eine Frequenz von 500 Hertz auf, der Durchschnitt liegt zwischen 30 und 100 Hertz. Der nächste wichtige Schritt liegt in der Weiterleitung des Aktionspotenzials an benachbarte Neuronen, das über das Axon, dem dünnen langen Fortsatz der Zelle, geschieht. Die Geschwindigkeit, mit der das elektrische Signal übertragen wird, hängt einerseits vom Durchmesser des Axons ab und andererseits davon, ob das Axon von einer fettreichen Isolierung, der Myelinscheide, umgeben ist. Viele Bewegungen sind so schnell und automatisch, dass kaum eine Verzögerung zwischen Gedanken im Gehirn und einer Muskelkontraktion im Körper festgestellt werden kann. Diese Schnelligkeit verdanken wir unseren Nervenleitungen, die Informationen mit einer Geschwindigkeit von bis zu 100 Metern pro Sekunde übertragen können. Wie kann jetzt aber ein Signal von einem Neuron auf das andere Neuron übertragen werden? Mit der Entwicklung des Elektronenmikroskops, das die Beobachtung einer Zelle mit hohem Auflösungsvermögen möglich macht, kam es zu einem methodischen Durchbruch. Ein Elektronenmikroskop schafft eine Vergrößerung einer Zelle bis zu einem Faktor von 10.000. Für elektronenmikroskopische Untersuchungen werden Gehirnschnitte herangezogen, die auf Fotoplatten abgebildet werden. Auf diesen Platten lässt sich ein schmaler Zwischenraum zwischen den Neuronen erkennen, der so genannte „synaptische Spalt“, der die Neuronen voneinander trennt. Gemeinsam mit der Membranregion bildet der synaptische Spalt die Synapse, wie sie in Abbildung 18 schematisch dargestellt ist: 162

Abbildung 18: Schematische Darstellung einer Synapse Die Kontaktaufnahme kann im Gehirn auf unterschiedliche Weise erfolgen. So können Dendriten in synaptischer Verbindung mit anderen Dendriten stehen oder auch Axone mit anderen Axonen. Die häufigste Verbindung ist jedoch die zwischen Axonen und Dendriten. Hier nimmt der axonale Endpunkt einen synaptischen Kontakt mit den verzweigenden Regionen der Dendriten auf. Es stellt sich nun die Frage, wie ein elektrischer Impuls die Lücke zwischen Axon und Dendrit überwinden kann, wenn er das Ende des Axons erreicht hat und am synaptischen Spalt eintrifft. Dazu ist es notwenig, eine Methode zu finden, die das ursprünglich elektrische Signal in ein anderes Signal umwandeln kann, das letztlich den synaptischen Spalt überqueren kann. Bereits im 19. Jahrhundert wurde die Vermutung geäußert, dass chemische Verbindungen am Prozess der neuronalen Kommunikation beteiligt sind. Aber erst im 20. Jahrhundert konnte der Kandidat für den chemischen Prozess entlarvt werden. 1921 gelang Otto Loewi die Entdeckung der natürlich vorkommenden chemischen Verbindung, die das entscheidende Bindeglied für die neuronale Kommunikation darstellt. Es ist eine Substanz mit den Namen „Acetylcholin“, die als Prototyp diverser chemischer Substanzen gilt und bei verschiedenen Nerven in Körper und Gehirn als wichtiges Bindeglied bei der Signalübertragung freigesetzt wird. Jene Substanzen werden in die Gruppe der neuronalen Botenstoffe oder Neurotransmitter zusammengefasst. Die Entdeckung von Acetylcholin hat zu einem tief greifenden Verständnis in der Kommunikation zwischen den Gehirnzellen beigetragen. Sobald ein elektrisches Signal das Ende eines Axons erreicht, schafft es die Voraussetzung für die Ausschüttung von Acetylcholin in den synaptischen Spalt. Im axonalen Ende einer feuernden oder signalisierenden Zelle ist der Botenstoff 163

Acetylcholin in vielen kleinen Paketen gespeichert, die bei Eintreffen eines Aktionspotenzials oder elektrischen Signals durch eine kurzfristige Spannungsänderung freigesetzt werden. Je mehr Aktionspotenziale eintreffen, desto mehr Acetylcholin wird aus den einzelnen Paketen entleert. Wie ist es nun aber möglich, dass ein so einfaches Molekül wie Acetylcholin eine Botschaft übertragen kann? Der Mechanismus liegt darin, dass das ursprüngliche elektrische Signal, das in ein chemisches Signal umgewandelt wurde, wieder in einen elektrischen Impuls zurückverwandelt wird. Daher ist es wichtig zu verstehen, wie Acetylcholin oder eben ein anderer Neurotransmitter eine kurzfristige Spannungsänderung in der Zielzelle hervorrufen kann. Sobald der Neurotransmitter das andere Ende des synaptischen Spalts erreicht hat, muss er in irgendeiner Weise Kontakt mit dem Zielneuron aufnehmen. Dafür sitzt auf der Außenseite des Zielneurons ein charakteristisches Proteinmolekül, das als „Rezeptor“ bezeichnet wird. Diese Rezeptoren sind ganz speziell auf einen bestimmten Neurotransmitter zugeschnitten, so dass beide Teile wie bei einem Schloss-Schlüssel-Prinzip zusammenpassen. Ein Rezeptor lässt sich nicht mit jedem beliebigen Molekül verbinden, sondern die molekulare Struktur muss exakt der Bindungsstelle des Rezeptors entsprechen. Wird nun der Neurotransmitter an das Zielneuron gebunden, so erfolgt das Öffnen der Natriumkanäle oder das Öffnen der Kanäle einer anderen Ionenart. Das Ein- oder Ausströmen der Ionen bewirkt eine kurzfristige Änderung der Potenzialdifferenz in der Zielzelle. Diese Änderung der Potenzialdifferenz führt dazu, dass ein elektrisches Signal entlang der Dendriten zum Zellkörper weitergeleitet wird. Somit hat sich der Kreislauf der Kommunikation von Ausgangs- auf Zielzelle geschlossen. In der Fortsetzung der Kommunikation gilt wiederum: Wenn nun die Summe aller Spannungsänderungen groß genug ist, so öffnen sich wieder die Natriumkanäle in der Nähe des Zellkörpers, so dass in dieser neuen Zielzelle ein Aktionspotenzial ausgelöst wird. Nun sendet die Zielzelle selbst wieder ein Signal aus, das auf die nächste Zielzelle weitergeleitet wird. Somit haben wir es hier mit einer fortlaufenden Folge von elektrischen und chemischen Ereignissen zu tun. Wichtig in diesem Prozess der Signalübertragung ist auch, dass der Neurotransmitter nach beendeter Arbeit schnell aus dem synaptischen Spalt entfernt wird. Dafür sind Enzyme verantwortlich, die die Fähigkeit besitzen, Neurotransmitter abzubauen. Wir konnten nun einen Eindruck von der Komplexität der Informationsverarbeitung im Gehirn gewinnen. Es handelt sich hierbei um eine Verschaltung von Milliarden von 164

Neuronen, deren Wirkungsweise im Zusammenspiel der verschiedenen Gehirnzentren uns unsere Fähigkeiten verleiht und die uns zu dem macht, was wir sind. Aus den Erkenntnissen der Gehirnforschung heraus wurde ein ehrgeiziges Vorhaben gestartet, die Funktionsweise des Gehirns mit seiner Fähigkeit, aus Erfahrungen zu lernen, auf intelligente Systeme zu übertragen. Das Forschungsgebiet, das sich damit beschäftigt, eine neuartige Technologie auf Basis neuronaler Netze zu entwerfen, trägt den Namen „Künstliche Intelligenz“. Wir wollen uns damit kurz beschäftigen.

7.3 Künstliche Intelligenz – KI

Seit einigen Jahren setzt man große Erwartungen in die künstliche Intelligenz oder kurz KI. Diese verfolgt das Ziel, mit Maschinen so viel wie möglich von der Funktionsweise des menschlichen Geistes zu imitieren und ihn vielleicht eines Tages darin zu übertreffen. Es gibt in diesem Forschungsbereich unterschiedliche Ziele und Komplexitätsstufen. Einerseits gibt es eine Richtung, die vorwiegend dem praktischen Bedarf in der Wirtschaft dient – die Roboterforschung. Hierfür werden mechanische Geräte, die quasi intelligente Tätigkeiten ausführen können, eingesetzt. Solche Systeme finden Anwendung in der Industrie, wenn es beispielsweise darum geht, standardisierte Arbeitsabläufe im Autoherstellungsprozess mit maschineller Hilfe zu automatisieren. Des Weiteren ist die Entwicklung von Expertensystemen, die den Erkenntnisstand einer ganzen Berufssparte, wie beispielsweise Medizin oder Jura, in einem codierten Programmpaket abbilden möchte, von kommerziellem und allgemeinem Interesse. In diesem Zusammenhang ist ebenfalls interessant, ob es eines Tages wirklich möglich sein wird, die Erfahrung und Sachkenntnis eines Menschen aus diesen Berufsbereichen durch ein adäquates Programmpaket zu ersetzen. Für die Entwicklung künstlicher Systeme bedarf es tiefer Einsichten in die Funktionsweise des menschlichen Gehirns, dessen Funktionsweise, wie schon besprochen, auf Basis der Verschaltung vieler einzelner Neuronen passiert oder besser gesagt: auf einem neuronalen Netz aufbaut. Die Anfänge der Entwicklung künstlicher neuronaler Netze gehen auf das Jahr 1943 zurück. In diesem Jahr beschrieben Warren McCulloch und Walter Pitts als Erste die Möglichkeit, neurologische Netzwerke zu konstruieren, die auf Basis von Neuronen funktionieren. Sie konnten zeigen, dass mit Hilfe einfacher Klassen neuronaler Netze im Prinzip jede arithmetische und oder logische Funktion berechnet werden kann. Das war der Startschuss für eine Reihe von Forschungsarbeiten, die das Forschungsfeld der künstlichen Intelligenz 165

vorantrieben. Ich möchte Ihnen hier einige Forschungsbeiträge verschiedener Forscher mit den Konsequenzen auf die Entwicklung auf dem Gebiet der künstlichen Intelligenz vorstellen. 1949 schuf Donald O. Hebb in seinem Buch The Organization of Behaviour das erste einfache, universelle Lernkonzept individueller Neuronen, die heutzutage als hebbsche Lernregeln bekannt sind. Diese Lernregeln setzte Donald O. Hebb ein, um Ergebnisse aus psychologischen Experimenten zu begründen. Die hebbschen Lernregeln gelten bis heute in ihrer allgemeinen Form für fast alle neuronalen Lernverfahren. 1951 wurde von Marvin Minsky der erste bekannte Neurocomputer theoretisch beschrieben, der jedoch nie praktisch umgesetzt wurde. 1957 bis 1958 wurde von Mitarbeitern am MIT unter Anleitung von Frank Rosenblatt und Charles Wightman der erste funktionsfähige Neurocomputer entwickelt, der für Mustererkennungsprobleme eingesetzt wurde. Dieser Computer besaß bereits die Fähigkeit einfacher Ziffernerkennung, die mit einem 20 mal 20 Pixel großen Bildsensor umgesetzt wurde. Neben seinen technischen Leistungen wurde Frank Rosenblatt durch sein Buch Principles of Neurodymanics bekannt, das er 1959 veröffentlichte. In diesem Buch beschreibt er sehr detailliert verschiedene Varianten des Perzeptrons, das einem einfachen Neuronenmodell entspricht. Ebenso stellt er in diesem Buch einen Beweis vor, der zeigt, dass das Perzeptron alles erlernen kann, was durch das von ihm angegebene Lernverfahren zum Erlernen fähig ist. Im Jahr 1969 unterzogen Marvin Minsky und Seymour Papert das Modell des Perzeptrons einer genaueren Analyse und konnten damit zeigen, dass dieses Modell viele wichtige Probleme gar nicht lösen konnte. Anhand mehrerer einfacher Probleme, wie z. B. das XOR-Problem, konnten sie feststellen, dass das ursprüngliche Perzeptron und auch bestimmte Varianten davon nicht in der Lage waren, diese zu repräsentieren. Als konsequente Schlussfolgerung ergab sich daraus, dass auch mächtigere Modelle die gleichen Probleme aufweisen würden und damit das ganze Gebiet der neuronalen Netze eine wissenschaftliche Einbahnstraße darstellte. Diese Vermutung ist zwar aus heutiger Sicht nicht zutreffend, jedoch führte das Ergebnis zu einer Stagnation und der Kürzung von Forschungsgeldern auf diesem Gebiet. Stattdessen flossen ab diesem Zeitpunkt Forschungsgelder in das neue Forschungsgebiet der künstlichen Intelligenz. Nach 15 Jahren der geringen Wertschätzung erfolgte eine Renaissance des Gebietes der Erforschung neuronaler Netze, die durch die theoretischen Grundlagen der berühmten Forscher von heute hervorgerufen wurde. Mit diesem Gebiet wollen wir uns im nächsten Abschnitt beschäftigen.

7.4 Grundlagen und Anwendung neuronaler Netze

166

Es gibt Probleme, die durch einen Algorithmus in kurzer Zeit exakt gelöst werden können, bei denen ein Computer deutlich schneller ist als ein menschliches Gehirn. Hingegen benötigt der Mensch beim Erkennen eines Gesichts wesentlich weniger Zeit und erreicht eine viel höhere Erkennungsleistung als der Computer. Ein weiterer Vorteil des menschlichen Gehirns ist der, dass auch dann noch korrekte Ergebnisse geliefert werden, wenn es zu einem Ausfall einiger für die Problemlösung notwendiger Nervenzellen kommt. Selbst wenn die Eingaben ungenau sind, also beispielsweise ein Text durch Verschmutzung unleserlich geworden ist, kann das Gehirn diesen noch erkennen. Ein Computer liefert in diesen Fällen fehlerhafte bzw. unbrauchbare Ergebnisse. Die Idee ist daher, die Arbeitsweise des Gehirns auf Maschinen zu übertragen. Künstliche neuronale Netze sind – wie das Gehirn von Säugetieren – aus einer großen Anzahl kleiner Elemente, den Neuronen, aufgebaut. Information werden daher verarbeitet, indem sich die Neuronen mit Hilfe von gerichteten Verbindungen untereinander aktivieren. Es handelt sich hierbei um das gleiche Prinzip, wie es bei den Vorgängen im Gehirn beobachtet werden kann. Neuronale Netze zeichnen sich durch ihre Lernfähigkeit aus sowie dadurch, dass sie bestimmte Aufgaben anhand von Trainingsbeispielen lernen können, ohne dazu explizit programmiert werden zu müssen. Weitere Vorteile sind die hohe Parallelität bei der Informationsverarbeitung, die hohe Fehlertoleranz und die verteilte Wissensrepräsentation, wodurch ein zerstörtes Neuron nur einen relativ kleinen Wissensausfall bedeutet. Aus welchen Komponenten setzt sich ein neuronales Netz zusammen und was sind seine Prinzipien? Ein künstliches neuronales Netz setzt sich aus stark idealisierten Neuronen zusammen. Diese bestehen, ebenso wie ihr biologisches Vorbild, aus drei Komponenten: dem Zellkörper, Dendriten und Axonen. Die Prinzipien können wie folgt umrissen werden: Wie im menschlichen Gehirn summieren die Dendriten die Eingabe auf, das Axon leitet die Ausgabe der Zelle an die Dendriten nachfolgender Synapsen weiter. Die Stärke einer Synapse wird durch eine Gewichtung, die einem numerischen Wert entspricht, dargestellt. Daher lässt sich die Verbindung zwischen Neuronen als direkt gewichtete Verbindung zwischen den Zellen darstellen. In Abbildung 19 sehen wir eine typische schematische Darstellung eines neuronalen Netzes:

167

Abbildung 19: Schematische Darstellung eines neuronalen Netzes Was sind die wesentlichen Komponenten neuronaler Netze? Zelle oder Neuronen: Innerhalb der Zelle wird zwischen folgenden Größen unterschieden: Aktivierungszustand: Dieser beschreibt den Aktivierungsgrad der Zelle. Aktivierungsfunktion: Diese gibt an, wie sich ein neuer Aktivierungszustand eines Neurons aus der alten Aktivierung und der Netzeingabe sowie dem Schwellwert des Neurons ergibt. Ausgabefunktion: Diese bestimmt aus der Aktivierung die Ausgabe des Neurons.

Verbindungsnetzwerk der Zellen: Ein neuronales Netz kann als gerichteter, gewichteter Graf angesehen werden. Die Kanten stellen die Verbindungen zwischen den Neuronen dar. Dabei wird für die Gewichtung der Verbindung zwischen den Neuronen eine Gewichtsmatrix herangezogen. Propagierungsfunktion: Diese gibt an, wie sich die Netzeingabe eines Neurons aus den Ausgaben der anderen Neuronen und den Verbindungsgewichten berechnet. Dabei handelt es sich um die gewichtete Summe der Ausgaben der Vorgängerzellen. Lernregel: Hierbei handelt es sich um einen Algorithmus, nach dem das Netz lernt, für eine vorgegebene Eingabe eine gewünschte Ausgabe zu produzieren. Durch die wiederholte Eingabe von Trainingsmustern wird die Stärke der Verbindungen zwischen den Neuronen modifiziert. Dabei wird versucht, den Fehler zwischen erwarteter und tatsächlicher Ausgabe des Netzes zu minimieren. Lernverfahren sind die interessanteste Komponente der neuronalen Netze. 168

Wo liegen die Anwendungsgebiete neuronaler Netze? Auf Grund der besonderen Eigenschaften sind künstliche neuronale Netz für alle Anwendungen interessant, bei denen kein oder nur ein geringes systematisches Wissen über das zu lösende Problem vorhanden ist. So sind typischerweise die Text-, Bild- und Gesichtserkennung Anwendungen, bei denen einige Hunderttausend bis Millionen Bildpunkte in eine im Vergleich dazu geringe Anzahl erlaubter Ergebnisse überführt werden müssen. Ebenso kommen neuronale Netze in der Regelungstechnik zum Einsatz, um herkömmliche Regler zu ersetzen oder ihnen Sollwerte vorzugeben. Die Anwendungsmöglichkeiten sind allerdings nicht nur auf die Technik begrenzt, sondern neuronale Netze werden auch bei der Vorhersage von Veränderungen in komplexen Systemen in unterstützender Weise hinzugezogen, wie z. B. zur Früherkennung sich abzeichnender Tornados oder aber auch zur Abschätzung der weiteren Entwicklung wirtschaftlicher Prozesse.

169

8. Resümee, Diskussion und Aussicht

In der heutigen Zeit existieren viele junge Forschungsdisziplinen, deren Entwicklungen nach dem momentanen Kenntnisstand nicht genau vorsehbar sind. Jedoch gibt es einerseits äußerst innovative Ideen und Anstrengungen, um spezielle Fachrichtungen in der Mathematik, Physik und Biologie voranzutreiben, die – meiner Meinung nach – in Zukunft Früchte tragen und zu allgemein zugänglichen technischen Anwendungen führen könnten. Andererseits wäre es jedoch auch denkbar, dass auf Grund solcher Ansätze die Sicherheit bestimmter derzeit bestehender Kryptosysteme gefährdet und möglicherweise neben der Störung der Privatsphäre auch wirtschaftlicher Schaden angerichtet werden könnte. Aus diesem Grund lässt sich in bestimmten Wissenschaftsdisziplinen häufig eine Gradwanderung zwischen dem praktischen Nutzen durch technischen Fortschritt und den nicht immer absehbaren Folgen und Folgeschäden in sozialer und wirtschaftlicher Hinsicht beobachten.

Welche kritische Bemerkungen und zukunftsweisenden Richtungen lassen sich zu den vorangegangenen Themen anführen? In Kapitel 3 habe ich Ihnen einige Verschlüsselungstechniken erläutert, worunter auch das allgemein verwendete RSA-Verfahren fällt. Die Sicherheit dieses Verfahrens baut auf dem Produkt zweier großer Primzahlen auf und die Zerlegung dessen ist bei hinreichender Größe ein zeitaufwändiges und rechenintensives Unterfangen. Um nun eine nahezu absolute Sicherheit beim Austausch von Nachrichten zu gewährleisten, werden zurzeit für die Verschlüsselung von Botschaften häufig 1024-Bit-Schlüssel eingesetzt. Auf Grund der Länge des Schlüssels müssten in diesem Fall Dezimalzahlen mit mehr als 200 Stellen in Primfaktoren zerlegt werden. Ein einzelner PC-Rechner würde mit der Berechnung dieser Aufgabe Millionen Jahre beschäftigt sein und selbst bei einem Zusammenschluss mehrerer Tausend PCs wäre noch immer ein Rechenaufwand von vielen Tausend Jahren gegeben. Warum sollte also ein so vertrauenswürdiges Verfahren vor den Attacken eines Angreifers nicht mehr sicher sein? Mit der momentan bekannten Hardware- und Softwaretechnik dürfte es vorerst unmöglich sein, nach dem RSA-Verfahren chiffrierte Nachrichten in annehmbarerer Zeit zu knacken; aber angenommen, eine Person oder Institution hätte zukünftig eine extrem 170

schnelle Faktorisierungsmethode oder eine neue Hardwaretechnologie zur Verfügung und diese würde auch der breiten Masse öffentlich zur Verfügung stehen ... Was wären die Konsequenzen daraus? Gerüchten und Verschwörungstheoretikern zufolge, hat die NSA (National Security Agency) bereits einen Weg gefunden, um dem RSA-Verfahren den Rang eines der sichersten Verschlüsselungsverfahren abzuringen. Denkbar wäre es natürlich, dass die NSA eine Möglichkeit entdeckt hat, um das RSA-Verfahren zu knacken, aber meiner Meinung nach fällt dies vorerst einmal in den Bereich der reinen Spekulation. Dazu müsste zunächst ein Beweis erbracht werden, was für eine Institution wie die NSA etwas schwierig sein dürfte, wenn man bedenkt, dass es sich hier um einen Geheimdienst handelt und an erster Stelle bekanntlich militärische Interessen stehen. Eine solche Waffe, wie die der endgültigen Decodierung des RSA-Verfahrens, aus der Hand zu geben, wäre für eine Einrichtung wie die NSA wahrlich nicht klug. Als Schlussfolgerung davon müsste es sich um eine unabhängige Person oder Institution handeln, die einen Weg findet, den Algorithmus des RSA-Verfahrens für immer unsicher zu machen. Wenn Sie sich noch erinnern können, haben wir im Zusammenhang mit Verschlüsselungsverfahren das für jedermann zugängliche Programm Pretty Good Privacy (PGP) kennen gelernt, das erst durch den massiven Einsatz Phil Zimmermanns in der 90erJahren ermöglicht wurde. Unter anderem ist auch das RSA-Verfahren in diesem hybriden Verschlüsselungsprogramm implementiert. Mit diesem Programm werden heutzutage jederzeit E-Mails oder Dateien verschlüsselt und sicher verschickt. Wäre das nun auf Grund eines unsicheren Algorithmus beim RSA-Verfahren nicht mehr der Fall, so könnte beispielsweise ein privater Internetbenutzer nicht mehr davon ausgehen, dass seine privaten E-Mails streng vertraulich nur beim Empfänger landen. Jederzeit wäre es für eine Person aus reinem Interesse oder eigenem Vorteil bei geeignetem Zugang denkbar, einen Lauschangriff zu starten, die E-Mails abzufangen und lesbar zu machen. Sie könnten jetzt entgegenbringen, dass es im privaten Bereich eigentlich wenig zu verbergen gibt, allerdings sollten an dieser Stelle meiner Ansicht nach zwei Punkte nicht vernachlässigt werden: erstens mit dem Gedanken leben zu müssen, dass jederzeit jemand mithorchen könnte, wenn Sie z. B. intime Gefühle mit ihrem Gegenüber austauschen, und zweitens gibt es auf jeden Fall kritische Daten, die in nur ganz bestimmte Hände fallen sollten, z. B. gerichtliche oder berufliche Angelegenheiten. Abgesehen von der möglichen Störung der Intimsphäre ist auch noch die 171

kommerzielle Seite zu bedenken. Wie wir wissen, ist Betriebsspionage ein recht lukratives, aber auch recht anrüchiges Geschäft. Mit dem Abhören von streng vertraulichen Informationen zwischen Geschäftspartnern oder dem Anzapfen wichtiger interner Informationen innerhalb eines Unternehmens würde sich der eine oder andere Wettbewerbsvorteil ergeben, der einerseits zu einem wirtschaftlichen Schaden, aber auch andererseits zu Rufschädigung für denjenigen, der ausspioniert wird, führen könnte. Ich habe hier nur ein paar Szenarien aus denkbar vielen verschiedenen Möglichkeiten herausgegriffen. Wie hoch der wirtschaftliche Schaden und der private Missbrauch tatsächlich wären, lässt sich nicht mit Sicherheit sagen. Aber lediglich die Aussicht auf eine solche Situation ist keineswegs erfreulich. Als Nächstes ist es mir ein Anliegen, die Zukunftsaussichten von DNA-Computern und Quantencomputern zu diskutieren. Worin liegen die Chancen dieser jungen Forschungsrichtungen? Nicht nur, dass Computer unseren Alltag erobert haben, sie werden immer kleiner und schneller. Jedoch sind der Miniaturisierung physikalische Grenzen gesetzt, die durch alternative Rechenarchitekturen in Zukunft kompensiert werden könnten. So entwerfen Computerwissenschaftler auf der ganzen Welt faszinierende Szenarien von rechnenden DNAMolekülen bis zu Rechenmaschinen, die auf Quanteneffekten basieren. Die Entwicklung der Computerbranche war in den letzten Jahrzehnten enorm. 1949 waren Computer 30 Tonnen schwere und ganze Räume füllende Rechenmaschinen, die mit Zehntausenden von Vakuumröhren und Hunderten von Kabelkilometern ausgerüstet waren. Zu dieser Zeit hätte sich wohl keiner träumen lassen, dass in der Zukunft im Zuge der Transistor- und Mikrochiptechnologie Transistoren eine Größe von einem Bruchteil eines menschlichen Haares aufweisen und die Abstände zwischen ihnen im Nanometerbereich liegen würden. Seit Beginn des Silizium-Zeitalters hat sich die Dichte der Transistoren auf einem Chip alle 18 bis 24 Monate verdoppelt. Doch diesen rasanten Entwicklungen sind, wie bereits gesagt, physikalische Grenzen gesetzt, die spätestens dann erreicht sind, wenn so genannte „Quanteneffekte“ zu wirken beginnen. Unterhalb einer gewissen Größe, dann nämlich, wenn die einzelnen Schaltkreise nur mehr durch wenige Atomlagen voneinander getrennt sind, wirken physikalische Gesetzmäßigkeiten, die beispielsweise zu einem „Durchtunneln“ von Elektronen durch dünne isolierende Schichten und somit zu Lecks in den einzelnen

172

Schaltkreisen führen können. Wir können also davon ausgehen, dass in naher Zukunft die Grenze des Machbaren im Bereich der Silizium-Mikroelektronik erreicht ist. Ausgehend von theoretischen Überlegungen und physikalischen Grundgesetzen suchten Bennet und Landauer nach Möglichkeiten, die bei Berechnungen eines Computers auftretende Reibungswärme zu reduzieren. Auf Basis dieser und anderer theoretischer Überlegungen wurden experimentelle Schritte unternommen, in scheinbar weit entfernten Gebieten abseits der gängigen Technologien nach Lösungen zu suchen. Daraus entstanden innerhalb kurzer Zeit gleich mehrere völlig verschiedene Ansätze. Die einen sehen in der DNA, in Enzymen und anderen Biomolekülen die Hardware der Zukunft, hingegen setzen wiederum andere Forschungsgruppen auf Quantenphänomene. Momentan ist noch keine Technologie so weit entwickelt, um die herkömmliche Technologie auf Silizium-Basis abzulösen, jedoch prophezeien einige Experten, dass solche exotisch anmutenden Technologien eines Tages zum Alltag gehören könnten. Laut Aussagen von Computerforschern und Quantenphysikern, die jetzt noch eher wie Utopie klingen, werden spätestens in 30 bis 40 Jahren die vertrauten Geräte der Vergangenheit angehören und durch Gebilde ganz anderer Art ersetzt werden. Statt aus Transistoren wird das Herz der neuen Geräte aus Flüssigkeit bestehen, gesteuert von Radioimpulsen und Laserblitzen. So könnte der Rechner der Zukunft in kürzester Zeit das gesamte Internet durchforsten sowie jeden jemals entwickelten Code knacken oder jede Rechenaufgabe dank extremer paralleler Rechenoperationen in milliardenfacher Geschwindigkeit ausführen. Mit diesen Aussichten ist schon jetzt der Wettlauf um die neuen Zukunftstechnologien in vollem Gange. Die Forschungsarbeit beschränkt sich jetzt nicht mehr nur auf den universitären Bereich, längst haben auch die Großen der Computerbranche Forschungsprojekte initiiert, um den Zug der zukunftsträchtigen Technologie nicht zu verpassen. Neben dem Potenzial einer aussichtsreichen Technologie auf quantenmechanischer Ebene ist ein Computer auf biologischer molekularer Ebene ein ebenso realistischer und zukunftsweisender Kandidat. Hier liegt die Vision darin, eine Maschine zu konstruieren, die Lösungen komplexer Algorithmen oder Informationsweitergaben durch Molekülstrukturen bewerkstelligen kann. Es hört sich eher wie ein Science-Fiction-Roman an, wenn man davon spricht, dass der Biocomputer der Zukunft statt aus Chips, Transistoren und Platinen eben dann aus DNA- oder anderen Biomolekülen aufgebaut ist und Leitungsbahnen durch chemische oder biologische Interaktionen zwischen den Molekülen ersetzt werden. Ein gelungenes Experiment habe ich Ihnen bereits in Kapitel 5 vorgestellt, mit dem die Optimierungsaufgabe von Hamilton – das hamiltonsche Wegeproblem – in einer Woche 173

Laborarbeit mit Hilfe von DNA-Molekülen von Leonard Adleman erfolgreich gelöst werden konnte. Das war ein erster wegweisender Schritt in eine neue Richtung der Informationsverarbeitung. Seit einigen Jahren arbeiten viele Computerwissenschaftler weltweit daran, funktionierende Biocomputer zu entwickeln, dabei bedienen sie sich auf unterschiedliche Weise aus dem reichhaltigen Vorrat der Natur. Diese Forscher sind ebenso wie Adleman davon überzeugt, dass es zu einer molekularen Revolution kommen und diese eine dramatische Auswirkung auf die gesamte Welt haben wird. Viele werden jetzt sicher der Ansicht sein, dass das wieder einmal zu dick aufgetragen ist und schon seit Jahren von einer Quanten- oder molekularen Revolution gesprochen wird, dass aber kaum Fortschritte erzielt wurden. Nun, dann denken Sie nur einmal an die Vergangenheit – wir müssen gar nicht weit zurückgehen. Es reichen etwa 100 Jahre, und jetzt führen Sie sich einmal vor Augen, wie damals der Stand der Technik war: keine Mikrochips, Roboter- oder Lasertechnik, nichts davon. Daher sollte man mit oben angeführten Ansichten bzw. Aussagen immer ein wenig vorsichtig sein, denn es braucht eben viel Zeit und Forschungsarbeit, bis sich eine Idee zu einem marktreifen Produkt entwickelt hat. Meiner Ansicht nach sollten wir dieser Entwicklung vorurteilsfrei entgegengehen. Wo liegen nun die Vorteile in der Informationsverarbeitung mit Biomolekülen? Gegenüber herkömmlichen Technologien haben Biomoleküle gleich mehrere Vorteile: Einerseits sind sie in der Produktion kostengünstiger, da sie sich entweder selbst vermehren oder relativ einfach durch chemische und biotechnische Verfahren hergestellt werden können, andererseits sind sie äußerst klein. In einem Gramm DNA kann so viel Information wie auf einer Million CDs gespeichert werden und ein Tropfen DNA könnte möglicherweise eines Tages die schnellsten Computer an Rechenleistung um ein Vielfaches übertreffen. Ein weiterer Vorteil liegt in der geringen Ausfallwahrscheinlichkeit bei schadhaften Bauteilen. So können biologische Systeme Schäden und Fehlfunktionen abschwächen und daher mit einer geringeren Störanfälligkeit den laufenden Betrieb aufrechterhalten. Computerwissenschaftler gehen unterschiedliche Wege, um die Vorteile in konkrete Technologien umzusetzen. Manche setzen auf die Rekombinationsfähigkeit von DNA-Molekülen, andere setzen auf Bakterien, die sich als lebende replizierende Schalter anbieten. Wie sehen die möglichen Anwendungen eines DNA-Computers aus?

174

Laut Ansicht der Biocomputerforscher hat der DNA-Rechner das Potenzial, um ein Computer der Zukunft zu werden. Bis aber der erste DNA-Computer einsatzfähig ist, werden wahrscheinlich noch Jahrzehnte vergehen, jedoch ist es jetzt schon gelungen, Biomoleküle zu entwickeln, die sich auf Grund gezielter Programmlogik zu komplexen Strukturen zusammenlagern können. Viele Experten gehen eher von einer geringen Wahrscheinlichkeit aus, dass der handelsübliche PC durch ein Gerät mit Reagenzglas ersetzt wird, aber sie sehen eine Anwendungsmöglichkeit für Hochleistungsrechner mit ganz spezifischen Aufgaben. So entwarf Leonard Adleman gemeinsam mit Richard Lipton schon vor einigen Jahren Algorithmen, die den so vermeintlich sicheren Verschlüsselungsverfahren von heute in Zukunft das Fürchten lehren könnten. Dann würde nämlich auch eine Hardware existieren, vor der auch die RSA-Verschlüsselung nicht mehr sicher wäre. Sollte aber vorher eine marktreife Version des Quantencomputers vorliegen, der das Potenzial einer absolut sicheren Verschlüsselung auf Quantenebene eröffnet – die so genannte „Quantenkryptografie“ – stünde wieder ein Instrumentarium zur sicheren Verschlüsselung zur Verfügung. In Zukunft könnte sich somit wieder ein spannender Wettlauf zwischen Kryptografen und Kryptologen abzeichnen. Wir werden sehen, wer am Ende die Nase vorn hat. Am Ende dieses Buches ist es mir noch ein Anliegen, die Unterschiede und gemeinsamen Schnittpunkte in der Informationsspeicherung und -verarbeitung von digitalen Computern und dem menschlichen Gehirn zu diskutieren. Ebenso möchte ich auf die Frage eingehen, ob das Gehirn genetisch vorprogrammiert ist. Zunächst möchte ich Ihnen allerdings kurze Definitionen für alle Teilbereiche bringen, wie sich überhaupt die kleinsten „Informationseinheiten“ festlegen lassen, die quasi der Informationsspeicherung dienen: Zahlentheorie: Hier würde ich als die kleinsten Informationseinheiten die kleinsten Bausteine im Bereich der natürlichen Zahlen sehen, nämlich die Primzahlen. Quantenphysik: In diesem Fall sind es – wie der Name schon sagt – die Qubits, die als die kleinsten Informationseinheiten gelten. Träger der Information sind Quantenobjekte. Genetik: Drei miteinander verbundene Nukleotide bilden die kleinste Informationseinheit, die in der DNA und RNA zur Codierung der genetischen Information zur Verfügung steht. Daher ist zur Speicherung der genetischen Information die kleinste Informationseinheit ein Codon. 175

Gehirn: Im Gehirn lässt sich keine bestimmte Informationseinheit eindeutig feststellen. Es wird jedoch eine Unterscheidung zwischen Lang- und Kurzzeitgedächtnis getroffen. Für das Langzeitgedächtnis vermutet man, dass die langzeitige Informationsspeicherung durch die Bildung neuer Synapsen erfolgt. Für die Speicherung im Kurzzeitgedächtnis muss die Neurotransmitterfreisetzung verändert werden, so dass die Frequenz der Aktionspotenziale ein neues Muster erzeugt. Da Gehirne gerne mit Computer verglichen werden und wir unterschiedliche Forschungswege zur Realisierung neuer Computertechnologien kennen gelernt haben, werden wir dies an dieser Stelle noch diskutieren. Leider ist es ein allgemeines Vorurteil geworden, dass das menschliche Denken wie ein Computer funktioniert. Jedoch zeigt die neuere Gehirnforschung, dass die Gleichsetzung von Gehirn und Computer ein Irrtum ist. Die langjährigen Forschungsarbeiten im Bereich der künstlichen Intelligenz und die daraus entstandenen Maschinen haben gezeigt, dass eine bestimmte Qualität menschlichen Denkens nicht durch Maschinen ersetzt werden kann: die Wahrnehmung und Bewertung von Situationen, die menschliche Kreativität oder die Entscheidungsfindung. Fassen wir noch einmal kurz die Struktur des Gehirns zusammen: Die wichtigsten Bausteine sind die Neuronen, die als chemisch-elektrische Elemente gedacht werden können. Neuronen sind vielfältig miteinander verbunden und bilden ein so genanntes „neuronales Netz“. Die Neuronen sind über Synapsen miteinander verschaltet und diese bilden quasi die chemischelektrischen Gewichte. Sie steuern die Stärke der Verbindung zwischen den Neuronen. Im Gehirn gibt es viele Milliarden von Nervenzellen und die Zahl der Verknüpfungen einer Zelle durch Axone mit anderen Zellen liegt zwischen 1.000 und 10.000. Daraus ergibt sich eine unglaublich große Zahl an Verbindungen. Aus dieser Tatsache heraus entsteht jedoch auch ein Nachteil gegenüber der elektronischen Verarbeitung: das Gehirn funktioniert im Vergleich zu einem Computer sehr langsam. Die CPU (= Central Processing Unit) eines Prozessors ist bei Rechenoperationen etwa um den Faktor 10.000 schneller als eine Nervenzelle. Jedoch arbeitet ein Gehirn wesentlich zuverlässiger. Weist etwa eine Computer eine defekte Stelle auf, so kann es sein, dass das ganze System ausfällt, hingegen bleibt die Funktionsfähigkeit des Gehirns trotz einer verletzten Nervenzelle erhalten. Ein noch weit wichtigerer Unterschied zeigt sich im Verhalten der Informationsverarbeitung. Das Gehirn arbeitet hochgradig parallel, d. h., die Verarbeitung von Informationen erfolgt zeitgleich; ein Computer arbeitet im Gegensatz dazu seriell, sprich: die Informationsverarbeitung ist zeitlich hintereinander 176

geschaltet. Ein Computer hat beispielsweise große Probleme bei der Mustererkennung, dagegen kann das Gehirn ein Gesicht aus einer größeren Menschenmasse relativ rasch erkennen. Die Ursache liegt eben in der gleichzeitigen Verarbeitung visueller Informationen. Ein weiterer Unterschied zwischen Gehirn und Computer liegt in der Informationsspeicherung. Im Computer liegt eine klare Trennung zwischen CPU und Speicher vor, dagegen verändert jede Wahrnehmung oder jeder Gedanke die Gewichtung der Verbindungen zwischen den Neuronen oder besser gesagt in den Synapsen. Anders als bei einer Turing-Maschine (wir haben diesen Begriff bereits bei der Behandlung des DNAComputers erläutert) ist die Software nicht von der Hardware zu trennen. Auf Grund dieser Unterschiede sehen wir, dass die Strukturierung und Funktionsweise des Gehirns ganz anders als beim Computer festgelegt sind. Im nächsten Punkt möchte ich noch auf die kontrovers diskutierte Frage eingehen, ob die Struktur des Gehirns genetisch vorprogrammiert ist. Die moderne Gehirnforschung würde diese Frage mit einem klaren Nein beantworten. Schon aus quantitativen Überlegungen heraus sollte dies nicht möglich sein: Das menschliche Genom als Träger der Erbinformation besitzt etwa einen Informationsgehalt von rund 750 Megabyte. Wie kommt man auf diese Größe? Das menschliche Erbgut besteht aus etwa 3 Milliarden Basenpaaren, jedes Basenpaar hat einen Informationsgehalt von zwei Bits, das ergibt bei Multiplikation mit der Anzahl der Basenpaare 6 Milliarden Bits oder 750 Megabyte. Bei einem Vergleich mit der Kapazität des Gehirns, das selbst bei konservativen Schätzungen noch immer 1,25 Millionen Megabyte an realisierbaren neuronalen Vernetzungen aufweist, ist es auf Grund dieser enormen Differenz unmöglich, dass die Erbinformation Träger der intellektuellen Fähigkeiten eines Menschen ist. Als Schlussfolgerung daraus muss die Bildung von Netzen neuronaler Informationen anders erklärt werden. Natürlich ist es nicht ausgeschlossen, dass bestimmte Fähigkeiten des Menschen angeboren sein können, aber eben nur in sehr geringem Umfang. Wie lässt sich nun aber das Gehirn in einem angemessenen Umfang beschreiben, nachdem bereits zwei denkbare Erklärungsmodelle nicht erfolgreich waren? Aus der Vielzahl der Theorien der Neurowissenschaft in der Gegenwart zur Erklärung der Funktionsweise des Gehirns möchte ich Ihnen ein Erklärungsmodell näher vorstellen, das von Gerald M. Edelman entworfen wurde und den Namen Theorie des neuronalen Darwinismus trägt. Edelman erhielt den Nobelpreis für eine Theorie des Immunsystems, die vom Evolutionsgedanken Darwins ausgeht. Diesen Grundgedanken übertrug Edelman auf das 177

Gehirn und daraus entstand seine Theorie der Selektion neuronaler Gruppen. Es handelt sich hierbei um eine nicht ganz einfache Theorie, daher werde ich diese so leicht wie möglich darstellen: Bei der Geburt ist das menschliche Gehirn kaum strukturiert, jedoch steht eine große Auswahl theoretischer Verknüpfungen zwischen den Neuronen zur Verfügung. Nun erzeugt das Gehirn spontan, z. B. bei der Bewegung der Arme oder Beine, eine Vielzahl an zufälligen Mustern, die man sich – bildlich verglichen – wie elektrische Entladungen vorstellen kann. Ein solches Zufallsmuster ist an eine ganz bestimmte vernetzte Struktur gekoppelt, die in der Gehirnforschung als „Karte“ bezeichnet wird. Wenn beispielsweise ein Säugling durch eine unkoordinierte Bewegung nach einem Gegenstand greifen möchte, dann entspricht dieser Bewegungsablauf einer solchen Karte. Gelingt es dem Säugling nun zufällig, diesen Gegenstand zu berühren, so erfolgt eine Rückkopplung über die Sinnesorgane und der Gegenstand wird für eine bestimmte Zeit festgehalten. Aus dieser Rückkopplung entsteht ein Signal im Stammhirn, das Edelman dem Umstand einer „Bewertung“ zuordnete. Diese Bewertung entspricht subjektiv gesprochen wahrscheinlich einer Emotion, die physiologisch ausgedrückt einem elektro-chemischen Prozess im Gehirn gleichkommt. Dieser Prozess verstärkt die Verbindungen zwischen den Neuronen, die bei dieser Bewegung aktiv waren, und infolge dessen prägt sich ein Bewegungsmuster im Gehirn ein. Aus dieser Prägung entsteht eine engere Verknüpfung zwischen den Nervenzellen. Somit steigt die Wahrscheinlichkeit, dass diese Bewegung wiederholt wird. Ist hingegen eine Bewegung gescheitert, werden die synaptischen Verbindungen geschwächt und es wird im Gehirn, subjektiv gesehen, ein Gefühl der Enttäuschung oder eine neutrale Emotion ausgelöst. Wir fassen noch einmal zusammen: Durch erfolgreiche Bewegungen können Synapsenverbindungen gestärkt werden. Je öfter die Bewegung wiederholt und mit einer positiven Emotion verbunden wird, desto stärker ist die Prägung einer neuronalen Karte. Also haben wir es hier mit Lernvorgängen und mit keinen angeborenen Reflexen zu tun. Obwohl es Hinweise auf angeborene Reflexe gibt, müssen wir die meisten unserer Fähigkeiten von Geburt an erlernen, ob es nun das Laufen, Sprechen oder Lesen usw. ist. Es handelt sich bei der neuronalen Vernetzung nicht um eine Speicherung von Informationen an einer bestimmten Stelle, wie es beispielsweise bei der Speicherung von Informationen auf bestimmten Speicherplätzen im Computer der Fall ist, sondern daran ist das ganze Gehirn beteiligt. Ich hoffe, ich konnte Ihnen in diesem Buch einen spannenden und besseren Einblick in die Welt der Zahlentheorie, der Verschlüsselungen, Genetik und Gehirnforschung verschaffen und Ihnen einige zukunftsweisende Wege im Bereich der Molekularbiologie und 178

Quanteninformatik aufzeigen. In diesem Sinne möchte ich meine Ausführungen mit folgendem Zitat von Sokrates beenden: „Lernen besteht in einem Erinnern von Informationen, die bereits seit Generationen in der Seele des Menschen wohnen.“

179

Sign up to vote on this title
UsefulNot useful