pg-handbuch

Rechts

PostgreSQL
Das Offizielle Handbuch

LINKS

Rechts
Peter Eisentraut

PostgreSQL
Das Offizielle Handbuch

LINKS
Bibliografische Information Der Deutschen Bibliothek – Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <http://dnb.ddb.de> abrufbar.

ISBN 3-8266-1337-6 1. Auflage 2003

Alle Rechte, auch die der Übersetzung, vorbehalten. Kein Teil des Werkes darf in irgendeiner Form (Druck, Fotokopie, Mikrofilm oder einem anderen Verfahren) ohne schriftliche Genehmigung des Verlages reproduziert oder unter Verwendung elektronischer Systeme verarbeitet, vervielfältigt oder verbreitet werden. Der Verlag übernimmt keine Gewähr für die Funktion einzelner Programme oder von Teilen derselben. Insbesondere übernimmt er keinerlei Haftung für eventuelle, aus dem Gebrauch resultierende Folgeschäden. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichenund Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.

Copyright © 1996-2003 PostgreSQL Global Development Group PostgreSQL ist Copyright © 1996-2002 PostgreSQL Global Development Group und wird unter der unten gezeigten Lizenz der Universität von Kalifornien verteilt. Postgres95 ist Copyright © 1994-95 Regents of the University of California. Permission to use, copy, modify, and distribute this software and its documentation for any purpose, without fee, and without a written agreement is hereby granted, provided that the above copyright notice and this paragraph and the following two paragraphs appear in all copies. IN NO EVENT SHALL THE UNIVERSITY OF CALIFORNIA BE LIABLE TO ANY PARTY FOR DIRECT, INDIRECT, SPECIAL, INCIDENTAL, OR CONSEQUENTIAL DAMAGES, INCLUDING LOST PROFITS, ARISING OUT OF THE USE OF THIS SOFTWARE AND ITS DOCUMENTATION, EVEN IF THE UNIVERSITY OF CALIFORNIA HAS BEEN ADVISED OF THE POSSIBILITY OF SUCH DAMAGE. THE UNIVERSITY OF CALIFORNIA SPECIFICALLY DISCLAIMS ANY WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE. THE SOFTWARE PROVIDED HEREUNDER IS ON AN „AS-IS“ BASIS, AND THE UNIVERSITY OF CALIFORNIA HAS NO OBLIGATIONS TO PROVIDE MAINTENANCE, SUPPORT, UPDATES, ENHANCEMENTS, OR MODIFICATIONS.

Printed in Germany © Copyright 2003 by mitp-Verlag GmbH/Bonn, ein Geschäftsbereich der verlag moderne industrie Buch AG&Co.KG/Landsberg
Lektorat: Sabine Schulz Sprachkorrektorat: Friederike Daenecke Satz und Layout: G&U e.Publishing Services GmbH, Flensburg Druck: Media-Print, Paderborn

Inhaltsverzeichnis

Einleitung
Was ist PostgreSQL? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die kurze Geschichte von PostgreSQL . . . . . . . . . . . . . . . . . . . . . . . . . . . Über diese Ausgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konventionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Richtlinien für Fehlerberichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fehler identifizieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was berichtet werden sollte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wo Fehler berichtet werden können . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

21
21 22 23 24 24 25 25 25 27

Teil I Kapitel 1:
1.1 1.2 1.3 1.4

Tutorial Ein Einstieg
Installation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Grundlagen der Architektur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eine Datenbank erzeugen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Auf eine Datenbank zugreifen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29 31
31 31 32 34

Kapitel 2:
2.1 2.2 2.3 0.1 2.4 2.5 2.6 2.7 2.8 2.9

Die SQL-Sprache
Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konzepte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eine neue Tabelle erzeugen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eine neue Tabelle erzeugen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eine Tabelle mit Zeilen füllen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eine Tabelle abfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verbunde zwischen Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aggregatfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Daten aktualisieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Daten löschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

37
37 37 38 38 39 39 41 43 44 45

Kapitel 3:
3.1 3.2

Fortgeschrittene Funktionen
Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

47
47 47

5

Inhaltsverzeichnis

3.3 3.4 3.5 3.6

Fremdschlüssel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Transaktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vererbung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Schlussfolgerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

48 48 50 51

Teil II Kapitel 4:
4.1

Die SQL-Sprache SQL-Syntax
Lexikalische Struktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 Namen und Schlüsselwörter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.2 Konstanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.3 Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.4 Sonderzeichen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.5 Kommentare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.6 Vorrang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wertausdrücke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Spaltenverweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Positionsparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.3 Operatoraufrufe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.4 Funktionsaufrufe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.5 Aggregatausdrücke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.6 Typumwandlungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.7 Skalare Unteranfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.8 Auswertung von Ausdrücken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

53 55
55 56 57 59 60 60 60 62 62 63 63 63 64 64 65 65

4.2

Kapitel 5:
5.1 5.2 5.3 5.4

Datendefinition
Tabellengrundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Systemspalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vorgabewerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Constraints . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.1 Check-Constraints . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.2 NOT-NULL-Constraints . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.3 Unique Constraints . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.4 Primärschlüssel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.5 Fremdschlüssel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabellen verändern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.1 Eine Spalte hinzufügen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.2 Eine Spalte entfernen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.3 Einen Constraint hinzufügen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.4 Einen Constraint entfernen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.5 Den Vorgabewert ändern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.6 Eine Spalte umbenennen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.7 Eine Tabelle umbenennen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Privilegien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Schemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

67
67 69 70 70 71 72 73 74 75 77 78 78 78 78 79 79 79 79 80

5.5

5.6 5.7

6

Inhaltsverzeichnis

5.8 5.9

5.7.1 Ein Schema erzeugen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.2 Das Schema public . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.3 Der Schema-Suchpfad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.4 Schemas und Privilegien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.5 Das Systemkatalogschema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.6 Verwendungsmöglichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.7 Portierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Andere Datenbankobjekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verfolgung von Abhängigkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

81 82 82 83 84 84 84 85 85

Kapitel 6:
6.1 6.2 6.3

Datenmanipulation
Daten einfügen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Daten aktualisieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Daten löschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

87
87 88 89

Kapitel 7:
7.1 7.2

Anfragen
Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabellenausdrücke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.1 Die FROM-Klausel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.2 Die WHERE-Klausel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.3 Die GROUP BY- und HAVING-Klauseln . . . . . . . . . . . . . . . . . . . . . . . . Select-Listen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.1 Elemente der Select-Liste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.2 Ergebnisspaltennamen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.3 DISTINCT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Anfragen kombinieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zeilen sortieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . LIMIT und OFFSET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

91
91 92 92 98 99 103 103 104 104 105 105 106

7.3

7.4 7.5 7.6

Kapitel 8:
8.1

Datentypen
Numerische Typen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1.1 Ganzzahlentypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1.2 Zahlen mit beliebiger Präzision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1.3 Fließkommatypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1.4 Selbstzählende Datentypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Typen für Geldbeträge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zeichenkettentypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Typen für binäre Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Datums- und Zeittypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.1 Eingabeformate für Datum und Zeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.2 Ausgabeformate für Datum und Zeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.3 Zeitzonen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.4 Interna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Der Typ boolean . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Geometrische Typen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

109
110 111 112 112 113 113 114 116 117 118 121 122 123 123 124

8.2 8.3 8.4 8.5

8.6 8.7

7

Inhaltsverzeichnis

8.7.1 Punkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.7.2 Strecken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.7.3 Rechtecke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.7.4 Pfade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.7.5 Polygone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.7.6 Kreise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.8 Typen für Netzwerkadressen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.8.1 inet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.8.2 cidr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.8.3 inet vs. cidr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.8.4 macaddr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.9 Bitkettentypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.10 Objekt-Identifikator-Typen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.11 Arrays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.11.1 Deklaration von Arraytypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.11.2 Eingabe von Arraywerten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.11.3 Verweise auf Arraywerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.11.4 In Arrays suchen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.11.5 Array-Eingabe- und Ausgabesyntax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.11.6 Sonderzeichen in Arrayelementen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.12 Pseudotypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

125 125 125 125 126 126 126 126 127 127 127 128 129 130 130 130 130 132 133 133 134

Kapitel 9:
9.1 9.2 9.3 9.4 9.5 9.6

Funktionen und Operatoren
Logische Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vergleichsoperatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mathematische Funktionen und Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zeichenkettenfunktionen und -operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Funktionen und Operatoren für binäre Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . Mustervergleiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.6.1 LIKE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.6.2 SIMILAR TO und reguläre Ausdrücke nach SQL99 . . . . . . . . . . . . . . . . 9.6.3 Reguläre Ausdrücke nach POSIX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Datentyp-Formatierungsfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Funktionen und Operatoren für Datum und Zeit . . . . . . . . . . . . . . . . . . . . . . . . . 9.8.1 EXTRACT, date_part . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.8.2 date_trunc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.8.3 AT TIME ZONE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.8.4 Aktuelle Zeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Geometrische Funktionen und Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Funktionen für Netzwerkadresstypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Funktionen zur Bearbeitung von Sequenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konditionale Ausdrücke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.12.1 CASE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.12.2 COALESCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.12.3 NULLIF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Diverse Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

135
135 136 137 140 145 146 147 147 148 151 156 158 161 161 162 164 166 167 169 169 170 171 171

9.7 9.8

9.9 9.10 9.11 9.12

9.13

8

Inhaltsverzeichnis

9.14 Aggregatfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.15 Ausdrücke mit Unteranfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.15.1 EXISTS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.15.2 IN (skalare Form) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.15.3 IN (Unteranfrageform) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.15.4 NOT IN (skalare Form) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.15.5 NOT IN (Unteranfrageform) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.15.6 ANY/SOME . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.15.7 ALL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.15.8 Zeilenweiser Vergleich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

175 176 176 177 177 178 178 179 179 180

Kapitel 10: Typumwandlung
10.1 10.2 10.3 10.4 10.5 Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wertspeicherung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . UNION- und CASE-Konstruktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

181
181 183 185 188 189

Kapitel 11: Indexe
11.1 11.2 11.3 11.4 11.5 11.6 11.7 11.8 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Indextypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mehrspaltige Indexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Indexe für Unique Constraints . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Funktionsindexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Operatorklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Partielle Indexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Indexverwendung überprüfen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

191
191 192 193 194 194 195 195 198

Kapitel 12: Konsistenzkontrolle im Mehrbenutzerbetrieb
12.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2 Transaktionsisolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2.1 Der Isolationsgrad Read Committed . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2.2 Der Isolationsgrad Serializable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3 Ausdrückliche Sperren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3.1 Tabellensperren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3.2 Zeilensperren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3.3 Verklemmungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.4 Konsistenzkontrolle auf der Anwendungsseite . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.5 Sperren und Indexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

201
201 201 202 203 204 204 206 206 206 208

Kapitel 13: Tipps zur Leistungsverbesserung
13.1 13.2 13.3 13.4 EXPLAIN verwenden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vom Planer verwendete Statistiken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Den Planer mit expliziten JOIN-Klauseln kontrollieren . . . . . . . . . . . . . . . . . . . Eine Datenbank füllen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

209
209 213 215 217

9

Inhaltsverzeichnis

13.4.1 13.4.2 13.4.3 13.4.4

Autocommit ausschalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . COPY FROM verwenden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Indexe entfernen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Danach ANALYZE ausführen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

217 217 217 217

Teil III

Server-Administration

219 221
221 221 224 224 225 231 231 232 232

Kapitel 14: Installationsanweisungen
14.1 14.2 14.3 14.4 14.5 14.6 Kurzversion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Voraussetzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Quellen erhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wenn Sie eine alte Version aktualisieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installationsvorgang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Einrichtung nach der Installation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.6.1 Dynamische Bibliotheken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.6.2 Umgebungsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.7 Unterstützte Plattformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Kapitel 15: Installation auf Windows Kapitel 16: Laufzeitverhalten des Servers
16.1 Der PostgreSQL-Benutzerzugang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.2 Einen Datenbankcluster erzeugen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.3 Den Datenbankserver starten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.3.1 Fehler beim Starten des Servers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.3.2 Probleme bei Client-Verbindungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.4 Laufzeit-Konfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.4.1 Planer- und Optimierereinstellungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.4.2 Log- und Debug-Ausgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.4.3 Allgemeine Operation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.4.4 WAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.4.5 Kurze Optionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.5 Verwaltung von Kernelressourcen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.5.1 Shared Memory und Semaphore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.5.2 Ressourcenbegrenzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.6 Den Server herunterfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.7 Sichere TCP/IP-Verbindungen mit SSL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.8 Sichere TCP/IP-Verbindungen mit SSH-Tunneln . . . . . . . . . . . . . . . . . . . . . . . .

237 239
239 239 241 242 243 244 245 247 250 256 257 258 258 262 263 264 265

Kapitel 17: Datenbankbenutzer und Privilegien
17.1 17.2 17.3 17.4 Datenbankbenutzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Benutzerattribute . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Privilegien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

267
267 268 269 269

10

Inhaltsverzeichnis

17.5 Funktionen und Trigger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

270

Kapitel 18: Datenbanken verwalten
18.1 18.2 18.3 18.4 18.5 18.6 Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eine Datenbank erzeugen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Template-Datenbanken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Datenbankkonfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Alternativer Speicherplatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eine Datenbank zerstören . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

271
271 272 273 274 274 275

Kapitel 19: Clientauthentifizierung
19.1 Die Datei pg_hba.conf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.2 Authentifizierungsmethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.2.1 Freier Zugang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.2.2 Passwort-Authentifizierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.2.3 Kerberos-Authentifizierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.2.4 Ident-Authentifizierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.2.5 PAM-Authentifizierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.3 Authentifizierungsprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

277
277 282 282 282 283 283 285 285

Kapitel 20: Lokalisierung
20.1 Locale-Unterstützung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20.1.1 Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20.1.2 Nutzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20.1.3 Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20.2 Zeichensatz-Unterstützung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20.2.1 Unterstützte Zeichensätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20.2.2 Den Zeichensatz einstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20.2.3 Automatische Zeichensatzkonvertierung zwischen Client und Server . . . 20.2.4 Weitere Informationsquellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20.3 Einbyte-Zeichensatz-Konvertierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

287
287 287 289 289 289 290 291 292 294 294

Kapitel 21: Routinemäßige Datenbankwartungsaufgaben
21.1 Routinemäßiges Vacuum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.1.1 Speicherplatz wiedergewinnen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.1.2 Planerstatistiken aktualisieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.1.3 Transaktionsnummernüberlauf verhindern . . . . . . . . . . . . . . . . . . . . . . . . 21.2 Routinemäßiges Reindizieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.3 Logdateiverwaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

295
295 296 296 297 299 299

Kapitel 22: Datensicherung und wiederherstellung
22.1 SQL-Dump . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.1.1 Den Dump wiederherstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

301
301 302

11

Inhaltsverzeichnis

22.1.2 pg_dumpall verwenden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.1.3 Große Datenbanken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.1.4 Vorbehalte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.2 Archivierung auf Dateisystemebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.3 Umstieg zwischen PostgreSQL-Versionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

302 303 303 304 304

Kapitel 23: Überwachung der Datenbankaktivität
23.1 Unix-Standardwerkzeuge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23.2 Der Statistikkollektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23.2.1 Konfiguration des Statistikkollektors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23.2.2 Ansehen der gesammelten Statistiken . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23.3 Ansehen der Sperren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

307
307 308 308 309 312

Kapitel 24: Überwachung des Festplattenplatzverbrauchs
24.1 Ermittlung des Festplattenplatzverbrauchs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24.2 Verhalten bei voller Festplatte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

315
315 316

Kapitel 25: Write-Ahead Logging (WAL)
25.1 25.2 25.3 25.4 Nutzen aus WAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zukünfiger Nutzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . WAL-Konfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Interna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

317
317 318 318 320

Kapitel 26: Regressionstests
26.1 Die Tests ausführen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26.2 Testauswertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26.2.1 Unterschiede bei Fehlermeldungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26.2.2 Unterschiede durch Locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26.2.3 Unterschiede bei Datum und Zeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26.2.4 Unterschiede bei Fließkommaberechnungen . . . . . . . . . . . . . . . . . . . . . . 26.2.5 Unterschiede bei Polygonen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26.2.6 Unterschiede bei der Zeilenreihenfolge . . . . . . . . . . . . . . . . . . . . . . . . . . 26.2.7 Der Test random . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26.3 Plattformspezifische Vergleichsdateien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

321
321 322 323 323 323 324 324 324 325 325

Teil IV

Client-Schnittstellen

327 329
329 337 337 339 339 340

Kapitel 27: libpq: Die C-Bibliothek
27.1 Funktionen zur Datenbankverbindung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27.2 Funktionen zur Ausführung von Befehlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27.2.1 Hauptfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27.2.2 Zeichenketten für SQL-Befehle vorbereiten . . . . . . . . . . . . . . . . . . . . . . . 27.2.3 Binäre Daten für SQL-Befehle vorbereiten . . . . . . . . . . . . . . . . . . . . . . . . 27.2.4 Ermittlung von Informationen über Anfrageergebnisse . . . . . . . . . . . . . .

12

Inhaltsverzeichnis

27.2.5 Auslesen von Anfrageergebnissen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27.2.6 Ermittlung von Ergebnissen anderer Befehle . . . . . . . . . . . . . . . . . . . . . . 27.3 Asynchrone Befehlsverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27.4 Die Fastpath-Schnittstelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27.5 Asynchrone Benachrichtigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27.6 Funktionen für den COPY-Befehl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27.7 Funktionen zur Nachverfolgung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27.8 Verarbeitung von Hinweismeldungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27.9 Umgebungsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27.10Die Passwortdatei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27.11Thread-Verhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27.12libpq-Programme bauen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27.13Beispielprogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

341 343 343 346 347 348 350 350 351 352 352 353 354

Kapitel 28: Large Objects
28.1 Geschichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28.2 Implementierungsmerkmale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28.3 Clientschnittstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28.3.1 Ein Large Object erzeugen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28.3.2 Ein Large Object importieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28.3.3 Ein Large Object exportieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28.3.4 Ein bestehendes Large Object öffnen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28.3.5 Daten in ein Large Object schreiben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28.3.6 Daten aus einem Large Object lesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28.3.7 In einem Large Object suchen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28.3.8 Die aktuelle Schreibposition eines Large Object ermitteln . . . . . . . . . . . . 28.3.9 Einen Large-Object-Deskriptor schließen . . . . . . . . . . . . . . . . . . . . . . . . . 28.3.10Ein Large Object entfernen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28.4 Serverseitige Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28.5 Beispielprogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

365
365 366 366 366 366 367 367 367 367 367 368 368 368 368 369

Kapitel 29: pgtcl: Die Tcl-Bindungsbibliothek
29.1 29.2 29.3 29.4 Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pgtcl in eine Anwendung laden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pgtcl-Befehlsreferenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Beispielprogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

375
375 376 376 393

Kapitel 30: ECPG: Eingebettetes SQL in C
30.1 30.2 30.3 30.4 30.5 30.6 30.7 Das Konzept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zum Datenbankserver verbinden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eine Verbindung schließen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . SQL-Befehle ausführen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Daten übergeben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fehlerbehandlung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dateien einbinden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

395
395 396 396 396 397 398 401

13

Inhaltsverzeichnis

30.8 Eingebettete SQL-Programme verarbeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30.9 Bibliotheksfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30.10Interna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

402 403 403

Kapitel 31: Die JDBC-Schnittstelle
31.1 Einrichtung des JDBC-Treibers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.1.1 Den Treiber besorgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.1.2 Den Klassenpfad einrichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.1.3 Den Datenbankserver auf JDBC vorbereiten . . . . . . . . . . . . . . . . . . . . . . 31.2 Initialisierung des Treibers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2.1 JDBC importieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2.2 Den Treiber laden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2.3 Mit der Datenbank verbinden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2.4 Die Verbindung schließen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.3 Ausführung von Anfragen und Verarbeitung der Ergebnisse . . . . . . . . . . . . . . . 31.3.1 Verwendung der Interfaces Statement oder PreparedStatement . . . . . . . 31.3.2 Verwenden des Interface ResultSet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.4 Ausführung von Aktualisierungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.5 Erzeugung und Modifizierung von Datenbankobjekten . . . . . . . . . . . . . . . . . . . . 31.6 Speicherung binärer Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.7 Verwendung des Treibers in einer Multithread- oder Servlet-Umgebung . . . . . . 31.8 Verbindungspools und Data Sources . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.8.1 Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.8.2 Anwendungsserver: ConnectionPoolDataSource . . . . . . . . . . . . . . . . . . . 31.8.3 Anwendungen: DataSource . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.8.4 Data Sources und JNDI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.9 Weitere Informationsquellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

405
405 405 405 406 406 406 406 407 408 408 409 409 409 410 410 413 414 414 414 415 417 418

Kapitel 32: PyGreSQL: Die Python-Schnittstelle
32.1 32.2 32.3 32.4 32.5 32.6 Das pg-Modul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Funktionen im pg-Modul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verbindungsobjekt: pgobject . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Datenbank-Wrapper-Klasse: DB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Anfrageergebnisobjekt: pgqueryobject . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Large Object: pglarge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

419
419 420 428 437 444 448

Teil V

Server-Programmierung

457 459
459 460 460 460 461

Kapitel 33: SQL erweitern
33.1 33.2 33.3 33.4 Wie die Erweiterbarkeit funktioniert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Das PostgreSQL-Typensystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Benutzerdefinierte Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . SQL-Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.4.1 SQL-Funktionen mit Basistypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

14

Inhaltsverzeichnis

33.4.2 SQL-Funktionen mit zusammengesetzten Typen . . . . . . . . . . . . . . . . . . . 33.4.3 SQL-Funktionen als Tabellenquelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.4.4 SQL-Funktionen mit Mengenergebnissen . . . . . . . . . . . . . . . . . . . . . . . . . 33.5 Funktionen in prozeduralen Sprachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.6 Interne Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.7 C-Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.7.1 Dynamisches Laden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.7.2 Basistypen in C-Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.7.3 Aufrufskonvention Version 0 für C-Funktionen . . . . . . . . . . . . . . . . . . . . 33.7.4 Aufrufskonvention Version 1 für C-Funktionen . . . . . . . . . . . . . . . . . . . . 33.7.5 Code schreiben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.7.6 Kompilieren und Linken von dynamisch ladbaren Funktionen . . . . . . . . 33.7.7 Argumente aus zusammengesetzten Typen in C-Funktionen . . . . . . . . . . 33.7.8 Rückgabe von Zeilen (zusammengesetzten Typen) aus C-Funktionen . . 33.7.9 Rückgabe von Ergebnismengen aus C-Funktionen . . . . . . . . . . . . . . . . . 33.8 Funktionen überladen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.9 Handler für prozedurale Sprachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.10Benutzerdefinierte Datentypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.11Benutzerdefinierte Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.12Operator-Optimierungsinformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.12.1COMMUTATOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.12.2NEGATOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.12.3RESTRICT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.12.4JOIN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.12.5HASHES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.12.6MERGES (SORT1, SORT2, LTCMP, GTCMP) . . . . . . . . . . . . . . . . . . . 33.13Benutzerdefinierte Aggregatfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.14Erweiterungen für Indexe vorbereiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.14.1Indexmethoden und Operatorklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.14.2Indexmethodenstrategien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.14.3Indexmethoden-Unterstützungsroutinen . . . . . . . . . . . . . . . . . . . . . . . . . . 33.14.4Ein Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.14.5Optionale Merkmale von Operatorklassen . . . . . . . . . . . . . . . . . . . . . . . .

462 464 465 466 466 467 467 468 471 473 476 477 480 481 483 488 489 491 493 494 494 495 495 496 497 497 498 500 500 501 502 503 505

Kapitel 34: Server Programming Interface
34.1 34.2 34.3 34.4 Schnittstellenfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Schnittstellenunterstützungsfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Speicherverwaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sichtbarkeit von Datenveränderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

507
508 518 523 531

Kapitel 35: Trigger
35.1 35.2 35.3 35.4 Triggerdefinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Umgang mit dem Triggermanager . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sichtbarkeit von Datenveränderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ein vollständiges Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

535
535 536 538 539

15

Inhaltsverzeichnis

Kapitel 36: Das Regelsystem
36.1 Der Anfragebaum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36.2 Sichten und das Regelsystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36.2.1 Wie SELECT-Regeln funktionieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36.2.2 Sichtregeln in Nicht-SELECT-Befehlen . . . . . . . . . . . . . . . . . . . . . . . . . . . 36.2.3 Die Leistungsfähigkeit von Sichten in PostgreSQL . . . . . . . . . . . . . . . . . . 36.2.4 Sichten aktualisieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36.3 Regeln für INSERT, UPDATE und DELETE . . . . . . . . . . . . . . . . . . . . . . . . . . . 36.3.1 Wie Update-Regeln funktionieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36.3.2 Zusammenarbeit mit Sichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36.4 Regeln und Privilegien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36.5 Regeln und der Befehlsstatus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36.6 Regeln und Trigger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

543
543 545 545 551 552 552 552 553 557 564 565 565

Kapitel 37: Prozedurale Sprachen
37.1 Installation von prozeduralen Sprachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

569
569

Kapitel 38: PL/pgSQL: SQL prozedurale Sprache
38.1 Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.1.1 Vorteile von PL/pgSQL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.1.2 Entwickeln in PL/pgSQL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.2 Umgang mit Apostrophen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.3 Die Struktur von PL/pgSQL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.4 Deklarationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.4.1 Aliasnamen für Funktionsparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.4.2 Typen kopieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.4.3 Zeilentypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.4.4 Record-Variablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.5 Ausdrücke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.6 Einfache Anweisungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.6.1 Zuweisungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.6.2 SELECT INTO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.6.3 Einen Ausdruck oder eine Anfrage ohne Ergebnis ausführen . . . . . . . . . 38.6.4 Dynamische Befehle ausführen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.6.5 Ergebnisstatus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.7 Kontrollstrukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.7.1 Aus einer Funktion zurückkehren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.7.2 Auswahlanweisungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.7.3 Einfache Schleifen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.7.4 Schleifen durch Anfrageergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.8 Cursor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.8.1 Cursorvariablen deklarieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.8.2 Cursor öffnen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.8.3 Cursor verwenden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.9 Fehler und Meldungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

571
571 572 572 573 574 575 576 577 577 578 578 579 579 580 581 581 582 583 583 584 586 588 589 590 590 591 593

16

Inhaltsverzeichnis

38.10Triggerprozeduren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.11Portieren von Oracle PL/SQL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.11.1Portierungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.11.2Andere zu beachtende Dinge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38.11.3Anhang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

594 595 596 601 602

Kapitel 39: PL/Tcl: Tcl prozedurale Sprache
39.1 39.2 39.3 39.4 39.5 39.6 39.7 39.8 Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . PL/Tcl-Funktionen und Argumente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Datenwerte in PL/Tcl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Globale Daten in PL/Tcl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Datenbankzugriff aus PL/Tcl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Triggerprozeduren in PL/Tcl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Module und der Befehl unknown . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tcl-Prozedurnamen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

605
605 606 607 607 607 610 611 612

Kapitel 40: PL/Perl: Perl prozedurale Sprache
40.1 40.2 40.3 40.4 40.5 PL/Perl-Funktionen und Argumente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Datenwerte in PL/Perl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Datenbankzugriff aus PL/Perl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Trusted und Untrusted PL/Perl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fehlende Funktionalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

613
613 615 615 615 616

Kapitel 41: PL/Python: Python prozedurale Sprache
41.1 41.2 41.3 41.4 PL/Python-Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Triggerfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Datenbankzugriff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eingeschränkte Umgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

617
617 618 618 619

Teil VI

Referenz
I. SQL-Befehle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II. PostgreSQL-Clientanwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III. PostgreSQL-Serveranwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

621
625 786 843

Teil VII

Anhänge

861 863
863 864 869

Anhang A: Interna der Datums- und Zeitunterstützung
A.1 Eingabeinterpretation von Datum und Zeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.2 Schlüsselwörter in Datums- und Zeitangaben . . . . . . . . . . . . . . . . . . . . . . . . . . . A.3 Geschichte der Kalendersysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

17

Inhaltsverzeichnis

Anhang B: SQL-Schlüsselwörter Anhang C: SQL-Konformität
C.1 Unterstützte Leistungsmerkmale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . C.2 Nicht unterstützte Leistungsmerkmale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

871 887
888 894

Anhang D: Versionsgeschichte
D.1 Version 7.3.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.1.1 Umstieg auf Version 7.3.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.1.2 Änderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.2 Version 7.3.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.2.1 Umstieg auf Version 7.3.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.2.2 Änderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.3 Version 7.3.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.3.1 Umstieg auf Version 7.3.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.3.2 Änderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.4 Version 7.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.4.1 Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.4.2 Umstieg auf Version 7.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.4.3 Änderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.5 Version 7.2.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.6 Version 7.2.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.7 Version 7.2.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.8 Version 7.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.8.1 Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.8.2 Umstieg auf Version 7.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.9 Version 7.1.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.10 Version 7.1.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.11 Version 7.1.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.12 Version 7.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.13 Version 7.0.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.14 Version 7.0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.15 Version 7.0.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.16 Version 7.0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.16.1 Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.16.2 Umstieg auf Version 7.0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.17 Version 6.5.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.18 Version 6.5.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.19 Version 6.5.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.20 Version 6.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.20.1 Umstieg auf Version 6.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.21 Version 6.4.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.22 Version 6.4.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.23 Version 6.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.24 Version 6.3.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

901
901 901 901 903 903 903 904 904 904 905 905 906 906 914 914 914 914 914 915 915 915 916 916 917 917 917 917 917 918 918 918 918 919 920 920 921 921 921

18

Inhaltsverzeichnis

D.25 D.26 D.27 D.28 D.29 D.30 D.31

Version 6.3.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Version 6.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Version 6.2.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Version 6.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Version 6.1.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Version 6.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Version 6.0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

922 922 922 922 922 923 923

Anhang E: Systemkataloge
E.1 E.2 E.3 E.4 E.5 E.6 E.7 E.8 E.9 E.10 E.11 E.12 E.13 E.14 E.15 E.16 E.17 E.18 E.19 E.20 E.21 E.22 E.23 E.24 E.25 E.26 E.27 E.28 E.29 Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_aggregate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_am . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_amop . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_amproc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_attrdef . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_attribute . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_cast . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_class . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_constraint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_conversion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_database . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_depend . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_group . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_inherits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_language . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_largeobject . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_listener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_namespace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_opclass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_operator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_proc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_rewrite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_shadow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_statistic . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_trigger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pg_type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

925
925 926 927 928 928 929 929 930 931 932 933 934 935 936 936 936 937 938 938 939 939 939 940 941 942 942 943 944 945

Literaturverzeichnis

949
19

VAKAT VAKAT .

❏ Teil VI enthält Informationen über die Syntax von SQL-Befehlen. ❏ Teil IV beschreibt die Programmierschnittstellen für PostgreSQL-Clientprogramme. die der Leser zu unterschiedlichen Zeiten zurate ziehen wird: ist eine informelle Einführung für neue Anwender. ist dieses Buch in mehrere Teile aufgeteilt. Es unterstützt SQL92 und SQL99 und bietet viele moderne Fähigkeiten: ❏ ❏ ❏ ❏ ❏ ❏ komplexe Anfragen Fremdschlüssel Trigger Sichten transaktionale Integrität Multiversionskontrolle 21 . Themen sind zum Beispiel benutzerdefinierte Datentypen und Funktionen. ❏ Teil III beschreibt die Installation und Verwaltung des Servers. Dieser Teil unterstützt die anderen Teile mit nach Befehl oder Programm sortierten strukturierten Informationen. Es wird parallel zur Entwicklung der PostgreSQL-Software von den Entwicklern und anderen Freiwilligen geschrieben und aktualisiert. Client. Um bei diesem umfassenden Anspruch übersichtlich zu bleiben. ❏ Teil I ❏ Teil II Was ist PostgreSQL? PostgreSQL ist ein objektrelationales Datenbankverwaltungssystem auf Basis von POSTGRES. Datentypen. POSTGRES hat viele Konzepte eingeführt. Funktionen und Tipps zur Leistungsverbesserung auf Benutzerebene. Jeder. Version 4. Es beschreibt sämtliche Funktionalität. sollte diesen Teil lesen.und Serverprogrammen. ❏ Teil V enthält Informationen für fortgeschrittene Benutzer über die Erweiterungsfähigkeiten des Servers. der einen PostgreSQL-Server betreibt. Jeder PostgreSQL-Benutzer sollte diesen Teil lesen. beschreibt die Sprache SQL. die erst später in einigen kommerziellen Datenbanken zur Verfügung standen. welches in der Informatikfakultät der Universität von Kalifornien in Berkeley entwickelt wurde. die die vorliegende PostgreSQL-Version offiziell unterstützt. egal ob nur für sich selbst oder für andere.Einleitung Dieses Buch ist die offizielle Dokumentation von PostgreSQL. PostgreSQL ist ein Open-Source-Nachfolger dieses Codes von Berkeley.2.

um seinen eigenen Weg als Open-Source-Nachfolger des ursprünglichen POSTGRES-Codes zu finden. Hong 1987 beschrieben. Es wurde zunehmend klar. beschrieben in Stonebraker. zum Beispiel mit ❏ ❏ ❏ ❏ ❏ ❏ Datentypen Funktionen Operatoren Aggregatfunktionen Indexmethoden prozeduralen Sprachen Und wegen der liberalen Lizenz kann PostgreSQL von allen kostenlos für alle Zwecke. benutzt. Unter neuem Namen wurde Postgres95 im Web freigegeben. Schließlich hat Illustra Information Technologies (später fusioniert mit Informix. Goh 1990) und im Juni 1990 wurde Version 2 mit dem neuen Regelsystem freigegeben. Um diese Last zu verringern wurde das POSTGRES-Projekt in Berkeley mit Version 4. eine Datenbank zur Verfolgung von Asteroiden und eine medizinische Informationsdatenbank. wurde im Juni 1989 einigen externen Benutzern zugänglich gemacht. Jhingran. Die Architektur des Storagemanagers wurde in Stonebraker 1987 beschrieben.und Produktionsanwendungen verwendet. Inc. Version 1. Im Verlauf des Jahres 1993 hatte sich die Größe der externen Benutzergemeinde nahezu verdoppelt. Version 3 erschien 1991 mit Unterstützung für mehrere Storagemanager. wurde gesponsert von der Defense Advanced Research Projects Agency (DARPA). geschäftlich oder akademisch. Als Reaktion auf eine Kritik des ersten Regelsystems (Stonebraker. dem Army Research Office (ARO). 22 . Seitdem hat POSTGRES mehrere Hauptversionen erlebt. ein Paket zur Überwachung der Leistung von Düsentriebwerken.Einleitung Außerdem ist PostgreSQL auf einzigartige Weise vom Benutzer erweiterbar. POSTGRES wurde für die Implementierung von vielen verschiedenen Forschungs. ob privat. Nach mehr als einem Jahrzehnt Entwicklungsarbeit ist es jetzt das fortschrittlichste Open-Source-Datenbanksystem. was jetzt zu IBM gehört) den Code genommen und kommerzialisiert. Der Entwurf des Regelsystems zu dieser Zeit wurde in Stonebraker. verändert und weitergegeben werden. Rowe. Die anfänglichen Konzepte wurden in Stonebraker & Rowe 1986 vorgestellt und die Definition des Datenmodells erschien in Rowe & Stonebraker 1987. die eigentlich der Datenbankforschung gewidmet werden sollte. Postgres95 Im Jahr 1994 bauten Andrew Yu und Jolly Chen einen SQL-Interpreter in POSTGRES ein. Hirohama 1990. Das POSTGRES-Projekt in Berkeley Das POSTGRES-Projekt. Die Implementierung von POSTGRES begann 1986. der National Science Foundation (NSF) und ESL. Im Jahr 1992 wurde POSTGRES der primäre Datenmanager des wissenschaftlichen Computing-Projekts Sequoia 2000. dass die Wartung des Prototypcodes und der Support eine Menge Zeit in Anspruch nahmen. Unter anderem: ein System zur Analyse von finanziellen Daten. unter Anleitung von Professor Michael Stonebraker. Potamianos 1989) wurde das Regelsystem neu entworfen (Stonebraker. POSTGRES wurde auch als Lehrwerkzeug an mehreren Universitäten verwendet. einem verbesserten Anfrage-Executor und einem neu geschriebenen Umschreiberegelsystem. Die kurze Geschichte von PostgreSQL Das heutzutage als PostgreSQL bekannte objektrelationale Datenbankverwaltungssystem stammt vom POSTGRES-Paket der Universität von Kalifornien in Berkeley ab. Das erste „Demoware“-System war 1987 einsatzbereit und wurde 1988 auf der ACM-SIGMOD-Konferenz gezeigt. Hanson.2 offiziell eingestellt. Hearst. Die folgenden Versionen bis Postgres95 (siehe unten) haben sich dann hauptsächlich auf Portierbarkeit und Zuverlässigkeit konzentriert.

Version 4. Insbesondere wurde die alte Aufteilung der PostgreSQL-Dokumentation in mehrere Bände aufgegeben. Unteranfragen wurden erst in PostgreSQL (siehe unten) unterstützt. Die Kapitel wurden methodisch sinnvoller angeordnet und ganze Abschnitte umgeschrieben. Sämtliche Änderungen sind auch in die Originalversion der PostgreSQL-Dokumentation eingeflossen und werden in der nächsten öffentlichen PostgreSQL-Version enthalten sein. ausgewählt. (Dieses Buch hat also diesbezüglich gewissermaßen Weltpremierencharakter.0. welches GNU Readline verwendete. Außerdem konnte Postgres95 mit einem ungepatchten GCC kompiliert werden (Datenausrichtung von double-Werten wurde repariert). Postgres95 Version 1. wodurch die Nummern die in Berkeley begonnene Reihe fortsetzten.0 gesetzt.Einleitung Der Postgres95-Code war komplett in ANSI C und die Größe wurde um 25 % reduziert. Was sich seither in PostgreSQL im Einzelnen getan hat. Viele interne Veränderungen haben die Leistung und die Wartungsfreundlichkeit des Codes verbessert. Außerdem wurde aus Platzgründen die Versionsgeschichte bei den älteren Versionen etwas gekürzt. weil diese Informationen nur für Entwickler von PostgreSQL selbst sinnvoll sind. und dann auch nur. pgtclsh. Neben berichtigten Fehlern waren dies die bedeutenden Verbesserungen: ❏ Die Anfragesprache PostQUEL wurde durch SQL ersetzt (im Server implementiert). wenn die Informationen aus der aktuellsten Entwicklerversion verwendet werden. Also haben wir einen neuen Namen. ❏ GNU Make (anstatt BSD Make) wurde für die Compilierung verwendet. unterstützte Clients auf Tcl-Basis. Die Inversion-Large-Objects waren jetzt der einzige Mechanismus für Large Objects. ❏ Die Large-Object-Schnittstelle wurde überholt. obwohl die Arbeit in allen Bereichen weiterging. (Das Inversion-Dateisystem wurde entfernt. der das Verhältnis zwischen dem ursprünglichen POSTGRES und den neueren Versionen mit SQL-Unterstützung widerspiegelt. Allerdings ist die Dokumentation für diese Buchausgabe vollständig überarbeitet worden.) ❏ Das Regelnsystem auf Instanzebene wurde entfernt. Unterstützung für die Anfrageklausel GROUP BY wurde ebenfalls hinzugefügt. Mit PostgreSQL verschob sich die Konzentration auf neue Features und Fähigkeiten. Eine Beispiel-Shell. Regeln waren immer noch als Umschreiberegeln verfügbar. um von Tcl-Programmen aus auf den Postgres95-Server zugreifen zu können.2. Während der Entwicklung von Postgres95 lag die Betonung auf dem Verstehen von bestehenden Problemen in Servercode. Das Stichwortverzeichnis wurde erheblich erweitert. dass der Name „Postgres95“ dem Test der Zeit nicht standhalten würde. libpgtcl. Über diese Ausgabe Diese Buchausgabe hat die Dokumentation von PostgreSQL Version zur Grundlage. 23 . Gleichzeitig wurde die Versionsnummer auf 6. ❏ Ein kurzes Tutorial mit einer Einführung in SQL und Postgres95 wurde mit dem Quellcode verteilt. bot neue Tcl-Befehle. Und natürlich wurden sämtliche Fakten noch einmal überprüft. aber sie konnten in Postgres95 mit benutzerdefinierten SQL-Funktionen nachgeahmt werden. ❏ Neben dem „Monitor“-Programm wurde ein neues Programm (psql) für interaktive SQL-Anfragen angeboten.x war in der Wisconsin Benchmark etwa 30–50% schneller als POSTGRES.) Weggelassen wurden in dieser Ausgabe nur einige Kapitel aus dem Interna-Teil. PostgreSQL Im Jahre 1996 wurde klar. ❏ Eine neue Clientbibliothek. Aggregatfunktionen wurden neu implementiert. können Sie in Anhang D sehen. PostgreSQL.

Lesen Sie die Mailinglisten und beantworten Sie Fragen. (In der Synopsis eines Tcl-Befehls werden stattdessen Fragezeichen (?) verwendet. dass Sie an dieser Stelle einen konkreten Wert anstelle des Platzhalters einsetzen müssen. Fremdwörter (die nicht als Fachwörter übernommen wurden) und sonstige wichtige Stellen werden kursiv hervorgehoben. 24 . Wenn es der Klarheit dient. In der Synopsis eines Befehls werden folgende Konventionen verwendet: Eckige Klammern ([ und ]) zeigen optionale Teile an. Im Übrigen ist in diesem Buch jeder ein Benutzer.) Geschweifte Klammern ({ und }) und senkrechte Striche (|) bedeuten. Wenn Sie Erfahrungen gesammelt haben.) bedeuten. Wenn Sie den Code erweitern. PostgreSQL zu verwenden. In der Regel werden die Eingabeaufforderungen aber nicht mit angegeben. Programmcode und Bildschirmausgaben. dass das vorherige Element wiederholt werden kann. Wenn Sie anfangen. wo Sie Antworten auf Ihre Fragen erhalten. Einzelheiten dazu erfahren Sie auf der PostgreSQL-Website.. Einrichtung und Überwachung des Servers verantwortlich ist. Diese Begriffe sollten aber nicht zu eng gesehen werden. Ihre Erfahrungen mit anderen teilen oder mit den Entwicklern in Verbindung treten können.Einleitung Konventionen Dieses Buch verwendet folgende typografische Konventionen. dass sich die Benutzer gegenseitig unterstützen. Ein Administrator ist im Allgemeinen die Person. Website Die PostgreSQL-Website enthält Einzelheiten über neue Versionen und andere Informationen. das in der Dokumentation unzureichend erklärt wird. werden Sie die Hilfe anderer benötigen. Alles. wenn sie gegenüber dem vorangegangenen Beispiel hinzugefügt oder verändert worden sind. dass Sie eine Alternative auswählen müssen. der irgendeinen Teil des PostgreSQL-Systems verwendet oder verwenden möchte. Innerhalb solcher Textteile bedeutet kursive Schrift (Beispiel). dann schicken Sie Patches an die Entwickler. Weitere Informationen Neben der Dokumentation. entweder durch die Dokumentation oder durch Mailinglisten. Mailinglisten Die Mailinglisten sind ein guter Ort. Wenn Sie etwas erfahren. die Ihre Arbeit oder Ihr Vergnügen mit PostgreSQL produktiver machen können. insbesondere Befehle. Gelegentlich werden Stellen in Programmcode durch fette Schrift (Beispiel) hervorgehoben. dann schreiben Sie darüber und schicken es ein. Daher baut es darauf. um bestimmte Textteile hervorzuheben: Neue Begriffe. die für die Installierung. dann steht vor SQL-Befehlen die Eingabeaufforderung => und vor ShellBefehlen $. denn dieses Buch macht keine Annahmen über die Systemverwaltungsprozeduren. READMEs Für einige Extrapakete gibt es README-Dateien im Quellcodebaum. Sie selbst! PostgreSQL ist ein Open-Source-Projekt. wie es bei Tcl üblich ist. wird in einer nicht proportionalen Schrift dargestellt (Beispiel). Punkte (. dann sollten Sie diese wiederum mit anderen teilen. das heißt diesem Buch. gibt es weitere Informationsquellen über PostgreSQL: FAQ Die FAQ-Liste enthält laufend aktualisierte Antworten auf häufig gestellte Fragen. was eine Eingabe in oder eine Ausgabe aus dem Computer darstellt..

es sei denn. die auf ein Problem im Programm hindeutet.oder Fehlermeldung. dann ist das nicht unbedingt ein Fehler. ist aber nicht abschließend. das ist nämlich ein Fehler in der Dokumentation. als die Dokumentation aussagt. Hier bezieht sich “Programm” auf jedes Programm. wirklich zulässig ist. Mangelhafte Konformität mit dem SQL-Standard ist auch kein Fehler. Was berichtet werden sollte Am wichtigsten ist es bei einem Fehlerbericht. ob der Fehler dort auch auftritt. Wir können Ihnen nicht versprechen. weil selbst die größte Sorgfalt nicht garantieren kann. Es könnte auch sein. gebaut oder installiert werden. Niemand ist verpflichtet. um zu sehen. eine neuere Version auszuprobieren und festzustellen. dann ist das ein Fehler.Einleitung Richtlinien für Fehlerberichte Wenn Sie einen Fehler in PostgreSQL finden.) ❏ Ein Programm erzeugt die falsche Ausgabe für irgendeine Eingabe. Wenn Sie die Informationen auf der TODO-Liste nicht entziffern können. die Konformität wurde in einem bestimmten Bereich ausdrücklich angegeben. aber es ist meist für alle Seiten von Vorteil. (Ein Gegenbeispiel wäre eine Meldung. Vermutungen darüber anzustellen. weil Sie das Problem selber lösen müssen. Bevor Sie weitermachen. dass sich jemand die Sache anschauen wird. dass Ihre Vorstellung von ungültiger Eingabe unsere Vorstellung von einer Erweiterung oder Kompatibilität mit alten Gewohnheiten sein könnte. Lesen Sie die Dokumentation oder fragen Sie auf einer der Mailinglisten nach. Die folgenden Vorschläge sollen Ihnen dabei helfen. Wenn es aus der Dokumentation nicht klar hervorgeht. dass die Festplatte voll ist. die effektiv bearbeitet werden können. geplantes Codeprojekt abgeschlossen ist. Oder es ist einfach zu kompliziert und es gibt wichtigere Dinge auf der Tagesordnung. was Sie versucht haben. ❏ Ein Programm wird von einem Signal oder mit einer Fehlermeldung aus dem Betriebssystem. was wohl schiefgegangen ist oder was es “anscheinend” 25 . dass wir Ihnen sagen werden. Fehlerberichte zusammenzustellen. dann sollten Sie das auch berichten. nicht nur auf den Server. wenn ein größeres. dass Sie alle Fakten und nur Fakten angeben. lesen Sie bitte die Dokumentation gründlich. Oder wir könnten zu dem Schluss kommen. dass jeder Teil von PostgreSQL unter allen Umständen und auf jeder Plattform funktioniert. Ihre Fehlerberichte spielen eine wichtige Rolle bei der Entwicklung von PostgreSQL. Aber bedenken Sie. Wenn ein Programm zu langsam ist oder zu viele Ressourcen verbraucht. ob etwas zulässig ist. ob das. dann berichten Sie Ihr Problem trotzdem. jeden Fehler sofort zu reparieren. ❏ PostgreSQL kann nicht entsprechend den Installationsanweisungen auf einer unterstützten Plattform kompiliert. Wenn Sie sofort Hilfe benötigen. gültige Eingaben anzunehmen (wobei gültige Eingaben in der Dokumentation definiert sind). ob Ihr Fehler schon bekannt ist. Wenn der Fehler offensichtlich oder gefährlich ist oder viele Benutzer betrifft. dass der Fehler erst repariert werden kann. Fangen Sie nicht an. sich daran zu halten. Die folgende Liste enthält mögliche Fehlerumstände. dann sollten Sie kommerzielle Unterstützung suchen. ❏ Ein Programm akzeptiert ungültige Eingaben ohne Warn. dann wollen wir das wissen. dass ein Programm etwas anderes tut. abgebrochen. Fehler identifizieren Bevor Sie über einen Fehler berichten. Wenn es sich herausstellt. um Unterstützung bei der Feinabstimmung Ihrer Anwendungen zu erhalten. um zu überprüfen. prüfen Sie die “TODO”-Liste und die FAQ. dann stehen die Chancen gut. ❏ Ein Programm weigert sich. Zumindest könnten wir dann die TODO-Liste etwas klarer machen.

Wenn es eine Fehlermeldung gibt. ein einzelner SELECT-Befehl reicht nicht aus. dann wird Ihre Vermutung wahrscheinlich falsch sein und uns kein bisschen weiterhelfen. die genauen Eingabedateien mitzuschicken. die Größe Ihres Beispiels auf ein Minimum zu reduzieren. Sie sollten versuchen. Wenn der Fehler reproduzierbar ist. dann werden wir es vielleicht selbst probieren. dass es auf unseren Plattformen anders ausgeht. die problematischen Anfragen herauszufinden. einschließlich Umgebungsvariablen und Konfigurationsdateien. Wenn Sie einfach schreiben: “Dieser Befehl erzeugt diese Ausgabe. mit denen das Problem reproduziert werden kann. die die Datenbanksitzung abbrechen. Anmerkung Bei schweren Fehlern. Wenn Sie sich in der Implementierung nicht auskennen. ist ziemlich einfach (Sie können sie wahrscheinlich direkt vom Bildschirm kopieren). einfach nur zu sagen.) Eine einfache Möglichkeit.psqlrc haben. dann müssen Sie hierzu logischerweise nichts angeben. die Ausgabe kurz prüfen. um Ihr Problem zu entdecken. Wenn wir den Fehler berichtigen sollen. 26 .” oder “Oracle macht es anders. dass etwas “nicht funktioniert” oder “abgestürzt” ist. wenn möglich. die mit dem Clientprogramm psql ausgeführt werden kann und so das Problem aufzeigt. (Wenn Ihr Problem ein Programmabsturz ist. dann sollten Sie herausfinden.” Das richtige Verhalten aus dem SQL-Standard herauszusuchen. Wenn Ihre Anwendung eine andere Clientschnittstelle verwendet. weil jemand dachte.und INSERT-Befehle angeben. Die reinen Fakten zu berichten. Wir werden wahrscheinlich nicht erst einen Webserver einrichten. Das beste Format für ein Testbeispiel eines Problems. Sie sollten auch davon absehen. damit anzufangen. dann versuchen Sie bitte. Am einfachsten ist es. dann zeigen Sie den ebenfalls. Wir haben keine Zeit. dass sie nicht wichtig sind oder dass der Bericht trotzdem verstanden werden würde. die Ausgabe vom Terminal zu kopieren. Wenn gar nichts passiert. Wenn Sie eine Paketdistribution verwenden. ist mit pg_dump die Tabellendeklarationen und Daten in einer Datei zu speichern und dann die problematische Anfrage hinzuzufügen. könnte es sein. dass das Problem bei “großen Dateien” oder “mittelgroßen Datenbanken” auftritt. ist eine Datei. selbst wenn Sie sie nicht verstehen. Stellen Sie keine ungenauen Vermutungen an. dass wir die Bedeutung Ihrer Befehle entziffern werden. (Achten Sie darauf. wie all die anderen relationalen Datenbanken dieser Welt funktionieren. enthält die im Client sichtbare Fehlermeldung möglicherweise nicht alle verfügbaren Informationen. wenn die Ausgabe von Daten in einer Tabelle abhängig sein soll. wie das geschieht. Sie sollten nicht erwarten. dann müssen wir ihn erst selbst auftreten sehen.”. Diese Informationen sollten vollständig sein. Aber selbst wenn Sie sich auskennen. dass alles in Ordnung ist und dass wir es genau so erwartet hätten. etwa PHP.) ❏ Welche Kommandozeilenoptionen und andere Startparameter. dann sagen Sie das. Sie gegenüber der Standardeinstellung verändert haben. aber kein Ersatz für Fakten. ❏ Die Ausgabe. aber viel zu oft werden wichtige Einzelheiten weggelassen. Bitte schauen Sie auch in die Logausgabe des Datenbankservers. Selbst wenn das Ergebnis Ihres Testbeispiels ein Programmabsturz oder anderweitig offensichtlich ist. Seien Sie wiederum genau. dann werden wir das Problem wahrscheinlich nicht entdecken. dass Sie nichts in der Startdatei ~/. Ihr Datenbankschema zu erraten. Wenn Sie die Logausgabe des Servers nicht speichern. “Das stimmt nicht mit dem SQL-Standard überein. dann müssen Sie auch die vorangegangenen CREATE TABLE. so eine Datei zusammenzustellen. Schreiben Sie bitte nicht. und wenn wir unsere eigenen Daten erfinden sollen. und denken.” oder “Dieses Ergebnis habe ich nicht erwartet. dann sind wohl begründete Erklärungen eine großartige Ergänzung zu. ist ganz wichtig. ist nicht besonders unterhaltsam. die den Datenbankserver beim Booten startet. aber das ist nicht unbedingt nötig. weil solche Informationen nutzlos sind. ❏ Welche Ausgabe Sie erwartet haben. dann werden wir ihn so oder so finden. dann zeigen Sie sie. die Sie erhalten haben. das mit SQL zu tun hat. dann wäre dies eine gute Gelegenheit. Wenn das Programm mit einem Betriebssystemfehler abbricht. Die folgenden Elemente sollten in jedem Fehlerbericht enthalten sein: ❏ Die genaue Reihenfolge der Schritte vom Programmstart an. und wir wissen auch nicht.Einleitung gemacht hat oder welcher Teil des Programms einen Fehler hat. Denken Sie auf jeden Fall daran.

Sie sollten sich nicht scheuen. Das werden wir schon früh genug herausfinden. dann ist es vertretbar. mit dem Sie verbunden sind. Außerdem sind Clientprogramme wie “psql” vollkommen getrennt vom Server. Wenn Sie eine Paketdistribution verwenden. Mit dem Befehl SELECT version(). dann könnten wir eine Diskussion über das Problem auf pgsql-hackers aufnehmen. Es ist besser. zum Beispiel ein RPM-Paket. dann sagen Sie das und nicht einfach “PostgreSQL stürzt ab”. dass jeder weiß. deswegen bringen wir neue Versionen heraus.org. Diese Mailinglisten sind für die Beantwortung von Benutzerfragen. Wenn Sie einen Fehlerbericht schreiben. herauszufinden. Wenn Sie Installationsprobleme haben. dann ist Ihre Version mehr als alt und sollte unbedingt aktualisiert werden. Bitte geben Sie genau an. aber Sie sollten nicht davon ausgehen. Das ist halt so. Wenn die Funktion oder die Optionen nicht vorhanden sind. Wenn ein Bericht dort eingegeben wird. das Make-Programm usw. können Sie die Version des Servers herausfinden. dann sollten Sie Datum und Zeit dazu angeben. und die Leser wollen dort normalerweise keine Fehlerberichte erhalten. Das wird bei der Lösung wahrscheinlich nicht helfen. Wenn Ihr Problem einer ausführlicheren Prüfung bedarf. den Hersteller und die Version anzugeben.org senden. bitte schreiben Sie nicht “Der Postmaster ist abgestürzt”. zu raten. In den meisten Fällen reicht es aus. Wenn Sie einen CVS-Schnappschuss verwenden. manchmal auch kurz “Postgres”. Und noch einmal sei gesagt: Verschwenden Sie Ihre Zeit nicht damit. Wenn Sie konkret vom Serverprogramm sprechen.org geschickt. zumindest sollte postmaster --version und psql --version funktionieren. Bitte wählen Sie eine beschreibende Betreffzeile. wenn Ihr Fehlerbericht ziemlich lang wird. und auch nicht umgekehrt. Wenn es sich herausstellt. was in “Debian” enthalten ist oder dass jeder Pentiums verwendet. ob sich jemand die Sache ansehen will. eine neuere Version zu verwenden. C-Bibliothek. Prozessor und Speicherinformationen. dann wird er automatisch an die Mailingliste pgsqlbugs@postgresql.org oder pgsql-general@postgresql. warum der Fehler auftritt. Das bedeutet Kernelname und -version. Verschwenden Sie Ihre Zeit nicht damit. Eine weitere Möglichkeit ist das Ausfüllen des entsprechenden Web-Formulars auf der Projektwebsite . ❏ Plattforminformationen. Senden Sie bitte auch keine Fehlerberichte an die Entwickler-Mailingliste pgsql-hackers@postgresql. Und höchstwahrscheinlich werden die Leser die Fehler auch nicht berichtigen können. In jeder neuen Version werden eine Menge Fehler berichtigt. dann verwenden Sie bitte klare Terminologie.Einleitung ❏ Jegliche Abweichungen von den Installationsanweisungen. dass Sie erstmal nachfragen. ❏ Die PostgreSQL-Version.oder der Serverseite liegt. dann benötigen wir auch Informationen über den Compiler. Diese Liste ist für Diskussionen über die Entwicklung von PostgreSQL. durch welche Änderungen in der Eingabe das Problem verschwindet. einen vorübergehenden Ausweg zu finden und mitzuteilen. ob das Problem auf der Client. dann werden wir Ihnen höchstwahrscheinlich raten. Wenn Ihre Eingabedateien allerdings riesig sind. Bitte senden Sie keinen Fehlerbericht an Benutzer-Mailinglisten wie pgsql-sql@postgresql. dann sollten Sie das sagen und auch eine eventuelle Unterversion des Pakets angeben. wenn Sie alles beim ersten Mal mit angeben. Die meisten Programme unterstützen auch eine Option -version. Wenn Ihre Version älter ist als . 27 .org. vielleicht einen Teil der Fehlermeldung. wenn wir die Fehlerberichte getrennt halten könnten. Das Softwarepaket selbst heißt “PostgreSQL”. und es wäre nett. dass der Fehler nicht sofort berichtigt werden kann. Wo Fehler berichtet werden können Prinzipiell sollten Sie Fehlerberichte an die dafür gedachte Mailingliste pgsql-bugs@postgresql. dann werden Sie immer noch Zeit haben. wenn nur ein einzelner Serverprozess abgestürzt ist. Ein Absturz eines einzelnen Serverprozesses ist etwas ganz anderes als ein Absturz des “postmaster”-Prozesses. als dass wir die Fakten aus Ihnen herausquetschen müssen.

schreiben Sie eine E-Mail an majordomo@postgresql.org. dann schreiben Sie an pgsql-ports@postgresql. (Für das Web-Formular müssen Sie sich aber nicht irgendwo anmelden. Wenn Ihr Problem ein Portierungsproblem auf einer nicht unterstützten Plattform ist. damit wir (und Sie) an der Unterstützung für Ihre Plattform arbeiten können. Sie müssen sich erst bei der Liste anmelden. sind alle oben genannten E-Mail-Adressen geschlossene Mailinglisten.) Wenn Sie an die Listen schreiben wollen. dann schreiben Sie am besten an die Dokumentations-Mailingliste pgsql-docs@postgresql. mit dem Sie ein Problem haben. Das heißt.org mit nur dem Wort help im Text. aber selbst keine Post bekommen wollen.org. Anmerkung Weil leider viel zu viel Spam umhergeht. um dort posten zu dürfen. Bitte geben Sie den genauen Teil der Dokumenation an.Einleitung Wenn Sie ein Problem mit der Dokumentation haben. Um weitere Informationen zu erhalten. 28 . dann können Sie sich anmelden und dann Ihre Anmeldung auf nomail setzen.

dass die Behandlung der Themen vollständig und tiefgründig ist. um die Sprache SQL genauer kennen zu lernen. 29 . Sie sollten nicht davon ausgehen. Keine besonderen Erfahrung mit Unix oder mit Programmieren ist vonnöten. Dieser Teil soll Ihnen vor allem praktische Erfahrung mit den wichtigen Teilen des PostgreSQL-Systems geben. dann sollten Sie auch Teil III lesen. Sie benötigen nur etwas allgemeines Wissen. relationale Datenbanken und die Sprache SQL geben. wie man Computer verwendet. Die folgenden Kapitel sollen Ihnen eine Einführung in PostgreSQL. wenn Sie mit einem dieser Bereiche noch nicht vertraut sind. Wenn Sie dieses Tutorial durchgearbeitet haben. oder Teil IV um zu erfahren. können Sie Teil II lesen. Wenn Sie Ihren eigenen Server einrichten und verwalten wollen. wie Sie Anwendungen für PostgreSQL entwickeln können.3 Teil I Tutorial Willkommen zum PostgreSQL-Tutorial.

VAKAT VAKAT .

wenn die Installation abgeschlossen ist. Eine PostgreSQL-Sitzung besteht aus den folgenden kooperierenden Prozessen (Programmen): 31 . Superuser-Rechte (root) sind nicht erforderlich. Wenn Sie den vorangegangenen Absatz nicht verstanden haben. wie Sie auf PostgreSQL zugreifen können. PostgreSQL kann von jedem unprivilegierten Benutzer installiert werden. Das ist nicht schwer und kann eine gute Übung sein. der beschreibt.2 Grundlagen der Architektur Ehe wir fortfahren. wird dieses Kapitel etwas klarer. dann können Sie es selbst installieren. die nicht den Standardvorgaben entsprechen. 1. Möglicherweise ist PostgreSQL bei Ihnen schon installiert. müssen Sie es natürlich installieren. Wenn zum Beispiel der Datenbankserver ein anderer Computer ist. Wenn Sie nicht sicher sind. In der Sprache der Datenbanktechnik verwendet PostgreSQL ein Client/Server-Modell. finden Sie die Installationsanweisungen in Kapitel 14. weil es in Ihrer Betriebssystem-Distribution enthalten war. haben Sie eventuell noch etwas Arbeit vor sich. Letztendlich gilt: Wenn Sie ein Anwendungsprogramm starten und es beschwert. dann müssen Sie die Umgebungsvariable PGHOST auf den Namen der Datenbankservermaschine setzen. wie man die passenden Umgebungsvariablen einrichtet. wie die Teile von PostgreSQL zusammenarbeiten. Kehren Sie zu diesem Tutorial zurück.1 Installation Bevor Sie PostgreSQL verwenden können. sich dass es nicht zur Datenbank verbinden kann. Mit Sorgfalt sollten Sie den Abschnitt lesen. Wenn der Systemadministrator Einrichtungen vorgenommen hat. oder wenn Sie das selbst sind. lesen Sie den nächsten Abschnitt. Wenn Sie verstehen. sollten Sie sich mit Ihrem Systemadministrator in Verbindung setzen. sollten Sie ein grundlegendes Verständnis der Systemarchitektur von PostgreSQL haben. ob PostgreSQL bereits verfügbar ist oder ob Sie es zum Ausprobieren verwenden können. In diesem Fall sollten Sie Ihren Systemadministrator um Informationen bitten. oder weil der Systemadministrator es schon installiert hat. ob Ihre Umgebungsvariablen richtig gesetzt sind. Die Umgebungsvariable PGPORT muss möglicherweise auch gesetzt werden.1 1 Ein Einstieg 1. Wenn Sie PostgreSQL selbst installieren. entweder. dann sollten Sie die Dokumentation zurate ziehen um zu prüfen.

ist. Normalerweise verwendet man eine separate Datenbank für jedes Projekt oder für jeden Benutzer. um die Situation zu bereinigen. in diesem Beispiel mit Namen meinedb. aber die meisten werden von Benutzern entwickelt. Einige Clientanwendungen sind in der PostgreSQL-Distribution enthalten. Der PostgreSQL-Server kann mehrere gleichzeitige Verbindungen von Clients handhaben. der die Datenbankdateien überwacht.) 1. Verbindungen von Clientanwendungen akzeptiert und Aktionen in der Datenbank für den Client ausführt. Dazu startet er einen neuen Prozess für jede Verbindung (mit dem Systemaufruf fork). Das Datenbankserverprogramm heißt postmaster. der auf die Datenbank zugreift um Webseiten darzustellen. Wenn Sie eine Mitteilung ähnlich wie createdb: command not found sehen. 32 . die auf der Clientmaschine zur Verfügung stehen. In diesem Fall kommunizieren sie über eine TCP/IP-Netzwerkverbindung. In diesem Fall können Sie diesen Schritt auslassen und zum nächsten Abschnitt springen. oder eine spezialisiertes Datenbankverwaltungswerkzeug. sind möglicherweise auf der Datenbankserver-Maschine nicht zugänglich (oder nur unter einem anderen Namen). während Client. ❏ Die Clientanwendung des Benutzers. eine Datenbank zu erzeugen. Um eine neue Datenbank. Clientanwendungen können sehr verschiedener Natur sein: Ein Client könnte ein textorientiertes Tool sein. dann war dieser Schritt erfolgreich und Sie können den Rest dieses Abschnitts überspringen. ein Webserver. (AlPostgreSQLl das ist natürlich für Benutzer unsichtbar. zu erstellen.3 Eine Datenbank erzeugen Der erste Test. Wie es bei Client/Server-Anwendungen typisch ist. Versuchen Sie. Ein laufender PostgreSQL-Server kann mehrere Datenbanken verwalten. eine grafische Anwendung. verwenden Sie den folgenden Befehl: $ createdb meinedb Das sollte folgende Antwort erzeugen: CREATE DATABASE Wenn ja. um zu sehen. Folglich läuft der postmaster immer und wartet auf Verbindungen. Entweder wurde es überhaupt nicht installiert oder der Suchpfad wurde nicht richtig gesetzt. Sie sollten das im Hinterkopf behalten.Kapitel 1 ❏ Ein Server-Prozess. dann ist PostgreSQL nicht ordnungsgemäß installiert worden. denn Dateien. die Datenbankoperationen vornehmen will. Möglicherweise hat der Systemadministrator schon eine Datenbank für Sie erstellt. Danach kommunizieren der Client und der neue Serverprozess ohne das Eingreifen des ursprünglichen postmaster-Prozesses. den Befehl mit einem absoluten Pfad aufzurufen: $ /usr/local/pgsql/bin/createdb meinedb Der Pfad mag bei Ihnen ein anderer sein. können sich Client und Server auf verschiedenen Rechnern befinden. was der Name dieser Datenbank ist. Wir erwähnen es hier nur der Vollständigkeit halber.und die zugehörigen Serverprozesse entstehen und wieder verschwinden. ob Sie auf den Datenbankserver zugreifen können. Er sollte Ihnen dann mitgeteilt haben. Setzen Sie sich mit dem Systemadministrator in Verbindung oder prüfen Sie noch einmal die Installationsanweisungen.

Passenderweise gibt es immer einen PostgreSQL-Benutzer der den gleichen Namen hat wie der Betriebssystembenutzer der den Server gestartet hat. Die Namen von Datenbanken müssen einen Buchstaben als erstes Zeichen haben und sind auf maximal 63 Zeichen Länge begrenzt. dann werden Sie Folgendes sehen: ERROR: CREATE DATABASE: permission denied createdb: database creation failed Nicht jeder Benutzer hat die Autorisierung. Wenn Sie zu einer Datenbank verbinden. als welcher PostgreSQL-Benutzer Sie verbinden wollen. die zum Erzeugen einer Datenbank erforderlich sind. Anstelle sich als dieser Benutzer anzumelden. dann können Sie sie mit dem folgenden Befehl zerstören: $ dropdb meinedb (Bei diesem Befehl ist der Vorgabewert für den Datenbanknamen nicht der Benutzername. die zu dieser Datenbank gehören. Eine günstige Wahl ist eine Datenbank mit dem gleichen Namen wie Ihr Benutzername. geben Sie einfach ein: $ createdb Wenn Sie Ihre Datenbank nicht mehr verwenden wollen.s. dann wird der Benutzername des Betriebssystems als Vorgabe verwendet. Wenden Sie sich an den Systemadministrator. Wenn Sie zum Beispiel der Eigentümer (Erzeuger) der Datenbank meinedb sind.5432"? createdb: database creation failed Das bedeutet. und kann nicht rückgängig gemacht werden. falls das passiert.) Diese Aktion entfernt alle Dateien. sollten Sie sich für dieses Tutorial als der Benutzer anmelden. schauen Sie nochmal in den Installationsanweisungen nach oder fragen Sie den Systemadministrator. Wenn Sie PostgreSQL selbst installiert haben. wo createdb ihn erwartete. PostgreSQL erlaubt die Erzeugung von beliebig vielen Datenbanken in einer Installation. dann muss Ihnen Ihr Systemadministrator die Erlaubnis erteilen. Wenn PostgreSQL sich weigert. Eine Erklärung warum das funktioniert: PostgreSQL-Benutzernamen sind getrennt von den Benutzernamen des Betriebssystems.PGSQL. Wenn Sie die Rechte nicht haben. wenn Sie das nicht tun. 1. als der Sie verbinden wollen. können Sie sie entfernen. dass der Server nicht gestartet wurde oder dass er nicht dort gestartet wurde. und passenderweise hat dieser Benutzer auch immer das Recht. können Sie bestimmen. Viele Programme nehmen diesen Namen als Vorgabe an und können Ihnen somit etwas Tipparbeit ersparen. Datenbanken zu erzeugen. als der Sie den Server gestartet haben. neue Datenbanken zu erzeugen. Er sollte daher nur nach sorgfältiger Überlegung angPostgreSQLewendet werden. 33 . um einen PostgreSQL-Benutzer zu bestimmen. für Sie neue Datenbanken zu erzeugen. Der Datenbankname muss immer angegeben werden. Um eine solche Datenbank zu erzeugen. Auch in diesem Fall gilt. Datenbanken erzeugen zu dürfen.Ein Einstieg Eine andere Antwort könnte diese sein: psql: could not connect to server: Connection refused Is the server running locally and accepting connections on Unix domain socket "/tmp/. können Sie auch überall die Option -U verwenden. 1 Sie können auch Datenbanken mit anderen Namen erzeugen.

und der zeigt an.Kapitel 1 1. the PostgreSQL interactive terminal. wird Ihr Benutzername als Vorgabe verwendet. genannt psql. wenn Sie PostgreSQL selbst installiert haben. und wenn Ersteres funktioniert hat. Sie möchten wahrscheinlich psql starten. Die Mitteilungen von psql und createdb sind ähnlich. dann umgehen Sie alle Kontrollen der Zugriffsrechte. Dieses System wurde im vorigen Abschnitt besprochen. Die letzte Zeile. können Sie darauf zugreifen. gehen Sie zurück zum vorigen Abschnitt. version ---------------------------------------------------------------PostgreSQL 7. sollte Letzteres das auch tun. Um es für die Datenbank meinedb zu aktivieren. geben Sie diesen Befehl ein: $ psql meinedb Wenn Sie den Datenbanknamen auslassen. welches Ihnen erlaubt. zu bearbeiten und auszuführen. Das würde bedeuten.3devel on i586-pc-linux-gnu. ❏ eine bestehende grafische Anwendung wie PgAccess oder ein Office-Paket mit ODBC-Unterstützung verwenden. verwenden. um die Beispiele in diesem Tutorial auszuprobieren. die von psql ausgegeben wurde. dass Sie SQL-Befehle in den Arbeitsbereich von psql eingeben. dass Sie ein Datenbank-Superuser sind. Probieren Sie diese Befehle aus: meinedb=> SELECT version(). Diese Möglichkeiten werden in diesem Tutorial nicht besprochen. compiled by GCC 2. Wenn Sie ein Superuser sind. psql zu starten. Das psql-Programm begrüßt Sie mit der folgenden Mitteilung: Welcome to psql . um Datenbanken zu erstellen und zu verändern.4 Auf eine Datenbank zugreifen Wenn Sie eine Datenbank erstellt haben. Für dieses Tutorial ist das nicht erheblich.96 (1 row) 34 . Type: \copyright for distribution terms \h for help with SQL commands \? for help on internal slash commands \g or terminate with semicolon to execute query \q to quit meinedb=> Die letzte Zeile könnte auch meinedb=# sein. indem Sie ❏ das interaktive PostgreSQL-Terminalprogramm. Diese Möglichkeiten werden ausführlicher in Teil IV besprochen. SQL-Befehle interaktiv einzugeben. ❏ eine neue Anwendung schreiben unter Anwendung der verschiedenen verfügbaren Sprachanbindungen. ist der Prompt. Wenn Sie Probleme damit haben. was wahrscheinlich der Fall ist. dass psql darauf wartet.

(Um weitere interne Kommandos zu sehen. aber Sie können Sie anwenden. geben Sie am psql-Prompt \? ein. die keine SQL-Befehle sind. 35 . geben Sie ein: meinedb=> \q und psql wird beendet und Sie kehren zu Ihrer Shell zurück.) Die gesamten Fähigkeiten von psql sind in Teil VI beschrieben. Wenn PostgreSQL richtig installiert ist. indem Sie eingeben: meinedb=> \h Um psql zu verlassen. ?column? ---------4 (1 row) Das psql-Programm hat eine Anzahl von internen Befehlen.Ein Einstieg meinedb=> SELECT current_date. können Sie auch am Shell-Prompt des Betriebssystems man psql eingeben um die Anleitung zu sehen. wenn Sie es passend finden. Einige dieser Befehle wurden in der Willkommensmeldung aufgelistet. Zum Beispiel können Sie Hilfe zur Syntax der verschiedenen SQL-Befehle in PostgreSQL erhalten. Sie fangen mit dem Backslash-Zeichen (»\«) an. date -----------2002-08-31 (1 row) meinedb=> SELECT 2 + 2. In diesem Tutorial werden wir diese Fähigkeiten nicht ausdrücklich nutzen.

.

.. Die Datei README in diesem Verzeichnis enthält weitere Anweisungen. wie die Dateien zu verwenden sind. Die Befehle. In den folgenden Beispielen nehmen wir an.. Eine modernere Entwicklung ist die objektorientierte Datenbank. bevor ein Befehl an den Server geschickt wird. dass Sie eine Datenbank namens meinedb erzeugt haben. Dieses Tutorial ist nur eine Einführung und in keiner Weise ein kompletter SQL-Lehrgang. Die Bespiele in diesem Tutorial können Sie auch im PostgreSQL-Quelltextpaket im Verzeichnis src/ tutorial/ finden. Das bedeutet.1 Einführung Dieses Kapitel gibt Ihnen einen Überblick. dass es ein System ist. befinden sich in der Datei basics. aber es gibt eine Anzahl anderer Möglichkeiten. geben Sie Folgendes ein: $ cd .sql Der Befehl \i liest Befehle von der angegebenen Datei. um einfache Operationen auszuführen. und dass sie psql gestartet haben.sql. welcher jedes Mal eine Pause verursacht./src/tutorial $ psql -s meinedb .2 2 Die SQL-Sprache 2. welches Daten verwaltet. Die Option -s schaltet den Einzelschrittmodus ein. wie im vorigen Kapitel beschrieben. Daten in Tabellen zu speichern. Sie sollten sich auch darüber im Klaren sein. Dateien und Verzeichnisse in Unix-ähnlichen Betriebssystemen bilden ein Beispiel einer hierarchischen Datenbank. RDBMS). wie Sie SQL verwenden.. ist heutzutage so gewöhnlich. 2. Relation ist im Prinzip ein mathematischer Begriff für eine Tabelle. meinedb=> \i basics. die in diesem Kapitel verwendet werden. die in Relationen gespeichert sind.. Die Idee. 37 . dass sie eigentlich offensichtlich erscheint.2 Konzepte PostgreSQL ist ein relationales Datenbankverwaltungssystem (englisch relational database management system. Um das Tutorial zu starten. Datenbanken zu organisieren. dass manche PostgreSQL-Features Erweiterungen gegenüber dem SQLStandard sind.

temp_lo int. 38 . 0. sollten Sie sich merken. real. Alles was danach folgt. indem Sie den Namen der Tabelle sowie die Namen und Datentypen aller Spalten angeben: CREATE TABLE weather ( city varchar(80).und Kleinschreibung zu erhalten (oben nicht der Fall). es sei denn. Sie können das in psql mit den Zeilenumbrüchen eingeben. dass die Befehle erst mit dem Semikolon abgeschlossen sind. location point ). dass. englisch für Sammlung oder Traube). int ist der normale Typ für ganze Zahlen. Deswegen sind Typnamen keine syntaktischen Schlüsselwörter. außer wenn das erforderlich is. char(N). (Sie können aber für die Ausgabe ausdrücklich sortiert werden.3 Eine neue Tabelle erzeugen Sie können eine neue Tabelle erzeugen.Kapitel 2 Jede Tabelle ist eine mit einem Namen versehene Sammlung von Zeilen. temp_hi int. dass SQL die Reihenfolge der Zeilen in einer Tabelle in keiner Weise garantiert. ergeben einen Datenbank-Cluster (cluster. Während Spalten in jeder Zeile eine feste Ordnung haben. date ist natürlich für Datumsangaben. Sie sie dann mit dem folgenden Befehl entfernen können: DROP TABLE tabellenname. dass sie den Befehl auch mit einer anderen Formatierung oder gar auf einer einzigen Zeile eingeben könnten. date date -. Jede Zeile einer Tabelle hat dieselbe Menge von benannten Spalten und jede Spalte hat einen bestimmten Datentyp. real ist ein Typ. wird ignoriert. time. varchar(N). double precision. um die Groß. date. Das bedeutet. Tabs und Zeilenumbrüche können in SQL-Befehlen beliebig verwendet werden. wenn Sie eine Tabelle nicht mehr benötigen oder Sie mit anderen Details neu erzeugen wollen.t um Sonderfälle im SQL-Standard zu unterstützen. der beliebige Zeichenketten bis 80 Zeichen Länge aufnehmen kann. prcp real.Tiefsttemperatur -.Höchsttemperatur -. psql erkennt.1 2. varchar(80) ist ein Datentyp. timestamp und interval sowie weitere allgemein anwendbare und eine große Sammlung von geometrischen Typen. der Fließkommazahlen mit einfacher Präzision aufnimmt. Groß. Das zweite Beispiel wird Städte und ihre geographische Position speichern: CREATE TABLE cities ( name varchar(80). Namen werden in doppelte Anführungszeichen gesetzt.Niederschlag (precipitation) ). Schließlich sollten wir erwähnen. PostgreSQL kann auch mit einer beliebigen Zahl benutzerdefinierter Typen angepasst werden. (Die Spalte vom Typ date heißt selbst auch date.) Tabellen werden in Datenbanken zusammengefasst und eine Sammlung von Datenbanken. Zwei Minuszeichen (“--”) zeigen den Start eines Kommentars an. Der Typ point ist ein Beispiel eines besonderen Typs in PostgreSQL. Das mag bequem oder verwirrend sein – Ihre Wahl. bis zum Zeilenende.) PostgreSQL unterstützt die gewöhnlichen SQL-Datentypen int. smallint. die von einem einzigen PostgreSQL-Server verwaltet werden.und Kleinschreibung von Schlüsselwörtern und Namen ist in SQL unerheblich. Leerzeichen.

Ein Beispiel wäre: COPY weather FROM '/home/user/weather. 54. die Spalten immer aufzuzählen. von denen die Daten zu entnehmen sind) und eine wahlfreie Qualifizierung (der Teil. Das bisher verwendete Format des INSERT-Befehls erfordert. 43. Der Dateiname der Quelldatei muss auf der Maschine des Datenbankservers zur Verfügung stehen. temp_lo) VALUES ('1994-11-29'.Die SQL-Sprache 2. Konstanten. Der Befehl teilt sich auf in eine Select-Liste (der Teil. damit Sie einige Daten haben. 50. Mehr über COPY können Sie auf Seite 646 lesen. '(-194. die keine einfachen numerischen Werte sind. Dazu wird der SQL-Befehl SELECT verwendet. dass es stilistisch besser ist.0. city. 0. 'Hayward'. anstatt sich auf die Ordnung zu verlassen. wie im Beispiel. temp_hi. dass man die Spalten ausdrücklich aufzählt: INSERT INTO weather (city. Das ist normalerweise schneller.25. '1994-11-27'). der etwaige Einschränkungen angibt). Ein alternatives Format ermöglicht. Sie können die Spalten auch in einer anderen Reihenfolge aufzählen oder sogar einige Spalten weglassen. der die Tabelle auflistet. um große Mengen Daten von einfachen Textdateien zu laden. weil der COPY-Befehl für diese Anwendung optimiert ist. 53. Sie könnten auch COPY verwenden. nicht auf der Clientmaschine. mit denen wir in den folgenden Abschnitten arbeiten können.5 Eine Tabelle abfragen Um Daten aus einer Tabelle zu lesen.4 Eine Tabelle mit Zeilen füllen INSERT INTO weather VALUES ('San Francisco'. müssen von einfachen Anführungszeichen (') eingeschlossen werden. Bitte geben Sie alle oben gezeigten Befehle ein. wenn zum Beispiel der Niederschlag unbekannt ist: INSERT INTO weather (date. date) VALUES ('San Francisco'. aber weniger Flexibilität als INSERT erlaubt.0. wird eine Anfrage ausgeführt. Der Befehl INSERT wird verwendet. wie hier: INSERT INTO cities VALUES ('San Francisco'. Um zum Beispiel alle Zeilen der Tabelle weather abzurufen. 0. aber in diesem Tutorial werden wir das hier gezeigte unzweideutige Format verwenden. 37). 39 . Viele Entwickler finden.txt'. temp_lo. 46. um eine Tabelle mit Zeilen zu füllen: Alle Datentypen haben einigermaßen klare Eingabeformate. eine Tabellenliste (der Teil. Der Typ date ist sehr flexibel bezüglich der Werte. dass man sich die Reihenfolge der Spalten gemerkt hat. prcp. 57. Der Typ point erfordert als Eingabewert ein Koordinatenpaar. '1994-11-29'). geben Sie ein: SELECT * FROM weather. die er akzeptiert. weil der Server die Datei direkt liest. der die auszugebenden Spalten auflistet). Für numerische Werte muss ein Punkt anstelle des Kommas verwendet werden. 2. temp_hi.0)').

dass die Ergebnisse einer Anfrage sortiert und doppelte Zeilen entfernt werden: SELECT DISTINCT city FROM weather ORDER BY city.Kapitel 2 (* bedeutet hier “alle Spalten”). Zum Beispiel ergibt die folgende Anfrage das Wetter in San Francisco an regnerischen Tagen: SELECT * FROM weather WHERE city = 'San Francisco' AND prcp > 0. Zum Beispiel können Sie Folgendes machen: SELECT city.) Beliebige Boole'sche Operationen (AND.0. date FROM weather. NOT) können in der Qualifikation einer Anfrage verwendet werden.25 | 1994-11-27 San Francisco | 43 | 57 | 0 | 1994-11-29 Hayward | 37 | 54 | | 1994-11-29 (3 rows) Sie können beliebige Ausdrücke in der Select-Liste angeben. Das Ergebnis sollte sein: city | temp_avg | date ---------------+----------+-----------San Francisco | 48 | 1994-11-27 San Francisco | 50 | 1994-11-29 Hayward | 45 | 1994-11-29 (3 rows) Die AS-Klausel wird verwendet. um der Ergebnisspalte einen Namen zu geben. Das Ergebnis sollte sein: city | temp_lo | temp_hi | prcp | date ---------------+---------+---------+------+-----------San Francisco | 46 | 50 | 0.25 | 1994-11-27 (1 row) Schließlich können Sie auch verlangen. 40 . (Sie ist optional. OR. (temp_hi+temp_lo)/2 AS temp_avg. Ergebnis: city | temp_lo | temp_hi | prcp | date ---------------+---------+---------+------+-----------San Francisco | 46 | 50 | 0. city --------------Hayward San Francisco (2 rows) DISTINCT und ORDER BY können natürlich auch getrennt verwendet werden.

weil die Spaltenlisten von weather und cities aneinandergehängt werden. die auf mehrere Zeilen derselben oder verschiedener Tabellen zugreift heißt.53) (2 rows) Sie werden zwei Dinge in diesem Ergebnis bemerken: ❏ Es gibt keine Ergebniszeile für die Stadt Hayward. temp_lo. cities WHERE city = name. SELECT city. cities WHERE city = name. In der Praxis ist das unerwünscht. Dies können wir mit der folgenden Anfrage erreichen: SELECT * FROM weather. für die es keine Paarung gibt. cities. prcp. können auch in dieser Alternativform geschrieben werden: 41 .prcp. weather. Eine Anfrage. Dazu müssen wir die citySpalte in jeder Zeile der Tabelle weather mit der name-Spalte in allen Zeilen der Tabelle cities vergleichen und diejenigen Paare auswählen. city | temp_lo | temp_hi | prcp | date | name | location ---------------+---------+---------+------+------------+---------------+---------San Francisco | 46 | 50 | 0. Sagen wir zum Beispiel. weather. sodass Sie die Spalten wahrscheinlich ausdrücklich aufzählen wollen.Die SQL-Sprache 2.temp_hi. in Verbundanfragen die Spaltennamen um die Tabellennamen zu ergänzen: SELECT weather.city. zu welcher Tabelle sie gehörten. wie das verbessert werden kann. cities WHERE cities.6 Verbunde zwischen Tabellen Bisher haben unsere Anfragen immer nur auf eine Tabelle zugegriffen. weather. Verbund-Anfrage (englisch join). hat der Parser automatisch herausgefunden. die wir bisher gesehen haben.date. ❏ Es gibt zwei Spalten mit dem Namen der Stadt. Die Verbundanfragen. aber es ist stilistisch besser.25 | 1994-11-27 | San Francisco | (-194. weather. Anfragen können auch auf mehrere Tabellen auf einmal zugreifen oder können auf eine Tabelle so zugreifen. Anmerkung Das ist nur das konzeptionelle Modell. Wir werden gleich sehen.name = weather. aber das ist für den Benutzer nicht sichtbar. bei denen die Werte gleich sind. dass es für Hayward keinen passenden Eintrag in der Tabelle cities gibt und der Verbund die Zeilen in weather ignoriert. temp_hi. Sie wollen alle Wetterdatensätze zusammen mit den Koordinaten der zugehörigen Stadt sehen. Da alle Spalten unterschiedliche Namen hatten.city. Das ist korrekt. location FROM weather.temp_lo. Der Grund ist.53) San Francisco | 43 | 57 | 0 | 1994-11-29 | San Francisco | (-194.location FROM weather. date. In Wirklichkeit können viele Verbundoperationen effektiver ausgeführt werden. anstatt * zu verwenden. dass mehrere Zeilen der Tabelle auf einmal verarbeitet werden.

aber wir zeigen sie hier.temp_hi. city | temp_lo | temp_hi | prcp | date | name | location ---------------+---------+---------+------+------------+---------------+--------Hayward | 37 | 54 | | 1994-11-29 | | San Francisco | 46 | 50 | 0.temp_lo AS low. sollten irgendwelche “leeren Werte” als Ersatz genommen werden. die folgenden Themen zu verstehen. W2. die wir bisher gesehen haben. während die Tabelle auf der rechten Seite nur die Zeilen im Ergebnis haben wird. Versuchen Sie herauszufinden. Jetzt werden wir herausfinden. um Ihnen zu helfen.temp_hi > W2. W1.53) (3 rows) Diese Anfrage heißt linker äußerer Verbund (left outer join).temp_lo AS low. Das ist ein Selbstverbund. jede ihrer Zeilen mindestens einmal in der Ergebnismenge haben wird. für die es keine Entsprechung in der rechten Tabelle gibt. wie wir die Datensätze der Stadt Hayward wieder sehen können. Wir können das mit der folgenden Anfrage erreichen: SELECT W1. W2.name). Diese Form ist nicht so gebräuchlich wie die weiter oben verwendeten. Was wir wollen.und temp_hi-Spalten aller anderen weather-Zeilen vergleichen. Diese Art Anfrage heißt äußerer Verbund (englisch outer join).25 | 1994-11-27 | San Francisco | (-194.city = cities.temp_lo < W2.temp_hi AS high.53) San Francisco | 43 | 57 | 0 | 1994-11-29 | San Francisco | (-194. Zum Beispiel nehmen wir an. ist eine Anfrage.name).city. Wenn keine passende Zeile gefunden wurde. die links vom Verbundoperator steht. weather W2 WHERE W1. W2. weil die Tabelle. W1. (Die Verbunde.city. city | low | high | city | low | high ---------------+-----+------+---------------+-----+-----San Francisco | 43 | 57 | San Francisco | 46 | 50 Hayward | 37 | 54 | San Francisco | 46 | 50 (2 rows) 42 .Kapitel 2 SELECT * FROM weather INNER JOIN cities ON (weather. Wenn eine Zeile der linken Tabelle ausgegeben wird.) Der Befehl sieht so aus: SELECT * FROM weather LEFT OUTER JOIN cities ON (weather. heißen innerer Verbund (englisch inner join. Also müssen wir die Spalten temp_lo und temp_hi von jeder Zeile in der Tabelle weather mit den temp_lo. was diese machen. dass wir alle Wetterdatensätze finden wollen.temp_lo AND W1. die die Tabelle weather durchgeht und für jede Zeile die passende cities-Zeile findet. Übung Es gibt auch rechte äußere Verbunde (right outer join) und volle äußere Verbunde (full outer join).temp_hi AS high FROM weather W1.city = cities. die im Temperaturbereich anderer Sätze sind. dann werden leere Werte (NULL) in die Spalten der rechten Tabelle eingesetzt. die zu einer Zeile der linken Tabelle passen. Wir können auch einen Verbund einer Tabelle mit sich selbst ausführen.

um Tipparbeit zu sparen. weil die Aggregatfunktion max nicht in der WHERE-Klausel verwendet werden kann. max ----46 (1 row) Wenn wir wissen wollen. weil die WHERE-Klausel bestimmt. (Die Einschränkung besteht. um das beabsichtigte Ergebnis zu erzielen. Eine Aggregatfunktion berechnet ein einzelnes Ergebnis aus mehreren Eingabezeilen.) Wie es so oft der Fall ist.name. unterstützt PostgreSQL Aggregatfunktionen. Wir können zum Beispiel die höchste Tiefsttemperatur in unseren Daten mit folgender Anfrage ermitteln: SELECT max(temp_lo) FROM weather. kann diese Anfrage aber umgeschrieben werden.und HAVING-Klauseln. Aggregatfunktionen sind auch sehr nützlich in Kombination mit den GROUP BY. Zum Beispiel: SELECT * FROM weather w. die ihre Aggregatfunktionen getrennt von der äußeren Anfrage auswertet. um die linke und rechte Seite des Verbunds unterscheiden zu können. city | max 43 .city = c. Diese Art von Alias können Sie auch in anderen Anfragen verwenden. Zum Beispiel gibt es Aggregatfunktionen. hier mit einer Unteranfrage: SELECT city FROM weather WHERE temp_lo = (SELECT max(temp_lo) FROM weather). cities c WHERE w. Wir können zum Beispiel die maximale Tiefsttemperatur in jeder Stadt ermitteln mit: SELECT city.(min) oder den Maximalwert (max) jeweils aus mehreren Zeilen berechnen. welche Zeilen in die Aggregatphase einfließen und damit ausgewertet werden muss. die Summe der Eingabewerte (sum). Diesen Abkürzungsstil werden Sie häufig antreffen.Die SQL-Sprache Wir haben die Tabelle weather hier als W1 und W2 bezeichnet. die die Anzahl der Zeilen (count). die Minimal. 2. city --------------San Francisco (1 row) Das ist in Ordnung. würden wir vielleicht dies versuchen: SELECT city FROM weather WHERE temp_lo = max(temp_lo).7 Aggregatfunktionen Wie die meisten anderen relationalen Datenbanken. weil die Unteranfrage eine unabhängige Berechnung darstellt. den Durchschnitt (avg). FALSCH Aber das funktioniert nicht. bevor die Aggregatfunktionen berechnet werden. in welcher Stadt (oder in welchen Städten) dieser Wert auftrat. max(temp_lo) FROM weather GROUP BY city.

max(temp_lo) FROM weather GROUP BY city HAVING max(temp_lo) < 40. November zwei Grad zu hoch waren. Die LIKE-Operation führt einen Mustervergleich aus und wird in Abschnitt 9. könnten wir Folgendes machen: SELECT city. weil wir dadurch die Gruppierung und Aggregatberechnungen der Zeilen. eine Aggregatfunktion zu verwenden. während HAVING gruppierte Zeilen auswählt.Kapitel 2 ---------------+----Hayward | 37 San Francisco | 46 (2 rows) Dies gibt uns eine Ergebniszeile pro Stadt. Die HAVING-Klausel hingegen enthält immer Aggregatfunktionen. nachdem Gruppen und Aggregate berechnet worden sind. weil es keinen Sinn hat. Sie entdecken. als die Bedingung zur HAVING-Klausel hinzuzufügen. die keine Aggregatfunktionen enthalten. Wenn wir schließlich nur an Städten interessiert sind. Jedes Aggregatergebnis wird aus den Tabellenzeilen für diese Stadt berechnet. die Wechselwirkung zwischen Aggregatfunktionen und den SQL-Klauseln WHERE und HAVING zu verstehen. Wir können diese gruppierten Zeilen mit HAVING filtern: SELECT city. max(temp_lo) FROM weather WHERE city LIKE 'S%'(1) GROUP BY city HAVING max(temp_lo) < 40. aber nur mit Städten. dass wir die Einschränkung des Städtenamens in der WHERE-Klausel anwenden können.6 erklärt. bevor Gruppen und Aggregate berechnet werden (es kontrolliert also. Die WHERE-Klausel darf also keine Aggregatfunktionen enthalten. die alle temp_lo-Werte unter 40 haben. welchen Zeilen Eingabe für die Aggregatfunktionen sein werden. Das ist effektiver.8 Daten aktualisieren Bestehende Zeilen können mit dem Befehl UPDATE aktualisiert werden. Der grundlegende Unterschied zwischen WHERE und HAVING ist folgender: WHERE wählt Zeilen aus. (Genau genommen können Sie HAVING-Klauseln schreiben. city | max ---------+----Hayward | 37 (1 row) Das gibt uns das gleiche Ergebnis. Nehmen wir an. 2. weil sie keine Aggregatfunktion braucht. welche Zeilen in die Aggregatberechnung einfließen). vermeiden. um zu bestimmen. Dann können Sie Ihre Daten folgendermaßen aktualisieren: 44 . deren Namen mit “S” beginnt. dass alle Temperaturmessungen seit sdem 28. die durch die WHERE-Klausel herausfiltert werden. aber das ist Verschwendung: Dieselben Bedingungen könnten in der WHERE-Klausel-Phase effizienter verarbeitet werden. Es ist wichtig.) Beachten Sie.

dass Sie das Wetter in Hayward nicht mehr interessiert. city | temp_lo | temp_hi | prcp | date ---------------+---------+---------+------+-----------San Francisco | 46 | 50 | 0.2 Schauen Sie sich den neuen Stand der Daten an: SELECT * FROM weather. Löschoperationen werden mit dem Befehl DELETE durchgeführt: DELETE FROM weather WHERE city = 'Hayward'.25 | 1994-11-27 San Francisco | 41 | 55 | 0 | 1994-11-29 Hayward | 35 | 52 | | 1994-11-29 (3 rows) 2. löscht DELETE alle Datensätze der angegebenen Tabelle und lässt die Tabelle damit leer.2. bevor es dies macht! 45 .25 | 1994-11-27 San Francisco | 41 | 55 | 0 | 1994-11-29 (2 rows) Man sollte vorsichtig sein mit Befehlen der Form DELETE FROM tabellenname. werden entfernt.9 Daten löschen Nehmen wir an. Wenn keine Bedingungen angegeben sind. Dann können Sie diese Zeilen wie folgt aus der Tabelle löschen. Das System verlangt keine Bestätigung.Die SQL-Sprache UPDATE weather SET temp_hi = temp_hi . die zu Hayward gehören. temp_lo = temp_lo . WHERE date > '1994-11-28'. Alle Datensätze in der Tabelle weather. city | temp_lo | temp_hi | prcp | date ---------------+---------+---------+------+-----------San Francisco | 46 | 50 | 0. SELECT * FROM weather.

.

welche sich verändern könnten. temp_hi. um sie zu ändern oder zu verbessern. Die großzügige Verwendung von Sichten ist ein wichtiger Aspekt eines guten SQL-Datenbankentwurfs.2 Sichten Schauen Sie sich noch einmal die Anfragen in Abschnitt 2.1 Einführung Im vorigen Kapitel ging es um die Grundlagen von SQL zum Speichern und Abrufen von Daten in PostgreSQL Jetzt werden wir einige fortgeschrittene Funktionen von PostgreSQL besprechen. hinter konsistenten Schnittstellen verbergen.sql im Tutorial-Verzeichnis finden. wie Sie diese Datei verwenden können. prcp. temp_lo. Sie können eine Sicht (englisch View) für die Anfrage erzeugen. Nehmen wir an. aber Sie die Anfrage nicht jedes Mal eingeben wollen. Es ist also von Vorteil. wenn Sie dieses Kapitel gelesen haben. während Ihre Anwendung wächst. wodurch Sie der Anfrage einen Namen geben. cities WHERE city = name. die hier nicht wiederholt werden. date. Am Ende werden wir einige PostgreSQL-Erweiterungen anschauen.6 an. die Verwaltung der Daten zu vereinfachen oder den Verlust oder die Verfälschung von Daten zu verhindern. SELECT * FROM myview. location FROM weather.3 3 Fortgeschrittene Funktionen 3. (Sehen Sie unter Abschnitt 2. CREATE VIEW myview AS SELECT city. 47 . dass die kombinierte Liste aus Wetterdatensätzen und Städtekoordinaten für Ihre Anwendung besonders interessant ist.1 nach. Mit Sichten können die Strukturdetails Ihrer Tabellen. den Sie wie eine normale Tabelle verwenden können. die dazu dienen.) 3. Dieses Kapitel wird sich gelegentlich auf die Beispiele in Kapitel 2 beziehen. Einige Beispiele in diesem Kapitel können Sie auch in der Datei advanced. Diese Datei enthält auch einige Beispieldaten zum Laden.

48 . Diese Lösung hat eine Reihe von Problemen und ist ziemlich unbequem. weather ( varchar(80) references cities. Betrachten Sie folgendes Problem: Sie wollen sich versichern. 3.4 Transaktionen Transaktionen sind ein grundlegendes Konzept aller Datenbanksysteme. aber PostgreSQL kann das für Sie übernehmen. implementieren. 3.Kapitel 3 Sichten können fast überall verwendet werden. die keinen passenden Eintrag in der Tabelle cities hat. indem man in die Tabelle cities schaut. Dies bezeichnet man als das Erhalten der referenziellen Integrität der Daten. In einfachen Datenbanksystemen würde man das. Die wichtigste Eigenschaft einer Transaktion ist. einen ungültigen Datensatz einzufügen: INSERT INTO weather VALUES ('Berkeley'. date Nun versuchen Sie. ob ein passender Datensatz existiert. gleichzeitig ausgeführte Transaktionen nicht sichtbar. 0.0. der verhindert. Auch das Erzeugen von Sichten basierend auf anderen Sichten ist nicht unüblich. wenn überhaupt. Die Stadien zwischen den Schritten sind für andere.3 Fremdschlüssel Erinnern Sie sich an die Tabellen weather und cities aus Kapitel 2. dann haben die Schritte der Transaktion überhaupt keine Auswirkung auf die Datenbank. und daher sollten Sie sich unbedingt mit ihnen vertraut machen. Wir werden es in diesem Tutorial bei diesem einfachen Beispiel belassen und verweisen Sie auf Kapitel 5 für weitere Informationen. dass niemand eine Zeile in die Tabelle weather einfügen kann. ERROR: <unnamed> referential integrity violation . und falls irgendein Fehler passiert. int. und danach den neuen weather-Datensatz einfügt oder ablehnt. 45. Die neue Deklaration der Tabellen sieht so aus: CREATE TABLE cities ( city varchar(80) primary key. Die korrekte Verwendung von Fremdschlüsseln wird die Qualität Ihrer Datenbankanwendungen ganz bestimmt verbessern. dass die Transaktion beendet wird. int. um zu sehen. '1994-11-28'). wo eine richtige Tabelle verwendet werden kann. CREATE TABLE city temp_lo temp_hi prcp date ). location point ). 53. real.key referenced from weather not found in cities Das Verhalten von Fremdschlüsseln kann genau auf Ihre Anwendung abgestimmt werden. dass sie mehrere Schritte zu einer einzigen Alles-oder-nichts-Operation zusammenfasst.

die unvollständigen Änderungen der anderen zu sehen. um diese relativ einfache Operation auszuführen. 49 . Wenn wir die Aktualisierungen in eine Transaktion zusammenfassen. Transaktionen müssen also nicht nur in Bezug auf ihre dauerhafte Auswirkung auf die Datenbank alles-oder-nichts sein. sind für andere Transaktionen unsichtbar. Es wäre sicherlich nicht akzeptabel.100. dass das Konto von Anne jetzt im Minus ist). während sie ablaufen. aber nicht die Gutschrift auf Bernds Konto. Die Aktualisierungen. die die Kontostände verschiedener Kundenkonten enthält. sowie die Summen der Kontostände in den Zweigstellen. Wenn zum Beispiel eine Transaktion damit beschäftigt ist. Und Anne wäre sicherlich nicht lange ein zufriedener Kunde. wenn nach einem Systemausfall Bernd 100 Euro hätte. In PostgreSQL verwendet man eine Transaktion. oder umgekehrt. Wenn zum Beispiel Bernd Bargeld von seinem Konto abhebt. COMMIT. die Transaktionen unterstützt. wenn die Transaktion einmal abgeschlossen und vom Datenbanksystem bestätigt wurde. Wir wollen sicher sein. dass die Belastung seines Kontos nicht in einem Systemausfall verloren geht. Festplatte) geschrieben worden sind. passiert entweder die ganze Transaktion oder gar nichts. wir möchten eine Überweisung von 100 Euro von Annes auf Bernds Konto tätigen. wenn das Geld von ihrem Konto abgezogen würde. bis erstere abgeschlossen wird. Transaktionen sind atomar: Vom Standpunkt anderer Transaktionen aus gesehen.100. die von einer noch nicht abgeschlossenen Transaktion gemacht wurden. Nehmen wir an. bevor die Transaktion als abgeschlossen bestätigt wird. -. Die Einzelheiten dieser Befehle sind hier nicht wichtig. dann haben wir diese Garantie.Fortgeschrittene Funktionen Betrachten Sie zum Beispiel die Datenbank einer Bank. UPDATE zweigstellen SET kontostand = kontostand . UPDATE zweigstellen SET kontostand = kontostand + 100. UPDATE konten SET kontostand = kontostand .00 WHERE name = 'Bernd'. dass. wenn sie die Belastung von Annes Konto mitzählt. die von Annes Konto nicht abzogen wurden.100. dann wäre es nicht akzeptabel.00 WHERE name = 'Anne'. Stark vereinfacht könnten die SQL-Befehle dafür etwa so aussehen: UPDATE konten SET kontostand = kontostand . sondern auch in Bezug auf ihre Sichtbarkeit. Wenn wir mitten in der Transaktion entscheiden. usw. und zu diesem Zeitpunkt werden alle Aktualisierungen gleichzeitig sichtbar. Eine weitere wichtige Eigenschaft einer transaktionsfähigen Datenbank ist eng mit der Idee der atomaren Akualisierungen verwandt: Wenn mehrere Transaktionen gleichzeitig ablaufen. dass mehrere getrennte Aktualisierungen benötigt werden. indem man die SQL-Befehle der Transaktion mit den Befehlen BEGIN und COMMIT umschließt. dass wir die Transaktion nicht abschließen wollen (vielleicht haben wir festgestellt. dass entweder alle diese Aktualisierungen oder keine von ihnen stattfinden. das Wichtige ist. wollen wir sicherstellen. dann können wir den Befehl ROLLBACK statt COMMIT ausführen und alle unsere Aktualisierungen werden verworfen. Außerdem möchten wir die Garantie haben.00 WHERE name = 'Anne'. wenn etwas mitten in der Operation fehlschlägt.00 WHERE name = (SELECT zweig_name FROM konten WHERE name = 'Anne'). ohne dass Bernd es erhalten hätte. dass. sollte es ihnen nicht möglich sein.00 WHERE name = (SELECT zweig_name FROM konten WHERE name = 'Bernd'). während er gerade die Bank verlässt.B. Wir brauchen eine Garantie.usw. sie dann wirklich aufgezeichnet wurde und nicht durch einen Systemausfall kurze Zeit später verloren gehen kann. UPDATE konten SET kontostand = kontostand + 100. Unsere Banktransaktion würde also etwa so aussehen: BEGIN. garantiert dass alle Aktualisierungen auf eine dauerhaftes Speichermedium (z. die bis dahin ausgeführten Schritte nicht ausgeführt werden. Eine Datenbank. die Kontostände aller Zweigstellen zusammenzuzählen.

Wenn Sie keinen BEGIN-Befehl ausführen.Kapitel 3 PostgreSQL führt in Wirklichkeit jeden Befehl in einer Transaktion aus. int -. wenn Sie mehrere Zeilen aktualisieren wollen. Es eröffnet interessante neue Möglichkeiten beim Entwerfen einer Datenbank.(in Fuß) char(2) non_capitals ( text. Wenn Sie sehr raffiniert sind. alle Hauptstädte automatisch anzuzeigen. Hier ist eine bessere Lösung: CREATE TABLE name population altitude ). also möchten Sie vielleicht eine Möglichkeit haben. CREATE TABLE name population altitude ). ohne dass Sie dazu aufgefordert werden müssen. danach ein automatisches COMMIT ausgeführt. cities ( text. population. Erzeugen wir zwei Tabellen: Eine Tabelle cities für Städte und eine Tabelle capitals für Hauptstädte.(in Fuß) 50 . Das funktioniert auch gut für Anfragen. aber es wird sehr umständlich. Natürlich sind Hauptstädte auch Städte. real. würden Sie vielleicht ein System wie dieses erfinden: CREATE TABLE name population altitude state ). Anmerkung Manche Clientbibliotheken führen BEGIN und COMMIT automatisch aus und erzeugen daher möglicherweise den Effekt eines Transaktionsblocks. int -. Eine Gruppe von Befehlen zwischen einem ausdrücklichen BEGIN und COMMIT wird manchmal Transaktionsblock genannt. int. real. wenn Sie alle Städte auflisten.(in Fuß) CREATE VIEW cities AS SELECT name. altitude FROM capitals UNION SELECT name. -.5 Vererbung Vererbung ist ein Konzept der objektorientierten Datenbanken. 3. population. um nur ein Problem zu nennen. Prüfen Sie die Anleitung der Schnittstelle. die Sie verwenden möchten. capitals ( text. falls der Befehl erfolgreich war. dann wird vor jedem Befehl ein automatisches BEGIN und. altitude FROM non_capitals. real.

state. Diese werden in allen Einzelheiten im Rest dieses Buchs besprochen. Wenn Sie denken. die hier nicht besprochen wurden. UPDATE und DELETE – unterstützen diese ONLY-Option. Das Ergebnis: name | altitude -----------+---------Las Vegas | 2174 Mariposa | 1953 Madison | 845 (3 rows) Die folgende Anfrage andererseits findet alle Städte. die nicht Hauptstädte und 500 Fuß oder höher gelegen sind: SELECT name. 51 . In diesem System erbt (englisch to inherit) eine Zeile der Tabelle capitals alle Spalten (name.6 Schlussfolgerung Die Einführung war für neue Benutzer bestimmt und PostgreSQL hat viele Features. die anzeigt. Viele der bisher besprochenen Befehle – SELECT. In PostgreSQLkann eine Tabelle von ein oder mehreren Tabellen erben. zu welchem Bundesstaat die Hauptstadt gehört. 3. Der Typ der Spalte name ist text. die höher als 500 Fuß gelegen sind: SELECT name. dass die Anfrage nur die cities-Tabelle lesen soll und nicht die Tabelle unterhalb von cities in der Vererbungshierarchie.Fortgeschrittene Funktionen CREATE TABLE capitals ( state char(2) ) INHERITS (cities). name | altitude -----------+---------Las Vegas | 2174 Mariposa | 1953 (2 rows) Das ONLY vor cities zeigt an. dass Sie noch mehr Material zum Lernen benötigen. altitude FROM ONLY cities WHERE altitude > 500. wo Sie Links zu weiteren Quellen finden. ein eingebauter PostgreSQL-Typ für Zeichenketten mit beliebiger Länge. einschließlich der Hauptstädte. altitude FROM cities WHERE altitude > 500. besuchen Sie bitte die PostgreSQL Website. population und altitude) der Elterntabelle cities. oder natürlich von gar keiner. Die folgende Anfrage findet zum Beispiel die Namen aller Städte. Die Hauptstädte der Bundesstaaten haben eine zusätzliche Spalte.

.

sodass fortgeschrittene Anwender die Kapitel einzeln auswählen und lesen können. die Datenbank gefüllt wird und wie Anfragen geschrieben werden. In diesem Teil sind die Informationen erzählerisch in Themenbereichen aufbereitet. Leser dieses Teils sollten wissen. Leser. wie man mit einer PostgreSQL-Datenbank verbindet und SQL-Befehle ausführt. aber andere Programme mit ähnlicher Funktionalität können ebenso verwendet werden. die wichtig sind. um eine Datenbank auf optimale Leistung abzustimmen. Leser. 53 . SQL-Befehlew werden normalerweise mit dem interaktiven PostgreSQL-Terminalprogramm psql eingegeben. die in SQL-Datenbefehlen verwendet werden können. wie die Sprache SQL in PostgreSQL verwendet wird. die damit noch nicht vertraut sind. dann behandeln wir.3 Teil II Die SQL-Sprache Dieser Teil beschreibt. sollten zuerst Teil I lesen. die eine vollständige Beschreibung eines bestimmten Befehls suchen. Andererseits sind die Kapitel unabhängig voneinander. sollten in Teil VI nachschauen. wie Datenstrukturen erzeugt werden. Zuerst erklären wir die allgemeine Syntax von SQL. ohne zu oft nach vorne blättern zu müssen. Die Informationen in diesem Teil sind so angeordnet. Der Rest des Teils behandelt verschiedene Aspekte. Der Mittelteil listet die Datentypen und Funktionen. dass ein neuer Anwender sie von vorne nach hinten durcharbeiten kann und dabei ein vollständiges Verständnis der Themen erhält.

VAKAT VAKAT .

'Hallo daheim!').1 Lexikalische Struktur Eine SQL-Eingabe besteht aus einer Reihe von Befehlen. um Daten zu definieren oder zu verändern. Ein Token kann ein Schlüsselwort. dieses Kapitel sorgfältig zu lesen. eine Konstante oder ein Sonderzeichen sein. Sie sind keine Tokens und werden gewissermaßen durch Leerzeichen ersetzt. Tokens sind normalerweise durch Leerzeichen. hängt von der Syntax des jeweiligen Befehls ab. Welche Tokens gültig sind. ein Name in Anführungszeichen. 55 . denn mehrere Regeln und Konzepte sind in verschiedenen SQL-Datenbanken unterschiedlich umgesetzt oder sind nur in PostgreSQL vorhanden. wie man SQL-Befehle verwendet. Welche Tokens Befehle anzeigen und welche Tokens Operanden oder Parameter sind. ein Name. wenn dadurch keine Zweideutigkeit entsteht (was in der Regel nur der Fall ist. Zusätzlich können im SQL-Text Kommentare auftreten. Es bildet die Grundlage.4 4 SQL-Syntax Dieses Kapitel beschreibt die Syntax der Sprache SQL. aber das muss nicht sein. Die ersten paar Tokens stehen in der Regel für den Namen des Befehls. welche beschreiben. eine Zeile kann mehrere Befehle enthalten und ein Befehl kann auch sinnvoll über mehrere Zeilen verteilt werden). wenn ein Sonderzeichen neben einem anderen Tokentyp steht). Die genauen Syntaxregeln für jeden Befehl sind in Teil VI beschrieben.und einem »INSERT«Befehl spricht. sodass man in dem Beispiel oben gewöhnlich von einem »SELECT«-. ist in der SQL-Syntax nicht klar geregelt. Folgender Text ist zum Beispiel (syntaktisch) gültiger SQL-Text: SELECT * FROM MEINE_TABELLE.«) abgeschlossen. die zum Verstehen der folgenden Kapitel notwendig ist. INSERT INTO MEINE_TABELLE VALUES (3. Das Ende des Eingabestroms zeigt auch das Ende des Befehls an. Das ist eine Reihe von drei Befehlen. einem »UPDATE«. Ein Befehl besteht aus einer Reihe von Tokens und wird mit einem Semikolon (». 4. die sich mit SQL schon auskennen. Wir raten auch Benutzern. einem pro Zeile (obwohl das nicht notwendig ist. UPDATE MEINE_TABELLE SET A = 5. Aber der UPDATE-Befehl zum Beispiel erfordert immer auch ein SET-Token in einer bestimmten Position und diese bestimmte Variante von INSERT erfordert zur Vollständigkeit immer auch ein VALUES. Tabs oder Zeilenenden getrennt.

Das System verwendet nur maximal NAMEDATALEN-1 Zeichen eines Namens. dann spielt auch die Groß. Die Umwandlung von Namen ohne Anführungszeichen in Kleinbuchstaben in PostgreSQL ist nicht mit dem SQLStandard kompatibel. Das obige Beispiel kann mit Namen in Anführungszeichen folgendermaßen geschrieben werden: UPDATE "meine_tabelle" SET "a" = 5.1 Namen und Schlüsselwörter Tokens wie SELECT. aber "Foo" und "FOO" bezeichnen Namen.h verändert werden. das heißt.Kapitel 4 4. längere Namen können verwendet werden. Es gibt noch eine zweite Art von Namen: den Namen in Anführungszeichen. aber sie werden abgeschnitten. also ist die Maximallänge eines Namens 63. dass man Schlüsselwörter groß und Namen klein schreibt. dass man nur wissen kann. abhängig davon. Laut dem Standard sollte folglich foo gleich mit "FOO" sein und nicht mit "foo".oder Spaltennamen erwartet. dass sie für jeden Namen entweder immer oder nie Anführungszeichen verwenden.1. Also kann UPDATE MEINE_TABELLE SET A = 5. aber auch Umlaute und nichtlateinische Buchstaben) oder einem Unterstrich (_) beginnen. indem man eine beliebige Zeichenfolge in doppelte Anführungszeichen (") einschließt. wohingegen Namen ohne Anführungszeichen in Kleinbuchstaben umgewandelt werden. das Ziffern enthält oder mit einem Unterstrich beginnt oder endet. Eine komplette Liste der Schlüsselwörter ist in Anhang B zu finden. SQL-Namen und -Schlüsselwörter müssen mit einem Buchstaben (a-z. 56 . in welchem Befehl sie verwendet werden. geschrieben werden. Schlüsselwörter und Namen haben die gleiche lexikalische Struktur. wo PostgreSQL einen Tabellen. kann NAMEDATALEN in der Datei src/include/postgres_ext. (Wenn PostgreSQL gebaut wird. welcher aussagt.und Kleinschreibung eine Rolle. dass sie in Großbuchstaben umgewandelt werden sollten. schreiben Sie es doppelt. Um ein Anführungszeichen in einen Namen zu schreiben. die eine festgelegte Bedeutung in der SQL-Sprache haben. zum Beispiel solche mit Leerzeichen oder Punkten. um auf eine Spalte oder Tabelle namens select zu verweisen. Eine oft verwendete Konvention ist. das heißt Wörter. 1 1. Wenn Sie portierbare Anwendungen schreiben wollen dann empfehlen wir. Die nachfolgenden Zeichen in einem Namen oder einem Schlüsselwort können Buchstaben. Die Vorgabe für NAMEDATALEN ist 64. Dadurch können Sie Tabellen. UPDATE oder VALUES im obigen Beispiel sind Beispiele für Schlüsselwörter. Spalten oder anderen Datenbankobjekten. Wenn man einen Namen in Anführungszeichen setzt.oder Spaltennamen verwenden. wenn man die Sprache kennt. die ansonsten nicht möglich wären. Ein Name in Anführungszeichen ist immer ein Name und niemals ein Schlüsselwort. "select" könnte also verwendet werden. genauso als uPDaTE mEine_TabeLLE SeT a = 5. also zum Beispiel UPDATE meine_tabelle SET a = 5.oder Kleinschreibung von Namen und Schlüsselwörtern ist unerheblich. welches Token ein Name und welches ein Schlüsselwort ist. Die Längenbeschränkung gilt aber weiterhin. wohingegen ein select ohne Anführungszeichen als Schlüsselwort interpretiert würde und daher einen Parsefehler verursachen würde. Sie bezeichnen die Namen von Tabellen. So sind zum Beispiel FOO. Er wird geschrieben. foo und "foo" derselbe Name. Ziffern (0-9) oder Unterstriche sein. Die Tokens MEINE_TABELLE und A sind Beispiele von Namen oder Bezeichnern. die sich von den ersten drei und voneinander unterscheiden. wenn es dort verwendet wird.) Die Groß. obwohl der SQL-Standard kein Schlüsselwort definieren wird. Namen in Anführungszeichen können jedes Zeichen enthalten außer dem Anführungszeichen selbst.

mit einem X (groß oder klein) vor dem Anführungszeichen. Tabs und mindestens einen Zeilenumbruch getrennt sind.1. In PostgreSQL kann ein Apostroph auch in eine Zeichenkette eingefügt werden. Die einzigen Zeichen. sind 0 und 1.) Bitkettenkonstanten Bitkettenkonstanten sehen aus wie Zeichenkettenkonstanten mit einem B (groß oder klein geschrieben) direkt vor dem Anführungszeichen (ohne Leerzeichen dazwischen).2 Konstanten Es gibt drei Arten von Konstanten mit implizitem Typ in PostgreSQL: Zeichenketten.B. Zeichenkettenkonstanten Eine Zeichenkette in SQL ist eine Reihe von beliebigen Zeichen. Die impliziten Konstanten sind unten beschrieben. Backslash-Escape-Folgen im Stile von C sind auch möglich: \b ist ein Backspace (vorangegangenes Zeichen löschen). Um also ein Backslash in eine Zeichenkettenkonstante zu schreiben. (Dieses etwas wundersame Verhalten ist von SQL vorgeschrieben. Zum Beispiel: SELECT 'foo' 'bar'. Zahlenkonstanten Zahlenkonstanten können in diesen allgemeinen Formen geschrieben werden: 57 . geschrieben werden. Konstanten können auch mit explizitem Typ angegeben werden. Zwei Zeichenkettenkonstanten. Das Zeichen mit dem Code null kann nicht in einer Zeichenkettenkonstante enthalten sein. indem man ihm einen Backslash (»\«) voranstellt (z. z. Beide Formen der Bitkettenkonstante können wie normale Zeichenkettenkonstanten über mehrere Zeilen verteilt werden. die expliziten Konstanten folgen danach. 'Dianne\'s horse'). die von halben Anführungszeichen bzw. ist eine ungültige Syntax.B. indem man ihn doppelt schreibt (z. aber SELECT 'foo' 'bar'. B'1001'. \r ist ein Wagenrücklauf (englisch carriage return). Bitketten und Zahlen. X'1FF'. werden zusammengehängt und faktisch so behandelt. z. \f ist ein Form-Feed. Jedes andere Zeichen nach einem Backslash wird unverändert übernommen. die nur durch Leerzeichen. 'Dianne''s horse'). ist das Zeichen mit dem entsprechenden ASCII-Code. wodurch eine genauere und effizientere Verarbeitung im System erreicht werden kann. Ein Apostroph kann in eine Zeichenkette eingefügt werden. Diese Schreibweise ist gleichbedeutend mit einer Bitkettenkonstante mit vier Binärziffern für jede Hexadezimalziffer. zum Beispiel 'Das ist eine Zeichenkette'. als ob sie als eine Konstante geschrieben worden wären. \t ist ein Tab und \xxx.B.B.SQL-Syntax 4. Als Alternative können Bitkettenkonstanten auch in hexadezimaler Schreibweise. \n ist ein Zeilenumbruch. ist gleichbedeutend mit: SELECT 'foobar'. geben Sie zwei Backslashes hintereinander ein. wobei xxx eine Oktalzahl ist. PostgreSQL folgt dem Standard. Apostrophen (»'«) eingeschlossen sind. die in Bitkettenkonstanten erlaubt sind.

Die ausdrückliche Umwandlung kann ausgelassen werden. Konstanten mit Punkt oder Exponent werden anfänglich immer als Typ numeric verarbeitet. gibt (zum Beispiel weil sie als Argument einer nicht überladenen Funktion verwendet wird). den die Konstante haben muss. dass ein Plus. Mindestens eine Ziffer muss nach der Exponentenmarkierung (e) stehen. .925e-3 Eine Zahlenkonstante ohne Punkt und Exponent wird anfänglich als Typ integer verarbeitet. Der anfänglich zugewiesene Datentyp einer Zahlenkonstante ist nur ein Ausgangspunkt für den Typauflösungsalgorithmus. CAST() und die funktionsaufrufähnliche Form können auch verwendet werden. Beachten Sie auch. Mindestens eine Ziffer muss vor oder nach dem Punkt (der für das Komma steht) stehen. ansonsten wird der Typ numeric verwendet.2.Kapitel 4 ziffern ziffern. dann können Sie einen Zahlenwert in einen bestimmten Datentyp mit einer expliziten Typumwandlung (englisch Cast) zwingen.2.23::REAL -. sondern als vorgestellter Operator verarbeitet wird. Leerzeichen oder andere Zeichen dürfen in einer Zahlenkonstante nicht vorkommen. um den Typ eines beliebigen Ausdrucks anzugeben. wenn der Wert in den Typ integer passt (32 Bits). Eine Typumwandlung kann auch mit einer Syntax ähnlich eines Funktionsaufrufs durchgeführt werden: typname ( 'zeichen' ) Aber nicht alle Typnamen können auf diese Art verwendet werden. wenn es keine Zweideutigkeit bezüglich des Typs. Das Ergebnis ist eine Konstante des angegebenen Typs. falls eine verwendet wird. Wenn es erforderlich ist.6 besprochen. wenn der Wert in den Typ bigint passt (64 Bits). Sie können zum Beispiel erzwingen.PostgreSQL-Stil (historisch) Konstanten anderer Typen Eine Konstante eines beliebigen Typs kann in jeder der folgenden Schreibweisen eingegeben werden: typ 'zeichen' 'zeichen'::typ CAST ( 'zeichen' AS typ ) Der Text der Zeichenkette wird der Eingabeumwandlungsroutine des benannten Typs übergeben. indem Sie schreiben REAL '1. Die Formen ::.6 wegen Einzelheiten.5 4. ansonsten wird der Typ bigint angenommen. falls ein Punkt verwendet wird. In den meisten Fällen wird die Konstante automatisch je nach Zusammenhang in den passenden Typ umgewandelt. Hier sind einige Beispiele für gültige Zahlenkonstanten: 42 3. wie in Abschnitt 4. dass ein Zahlenwert als Typ real (float4) behandelt wird. in diesem Fall wird sie automatisch umgewandelt. Aber die Form typ 58 .001 5e2 1.ziffern[e[+-]ziffern] zifferne[+-]ziffern wobei ziffern für eine oder mehrere Dezimalziffern (0 bis 9) steht. siehe Abschnitt 4.oder Minuszeichen am Anfang nicht wirklich Teil der Konstante ist.[ziffern][e[+-]ziffern] [ziffern].23' -.Zeichenkettenstil 1.

. kann nicht auf + oder – enden. um Unklarheiten zu vermeiden. Die einzelnen Arrayelemente können zwischen Anführungszeichen (") gesetzt werden. die im vorigen Abschnitt besprochen wurden. Ohne Anführungszeichen überspringt der Arrayparser vorangestellte Leerzeichen. nicht aber *-. Ein Beispiel einer Arraykonstante ist '{{1.. Es kann allerdings Teil eines Operatornamens aus mehreren Zeichen sein. zu verarbeiten. ohne Leerzeichen zwischen den Tokens zu erfordern. wie es in seinem pg_type-Eintrag gespeichert ist.6}. dass sie nicht für Arraytypen funktioniert. Wenn Sie zum Beispiel einen linken Präfixoperator namens @ definiert haben. müssen Sie in der Regel die Operatoren mit Leerzeichen voneinander trennen. um den Typ einer Arraykonstante festzulegen.5.8. können Sie nicht X*@Y schreiben. der Name enthält mindestens eins der folgenden Zeichen: ~ ! @ # % ^ & | ` ? $ So ist zum Beispiel @. Die Konstante wird anfänglich als Textkonstante behandelt und wird dann an die Eingabeumwandlungsroutine für Arrays übergeben. Arraykonstanten Das allgemeine Format einer Arraykonstante ist das folgende: '{ wert1 trenn wert2 trenn . um Unklarheiten über Leerzeichen zu vermeiden. die nicht dem SQL-Standard folgen. Diese Einschränkung erlaubt es PostgreSQL. verwenden Sie :: oder CAST(). ❏ -. (Für alle eingebauten Typen ist das das Komma. der aus mehreren Zeichen besteht. Eine weitere Einschränkung bezüglich typ 'zeichen' ist.{4. sondern Sie müssen X* @Y schreiben. die dem SQL-Standard folgen. }' wobei trenn für das Trennzeichen des Typs steht. weil sie als der Anfang eines Kommentars angenommen werden. 59 .2.) Jedes wert ist entweder eine Konstante des Arrayelementtyps oder ein Subarray.* / < > = ~ ! @ # % ^ & | ` ? $ Es gibt allerdings ein paar Einschränkungen für die Operatornamen: ❏ $ (Dollarzeichen) kann nicht als einzelnes Zeichen ein Operator sein.1.3}. Anfragen. Wenn Sie mit Operatornamen arbeiten.SQL-Syntax 'zeichen' kann nur verwendet werden.{7. dass PostgreSQL den Ausdruck als zwei Operatornamen liest und nicht nur als einen. um sicherzustellen.3 Operatoren Ein Operator ist eine Folge von bis zu NAMEDATALEN-1 (normalerweise 63) Zeichen aus der folgenden Liste: + . Eine ausdrückliche Typumwandlung kann notwendig sein. das aus drei Subarrays mit Ganzzahlen besteht.9}}' Diese Konstante ist ein zweidimensionales 3-mal-3-Array.und /* können nirgendwo in einem Operatornamen auftauchen. es sei denn. um den Typ einer Konstante zu bestimmen. (Arraykonstanten sind im Prinzip nur ein besonderer Fall der allgemeinen Typkonstanten.ein zulässiger Operatorname.) 4. ❏ Ein Operatorname.

um Elemente einer Liste zu trennen. 60 . in einer Zeichenkettenkonstante oder einem Namen in Anführungszeichen. Zum Beispiel: -. das nicht intuitiv ist. Tabellenund Spaltennamen zu trennen. Dieser Abschnitt dient nur dazu.) wird in Zahlenkonstanten verwendet (anstelle des Kommas) und um Schema. steht der Doppelpunkt vor Variablennamen. Es kann sonst nirgendwo in einem SQL-Befehl auftreten. um Elemente aus Arrays auszuwählen. Das kann zu einem Verhalten führen. wie in SQL99 vorgeschrieben.) schließt einen SQL-Befehl ab. ❏ Kommas (. ❏ Das Semikolon (. Die meisten Operatoren haben den gleichen Vorrang und sind links anhänglich. wenn er im SELECT-Befehl oder in der Aggregatfunktion COUNT verwendet wird. Der Vorrang und die Anhänglichkeit sind im Parser festgeschrieben. die aber nicht einem Operatornamen entspricht. Diese Blockkommentare können verschachtelt werden.1. (Siehe Abschnitt 8.6 Vorrang Tabelle 4.Das ist ein normaler SQL92-Kommentar.1. ❏ Der Punkt (. um aus Arrays »Stücke« auszuwählen. es sei denn. 4. so haben zum Beispiel die Boole'schen Operatoren < und > einen anderen Vorrang als die Boole'schen Operatoren <= und >=. ❏ Der Doppelpunkt (:) wird verwendet. ❏ Klammern (()) haben ihre gewöhnliche Bedeutung.11. die nicht alphanumerisch sind. wo das Syntaxelement beschrieben ist.11 nach.4 Sonderzeichen Einige Zeichen. haben besondere Bedeutung. ❏ Der Stern (*) hat eine besondere Bedeutung. die mit zwei Minuszeichen anfängt und bis zum Zeilenende geht. Sehen Sie in Abschnitt 8.1 zeigt den Vorrang und die Anhänglichkeit der Operatoren in PostgreSQL.Kapitel 4 4. selbst wenn diese selbst Blockkommentare enthalten. 4.) In einigen SQL-Dialekten (wie zum Beispiel eingebettetes SQL (englisch Embedded SQL)). Ein Kommentar wird vom Eingabestrom entfernt. bevor die Syntax weiter analysiert wird. Sie auf das Vorhandensein dieser Zeichen hinzuweisen und ihre Zwecke zusammenzufassen.1.5 Kommentare Ein Kommentar ist eine beliebige Reihe von Zeichen. In einigen Fällen sind Klammern fester Bestandteil der Syntax bestimmter SQL-Befehle. In anderen Zusammenhängen kann das Dollarzeichen Teil eines Operatornamens sein. Als Alternative können Blockkommentare im C-Stil verwendet werden: /* mehrzeiliger Kommentar * mit Verschachtelung: /* verschachtelter Blockkommentar */ */ Der Kommentar beginnt mit /* und geht bis zum passenden */. ❏ Eckige Klammern ([]) werden verwendet. sodass man größere Blöcke Code auskommentieren kann.) werden in einigen Zusammenhängen verwendet. um mehr Informationen über Arrays zu erhalten. Einzelheiten können Sie dort finden. aber im Gegensatz zu C. Ausdrücke zu gruppieren und die Reihenfolge in der Auswertung der Ausdrücke zu erzwingen. ❏ Ein Dollarzeichen ($) gefolgt von Ziffern steht für die Positionsparameter im Körper einer Funktionsdefinition. und faktisch durch Leerzeichen ersetzt.

was Ihrer tut.6). IS FALSE. ganz gleich. größer als rechts rechts links links Gleichheit. müssen Sie SELECT (5 !) . IS UNKNOWN. wird verarbeitet als SELECT 5 ! (. Wenn Sie zum Beispiel einen Operator »+« für einen eigenen Datentyp definieren. dann hat er den gleichen Vorrang wie der eingebaute »+«-Operator. weil der Parser keine Ahnung hat – bevor es zu spät ist -. :: [ ] ^ * / % + IS ISNULL NOTNULL Anhänglichkeit links links links rechts links links links Beschreibung Trennung von Tabellen-/Spaltennamen PostgreSQL -Stil Typumwandlung Auswahl Arrayelement unäres Minus Potenzierung Multiplikation. Operator/Element . Subtraktion IS TRUE. IS NULL Test für NULL Test für nicht NULLs links alle anderen eingebauten und benutzerdefinierten Operatoren Mengenmitgliedschaft Vergleich Zeitintervall überlappt Mustervergleich von Zeichenketten kleiner als.6.SQL-Syntax Manchmal werden Sie auch Klammern hinzufügen müssen. schreiben. Modulus Addition. wenn Sie Kombinationen von binären und unären Operatoren verwenden. Division. dass die Operatorvorrangsregeln auch für benutzerdefinierte Operatoren gelten.6. 61 . dass ! als Postfixoperator und nicht als Infixoperator definiert ist. Diesen Preis zahlt man für die Erweiterbarkeit. Um das gewünschte Verhalten in diesem Fall zu erreichen. Zum Beispiel: SELECT 5 ! . die die gleichen Namen haben wie die eingebauten Operatoren.1: Operatorvorrang (abnehmend) Beachten Sie. Wertzuweisung logische Negierung logische Konjunktion logische Disjunktion (alle anderen) IN BETWEEN OVERLAPS LIKE ILIKE SIMILAR < > = NOT AND OR Tabelle 4.

Das gilt unabhängig davon. Ein Beispiel ist die IS NULL-Klausel. um Teilausdrücke zu gruppieren und den Vorrang zu verändern Über diese Liste hinaus gibt es eine Reihe weiterer Konstruktionen. Wertausdrücke werden daher auch als Skalarausdrücke (oder einfach Ausdrücke) bezeichnet.oder UPDATE-Befehlen oder als Suchbedingungen in einer Reihe von Befehlen.+) 4.2 Wertausdrücke Wertausdrücke werden in verschiedenen Zusammenhängen verwendet.1 Spaltenverweise Auf eine Spalte kann man verweisen.1.spaltenname oder korrelation.1 mit »alle anderen« bezeichnet ist. siehe Abschnitt 4. welcher Operator nun genau innerhalb von OPERATOR steht. wie im Beispiel SELECT 3 OPERATOR(pg_catalog. 4.2. im Körper einer Funktionsdefinition ein Operatoraufruf ein Funktionsaufruf ein Aggregatausdruck eine Typumwandlung eine skalare Unteranfrage ein Wertausdruck in Klammern.1. Die folgenden Abschnitte besprechen die übrigen Möglichkeiten. aber keiner allgemeinen Syntaxregel folgen.spaltenname[index] (Die eckigen Klammern [ ] sollen hier wortwörtlich erscheinen. oder die Schlüsselwörter NEW oder OLD.2 besprochen. so zum Beispiel in der Zielliste eines SELECT-Befehls.2. logischen. Diese ähneln in der Regel einer Funktion oder einem Operator und sind im entsprechenden Abschnitt in Kapitel 9 erläutert. mengenarithmetischen und anderen Operationen. das in einer FROMKlausel definiert wurde. Konstanten haben wir schon in Abschnitt 4. als neue Spaltenwerte in INSERT. Ein Wertausdruck ist eines der Folgenden: ❏ ❏ ❏ ❏ ❏ ❏ ❏ ❏ ❏ eine Konstante. ein Spaltenverweis ein Verweis auf einen Positionsparameter. indem man schreibt: korrelation. (NEW und OLD können nur in Umschreibungsregeln auftreten.) korrelation ist der Name einer Tabelle (möglicherweise mit Schema) oder ein Alias.Kapitel 4 Wenn ein Operator mit Schemaname in der OPERATOR-Syntax verwendet wird. während die anderen Korrelationsnamen in jedem SQL-Befehl verwendet werden 62 . Das Ergebnis eines Wertausdrucks wird manchmal als Skalar bezeichnet. Die Syntax für Ausdrücke erlaubt die Berechnung von Werten aus einfachen Bestandteilen mit arithmetischen. um es vom Ergebnis eines Tabellenausdrucks (welches eine Tabelle ist) zu unterscheiden. die als Ausdruck klassifiziert werden können. dann hat die OPERATOR-Konstruktion den Standardvorrang. 4. der in Tabelle 4.

wenn der Spaltenname über alle Tabellen. als CREATE FUNCTION abteilung(text) RETURNS abteilung AS 'SELECT * FROM abteilung WHERE name = $1' LANGUAGE SQL. eindeutig ist. Wenn kein Index angegeben wird.2. 4.2 Positionsparameter Ein Positionsparameter ist ein Verweis auf einen Wert.operatorname) ist. abteilung.) Wenn spalte einen Arraytyp hat..11 für weitere Informationen über Arrays. ]] ) Das folgende Beispiel berechnet die Quadratwurzel (englisch square root) von 2: sqrt(2) 63 . welche Operatoren vom System oder vom Benutzer definiert worden sind.4 Funktionsaufrufe Die Syntax eines Funktionsaufrufs ist der Name einer Funktion (möglicherweise mit einem Schemanamen qualifiziert). Parameter werden in der Definition von SQL-Funktionen und in vorbereiteten Anfragen verwendet. (Siehe auch unter Abschnitt 8. Kapitel 9 beschreibt die eingebauten Operatoren. Die Form eines Parameterverweises ist: $zahl Betrachten Sie zum Beispiel die Definition einer Funktion.) 4. hängt davon ab. Wenn die Funktion aufgerufen wird.) Der Korrelationsname und der trennende Punkt können weggelassen werden.SQL-Syntax können. wird $1 hier durch das erste Funktionsargument ersetzt. der dem SQL-Befehl von einer externen Quelle zur Verfügung gestellt wird. ausdruck .3 Operatoraufrufe Es gibt drei mögliche Syntaxen für einen Operatoraufruf: ausdruck operator ausdruck (binärer Infix-Operator) operator ausdruck (unärer Präfix-Operator) ausdruck operator (unärer Postfix-Operator) wobei operator den in Abschnitt 4. OR und NOT oder ein qualifizierter Operatorname OPERATOR(schema. dann wird das gesamte Array ausgewählt. dann kann zusätzlich index verwendet werden.3 beschriebenen Syntaxregeln folgt oder eines der Schlüsselwörter AND. (Siehe auch Kapitel 7. gefolgt von der Argumentliste in Klammern: funktion ([ausdruck [.2. um ein bestimmtes Element oder bestimmte Elemente aus dem Array auszuwählen. 4. Welche Operatoren im Einzelnen vorhanden sind und ob sie unär oder binär sind.2.1. die in der gegenwärtigen Anfrage verwendet werden..

aber die vorgegebenen tun dies alle. (Tatsächlich entscheidet die Aggregatfunktion.2. 4. wie in Abschnitt Konstanten anderer Typen beschrieben. dann ist das eine Laufzeit-Umwandlung. Wenn eine Typumwandlung auf einen Wertausdruck mit bekanntem Typ angewendet wird. Die erste Form des Aggregatausdrucks führt die Aggregatfunktion für alle Eingabezeilen aus. Die dritte Form führt die Aggregatfunktion für alle unterschiedlichen Nicht-NULL-Werte. Andere Funktionen können vom Benutzer hinzugefügt werden. die auf eine einfache Zeichenkettenkonstante angewendet wird. Da kein bestimmter Eingabewert angegeben wird. wenn eine passende Umwandlungsfunktion verfügbar ist. Die letzte Form führt die Aggregatfunktion einmal für jede Eingabezeile aus. Eine Typumwandlung. die nicht NULL sind. aus. die sich aus dem Ausdruck für die Eingabezeilen ergeben. Eine ausdrückliche Typumwandlung kann normalerweise ausgelassen werden. Die Syntax eines Aggregatausdrucks ist eine der folgenden: aggregat_name aggregat_name aggregat_name aggregat_name (ausdruck) (ALL ausdruck) (DISTINCT ausdruck) ( * ) wo aggregat_name eine vorab definierte Aggregatfunktion (möglicherweise mit Schemaname) und ausdruck ein beliebiger Wertausdruck. ob der Wert NULL ist oder nicht. die von einer Anfrage ausgewählt wurden. ist.2. den der Wertausdruck produzieren muss.Kapitel 4 Die Liste der eingebauten Funktionen befindet sich in Kapitel 9. da ALL die Standardvorgabe ist. Eine Aggregatfunktion reduziert mehrere Eingabewerte auf einen einzelnen Wert. Ein Beispiel: count(*) ergibt die Gesamtzahl der Eingabezeilen. ist diese Form nur für die Aggregatfunktion count() nützlich. Die Umwandlung ist nur erfolgreich. count(distinct f1) ergibt die Gesamtzahl der unterschiedlichen Werte von f1. für die der angegebene Ausdruck keinen NULL-Wert ergibt. wenn keine Zweideutigkeit über den Typ. ist die anfängliche Zuweisung eines Typs für die Konstante und ist mit jedem Typ erfolgreich (wenn der Inhalt der Zeichenkette gültige Syntax für den Datentyp ist). Das ist auf subtile Weise anders als die Verwendung von Typumwandlungen mit Konstanten.14 beschrieben. 4. Die vordefinierten Aggregatfunktionen sind in Abschnitt 9. wo f1 nicht NULL ist. wie zum Beispiel die Summe oder den Durchschnitt der Werte.5 Aggregatausdrücke Ein Aggregatausdruck steht für die Anwendung einer Aggregatfunktion über eine Menge von Zeilen. ob sie NULL-Werte ignorieren will. besteht (wenn er zum Beispiel einer Tabellen- 64 . PostgreSQL akzeptiert zwei gleichbedeutende Syntaxen für Typumwandlungen: CAST ( ausdruck AS typ ) expression::type Die Syntax mit CAST stimmt mit dem SQL-Standard überein.) Die zweite Form ist die gleiche wie die erste. die Syntax mit :: ist die historische PostgreSQL-Variante. unabhängig davon.6 Typumwandlungen Eine Typumwandlung (englisch type cast) beschreibt die Umwandlung eines Datentyps in einen anderen. Andere Aggregatfunktionen können von Benutzern hinzugefügt werden. count(f1) ergibt die Gesamtzahl der Eingabezeilen. der nicht selbst einen Aggregatausdruck enthält.

(Aber wenn in einem bestimmten Aufruf die Unteranfrage gar keine Zeilen ergibt. um die Umwandlung durchzuführen. Es ist ein Fehler. 4.8 Auswertung von Ausdrücken Die Reihenfolge. damit überraschende Umwandlung nicht ohne Benachrichtigung ausgeführt werden. Insbesondere werden die Argumente einer Funktion oder eines Operators nicht unbedingt von links nach rechts oder in einer anderen festgelegten Reihenfolge ausgewertet. um eine Laufzeitumwandlung durchzuführen. die im Systemkatalog zur »automatischen Umwandlung freigegeben« sind. die auch als Funktionsnamen zulässig sind. Andere Umwandlungen müssen mit der ausdrücklichen Umwandlungssyntax durchgeführt werden. (Die funktionsähnliche Syntax ist tatsächlich ein normaler Funktionsaufruf. Das folgende Beispiel findet die Stadt mit der größten Einwohnerzahl in jedem Land: SELECT name. welche sich dann bei jeder einzelnen Auswertung der Unteranfrage als Konstanten verhalten. Daher führt die Verwendung der funktionsähnlichen Syntax zu Ungereimtheiten und sollte wahrscheinlich in neuen Anwendungen vermieden werden.) Die Unteranfrage kann sich auf Variablen in der äußeren Anfrage beziehen. Ferner gilt: Wenn das Ergebnis eines Ausdrucks auch bestimmt werden kann.) 4.name) FROM länder.2. aber portierbare Anwendungen sollten sich nicht darauf verlassen. dann ist das kein Fehler. in der Ausdrücke ausgewertet werden.2. aber mehr als eine Zeile oder eine Spalte ergibt. im Gegensatz zum gleichbedeutenden float8. Es ist auch möglich. in solchen Fällen wendet das System eine Umwandlung automatisch an. eine Typumwandlung in einer funktionsähnlichen Syntax zu schreiben: typname ( ausdruck ) Das funktioniert allerdings nur für Typnamen. Wenn man zum Beispiel schreiben würde SELECT true OR einefunktion(). dann könnten andere Teilausdrücke womöglich gar nicht ausgewertet werden. dann würde einefunktion() (wahrscheinlich) gar nicht aufgerufen werden. ist nicht definiert. die genau eine Zeile mit einer Spalte ergibt. wenn eine Anfrage als skalare Unteranfrage verwendet wird. sie werden von Anführungszeichen eingeschlossen. time und timestamp aufgrund von Syntaxkonflikten so nicht verwendet werden. wie man Anfragen schreibt.15. Es ist Brauch.) Der SELECT-Befehl wird ausgeführt und der einzelne Ergebniswert wird in dem übergeordneten Wertausdruck verwendet. Das Gleiche wäre der Fall wenn man schreiben würde SELECT einefunktion() OR true. Wenn einer der beiden normalen Umwandlungsyntaxen verwendet wird. dass diese Umwandlungsfunktionen den gleichen Namen haben wie ihr Ergebnistyp. Siehe auch unter Abschnitt 9.7 Skalare Unteranfragen Eine sklare Unteranfrage ist eine normale SELECT-Anfrage in Klammern. 65 . (SELECT max(einwohner) FROM städte WHERE städte. dann wird intern eine eingetragene Funktion aufgerufen. Diese Einschränkung besteht.land = länder.SQL-Syntax spalte zugewiesen wird). Diese automatische Umwandlung wird allerdings nur für Umwandlungen angewendet. es sei denn. (Siehe in Kapitel 7 für Informationen. wenn nur Teile davon ausgewertet werden. das skalare Ergebnis ist dann der NULL-Wert. Außerdem können die Namen interval. double precision kann zum Beispiel auf diese Art nicht verwendet werden.

die Reihenfolge der Auswertung von Ausdrücken festzulegen. 66 . eine Division durch null in einer WHERE-Klausel zu vermeiden: SELECT . Aber dies hier ist sicher: SELECT .5 ELSE false END. Wenn es erforderlich ist. da diese Klauseln umfassend umgearbeitet werden. Es ist besonders gefährlich.5.und HAVING-Klauseln zu verlassen.. verhindert Optimierungen und sollte daher nur wenn unbedingt nötig angewendet werden. umgeordnet werden. die von den Gesetzen der Boole'schen Algebra erlaubt werden. die in manchen Programmiersprachen angewendet wird. WHERE CASE WHEN x <> 0 THEN y/x > 1.Kapitel 4 Beachten Sie. Funktionen mit Nebenwirkungen in komplexen Ausdrücken zu verwenden. NOT) in diesen Klauseln können nach allen Möglichkeiten. sich auf die Nebenwirkungen oder die Auswertungsreihenfolge in WHERE.. Boole'sche Operationen (Kombinationen aus AND. WHERE x <> 0 AND y/x > 1. Folglich ist es unklug. während der Ausführungsplan einer Anfrage entwickelt wird. OR. dass das nicht das Gleiche ist wie die »Short-Circuiting«-Technik von Boole'schen Operationen von links nach rechts. Hier ist zum Beispiel eine unverlässliche Methode.. die auf diese Art verwendet wird. Eine CASE-Konstruktion.12) verwendet werden.. dann kann die CASE-Konstruktion (siehe Abschnitt 9.

einen semantischen Wert zu. wie Tabellen organisiert werden können. Ein Spalte. aber nicht für mathematische Berechnungen verwendet werden. wie viele Daten gerade gespeichert werden. 5. wie wir mit diesem Problem fertig werden können. Benutzer können auch ihre eigenen Datentypen definieren. indem man sie auf verschiedene Schemas verteilt. und wie Zugriffsrechte für Tabellen zugewiesen werden können. Jede Spalte hat einen Datentyp. sodass wir mit einer detaillierten Erklärung bis Kapitel 8 warten. In einer relationalen Datenbank werden die Daten in Tabellen abgespeichert. das SQL zugrunde liegt. Die meisten eingebauten Datentypen haben offensichtliche Namen und Bedeutungen. wie man die Datenbankstrukturen erzeugt. wie Zeichenkettenverknüpfung. die für viele Anwendungen passend sind. welche Daten in den Tabellen gespeichert werden können. sodass es möglich ist. numeric für Zahlen mit möglichem 67 . sodass sie in Berechnungen verwendet werden können. mehrere vollständig identische Zeilen in einer Tabelle zu haben. wie man Tabellen erzeugt und verändert und welche Fähigkeiten zur Verfügung stehen. aber die Daten in einer solchen Spalte können für mathematische Berechnungen verwendet werden. Das ist eine Folge des mathematischen Modells. so ziemlich alle Arten von Daten aufnehmen. und folglich erklärt der Großteil dieses Kapitels. und weist den Daten. akzeptiert keine beliebigen Zeichenketten. Außerdem weist SQL den Zeilen keine eindeutige Identifizierung zu. es sei denn eine Sortierung wird ausdrücklich angefordert. zuwenden. Weitere Informationen über diese Themen können Sie in Teil V finden. die zum Beispiel als Zahlentyp deklariert wurde. Die Anzahl der Zeilen ist veränderlich: Sie hängt davon ab. Im Gegensatz dazu kann eine Spalte.1 Tabellengrundlagen Eine Tabelle in einer relationalen Datenbank ist einer Tabelle auf Papier ziemlich ähnlich: Sie besteht aus Zeilen und Spalten. erscheinen die Zeilen in zufälliger Reihenfolge. die der Spalte zugewiesen werden können. SQL gibt aber keine Garantie über die Reihenfolge der Zeilen in einer Tabelle. aber es ist in der Regel nicht wünschenswert. die als Zeichenkettentyp deklariert wurde. Dies ist in Kapitel 7 besprochen. Anschließend besprechen wir. Dagegen stehen andere Operationen. wie zum Beispiel Sichten. die sich auf die Datenbankstrukturen auswirken. Die Anzahl und die Reihenfolge der Spalten ist festgelegt und jede Spalte hat einen Namen. Wenn eine Tabelle ausgelesen wird. PostgreSQL enthält eine Menge eingebauter Datentypen. zur Verfügung. Funktionen und Trigger. Später in diesem Kapitel werden wir sehen. die dann die zu verarbeitenden Daten enthalten. Am Schluss werden wir uns kurz weiteren Fähigkeiten. um zu kontrollieren. die in der Spalte gespeichert werden. Einige häufig verwendete Datentypen sind integer für Ganzzahlen.5 5 Datendefinition Dieses Kapitel behandelt. Dieser Datentyp beschränkt die Menge der möglichen Werte.

Der Rest dieses Kapitels beschäftigt sich mit weiteren Merkmalen. Normalerweise werden Sie Ihren Tabellen und Spalten Namen geben.1. Wenn Sie eine Tabelle nicht mehr benötigen. ein einheitliches Muster für die Namen von Tabellen und Spalten zu verwenden. Die erste Spalte heißt erste_spalte und hat den Datentyp text.) Tipp Wenn Sie viele Tabellen erstellen. Ein Tabelle mit so vielen Spalten zu erzeugen. In diesem Befehl geben Sie mindestens den Namen der neuen Tabelle. Es gibt eine Begrenzung. wobei beides von dem einen oder anderen Theoretiker bevorzugt wird. Das erzeugt eine Tabelle namens meine_erste_tabelle mit zwei Spalten. Mit den bis jetzt besprochenen Werkzeugen können Sie voll funktionsfähige Tabellen erzeugen. time für Tageszeitangaben und timestamp für Werte mit Datum und Zeit. die zweite Spalte heißt zweite_spalte und hat den Typ integer.Kapitel 5 Bruchteil. Zum Beispiel: CREATE TABLE meine_erste_tabelle ( erste_spalte text.5 weiter unten in diesem Kapitel. wie viele Spalten eine Tabelle enthalten kann. Um eine Tabelle zu erzeugen. Das obige Beispiel ist natürlich gekünstelt. Wenn Sie eine bestehende Tabelle verändern wollen. text für Zeichenketten. preis numeric ). die Namen der Spalten und die Datentypen jeder Spalte an. In Abhängigkeit von den Spaltentypen ist diese Grenze zwischen 250 und 1600. (Der Typ numeric kann Nachkommastellen speichern. zweite_spalte integer ). Tabellen vor der Erzeugung bedingungslos zu entfernen und die Fehlermeldungen zu ignorieren. dass die Spalteneinträge durch Kommas getrennt sind und die Spaltenliste in Klammern steht. verwenden Sie den Befehl CREATE TABLE. Die Namen der Tabelle und der Spalten müssen den in Abschnitt 4. in Stapeldateien mit SQL-Befehlen. um 68 . die Sie Ihren Tabellen hinzufügen können. date für Datumsangaben. die untereinander in Verbindung stehen. dann ist es sinnvoll. aber es gibt Ausnahmen. eine nicht vorhandene Tabelle zu entfernen. Beachten Sie. Schauen wir uns also ein etwas realistischeres Beispiel an: CREATE TABLE produkte ( produkt_nr integer. welche Daten sie speichern. die vermitteln.1 beschriebenen Regel für Namen folgen. dann können Sie sie mit dem Befehl DROP TABLE entfernen. Es gibt zum Beispiel die Wahl zwischen Einzahl und Mehrzahl für die Tabellennamen. wie sie in Preisangaben auftreten. Die Typnamen folgen diesen Regeln normalerweise auch. ist aber sehr ungewöhnlich und oft ein ziemlich fragwürdiger Entwurf. DROP TABLE produkte. Der Versuch. name text. Zum Beispiel: DROP TABLE meine_erste_tabelle. Trotzdem ist es gebräuchlich. ist ein Fehler. dann schauen Sie in Abschnitt 5.

ob der Name ein Schlüsselwort ist. Diese Spalte hat den Typ oid (gleicher Name wie die Spalte). dann springen Sie zu Kapitel 6 und lesen Sie den Rest dieses Kapitels später. Die tableoid kann mit der oid-Spalte der Tabelle pg_class verbunden werden. einen Unique Constraint für die OID-Spalte jeder Tabelle zu erzeugen. anzunehmen. dass diese Einschränkung nichts damit zu tun hat. Die OID oder besser noch eine benutzerdefinierte Seriennummer sollte zur Identifizierung von logischen Zeilen verwendet werden. dass OIDs eindeutig sind. die Tabelle wurde mit WITHOUT OIDS erzeugt. dass der Zähler überläuft und wieder von vorne anfängt. dann ist diese Spalte nicht vorhanden). indem Sie den Namen in Anführungszeichen setzen. die diese Zeile enthält. ( Jede Aktualisierung erzeugt eine neue Version derselben logischen Zeile. Diese Spalte kann auch für eine sichtbare Zeilenversion von null verschieden sein: Das bedeutet in der Regel.Datendefinition die Integrität oder Sicherheit der Daten sicherzustellen oder die Datenverwaltung bequemer zu gestalten. Wenn man OIDs zur Zeilenidentifikation verwendet. wenn sie aktualisiert oder durch VACUUM FULL bewegt wird. außer zu wissen. xmax Die Identität (Transaktionsnummer) der löschenden Transaktion oder null. In einer großen oder langlebigen Datenbank ist es deshalb möglich. cmax Die Befehlsnummer innerhalb der löschenden Transaktion oder null. außer wenn man Schritte unternimmt. ctid Die physikalische Speicherungsstelle der Zeilenversion innerhalb der Tabelle. dass sie existieren. wenn die Zeilenversion nicht gelöscht ist.) cmin Die Befehlsnummer (englisch Command Identifier) (von null an zählend) innerhalb der einfügenden Transaktion. die aus Vererbungshierarchien auswählen. aus welcher einzelnen Tabelle die Zeile kam. tableoid Die OID der Tabelle. OIDs sind 32-Bit-Größen und werden von einem einzigen Zähler in jedem Cluster erzeugt. Beachten Sie. um die Zeile schnell zu finden.10 für weitere Informationen über den Typ. die von PostgreSQL jeder Zeile automatisch hinzugefügt wird (es sei denn. Diese Spalte ist besonders nützlich in Anfragen. ist es zu empfehelen. Das ist eine Seriennummer. Daher ist es eine schlechte Strategie. siehe unter Abschnitt 8. (Beachten Sie. Daher ist die ctid als Zeilenidentifikation über längere Zeiträume hinweg nicht zu gebrauchen. dass die löschende Transaktion noch nicht abgeschlossen oder dass das versuchte Löschen zurückgerollt wurde. Diese Namen können daher nicht als Namen von benutzerdefinierten Spalten verwendet werden. denn ohne sie ist es schwer zu ermitteln. die diese Zeilenversion eingefügt hat. 5. oid Der Objekt-Identifikator (englisch Object Identifier) einer Zeile. in der die 69 . um den Tabellennamen zu ermitteln.2 Systemspalten Jede Tabelle hat mehrere Systemspalten. die Eindeutigkeit abzusichern. dass ctid zwar verwendet werden kann.) Sie müssen sich um diese Spalten nicht weiter kümmern. Wenn Sie ungeduldig sind und Ihre Tabellen jetzt mit Daten füllen wollen. Sie können diese Einschränkung nicht umgehen. xmin Die Identität (Transaktionsnummer) der Transaktion. aber die ctid einer Zeile ändert sich jedes Mal. die von System automatisch erzeugt werden.

beschränken. verwenden Sie die Kombination aus tableoid und der Zeilen-OID.3 Vorgabewerte Einer Spalte kann ein Vorgabewert (englisch default value) zugewiesen werden. wo die Daten unbekannt sind. Daten in eine Spalte zu schreiben. wenn Sie einen Zähler brauchen. wird ein Fehler ausgegeben. um einen überall eindeutigen Zähler zu konstruieren. Das ist normalerweise sinnvoll. Ein Spalte mit einem Produktpreis sollte zum Beispiel wahrscheinlich nur positive Werte aufnehmen dürfen. sich auf die Eindeutigkeit von Transaktionsnummern über lange Zeiträume (mehr als eine Milliarde Transaktionen) zu verlassen. Gehen Sie niemals davon aus. Aber es gibt keinen Datentyp. Für viele Anwendungen ist diese Art der Beschränkung aber zu grob. dass Sie die Spaltendaten vielleicht auch in Bezug auf die Daten in anderen Spalten oder Zeilen beschränken wollen. Constraints geben Ihnen genau soviel Kontrolle über Ihre Daten. wird der NULL-Wert als Vorgabe angenommen. ohne zu wissen. Zum Beispiel: CREATE TABLE produkte ( produkt_nr integer. Ein Datenmanipulationsbefehl kann auch ausdrücklich verlangen. preis numeric DEFAULT 9. Wenn eine neue Zeile erzeugt wird und für einige Spalten keine Werte angegeben sind. Eine andere Problematik ist. werden die Spalten mit ihren entsprechenden Vorgabewerten gefüllt.4 Constraints Mit der Auswahl des Datentyps kann man die Art der Daten. dass OIDs über mehrere Tabellen hinweg eindeutig sind. sodass tableoid dann verwendet werden muss. Das ist in der Praxis kein Problem.) Transaktionsnummern sind auch 32 Bit groß. Beachten Sie. weil ein NULL-Wert eingesetzt wird. Einzelheiten sind in Kapitel 21 zu finden. Das ist kein schwerwiegendes Problem.) Wenn kein Vorgabewert ausdrücklich definiert wurde.99 ). was dieser Wert ist. Daraus ergibt sich eine Grenze von 232 (4 Milliarden) SQLBefehlen innerhalb einer einzelnen Transaktion. Das gilt auch dann. die den Constraint verletzen würde. der nur positive Zahlen akzeptiert. wenn man die Wartungsprozeduren regelmäßig durchführt. (Einzelheiten zu Datenmanipulationsbefehlen finden Sie in Kapitel 6. In einer Tabelle mit Produktinformationen sollte zum Beispiel nur eine Zeile für jede Produktnummer auftauchen. dass diese Grenze sich auf die Anzahl der SQL-Befehle bezieht und nicht die Anzahl der verarbeiteten Zeilen. der in der ganzen Datenbank eindeutig ist. name text. Der Vorgabewert kann ein skalarer Ausdruck sein. dass die Transaktionsnummern überlaufen und von vorne zu zählen anfangen. wenn ein Vorgabewert in die Tabelle eingefügt wird (also nicht schon. Aus diesem Grund erlaubt SQL es Ihnen. Constraints (englisch für Beschränkungen) für Spalten und Tabellen zu definieren. Befehlsnummern sind ebenso 32 Bit groß. (Zukünftige Versionen von PostgreSQL werden wahrscheinlich einen getrennten OID-Zähler für jede Tabelle verwenden. In einer Tabellendefinition werden die Vorgabewerte nach dem Spaltendatentyp aufgelistet. In einer langlebigen Datenbank ist es daher möglich.Kapitel 5 OID verwendet werden soll. wenn die Tabelle erzeugt wird). Wenn ein Benutzer versucht. 5. Es ist allerdings nicht empfehlenswert. 70 . dass eine Spalte auf ihren Vorgabewert gesetzt wird. wenn der Wert aus der Definition des Vorgabewerts kam. die in einer Spalte gespeichert werden können. 5. wie sie wollen. welcher immer ausgewertet wird.

Der dritte verwendet eine neue Syntax. Spalten-Constraints können auch als Tabellen-Constraints geschrieben werden. Er steht nicht bei einer bestimmten Spalte. genauso wie die Definition des Vorgabewerts. 71 . sondern als getrenntes Element in der Spaltenliste. einen beliebigen Ausdruck anzugeben. name text. name text. ansonsten wäre der Constraint nicht sehr sinnvoll. aber umgekehrt ist das nicht immer möglich. den jeder Wert einer Spalte erfüllen muss. Nehmen wir an. könnten Sie Folgendes tun: CREATE TABLE produkte ( produkt_nr integer. wenn Sie ihn ändern müssen. Um einen Namen für einen Constraint zu definieren.Datendefinition 5. name text. Wie Sie sehen. weil er getrennt von den Spaltendefinitionen geschrieben wird. schreiben Sie das Schlüsselwort CONSTRAINT gefolgt von dem Namen und der Definition des Constraints. gefolgt von einem Ausdruck in Klammern. Um zum Beispiel positive Produktpreise zu erzwingen. Sie speichern einen normalen Preis und einen Rabattpreis und sie wollen sicherstellen. dass der Rabattpreis immer niedriger als der Normalpreis ist. steht die Constraint-Definition nach dem Datentyp.4. Spaltendefinitionen und diese Art der Constraint-Definition können in gemischter Reihenfolge aufgelistet werden. Das kann Fehlermeldungen klarer gestalten und erlaubt es Ihnen.1 Check-Constraints Ein Check-Constraint ist der allgemeinste Constraint-Typ. Ein Check-Constraint kann sich auch auf mehrere Spalten beziehen. name text. preis numeric CONSTRAINT positiver_preis CHECK (preis > 0) ). Er erlaubt es Ihnen. preis numeric CHECK (preis > 0). auf den Constraint zu verweisen. Sie können einem Constraint auch einen getrennten Namen geben. während der dritte ein TabellenConstraint ist. CHECK (preis > rabattpreis) ). CREATE TABLE produkte ( produkt_nr integer. Vorgabewerte und Constraints können in beliebiger Reihenfolge gelistet werden. Die Syntax ist: CREATE TABLE produkte ( produkt_nr integer. rabattpreis numeric CHECK (rabattpreis > 0). Ein CheckConstraint besteht aus dem Schlüsselwort CHECK. Das obige Beispiel kann auch so geschrieben werden: CREATE TABLE produkte ( produkt_nr integer. Die ersten zwei Constraints sollten Ihnen bekannt vorkommen. Man sagt. Der Ausdruck sollte die auf diese Art beschränkte Spalte beinhalten. dass die ersten beiden Constraints Spalten-Constraints sind. preis numeric CHECK (preis > 0) ).

Es ist letztendlich Geschmackssache. 72 . Die Reihenfolge ist egal. aber in PostgreSQL ist der ausdrückliche NOT-NULL-Constraint effizienter.2 NOT-NULL-Constraints Ein NOT-NULL-Constraint gibt ganz einfach an. rabattpreis numeric. Sie beeinflusst auch nicht unbedingt die Reihenfolge. Ein NOT-NULL-Constraint wird immer als Spalten-Constraint geschrieben. CHECK (rabattpreis > 0 AND preis > rabattpreis) ).4. preis numeric CHECK (preis > 0). CHECK (preis > rabattpreis) ). preis numeric NOT NULL CHECK (preis > 0) ). in der die Constraints geprüft werden. preis numeric ). wenn ein Operand der NULL-Wert ist. 5. Man sollte beachten. name text NOT NULL. Natürlich kann eine Spalte mehrere Constraints haben. Schreiben Sie sie einfach hintereinander: CREATE TABLE produkte ( produkt_nr integer NOT NULL. Um zu versichern.Kapitel 5 preis numeric. verhindern sie keine NULL-Werte in den beschränkten Spalten. rabattpreis numeric. CHECK (preis > 0). angewendet werden. der im folgenden Abschnitt beschrieben wird. Da die meisten Ausdrücke den NULL-Wert ergeben. wenn das Ergebnis des Check-Ausdrucks logisch wahr oder der NULL-Wert ist. dass eine Spalte den NULL-Wert nicht aufnehmen darf. Ein Syntaxbeispiel: CREATE TABLE produkte ( produkt_nr integer NOT NULL. name text NOT NULL. Der Nachteil ist. sollte der NOT-NULL-Constraint. Ein NOT-NULL-Constraint hat den gleichen Effekt wie ein Check-Constraint der Form CHECK (spaltenname IS NOT NULL). CHECK (rabattpreis > 0). oder gar so: CREATE TABLE produkte ( produkt_nr integer. name text. dass man dieser Art von NOT-NULL-Constraint keinen gesonderten Namen geben kann. dass eine Spalte keine NULL-Werte enthalten kann. dass der Check-Constraint passiert wird.

c) ). c integer. Der bedeutet aber nicht. um mit anderen Datenbanksystemen kompatibel zu sein. UNIQUE (produkt_nr) ). Sie könnten zum Beispiel mit dieser Textdatei anfangen: CREATE TABLE produkte ( produkt_nr integer NULL. Der NULL-Constraint ist im SQLStandard nicht definiert und sollte in portierbaren Anwendungen nicht verwendet werden. (Er würde nur in PostgreSQL eingebaut. was ziemlich sinnlos wäre. Unique Constraints stellen sicher. name text NULL. Vielmehr drückt er einfach den Normalzustand aus. preis numeric ). name text.) Einige Benutzer mögen diesen Constraints allerdings. Wenn sich ein Unique Constraint auf eine Gruppe von Spalten bezieht. wenn man es als Spalten-Constraint schreibt.Datendefinition Der NOT-NULL-Constraint hat eine Umkehrung: den NULL-Constraint. und dann fügen Sie einfach daas Schlüsselwort NOT dort ein. in einer Textdatei den Sinn des Constraint umzukehren. wo Sie es wünschen. preis numeric. dass eine Spalte den NULL-Wert aufnehmen darf. wenn man es als Tabellen-Constraint schreibt. b integer. dass die Spalte nur den NULL-Wert akzeptiert. weil er es erleichtert. dann werden die Spalten durch Kommas getrennt aufgelistet: CREATE TABLE beispiel ( a integer. und CREATE TABLE produkte ( produkt_nr integer. 5. dass die Daten einer Spalte oder einer Gruppe von Spalten von allen anderen Zeilen der Tabelle voneinander verschieden sind.4. name text. preis numeric NULL ). UNIQUE (a. 73 . Die Syntax ist CREATE TABLE produkte ( produkt_nr integer UNIQUE.3 Tipp Unique Constraints In den meisten Datenbankentwürfen sollte die Mehrzahl der Spalten als NOT NULL markiert sein.

Kapitel 5

Man kann Unique Constraints auch Namen zuweisen:
CREATE TABLE produkte ( produkt_nr integer CONSTRAINT müssen_verschieden_sein UNIQUE, name text, preis numeric );

Generell ist ein Unique Constraint verletzt, wenn es (mindestens) zwei Zeilen in der Tabelle gibt, wo die Werte der einander entsprechenden Spalten, die Teil des Constraints sind, gleich sind. NULL-Werte werden hier allerdings nicht als gleich erachtet. Das bedeutet, dass man trotz eines mehrspaltigen Unique Constraints eine unbegrenzte Anzahl Zeilen erzeugen kann, in denen mindestens eine der beschränkten Spalten den NULL-Wert hat. Dieses Verhalten entspricht dem SQL-Standard, aber wir haben vernommen, dass einige SQL-Datenbanken dieser Regel wohl nicht folgen. Also seien Sie vorsichtig, wenn Sie Anwendungen entwickeln, die portierbar sein sollen.

5.4.4

Primärschlüssel

Technisch gesehen ist ein Primärschlüssel-Constraint (englisch primary key) einfach eine Kombination aus Unique Constraint und NOT-NULL-Constraint. Die folgenden beiden Tabellendefinitionen können also die gleichen Daten aufnehmen:
CREATE TABLE produkte ( produkt_nr integer UNIQUE NOT NULL, name text, preis numeric ); CREATE TABLE produkte ( produkt_nr integer PRIMARY KEY, name text, preis numeric );

Primärschlüssel können auch über mehrere Spalten gehen; die Syntax ist ähnlich der des Unique Constraints:
CREATE TABLE beispiel ( a integer, b integer, c integer, PRIMARY KEY (a, c) );

Ein Primärschlüssel zeigt an, dass eine Spalte oder eine Gruppe von Spalten als eindeutige Identifikation einer Zeile in der Tabelle verwendet werden kann. (Das ist eine direkte Folge aus der Definition des Primärschlüssels. Beachten Sie, dass ein Unique Constraint keine eindeutige Identifikation erlaubt, da er NULL-Werte nicht ausschließt.) Das ist sowohl zu Zwecken der Dokumentation der Datenbankstruktur als auch für Clientanwendungen nützlich. Wenn zum Beispiel eine grafische Anwendung es Ihnen erlaubt, Zeilen zu verändern, dann muss diese Anwendung höchstwahrscheinlich den Primärschlüssel der Tabelle kennen, um die Zeilen eindeutig identifizieren zu können.

74

Datendefinition

Eine Tabelle kann höchstens einen Primärschlüssel haben (aber sie kann mehrere Unique- und NOTNULL-Constraints haben). Die Theorie der relationalen Datenbanken schreibt vor, dass jede Tabelle einen Primärschlüssel haben muss. Diese Regel wird von PostgreSQL nicht durchgesetzt, aber es ist meistens am besten, ihr zu folgen.

5.4.5

Fremdschlüssel

Ein Fremdschlüssel-Constraint (englisch foreign key) gibt an, dass die Werte in einer Spalte (oder einer Gruppe von Spalten) mit den Werten in irgendeiner Zeile in einer anderen Tabelle übereinstimmen müssen. Man sagt, dass dadurch die referenzielle Integrität zwischen zwei zusammenhängenden Tabellen gesichert wird. Nehmen wir die Produkttabelle, die wir schon mehrere Male verwendet haben:
CREATE TABLE produkte ( produkt_nr integer PRIMARY KEY, name text, preis numeric );

Nehmen wir ferner an, dass Sie eine Tabelle haben, die Bestellungen dieser Produkte speichert. Wir wollen sichergehen, dass die Bestellungstabelle nur Bestellungen von tatsächlich existierenden Produkten aufnimmt. Also definieren wir einen Fremdschlüssel-Constraint in der Bestellungstabelle, der sich auf die Produkttabelle bezieht:
CREATE TABLE bestellungen ( bestell_nr integer PRIMARY KEY, produkt_nr integer REFERENCES produkte (produkt_nr), menge integer );

Jetzt ist es unmöglich, Bestellungen mit produkt_nr-Einträgen zu erzeugen, die nirgendwo in der Produkttabelle auftauchen. Bei dieser Gliederung sagt man, dass die Tabelle bestellungen auf die Tabelle produkte verweist. Genauso verweisen auch die Spalten aufeinander. Der obige Befehl kann auch abgekürzt werden:
CREATE TABLE bestellungen ( bestell_nr integer PRIMARY KEY, produkt_nr integer REFERENCES produkte, menge integer );

Wenn die Spaltenliste ausgelassen wird, dann wird der Primärschlüssel der Tabelle, auf die man verweist, als Zielspalte verwendet. Ein Fremdschlüssel kann auch eine Gruppe von Spalten beschränken bzw. auf eine Gruppe von Spalten verweisen. Er muss dann wie gewohnt als Tabellen-Constraint geschrieben werden. Hier ist ein bedeutungsloses Syntaxbeispiel:
CREATE TABLE t1 ( a integer PRIMARY KEY,

75

Kapitel 5

b integer, c integer, FOREIGN KEY (b, c) REFERENCES andere_tabelle (c1, c2) );

Die Zahl und der Typ der beschränkten Spalten muss natürlich mit der Zahl und dem Typ der Spalten übereinstimmen, auf die man verweist. Eine Tabelle kann mehrere Fremdschlüssel-Constraints enthalten. Diese Fähigkeit verwendet man, um so genannte m:n-Beziehungen (viele-zu-viele) zwischen Tabellen umzusetzen. Nehmen wir an, Sie haben Tabellen mit Produkten und mit Bestellungen, aber jetzt wollen Sie auch zulassen, dass eine Bestellung mehrere Produkte aufnehmen kann (was in der oben verwendeten Struktur nicht möglich war). Dazu könnten Sie folgende Tabellenstruktur verwenden:
CREATE TABLE produkte ( produkt_nr integer PRIMARY KEY, name text, preis numeric ); CREATE TABLE bestellungen ( bestell_nr integer PRIMARY KEY, lieferadresse text, ... ); CREATE TABLE bestell_artikel ( produkt_nr integer REFERENCES produkte, bestell_br integer REFERENCES bestellungen, menge integer, PRIMARY KEY (produkt_nr, bestell_nr) );

Sie werden auch bemerken, dass sich in der letzten Tabelle der Primärschlüssel mit den Fremdschlüsseln überschneidet. Wir haben jetzt erreicht, dass die Fremdschlüssel das Erzeugen von Bestellungen, die zu keinen Produkten passen, verhindern. Aber was passiert, wenn ein Produkt gelöscht wird, während noch eine Bestellung darauf verweist? In SQL können Sie auch das angeben. Intuitiv haben wir einige Möglichkeiten: ❏ das Löschen des Produktes verhindern ❏ die Bestellungen ebenso löschen ❏ Noch etwas? Um dies zu erklären, setzen wir folgende Regeln am obigen m:n-Beispiel um: Wenn jemand ein Produkt entfernen möchte, das noch in einer Bestellung verwendet wird (über bestell_artikel), wird das verboten. Wenn jemand eine Bestellung entfernt, dann werden die Bestellartikel auch gelöscht.
CREATE TABLE produkte ( produkt_nr integer PRIMARY KEY, name text, preis numeric

76

Datendefinition

); CREATE TABLE bestellungen ( bestell_nr integer PRIMARY KEY, lieferadresse text, ... ); CREATE TABLE bestell_artikel ( produkt_nr integer REFERENCES produkte ON DELETE RESTRICT, bestell_nr integer REFERENCES bestellungen ON DELETE CASCADE, menge integer, PRIMARY KEY (produkt_nr, bestell_nr) ); RESTRICT steht für “einschränken”, also faktisch verbieten; CASCADE bedeutet, dass die jeweilige Aktion auch in den anderen Tabellen durchgeführt wird. (Für cascade lässt sich kaum eine gute deutsche Übersetzung finden. Das Wort steht eigentlich für eine Reihe kleinerer, zusammenhängender Wasserfälle.) RESTRICT und CASCADE sind die zwei am häufigsten verwendeten Möglichkeiten. RESTRICT kann auch als NO ACTION geschrieben werden und ist auch die Vorgabe, wenn Sie gar nichts schreiben. Es gibt zwei weitere Möglichkeiten, was mit den Fremdschlüsselspalten passieren soll, wenn ein Primärschlüssel gelöscht wird: SET NULL (auf den NULL-Wert setzen) und SET DEFAULT (auf den Vorgabewert setzen). Beachten Sie, dass dadurch aber keine anderen Constraints umgangen werden können. Wenn zum Beispiel SET DEFAULT angegeben ist, aber der Vorgabewert den Fremdschlüssel-Constraint verletzen würde, dann wird das Löschen des Primärschlüssels fehlschlagen.

Analog zu ON DELETE gibt es auch noch ON UPDATE, womit bestimmt wird, was passiert, wenn ein Primärschlüssel aktualisiert wird (englisch update). Die möglichen Aktionen sind dieselben. Weitere Informationen über das Aktualisieren und das Löschen von Daten finden Sie in Kapitel 6. Am Schluss sollten wir noch erwähnen, dass ein Fremdschlüssel immer auf Spalten verweisen muss, die entweder einen Primärschlüssel oder einen Unique Constraint bilden. Wenn ein Fremdschlüssel auf einen Unique Constraint verweist, gibt es noch einige weitere Möglichkeiten, wie NULL-Werte verarbeitet werden. Diese sind in Teil VI im Eintrag für CREATE TABLE erläutert.

5.5

Tabellen verändern

Wenn Sie eine Tabelle erzeugen und feststellen, dass sie einen Fehler gemacht haben oder wenn sich die Anforderungen an Ihre Anwendung verändert haben, dann können Sie die Tabelle entfernen und neu erzeugen. Aber das ist keine passable Lösung, wenn die Tabelle bereits mit Daten gefüllt ist oder wenn die Tabelle von anderen Datenbankobjekten benötigt wird (zum Beispiel von einem Fremdschlüssel). Deswegen hat PostgreSQL eine Sammlung von Befehlen, um Änderungen an bestehenden Tabellen vorzunehmen. Sie können ❏ ❏ ❏ ❏ ❏ Spalten hinzufügen, Spalten entfernen, Constraints hinzufügen, Constraints entfernen, Vorgabewerte ändern,

77

Kapitel 5 ❏ Spalten umbenennen, ❏ Tabellen umbenennen. Die Aktionen werden alle mit dem Befehl ALTER TABLE vorgenommen.

5.5.1

Eine Spalte hinzufügen

Um eine Spalte hinzuzufügen, verwenden Sie diesen Befehl:
ALTER TABLE produkte ADD COLUMN beschreibung text;

Die neue Spalte wird in den bestehenden Zeilen anfänglich mit NULL-Werten gefüllt. Sie können für die Spalte auch gleich einen Constraint mit definieren, indem Sie die bekannte Syntax verwenden:
ALTER TABLE produkte ADD COLUMN beschreibung text CHECK (beschreibung <> '');

Eine neue Spalte kann keinen NOT-NULL-Constraint haben, da die Spalte anfänglich NULL-Werte enthalten muss. Aber Sie können einen NOT-NULL-Constraint später hinzufügen. Eine neue Spalte kann auch keinen Vorgabewert haben. Dem SQL-Standard nach müsste dann die neue Spalte in den bestehenden Zeilen auf dem Vorgabewert gesetzt werden, was so noch nicht umgesetzt ist. Aber Sie können den Vorgabewert immer noch nachher ändern.

5.5.2

Eine Spalte entfernen

Um eine Spalte zu entfernen, verwenden Sie diesen Befehl:
ALTER TABLE produkte DROP COLUMN beschreibung;

5.5.3

Einen Constraint hinzufügen

Um einen Constraint hinzuzufügen, verwenden Sie die Syntax für Tabellen-Constraints. Zum Beispiel:
ALTER TABLE produkte ADD CHECK (name <> ''); ALTER TABLE produkte ADD CONSTRAINT irgendein_name UNIQUE (produkt_nr); ALTER TABLE produkte ADD FOREIGN KEY (produktgruppen_nr) REFERENCES produktgruppen;

Um einen NOT-NULL-Constraint, der ja nicht als Tabellen-Constraint geschrieben werden kann, hinzuzufügen, verwenden Sie diese Syntax:
ALTER TABLE produkte ALTER COLUMN produkt_nr SET NOT NULL;

Der neue Constraint wird sofort geprüft, also muss die Tabelle den Constraint erfüllen, bevor dieser erstellt werden kann.

5.5.4

Einen Constraint entfernen

Um einen Constraint entfernen zu können, müssen Sie seinen Namen kennen. Wenn Sie ihm einen Namen gegeben hatten, dann ist das ganz einfach. Ansonsten hat das System einen Namen erzeugt, den

78

Datendefinition

Sie herausfinden müssen. Der psql-Befehl \d tabellenname kann hier helfen; andere Schnittstellen haben möglicherweise auch Wege, um sich die Tabellendaten anzusehen. Der Befehl ist dann: ALTER TABLE produkte CONSTRAINT irgendein_name;
DROP

Das funktioniert bei allen Constraint-Typen außer NOT-NULL-Constraints. Um einen NOT-NULL-Constraint zu entfernen, verwenden Sie
ALTER TABLE produkte ALTER COLUMN produkt_nr DROP NOT NULL;

(Erinnern Sie sich, dass NOT-NULL-Constraints keine Namen haben.)

5.5.5

Den Vorgabewert ändern

Um einer Spalte einen neuen Vorgabewert zuzuweisen, verwenden Sie einen Befehl wie diesen:
ALTER TABLE produkte ALTER COLUMN preis SET DEFAULT 7.77;

Um einen Vorgabewert zu entfernen, verwenden Sie
ALTER TABLE produkte ALTER COLUMN preis DROP DEFAULT;

Das hat die gleiche Bedeutung, als wenn man den Vorgabewert auf den NULL-Wert setzt, zumindest in PostgreSQL. Daraus folgt, dass es kein Fehler ist, einen Vorgabewert zu entfernen, wo keiner definiert war, weil der Vorgabewert automatisch der NULL-Wert ist.

5.5.6

Eine Spalte umbenennen

Der Befehl, um eine Spalte umzubenennen, ist:
ALTER TABLE produkte RENAME COLUMN produkt_nr TO produktnummer;

5.5.7

Eine Tabelle umbenennen

Der Befehl, um eine Tabelle umzubenennen, ist:
ALTER TABLE produkte RENAME TO artikel;

5.6

Privilegien

Wenn Sie ein Datenbankobjekt erzeugen, sind Sie sein Eigentümer. In der Ausgangslage kann nur der Eigentümer eines Objekts etwas damit machen. Um anderen Benutzern die Verwendung zu erlauben, müssen Sie Privilegien erteilen. (Es gibt auch Benutzer, die das Superuser-Privileg haben. Diese Benutzer können immer auf alle Objekte zugreifen.) Es gibt mehrere verschiedene Privilegien: SELECT, INSERT, UPDATE, DELETE, RULE, REFERENCES, TRIGGER, CREATE, TEMPORARY, EXECUTE, USAGE und ALL PRIVILEGES. Vollständige Informationen

79

Kapitel 5

Anmerkung
Um den Eigentümer einer Tabelle, eines Index, einer Sequenz oder einer Sicht zu ändern, verwenden Sie den Befehl ALTER TABLE. über die verschiedenen Privilegientypen, die von PostgreSQL unterstützt werden, finden auf der GRANTReferenzseite. Die folgenden Abschnitte und Kapitel werden Ihnen auch zeigen, wie die Privilegien verwendet werden. Das Recht, ein Objekt zu verändern oder zu entfernen, ist immer das ausschließliche Privileg des Eigentümers. Um Privilegien zu gewähren, wird der Befehl GRANT verwendet. Wenn also fred ein bestehender Benutzer ist und konten eine vorhandene Tabelle, dann kann das Privileg, die Tabelle aktualisieren zu dürfen, folgendermaßen gewährt werden:
GRANT UPDATE ON konten TO fred;

Der Benutzer, der diesen Befehl ausführt, muss der Eigentümer der Tabelle sein. Um das Privileg einer Gruppe zu gewähren, verwenden Sie
GRANT SELECT ON konten TO GROUP innendienst;

Der spezielle “Benutzername” PUBLIC kann verwendet werden, um ein Privileg allen Benutzern im System zu gewähren. Wenn Sie ALL anstelle der einzelnen Privilegien schreiben, dann werden alle Arten von Privilegien gewährt. Um ein Privileg zu entziehen, verwenden Sie den Befehl REVOKE:
REVOKE ALL ON konten FROM PUBLIC;

Die besonderen Privilegien des Eigentümers (das heißt, das Recht, DROP, GRANT, REVOKE usw. auszuführen) sind dem Eigentümer immer automatisch gewährt und können nicht weitergegeben oder entzogen werden. Ein Tabelleneigentümer kann allerdings seine eigenen normalen Privilegien entziehen, um zum Beispiel zu verhindern, dass er aus Versehen in die Tabelle schreibt.

5.7

Schemas

Ein PostgreSQL-Datenbankcluster enthält eine oder mehrere benannte Datenbanken. Benutzerkonten und Gruppenkonten sind im gesamten Cluster verfügbar, aber weitere Daten haben die Datenbanken nicht gemeinsam. Jede Verbindung eines Clients kann nur auf eine einzige Datenbank zugreifen, nämlich die, die in der Verbindungsanfrage angegeben wurde.

Anmerkung
Die Benutzer eines Clusters haben nicht unbedingt das Privileg, auf jede Datenbank in dem Cluster zuzugreifen. Dass die Benutzerkonten in allen Datenbanken gelten, heißt, dass es keine unterschiedlichen Benutzer, sagen wir mit Namen fred, in zwei Datenbanken des Clusters geben kann, aber das System kann so eingestellt werden, dass fred nur auf einige Datenbanken Zugriff hat. Eine Datenbank enthält ein oder mehrere Schemas, welche wiederum Tabellen enthalten. Schemas enthalten auch andere Arten von Objekten, einschließlich Typen, Funktionen und Operatoren. Der gleiche Objektname kann in verschiedenen Schemas verwendet werden, ohne einen Konflikt zu erzeugen; zum Beispiel können sowohl schema1 also auch meinschema Tabellen namens meinetabelle enthalten. Im

80

Datendefinition

Gegensatz zu Datenbanken sind Schemas nicht strikt voneinander getrennt: Ein Benutzer kann auf Objekte in allen Schemas in der Datenbank, mit der er verbunden ist, zugreifen, vorausgesetzt, er hat die Privilegien dazu. Es gibt mehrere Gründe, warum Sie Schemas vielleicht verwenden wollen: ❏ um es mehreren Benutzern zu gestatten, eine Datenbank zu verwenden, ohne sich gegenseitig zu stören ❏ um Datenbankobjekte in logische Gruppen aufzuteilen, um sie besser verwalten zu können. ❏ Anwendungen von Fremdanbietern können in getrennten Schemas abgelegt werden, damit sie keine Konflikte mit den Namen anderer Objekte verursachen. Schemas entsprechen Verzeichnissen auf Betriebssystemebene, außer dass man Schemas nicht verschachteln kann.

5.7.1

Ein Schema erzeugen

Um ein getrenntes Schema zu erzeugen, verwenden Sie den Befehl CREATE SCHEMA. Geben Sie dem Schema einen Namen Ihrer Wahl. Zum Beispiel:
CREATE SCHEMA meinschema;

Um ein Objekt in einem Schema zu erzeugen oder auf eines zuzugreifen, schreiben Sie einen qualifizierten Namen, welcher aus dem Schemanamen und dem Tabellennamen, getrennt von einem Punkt, besteht:
schema.tabelle

Die noch allgemeinere Syntax datenbank.schema.tabelle kann im Prinzip auch verwendet werden, was aber gegenwärtig nur zur Pro-forma-Übereinstimmung mit dem SQL-Standard vorgesehen ist. Wenn Sie einen Datenbanknamen angeben, muss das der Name der Datenbank sein, mit der Sie gerade verbunden sind. Um also eine Tabelle in dem neuen Schema zu erzeugen, verwenden Sie
CREATE TABLE meinschema.meinetabelle ( ... );

Das funktioniert überall, wo ein Tabellenname erwartet wird, einschließlich der Tabellenmodifikationsbefehle und der Datenzugriffsbefehle, die in den folgenden Kapiteln besprochen werden. Um ein Schema zu entfernen, wenn es leer ist (alle darin enthaltenen Objekte sind gelöscht worden), verwenden Sie
DROP SCHEMA meinschema;

Um ein Schema einschließlich aller darin enthaltenen Objekte zu löschen, verwenden Sie
DROP SCHEMA meinschema CASCADE;

Abschnitt 5.9 beschreibt den Mechanismus, der dieser Aktion zugrunde liegt. Oft werden Sie ein Schema, das jemandem anderen gehören soll, erstellen wollen (da dies eine Möglichkeit ist, die Aktivitäten Ihrer Benutzer auf bestimmte Namensräume zu beschränken). Die Syntax dafür ist: 81

Kapitel 5

CREATE SCHEMA schemaname AUTHORIZATION benutzername;

Sie können den Schemanamen auch auslassen, wodurch der Schemaname mit dem Benutzernamen gleichgesetzt wird. In Abschnitt 5.7.6 werden Sie sehen, wie nützlich das sein kann. Schemanamen, die mit pg_ beginnen, sind für Systemaufgaben reserviert und können von Benutzern nicht erzeugt werden.

5.7.2

Das Schema public

In den vorangegangenen Abschnitten haben wir Tabellen erzeugt, ohne einen Schemanamen anzugeben. Solche Tabellen (und andere Objekte) werden in der Voreinstellung automatisch in einem Schema namens public abgelegt. Jede neue Datenbank enthält so ein Schema. Die folgenden Befehle sind also gleichbedeutend:
CREATE TABLE produkte ( ... );

und
CREATE TABLE public.produkte ( ... );

5.7.3

Der Schema-Suchpfad

Qualifizierte Namen zu schreiben kann, lästig werden und oft ist es auch besser, die Schemanamen nicht fest in eine Anwendung einzubauen. Deshalb schreibt man Tabellennamen oft als unqualifizierte Namen, welche einfach aus dem Tabellennamen bestehen. Das System ermittelt, welche Tabelle gemeint ist, indem es dem Suchpfad folgt. Der Suchpfad ist eine Liste von Schemas, in der das System nachschauen soll. Die erste passende Tabelle, die im Suchpfad gefunden wurde, wird verwendet. Wenn es keine passende Tabelle im Suchpfad gibt, dann wird ein Fehler erzeugt, selbst wenn es passende Tabellennamen in anderen Schemas der Datenbank gibt. Das erste Schema, das im Suchpfad steht, wird als das aktuelle Schema bezeichnet. Es ist nicht nur das erste Schema, das durchsucht wird, sondern dort werden auch neue mit CREATE TABLE erzeugte Tabellen abgelegt, wenn der Befehl keinen Schemanamen angibt. Um den aktuellen Schemasuchpfad anzuzeigen, verwenden Sie folgenden Befehl:
SHOW search_path;

In der Voreinstellung ergibt das:
search_path -------------$user,public

Das erste Element gibt an, dass ein Schemaname mit dem gleichen Namen wie der aktuelle Benutzer zu durchsuchen ist. Da ein solches Schema noch nicht existiert, wird dieser Eintrag ignoriert. Das zweite Element bezieht sich auf das bereits gesehene Schema public. Das erste Schema im Suchpfad, das tatsächlich existiert, ist das Schema, wo neue Objekte erstellt werden, wenn kein anderes Schema ausdrücklich angegeben ist. Deshalb werden Objekte in der Voreinstellung im Schema public erstellt. Wenn ein Objekt in einem anderen Zusammenhang (Tabellenveränderung, Datenmodifikation, Anfragebefehl) ohne Schemaqualifikation verwendet wird, dann wird der Suchpfad abgesucht, bis ein passendes Objekt gefunden wurde. Deshalb können unqualifizierte Namen in den Voreinstellungen auch nur auf das Schema public zugreifen. 82

Datendefinition

Um unser neues Schema in den Pfad zu setzen, verwenden wir
SET search_path TO meinschema,public;

(Wir haben $user hier ausgelassen, weil wir es gegenwärtig nicht brauchen.) Danach können wir auf die Tabelle ohne Qualifikation zugreifen:
DROP TABLE meinetabelle;

Da meinschema auch das erste Element im Pfad ist, würden dort neue Objekte erstellt werden, wenn kein anderes Schema angegeben wird. Wir hätten auch schreiben können
SET search_path TO meinschema;

Dann hätten wir keinen Zugriff auf das Schema public mehr gehabt, ohne es ausdrücklich zu nennen. Das Schema public ist nichts Besonderes, außer dass es in der Ausgangskonfiguration schon vorhanden ist. Sie können es auch ganz entfernen. In Abschnitt 9.13 finden Sie auch noch weitere Möglichkeiten, um auf den Schemasuchpfad zuzugreifen. Der Suchpfad funktioniert auf die gleiche Art und Weise für Datentypnamen, Funktionsnamen und Operatornamen, wie er für Tabellennamen funktioniert. Die Namen von Datentypen und Funktionen können auf die gleiche Art qualifiziert werden wie Tabellennamen. Wenn Sie in einem Ausdruck einen qualifizierten Operatornamen schreiben müssen, dann gibt es eine Sonderregel: Sie müssen schreiben
OPERATOR(schema.operator)

Das ist erforderlich, um syntaktische Zweideutigkeiten auszuschließen. Ein Beispiel wäre SELECT 3 OPERATOR(pg_catalog.+) 4; In der Praxis verwendet man normalerweise den Suchpfad für Operatoren, damit man nicht so etwas Umständliches schreiben muss.

5.7.4

Schemas und Privilegien

In der Voreinstellung kann ein Benutzer die Objekte in Schemas, die ihm nicht gehören, nicht sehen. Um das zu erlauben, muss der Eigentümer des Schemas das Privileg USAGE gewähren. Um den anderen Benutzern auch zu erlauben, die Objekte in dem Schema zu verwenden, müssen eventuell noch weitere Privilegien gewährt werden, je nach Objekttyp. Man kann einem Benutzer auch gestatten, Objekte im Schema von jemand anderem zu erzeugen. Um das zu erlauben, muss das Privileg CREATE für das Schema gewährt werden. Beachten Sie, dass in der Voreinstellung jeder das CREATE-Privileg für das Schema public hat. Das ermöglicht allen Benutzern, die es schaffen, sich mit einer bestimmten Datenbank zu verbinden, dort Objekte zu erzeugen. Wenn Sie das nicht gestatten wollen, dann können Sie das Privileg entziehen:
REVOKE CREATE ON public FROM PUBLIC;

(Das erste public ist das Schema, das zweite public bedeutet “alle Benutzer”. Im ersten Sinne ist es ein Name, im zweiten Sinne ist es ein Schlüsselwort, daher die unterschiedliche Schreibung. Erinnern Sie sich an die Richtlinien aus Abschnitt 4.1.1.)

83

Kapitel 5

5.7.5

Das Systemkatalogschema

Neben public und benutzerdefinierten Schemas enthält jede Datenbank ein Schema namens pg_catalog, welches die Systemtabellen und die eingebauten Datentypen, Funktionen und Operatoren enthält. pg_catalog ist immer automatisch Teil des Suchpfads. Wenn es im Pfad nicht ausdrücklich erwähnt wird, dann wird es automatisch vor den Schemas im Pfad durchsucht. Damit wird sichergestellt, dass die eingebauten Namen im auffindbar sind. Sie können pg_catalog allerdings ausdrücklich ans Ende Ihres Suchpfads setzen, wenn Sie möchten, dass benutzerdefinierte Namen vor den eingebauten Vorrang haben. In PostgreSQL-Versionen vor 7.3 waren Tabellennamen, die mit pg_ anfangen, reserviert. Das ist nicht mehr der Fall: Sie können solche Tabellen erzeugen, wenn Sie wünschen, außer im Systemkatalogschema. Es ist allerdings besser, solche Namen weiterhin zu vermeiden, damit auch in der Zukunft keine Konflikte entstehen, wenn einmal eine neue Systemtabelle den gleichen Namen wie eine Ihrer Tabellen haben sollte. (Mit dem voreingestellten Suchpfad würde sich ein unqualifizierter Verweis auf Ihren Tabellennamen in Wahrheit auf die Systemtabelle beziehen.) Die Systemtabellen werden weiterhin Namen haben, die mit pg_ beginnen, und somit keine Konflikte mit benutzerdefinierten Namen verursachen, wenn der Präfix pg_ von Benutzern vermieden wird.

5.7.6

Verwendungsmöglichkeiten

Mit Schemas können Sie Ihren Daten auf viele Arten organisieren. Es gibt einige Verwendungsmöglichkeiten, die empfehlenswert und mit den Voreinstellungen einfach umzusetzen sind: ❏ Wenn Sie keine Schemas erzeugen, greifen alle Benutzer automatisch auf das Schema public zu. Dadurch simulieren Sie eine Umgebung, in der gar keine Schemas vorhanden sind. Diese Gliederung ist hauptsächlich zu empfehlen, wenn Sie nur einen einzigen oder einige wenige zusammen arbeitende Benutzer haben. Mit diesen Einstellungen können Sie auch den Übergang von einer Umgebung ohne Schemas in eine Umgebung mit Schemas problemlos bewältigen. ❏ Sie können für jeden Benutzer ein Schema mit dem gleichen Namen wie der Benutzer erzeugen. Erinnern Sie sich zurück, dass der voreingestellte Suchpfad mit $user anfängt, was für den aktuellen Benutzernamen steht. Wenn also jeder Benutzer ein eigenes Schema hat, dann greift automatisch jeder auf sein eigenes zu. ❏ Wenn Sie diese Gliederung verwenden, sollten Sie vielleicht auch den Zugriff auf das Schema public entziehen (oder es gleich ganz löschen), damit die Benutzer wirklich auf ihr eigenes Schema beschränkt werden. ❏ Um Anwendungen zu installieren, die von allen verwendet werden können (zum Beispiel gemeinsame Tabellen oder zusätzliche Funktionen von Fremdanbietern), legen Sie sie in getrennten Schemas ab. Vergessen Sie nicht, die passenden Privilegien zu gewähren, damit andere Benutzer darauf Zugriff haben. Die Benutzer können dann auf diese Objekte zugreifen, indem Sie qualifizierte Namen schreiben, oder Sie können die zusätzlichen Schemas in ihren Pfad aufnehmen, je nachdem, wie sie es wünschen.

5.7.7

Portierbarkeit

Im SQL-Standard ist die Vorstellung, das Objekte im gleichen Schema verschiedene Eigentümer haben können, nicht vorhanden. Außerdem gestatten es einige Systeme nicht, Schemas zu erzeugen, deren Name nicht mit dem Name des Eigentümers übereinstimmt. Tatsächlich sind die Begriffe Schema und Benutzer in Datenbanksystemen, die nur die einfachste Schemaunterstützung, die im Standard vorgesehen ist, anbieten, nahezu gleichbedeutend. Deshalb denken viele Benutzer, dass qualifizierte Namen in Wirklichkeit so aussehen: benutzername.tabellenname. So verhält sich PostgreSQL im Endeffekt auch, wenn Sie für jeden Benutzer ein eigenes Schema erzeugen. Ferner ist darauf hinzuweisen, dass im SQL-Standard kein Schema public vorgesehen ist. Um dem Standard so weit wie möglich zu folgen, sollten Sie das Schema public nicht verwenden (und vielleicht sogar löschen). 84

Datendefinition

Natürlich bieten womöglich manche SQL-Datenbanksysteme Schemas gar nicht an oder sie erlauben die Aufteilung der Objekte in Namensräume, indem sie (möglicherweise eingeschränkten) Zugriff auf mehrere Datenbanken gleichzeitig erlauben. Wenn Sie mit solchen Systemen zusammenarbeiten müssen, erreichen Sie die beste Portierbarkeit, wenn Sie Schemas gar nicht verwenden.

5.8

Andere Datenbankobjekte

Tabellen sind die zentralen Objekte einer relationalen Datenbankstruktur, weil sie es sind, die Ihre Daten enthalten. Aber sie sind nicht die einzige Art von Objekt, dass in einer Datenbank zu finden ist. Viele andere Arten von Objekten können erzeugt werden, um die Verwendung und Verwaltung der Daten effizienter und bequemer zu gestalten. Diese werden in diesem Kapitel nicht besprochen, aber wir führen Sie hier auf, um Ihnen zu zeigen, was möglich ist. ❏ Sichten ❏ Funktionen, Operatoren, Datentypen, Domänen ❏ Trigger und Umschreiberegeln (Rules)

5.9

Verfolgung von Abhängigkeiten

Wenn Sie komplexe Datenbankstrukturen aus vielen Tabellen mit Fremdschlüsseln, Sichten, Triggern, Funktionen usw. erzeugen, dann erzeugen Sie automatisch ein Netz von Abhängigkeiten zwischen den Objekten. Eine Tabelle mit einem Fremdschlüssel ist zum Beispiel von der Tabelle abhängig, auf die der Fremdschlüssel verweist. Um die Integrität der gesamten Datenbankstruktur abzusichern, verhindert PostgreSQL, dass Sie Objekte entfernen, von denen andere Objekte abhängen. Wenn Sie zum Beispiel die Produkttabelle, die wir in Abschnitt 5.4.5 betrachtet hatten, entfernen wollen und die Bestellungstabelle ist noch von ihr abhängig, dann würde das eine Fehlermeldung wie diese verursachen:
DROP TABLE produkte; NOTICE: constraint $1 on table bestellungen depends on table produkte ERROR: Cannot drop table produkte because other objects depend on it Use DROP ... CASCADE to drop the dependent objects too

Diese Fehlermeldung enthält einen nützlichen Hinweis in der letzten Zeile: Wenn Sie die anhängigen Objekte nicht alle einzeln entfernen wollen, können Sie
DROP TABLE produkte CASCADE;

ausführen und die anhängigen Objekte werden mit entfernt. In diesem Fall wird die Bestellungstabelle dadurch nicht gelöscht, sondern nur der Fremdschlüssel-Constraint. (Wenn Sie überprüfen wollen, was DROP ... CASCADE für Auswirkungen haben würde, dann führen Sie DROP ohne CASCADE aus und lesen Sie die NOTICE-Mitteilungen.) Alle DROP-Befehle in PostgreSQL unterstützen die CASCADE-Option. Die Art der möglichen Abhängigkeiten ist natürlich bei jedem Objekttyp verschieden. Sie können statt CASCADE auch RESTRICT schreiben, um das normale Verhalten zu erreichen, welches das Entfernen von Objekten mit Abhängigkeiten verhindert.

85

Kapitel 5

Anmerkung
Laut SQL-Standard muss entweder RESTRICT oder CASCADE immer angegeben werden. Es gibt kein Datenbanksystem, das dies wirklich verlangt, aber es ist unterschiedlich, ob das Normalverhalten RESTRICT oder CASCADE entspricht.

Anmerkung
Abhängigkeiten von Fremdschlüsseln und Spalten vom Typ serial aus PostgreSQL-Versionen vor 7.3 werden im Upgrade-Prozess nicht erhalten oder erzeugt. Alle anderen Abhängigkeiten werden beim Upgrade ordnungsgemäß erstellt.

86

6

6

Datenmanipulation

Im vorangegangenen Kapitel haben wir besprochen, wie man Tabellen und andere Strukturen erzeugt, um Ihre aufzunehmen. Jetzt ist es an der Zeit, die Tabellen mit Daten zu füllen. Dieses Kapitel behandelt, wie man Tabellendaten einfügt, aktualisiert und löscht. Wir werden auch Wege vorstellen, wie man automatische Datenmanipulationen verursachen kann, wenn bestimmte Ereignisse auftreten: Trigger und Umschreiberegeln. Das Kapitel nach diesem wird dann endlich erklären, wie Sie Ihre lange verschollenen Daten wieder aus der Datenbank herausbekommen.

6.1

Daten einfügen

Wenn eine Tabelle erzeugt wird, enthält sie keine Daten. Das Erste, was man machen muss, bevor eine Datenbank von Nutzen sein kann, ist Daten einzufügen. Daten werden Zeile für Zeile eingefügt. Natürlich können Sie auch mehrere Zeilen einfügen, aber es ist nicht möglich, weniger als eine Zeile einzufügen. Selbst wenn Sie nur einige Spaltenwerte wissen, müssen Sie eine ganze Zeile erzeugen. Um eine neue Zeile einzufügen (englisch insert), verwenden Sie den Befehl INSERT. Dieser Befehl benötigt den Namen der Tabelle und Werte für jede der Spalten in der Tabelle. Betrachten Sie zum Beispiel die Produkttabelle ausKapitel 5:
CREATE TABLE produkte ( prodult_nr integer, name text, preis numeric );

Ein Beispielbefehl, um eine Zeile einzufügen, wäre:
INSERT INTO produkte VALUES (1, 'Käse', 9.99);

Die Werte werden in der Reihenfolge aufgelistet, in der die Spalten in der Tabelle angeordnet sind, und werden durch Kommas getrennt. Meistens werden die Werte Konstante sein, aber Wertausdrücke sind auch zulässig.

87

Kapitel 6

Die obige Syntax hat den Nachteil, dass man die Reihenfolge der Spalten in der Tabelle kennen muss. Um das zu vermeiden, können Sie die Spalten auch ausdrücklich aufzählen. Zum Beispiel haben beide der folgenden Befehle die gleiche Wirkung wie der obige:
INSERT INTO produkte (produkt_nr, name, preis) VALUES (1, 'Käse', 9.99); INSERT INTO produkte (name, preis, produkt_nr) VALUES ('Käse', 9.99, 1);

Viele Benutzer halten es für empfehlenswert, die Spalten immer aufzulisten. Wenn Sie nicht für alle Spalten Werte haben, können Sie einige auslassen. In diesem Fall werden die Spalten mit ihren Vorgabewerten gefüllt. Zum Beispiel:
INSERT INTO produkte (produkt_nr, name) VALUES (1, 'Käse'); INSERT INTO produkte VALUES (1, 'Käse');

Die zweite Form ist eine Erweiterung von PostgreSQL. Sie füllt die Spalten von links mit so vielen Werten auf, wie angegeben wurden, und weist den Übrigen die Vorgabewerte zu. Der Klarheit halber können Sie die Vorgabewerte auch ausdrücklich anfordern, entweder für einzelne Spalten oder für die ganze Zeile:
INSERT INTO produkte (produkt_nr, name, preis) VALUES (1, 'Käse', DEFAULT); INSERT INTO produkte DEFAULT VALUES;

Tipp
Um viele Daten auf einmal zu laden (so genanntes Bulk Load), schauen Sie sich den Befehl COPY an (siehe Teil VI). Er ist nicht ganz so vielseitig wie der INSERT-Befehl, aber effizienter..

6.2

Daten aktualisieren

Das Modifizieren von Daten, die sich bereits in der Datenbank befinden, nennt man Aktualisieren (englisch update). Sie können einzelne Zeilen, alle Zeilen einer Tabelle oder eine Teilmenge aller Zeilen aktualisieren. Jede Spalte kann getrennt aktualisiert werden; auf die anderen Spalten hat das keine Auswirkung. Um eine Aktualisierung durchzuführen, brauchen Sie drei Informationen: ❏ die Namen der Tabelle und der Spalten, die Sie aktualisieren möchten, ❏ den neuen Wert der Spalte, ❏ welche Zeile(n) Sie aktualisieren wollen. In Kapitel 5 wurde bereits erwähnt, dass SQL generell keine eindeutige Identifikation der Zeilen zulässt. Daher ist es nicht immer unbedingt möglich, direkt anzugeben, welche Zeile zu aktualisieren ist. Vielmehr geben Sie die Bedingungen an, die eine Zeile erfüllen muss, um aktualisiert zu werden. Wenn die Tabelle einen Primärschlüssel hat (ganz gleich, ob Sie Ihn ausdrücklich angegeben haben), können Sie einzelne Zeilen verlässlich auswählen, indem Sie eine Bedingung verwenden, die mit dem Primärschlüssel übereinstimmt. Anwendungen, die grafischen Zugriff auf die Datenbank gewähren, machen sich diese Tatsache zunutze, um Ihnen zu gestatten, einzelne Zeilen zu aktualisieren. Dieser Befehl zum Beispiel aktualisiert den Preis aller Produkte, die einen Preis von 5 haben, auf 10:
UPDATE produkte SET preis = 10 WHERE preis = 5;

88

Datenmanipulation

Je nach Umstand könnten dadurch null, eine oder mehrere Zeilen aktualisiert werden. Eine Aktualisierung, die am Ende auf keine Zeilen zutrifft, ist kein Fehler. Schauen wir uns den Befehl genauer an: Am Anfang steht das Schlüsselwort UPDATE gefolgt vom Namen der Tabelle. Wie gewohnt kann der Tabellenname mit einem Schemanamen qualifiziert werden, ansonsten wird er im Pfad gesucht. Als Nächstes kommt das Schlüsselwort SET gefolgt vom Spaltennamen, einem Gleichheitszeichen und dem neuen Wert der Spalte. Der neue Spaltenwert kann ein beliebiger Wertausdruck sein, nicht nur eine Konstante. Wenn Sie zum Beispiel den Preis aller Produkte um 10% erhöhen wollen, dann könnten Sie das so machen:
UPDATE produkte SET preis = preis * 1.10;

Wie Sie sehen, kann sich der Ausdruck für den neuen Wert auch auf den alten Wert beziehen. Wir haben hier auch die WHERE-Klausel ausgelassen. Wenn sie fehlt, dann werden alle Zeilen in der Tabelle aktualisiert. Wenn sie da ist, dann werden nur jene Zeilen aktualisiert, die die Bedingung nach der WHERE-Klausel erfüllen. Beachten Sie, dass das Gleichheitszeichen in der SET-Klausel eine Wertzuweisung ist, während das in der WHERE-Klausel ein Vergleich ist; aber dadurch kann keine Zweideutigkeit entstehen. Natürlich muss die Bedingung kein Test auf Gleichheit sein. Viele andere Operatoren stehen zur Verfügung (siehe Kapitel 9). Aber der Ausdruck muss ein Boole'sches Ergebnis haben. Sie können in einem UPDATE-Befehl auch mehrere Spalten aktualisieren, indem Sie mehrere Zuweisungen in der SET-Klausel auflisten. Zum Beispiel:
UPDATE meinetabelle SET a = 5, b = 3, c = 1 WHERE a > 0;

6.3

Daten löschen

Soweit haben wir erläutert, wie man Daten in Tabellen einfügt und wie man Daten ändert. Was noch übrig bleibt, ist zu besprechen, wie man Daten, die man nicht länger braucht, löschen kann (englisch delete). Genauso wie es nur möglich ist, ganze Zeilen einzufügen, kann man nur ganze Zeilen löschen. Im vorigen Abschnitt haben wir besprochen, dass es in SQL nicht möglich ist, einzelne Zeilen direkt anzusprechen. Deshalb kann man Zeilen nur löschen, indem man eine Bedingung angibt, die die zu löschenden Zeilen erfüllen müssen. Wenn die Tabelle einen Primärschlüssel hat, dann können Sie eine Zeile genau auswählen. Aber Sie können auch eine Gruppe von Zeilen, die eine Bedingung erfüllen, oder alle Zeilen in einer Tabelle auf einmal löschen. Man verwendet den Befehl DELETE, um Zeilen zu löschen; die Syntax ist dem UPDATE-Befehl sehr ähnlich. Um zum Beispiel alle Zeilen der Produkttabelle zu löschen, die eine Preis von 10 haben, verwenden Sie
DELETE FROM produkte WHERE preis = 10;

Wenn Sie einfach schreiben
DELETE FROM produkte;

werden alle Zeilen in der Tabelle gelöscht. Sein Sie vorsichtig!

89

7

7

Anfragen

Die vorangegangenen Kapitel haben erklärt, wie man Tabellen erzeugt, sie mit Daten füllt und diese Daten manipulieren kann. Jetzt besprechen wir endlich, wie man diese Daten wieder aus der Datenbank auslesen kann.

7.1

Überblick

Den Vorgang oder der Befehl, Daten aus der Datenbank auszulesen, nennt man eine Anfrage (englisch query). In SQL wird der Befehl SELECT dazu verwendet, Anfragen zu formulieren. Die allgemeine Syntax des SELECT-Befehls ist
SELECT select_liste FROM tabellen_ausdruck [sortierung]

Die folgenden Abschnitte beschreiben die Select-Liste, den Tabellenausdruck und die Sortierangabe im Einzelnen. Die einfachste Anfrage hat die Form
SELECT * FROM tabelle1;

Vorausgesetzt, es gibt eine Tabelle namens tabelle1, ergibt dieser Befehl alle Zeilen und alle Spalten aus tabelle1. (Die genaue Art und Weise der Ergebnisausgabe hängt von der Clientanwendung ab. Das psql-Programm gibt die Tabelle zum Beispiel mit ASCII-Zeichen aus und Clientbibliotheken bieten Funktionen an, um auf einzelne Zeilen und Spalten zuzugreifen.) Eine Select-Liste, die nur aus * besteht, steht für alle Spalten, die der Tabellenausdruck gerade zur Verfügung stellt. Eine Select-Liste kann auch nur einige der verfügbaren Spalten auswählen oder mit den Spalten Berechnungen vornehmen. Wenn zum Beispiel tabelle1 Spalten namens a, b und c hat (und möglicherweise noch weitere), können Sie die folgende Anfrage durchführen:
SELECT a, b + c FROM tabelle1;

(vorausgesetzt, dass b und c einen Zahlentyp haben). Einzelheiten finden Sie in Abschnitt 7.3.
FROM table1 ist ein besonders einfacher Tabellenausdruck: Er liest nur aus einer Tabelle. Prinzipiell können

Tabellenausdrücke komplexe Konstruktionen aus Basistabellen, Verbunde und Unteranfragen sein. Sie können den Tabellenausdruck auch ganz auslassen und den SELECT-Befehl als Taschenrechner verwenden: 91

Kapitel 7

SELECT 3 * 4;

Das ist aber sinnvoller, wenn die Ausdrücke in der Select-Liste veränderliche Ergebnisse haben. Sie könnten auf diese Art zum Beispiel eine Funktion aufrufen:
SELECT random();

7.2

Tabellenausdrücke

Ein Tabellenausdruck berechnet eine Tabelle. Der Tabellenausdruck enthält eine FROM-Klausel, wahlweise gefolgt von WHERE-, GROUP BY- und HAVING-Klauseln. Einfache Tabellenausdrücke beziehen sich ganz einfach auf eine Tabelle auf der Festplatte, eine so genannte Basistabelle, aber komplexere Ausdrücke können angewendet werden, um Basistabellen auf verschiedene Arten zu verändern oder zu kombinieren. Die optionalen WHERE-, GROUP BY- und HAVING-Klauseln im Tabellenausdruck ergeben sozusagen ein Fließband aufeinander folgender Transformationen, die sich auf die in der FROM-Klausel ermittelte Tabelle auswirken. Diese Transformationen erzeugen eine virtuelle Tabelle, die die Zeilen enthält, die in der Select-Liste verwendet werden, um die Ergebniszeilen der Anfrage zu berechnen.

7.2.1

Die FROM-Klausel

Die FROM-Klausel errechnet eine Tabelle aus einer oder mehreren Tabellen, die durch Kommas getrennt in der Liste aufgezählt werden.
FROM tabellen_verweis [, tabellen_verweis [, ...]]

Ein Tabellenverweis kann ein Tabellenname (möglicherweise mit Schemaname) oder eine abgeleitete Tabelle, wie zum Beispiel eine Unteranfrage, ein Tabellenverbund oder eine komplexe Kombination daraus sein. Wenn mehrere Tabellenverweise in der FROM-Klausel aufgelistet werden, wird der Kreuzverbund (cross join) der Tabellen ermittelt (siehe unten). Diese Tabelle ist dann die virtuelle Zwischentabelle, die den Transformationen in den WHERE-, GROUP BY- und HAVING-Klauseln zugeführt wird und schließlich das Ergebnis des Tabellenausdrucks ist. Wenn ein Tabellenverweis eine Tabelle nennt, die eine Übertabelle einer Vererbungshierarchie ist, dann erzeugt der Tabellenverweis nicht nur die Zeilen der Tabelle selbst, sondern auch die aller Untertabellen, außer wenn das Schlüsselwort ONLY vor dem Tabellennamen steht. Allerdings erzeugt der Tabellenverweis nur die Spalten, die in der genannten Tabelle vorhanden sind. Spalten, die in Untertabellen hinzugefügt wurden, werden nicht berücksichtigt.

Verbundene Tabellen
Eine verbundene Tabelle wird von zwei anderen (echten oder abgeleiteten) Tabellen nach den Regeln des jeweiligen Verbundtyp abgeleitet. Es gibt innere, äußere und Kreuzverbunde. Verbundtypen Kreuzverbund (cross join)
T1 CROSS JOIN T2

Für jede Kombination aus Zeilen von T1 und T2 wird die abgeleitete Tabelle eine Zeile enthalten, die aus allen Spalten in T1 gefolgt von allen Spalten in T2 besteht. Wenn die Tabellen also N beziehungsweise M Zeilen haben, dann hat die verbundene Tabelle N * M Zeilen.

92

Ebenso wird für jede Zeile in T2. b und c. Ansonsten werden die JOIN-Klauseln von links nach rechts ausgewertet. Bedingte Verbunde T1 { [INNER] | { LEFT | RIGHT | FULL } [OUTER] } JOIN T2 ON boolescher_ausdruck T1 { [INNER] | { LEFT | RIGHT | FULL } [OUTER] } JOIN T2 USING ( spaltenliste ) T1 NATURAL { [INNER] | { LEFT | RIGHT | FULL } [OUTER] } JOIN T2 Die Worte INNER und OUTER sind in allen Formen optional. b. Genauso wie bei USING erscheinen diese Spalten nur einmal im Ergebnis. eine Ergebniszeile erzeugt. 93 . welche Zeilen der zwei Ausgangstabellen zusammenpassen.Anfragen FROM T1 CROSS JOIN T2 ist gleichbedeutend mit FROM T1. RIGHT oder FULL angegeben sind. Voller äußerer Verbund (FULL OUTER JOIN) Als Erstes wird ein innerer Verbund durchgeführt. Danach wird für jede Zeile in T1. gefolgt von den übrigen Spalten der Tabellen. Das Ergebnis von JOIN USING hat eine Spalte für jede der gleichgesetzten Eingabespalten.a = t2. anstatt nur je eine mit USING. die die Verbundbedingung mit keiner Zeile in T1 erfüllt.c = t2. Folglich hat die verbundene Tabelle auf jeden Fall eine Zeile für jede Zeile in T1. Ein Zeilenpaar aus T1 und T2 passt zusammen. wie im Einzelnen weiter unten besprochen wird. genauso. Linker äußerer Verbund (LEFT OUTER JOIN) Als Erstes wird ein innerer Verbund ausgeführt. Das ist das Gegenteil eines linken Verbunds: Die Ergebnistabelle hat auf jeden Fall eine Zeile für jede Zeile in T2. Verbunde aller Typen können verkettet oder verschachtelt werden. die die Verbundbedingung mit keiner Zeile in T2 erfüllt. die die Verbundbedingung mit keiner Zeile in T2 erfüllt. Die Verbundbedingung bestimmt. Es ist auch gleichbedeutend mit FROM T1 INNER JOIN T2 ON TRUE (siehe unten). die NULL-Werte in den Spalten von T1 hat. wenn LEFT. Danach wird für jede Zeile in T1.b = t2. kann man Klammern um die JOIN-Klauseln setzen. getrennt durch Kom- mas. Die Verbundbedingung wird in der ON. Rechter äußerer Verbund (RIGHT OUTER JOIN) Als Erstes wird ein innerer Verbund ausgeführt. T2. die Verbundbedingung ist. Schließlich ist NATURAL eine Abkürzung von USING: Es steht für eine USING-Liste mit genau den Spaltennamen. Um die Verbundreihenfolge zu bestimmen. USING ist eine abgekürzte Schreibweise: Sie enthält eine Liste aus Spaltennamen. eine Ergebniszeile erzeugt.b AND t1.c).oder der USING-Klausel oder implizit mit dem Wort NATURAL angegeben.a AND t1. dann wird OUTER angenommen. das heißt. Also ist USING (a. die die Verbundbedingung mit keiner Zeile in T1 erfüllt. die NULL-Werte in den Spalten von T2 hat. eine Ergebniszeile mit NULL-Werten in den Spalten von T1 erzeugt. eine Ergebniszeile erzeugt. dann hat das Ergebnis je zwei Spalten a. dass all diese Spalten gleich sein müssen. Die ON-Klausel ist die allgemeinste Art der Verbundbedingung: Sie enthält einen Wertausdruck mit einem Ergebnis vom Typ boolean. wie er in einer WHERE-Klausel verwendet wird. welche beide der zu verbindenden Tabellen haben müssen. Es gibt die folgenden Arten von bedingten Verbunden: Innerer Verbund (INNER JOIN) Für jede Zeile Z1 der Tabelle T1 hat die verbundene Tabelle eine Zeile für jede Zeile in T2. Danach wird für jede Zeile in T2. sowohl T1 als auch T2 können selbst verbundene Tabellen sein. wenn der Ausdruck nach ON logisch wahr ist. c) gleichbedeutend mit ON (t1. die die Verbundbedingung mit Z1 erfüllt. außer man verwendet ON. die in beiden Tabellen vorhanden sind. INNER ist die Vorgabe. die NULL-Werte in den Spalten von T2 hat.

wir haben Tabellen t1 num | name -----+-----1 | a 2 | b 3 | c Dann erhalten wir folgende Ergebnisse für die verschiedenen Verbunde: => SELECT * FROM t1 CROSS JOIN t2. num | name | wert -----+------+-----1 | a | xxx 3 | c | yyy (2 rows) => SELECT * FROM t1 NATURAL INNER JOIN t2. num | name | num | wert -----+------+-----+-----1 | a | 1 | xxx 3 | c | 3 | yyy (2 rows) => SELECT * FROM t1 INNER JOIN t2 USING (num). num | name | num | wert -----+------+-----+-----1 | a | 1 | xxx 1 | a | 3 | yyy 1 | a | 5 | zzz 2 | b | 1 | xxx 2 | b | 3 | yyy 2 | b | 5 | zzz 3 | c | 1 | xxx 3 | c | 3 | yyy 3 | c | 5 | zzz (9 rows) => SELECT * FROM t1 INNER JOIN t2 ON t1.num. num | name | num | wert -----+------+-----+-----1 | a | 1 | xxx 94 .Kapitel 7 Um all das zusammenzufassen.num = t2. nehmen wir an.num. num | name | wert -----+------+-----1 | a | xxx 3 | c | yyy (2 rows) => SELECT * FROM t1 LEFT JOIN t2 ON t1.num = t2.

num | name | num | wert -----+------+-----+-----1 | a | 1 | xxx 2 | b | | 3 | c | 3 | yyy | | 5 | zzz (4 rows) Die Verbundbedingung. num | name | num | wert -----+------+-----+-----1 | a | 1 | xxx 3 | c | 3 | yyy | | 5 | zzz (3 rows) => SELECT * FROM t1 FULL JOIN t2 ON t1. der in der weiteren Verarbeitung verwendet werden kann. kann auch Bedingungen enthalten. Zum Beispiel: => SELECT * FROM t1 LEFT JOIN t2 ON t1.num AND t2.num. Um ein Tabellenaliasnamen zu erzeugen.num = t2. Das kann in manchen Anfragen nützlich sein. die nach ON angegeben wird. die nicht direkt mit dem Verbund zu tun haben.und Spaltenaliasnamen Man kann Tabellen und komplexen Tabellenverweisen einen vorübergehenden Namen geben. muss aber genau durchdacht werden. um auf die abgeleitete Tabelle zu verweisen. num | name | wert -----+------+-----1 | a | xxx 2 | b | 3 | c | yyy (3 rows) => SELECT * FROM t1 RIGHT JOIN t2 ON t1.num.Anfragen 2 | b 3 | c (3 rows) | | | 3 | yyy => SELECT * FROM t1 LEFT JOIN t2 USING (num). verwenden Sie FROM tabellen_verweis AS alias 95 . Das wird Tabellenaliasname genannt.wert = 'xxx'. num | name | num | wert -----+------+-----+-----1 | a | 1 | xxx 2 | b | | 3 | c | | (3 rows) Tabellen.num = t2.num = t2.

Diese Syntax ist besonders für Selbstverbunde und Unteranfragen nützlich. Das ergibt einen Kreuzverbund. ist dass ein impliziter Tabellenverweis zur FROM-Klausel hinzugefügt wird.. Außerdem sind Aliasnamen notwendig. Tabellenaliasnamen sind hauptsächlich dafür da. spalte2 [. also wäre sie so geschrieben worden: SELECT * FROM meine_tabelle AS m....* FROM meine_tabelle AS a JOIN deine_tabelle AS b ON . dann werden die restlichen Spalten nicht umbenannt.id = n.. um Anfragen übersichtlicher und kürzer schreiben zu können. Eine typische Verwendung von Tabellenaliasnamen ist es. Klammern können verwendet werden.]] ) Wenn weniger Spaltenaliasnamen angegeben sind. im Gegensatz zum vorigen Beispiel: SELECT * FROM (meine_tabelle AS a CROSS JOIN meine_tabelle) AS b . Aber man muss sie verwenden. alias kann ein beliebiger Name sein.a > 5. langen Tabellennamen kürzere Bezeichnungen zu geben. dann wird es der neue Name des Tabellenverweises für die gegenwärtige Anfrage.num. um Zweideutigkeiten auszuschließen. Wenn dem Ergebnis eines Verbunds mit JOIN ein Aliasname zugewiesen wird. Was wirklich passiert (das ist eine Erweiterung von PostgreSQL gegenüber dem Standard). Folgender Befehl ist zum Beispiel in Ordnung: SELECT a.a > 5. Wenn ein Aliasname verwendet wird. wenn eine Tabelle mit sich selbst verbunden werden soll. meine_tabelle AS meine_tabelle WHERE meine_tabelle. als die eigentliche Tabelle Spalten hat. Es ist dann nicht mehr möglich. was Sie in der Regel sicher nicht wollen. . Zum Beispiel: SELECT * FROM ein_sehr_langer_tabellenname e JOIN noch_ein_ziemlich_langer_name n ON e. Aber folgender Befehl ist ungültig: SELECT a. dann werden dadurch die ursprünglichen Namen innerhalb der Verbundklausel versteckt.) AS c 96 . wenn der Tabellenverweis eine Unteranfrage ist (siehe Abschnitt Unteranfragen).Kapitel 7 oder FROM tabellen_verweis alias Das Schlüsselwort AS kann also weggelassen werden. Der folgende Befehl weist den Aliasnamen b dem Verbundergebnis zu. zum Beispiel: SELECT * FROM meine_tabelle AS a CROSS JOIN meine_tabelle AS b . auf die Tabelle mit ihrem ursprünglichen Namen zu verweisen.* FROM (meine_tabelle AS a JOIN deine_tabelle AS b ON . Folgendes wäre also keine gültige SQL-Syntax: SELECT * FROM meine_tabelle AS m WHERE meine_tabelle... Zusammen mit Tabellenaliasnamen kann man auch den Spalten einer Tabelle vorübergehende Namen zuweisen: FROM tabellen_verweis [AS] alias ( spalte1 [. um die Verbundbedingungen lesbar zu halten.. sodass die Anfrage verarbeitet wird...

) Zum Beispiel: FROM (SELECT * FROM tabelle1) AS alias_name Dieses Beispiel hat das gleiche Ergebnis wie FROM tabelle1 AS alias_name. kann aber auch ohne Aliasnamen belassen werden. muss die erwartete Zeilenstruktur in der Anfrage selbst angegeben werden.fooid = foo.fooid) z where z. SELECT * FROM getfoo(1) AS t1. In manchen Fällen ist es nützlich.oder WHERE-Klauseln verwendet werden wie Spalten aus Tabellen.Anfragen Der Tabellenaliasname a ist außerhalb des Aliasnamen c nicht sichtbar. Sicht oder Unteranfrage in der FROM-Klausel einer Anfrage verwendet.und Spaltenaliasnamen. erhält die einzelne Ergebnisspalte denselben Namen wie die Funktion. dann wird der Name der Funktion als Name der Ergebnistabelle verwendet. müssen in Klammern stehen und ihnen muss eine Tabellenaliasname zugewiesen werden. Interessantere Fälle. CREATE FUNCTION getfoo(int) RETURNS SETOF foo AS ' SELECT * FROM foo WHERE fooid = $1. foosubid int. Eine Tabellenfunktion kann in der FROM-Klausel Aliasnamen erhalten. eine Tabellenfunktion zu definieren. fooname text). entweder aus Basisdatentypen (skalaren Typen) oder aus zusammengesetzten Datentypen (Tabellenzeilen). damit das System weiß. die nicht auf eine einfache Verbundoperation reduziert werden können. SELECT * FROM vw_getfoo. wenn die Unteranfrage eine Gruppierung oder eine Aggregatberechnung enthält. CREATE VIEW vw_getfoo AS SELECT * FROM getfoo(1). treten auf. die eine Ergebnismenge aus mehreren Zeilen zurückgeben. (Siehe Abschnitt Tabellen. wie die Anfrage verstanden und geplant werden soll.fooid). die als abgeleitete Tabelle aufgeführt werden. Dazu kann eine Tabellenfunktion mit dem Pseudotyp record als Rückgabetyp definiert werden. wie sie aufgerufen wird. Betrachten Sie dieses Beispiel: SELECT * FROM dblink('dbname=mydb'. einen anderen Satz Spalten zurückgibt. Tabellenfunktionen Tabellenfunktionen sind Funktionen. prosrc from pg_proc') 97 . Einige Beispiele: CREATE TABLE foo (fooid int. Sie werden wie eine Tabelle. Wenn eine solche Funktion in einer Anfrage verwendet wird. Wenn die Funktion einen zusammengesetzten Typ zurückgibt. 'select proname. erhalten die Ergebnisspalten dieselben Namen wie die einzelnen Attribute des Typs. die. Sichten oder Unteranfragen. JOIN. Wenn die Tabellenfunktion einen Basisdatentyp zurückgibt. ' LANGUAGE SQL. Unteranfragen Unteranfragen. SELECT * FROM foo WHERE foosubid IN (select foosubid from getfoo(foo. Wenn eine Funktion in der FROM-Klausel ohne Aliasname belassen wird. je nachdem. Die von einer Tabellenfunktion zurückgegebenen Spalten können genauso in SELECT-.

die Verbundbedingung in die WHERE-Klausel zu schreiben. Die Suchbedingung bezieht sich normalerweise auf mindestens ein paar der Spalten der in der FROM-Klausel erzeugten Tabelle. 2. Hier sind einige Beispiele von WHERE-Klauseln: SELECT . Die JOIN-Syntax in der FROM-Klausel ist wahrscheinlich nicht ganz so portierbar auf andere SQL-Datenbanken. weil damit nicht nur Zeilen herausgefiltert. das ist zwar nicht zwingend. FROM fdt WHERE c1 IN (SELECT c1 FROM t2) 98 .id = b. wird die Zeile in der Ergebnistabelle behalten. wie in Abschnitt 4. Für äußere Verbunde gibt es keine Wahl: Sie müssen in der FROM-Klausel geschrieben werden. weil Sie für jede Art von Anfrage verwendet werden kann.id = b. Nachdem die Verarbeitung der FROM-Klausel abgeschlossen ist. 7. ist. damit der Parser zum Beispiel weiß. FROM fdt WHERE c1 > 5 SELECT ..wert > 5 oder vielleicht sogar FROM a NATURAL JOIN b WHERE b.2 definiert.2. aber ansonsten wäre die WHEREKlausel ziemlich nutzlos. wird jede Zeile der virtuellen Tabelle mit der Suchbedingung geprüft.id AND b.. dann wird sie verworfen. Anmerkung Vor der Verwirklichung der JOIN-Syntax war es notwendig.id) WHERE b. der ein Ergebnis vom Typ boolean hat. Die folgenden Tabellenausdrücke sind zum Beispiel alle gleichbedeutend: und FROM a. FROM fdt WHERE c1 IN (1. sondern auch zum Endergebnis hinzufügt werden (für Zeilen die keine passende Zeile in der anderen Tabelle haben). Wenn das Ergebnis der Bedingung logisch wahr ist.wert > 5 FROM a INNER JOIN b ON (a. Sie hat den Rückgabetyp record.. ansonsten (das heißt das Ergebnis ist logisch falsch oder der NULL-Wert). wie * interpretiert werden soll. 3) SELECT . prosrc text) WHERE proname LIKE 'bytea%'..Kapitel 7 AS t1(proname name. Die ON /USING-Klausel eines äußeren Verbunds kann nicht als WHERE-Bedingung geschrieben werden.wert > 5 Welche dieser Formen Sie verwenden.. Die Funktion dblink führt eine Anfrage in einer anderen Datenbank aus (siehe contrib/dblink).2 Die WHERE-Klausel Die Syntax der WHERE-Klausel ist WHERE suchbedingung wobei die suchbedingung ein beliebiger Wertausdruck.. ist hauptsächlich eine Stilfrage. b WHERE a. Die tatsächlich erwarteten Spalten müssen in der aufrufenden Anfrage angegeben werden.

3 Die GROUP BY. Die Reihenfolge. FROM fdt WHERE c1 BETWEEN (SELECT c3 FROM t2 WHERE c2 = fdt..2..c1 + 10) SELECT . FROM fdt WHERE EXISTS (SELECT c1 FROM t2 WHERE c2 > fdt. wie der Namensraum der Spalten der äußeren Anfrage sich auf die inneren Anfragen ausdehnt. auf eine Gruppenzeile zu reduzieren. x | y ---+--a | 3 c | 2 b | 5 a | 1 (4 rows) => SELECT x FROM test1 GROUP BY x. FROM fdt WHERE c1 IN (SELECT c3 FROM t2 WHERE c2 = fdt. kann die Tabelle mit der GROUP BYKlausel gruppiert und Gruppen mit der HAVING-Klausel eliminiert werden.c1) fdt ist hier irgendeine in der FROM-Klausel ermittelte Tabelle. Der Zweck des Ganzen ist es.und HAVING-Klauseln Nachdem die abgeleitete Tabelle den WHERE-Filter durchlaufen hat. werden aus fdt entfernt.] GROUP BY spalten_gruppierungs_verweis [... Aber die Qualifikation des Spaltennamens fördert die Übersichtlichkeit. jene Zeilen einer Tabelle zusammen zu gruppieren. Die GROUP BY-Klausel wird dazu verwendet. in der die Spalten aufgelistet werden.. Unteranfragen können genauso wie andere Anfragen komplexe Tabellenausdrücke verwenden... Zum Beispiel: => SELECT * FROM test1. Beachten Sie auch. Zeilen. die die gleichen Werte haben. [WHERE .. x --a b c (3 rows) 99 .Anfragen SELECT . selbst wenn sie nicht zwingend erforderlich ist.c1 + 10) AND 100 SELECT . Beachten Sie die Verwendung von skalaren Unteranfragen als Wertausdrücke. die für alle Zeilen in der Gruppe stehen kann. SELECT select_liste FROM .. die die gleichen Werte in allen aufgezählten Spalten haben. Die Qualifikation von c1 als fdt. wenn c1 auch eine Spalte in der abgeleiteten Eingabetabelle der Unteranfrage ist. Das kann man verwenden. 7. spalten_gruppierungs_verweis]. wie auf fdt in den Unteranfragen Bezug genommen wird. um doppelte Ergebniszeilen zu entfernen und/oder um Aggregatberechnungen an den Gruppen vorzunehmen. ist unerheblich.. Dieses Beispiel zeigt. die die Bedingung in der WHEREKlausel nicht erfüllen... jede Gruppe von Zeilen.c1 ist nur notwendig.

[WHERE . nach denen gruppiert wurde. weil sie auch in der Select-Liste der Anfrage verwendet werden.name. welcher für den Gesamtumsatz mit einem Produkt steht.. x | sum 100 . die einen einzelnen Wert aus den Werten der gesamten Gruppe errechnet. Generell gilt. Wenn eine Tabelle mit GROUP BY gruppiert wurde.. könnten Name und Preis völlig von der Produktnummer abhängen.. Die Syntax ist: SELECT select_liste FROM .menge) * p..preis in der GROUP BY-Klausel stehen. x | sum ---+----a | 4 b | 5 c | 2 (3 rows) Hier ist sum eine Aggregatfunktion. Die Spalten. p. nach denen nicht gruppiert wird. In diesem Beispiel müssen die Spalten produkt_nr.. können in der Select-Liste verwendet werden. nur in Aggregatausdrücken verwendet werden.name und p.. Das kann man auch mit der DISTINCT-Klausel erreichen (siehe Abschnitt 7.menge muss nicht in der GROUP BY-Klausel stehen. aber in PostgreSQL kann man GROUP BY auch mit Spalten aus der Select-Liste verwenden. Hier ist noch ein Beispiel: Es berechnet den Gesamtumsatz für jedes Produkt (und nicht etwa für alle Produkte zusammen). wie die Produkttabelle genau aufgebaut ist.preis. dann können die Spalten. Das Gruppieren nach Wertausdrücken anstelle von einfachen Spaltenverweisen ist auch möglich. aber diese Erkennung ist noch nicht verwirklicht.3).3. (sum(v. sodass die zusätzlichen Gruppierungen unnötig wären. der der Gruppe hätte zugeordnet werden können. um Gruppen aus der gruppierten Tabelle zu entfernen. HAVING boolescher_ausdruck Ausdrücke in der HAVING-Klausel können sowohl die gruppierten als auch ungruppierte Ausdrücke (welche dann notwendigerweise eine Aggregatfunktion beinhalten) verwenden.] GROUP BY . sum(y) FROM test1 GROUP BY x. p. Ein Beispiel: => SELECT x. SELECT produkt_nr.14 finden. dann kann die HAVING-Klausel ähnlich wie die WHERE-Klausel verwendet werden. Für jedes Produkt ergibt die Anfrage eine zusammenfassende Zeile für den Umsatz dieses Produkts. wenn eine Tabelle gruppiert wird.) Die Spalte v. ( Je nachdem.name.. Im strikten SQL kann GROUP BY nur auf Spalten in der Ausgangstabelle angewendet werden. Tipp Gruppierung ohne Aggregatausdruck berechnet im Endeffekt die Menge der voreinander verschiedenen Werte in einer Spalte. weil es keinen einzelnen Wert der Spalte y gibt. Ein Beispiel mit einem Aggregatausdruck ist: => SELECT x. da sie nur in einem Aggregatausdruck (sum(. p.preis) AS umsatz FROM produkte p LEFT JOIN verkäufe v USING (produkt_nr) GROUP BY produkt_nr. da sie einen bekannten Wert pro Gruppe haben.Kapitel 7 Die zweite Anfrage hätte man nicht als SELECT * FROM test1 GROUP BY x schreiben können. aber nur bestimmte Gruppen von Interesse sind. Weitere Informationen über die verfügbaren Aggregatfunktionen können Sie in Abschnitt 9..)) verwendet wird. sum(y) FROM test1 GROUP BY x HAVING sum(y) > 3. p.

02. 101...up .p65 Schwarz 101 28.08. 12:07 .

haben wir einen besonderen Leser-Service eingeführt..p65 Schwarz 102 28. Ihr Team von mitp 101. Wir sind stets darauf bedacht..08. up . kostenlosen Downloads.vmi-buch.de und Sie erhalten zukünftig einen E-Mail-Newsletter mit Hinweisen auf Aktivitäten des Verlages wie zum Beispiel unsere aktuellen. Um Sie auch über das vorliegende Buch hinaus regelmäßig über die relevanten Entwicklungen am ITMarkt zu informieren. update Nutzen Sie den UPDATE-SERVICE des mitp-Teams bei vmi-Buch. dass Sie gerade darauf großen Wert legen.de oder www..mitp. zuverlässig und fundiert auf den neuesten Stand bringen. weil wir wissen.. Registrieren Sie sich jetzt auf www..und Praxisstand wieder. Unsere Bücher geben den topaktuellen Wissens. 12:07 . Lassen Sie sich professionell. Registrieren Sie sich JETZT! Unsere Bücher sind mit großer Sorgfalt erstellt. Sie mit den aktuellsten Inhalten zu versorgen.02.

7. dann ist es der gleiche wie in der HAVING-Klausel.preis. tbl1.. sum(y) FROM test1 GROUP BY x HAVING x < 'c'. Ansonsten ist die Select-Liste eine Liste von Wertausdrücken (wie in Abschnitt 4.preis .menge) * (p. die ihnen wie in Abschnitt Tabellen. p.1 Elemente der Select-Liste Die einfachste Select-Liste ist *. Beachten Sie auch. der in der Select-Liste zur Verfügung steht. welche alle Spalten ausgibt. Wenn mehrere Tabellen eine Spalte mit dem gleichen Namen haben. dann muss der Tabellenname auch angegeben werden.a. 7. während die HAVING-Klausel das Ergebnis auf Gruppen. tbl2. Im obigen Beispiel wählt die WHERE-Klausel Zeilen aus. beschränkt.kosten HAVING sum(p. ist der gleiche wie in der WHERE-Klausel. außer wenn eine Gruppierung vorgenommen wird. p. x | sum ---+----a | 4 b | 5 (2 rows) Nochmal ein etwas realistischeres Beispiel: SELECT produkt_nr. wie in ws SELECT tbl1.. Sie könnte zum Beispiel eine Liste von Spaltennamen sein: SELECT a.preis * v. p. Diese Tabelle wird letztendlich der Select-Liste zur Verarbeitung übergeben.name. welche Spalten der Zwischentabelle tatsächlich ausgegeben werden. p. die der Tabellenausdruck erzeugt.2 definiert). c FROM . (sum(v.und Spaltenaliasnamen zugewiesen wurden. Zeilen entfernt oder gruppiert wurden usw.Anfragen ---+----a | 4 b | 5 (2 rows) => SELECT x.p. 103 . dass die Aggregatausdrücke nicht unbedingt in allen Teilen der Anfrage gleich sein müssen.a. ermittelt der Tabellenausdruck im SELECT-Befehl eine virtuelle Zwischentabelle. indem möglicherweise Tabellen und Sichten kombiniert wurden. indem sie eine ungruppierte Spalte verwendet (der Ausdruck ist nur für Verkäufe in den letzten vier Wochen wahr)..INTERVAL '4 weeks' GROUP BY produkt_nr.3. Der Namensraum.3 Select-Listen Wie im vorigen Abschnitt gezeigt wurde.menge) > 5000.datum > CURRENT_DATE ..name.kosten)) AS profit FROM produkte p LEFT JOIN verkäufe v USING (produkt_nr) WHERE v. deren Umsatz größer als 5000 war. b. Die Select-Liste bestimmt. durch Kommas voneinander getrennt. Die Spaltennamen a.b FROM . b und c sind entweder die wirklichen Namen von Spalten der in der FROM-Klausel verwendeten Tabellen oder die Aliasnamen.

welche Zeilen als gleich betrachtet werden sollen: SELECT DISTINCT ON (ausdruck [. damit die Zeilen in einer eindeutigen Reihenfolge am DISTINCT-Filter ankommen. Anmerkung Die hier beschriebene Vergabe von Namen an die Spalten ist nicht das Gleiche wie die Vergabe von Aliasnamen in der FROM-Klausel (siehe Abschnitt Tabellen. dass alle Zeilen beibehalten werden. kann man diese Klausel vermeiden. Wenn man GROUP BY und Unteranfragen in der FROM-Klausel geschickt anwendet. Der Ausdruck wird für jede Ergebniszeile ausgewertet. Aber die Ausdrücke in der Select-Liste müssen nicht unbedingt eine Spalte aus dem Tabellenausdruck aus der FROMKlausel verwenden. 7. b + c AS summe FROM . Wenn kein Spaltenname mit AS angegeben wird. (Die Verarbeitung von DISTINCT ON geschieht nach der Sortierung durch ORDER BY. 104 . Die »weitere Verarbeitung« ist in diesem Fall eine mögliche Sortierklausel und Clientanwendungen (zum Beispiel als Spaltenköpfe. Beachten Sie.und Spaltenaliasnamen). Für einfache Spaltenverweise ist das der Namen der Spalte. für die alle Ausdrücke gleich sind. wenn die Ergebnistabelle ausgegeben wird). dann wird vom System ein Name zugewiesen.. um das normale Verhalten. Hierbei ist ausdruck ein beliebiger Wertausdruck.. aber der Name.2.Kapitel 7 (Siehe auch Abschnitt 7. der für alle Zeilen ausgewertet wird.. werden als gleich betrachtet. können aus der Ergebnistabelle wahlweise etwaige Duplikate entfernt werden. Als Alternative kann auch ein beliebiger Ausdruck bestimmen.3. Dazu wird das Schlüsselwort DISTINCT gleich hinter das SELECT geschrieben: SELECT DISTINCT select_liste .. dass die »erste Zeile« einer Menge nicht vorhergesagt werden kann. Für Funktionsaufrufe ist das der Name der Funktion.3. wobei die Werte der Zeile für etwaige Spaltenverweise eingesetzt werden. NULL-Werte gelten in dieser Betrachtung als gleich. ausdruck . (Anstelle von DISTINCT kann das Wort ALL verwendet werden.) Wenn ein beliebiger Wertausdruck in der Select-Liste verwendet wird. der in der Select-Liste bestimmt wird.. Durch diesen Ablauf können Sie eine Spalte praktisch zweimal umbenennen. dass eine neue virtuelle Spalte an die Ergebnistabelle angefügt wird. kann man sich das so vorstellen. wenn sie sich in mindestens einem Spaltenwert voneinander unterscheiden.]) select_liste . wird am Ende weitergegeben. und nur die erste der Zeilen wird in der Ergebnismenge behalten. außer wenn die Anfrage nach ausreichend vielen Spalten sortiert wird. sie können zum Beispiel auch konstante mathematische Ausdrücke sein.) Die DISTINCT ON-Klausel ist nicht Teil des SQL-Standards und manche halten sie wegen der möglicherweise unvorhersehbaren Ergebnisse für schlechten Stil.. aber sie ist oft eine bequeme Alternative..2. Die Zeilen..3 DISTINCT Nachdem die Select-Liste verarbeitet wurde. Für komplexe Ausdrücke wird vom System ein Name erzeugt. 7. auszuwählen.2 Ergebnisspaltennamen Den Einträgen in der Select-Liste kann man Namen für die weitere Verarbeitung geben. Zum Beispiel: SELECT a AS wert.) Selbstverständlich gelten zwei Zeilen als dann verschieden voneinander.

Schnittmenge oder Differenzmenge zweier Anfrage berechnen zu können. die Differenzmengenoperation. die von jeder der bisher beschriebenen Fähigkeiten Gebrauch machen können. Um die Vereinigungsmenge. EXCEPT. die Schnittmengenoperation. ermittelt alle Zeilen. Darüber hinaus werden alle doppelten Zeilen. außer wenn EXCEPT ALL verwendet wird. aber darauf darf man sich auf keinen Fall verlassen. die sowohl im Ergebnis von anfrage1 als auch im Ergebnis von anfrage2 sind. Schnittmenge (intersection) und Differenzmenge.und Verbund-Plantypen und der Reihenfolge auf der Festplatte ab. dann werden die Zeilen in zufälliger Reihenfolge zurückgegeben. Die tatsächliche Reihenfolge hängt in diesem Fall von den Scan. entfernt.. wenn der Sortierschritt ausdrücklich angefordert wird. ermittelt alle Zeilen. außer wenn INTERSECT ALL verwendet wird. Mengenoperationen können auch verschachtelt und verkettet werden.] 105 .4 Anfragen kombinieren Die Ergebnisse zweier Anfragen können mit Mengenoperationen vereinigt werden. Doppelte Zeilen werden wiederum entfernt. wie in Abschnitt 10. kann das Ergebnis wahlweise sortiert werden. spalte2 [ASC | DESC] . aber nicht im Ergebnis von anfrage2 sind. dass beide die gleiche Anzahl von Spalten ergeben und dass die entsprechenden Spalten kompatible Datentypen haben.Anfragen 7. müssen die Anfragen vereinigungskompatibel (englisch union compatible) sein.5 erklärt. 7. hängt das Ergebnis von anfrage2 im Prinzip an das Ergebnis von anfrage1 an (obwohl es keine Gewähr dafür gibt. Doppelte Zeilen werden entfernt. wie zum Beispiel: anfrage1 UNION anfrage2 UNION anfrage3 Das bedeutet das Gleiche wie: (anfrage1 UNION anfrage2) UNION anfrage3 UNION. dass die Zeilen auch in dieser Reihenfolge zurückgegeben werden). Die möglichen Operationen sind Vereinigungsmenge (englisch union). Die ORDER BY-Klausel gibt die Sortierreihenfolge an: SELECT select_liste FROM tabellen_ausdruck ORDER BY spalte1 [ASC | DESC] [.5 Zeilen sortieren Nachdem eine Anfrage eine Ergebnistabelle erzeugt hat (nachdem die Select-Liste verarbeitet wurde). im Sinne von DISTINCT. Wenn das Sortieren nicht gewählt wird. INTERSECT. Eine bestimmte Reihenfolge kann nur gewährleistet werden. die im Ergebnis von anfrage1. außer wenn UNION ALL verwendet wird.. was heißt. die Vereinigungsmengenoperation. Die Syntax ist anfrage1 UNION [ALL] anfrage2 anfrage1 INTERSECT [ALL] anfrage2 anfrage1 EXCEPT [ALL] anfrage2 anfrage1 und anfrage2 sind Anfragen.

wobei »kleiner« durch den Operator < festgelegt wird.2) oder die Nummer einer Spalte sein. Sie könnten zum Beispiel die Zeilen 10 bis 20 anfordern. abfallend (descending) zu setzen. Einige Beispiele: SELECT a.und OFFSET-Werte verändert. dann ist es empfehlenswert. wenn er einen Ausführungsplan für eine Anfrage erstellt. als wenn man die OFFSET-Klausel auslässt. Die aufsteigende Reihenfolge stellt kleinere Werte an den Anfang. dass so viele Zeilen ausgelassen werden. INTERSECT oder EXCEPT und sind nicht auf andere SQL-Datenbanken portierbar. wenn ORDER BY nicht verwendet wird. um Zeilen zu sortieren. Wenn sowohl OFFSET als auch LIMIT verwendet werden. 7. SELECT a + b AS summe. bevor Zeilen zurückgegeben werden. Ansonsten erhalten Sie eine nicht vorhersagbare Teilmenge der Ergebniszeilen der Anfrage. aber 10 bis 20 nach welcher Reihenfolge? Die Reihenfolge ist unbekannt.Kapitel 7 spalte1 usw. OFFSET bedeutet. Aber diese Erweiterungen funktionieren nicht in Anfragen mit UNION. Wenn LIMIT verwendet wird. die von der übrigen Anfrage erzeugt werden. dann werden die hinteren Einträge verwendet. Als Erweiterung gegenüber dem SQL-Standard erlaubt PostgreSQL die Sortierung nach beliebigen Ausdrücken: SELECT a. LIMIT ALL hat die gleiche Auswirkung. Wenn mehrere Spalten zum Sortieren angegeben werden. was heißt.3. c FROM tabelle1 ORDER BY summe. dann werden so viele Zeilen ausgelassen. Nach jeder Spaltenangabe kann wahlweise ASC oder DESC stehen. wie in OFFSET angegeben. b FROM tabelle1 ORDER BY a. Der Anfrageoptimierer zieht die LIMIT-Klausel mit in Betracht. dass man sehr wahrscheinlich unterschiedliche Pläne (die unterschiedliche Zeilenreihenfolgen ergeben) erhält. bevor die Zählung für LIMIT beginnt. OFFSET 0 hat die gleiche Auswirkung. SELECT a. falls die Anfrage selbst weniger Zeilen liefert). verweisen auf Spalten in der Select-Liste.6 LIMIT und OFFSET LIMIT und OFFSET ermöglichen Ihnen. um die Sortierrichtung auf aufsteigend (englisch ascending) bzw. die der von den vorderen Einträgen festgelegten Reihenfolge nach gleich sind. Verweise auf Spaltennamen aus der FROM-Klausel. nur einen Teil der Zeilen. sum(b) FROM tabelle1 GROUP BY a ORDER BY 1. zurückzugeben: SELECT select_liste FROM tabellen_ausdruck [LIMIT { zahl | ALL }] [OFFSET zahl] Wenn eine Limit-Zahl angegeben wird. sind auch erlaubt: SELECT a AS b FROM tabelle1 ORDER BY a. eine ORDER BY-Klausel zu verwenden. Sie können entweder der Ausgabename einer Spalte (siehe Abschnitt 7. wenn man die LIMIT. die die Ergebniszeilen in eine eindeutige Ordnung bringt. b FROM tabelle1 ORDER BY a + b. dann werden höchstens so viele Zeilen zurückgegeben (aber möglicherweise weniger. als wenn man die LIMIT-Klausel auslässt. Entsprechend wird die abfallende Reihenfolge durch den Operator > festgelegt. die in der Select-Liste umbenannt wurden. Wenn man folglich 106 .

außer wenn ORDER BY verwendet wird. um die Reihenfolge zu beeinflussen. dass SQL keine Gewähr dafür gibt. das Verhalten folgt aus der Tatsache. dass das Ergebnis einer Anfrage in einer bestimmten Reihenfolge abgeliefert wird. um verschiedene Teilmengen eines Anfrageergebnisses auszuwählen. 107 . wird man widersprüchliche Ergebnisse erhalten.und OFFSET-Werte variiert. Das ist kein Fehler. wenn man keine voraussagbare Reihenfolge mit ORDER BY erzwingt.Anfragen die LIMIT.

.

Tabelle 8. Die meisten alternativen Namen in der Spalte “Alias” sind interne Namen. zur allgemeinen Verwendung gedachten Datentypen. die hier nicht gezeigt sind. Benutzer können weitere Typen mit CREATE TYPE zu PostgreSQL hinzufügen. Darüber hinaus gibt es einige für interne Zwecke gebrauchte und einige veraltete Typen.8 8 Datentypen PostgreSQL stellt seinen Benutzern eine reichhaltige Menge eingebauter Datentypen zur Verfügung. int4 float8 varchar(n) char(n) varbit(n) bool Alias int8 serial8 Beschreibung 8-Byte-Ganzzahl mit Vorzeichen selbstzählende 8-Byte-Ganzzahl Bitkette mit fester Länge Bitkette mit variabler Länge Boole'scher (logischer) Wert (wahr/falsch) Rechteck binäre Daten Zeichenkette mit variabler Länge Zeichenkette mit fester Länge IP-Netzwerkadresse Kreis in der Ebene Kalenderdatum ( Jahr. Name bigint bigserial bit bit varying(n) boolean box bytea character varying(n) character(n) cidr circle date double precision inet integer interval(p) line lseg macaddr int. Monat. die von PostgreSQL aus historischen Gründen verwendet werden.1: Datentypen 109 . Tag) Fließkommazahl mit doppelter Präzision IP-Hostadresse 4-Byte-Ganzzahl mit Vorzeichen Zeitspanne Gerade in der Ebene (nicht voll implementiert) endliche Strecke in der Ebene MAC-Adresse Tabelle 8.1 zeigt alle eingebauten.

bit varying. Einige Typen sind allerdings nur in PostgreSQL vorhanden. Jeder Datentyp hat eine externe Darstellung. char. die von seinen Eingabe.und Zeittypen.und Ausgabefunktionen bestimmt wird.2 listet die verfügbaren Typen. decimal.und Ausgabefunktionen sind nicht umkehrbar. character varying. Addition und Multiplikation) führen zur Laufzeit keine Fehlerprüfung durch. Name smallint integer Speichergröße 2 Bytes 4 Bytes Beschreibung ganze Zahl mit kleiner Reichweite normale Wahl für ganze Zahlen Reichweite -32768 bis +32767 -2147483648 bis +2147483647 Tabelle 8. timestamp (beide mit und ohne with time zone). Tabelle 8. oder haben mehrere mögliche Eingabeformate. wie zum Beispiel offene oder geschlossene Pfade. smallint. character.Kapitel 8 Name money numeric [ (p. boolean. 4. 4.1 Numerische Typen Numerische Typen bestehen aus 2-.B. um die Geschwindigkeit zu verbessernAuf einigen Systemen können die numerischen Operationen bei einigen Datentypen zum Beispiel ohne Benachrichtigung Überlauf oder Unterlauf verursachen. Viele eingebaute Datentypen haben offensichtliche externe Formate.) Kompatibilität: Die folgenden Typen (oder deren Schreibweisen) sind von SQL vorgesehen: bit.und 8-Byte-Ganzzahlen (englisch integer). s) ] exakte Zahl mit wählbarer Präzision offener oder geschlossener Pfad in der Ebene geometrischer Punkt in der Ebene Polygon float4 int2 serial4 Fließkommazahl mit einfacher Präzision 2-Byte-Ganzzahl mit Vorzeichen selbstzählende 4-Byte-Ganzzahl Zeichenkette mit variabler Länge Tageszeit Tageszeit mit Zeitzone Datum und Zeit Datum und Zeit mit Zeitzone time [ (p) ] with time zone timetz timestamp [ (p) ] without time zone timestamp [ (p) ] [ with time zone ] timestamp timestamptz Tabelle 8. 8. integer. Das heißt. Einige Eingabe.und 8-Byte-Fließkommazahlen (floating point) und Zahlen mit Dezimalbrüchen mit fester Präzision. wie zum Beispiel die Datums. real. dass das Ergebnis einer Ausgabefunktion gegenüber dem ursprünglichen Wert an Genauigkeit verlieren kann.2: Numerische Typen 110 . time. date. interval.1: Datentypen (Forts. varchar. s) ] path point polygon real smallint serial text time [ (p) ] [ without time zone ] Alias Beschreibung Geldbetrag decimal [ (p. double precision. Einige Operatoren und Funktionen (z. numeric.

verursachen einen Fehler. wird den Index nicht verwenden.. Schauen Sie in Kapitel 9 für weitere Informationen. inexakt variable Präzision.1. Der Type bigint funktioniert möglicherweise nicht auf allen Plattformen. und PostgreSQL kann gegenwärtig keine Indexe verwenden. Allerdings kennen wir keine vernünftige Plattform. 8.1. das heißt Zahlen ohne Nachkommastellen. mit unterschiedlichen Reichweiten. Anmerkung Wenn Sie eine Spalte vom Typ smallint oder bigint mit einem Index haben.Datentypen Name bigint decimal numeric real double precision serial bigserial Speichergröße 8 Bytes variabel variabel 4 Bytes 8 Bytes 4 Bytes 8 Bytes Beschreibung ganze Zahl mit großer Reichweite benutzerdefinierte Präzision. ist. WHERE smallint_spalte = '42' Dadurch zögert das System die Typauflösung etwas hinaus und wird der Konstante den richtigen Typ zuweisen. Eine Möglichkeit. das System dazu zu bewegen.2: Numerische Typen (Forts. integer und bigint speichern ganze Zahlen (englisch integer). wenn der Speicherplatz knapp ist. die PostgreSQL aber mit diversen anderen SQL-Datenbanksystemen gemeinsam hat. verhält sich bigint genau so wie integer (aber benötigt trotzdem 8 Bytes Speicherplatz). die diese Unterstützung nicht haben. exakt benutzerdefinierte Präzision. wo dies tatsächlich der Fall ist. dass der Compiler 8-Byte-Ganzzahlen unterstützt. Eine Klausel. exakt variable Präzision. Die folgenden Abschnitte beschreiben die Typen im Einzelnen. WHERE smallint_spalte = 42 hat. Der Typ smallint wird normalerweise nur verwendet. von diesem Index Gebrauch zu machen. dieses Problem zu umgehen. die Konstante in Apostrophe zu setzen.2 beschrieben. Auf Maschinen. Der Typ bigint und die Typnamen int2. da er die beste Balance zwischen Reichweite. Der Typ integer ist die häufigste Wahl.. Die numerischen Typen haben einen vollen Satz entsprechender Operatoren und Funktionen.) Die Syntax für numerische Typen ist in Abschnitt 4. weil das System der Konstante 42 den Typ integer zuweist.1 Ganzzahlentypen Die Typen smallint. int4 und int8 sind Erweiterungen.. Versuche. inexakt selbstzählende ganze Zahl große selbstzählende ganze Zahl Reichweite -9223372036854775808 bis 9223372036854775807 keine Begrenzung keine Begrenzung 6 Dezimalstellen Präzision 15 Dezimalstellen Präzision 1 bis 2147483647 1 bis 9223372036854775807 Tabelle 8. einen Wert außerhalb des Gültigkeitsbereichs zu speichern. weil Letzterer auf jeden Fall schneller ist. 111 . Der Typ bigint sollte nur verwendet werden. Größe im Speicher und Effizienz bietet.. wie hier: . weil er voraussetzt. dann werden Sie sicher auf Probleme stoßen. wenn die Reichweite des Typs integer nicht ausreicht. SQL gibt nur die Ganzzahlentypen integer (oder int) und smallint an. die zum Beispiel eine Form wie . wenn zwei verschiedene Datentypen im Spiel sind.

wo Genauigkeit erforderlich ist. Beide Typen sind Teil des SQL-Standards. nachkommastellen) Die Zahl der Gesamtstellen muss positiv.3 Fließkommatypen Die Datentypen real und double precision sind inexakte numerische Typen mit variabler Genauigkeit.) Wenn die Anzahl der Stellen (insgesamt oder nach dem Komma) in einem Wert die angegebenen Grenzen einer Spalte überschreitet. 8. dann ist das ein Fehler. Er ist besonders empfehlenswert für die Speicherung von Geldbeträgen und anderer Größen. Wir halten das für nicht so sinnvoll. doppelte Genauigkeit). wird eine Spalte erzeugt. Wenn er nicht so gerundet werden kann. Der Typ numeric ist allerdings verglichen mit den im nächsten Abschnitt beschriebenen Fließkommatypen sehr langsam. dass null Nachkommastellen die Vorgabe sind. dann geben Sie die gewünschte Anzahl von Stellen immer an. das heißt im Endeffekt eine ganze Zahl. den Wert zu runden. insoweit das vom Prozessor. Inexakt bedeutet. Unterlauf) angewiesen sind. wie sie sich in Berechnungen verhalten. Der Typ double precision hat 112 . die der Nachkommastellen null oder positiv sein.Kapitel 8 8. dass einige Werte nicht exakt in das interne Format umgewandelt werden können und als Annäherungen gespeichert werden. Sowohl die Zahl der Nachkommastellen und die Zahl der insgesamt zu speichernden Zifferstellen können angegeben werden. ❏ Wenn Sie komplizierte Berechnungen mit diesen Typen anstellen und auf ein bestimmtes Verhalten in Grenzfällen (Unendlichkeit. verwenden Sie folgende Syntax: NUMERIC(gesamtstellen. dann sollten Sie die Implementierung dieser Typen ganz genau auswerten. Der Typ real hat normalerweise einen Gültigkeitsbereich von mindestens -1E+37 bis +1E+37 und eine Genauigkeit von mindestens sechs Dezimalstellen (in der gesamten Zahl). die man erwarten könnte.2 Zahlen mit beliebiger Präzision Der Type numeric kann Zahlen mit bis zu 1000 Ziffern Präzision speichern und exakte Berechnungen ausführen. ❏ Das Vergleichen zweier Fließkommawerte (mit =) muss nicht unbedingt die Ergebnisse liefern. dann wird das System versuchen. außer wenn die Spalte wie im letzten Fall erzeugt wurde. dann sollten Sie den Typ numeric verwenden. Betriebssystem und Compiler unterstützt wird. Die Typen decimal und numeric sind identisch. Normalerweise werden die Eingabewerte einer numeric-Spalte auf die vorgesehene Anzahl von Nachkommastellen gebracht. dass er in die Grenzen passt. In der Praxis sind diese Typen normalerweise Umsetzungen des IEEE-Standards 754 für binäre Fließkomma-Arithmetik (einfache bzw. Wenn Sie auf Portierbarkeit Wert legen. Und wenn Sie ganz einfach schreiben NUMERIC ohne irgendwelche Stellenzahlen. (Der SQL-Standard sieht hier eigentlich vor. Das Verwalten dieser Abweichungen und der Art. Wenn Sie schreiben NUMERIC(stellen) werden null Nachkommastellen vorgesehen. ist das Thema eines ganzen Zweigs der Mathematik und der Informatik und soll hier nicht weiter besprochen werden. Um eine Spalte vom Typ numeric zu erstellen. Wir wollen lediglich folgende Hinweise geben: ❏ Wenn Sie exakte Speicherung und Berechnungen benötigen (zum Beispiel für Geldbeträge).1. in der Zahlen mit einer beliebigen Anzahl Stellen vor oder nach dem Komma gespeichert werden können. sodass das Speichern und wieder Auslesen eines Wertes leichte Diskrepanzen zeigen kann.1.

Zahlen. Werte. um zu verhindern. um zu verhindern. wird automatisch wieder gelöscht. 8. Wenn Sie einen Unique Constraint oder einen Primärschlüssel für die Spalte haben wollen. um Spalten einzurichten. die benötigt werden. die zu nahe an null sind und nicht als verschieden von null abgespeichert werden können.3 hatte serial automatisch einen Unique Constraint. das passiert nicht automatisch. sondern abgekürzte Schreibweisen. Verwenden Sie anstelle dessen numeric oder decimal in Verbindung mit der Funktion to_char. 113 . In der gegenwärtigen Umsetzung ist CREATE TABLE tabellenname ( spaltenname serial ). dass diese automatische Kopplung des Löschens nicht erfolgt. Die Typnamen bigserial und serial8 funktionieren genauso.) 8.3 erzeugt wurde. verursachen einen Fehler. dass aus Versehen doppelte Werte eingefügt werden. die automatisch eine eindeutige Nummerierung erzeugen. die durch einen serial-Typ erzeugt wird. wenn die Sequenz aus einer Dumpdatei einer Datenbank vor 7. außer dass sie eine Spalte vom Typ bigint erzeugen. Wenn die Genauigkeit eines Eingabewerts zu hoch ist.Datentypen normalerweise etwa einen Bereich von -1E+308 bis +1E+308 mit mindestens 15 Dezimalstellen Genauigkeit.oder PRIMARY KEY-Constraint erzeugen. In der Regel sollten Sie auch einen UNIQUE.4 Selbstzählende Datentypen Die Datentypen serial und bigserial sind keine richtigen Datentypen. und kann auf direktem Wege nicht gelöscht werden. dann müssen Sie es genauso wie bei jedem anderen Datentyp ausdrücklich angeben.3 nicht der Fall. um die Abhängigkeit zwischen der Sequenz und der Spalte herzustellen.2 Typen für Geldbeträge Anmerkung Der Typ money ist veraltet. Das ist nicht mehr automatisch. Anmerkung Vor PostgreSQL 7. weil die Dumpdatei die Informationen. wenn die zugehörige Spalte entfernt wird. Das heißt also. dass mehr als 231 Nummern innerhalb der Lebensdauer einer Tabelle benötigt werden.1. dann wird versucht. die zu groß oder zu klein sind. nicht enthält. gleichbedeutend mit CREATE SEQUENCE tabellenname_spaltenname_seq. wenn Sie erwarten. den Wert zu runden. Die Typnamen serial und serial4 sind gleichbedeutend: Beide erzeugen Spalten vom Typ integer. Beachten Sie. bigserial sollte verwendet werden. CREATE TABLE tabellenname ( spaltenname integer DEFAULT nextval('tabellenname_spaltenname_seq') NOT NULL ). (Das war vor PostgreSQL 7. dass NULL-Werte manuell eingefügt werden können. Außerdem wird ein NOT NULL-Constraint erzeugt. eine integer-Spalte und ihr Vorgabewert werden aus einer Sequenz erzeugt. Die Sequenz. verursachen einen Unterlauffehler.

varchar(n) character(n). es sei denn. Die Ausgabe ist im Allgemeinen im letzteren Format. die überschüssigen Zeichen sind alle Leerzeichen. (Diese etwas bizarre Ausnahme wird vom SQL-Standard vorgeschrieben. sodass die Speicherplatzanforderungen auf der Festplatte womöglich geringer sind. Darüber hinaus stellt PostgreSQL den Typ text zur Verfügung.3: Typen für Geldbeträge 8. eine längere Zeichenkette zu speichern. char(n) text Beschreibung variable Länge mit Höchstgrenze feste Länge.4 zeigt die zur allgemeinen Verwendung gedachten Zeichenkettentypen in PostgreSQL SQL definiert zwei Zeichenkettentypen: character varying(n) und character(n). egal in welchem Zusammenhang die Umwandlung oder Zuweisung erfolgte. Der Versuch. Beide Typen können Zeichenketten bis zu n Zeichen Länge speichern. character ohne Längenangabe entspricht character(1).2 wurden zu lange Zeichenketten immer ohne Fehlermeldung abgeschnitten. welcher Zeichenketten beliebiger Länge aufnehmen kann.3 Zeichenkettentypen Name character varying(n). mit Leerzeichen aufgefüllt variable Länge ohne Höchstgrenze Tabelle 8.und Fließkommazahlen-Konstanten sowie “typischen” Schreibweisen für Geldbeträge. wie zum Beispiel '$1.00'. Die Eingabe kann in verschiedenen Formaten getätigt werden. Obwohl der Typ text nicht im SQL-Standard steht.3. dann akzeptiert der Typ Zeichenketten beliebiger Länge. Die Schreibweisen varchar(n) und char(n) sind Aliasnamen für character varying(n) bzw. damit sie den schnellen Zugriff auf kürzere Spaltenwerte nicht erschweren.Kapitel 8 Der Typ money speichert einen Geldbetrag mit einer festen Nachkommagenauigkeit. dann werden Werte vom Typ character mit Leerzeichen aufgefüllt. ergibt einen Fehler. character(n).4: Zeichenkettentypen Tabelle 8. Wenn ein Wert ausdrücklich in den Typ character varying(n) oder character(n) umgewandelt wird (Cast). Lange Zeichenketten werden vom System automatisch komprimiert. hängt allerdings von den Locale-Einstellungen ab. Die Speicheranforderungen für Daten dieser Typen ist 4 Bytes zuzüglich der eigentlichen Zeichen. (Das ist auch vom SQLStandard vorgeschrieben. wenn character varying ohne Längenangabe verwendet wird. die gespeichert werden kann. während Werte vom Typ character varying einfach den kürzeren Wert speichern. die kürzer als die angegebene Länge ist. Außerdem werden lange Werte in separaten Tabellen gespeichert. Letzteres ist eine Erweiterung von PostgreSQL.48 bis +21474836. und im Falle von character zuzüglich der auffüllenden Leerzeichen. der für n in der Deklaration des Datentyps ver114 . rund 1 GB lang. haben mehrere andere SQL-Datenbankprodukte ihn auch.47 Tabelle 8. einschließlich Ganzzahlen. dann werden zu lange Werte ohne Fehlermeldung auf n Zeichen abgeschnitten. (Der höchste Wert. dann werden sie bis zur zugelassenen Länge der Zeichenkette abgeschnitten. wobei n eine positive ganze Zahl ist.) Anmerkung Vor PostgreSQL 7. Name money Speichergröße 4 Bytes Beschreibung Geldbetrag Reichweite -21474836. Auf jeden Fall ist die längste mögliche Zeichenkette. siehe Tabelle 8.) Wenn eine Zeichenkette zugewiesen wird.000.

In Kapitel 4 Abschnitt Zeichenkettenkonstanten finden Sie Informationen über die Syntax von Zeichenkettenkonstanten und in Kapitel 9 Informationen über die verfügbaren Operatoren und Funktionen.1: Verwendung der Zeichenkettentypen Die Funktion char_length ist in Abschnitt 9. dann verwenden Sie text oder character varying ohne Längenangabe. INSERT INTO test2 VALUES ('zu lang'). Es gibt zwei weitere Typen für Zeichenketten mit fester Länge in PostgreSQL. char_length(b) FROM test2. Name "char" name Speichergröße 1 Byte 64 Bytes Beschreibung interner Typ für ein Zeichen interner Typ für Objektnamen Tabelle 8. Beispiel 8. b | char_length -------+------------ok | 2 gut | 5 zu la | 5 Listing 8. ERROR: value too long for type character varying(5) INSERT INTO test2 VALUES ('zu lang'::varchar(5)). denn mit mehrbytigen Zeichenkodierungen kann die Zahl der Zeichen und die Zahl der Bytes sowieso ziemlich unterschiedlich sein. anstatt willkürlich eine Obergrenze zu erfinden. der Standardwert könnte in der Zukunft einmal ein anderer sein. Wenn Sie längere Zeichenketten ohne bestimmte Obergrenze speichern wollen. Seine Länge ist 64 Bytes (63 verwendbare Bytes und eine Abschlussmarkierung) definiert und ist in der Konstante NAMEDATALEN festgelegt.1: Verwendung der Zeichenkettentypen CREATE TABLE test1 (a character(4)). Der Typ "char" (achten Sie auf die Anführungszeichen) unterscheidet sich von char(1) dadurch. In den internen Systemkatalogen wird er quasi als Aufzählungstyp für Arme verwendet. Die Länge wird bei der Compilierung festgelegt (und kann daher für besondere Zwecke verändert werden). INSERT INTO test2 VALUES ('ok').Datentypen wendet werden kann. Es wäre nicht sonderlich nützlich. INSERT INTO test2 VALUES ('gut ').) Tipp Es gibt keine Leistungsunterschiede zwischen diesen Typen.ausdrückliche Umwandlung SELECT b.5: Spezielle Zeichenkettentypen 115 . SELECT a. dass er nur ein Byte Speicherplatz braucht. das zu ändern. welche in Tabelle 8.4 besprochen. -. ist aber kleiner.5 gezeigt werden. Der Typ name existiert ausschließlich für die Speicherung von Namen in den internen Systemkatalogen und ist nicht für Endanwender vorgesehen. char_length(a) FROM test1. INSERT INTO test1 VALUES ('ok'). außer den höheren Speicheranforderungen des Typs character wegen der Auffüllung mit Leerzeichen. -a | char_length ------+------------ok | 4 CREATE TABLE test2 (b varchar(5)).

ist.6. bleibt davon nach der Verarbeitung der Zeichenkettenkonstante \001 übrig. dass eine Eingabe. wie in Tabelle 8.) Bytea-Werte werden auch in der Ausgabe durch Fluchtfolgen dargestellt. obwohl die Ausgabedarstellung des Null-Bytes und des Backslashes mehrere Zeichen lang ist. siehe Tabelle 8. Der Wert \001 wird dann an die Eingabefunktion des Typs bytea übergeben. wo er in ein einzelnes Byte mit dem Wert 1 verwandelt wird. (Siehe auch Kapitel 4 Abschnitt Zeichenkettenkonstanten. Der Grund. sondern den normalen Regeln für Zeichenkettenkonstanten folgt.7 gezeigt.6: Typen für binäre Daten Binäre Daten sind eine Reihe von Bytes.Kapitel 8 Die Funktion char_length ist in Abschnitt 9. Einzelheiten stehen in Tabelle 8. Um ein Byte zu umschreiben. wogegen die Kodierung und Verarbeitung von Zeichenketten von Locale-Einstellungen abhängt. wodurch der zweite Backslash übrig bleibt. SELECT '\\\\'::bytea. zwei Parseschritte im PostgreSQL-Server durchläuft. wie in Tabelle 8. dass das Apostrophzeichen von bytea nicht gesondert behandelt wird. Sie unterscheiden sich von Zeichenketten durch zwei Merkmale: Erstens können binäre Daten Bytes mit dem Wert null und andere “nicht druckbare” Bytes enthalten. müssen bestimmte Bytewerte durch Fluchtfolgen (escape sequences) umschrieben werden (aber alle Werte dürfen so umschrieben werden). Wenn man zum Beispiel eine Zeichenkettenkonstante '\\001' an den Server schickt.7 gezeigt.7 genau eine Byte Länge hat. Die meisten “druckbaren” Bytes werden ihre normale Darstellung im Zeichensatz des Clients behalten. wandeln Sie es in eine dreistellige Oktalzahl um und schreiben davor zwei Backslashes. Wenn ein bytea-Wert als Zeichenkettenkonstante in einem SQL-Befehl eingegeben wird. 8. Prinzipiell wird jedes “nicht druckbare” Byte in seinen entsprechenden dreistelligen Oktalwert umgewandelt und ein Backslash vorangestellt.4 Typen für binäre Daten Der Typ bytea ermöglicht die Speicherung von binären Daten. Name bytea Speichergröße 4 Bytes plus die eigentlichen Daten Beschreibung binäre Daten mit variabler Länge Tabelle 8. schreiben müssen. die als Zeichenkettenkonstante geschrieben wird. Dezimaler Bytewert 0 39 92 Beschreibung Null-Byte Apostroph Backslash Eingabedarstellung als Fluchtfolge '\\000' '\'' or '\\047' '\\\\' or '\\134' Beispiel SELECT '\\000'::bytea. 116 .8.4 besprochen. dass das Ergebnis jedes Beispiels in Tabelle 8. Der verbliebene Backslash wird dann von der bytea-Eingabefunktion erkannt. Der erste Backslash jedes Paars wird bei der Analyse der Zeichenkettenkonstante als Fluchtzeichen erkannt und wird entfernt. Einige Bytewerte haben alternative Fluchtfolgen.7: Fluchtfolgen für bytea-Konstanten Beachten Sie. Beachten Sie. SELECT '\''::bytea. Zweitens beziehen sich Operationen an binären Daten auf die tatsächlichen Bytes. wo er entweder eine Folge von drei Oktalziffern anführt oder als Fluchtzeichen für noch einen Backslash steht. Ausgabedarstellung \000 ' \\ Tabelle 8. dass Sie so viele Backslashes. Das Byte mit dem Dezimalwert 92 (Backslash) hat eine besondere Darstellung in der Ausgabe.

haben Sie vielleicht noch etwas mehr Arbeit.u. Das Eingabeformat unterscheidet sich von bytea. um die bytea-Werte ordentlich verarbeiten zu können. um das zu verhindern.und Zeittypen Bei den Typen time.5 Datums. nämlich BLOB oder BINARY LARGE OBJECT.Z.00 178000000 Jahre 32767 u. Der erlaubte Bereich für p ist 0 bis 6 für die Typen timestamp und interval.99-12 1 Mikrosekunde Tabelle 8.und Zeittypen aus dem SQL-Standard. 1465001 u. welche in Tabelle 8. 12 Bytes 4 Bytes 8 Bytes Zeitspannen nur Datum nur Tageszeit -178000000 Jahre 4713 v. müssen Sie diese womöglich auch durch Fluchtfolgen darstellen. Ausgabeergebnis \\ \001 ~ \\ \xxx (oktaler Wert) ASCII-Zeichen Tabelle 8.Datentypen Dezimaler Bytewert 92 0 bis 31 und 127 bis 255 32 bis 126 Beschreibung Backslash “nicht druckbare” Bytes “druckbare” Bytes Ausgabe durch Fluchtfolge Beispiel SELECT '\\134'::bytea.Z. Genauigkeit 1 Mikrosekunde / 14 Stellen 1 Mikrosekunde / 14 Stellen 1 Mikrosekunde 1 Tag 1 Mikrosekunde 8 Bytes Datum und Zeit 4713 v.Z.9 gezeigt werden. timestamp und interval kann wahlweise die Genauigkeit p angegeben werden.Z.Z.00+12 23:59:59. SELECT '\\001'::bytea.Z. 117 . wie viele Nachkommastellen im Sekundenfeld abgespeichert werden.8: Fluchtfolgen in bytea-Ausgaben Je nachdem. 8. Der SQL-Standard sieht einen anderen Typ für binäre Daten vor. welche Clientschnittstelle für PostgreSQL Sie verwenden. Ohne diese Angabe gibt es keine ausdrückliche Beschränkung.9: Datums.99 12 Bytes nur Tageszeit 00:00:00. und 0 bis 13 für die time-Typen. Name timestamp [ (p) ] [ without time zone ] timestamp [ (p) ] with time zone interval [ (p) ] date time [ (p) ] [ without time zone ] time [ (p) ] with time zone Speichergröße Beschreibung 8 Bytes Datum und Zeit Niedrigster Wert Höchster Wert 4713 v.u. SELECT '\\176'::bytea. Wenn zum Beispiel die Zeilenumbrüche automatisch angepasst werden. 00:00:00.und Zeittypen PostgreSQL unterstützt die komplette Sammlung an Datums. welche aussagt. aber die verfügbaren Funktionen und Operatoren sind im Großen und Ganzen gleich. 23:59:59.u. 1465001 u.

bevorzugt 118 . Die genauen Parseregeln finden Sie in Anhang A. dann ist die Mikrosekundengenauigkeit im gesamten Wertebereich verfügbar. dann wird die Genauigkeit des angegebenen Werts verwendet. 1999 1999-01-08 Tabelle 8. die wahlweise die Anzahl der Nachkommastellen im Sekundenfeld bestimmt. date-Werte Tabelle 8. einschließlich ISO 8601. Anmerkung Vor PostgreSQL 7.5. SQL verlangt die folgende Syntax: typ [ (p) ] 'wert' wobei p eine ganze Zahl ist. PostgreSQL ist bei der Verarbeitung von Datums. In einigen Formaten kann die Reihenfolge von Monat und Tag in Datumsangaben zweideutig sein und daher gibt es eine Möglichkeit. 8. Der Befehl SET datestyle TO 'European' wählt die Variante “Tag vor Monat”. time. aber die Definition hat einige Eigenschaften. Die Genauigkeit kann für time. dem traditionellen POSTGRES-Format und anderer. Das wurde geändert. dass Datums. wo auch die erlaubten Werte für die Textfelder Monat. SQL-kompatibel. Sie sollten diese Typen in neuen Anwendungen nicht verwenden und etwaige alte Anwendungen auf die neuen Typen umändern.Kapitel 8 Anmerkung Wenn timestamp-Werte als Fließkommazahlen gespeichert werden (gegenwärtig die Vorgabe). In der Regel reichen die Typen date. timestamp und interval angegeben werden. Wenn keine Genauigkeit angegeben wurde.3 war timestamp gleichbedeutend mit timestamp with time zone.10: Datumseingabe Beschreibung englisch ausgeschrieben ISO-8601-Format. Diese internen Typen könnten in einer zukünftigen Version verschwinden. um dem SQL-Standard zu entsprechen. timestamp without time zone und timestamp with time zone für die Anforderungen aller Anwendungen aus. Die Typen abstime und reltime sind Typen mit niedrigerer Genauigkeit für interne Aufgaben.1. die erwartete Reihenfolge dieser Felder einzustellen.1 Eingabeformate für Datum und Zeit Datum und Zeit können in vielen verschiedenen Formaten eingegeben werden. der Befehl SET datestyle TO 'US' oder SET datestyle TO 'NonEuropean' wählt die Variante “Monat vor Tag”.und Zeitkonstanten wie Zeichenketten zwischen Apostrophen stehen müssen. die die Nützlichkeit dieses Typs infrage stellen. als der SQL-Standard erfordert.2000 gespeichert und die Mikrosekundengenauigkeit wird für Werte innerhalb einiger Jahre um den 1. Die zulässigen Werte finden Sie oben. Wenn timestamp-Werte als 8-Byte-Ganzzahlen gespeichert werden (eine Option bei der Compilierung).1. Beachten Sie. kann die tatsächliche Genauigkeit weniger als 6 Stellen sein.10 zeigt mögliche Eingabewert für den Typ date. Beispiel January 8. Genauere Informationen finden Sie in Kapitel 4 Abschnitt Konstanten anderer Typen. aber die Genauigkeit lässt für weiter entfernte Zeitpunkte nach.2000 herum erreicht.und Zeiteingaben viel flexibler. Die Werte werden als Sekunden seit dem 1. Wochentag und Zeitzone gelistet sind. Der Typ time with time zone ist vom SQL-Standard definiert.

1. Monat. timestamp-Werte Gültige Eingabewerte für die Typen timestamp und timestamp with time zone bestehen aus einem Datum gefolgt von einer Zeitangabe und wahlweise einem AD (englisch für unsere Zeitrechnung) oder BC (vor unserer Zeitrechnung). Stunde muss <= 12 sein identisch mit 00:00:00 Tabelle 8. Tag Jahr und Tag innerhalb des Jahres Jahr und Tag innerhalb des Jahres Julianischer Tag Jahr 99 vor unserer Zeitrechnung time-Werte Tabelle 8. Tag ISO-8601. Beispiel 04:05:06.008 99008 J2451187 January 8.)ltige Eingabewerte für den Typ time. Jahr.10: Datumseingabe (Forts.789-8 04:05:06-08:00 04:05-08:00 040506-08 Beschreibung ISO 8601 ISO 8601 ISO 8601 ISO 8601 Tabelle 8. Monat.13. Januar in jedem Modus ISO-8601. wie in Tabelle 8. August im europäischen Modus) US-Schreibweise. Januar im US-Modus.12: Zeiteingabe mit Zeitzone Mehr Beispiele für Zeitzonen finden Sie in Tabelle 8. die für time gültig sind. (Siehe Tabelle 8. 99 BC Tabelle 8.12 gezeigt.13.) Beschreibung zweideutig (8.) Also sind 1999-01-08 04:05:06 119 . gefolgt von einer gültigen Zeitzonenangabe.11: Zeiteingabe Der Typ time with time zone akzeptiert alle Eingabewerte. alles wahlweise gefolgt von einer Zeitzonenangabe. Beispiel 04:05:06. Jahr. AM hat keinen Einfluss identisch mit 16:05.789 04:05:06 04:05 040506 04:05 AM 04:05 PM allballs Beschreibung ISO 8601 ISO 8601 ISO 8601 ISO 8601 identisch mit 04:05.Datentypen Beispiel 1/8/1999 1/18/1999 19990108 990108 1999.11 zeigt gü (Forts. 18.

Besondere Werte Die folgenden SQL-kompatiblen Funktionen können als Datums.] [richtung] Wobei: zahl eine Zahl (möglicherweise mit Vorzeichen) ist. Darüber hinaus wird das weit verbreitete Format January 8 04:05:06 1999 PST unterstützt. Bei timestamp [without time zone] werden ausdrückliche Zeitzonenangaben still ignoriert.. Das heißt. ändern Sie entweder den Parameter timezone oder verwenden die Klausel AT TIME ZONE (siehe Abschnitt 9. wird angenommen. dass der Wert in der aktuellen Systemzeitzone ist (welche durch den Parameter timezone festgelegt ist) und wird dementsprechend nach UTC umgewandelt. year ( Jahr). Werte für Tage. minute (Minute). richtung kann ago oder leer sein. oder eine Abkürzung oder die Mehrzahl von einer dieser Einheiten. week (Woche).und Zeitangaben der entsprechenden Datentypen verwendet werden: CURRENT_DATE (aktuelles Datum). Zum Beispiel: '1 12:59:10' entspricht '1 day 12 hours 59 min 10 sec'. einheit eines der Folgenden ist: second (Sekunde).. der eine Zeitzonenangabe enthält. welche dem ISO-8601-Standard folgen. Minuten und Sekunden können ohne ausdrückliche Einheiten angegeben werden. wird entsprechend der Zeitzone in UTC umgewandelt. day (Tag). wobei ago für eine negative Zeitspanne steht. century ( Jahrhundert).8. Stunden. dass der Wert für timestamp without time zone in der aktuellen Systemzeitzone stehen soll. Um die Zeit in einer anderen Zeitzone zu sehen.3). auch bekannt als Greenwich Mean Time/GMT) abgespeichert. dann wird der Wert wiederum von UTC in die aktuelle Systemzeitzone umgewandelt und als lokale Zeit in dieser Zone ausgegeben. CURRENT_TIME (aktuelle Zeit). Das At-Zeichen (@) ist optional und hat keine Bedeutung.13: Zeitzoneneingabe interval-Werte Werte vom Typ interval können mit der folgenden Syntax geschrieben werden: [@] zahl einheit [zahl einheit. decade ( Jahrzehnt). Wenn keine Zeitzone angegeben ist. month (Monat). Umwandlungen zwischen timestamp without time zone und timestamp with time zone gehen normalerweise davon aus. Bei timestamp with time zone wird der Wert intern immer in UTC (Universal Coordinated Time.und Zeitfeldern im Eingabewert ermittelt und nicht der Zeitzone wegen angepasst. 120 . der Ergebniswert wird nur aus den Datums. Eine andere Zeitzone kann für die Umwandlungen mit der Klausel AT TIME ZONE angegeben werden. hour (Stunde).Kapitel 8 und 1999-01-08 04:05:06 -8:00 gültige Werte. Beispiel MEZ +1:00 +100 +1 Beschreibung Mitteleuropäische Zeit Zeitunterschied für MEZ nach ISO 8601 Zeitunterschied für MEZ nach ISO 8601 Zeitunterschied für MEZ nach ISO 8601 Tabelle 8. Wenn ein Wert des Typs timestamp with time zone ausgegeben werden soll. Die Werte in den unterschiedlichen Einheiten werden automatisch unter Beachtung der Vorzeichen zusammengezählt. Ein Eingabewert. millennium ( Jahrtausend).

Der Name des Formats “SQL” ist ein Fehler der Geschichte.15 zeigt Beispiele für jeden Stil. Die Werte infinity und -infinity werden im System gesondert gespeichert und auch genauso wieder ausgegeben.) Tabelle 8.2 Ausgabeformate für Datum und Zeit Das Ausgabeformat der Datums. (Der SQL-Standard verlangt die Verwendung des ISO-8601Formats.) Tabelle 8. time.00 PST Tabelle 8.00 UTC Tabelle 8.und Zeiteingabewerte.16 zeigt ein Beispiel. Die letzteren beiden akzeptieren auch eine optionale Genauigkeitsangabe. z Gültige Typen date.12. Stilangabe ISO SQL POSTGRES German Beschreibung ISO-8601-/SQL-Standard traditioneller Stil ursprünglicher Stil deutscher Stil Beispiel 1997-12-17 07:37:16-08 17/12/1997 07:37:16. (Siehe auch Abschnitt 9.00 PST Wed Dec 17 07:37:16 1997 PST 17.14: Besondere Datums. Sie werden in Tabelle 8.und Zeiteingabewerte 8.1. ob der Monat vor oder nach dem Tag steht. die der Bequemlichkeit dienen können.1997 07:37:16.oder Zeitteil der Beispiele. früher als alle anderen Zeiten Zeit der aktuellen Transaktion heute um Mitternacht morgen um Mitternacht gestern um Mitternacht 00:00:00.14 gezeigt. timestamp date. Alle diese Werte werden wie normale Konstanten behandelt und müssen in halbe Anführungszeichen gesetzt werden.und Zeittypen kann auf vier Stile gesetzt werden: ISO 8601.15: Ausgabestile für Datum und Zei Der Stil SQL hat eine europäische und eine nicht-europäische (US) Variante.) PostgreSQL unterstützt auch mehrere besondere Datums. Die Vorgabe ist das ISO-Format. timestamp time Beschreibung 1970-01-01 00:00:00+00 (Unix-Systemzeit null) unendlich. timestamp date. 121 .Datentypen CURRENT_TIMESTAMP (aktuelle Zeit mit Datum). Dazu wird der Befehl SET datestyle verwendet.8. wogegen die anderen einfach Abkürzungen sind. welche bestimmt. traditioneller POSTGRES-Stil und Deutsch (German). timestamp timestamp timestamp date. die bei der Eingabe in normale Daten und Zeiten umgewandelt werden. SQL (Ingres). allballs. (Lesen Sie auch in Abschnitt 8.5.5. wie diese Einstellung die Interpretation der Eingabewerte beeinflusst. timestamp date. später als alle anderen Zeiten negativ unendlich. Die Ausgabe der Typen date und time ist natürlich immer nur der jeweilige Datums.4. Eingabe epoch infinity -infinity now today tomorrow yesterday zulu.

bevor Sie an den Client geschickt werden. dass Sie den Typ time with time zone nicht verwenden (obwohl er in PostgreSQL zur Unterstützung bestehender Anwendungen und zur Kompatibilität mit anderen SQL-Implementierungen vorhanden ist). ❏ Der Parameter timezone kann in der Konfigurationsdatei postgresql. PostgreSQL verwendet die Funktionen des Betriebssystems.und Zeittypen und -fähigkeiten. dem SQL-Standard in Bereichen. die für normale Anwendungen von Belang sind. 8. Datums.5. wenn sich arithmetische Berechnungen über die Umstellungsdaten erstrecken. Es gibt mehrere Wege. empfehlen wir. und nicht nur durch die Geometrie der Erde. 122 . zu entsprechen. Die Zeitzonen wurden rund um die Welt während des 20. ❏ Die Standardzeitzone wir als Zahlenkonstante als Unterschied zu UTC angegeben. dass die Zeiten außerhalb dieses Bereichs in UTC sind. Da PostgreSQL die Zeitzonenunterstützung aus dem Betriebssystem verwendet.00 PST Das Ausgabeformat des Typs interval sieht aus wie das Eingabeformat. PostgreSQL geht davon aus.und Zeitangaben zu formatieren. um Zeitzonenunterstützung anzubieten. außer dass Einheiten wie week (Woche) oder century ( Jahrhundert) in Jahre und Tage umgewandelt werden. kann der Typ time eine haben. dass. wird die Umgebungsvariable TZ auf der Servermaschine als Vorgabe verwendet.16: Datumsformate Beschreibung tag/monat/jahr monat/tag/jahr Beispiel 17/12/1997 15:37:16. PostgreSQLstrebt an. Jahrhunderts einigermaßen standardisiert. ] ] [ tage ] [ stunden:minuten:sekunden ] Die Ausgabestile können vom Benutzer mit dem Befehl SET datestyle. Dadurch wird die Anpassung an die Sommerzeit erschwert.. wenn Sie Zeitzonen verarbeiten müssen. timestamp with time zone und time with time zone verwenden Zeitzoneninformationen nur in diesem Bereich und nehmen an. die vom Server verwendete Zeitzone festzulegen: ❏ Wenn nichts anderes angegeben ist. Der SQL-Standard hat allerdings eine eigenartige Mischung aus Datums. Alle Daten und Zeiten werden intern in UTC abgespeichert. Zwei offensichtliche Probleme sind: ❏ Obwohl der Typ date keine Zeitzone hat. wenn keine Clientzeitzone definiert ist.7) ein flexiblerer Weg. und sind folglich. in der lokalen Zeitzone sind.Kapitel 8 Stilangabe European US Tabelle 8. Die Zeiten werden vom Datenbankserver in die lokale Zeitzone umgewandelt. und diese Systeme haben in der Regel nur Informationen für die Zeit von 1902 bis 2038 (was der unterstützten Spanne der herkömmlichen Unix-Systemzeit entspricht). die nur ein Datum oder nur die Zeit enthalten. Sie dann Typen mit Datum und Zeit verwenden. Wir empfehlen. In der Realität ist eine Zeitzone aber wertlos.3 Zeitzonen Zeitzonen und ihr Gebrauch werden von politischen Entscheidungen beeinflusst. dem Parameter datestyle in der Konfigurationsdatei postgresql. weil die Zeitzonenunterschiede sich während des Jahres ändern können (Sommerzeit). wenn sie nicht sowohl zu einem Datum als auch zu einer Zeit gehört.conf und der Umgebungsvariable PGDATESTYLE auf dem Server oder Client gesetzt werden. Im ISO-Modus sieht die Ausgabe so aus: [ zahl einheit [ . können dadurch aber Sommerzeit und andere Besonderheiten unterstützt werden. Außerdem ist die Formatierungsfunktion to_char (siehe Abschnitt 9. dass Typen.conf gesetzt werden. sind aber immer noch für willkürliche Änderungen anfällig. in der Zeitzone des Servers.00 CET 12/17/1997 07:37:16.. Um diesen Problemen aus dem Weg zu gehen.

8.4 Interna PostgreSQL verwendet das Julianische Datum für alle Datums. Das hat die praktische Eigenschaft. sind aber nicht beständig genug. Jahrhundert in Gebrauch waren. bis in die ferne Zukunft korrekt vorhergesagt und berechnet werden können. wird UTC angenommen (jedenfalls auf den meisten Systemen). 'sic est'). ❏ Der SQL-Befehl SET TIME ZONE setzt die Zeitzone für die aktuelle Sitzung. Die Kalender. “unbekannt”. Anmerkung Wenn eine ungültige Zeitzone angegeben wurde.2425 Tage lang ist.6 Der Typ boolean PostgreSQL verfügt über den standardisierten SQL-Typ boolean. Ein dritter Zustand.Z. Beispiel 8. dass alle Daten von 4713 v. In Anhang A finden Sie eine vollständige Liste aller verfügbaren Zeitzonen. die vor dem 19. unter der Annahme.und Zeitberechnungen. geben eine interessante Lektüre ab. dass ein Jahr 365. um Sie in eine moderne Datenbank einzubauen.u. wird in SQL durch den NULL-Wert ausgedrückt.Datentypen ❏ Wenn die Umgebungsvariable PGTZ beim Client gesetzt ist. wird sie von libpq-Anwendungen dazu verwendet. Gültige Konstanten für den Zustand “wahr” (englisch true) sind: TRUE 't' 'true' 'y' 'yes' '1' Für den Zustand “falsch” (englisch false) können die folgenden Werte verwendet werden: FALSE 'f' 'false' 'n' 'no' '0' Die Verwendung der Schlüsselwörter TRUE und FALSE wird bevorzugt (und entspricht dem SQL-Standard).5.2: Verwendung des Typs boolean CREATE TABLE test1 (a boolean. 8. b text). nach der Verbindung einen SET TIME ZONE-Befehl an den Server zu schicken. INSERT INTO test1 VALUES (TRUE. 123 . boolean hat immer einen von nur zwei Zuständen: “wahr” oder “falsch”.

Sie werden in Abschnitt 9. Siehe auch Abschnitt 9.y1).2: zeigt.y). 124 .. der Punkt (point).) <(x.y) ((x1.y1).12. Man kann dies aber durch den CASE-Ausdruck erreichen: CASE WHEN boolwert THEN 'Wert wenn wahr' ELSE 'Wert wenn falsch' END..] ((x1.9 beschrieben. SELECT * FROM test1. a | b ---+--------t | sic est Beispiel 8. Verschiebung.) [(x1.y2)) ((x1.y1). um diverse geometrische Operationen... durchzuführen..(x2.y1). Drehung und die Ermittlung von Schnittpunkten.7 Geometrische Typen boolean benötigt 1 Byte Speicherplatz. wie Dehnung.(x2... 'non est').y1). a | b ---+--------t | sic est f | non est SELECT * FROM test1 WHERE a..r> (Mittelpunkt und Radius) Tabelle 8. Tipp Werte vom Typ boolean können nicht unmittelbar in andere Typen umgewandelt werden (zum Beispiel CAST (boolwert AS integer) funktioniert nicht).y1). Der elementarste Typ.. Geometrische Typen stellen zweidimensionale räumliche Objekte dar.Kapitel 8 INSERT INTO test1 VALUES (FALSE.17: Geometrische Typen Eine große Zahl Funktionen und Operatoren sind verfügbar.y2)) ((x1. Name point line lseg box path path polygon circle Speichergröße 16 Bytes 32 Bytes 32 Bytes 32 Bytes 16+16n Bytes 16+16n Bytes 40+16n Bytes 24 Bytes Beschreibung Punkt auf der Ebene Gerade (nicht voll implementiert) endliche Strecke Rechteck geschlossener Pfad (ähnlich Polygon) offener Pfad Polygon (ähnlich geschlossener Pfad) Kreis Darstellung (x. dass Werte vom Typ boolean mit den Buchstaben t und f ausgegeben werden. bildet die Grundlage für alle anderen Typen. 8.y2)) ((x1. Tabelle 8.17 zeigt die in PostgreSQL verfügbaren geometrischen Typen.(x2.

. . . ob ein Pfad offen oder geschlossen sein soll. Die Syntax ist folgende: ( ( x1 . . y1 ) . Strecken werden durch ein Paar Punkte dargestellt.3 Rechtecke Der Typ box speichert ein Rechteck.. y2 wobei (x1.y2) die gegenüberliegenden Ecken des Rechtecks sind..2 Strecken Der Typ lseg speichert eine Strecke (englisch line segment).. oder geschlossen.Datentypen 8. . ( xn . y2 wobei (x1. um festzulegen. y2 ) x1 . Werte vom Typ point werden mit der folgenden Syntax angegeben: ( x .7. xn . yn y1 ) .7. aber die obere rechte und die untere linke Ecke werden aus den eingegebenen und gespeicherten Ecken berechnet.7. Rechtecke werden durch ein Paar gegenüberliegende Ecken dargestellt. y1 ) . Die Funktionen popen(p) und pclose(p) stehen zur Verfügung. . Punkte sind auch die grundlegenden Bausteine aller anderen geometrischen Typen..1 Punkte Der Typ point speichert einen Punkt. ( x2 . yn y1 . 8.y1) und (x2. . y2 ) ) ( x1 . Die Syntax ist folgende: ( ( x1 .. . . yn y1 ) . yn ) ) [ ) ] ) ) wobei die Punkte die Endpunkte der Strecken sind. ( xn .. Werte vom Typ path werden mit der folgenden Syntax angegeben: ( ( ( ( ( x1 x1 x1 x1 x1 . y wo x und y die entsprechenden Koordinaten als Fließkommazahlen sind. aus denen sich der Pfad zusammensetzt. y2 ) x1 . 125 . .. xn . damit zuerst die obere rechte Ecke und dann die untere linke Ecke steht. . ( x2 . Ein Pfad kann offen sein. . wenn der erste und der letzte Punkt verbunden sind.4 Pfade Der Typ path speichert einen Pfad. Eckige Klammern ([]) ergeben einen offenen und runde Klammern (()) einen geschlossenen Pfad. Das Ausgabeformat entspricht der ersten Syntax. und die Funktionen isopen(p) und isclosed(p) stehen zur Verfügung um die Art in einem Ausdruck zu prüfen. ( x2 . y1 . ( xn .y2) die Endpunkte der Strecke sind.. y1 ) . 8. yn y1 ..7. y2 ) ) ( x1 . 8.. wenn der erste und der letzte Punkt nicht verbunden sind. y ) x . x2 . y1 ) . Andere Ecken können auch eingegeben werden. Das Ausgabeformat entspricht der ersten Syntax. x2 . ( x2 .y1) und (x2. . Die Ecken werden sortiert. y1 ) . . y1 .

. wie viele Bits der Hostadresse die Netzwerkadresse darstellen (die “Netzmaske”). yn ) ) yn ) yn ) yn wobei die Punkte die Endpunkte der Strecken sind. in dem der Host ist. r y . ( x1 .Kapitel 8 8. Wenn Sie nur Netzwerke speichern wollen. ..6 Kreise . . y1 ) . 126 . . Werte vom Typ polygon werden mit der folgenden Syntax angegeben: ( ( x1 . gibt der Wert kein Subnetz an. r Der Typ circle speichert einen Kreis.8 Typen für Netzwerkadressen PostgreSQL bietet Datentypen.5 Polygone Der Typ polygon speichert ein Polygon (Vieleck). diese Typen statt normaler Texttypen zu verwenden. y1 . ( xn ..und MAC-Adressen zu speichern. . um IP.7.18 gezeigt werden. da diese Typen die Eingabewerte prüfen und es spezialisierte Operatoren und Funktionen für sie gibt. y ) . indem angegeben wird. x1 ..y) der Mittelpunkt und r der Radius des Kreises sind.7. die das Polygon begrenzen. y1 . Wenn die Netzmaske 32 ist. ( xn ..18: Typen für Netzwerkadressen IPv6 wird noch nicht unterstützt. sondern nur einen einzelnen Host. welche in Tabelle 8. Polygone entsprechen in gewisser Weise geschlossenen Pfaden. xn . r > y ) .1 inet Der Typ inet speichert eine IP-Hostadresse und wahlweise die Identität des Subnetzes. werden aber anders gespeichert und haben einen getrennten Satz Funktionen verfügbar.. Die Subnetzidentität wird ausgedrückt. Das Ausgabeformat entspricht der ersten Syntax. y1 ) . . 8. . Name cidr inet macaddr Speichergröße 12 Bytes 12 Bytes 6 Bytes Beschreibung IP-Netzwerke IP-Hosts und -Netzwerke MAC-Adressen Tabelle 8. sollten Sie den Typ cidr statt inet verwenden.8.. Kreise werden durch den Mittelpunkt und den Radius dargestellt. Es ist empfehlenswert.. ( x1 . r ) y ) . Die Syntax ist folgende: < ( x ( ( x ( x x wobei (x. 8. 8. . . .. . Das Ausgabeformat entspricht der ersten Syntax. beides in einem Wert. xn .

1 192. mit der Ausnahme.0.100. Tabelle 8. ist x.x.1.168.2 10. 8.0.168.0/24 192.x/y. die Bits rechts von der angegebenen Netzmaske gesetzt hat.x.1. wobei x.0/16 10.2.x.0/24 10.2 10.x/ y.168.x ein Netzwerk und y die Anzahl von Bits in der Netzmaske ist.0/25 192. wobei x.168 128.168/25 192. Eingabe.1 128 128.168.2.Datentypen Das Eingabeformat für diesen Typ ist x.168.0.128/25 192. cidr Der Hauptunterschied zwischen den Datentypen inet und cidr ist.1.1.0/24 128.8. Tipp Wenn Sie die Ausgabeformate von inet oder cidr nicht mögen.0/16 128.19: Eingabebeispiele für den Typ cidr 8. dann wird es aus den Annahmen des alten klassen-orientierten Netzwerknummerierungssystems errechnet. Es ist ein Fehler.168.x. dann ist die Netzmaske 32 und der Wert steht für einen einzelnen Host.0/16 128.1. um ein Netzwerk anzugeben.0/8 abbrev(cidr) 192.168. dass die Bitmaske mindestens groß genug sein muss. das heißt die Hardwareadressen von Ethernetkarten (obwohl MAC-Adressen auch für andere Zwecke verwendet werden).100. dann versuchen Sie die Funktionen host.x.0.1/16 128.0/24 10.2/24 10.0/16 128.1/16 10/8 Tabelle 8.x.0.x.1.1.1 10 cidr-Ausgabe 192.2 cidr Der Typ cidr speichert die Identität eines IP-Netzwerks.0.1. wenn die Netzmaske 32 ist. Bei der Ausgabe wird der /y-Teil weggelassen. Wenn y ausgelassen wird. Wenn /y ausgelassen wird.168.1.0.168. eine Netzwerkadresse anzugeben.3 inet vs. Als Eingabe werden verschiedene gebräuchliche Formate akzeptiert.168.0/25 192.8.0.2/24 10.128/25 192.0/24 128.19 zeigt einige Beispiele.x eine IP-Adresse ist und y die Anzahl der Bits in der Netzmaske.168/24 192. dass inet gesetzte Bits rechts von der Netzmaske zulässt und cidr nicht.8.0/24 192.0.168.und Ausgabeformate folgen den Vorgaben des Classless Internet Domain Routing Systems.x.0.100.4 macaddr Der Typ macaddr speichert MAC-Adressen. um alle Oktetts im Eingabewert einzuschließen. 8.168. Das Format. einschließlich 127 .128/25 192.1/24 192. cidr-Eingabe 192. text und abbrev.0/24 192.

einen kürzeren oder längeren Wert zu speichern. Schauen Sie in Kapitel 4 Abschnitt Bitkettenkonstanten für Informationen über die Syntax von Bitkettenkonstanten. Sie können verwendet werden. die verwendet werden können. um dem SQLStandard zu entsprechen. SELECT * FROM test. es ist ein Fehler zu versuchen. Das Verzeichnis contrib/mac in der PostgreSQL-Quelltext-Distribution enthält einige Werkzeuge. um Bitmasken zu speichern oder darzustellen. B'00'). dann wird er rechts abgeschnitten. Ebenso gilt. wogegen bit varying ohne Längenangabe eine unbegrenzte Länge zult Nullen erweitert. Daten vom Typ bit varying sind variabel in der Länge bis zur Höchstlänge n. wird er rechts gekürzt oder mit Nullen erweitert.0203' '08-00-2b-01-02-03' '08:00:2b:01:02:03' welche alle die gleiche Adresse angeben würden. a | b -----+----101 | 00 100 | 101 128 . wenn ein Bitkettenwert ausdrücklich in bit varying(n) umgewandelt wird. Eine Typangabe bit ist gleichbedeutend mit bit(1). wo n eine positive ganze Zahl ist. B'101'). Das wurde geändert. wenn er länger als n Bits ist. damit er genau n Bits lang wird. Bitlogische Operatoren sowie Funktionen zur Bitkettenmanipulation sind auch verfügbar. INSERT INTO test VALUES (B'10'.und Kleinbuchstaben akzeptiert. b BIT VARYING(5)). um aus MAC-Adressen die Namen der Hardwarehersteller zu ermitteln. Beispiel 8. egal in welchem Zusammenhang die Zuweisung oder Umwandlung erfolgte.9 Bitkettentypen Bitketten sind Ketten von Einsen und Nullen. Daten vom Typ bit müssen genau der Länge n entsprechen. längere Werte werden nicht akzeptiert. ERROR: Bit string length 2 does not match type BIT(3) INSERT INTO test VALUES (B'10'::bit(3).Kapitel 8 '08002b:010203' '08002b-010203' '0800. siehe Kapitel 9.2 wurden Bitwerte immer still abgeschnitten oder mit Nullen erweitert.2b01. Es gibt zwei SQL-Typen für Bitketten: bit(n) und bit varying(n). Das Ausgabeformat entspricht immer der letzten gezeigten Form. B'101'). Anmerkung Vor PostgreSQL 7.3: Verwendung der Bitkettentypens CREATE TABLE test (a BIT(3). INSERT INTO test VALUES (B'101'. egal in welchem Anmerkung Wenn man einen Bitkettenwert ausdrücklich in bit(n) umwandelt (Cast). 8. Für die Ziffern a bis f werden Groß.

Daher ist er nicht groß genug. Das ist der Datentyp der Systemspalte ctid. Ein dritter Identifikator-Typ. sind also von begrenztem Nutzen. um die OID der Tabelle meinetabelle zu erfahren.20 zeigt einen Überblick.20: Objekt-Identifikator-Typen Alle OID-Aliastypen akzeptieren schemaqualifizierte Namen und geben diese aus. (Die Systemspalten werden im Einzelnen in Abschnitt 5. Der Typ oid ist gegenwärtig ein 4-Byte-Ganzzahlentyp ohne Vorzeichen.) 129 . cid-Werte sind auch 32 Bit groß. die OID-Spalte einer benutzerdefinierten Tabelle als Primärschlüssel zu verwenden.Datentypen 8. indem man NONE für den nicht benutzten Operand schreibt. Bei regoperator kann man unäre Operatoren angeben. wenn die Tabelle erzeugt wird). Der Typ oid speichert einen Objekt-Identifikator. regoperator. Die Aliastypen gestatten eine vereinfachte Suche nach der OID von Systemobjekten: Zum Beispiel kann man schreiben 'meinetabelle'::regclass. ist tid (tuple identifier). wenn das Objekt im aktuellen Suchpfad nicht ohne ausdrückliche Schemaangabe gefunden würde. Man kann ihn aber in integer umwandeln und ihn mit den normalen numerischen Operationen bearbeiten. anstatt SELECT oid FROM pg_class WHERE relname = 'meinetabelle' schreiben zu müssen. der vom System verwendet wird. das die physikalische Stelle der Zeilenversion innerhalb seiner Tabelle angibt. Eine OID-Systemspalte wird auch jeder benutzerdefinierten Tabelle hinzugefügt (außer wenn WITHOUT OIDS angegeben wird. Es gibt auch mehrere Aliastypen für oid: regproc. Ein weiterer Identifikator-Typ. Ein letzter Identifikator-Typ. die eindeutig (nicht überladen) sind. Die Typen regproc und regoper akzeptieren nur Namen als Eingabe. Index im Block).) Die OID-Aliastypen haben keine eigenen Operationen außer den spezialisierten Eingabe. um die richtige OID zu finden. der vom System verwendet wird.) Name oid regproc regprocedure regoper regoperator regclass regtype Verweis beliebig pg_proc pg_proc pg_operator pg_operator pg_class pg_type Beschreibung numerischer Objekt-Identifikator Funktionsname Funktion mit Argumenttypen Operatorname Operator mit Argumenttypen Relationsname Datentypname Wertbeispiel 564182 sum sum(int4) + *(integer. regprocedure. Das ist der Datentyp der Systemspalten cmin und cmax. Das ist der Datentyp der Systemspalten xmin und xmax. Am besten sollten OIDs nur für Verweise auf die Systemtabellen verwendet werden. der Transaktions-Identifikator. regoper.integer) pg_type integer Tabelle 8. (Wenn Sie das tun. meistens sind regprocedure bzw. der vom System verwendet wird. ist xid. (In Wirklichkeit müsste man eine viel kompliziertere Anfrage verwenden.10 Objekt-Identifikator-Typen Objekt-Identifikatoren (OIDs) werden von PostgreSQL intern als Primärschlüssel in diversen Systemtabellen verwendet.und Ausgaberoutinen. achten Sie aber auf mögliche Verwirrungen über die Vorzeichen. wenn es mehrere Tabellen namens meinetabelle in verschiedenen Schemas gibt. um in der ganzen Datenbank oder sogar in einzelnen großen Tabellen eindeutig sein zu können. Der Typ oid hat selbst kaum Operationen außer Vergleichsoperationen. Tabelle 8. Transaktionsnummern sind 32 Bit groß.integer) oder (NONE. regoperator sinnvoller. regclass und regtype.2 erläutert. ist cid (command identifier). Daher ist es nicht empfehlenswert. Eine ctid ist ein Paar (Blocknummer.

deren Gehalt sich im zweiten Quartal verändert hat: SELECT name FROM angestellte WHERE quartal_gehalt[1] <> quartal_gehalt[2]. 8. Anmerkung Gegenwärtig können einzelne Arrayelemente nicht den SQL-NULL-Wert enthalten. {}}'). und einem zweidimensionalen Array vom Typ text (plan). Die folgende Anfrage ergibt zum Beispiel die Namen der Angestellten. 25000. welches den Wochenplan des Angestellten darstellt. "Beratung"}. "Mittag"}. werden Arraytypen bezeichnet. 10000. INSERT INTO angestellte VALUES ('Carola'. '{{"Meeting". Arrayelemente werden von geschweiften Klammern eingeschlossen und durch Kommas voneinander getrennt.1 Deklaration von Arraytypen Um die Verwendung von Arrays zu erläutern.3 Verweise auf Arraywerte Jetzt können wir einige Anfragen durchführen. 8. aber Sie können kein Array haben. Wenn Sie C kennen. '{10000.) INSERT INTO angestellte VALUES ('Wilhelm'. dann werden Sie diese Syntax vielleicht wiedererkennen. wo einzelne Werte NULL sind und andere nicht. welches das Gehalt pro Quartal des Angestellten speichert. wie man auf ein einzelnes Element im Array zugreifen kann. Der obige Befehl erzeugt eine Tabelle namens angestellte mit einer Spalte vom Typ text (name). einem eindimensionalen Array vom Typ integer (quartal_gehalt). quartal_gehalt integer[]. Zuerst zeigen wir. name -------Carola (1 row) 130 . Das ganze Array kann auf den NULL-Wert gesetzt werden.11.11 Arrays PostgreSQL erlaubt die Definition von Spalten als mehrdimensionalen Arraytyp mit variabler Länge.2 Eingabe von Arraywerten Jetzt können wir einige Daten einfügen. (Weiter Einzelheiten folgen unten.11. 8. {"Meeting"}}'). 10000}'. Es ist vorgesehen. plan text[][] ). Wie gezeigt. Arrays können aus eingebauten oder benutzerdefinierten Typen erzeugt werden. '{{"Präsentation". dies irgendwann zu verbessern.11. erzeugen wir diese Tabelle: CREATE TABLE angestellte ( name text. 25000. '{20000.Kapitel 8 8. indem eckige Klammern ([]) an den Typnamen der Arrayelemente angehängt werden. 10000. 25000}'.

{""}} (1 row) Man hätte auch schreiben können SELECT plan[1:2][1] FROM angestellte WHERE name = 'Wilhelm'. Ein Array kann vergrößert werden. indem man einen Wert einem Element zuweist. schreibt. wenn ein Index nur einen Wert angibt.27000}' WHERE name = 'Carola'. und hätte das gleiche Ergebnis erhalten. jeweils für eine oder mehrere Arraydimensionen. quartal_gehalt ---------------10000 25000 (2 rows) Man kann auch auf beliebige Teilarrays eines Arrays zugreifen. Oder einzelne Elemente können aktualisiert werden: UPDATE angestellte SET quartal_gehalt[4] = 15000 WHERE name = 'Wilhelm'. das an ein bereits vorhandenes angrenzt. Die Untergrenze 1 wird angenommen. in einem Array von Größe n fangen die Elemente bei array[1] an und enden bei array[n]. plan -------------------{{Meeting}. das heißt. wenn mindestens ein Indexwert die Form untergrenze:obergrenze hat. Ein Teilarray wird mit der folgenden Schreibweise bestimmt: untergrenze:obergrenze. Eine Arrayindizierung ergibt immer ein Teilarray. oder indem man in ein Teilarray. Oder Teilarrays können aktualisiert werden: UPDATE angestellte SET quartal_gehalt[1:2] = '{27000. Diese Anfrage ermittelt zum Beispiel den ersten Eintrag auf Wilhelms Wochenplan für die ersten zwei Tage der Woche: SELECT plan[1:2][1:1] FROM angestellte WHERE name = 'Wilhelm'.Datentypen Die Arrayindexzahlen werden in eckige Klammern gesetzt. Wenn zum Beispiel ein Array vorher vier Elemente hat.27000}' WHERE name = 'Carola'.25000. wird es fünf Ele- 131 . Ein Arraywert kann komplett ersetzt werden: UPDATE angestellte SET quartal_gehalt = '{25000. Die folgende Anfrage ermittelt das Gehalt von allen Angestellten im dritten Quartal: SELECT quartal_gehalt[3] FROM angestellte. PostgreSQL zählt die Arrayelemente normalerweise von eins an.27000. das an vorhandene Daten angrenzt oder sich mit ihnen überschneidet.

wo die Elemente nicht von eins an zählen. Um das ganze Array zu durchsuchen (und nicht nur Teilarrays).Kapitel 8 mente haben. ungeachtet der Zahl oder der Größe der Dimensionen. array_dims -----------. Damit könnte man die obige Anfrage so schreiben: SELECT * FROM angestellte WHERE quartal_gehalt[1:4] *= 10000. Das Verhalten ist genauso wie bei Arrays ohne Größenangabe. um ein Array zu erzeugen. die aber nicht in PostgreSQL eingebaut ist. was für Leute gut zu lesen. Indem man Teilarrays Daten zuweist. Gegenwärtig können auf diese Art nur eindimensionale Arrays vergrößert werden. die dafür verwendet werden kann. Es gibt eine Erweiterung. Die angegebene Zahl der Dimensionen wird im Übrigen auch nicht durchgesetzt. das Indexwerte von -2 bis 7 hat. die neue Funktionen und Operatoren definiert. wenn die Arrays sehr groß sind. kann man Arrays erzeugen. Zum Beispiel: SELECT * FROM angestellte WHERE quartal_gehalt[1] quartal_gehalt[2] quartal_gehalt[3] quartal_gehalt[4] = = = = 10000 OR 10000 OR 10000 OR 10000. So kann man zum Beispiel Daten in array[-2:7] schreiben. Das kann aber sehr umständlich sein.11. Arrays mit einem bestimmten Elementtyp werden alle als derselbe Typ betrachtet.[ 1:2][1:1] (1 row) array_dims erzeugt ein Ergebnis vom Typ text. nicht aber mehrdimensionale. nachdem eine Aktualisierung in array[5] schreibt. Gegenwärtig werden diese Arraygrößengrenzen aber nicht durchgesetzt. müssen Sie jeden Wert des Arrays prüfen. könnten Sie Folgendes machen: SELECT * FROM angestellte WHERE quartal_gehalt *= 10000. aber vielleicht nicht so prak- tisch für Programme ist. Das kann von Hand gemacht werden (wenn Sie die Größe des Arrays kennen). Die Syntax von CREATE TABLE erlaubt auch die Erzeugung von Arrays mit fester Größe: CREATE TABLE tictactoe ( kästchen integer[3][3] ).4 In Arrays suchen Um einen Wert in einem Array zu finden. Die aktuellen Dimensionen eines Arraywerts können mit der Funktion array_dims ermittelt werden: SELECT array_dims(plan) FROM angestellte WHERE name = 'Carola'. und wenn die Größe des Arrays nicht bekannt ist. Außerdem könnten Sie alle Zeilen finden. 8. Die Angabe der Dimensionen oder Größen in CREATE TABLE dient also einfach nur der Dokumentation und beeinflusst das Laufzeitverhalten nicht. funktioniert das gar nicht. wo die Arrayelemente alle gleich 10000 sind: 132 .

Anmerkung Beachten Sie. können Sie in einen Arraywert Anführungszeichen um die einzelnen Elemente schreiben.) In mehrdimensionalen Arrays muss um jede Dimension ein Paar geschweifte Klammern stehen.11. Tabellen können Sie logischerweise ganz einfach durchsuchen. Um zum Beispiel einen Arraywert einzufügen. Trennzeichen. (Das ist eine Veränderung im Verhalten gegenüber PostgreSQL-Versionen vor 7. Vor Anführungszeichen und Backslashes in Elementwerten wird ein Backslash gestellt."\\""}'). Als Alternative können Sie auch einen Backslash vor alle anderen Zeichen setzen.). Die Arrayausgabefunktion setzt Anführungszeichen um Elementwerte. der aus einem Backslash und einem Anführungszeichen besteht. 8. Leerzeichen nach Elementen werden allerdings nicht ignoriert: Nachdem die vorangehenden Leerzeichen übersprungen wurden. müssten Sie schreiben: 133 . Diese Dekoration besteht aus geschweiften Klammern ({ und }) um den Arraywert sowie den Trennzeichen zwischen den Elementen. Das ist erforderlich. VALUES ('{"\\\\".11. Dadurch verdoppelt sich die Anzahl der Backslashes. wenn der Elementwert den Arrayparser verwirren könnte. dass Anführungszeichen niemals verwendet werden. aber alle anderen Typen verwenden das Komma. dass sie auftreten können oder auch nicht. Um dieses optionale Modul zu installieren. die sonst Teil der Arraysyntaxdekoration oder ignorierte Leerzeichen sind. dass die Datenbank falsch entworfen wurde. Backslashes oder Whitespace am Anfang in Anführungszeichen gesetzt werden. wenn diese leere Zeichenketten sind oder geschweifte Klammern. Leerzeichen können vor den linken oder rechten Klammern oder vor den einzelnen Elementen stehen. aber bei Textdatentypen sollte man darauf vorbereitet sein. Die Verwendung von Arrays in der beschriebenen Art und Weise ist oft ein Zeichen. schauen Sie in das Verzeichnis conArtrib/array in der PostgreSQL-Quelltext-Distribution.Datentypen SELECT * FROM sal_emp WHERE pay_by_quarter **= 10000. die Sie verwenden müssen. Anführungszeichen.2. dass das. die durch die Eingabe.6 Sonderzeichen in Arrayelementen Wie oben gezeigt. Anführungszeichen.und Ausgabesyntax Tipp Arrays sind keine Mengen.und Ausgaberoutinen des entsprechenden Datentyps interpretiert werden. Das Arrayfeld sollte normalerweise als eigene belle abgetrennt werden.). setzen Sie einen Backslash davor. Kommas (oder was das Trennzeichen sein mag). 8. Das Trennzeichen ist normalerweise das Komma (.5 Array-Eingabe. was Sie in einem SQL-Befehl schreiben. Bei Zahlentypen kann man mit Sicherheit davon ausgehen. (Unter den Standarddatentypen in der PostgreSQL-Distribution verwendet der Typ box das Semikolon (.) INSERT . die die Struktur des Arrays angibt. zuerst als Zeichenkettenkonstante verarbeitet wird und dann als Array.. kann aber auch ein anderes sein: Es wird durch den typdelim-Wert des Arrayelementtyps festgelegt. zählt alles bis zum nächsten Trennzeichen oder der rechten Klammer als zum Wert gehörend. So müssen zum Beispiel Elemente mit geschweiften Klammern. Die externe Darstellung eines Arrays besteht aus den Elementen. Um ein Anführungszeichen oder einen Backslash in ein Arrayelement zu schreiben.. und Trennzeichen müssen zwischen den eingeklammerten Einheiten stehen. Backslashes oder Whitespace enthalten. und der Dekoration.

Gegenwärtig verbieten die prozeduralen Sprachen alle die Verwendung von Pseudotypen als Argument und gestatten nur void als Ergebnistyp (sowie trigger. der bei der Arrayeingabefunktion ankommt. wenn einer dieser Pseudotypen als Argument verwendet wird. können so deklariert werden. Um in die Typensicherheit dieser Beschränkung zu erhalten. dass die Funktion keinen Wert zurückgibt. die einen nicht näher definierten Zeilentyp zurückgibt. Ein Pseudotyp kann nicht als Spaltentyp verwendet werden. wenn es die Sprachen gestatten. dass die Funktion sich ordnungsgemäß verhält. wie zum Beispiel bytea. Jeder der vorhandenen Pseudotypen ist in einer Situation von Nutzen. dann muss man mithin bis zu acht Backslashes verwenden. deren Eingaberoutine Backslashes besonders behandelt. Gibt an. wie {"\\". dass die Funktion einen internen Datentyp akzeptiert oder zurückgibt. die in prozeduralen Sprachen geschrieben wurden. dass die Funktion eine C-Zeichenkette (mit Null-Byte abgeschlossen) akzeptiert oder zurückgibt. wenn die Funktion als Trigger verwendet werden soll). die zusammenfassend Pseudotypen genannt werden. dass die Funktion jeden Datentyp akzeptiert. Gibt an. Funktionen. dann kann es von SQL aus nicht aufgerufen werden. Name record any anyarray void trigger language_handler cstring internal opaque Tabelle 8.oder Ergebnistyp einer Funktion angegeben werden. folgende Regel zu beachten: Deklarieren Sie keine Funktion mit einen Rückgabetyp internal. der früher alle oben genannten Funktionen ausfüllte.21 listet die bestehenden Pseudotypen. wo das Verhalten der Funktion nicht einfach durch einen normalen SQL-Datentyp als Eingabe oder Ausgabe ausgedrückt werden kann. dass er language_handler zurückgibt. Tabelle 8. Der Autor der Funktion muss selbst sicherstellen. sind \ bzw. Gibt an. wenn die Funktion nicht mindestens ein Argument vom Typ internal hat. Gibt an. aber er kann als Argument. Ein obsoleter Typname. um am Ende einen im Arrayelementwert zu speichern. Die Werte.) 8. dass sie einen dieser Pseudodatentypen als Argument oder Rückgabewert verwenden. Ein Handler für eine prozedurale Sprache wird so deklariert. Funktionen. sodass der Wert.Kapitel 8 Bei der Verarbeitung der Zeichenkettenkonstante wird ein Satz Backslashes entfernt. (Wenn man Datentypen verwendet. dass sie trigger zurückgibt. die nur intern vom Datenbanksystem aufgerufen werden sollen und nicht von einem SQL-Befehl aus.12 Pseudotypen Das Typensystem in PostgreSQL enthält einige Typen mit besonderen Aufgaben. 134 . Eine Triggerfunktion wird so deklariert. dass die Funktion jeden beliebigen Arraydatentyp akzeptiert. ist es wichtig. "."\""} aussieht.21: Pseudotypen Beschreibung Identifiziert eine Funktion. Gibt an. Wenn eine Funktion mindestens ein Argument vom Typ internal hat. Der Pseudotyp internal wird zur Deklaration von Funktionen verwendet. die wiederum bei der Eingabefunktion vom Typ text ankommen. die in C geschrieben wurden (egal ob eingebaut oder dynamisch geladen). können Pseudotypen nur verwenden.

Einige der Erweiterungen sind auch in anderen SQL-Datenbanken vorhanden und in vielen Fällen ist die Funktionalität zwischen den Produkten einheitlich und kompatibel. wie in Teil V beschrieben wird.1 Logische Operatoren Die gebräuchlichen logischen Operatoren sind vorhanden: AND (Konjunktion) OR (Disjunktion) NOT (Negation) SQL verwendet eine Boole'sche Logik mit drei Wertigkeiten. Beachten Sie die folgenden Wahrheitstabellen: a wahr wahr wahr falsch falsch unbekannt b wahr falsch unbekannt falsch unbekannt unbekannt a AND b wahr falsch unbekannt falsch falsch unbekannt a OR b wahr wahr wahr falsch unbekannt unbekannt 135 . Benutzer können auch eigene Funktionen und Operatoren definieren. wobei der NULL-Wert den Zustand “unbekannt” darstellt. 9. Wenn Sie auf Portierbarkeit Wert legen. um alle tatsächlich vorhandenen Funktionen bzw. Die Befehle \df und \do in psql können verwendet werden. dass die meisten hier beschriebenen Funktionen und Operatoren. nicht im SQL-Standard definiert sind. sollten Sie beachten. mit Ausnahme der einfachsten arithmetischen und Vergleichsoperatoren und einiger ausdrücklich markierter Funktionen. Operatoren anzuzeigen.9 9 Funktionen und Operatoren PostgreSQL bietet eine große Zahl Funktionen und Operatoren für die eingebauten Datentypen.

Kapitel 9 a wahr falsch unbekannt NOT a falsch wahr unbekannt 9. Neben den Vergleichsoperatoren gibt es die spezielle Klausel BETWEEN. Ausdrükke wie 1 < 2 < 3 sind ungültig (weil es keinen Operator < zum Vergleichen eines Werts vom Typ boolean mit 3 gibt). Um zu prüfen. außer der CPU-Leistung. um die erste Form intern in die zweite Form umzuschreiben. ob ein Wert NULL ist.2 Vergleichsoperatoren Die gewöhnlichen Vergleichsoperatoren sind vorhanden und werden in Tabelle 9.1: Vergleichsoperatoren Anmerkung Der Operator != wird vom Parser in <> umgewandelt. Vergleichsoperatoren gibt es für alle Datentypen. die aufgewendet werden muss. Operatoren mit den Namen != und <> zu erzeugen. die sich verschieden verhalten. Es ist nicht möglich. Operator < > <= >= = <> oder != Beschreibung kleiner als größer als kleiner als oder gleich größer als oder gleich gleich ungleich Tabelle 9.1 gelistet. verwenden Sie die Klauseln 136 . wo dies sinnvoll ist. Alle Vergleichsoperatoren sind binäre Operatoren (mit zwei Operanden) und haben ein Ergebnis vom Typ boolean. So ist a BETWEEN x AND y gleichbedeutend mit a >= x AND a <= y Ebenso ist a NOT BETWEEN x AND y gleichbedeutend mit a < x OR a > y Es gibt keinen Unterschied zwischen den beiden Formen.

Ein NULL-Wert wird als der logische Wert “unbekannt” (unknown) behandelt.B. weil NULL nicht “gleich” NULL ist. 9. Tabelle 9.0 ^ 3.1. SET transform_null_equals TO ON. Das war das voreingestellte Verhalten in PostgreSQL 6. Werte vom Typ boolean können mit folgenden Ausdrücken getestet werden: expression expression expression expression expression expression IS IS IS IS IS IS TRUE NOT TRUE FALSE NOT FALSE UNKNOWN NOT UNKNOWN Diese sind ähnlich IS NULL in dem Sinne. kann man den Konfigurationsparameter transform_null_equals anstellen (z. (Der NULL-Wert stellt einen unbekannten Wert dar und man kann nicht bestimmen. Datum und Zeit) beschreiben wir das Verhalten in den folgenden Abschnitten.B.0 Ergebnis 5 -1 6 2 1 8 5 Tabelle 9.). dass ausdruck = NULL wahr ist. dass sie immer wahr oder falsch ergeben und niemals den NULL-Wert. Um diese Anwendungen zu unterstützen.5 bis 7.2 zeigt die vorhandenen mathematischen Operatoren.) Einige Anwendungen gehen (fälschlicherweise) davon aus. Operator + * / % ^ |/ Beschreibung Addition Subtraktion Multiplikation Division (Ganzzahldivision schneidet Ergebnis ab) Rest nach Division Potenzierung Quadratwurzel Beispiel 2+3 2-3 2*3 4/2 5%4 2. aber nicht standardisierten Formen ausdruck ISNULL ausdruck NOTNULL Verwenden Sie nicht ausdruck = NULL.2: Mathematische Operatoren 137 . Für Typen ohne weithin bekannte mathematische Definitionen für alle Varianten (z.0 |/ 25.Funktionen und Operatoren ausdruck IS NULL ausdruck IS NOT NULL oder die gleichbedeutenden. ob zwei unbekannte Werte gleich sind. In dem Fall wird PostgreSQL Ausdrücke der Form x = NULL in x IS NULL umwandeln. selbst wenn ein Operand NULL ist.3 Mathematische Funktionen und Operatoren Mathematische Operatoren stehen für viele PostgreSQLPostgreSQL-Typen zur Verfügung. wenn ausdruck den NULL-Wert ergibt.

3 gezeigt.5) exp(1. Beispiel B'10001' & B'01101' B'10001' | B'01101' B'10001' # B'01101' ~ B'10001' B'10001' << 3 B'10001' >> 2 Ergebnis 00001 11101 11110 01110 01000 00100 Tabelle 9.2: Mathematische Operatoren (Forts. | und # müssen jeweils die gleiche Länge haben. Wenn nichts anderes angegeben wurde. Viele dieser Funktionen gibt es in mehreren Formen mit unterschiedlichen Argumentdatentypen. die mit dem Datentyp double precision umgehen. ist der Rückgabewert von jeder Variante dieser Funktionen derselbe wie der Argumentdatentyp. sind meistens mit den Funktionen der C-Bibliothek des Betriebssystems implementiert. In der Tabelle steht dp für double precision.0) ceil(-42.8) Ergebnis 17.Kapitel 9 Operator ||/ ! !! @ & | # ~ << >> Beschreibung Kubikwurzel Fakultät Fakultät (Präfixoperator) Betrag bitweise Konjunktion (“und”) bitweise Disjunktion (“oder”) bitweise Alternative (“exklusiv-oder”) bitweise Negation (“nicht”) bitweises Linksschieben bitweises Rechtsschieben Beispiel ||/ 27.4 zeigt die verfügbaren mathematischen Funktionen. wie in Tabelle 9.71828182845905 Tabelle 9.4 3 -42 dp dp degrees(0. Funktion abs(x) cbrt(dp) ceil(dp oder numeric) degrees(dp) exp(dp oder numeric) Ergebnistyp (gleicher wie x) dp numeric Beschreibung Betrag Kubikwurzel kleinste ganze Zahl. Beim Bitschieben wird die ursprüngliche Länge der Bitkette erhalten.4: Mathematische Funktionen 138 .0 5! !! 5 @ -5.0) 28. wie in der Tabelle gezeigt.6478897565412 2. Die Funktionen.4) cbrt(27. die nicht kleiner als das Argument ist Radiant in Grad umwandeln Potenzierung Beispiel abs(-17.0 91 & 15 32 | 3 17 # 5 ~1 1 << 4 8 >> 2 Ergebnis 3 120 120 5 11 35 20 -2 16 2 Tabelle 9.) Die bitweisen Operatoren gibt es auch für die Bitkettentypen bit und bit varying. die Genauigkeit und das Verhalten in Grenzfällen kann daher vom System abhängen. Die Bitkettenoperanden von &.3: Bitweise Operatoren für Bitketten Tabelle 9.

14159265358979 729 729 0.0) trunc(42. x numeric) mod(y.8) trunc(42.0000000000 1 (gleicher wie Rest von y/x Argumenttypen ) dp dp numeric dp dp pi() pow(a dp.0) random() round(42.4382.0.4) sqrt(2. die nicht größer als das Argument ist natürlicher Logarithmus Logarithmus zur Basis 10 Logarithmus zur Basis b Beispiel floor(-42.0 (wie Argument) zur nächsten ganzen Zahl runden numeric 42 42.4142135623731 42 42.) Schließlich zeigt Tabelle 9.43 auf s Dezimalstellen runden (wie Argument) Vorzeichen des Arguments (-1.693147180559945 2 6. y) cos(x) cot(x) sin(x) tan(x) Beschreibung Arkuskosinus Arkussinus Arkustangens Arkustangens von x/y Kosinus Kotangens Sinus Tangens Tabelle 9.8) Ergebnis -43 dp dp numeric ln(2.4) 0.4: Mathematische Funktionen (Forts. r integer) Konstante π” a hoch b a hoch b pi() pow(9.44 -1 1.Funktionen und Operatoren Funktion floor(dp oder numeric) ln(dp oder numeric) log(dp oder numeric) log(b numeric.0) radians(45.4382. +1) dp dp numeric Quadratwurzel Richtung null runden (abschneiden) auf r Dezimalstellen abschneiden Tabelle 9.0.5: Trigonometrische Funktionen 139 . 64.0) mod(9. 2) sign(-8. s integer) sign(dp oder numeric) sqrt(dp) trunc(dp) trunc(numeric.und Ergebnistypen double precision.5 die verfügbaren trigonometrischen Funktionen.0 und 1. 3. Alle trigonometrischen Funktionen haben Argument.785398163397448 Grad in Radiant umwandeln zufälliger Wert zwischen 0.0) log(100. x) Ergebnistyp numeric Beschreibung größte ganze Zahl.4) round(42. 0. 2) 3. b numeric) radians(dp) random() round(dp or numeric) round(v numeric. 3. b dp) pow(a numeric.0.0) pow(9.0) log(2. Funktion acos(x) asin(x) atan(x) atan2(x.

Wenn nicht anders angegeben.4 Zeichenkettenfunktionen und -operatoren Dieser Abschnitt beschreibt Funktionen und Operatoren zur Auswertung und Manipulation von Zeichenketten. siehe Tabelle 9.. Konversionen können mit CREATE CONVERSION erzeugt werden.$') substring('Thomas' from '%#"o_a#"_' for '#') trim(both 'x' from 'xTomxx') Thomas integer text Position der angegebenen Teilzeichenkette Teilzeichenkette ermitteln 3 hom text text Teilzeichenkette nach POSIX regulärem Ausdruck ermitteln Teilzeichenkette nach SQL regulärem Ausdruck ermitteln Entfernt die längste Zeichenkette. character varying und text gemeint. Diese Funktionen gibt es auch mit der normalen Syntax für Funktionsaufrufe. Einzelheiten sehen Sie in Tabelle 9. SQL definiert einige Funktionen mit spezieller Syntax.Kapitel 9 9. wobei die Werte dann automatisch in eine Zeichenkettendarstellung umgewandelt werden.. Im Allgemeinen kann man die hier beschriebenen Funktionen auch mit anderen Datentypen verwenden. Damit sind in diesem Zusammenhang die Typen character. (Siehe Tabelle 9. Einige Funktionen gibt es auch direkt für die Bitkettentypen. wo bestimmte Schlüsselwörter anstatt Kommas verwendet werden. sind alle gelisteten Funktionen für alle Typen verfügbar. in Kleinbuchstaben umwandeln Anzahl Bytes in Zeichenkette Teilzeichenkette ersetzen convert('PostgreSQ L' using iso_8859_1_to_utf _8) 'PostgreSQL ' in Unicode- Kodierung (UTF-8) lower(string) octet_length(stri ng) overlay(string placing string from integer [for integer]) position(substrin g in string) substring(string [from integer] [for integer]) substring(string from pattern) substring(string from pattern for escape) trim([leading | trailing | both] [zeichen] from string) text integer text lower('TOM') tom octet_length('jose' 4 ) overlay('Txxxxas' placing 'hom' from 2 for 4) position('om' in 'Thomas') substring('Thomas' from 2 for 3) substring('Thomas' from '.6.6: SQL-Zeichenkettenfunktionen und -operatoren 140 .) Funktion string || string bit_length(string ) Ergebnistyp text integer Beschreibung Beispiel Ergebnis PostgreSQL 32 4 Zeichenketten aneinander hängen 'Post' || 'greSQL' Anzahl Bits in Zeichenkette Anzahl Zeichen in Zeichenkette bit_length('jose') char_length('jose ') char_length(strin integer g) or character_length( string) convert(string using konversionsname) text Ändert die Kodierung mit der angegebenen Konversion. aber achten Sie auf die möglichen Auswirkungen der automatischen Auffüllung mit Leerzeichen beim Typ character.7. Es gibt auch vordefinierte Konversionen. die nur aus zeichen (als Vorgabe ein Leerzeichen) besteht. um die Argumente zu trennen.8. von Anfang/Ende/beiden Enden von string mas oma text Tom upper(string) text in Großbuchstaben umwandeln upper('tom') TOM Tabelle 9.

'xy') chr(65) convert('text_ in_unicode'. dann wird die Datenbankkodierung angenommen. Wiederholt den Text so oft wie angegeben. 'LATIN1') Ergebnis 120 trim text text A text_in_u nicode in der Kodierung ISO 8859-1 123\000\0 01 MTIzAAE= bytea decode('MTIzAA E='.7 aufgeführt. dass sie als Name in einem SQL-Befehl verwendet werden kann. 'base64') text encode('123\\0 Kodiert binäre Daten in eine Darstellung nur aus ASCII-Zeichen.'xyz') pg_client_enco ding() quote_ident('F oo') trim name text SQL_ASCII "Foo" quote_literal( string text) text quote_literal( 'O\'Reilly') 'O''Reill y' repeat(text. Wenn string schon länger als länge ist. vom Anfang der Zeichenkette. [quellkodierun g name. Parametertyp ist genauso wie bei encode. die Zeichenkette enthält Sonderzeichen oder Großbuchstaben). 'base64') sind: base64. 4) PgPgPgPg Tabelle 9. füllung text]) integer text 4 xyxhi ltrim(string text.6 zu implementieren. 5. Entfernt die längste Zeichenkette. 'xy') Hi Thomas length(string) lpad(string text. zeichen text) pg_client_enco ding() quote_ident(st ring text) text ltrim('zzzytri m'. Beispiel ascii('x') btrim('xyxtrim yyx'. Unterstützte Typen 00\\001'. Vorhandene Apostrophe und Backslashes werden korrekt verdoppelt. Vorhandene Anführungszeichen werden korrekt verdoppelt. Anzahl Zeichen in Zeichenkette Füllt string bis zur Länge länge. text Wandelt ersten Buchstaben jedes Worts (durch Whitespace getrennt) in Großbuchstaben um. indem Zeichen füllung (ein Leerzeichen als Vorgabe) vorangestellt werden.h. typ text) initcap(text) Ergebnistyp integer text Beschreibung ASCII-Code des ersten Arguments Entfernt die längste Zeichenkette. Anführungszeichen werden hinzugefügt.] zielkodierung name) decode(string text. dann wird es rechts abgeschnitten. die nur aus Zeichen in zeichen besteht. vom Anfang und Ende von string Zeichen mit dem angegebenen ASCIICode Wandelt Zeichenkette von quellkodierung nach zielkodierung um. hex. Wenn quellkodierung ausgelassen wird. die nur aus Zeichen in zeichen steht. die zuvor mit encode kodiert wurden. aktuelle Clientkodierung Gibt die Zeichenkette so zurück. initcap('hi thomas') length('jose') lpad('hi'. 'UNICODE'. länge integer [.7: Andere Zeichenkettenfunktionen 141 . Einige davon werden intern verwendet. dass sie als Zeichenkettenkonstante in einem SQLBefehl verwendet werden kann.Funktionen und Operatoren Weitere Funktionen zur Zeichenkettenmanipulation sind in Tabelle 9. Dekodiert binäre Daten von string. typ text) encode(data bytea. Gibt die Zeichenkette so zurück. zeichen text) chr(integer) convert(string text. um die SQL-Standard-Funktionen aus Tabelle 9. integer) text repeat('Pg'. wenn nötig (d. escape. Funktion ascii(text) btrim(string text.

'xy') Zeichen füllung (ein Leerzeichen als Vorgabe) angehängt werden. Die Funktion to_ascii unterstützt nur die Konversion von LATIN1. füllung text]) Ergebnistyp text Beschreibung Ersetzt alle Vorkommen von Teilzeichenkette vorher in string mit nachher . substring) text trim text Teilt string an den trennzeichen auf und ergibt das angegebene Feld (von eins an zählend). 'cd'. 5. Teilzeichenkette ermitteln (das Gleiche wie substring(string from from for count)) split_part('ab c~@~def~@~ghi' . vorher text. feld integer) strpos(string.Kapitel 9 Funktion replace(string text. hixyx rtrim(string text. 2) to_ascii('Kare l') to_hex(9223372 036854775807) ph text text Text von anderer Kodierung in ASCII umwandeln a . die nur aus Zeichen in zeichen besteht.) a. Zeichen in von ist. dann wird es rechts abgeschnitten. Tabelle 9. 3. rtrim('trimxxx Entfernt die längste Zeichenkette. from [.'x') der Zeichenkette. '14'.'~@~'. count]) to_ascii(text [. Wandelt zahl in hexadezimale Darstellung um. Karel 7ffffffff fffffff a23x5 text Jedes Zeichen in string.7: Andere Zeichenkettenfunktionen (Forts. zeichen text) split_part(str ing text. dass gleich einem translate('123 45'. 'ig') 2 substr(string. 'XX') Ergebnis abXXefabX Xef text Füllt string bis zur Länge länge. länge integer [. indem rpad('hi'. von text. vom Ende x'. Wenn string schon länger als länge ist. Position der angegebenen Teilzeichenkette (das Gleiche wie position(substring in string). Konversionsname a ascii_to_mic ascii_to_utf_8 big5_to_euc_tw big5_to_mic big5_to_utf_8 euc_cn_to_mic euc_cn_to_utf_8 euc_jp_to_mic euc_jp_to_sjis euc_jp_to_utf_8 Quellkodierung SQL_ASCII SQL_ASCII BIG5 BIG5 BIG5 EUC_CN EUC_CN EUC_JP EUC_JP EUC_JP Zielkodierung MULE_INTERNAL UNICODE EUC_TW MULE_INTERNAL UNICODE MULE_INTERNAL UNICODE MULE_INTERNAL SJIS UNICODE Tabelle 9. aber andere Reihenfolge der Argumente).2) def text strpos('high'. nachher text) rpad(string text. trennzeichen text.8: Eingebaute Konversionen 142 . nach text) text substr('alphab et'. wird durch das 'ax') entsprechende Zeichen in nach ersetzt. LATIN2 und WIN1250. Beispiel replace('abcde fabcdef'. kodierung]) to_hex(zahl integer or bigint) translate(stri ng text.

Funktionen und Operatoren Konversionsname a euc_kr_to_mic euc_kr_to_utf_8 euc_tw_to_big5 euc_tw_to_mic euc_tw_to_utf_8 gb18030_to_utf_8 gbk_to_utf_8 iso_8859_10_to_utf_8 iso_8859_13_to_utf_8 iso_8859_14_to_utf_8 iso_8859_15_to_utf_8 iso_8859_16_to_utf_8 iso_8859_1_to_mic iso_8859_1_to_utf_8 iso_8859_2_to_mic iso_8859_2_to_utf_8 iso_8859_2_to_windows_1250 iso_8859_3_to_mic iso_8859_3_to_utf_8 iso_8859_4_to_mic iso_8859_4_to_utf_8 iso_8859_5_to_koi8_r iso_8859_5_to_mic iso_8859_5_to_utf_8 iso_8859_5_to_windows_1251 iso_8859_5_to_windows_866 iso_8859_6_to_utf_8 iso_8859_7_to_utf_8 iso_8859_8_to_utf_8 iso_8859_9_to_utf_8 johab_to_utf_8 koi8_r_to_iso_8859_5 koi8_r_to_mic koi8_r_to_utf_8 koi8_r_to_windows_1251 koi8_r_to_windows_866 mic_to_ascii mic_to_big5 Quellkodierung EUC_KR EUC_KR EUC_TW EUC_TW EUC_TW GB18030 GBK LATIN6 LATIN7 LATIN8 LATIN9 LATIN10 LATIN1 LATIN1 LATIN2 LATIN2 LATIN2 LATIN3 LATIN3 LATIN4 LATIN4 ISO_8859_5 ISO_8859_5 ISO_8859_5 ISO_8859_5 ISO_8859_5 ISO_8859_6 ISO_8859_7 ISO_8859_8 LATIN5 JOHAB KOI8 KOI8 KOI8 KOI8 KOI8 MULE_INTERNAL MULE_INTERNAL Zielkodierung MULE_INTERNAL UNICODE BIG5 MULE_INTERNAL UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE MULE_INTERNAL UNICODE MULE_INTERNAL UNICODE WIN1250 MULE_INTERNAL UNICODE MULE_INTERNAL UNICODE KOI8 MULE_INTERNAL UNICODE WIN ALT UNICODE UNICODE UNICODE UNICODE UNICODE ISO_8859_5 MULE_INTERNAL UNICODE WIN ALT SQL_ASCII BIG5 Tabelle 9.) 143 .8: Eingebaute Konversionen (Forts.

Kapitel 9 Konversionsname a mic_to_euc_cn mic_to_euc_jp mic_to_euc_kr mic_to_euc_tw mic_to_iso_8859_1 mic_to_iso_8859_2 mic_to_iso_8859_3 mic_to_iso_8859_4 mic_to_iso_8859_5 mic_to_koi8_r mic_to_sjis mic_to_windows_1250 mic_to_windows_1251 mic_to_windows_866 sjis_to_euc_jp sjis_to_mic sjis_to_utf_8 tcvn_to_utf_8 uhc_to_utf_8 utf_8_to_ascii utf_8_to_big5 utf_8_to_euc_cn utf_8_to_euc_jp utf_8_to_euc_kr utf_8_to_euc_tw utf_8_to_gb18030 utf_8_to_gbk utf_8_to_iso_8859_1 utf_8_to_iso_8859_10 utf_8_to_iso_8859_13 utf_8_to_iso_8859_14 utf_8_to_iso_8859_15 utf_8_to_iso_8859_16 utf_8_to_iso_8859_2 utf_8_to_iso_8859_3 utf_8_to_iso_8859_4 utf_8_to_iso_8859_5 utf_8_to_iso_8859_6 utf_8_to_iso_8859_7 Quellkodierung MULE_INTERNAL MULE_INTERNAL MULE_INTERNAL MULE_INTERNAL MULE_INTERNAL MULE_INTERNAL MULE_INTERNAL MULE_INTERNAL MULE_INTERNAL MULE_INTERNAL MULE_INTERNAL MULE_INTERNAL MULE_INTERNAL MULE_INTERNAL SJIS SJIS SJIS TCVN UHC UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE Zielkodierung EUC_CN EUC_JP EUC_KR EUC_TW LATIN1 LATIN2 LATIN3 LATIN4 ISO_8859_5 KOI8 SJIS WIN1250 WIN ALT EUC_JP MULE_INTERNAL UNICODE UNICODE UNICODE SQL_ASCII BIG5 EUC_CN EUC_JP EUC_KR EUC_TW GB18030 GBK LATIN1 LATIN6 LATIN7 LATIN8 LATIN9 LATIN10 LATIN2 LATIN3 LATIN4 ISO_8859_5 ISO_8859_6 ISO_8859_7 Tabelle 9.) 144 .8: Eingebaute Konversionen (Forts.

Funktionen und Operatoren Konversionsname a utf_8_to_iso_8859_8 utf_8_to_iso_8859_9 utf_8_to_johab utf_8_to_koi8_r utf_8_to_sjis utf_8_to_tcvn utf_8_to_uhc utf_8_to_windows_1250 utf_8_to_windows_1251 utf_8_to_windows_1256 utf_8_to_windows_866 utf_8_to_windows_874 windows_1250_to_iso_8859_2 windows_1250_to_mic windows_1250_to_utf_8 windows_1251_to_iso_8859_5 windows_1251_to_koi8_r windows_1251_to_mic windows_1251_to_utf_8 windows_1251_to_windows_866 windows_1256_to_utf_8 windows_866_to_iso_8859_5 windows_866_to_koi8_r windows_866_to_mic windows_866_to_utf_8 windows_866_to_windows_1251 windows_874_to_utf_8 Quellkodierung UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE UNICODE WIN1250 WIN1250 WIN1250 WIN WIN WIN WIN WIN WIN1256 ALT ALT ALT ALT ALT WIN874 Zielkodierung ISO_8859_8 LATIN5 JOHAB KOI8 SJIS TCVN UHC WIN1250 WIN WIN1256 ALT WIN874 LATIN2 MULE_INTERNAL UNICODE ISO_8859_5 KOI8 MULE_INTERNAL UNICODE ALT UNICODE ISO_8859_5 KOI8 MULE_INTERNAL UNICODE WIN UNICODE Tabelle 9.10.) 145 . Einzelheiten sehen Sie in Tabelle 9. (Siehe Tabelle 9.9. SQL definiert einige Funktionen mit spezieller Syntax. 9. Die Konversionsnamen folgen einem einheitlichen Schema: Der offizielle Name der Quellkodierung mit allen nicht alphanumerischen Zeichen durch Unterstriche ersetzt. gefolgt von _to_.) a. Diese Funktionen gibt es auch mit der normalen Syntax für Funktionsaufrufe.8: Eingebaute Konversionen (Forts. Daher könnten die Namen von den gebräuchlichen Kodierungsnamen abweichen. gefolgt vom auf gleiche Weise umgewandelten Zielkodierungsnamen. um die Argumente zu trennen.5 Funktionen und Operatoren für binäre Daten Dieser Abschnitt beschreibt Funktionen und Operatoren zur Bearbeitung von Werten des Typs bytea. wo bestimmte Schlüsselwörter anstatt Kommas verwendet werden.

Kapitel 9 Funktion daten || daten Ergebnistyp Beschreibung bytea Beispiel '\\\\Post'::bytea || '\\047greSQL\\000':: bytea octet_length('jo\\00 0se'::bytea) position('\\000om':: bytea in 'Th\\000omas'::bytea ) substring('Th\\000om as'::bytea from 2 for 3) trim('\\000'::bytea from '\\000Tom\\000'::byt ea) Ergebnis \\Post'greSQL\ 000 5 3 Datenketten aneinander hängen Anzahl Bytes in Daten Position der angegebenen Teildatenkette Teildatenkette ermitteln octet_length(date integer n) position(subdaten integer in daten) substring(daten [from integer] [for integer]) trim([both] bytes from daten) bytea h\000o bytea Entfernt die längste Datenkette. die 00456'. 'escape') 123\000456 Tabelle 9. Funktion btrim(daten bytea bytes bytea) length(daten) decode(daten text.9: SQL-Funktionen und -Operatoren für binäre Daten Weitere Funktionen zur Zeichenkettenmanipulation sind in Tabelle 9. encode('123\\0 00456'::bytea.6 Mustervergleiche Es gibt drei verschiedene Möglichkeiten. 'escape') text Kodiert binäre Daten in eine Darstellung nur aus ASCII-Zeichen. vom Anfang und Ende von daten . Parametertyp ist genauso wie bei encode. Einige davon werden intern verwendet. typ text) encode(daten bytea. escape. zuvor mit encode kodiert wurden. in PostgreSQL Mustervergleiche durchzuführen: der herkömmliche SQL-Operator LIKE. Außerdem gibt es die Funktion substring. hex. die Mustervergleiche mit regulären Ausdrücken entweder nach SQL99 oder POSIX durchführen kann. Tipp Wenn sie Anforderungen für Mustervergleiche haben. typ text) Ergebnistyp bytea Beschränkung Entfernt die längste Datenkette.10: Andere Funktionen für binäre Daten 9. Tom Tabelle 9.10 aufgeführt. um die SQL-Standard-Funktionen aus Tabelle 9. die nur aus Bytes in bytes besteht. vom Anfang und Ende von daten. Unterstützte Typen sind: base64. sollten Sie das Schreiben einer benutzerdefinierten Funktion in Perl oder Tcl in Betracht ziehen. die diese Fähigkeiten überschreiten.'\\000'::byt ea) length('jo\\00 0se'::bytea) Ergebnis trim integer bytea 5 123\000456 decode('123\\0 Dekodiert binäre Daten in daten. der neuere SQL99-Operator SIMILAR TO und reguläre Ausdrücke nach POSIX. Anzahl Bytes in Daten Beispiel btrim('\\000tr im\\000'::byte a. die nur aus Bytes in bytes steht.9 zu implementieren. 146 .

aber keine anderen Zeichen.6. schreiben Sie es zweimal hintereinander in das Muster. also brauchen Sie immer noch zwei.Funktionen und Operatoren 9. NOT ILIKE stehen. Das Schlüsselwort ILIKE kann anstelle von LIKE verwendet werden. Reguläre Ausdrücke nach SQL99 sind eine merkwürdige Kombination aus der von LIKE bekannten Schreibweise und der allgemein gebräuchlichen Schreibweise von regulären Ausdrücken. Das können Sie vermeiden. 9. dann hat der Backslash keine besondere Bedeutung für LIKE mehr. gar kein Fluchtzeichen auszuwählen. Der Operator ~~ ist gleichbedeutend mit LIKE und ~~* entspricht ILIKE. Dadurch wird der Fluchtzeichenmechanismus im Prinzip ausgeschaltet. Wenn Sie folglich ein Muster schreiben wollen. dann steht das Muster nur für die Zeichenkette selbst. Einige Beispiele: 'abc' 'abc' 'abc' 'abc' LIKE LIKE LIKE LIKE 'abc' 'a%' '_b_' 'c' wahr wahr wahr falsch Mustervergleiche mit LIKE gehen immer über die gesamte Zeichenkette. (Wie zu erwarten ist.1 LIKE zeichenkette LIKE muster [ESCAPE fluchtzeichen] zeichenkette NOT LIKE muster [ESCAPE fluchtzeichen] Jedes muster definiert eine Sammlung von Zeichenketten. Das normale Fluchtzeichen ist der Backslash. die besondere Bedeutung des Unterstrichs und des Prozentzeichens im Muster zu umgehen. Ein gleichbedeutender Ausdruck ist NOT (zeichenkette LIKE muster). außer dass es das Muster als regulären Ausdruck nach SQL99 interpretiert. und umgekehrt. muss das Muster also am Anfang und Ende ein Prozentzeichen haben. aber ein anderes Zeichen kann mit der ESCAPE-Klausel gewählt werden. muss vor die entsprechenden Zeichen in muster das Fluchtzeichen geschrieben werden. Alle diese Operatoren gibt es so nur in PostgreSQL. Das steht nicht im SQL-Standard. ein Prozentzeichen (%) steht für null oder mehr Zeichen. indem man ESCAPE '' schreibt. Um ein Muster irgendwo in einer Zeichenkette zu finden. in dem Fall verhält sich LIKE wie die Vergleichsoperation. müssen Sie in einem SQL-Befehl zwei Backslashes schreiben. indem Sie mit ESCAPE ein anderes Fluchtzeichen bestimmen. Ein Unterstrich (_) in muster steht für ein einzelnes beliebiges Zeichen. 147 . müssen Sie in dem Befehl vier eingeben.und Kleinschreibung zu machen (entsprechend der aktuellen Locale-Einstellung). wodurch es unmöglich wird. Um einen Unterstrich oder ein Prozentzeichen. (Aber er hat immer noch eine besondere Bedeutung in Zeichenkettenkonstanten.) Wenn muster kein Prozentzeichen oder Unterstrich enthält. wenn die zeichenkette in der von muster bestimmten Sammlung ist. Um das Fluchtzeichen selbst zu finden. zu finden. dass der Backslash in Zeichenkettenkonstanten eine besondere Bedeutung hat.2 SIMILAR TO und reguläre Ausdrücke nach SQL99 zeichenkette SIMILAR TO muster [ESCAPE fluchtzeichen] zeichenkette NOT SIMILAR TO muster [ESCAPE fluchtzeichen] Der Operator SIMILAR TO ergibt wahr oder falsch abhängig davon.) Es ist möglich. wenn LIKE wahr ergibt. Beachten Sie. Um also eine Musterkonstante mit einem Backslash zu schreiben. sondern ist eine Erweiterung von PostgreSQL. Es ist ähnlich LIKE. um die Mustersuche unabhängig von Groß.6. Der LIKE-Ausdruck ergibt logisch wahr. ob das Muster mit der angegebenen Zeichenkette übereinstimmt. dass einen Backslash findet. Es gibt auch die Operatoren !~~ und !~~* die für NOT LIKE bzw. ergibt der Ausdruck NOT LIKE falsch.

die mit dem regulären Ausdruck nach SQL99 übereinstimmt. wird zurückgegeben.*' Tabelle 9.*Thomas. ignoriert Groß-/Kleinschreibung 'thomas' ~* '.] ist eine Zeichenklasse. (Diese sind vergleichbar mit . Ebenso wie LIKE verwendet SIMILAR TO _ und % als Wildcard-Zeichen für ein beliebiges einzelnes Zeichen bzw. Wie bei SIMILAR TO muss das Muster auf die gesamte Zeichenkette passen. und . Das steht im Gegensatz zur gebräuchlichen Praxis bei regulären Ausdrücken. Außerdem ist der Punkt (. Genauso wie bei LIKE kann der Backslash die besondere Bedeutung dieser Sonderzeichen abschalten.}) nicht zur Verfügung steht.3 Reguläre Ausdrücke nach POSIX Tabelle 9. Operator ~ ~* Beschreibung Vergleich mit regulärem Ausdruck. ansonsten schlägt die Funktion fehl und gibt den NULL-Wert zurück. * steht für die Wiederholung des vorangegangenen Ausdrucks null oder mehrere Male.. substring(zeichenkette from muster for fluchtzeichen). achtet auf Groß-/ Kleinschreibung Beispiel 'thomas' ~ '. wie bei POSIX...*' Vergleich mit regulärem Ausdruck.Kapitel 9 Wie LIKE. wenn das Muster auf die gesamte Zeichenkette passt. obwohl sie in POSIX vorhanden sind. Einige Beispiele: 'abc' 'abc' 'abc' 'abc' SIMILAR SIMILAR SIMILAR SIMILAR TO TO TO TO 'abc' 'a' '%(b|d)%' '(b|c)%' wahr falsch wahr falsch Die Funktion substring mit drei Parametern. der mit dem Teil des Musters zwischen diesen Markierungen übereinstimmt. Um den Teil des Musters zu markieren.* in regulären Ausdrücken in der POSIX-Schreibweise. Beachten Sie. Klammern () können verwendet werden.6.) Neben diesen von LIKE übernommenen Möglichkeiten unterstützt SIMILAR TO auch folgende von POSIX übernommene Sonderzeichen zur Mustersuche: ❏ ❏ ❏ ❏ | steht für eine Alternative (entweder die eine oder die andere). + steht für die Wiederholung des vorangegangenen Ausdrucks ein oder mehrere Male.11: Operatoren für reguläre Ausdrücke 148 . oder ein anderes Fluchtzeichen kann mit ESCAPE bestimmt werden. um Ausdrücke zu einem einzigen logischen Ausdruck zu- sammenzufassen. jede beliebige Zeichenkette. dass begrenzte Wiederholung (? und {. muss das Muster zweimal das Fluchtzeichen jeweils gefolgt von einem Anführungszeichen (") enthalten.11 listet die verfügbaren Operatoren für Mustervergleiche mit regulären Ausdrücken nach POSIX. wo das Muster auch auf nur einen Teil der Zeichenkette passen kann. Einige Beispiele: substring('foobar' from '%#"o_b#"%' for '#') oob substring('foobar' from '#"o_b#"%' for '#') NULL 9. der bei erfolgreicher Übereinstimmung zurückgegeben werden soll. erlaubt das Auswählen einer Teilzeichenkette. ist SIMILAR TO nur erfolgreich.) kein Sonderzeichen. ❏ Ein Ausdruck in eckigen Klammern [. Der Text..*thomas.

dass die Übereinstimmung vom Anfang oder bis zum Ende bestehen muss. wahlweise gefolgt von einem einzelnen Zeichen *. Eine Zeichenkette stimmt mit einem regulären Ausdruck überein. Wenn Sie Klammern verwenden wollen. Ein Atom. die mit dem regulären Ausdruck nach POSIX übereinstimmt. Im Gegensatz zu LIKE-Mustern können reguläre Ausdrücke auch auf Teilzeichenketten mitten in der zu durchsuchenden passen. Wenn es keine Übereinstimmung gibt. was auf einen der Zweige passt. erlaubt das Auswählen einer Teilzeichenkette. wenn sie ein Element der von dem regulären Ausdruck beschriebenen regulären Menge ist.*' Tabelle 9. +.b') oob substring('foobar' from 'o(.*' 'thomas' !~* '. wird der Teil des Texts zurückgegeben. sed oder awk.2 werden diese “erweiterte” RAs genannt) und obsolete RAs (etwa die aus ed. getrennt durch |. dann ergibt sie den NULL-Wert. passt auf eine Folge von 0 oder mehr Übereinstimmungen mit dem Atom. ansonsten ergibt sie den Teil des Textes der übereingestimmt hat. ohne diesen Mechanismus auszulösen. Ein Atom. in 1003. Ein Teil besteht aus einem Atom. Er passt auf alles. außer wenn sie Sonderzeichen von regulären Ausdrücken sind. der mit dem ersten eingeklammerten Teilausdruck (der. Aber reguläre Ausdrücke verwenden andere Sonderzeichen als LIKE. Wie mit LIKE passen Zeichen im Muster genau auf Zeichen in der angegebenen Zeichenkette. in 1003. achtet auf Groß-/ Kleinschreibung negierter Vergleich mit regulärem Ausdruck. das von einem * gefolgt wird. gibt es in zwei Formen: moderne RAs (etwa die von egrep bekannten. passt auf eine Folge von 1 oder mehr Übereinstimmungen mit dem Atom. von dem die linke Klammer zuerst kam) übereingestimmt hat. nach der Definition in POSIX 1003. Einige Beispiele: substring('foobar' from 'o. können Sie um den ganzen Ausdruck ein Klammernpaar setzen. Ein regulärer Ausdruck ist eine Zeichenfolge.*Thomas. Ein Atom gefolgt von ? passt auf eine Folge von 0 oder 1 Übereinstimmungen mit dem Atom. die in abgekürzter Schreibweise eine Menge von Zeichenketten definiert (eine reguläre Menge). PostgreSQL bietet die moderne Form an. Ein (moderner) RA besteht aus einem oder mehreren nicht leeren Zweigen. verwenden eine Schreibweise für reguläre Ausdrücke. wenn der Text auf alle Teile hintereinander passt.2.) Die regulären Ausdrücke nach dem POSIX-Standard bieten eine mächtigere Schnittstelle für Mustervergleiche als die Operatoren LIKE und SIMILAR TO. substring(zeichenkette from muster).11: Operatoren für reguläre Ausdrücke (Forts. Er passt. Ein Zweig besteht aus einem oder mehreren aneinander gehängten Teilen.*vadim. ? oder einer Begrenzung. ignoriert Groß-/ Kleinschreibung Beispiel 'thomas' !~ '. das von einem + gefolgt wird. wie egrep.2 “einfache” RAs). außer wenn es im regulären Ausdruck explizit angegeben wurde.)b') o Reguläre Ausdrücke (RAs). Einige Beispiele: 'abc' 'abc' 'abc' 'abc' ~ ~ ~ ~ 'abc' '^a' '(b|d)' '^(b|c)' wahr wahr wahr falsch Die Funktion substring mit zwei Parametern. Viele Unix-Werkzeuge. 149 . die der hier beschriebenen ähnlich ist.Funktionen und Operatoren Operator !~ !~* Beschreibung negierter Vergleich mit regulärem Ausdruck. Wenn das Muster Klammern enthält.

ein \ gefolgt von eines der Zeichen ^.ch. Anmerkung Ein Wiederholungsoperator (?. oder ein besonderer Name für eins der beiden) zwischen [. die mit demjenigen äquivalent sind. und wenn zwei Zahlen angegeben wurden. Ein Ausdruck in eckigen Klammern kann also auf mehr als ein Zeichen passen.) Wenn zum Beispiel o und ^ Elemente einer Äquivalenzklassen wären. Um also eine Musterkonstante zu schreiben. (passt auf ein einzelnes Zeichen). + oder eine Begrenzung) kann nicht auf einen anderen Wiederholungsoperator folgen. dass ein Backslash (\) schon eine besondere Bedeutung in Zeichenkettenkonstanten hat. Es ist nicht erlaubt. Ein Atom ist ein regulärer Ausdruck in () (passt auf alles.] stehen würde. um es in ein Sortierelement umzuwandeln (siehe unten). dann steht es für die Zeichenfolge dieses Sortierelements. a-c-e. Wenn zum Beispiel die Sortierreihenfolge ein ch als Sortierelement enthält. die einen Backslash enthält. Ein Ausdruck in eckigen Klammern ist eine Liste von Zeichen. Ein Wiederholungsoperator kann nicht am Anfang eines Ausdrucks oder eines Teilausdrucks oder nach ^ oder | stehen. Um ein – als Anfangspunkt eines Bereichs zu verwenden. Die Bereiche hängen stark von Locale-Einstellungen ab und sollten von portierbaren Programmen vermieden werden. passt der RA [[. Wenn innerhalb eines Ausdrucks in eckigen Klammern ein Sortierelement (ein Zeichen. was mit dem eingeschlossenen Ausdruck übereinstimmt). darf die erste nicht größer als die zweite sein. einschließlich demjenigen selbst. und . 150 . $ (passt auf das Ende der eingegebenen Zeichenkette). einschließlich \. dann ist das eine Kurzschreibweise für den gesamten Bereich von Zeichen zwischen diesen beiden (einschließend) in der Sortierreihenfolge. Beachten Sie. [[=^=]] und [o^] alle gleichbedeutend. ein Ausdruck in ekkigen Klammern (siehe unten). Eine Äquivalenzklasse darf nicht der Endpunkt eines Bereichs sein. Ein Atom gefolgt von einer Begrenzung mit einer Zahl i und keinem Komma passt auf eine Folge von genau i Übereinstimmungen mit dem Atom. als ob der \ nicht da gewesen wäre) oder ein anderes Zeichen ohne besondere Bedeutung (passt auf dieses Zeichen). Um ein ] in die Liste zu setzen. und .[$()|*+?{\ (passt auf das Zeichen ungeachtet seiner Stellung als Sonderzeichen). Es ist nicht erlaubt. ^ (passt auf den Anfang der angegebenen Zeichenkette). Normalerweise passt er auf ein beliebiges Zeichen aus der Liste (siehe aber unten). *. Mit Ausnahme dieser Konstruktion und einigen Kombinationen mit [ (siehe nächster Absatz) verlieren alle anderen Sonderzeichen. die für die Zeichenfolgen aller Sortierelemente. und wahlweise noch einer ganze Zahl ohne Vorzeichen. ein leeres Paar () (passt auf eine leere Zeichenkette).] steht. z. die wie ein einzelnes Zeichen sortiert wird. und am Ende immer }. das keine Ziffer ist. Ein { gefolgt von einem Zeichen. schreiben Sie es als erstes Zeichen (nach einem etwaigen ^). schreiben Sie es als erstes oder letztes Zeichen oder als zweiter Endpunkt eines Bereichs. ihre besondere Bedeutung innerhalb von eckigen Klammern. als wenn er stattdessen zwischen [. z. zählt als normales Zeichen und nicht als Anfang einer Begrenzungsangabe.B. die von [] eingeschlossen wird.]. Ein Atom gefolgt von einer Begrenzung mit einer Zahl i und einem Komma passt auf eine Folge von i oder mehr Übereinstimmungen mit dem Atom. am Ende eines RA ein \ stehen zu haben. Wenn die Liste mit ^ beginnt. ein . (Wenn es keine äquivalenten Sortierelemente gibt.Kapitel 9 Eine Begrenzung besteht aus { gefolgt von einer ganzen Zahl ohne Vorzeichen (in Dezimalschreibweise). und . müssen Sie in dem Befehl zwei Backslashes schreiben. dann wären [[=o=]]. Ein Atom gefolgt von einer Begrenzung mit zwei Zahlen i und j passt auf eine Folge von einschließlich i bis j Übereinstimmungen mit dem Atom. Die Zahlen müssen zwischen einschließlich 0 und RE_DUP_MAX (255) liegen. verhält sich der Ausdruck. ein \ gefolgt von einem anderen Zeichen (passt auf dieses Zeichen.B. passt er auf ein beliebiges Zeichen (siehe aber unten). schreiben Sie es zwischen [.]]*c auf die ersten fünf Zeichen von chchcc. passt [0-9] in ASCII auf eine beliebige dezimale Ziffer. Diese Folge ist ein einzelnes Element in der eingeklammerten Liste. Um ein – in die Liste zu setzen. ist es eine Äquivalenzklasse. das nicht in der Liste ist. steht. eine Folge aus mehreren Zeichen. wahlweise gefolgt von . Wenn zwei Zeichen in der Liste durch – getrennt sind. Wenn innerhalb eines Ausdrucks in eckigen Klammern ein Sortierelement zwischen [= und =] steht. dass zwei Bereiche einen gemeinsamen Endpunkt haben.

alpha. und wenn (a*)* mit bc verglichen wird. Die Länge einer Übereinstimmung wird in Zeichen. die zwar kompatibel mit POSIX 1003. werden alle übrigen Formen des Buchstabens zu der Liste hinzugefügt. Der Speicherverbrauch ist in etwa direkt proportional zur Länge des RA und im Großen und Ganzen unabhängig von dessen Komplexität.und Kleinbuchstaben aus dem Alphabet verschwunden wären. dann passt der Teilausdruck in Klammern auf alle drei Zeichen. 1 9. so wird zum Beispiel [x] in [xX] und [^x] in [^xX] verwandelt. Es gibt zwei besondere Fälle von Ausdrücken in eckigen Klammern: [[:<:]] und [[:>:]] erzeugen eine Übereinstimmung am Anfang bzw. Zum Beispiel: bb* passt auf die drei mittleren Zeichen von abbbc. Teilausdrücke suchen auch eine Übereinstimmung mit den längstmöglichen Teilzeichenketten. Die Zahlen haben sich wahrscheinlich verändert. was viel Zeit und Platz kostet. die eher in dem RA anfangen.100}){1. punct. upper.2 ist. Ende eines Worts. dass das 1994 geschrieben wurde. wenn die Software auf andere Systeme portierbar sein soll. nimmt er die längste. print. mit der Einschränkung. Vorrang vor den später Anfangenden haben. Das ist eine Erweiterung. der Groß. Bedenken Sie. (wee|week)(knights|nights) passt auf alle zehn Zeichen von weeknights. Wenn es innerhalb einer Liste in eckigen Klammern auftritt.100}){1. In Tabelle 9. Wenn ein alphabetisches Zeichen. Wenn ein Mustervergleich gewünscht wird.100} wird (letztendlich) den Speicher fast jeder bestehenden Maschine aufbrauchen. Diese stehen für die Zeichenklassen. Wenn der RA mit mehr als einer Teilzeichenkette an dieser Stelle übereinstimmen kann. dass die gesamte Übereinstimmung so lang wie möglich sein soll und dass Teilausdrücke. dass ein RA mit mehr als einer Teilzeichenkette übereinstimmt. Daraus ergibt sich. ergibt der RA eine Übereinstimmung mit der. nicht Sortierelementen gezählt. wenn (. außer was den Hauptspeicher betrifft.12 sind sie gelistet.Funktionen und Operatoren Wenn innerhalb eines Ausdrucks in eckigen Klammern der Name einer Zeichenklasse zwischen [: und :] steht. wenn die Zahlen groß oder die begrenzten Wiederholungen geschachtelt sind. In bestimmten LocaleEinstellungen können weitere vorhanden sein. Standardisierte Namen von Zeichenklassen sind: alnum. space.* mit abc verglichen wird.100}){1.100}){1. xdigit. Wenn es sich ergibt. lower. außer bei begrenzten Wiederholungen. Ein RA wie zum Beispiel ((((a{1.und Kleinschreibung ignoriert. das es als Groß. dann steht das für die Liste aller Zeichen. die zuerst in der Zeichenkette anfängt. cntrl. daher sollte sie mit Vorsicht verwendet werden. diverse Zahlentypen) in formatierte Zeichenketten oder formatierte Zeichenketten in bestimmte Datentypen umzuwandeln. digit. die in ctype (3) definiert sind.7 Datentyp-Formatierungsfunktionen Die PostgreSQL-Formatierungsfunktionen bieten vielfältige Möglichkeiten. 151 . Eine leere Zeichenkette wird als länger als gar keine Übereinstimmung erachtet. der beide Buchstabenformen enthält. als normales Zeichen außerhalb von eckigen Klammern auftritt. dann wird es im Endeffekt in einen Ausdruck in eckigen Klammern umgewandelt. Begrenzte Wiederholungen sind als Makroerweiterung implementiert. blank. so wird aus x zum Beispiel [xX]. Ein Wortzeichen ist ein “alnum”Zeichen (definiert in ctype (3)) oder ein Unterstrich. wo weder davor noch danach ein weiteres Wortzeichen steht.*). um verschiedene Datentypen (Datum/Zeit. aber das Problem bleibt bestehen. dann ergeben der ganze RA wie auch der Teilausdruck in Klammern eine Übereinstimmung mit der leeren Zeichenkette. graph. Ein Wort ist definiert als eine Folge von Wortzeichen. als ob alle Unterschiede zwischen Groß.und als Kleinbuchstabe gibt. dass äußere Teilausdrücke Vorrang vor den tiefer in ihnen geschachtelten haben. dann ist die Auswirkung. Eine Zeichenklasse darf nicht als Endpunkt eines Bereichs verwendet werden. Diese Funktionen werden alle nach 1. die zu dieser Klasse gehören. dort aber nicht angegeben wird. Es gibt keine bestimmte Höchstgrenze für die Länge eines RA.

text) Ergebnistyp text text Beschreibung timestamp in Zeichenkette umwandeln interval in Zeichenkette umwandeln Beispiel to_char(current_timesta mp.8. '999D9') to_char(-125. text) to_number(text. '999D99S') to_date('05 Dec 2000'. welche Teile der angegebenen Zeichenkette zu betrachten sind und welche Werte dort zu finden sind. Funktion to_char(timestamp .8::real. wird unverändert übernommen. '99G999D9S') to_char(int. oder pm oder p. die das Ausgabe. text) to_date(text. Beschreibung Stunde (01-12) Stunde (01-12) Stunde (00-23) Minute (00-59) Sekunde (00-59) Millisekunde (000-999) Mikrosekunde (000000-999999) Sekunden nach Mitternacht (0-86399) Vormittags-/Nachmittagsangabe (Großbuchstaben) am oder a.13 zeigt die Muster. Tabelle 9.12: Formatierungsfunktionen In einer Ausgabemustervorlage (für to_char) werden bestimmte Muster erkannt und durch entsprechend formatierte Daten vom zu formatierenden Wert ersetzt.YYY YYYY YYY YY Jahr (mind. text) to_timestamp(text . der kein solches Muster ist. Vormittags-/Nachmittagsangabe (Kleinbuchstaben) Y.454. Jeglicher Text.oder Eingabeformat bestimmt. 'DD Mon YYYY') to_timestamp('05 Dec 20 00'. 4 Ziffern) mit Komma zur Zifferngruppierung Jahr (mind.M.M. text) text text date timestamp numeric integer in Zeichenkette umwandeln real/double precision in Zeichenkette umwandeln numeric in Zeichenkette umwandeln Zeichenkette in date umwandeln Zeichenkette in timestamp umwandeln Zeichenkette in numeric umwandeln Tabelle 9. Muster HH HH12 HH24 MI SS MS US SSSS AM oder A.und Zeitangaben zur Verfügung stehen. 'HH24:MI:SS') to_char(125. 4 Ziffern) die letzten 3 Ziffern des Jahres die letzten 2 Ziffern des Jahres Tabelle 9. text) to_char(interval. die zur Formatierung von Datums. text) text to_char(double precision. oder PM oder P.Kapitel 9 dem gleichen Schema aufgerufen: Das erste Argument ist der zu formatierende Wert und das zweite Argument ist eine Mustervorlage. Gleichermaßen bestimmen die Muster in einer Eingabemustervorlage (für alles außer to_char).m. 'DD Mon YYYY') to_number('12.13: Mustervorlagen für die Formatierung von Datum/Zeit 152 . '999') to_char(125.8-'. 'HH12:MI:SS') to_char(interval '15h 2m 12s'. text) to_char(numeric.m.

Z.) Woche im Jahr (1-53) (Die erste Woche fängt am ersten Tag des Jahres an.D. englische Angabe der Zeitrechnung (Kleinbuchstaben) MONTH Month month MON Mon mon MM DAY Day day DY Dy dy DDD DD D W WW IW CC J Q RM rm TZ tz voller englischer Monatsname in Großbuchstaben (mit Leerzeichen auf 9 Zeichen aufgefüllt) voller englischer Monatsname in gemischten Buchstaben (mit Leerzeichen auf 9 Zeichen aufgefüllt) voller englischer Monatsname in Kleinbuchstaben (mit Leerzeichen auf 9 Zeichen aufgefüllt) abgekürzter englischer Monatsname in Großbuchstaben (3 Zeichen) abgekürzter englischer Monatsname in gemischten Buchstaben (3 Zeichen) abgekürzter englischer Monatsname in Kleinbuchstaben (3 Zeichen) Nummer des Monats (01-12) voller englischer Wochentag in Großbuchstaben (mit Leerzeichen auf 9 Zeichen aufgefüllt) voller englischer Wochentag in gemischten Buchstaben (mit Leerzeichen auf 9 Zeichen aufgefüllt) voller englischer Wochentag in Kleinbuchstaben (mit Leerzeichen auf 9 Zeichen aufgefüllt) abgekürzter englischer Wochentag in Großbuchstaben (3 Zeichen) abgekürzter englischer Wochentag in gemischten Buchstaben(3 Zeichen) abgekürzter englischer Wochentag in Kleinbuchstaben (3 Zeichen) Tag im Jahr (001-366) Tag im Monat (01-31) Wochentag (1-7. Tabelle 9.13: Mustervorlagen für die Formatierung von Datum/Zeit (Forts. oder ad oder a.c. Zum Beispiel wäre FMMonth das Muster Month mit der Abänderung FM.Funktionen und Operatoren Muster Y Beschreibung die letzte Ziffer des Jahres BC oder B.) Quartal Monat in römischen Zahlen (I-XII.) ISO-Wochennummer (Der erste Donnerstag des neuen Jahres ist in Woche Nummer 1.u. oder AD oder A. Januar 4712 v.) Jahrhundert (2 Ziffern) Julianischer Tag (Tage seit 1. 153 . um ihr Verhalten zu verändern. i=Januar) (Kleinbuchstaben) Zeitzonenname (Großbuchstaben) Zeitzonenname (Kleinbuchstaben) Tabelle 9. I=Januar) (Großbuchstaben) Monat in römischen Zahlen (i-xii.) Auf alle Muster können bestimmte Abänderungen angewendet werden.14 zeigt die Abänderungsmuster für die Formatierung von Datum und Zeit. englische Angabe der Zeitrechnung (Großbuchstaben) bc oder b.d.C. Sonntag ist 1) Woche im Monat (1-5) (Die erste Woche fängt am ersten Tag des Monats an.

021230 Sekunden. ❏ to_timestamp und to_date ignorieren Folgen von mehreren Leerzeichen im Eingabetext. zum Beispiel '\\"YYYY Month\\"'. um dem Ergebnis eines Musters eine feste Länge zu geben. 12:30 und 12:300 alle die gleiche Anzahl Millisekunden ergeben. nicht aber das einzelne Y in Year. Das bedeutet. ❏ Normaler Text kann in Mustervorlagen für to_char stehen und wird unverändert übernommen. die zur Formatierung von numerischen Werten zur Verfügung stehen. Zum Beispiel (mit dem Jahr 20000): to_date('200001131'.Kapitel 9 Abänderung FM Präfix TH Suffix th Suffix FX Präfix SP Suffix Beschreibung Füllmodus (unterbindet Auffüllen mit Leerzeichen und Nullen) englische Ordnungszahlendung (Großbuchstaben) englische Ordnungszahlendung (Kleinbuchstaben) globale Option Fixformat (siehe Verwendungshinweise) (noch nicht implementiert) Beispiel FMMonth DDTH DDth FX Month DD Day DDSP Tabelle 9.020. 'FXYYYY MON') ergibt einen Fehler.US') ergibt 15 Stunden. FX muss das erste Element in der Mustervorlage sein. Muster 9 0 . Sie können eine Teilzeichenkette in Anführungszeichen setzen. 'YYYYMonDD'). (Komma) Beschreibung Wert mit der angegebenen Anzahl von Ziffern Wert mit führenden Nullen Punkt zur Trennung von Nachkommastellen Komma als Tausendergruppierung Tabelle 9. wenn Sie Jahreszahlen mit mehr als vier Ziffern verwenden. Tabelle 9. muss man 12:003 schreiben. 'HH:MI:SS. ❏ Wenn Sie ein Anführungszeichen im Ergebnis haben wollen. 'YYYY-MMDD') oder to_date('20000Nov31'.15 zeigt die Muster. Um drei Millisekunden zu erhalten. müssen Sie einen Backslash davor stellen. setzen Sie stattdessen ein nichtnumerisches Trennzeichen nach das Jahr.001230'.14: Abänderungsmuster für die Formatierung von Datum/Zeit Verwendungshinweise zur Formatierung von Datum und Zeit: ❏ FM unterbindet das Füllen mit Nullen links und mit Leerzeichen rechts. aber spiel: to_timestamp('2000 JUN'. weil die Umwandlung 12 + 0. (Sie müssen zwei Backslashes eingeben. ❏ Die Formatwerte für Millisekunden (MS) und Mikrosekunden (US) in einer Umwandlung von Text in timestamp werden als Teil der Sekunden nach dem Komma verwendet. Zum Beispiel ergibt to_timestamp('12:3'. Nach dem YYYY muss ein nichtnumerisches Zeichen oder Muster stehen. weil der Backslash schon eine besondere Bedeutung in Zeichenkettenkonstanten hat.) ❏ Die Umwandlungen mit YYYY von Text in timestamp oder date hat eine Einschränkung.MS. weil to_timestamp nur ein Leerzeichen erwartet.003 Sekunden gezählt wird.15: Mustervorlagen für die Formatierung von numerischen Werten 154 . sondern 300. ansonsten werden immer vier Ziffern als das Jahr genommen. So wird zum Beispiel in '"Hello Year "YYYY' das YYYY durch das Jahr ersetzt.003 = 12. was ansonsten verwendet wird. wie to_date('20000-1131'.3 Sekunden zählt. um zu verhindern. 'SS:MS') nicht 3 Millisekunden. 12 Minuten und 2 Sekunden + 20 Millisekunden + 1230 Mikrosekunden = 2. Zum Beito_timestamp('2000 JUN'. Hier ist ein komplexeres Beispiel: to_timestamp('15:12:02. (Punkt) . was als 12 + 0. 'YYYYMMDD') wird als 4-ziffriges Jahr interpretiert. wenn die Option FX nicht verwendet wird. dass Zeichen als eins der Muster verwendet werden. 'YYYY MON') ist korrekt. dass bei der Mustervorlage SS:MS die Eingabewerte 12:3.

(Zum Beispiel ist 99. 'FM9. '9.1' ' 0.999') to_char(1485. aber to_char(-12.1.99') to_char(-0.1.16: Beispiele für to_char 155 . '999.999') HH12:MI:SS') Ergebnis 'Tuesday . SG und TH sind PostgreSQL-Erweiterungen. PL oder MI formatiertes Vorzeichen steht nicht direkt neben der Zahl. ❏ TH funktioniert nicht mit Werten unter null oder mit Zahlen mit Bruchteilen. '99. to_char(-12. Wenn keine Ziffer verfügbar ist.0' '0012' ' 485' '-485' ' 4 8 5' ' 1. 6 ' -. zum Beispiel. DD to_char(current_timestamp.16 zeigt einige Beispiele. '999') to_char(-485. 'FMDay. to_char unterstützt nicht die Verwendung von V mit einen Dezimalpunkt. ❏ V multipliziert den Eingabewert mit 10^n.) Tabelle 9. 06 05:39:18' 'Tuesday.9') to_char(12. '9 9 9') to_char(1485.9') to_char(12. Die Oracle-Implementierung erlaubt nicht die Verwendung von MI vor 9. '0.10' '-. '9G999') to_char(148. '9990999.) ❏ Verwendungshinweise zur Formatierung von numerischen Werten: ❏ Ein mit SG. ❏ PL. 'Day. 'FM9990999. wie die Funktion to_char verwendet werden kann. FMDD HH12:MI:SS') to_char(-0.9') to_char(485.1.500' 05:39:18' Tabelle 9.5.99') to_char(0.15: Mustervorlagen für die Formatierung von numerischen Werten (Forts. ❏ 9 ergibt einen Wert mit der gleichen Zahl von Ziffern. 'S9999') ergibt ' -12'.1' ' 0012. wobei n die Anzahl der Ziffern nach V ist. wie 9en vorhanden sind. dass 9 vor MI steht.485' ' 1 485' ' 148. Ausdruck to_char(current_timestamp.9V99 nicht erlaubt. '999') to_char(485. 'MI9999') ergibt '.12'. sondern erfordert.Funktionen und Operatoren Muster PR S L D G MI PL SG RN TH oder th V EEEE Beschreibung negativer Wert in spitzen Klammern Vorzeichen direkt neben der Zahl (verwendet Locale) Währungssymbol (verwendet Locale) Trennzeichen für Nachkommastellen nach Locale (also Komma auf Deutsch) Zeichen zur Tausendergruppierung nach Locale (Punkt auf Deutsch) Minuszeichen auf angegebener Position (wenn Zahl < 0) Pluszeichen auf angegebener Position (wenn Zahl > 0) Plus-/Minuszeichen auf angegebener Position römische Zahl (Eingabe zwischen 1 und 3999) englische Ordnungszahlendung um angegebene Anzahl Ziffern verschieben (siehe Hinweise) wissenschaftliche Schreibweise (noch nicht implementiert) Tabelle 9. dann wird ein Leerzeichen ausgegeben.

'9SG99') to_char(-485. timestamp without time zone. '999PR') to_char(485.time '05:00' Ergebnis timestamp '2001-09-29 00:00' timestamp '2001-09-28 01:00' time '04:00' timestamp '2001-09-27 23:00' time '03:00' time '03:00:00' timestamp '2001-09-28 23:00' .und Zeittypen aus Abschnitt 8.interval '2 hours' interval '2 hours' . '999MI') to_char(485. '99V999') to_char(12.45. bei denen unten steht. 'L999') to_char(485. 'FMRN') to_char(482. 'FMRN') to_char(5.500' '485-' '485-' '485' '+485' '+485' '-485' '4-85' '<485>' 'DM 485 ' 'CDLXXXV' 'V' ' 482nd' 'Good number: 485' 'Pre: 485 Post: . '999D999') to_char(3148.4.7.800' ' 12000' ' 12400' ' 125' CDLXXXV' Tabelle 9. Sie sollten mit den Hintergrundinformationen über die Datums. dass sie Werte vom Typ time oder timestamp verwenden.8 Funktionen und Operatoren für Datum und Zeit Tabelle 9. Alle Funktionen. '999MI') to_char(485. '99V9') Ergebnis ' 148. '999S') to_char(-485. Formatierungsfunktionen finden Sie in Abschnitt 9.500' ' 3 148.). 'RN') to_char(485.5 vertraut sein. 'PL999') to_char(485. Tabelle 9. '"Pre:"999" Post:" .Kapitel 9 Ausdruck to_char(148. '99V999') to_char(12. '"Good number:"999') to_char(485.und Zeitangaben.2. * usw. gibt es in Wirklichkeit in zwei Varianten: Eine verwendet time with time zone bzw. '9G999D999') to_char(-485.interval '23 hours' timestamp '2001-09-28' Tabelle 9.8. Operator + + + - Beispiel timestamp '2001-09-28 01:00' + interval '23 hours' date '2001-09-28' + interval '1 hour' time '01:00' + interval '3 hours' date '2001-09-28' .999') to_char(12.interval '1 hour' time '05:00' .16: Beispiele für to_char (Forts.5. '999th') to_char(485. Des Platzes halber sind diese Varianten nicht getrennt aufgeführt. 'SG999') to_char(-485. timestamp with time zone und eine verwendet time without time zone bzw. 'SG999') to_char(-485.17: Operatoren für Datum/Zeit 156 .18 listet die verfügbaren Operatoren zur Verarbeitung von Datums.17 zeigt das Verhalten der grundlegenden arithmetischen Operatoren (+.5.) 9. Einzelheiten finden Sie in den folgenden Unterabschnitten.

siehe Abschnitt 9. timestamp) date_part(text . siehe auch Abschnitt 9.) Funktion age(timestamp) Ergebnistyp interval Beschreibung Subtraktion vom heutigen Datum Subtraktion heutiges Datum.8.8.8.4 aktuelle Zeit mit Datum. siehe auch Abschnitt 9.8.4 aktuelle Zeit mit Datum.4 aktuelle Zeit.8. timestamp '1957-0613') 43 years 9 mons 27 days age(timestamp.8.8.8. interval '2 years 3 mit extract).4 timeofday() date_trunc('hour'.8. siehe Abschnitt months') 9.4 aktuelle Zeit mit Datum (gleichbedeutend mit current_timestamp).8. siehe Abschnitt 9. siehe Abschnitt 9.1 Teilfeld ermitteln (gleichbedeutend date_part('month'.1 Teilfeld ermitteln.4 aktuelle Zeit mit Datum.17: Operatoren für Datum/Zeit (Forts. timestamp '2001-02mit extract). timestamp '2001-0216 20:38:40') extract(hour from timestamp '2001-0216 20:38:40') extract(month from interval '2 years 3 months') isfinite(timestamp '2001-02-16 21:28:30') isfinite(interval '4 hours') 20 3 2001-02-16 20:00:00+0 0 20 double precision double precision boolean 3 true boolean time timestamp timestamp with time zone text true timeofday() Wed Feb 21 17:01:13. siehe auch Abschnitt 9.1 auf endlichen Wert prüfen (ungleich infinity) auf endlichen Wert prüfen (ungleich infinity) aktuelle Zeit.43 years 8 06-13') mons 3 days age('2001-04-10'.4 Beispiel Ergebnis age(timestamp '1957.8. siehe Abschnitt 9.1 auf angegebene Genauigkeit abschneiden.Funktionen und Operatoren Operator * / Beispiel interval '1 hour' * int '3' interval '1 hour' / int '3' Ergebnis interval '03:00' interval '00:20' Tabelle 9.0 00126 2001 EST Tabelle 9.8. siehe Abschnitt 9.18: Funktionen für Datum/Zeit 157 .2 Teilfeld ermitteln. siehe Abschnitt 9. interval) date_trunc(tex t. timestamp) extract(feld from timestamp) extract(feld from interval) isfinite(times tamp) isfinite(inter val) localtime localtimestamp now() interval date time with time zone timestamp with time zone double precision double precision timestamp Teilfeld ermitteln (gleichbedeutend date_part('hour'. siehe Abschnitt 9. timestamp) current_date current_time current_timest amp date_part(text . siehe Abschnitt 16 20:38:40') 9.

) feld ist ein Name oder eine Zeichenkette. Gültige Feldnamen sind folgende: century Das Jahr geteilt durch 100 SELECT EXTRACT(CENTURY FROM TIMESTAMP '2001-02-16 20:38:40'). (Ausdrücke mit Ergebnistyp date oder time werden automatisch in timestamp umgewandelt und können daher auch verwendet werden. quelle ist ein Wertausdruck vom Typ timestamp oder interval. Ergebnis: 20 Beachten Sie. Ergebnis: 982352320 158 . dass das Ergebnis einfach das Jahr geteilt durch 100 ist und nicht die gebräuchliche Definition eines Jahrhunderts. Ergebnis: 47 epoch Bei date. Jahrhundert gehören.und Zeitangaben Teilfelder.8. date_part EXTRACT (feld FROM quelle) Die Funktion extract ermittelt aus Datums. Der Ergebnistyp der Funktion extract ist double precision. Ergebnis: 16 decade Das Jahr geteilt durch 10 SELECT EXTRACT(DECADE FROM TIMESTAMP '2001-02-16 20:38:40').Kapitel 9 9. wie zum Beispiel das Jahr oder die Stunde.und timestamp-Werten die Anzahl der Sekunden seit 1970-01-01 00:00:00-00 (möglicherweise negativ). welches Feld aus dem Eingabewert ermittelt werden soll. bei interval-Werten die Gesamtzahl der Sekunden in der Zeitspanne SELECT EXTRACT(EPOCH FROM TIMESTAMP '2001-02-16 20:38:40'). Ergebnis: 5 doy Die Nummer des Tages im Jahr (1-365/366) (nur für timestamp-Werte) SELECT EXTRACT(DOY FROM TIMESTAMP '2001-02-16 20:38:40'). Sonntag ist 0) (nur für timestamp-Werte) SELECT EXTRACT(DOW FROM TIMESTAMP '2001-02-16 20:38:40').1 EXTRACT. day Die Nummer des Tages im Monat (1-31) SELECT EXTRACT(DAY FROM TIMESTAMP '2001-02-16 20:38:40'). die angibt. nach der mindestens die Jahre 1900 bis 1999 ins 20. Ergebnis: 200 dow Der Wochentag (0-6.

Ergebnis: 442800 hour Das Stundenfeld (0-23) SELECT EXTRACT(HOUR FROM TIMESTAMP '2001-02-16 20:38:40'). dass das Ergebnis einfach das Jahr geteilt durch 1000 ist und nicht die gebräuchliche Definition eines Jahrtausends. Beinhaltet also auch ganze Sekunden. einschließlich Bruchteile. nach der zum Beispiel die Jahre 1900 bis 1999 ins zweite Jahrtausend gehören. wenn man die Anzahl der Monate durch 12 teilt (0-11) SELECT EXTRACT(MONTH FROM TIMESTAMP '2001-02-16 20:38:40'). einschließlich Bruchteile. Ergebnis: 1 159 . multipliziert mit 1000. Ergebnis: 20 microseconds Das Sekundenfeld. Ergebnis: 2 Beachten Sie. Ergebnis: 28500 minute Das Minutenfeld (0-59) SELECT EXTRACT(MINUTE FROM TIMESTAMP '2001-02-16 20:38:40'). bei interval-Werten der Rest.5'). Ergebnis: 38 month Bei timestamp-Werten die Nummer des Monats im Jahr (1-12). SELECT EXTRACT(MICROSECONDS FROM TIME '17:12:28.Funktionen und Operatoren SELECT EXTRACT(EPOCH FROM INTERVAL '5 days 3 hours'). Ergebnis: 28500000 millennium Das Jahr geteilt durch 1000 SELECT EXTRACT(MILLENNIUM FROM TIMESTAMP '2001-02-16 20:38:40').5'). Ergebnis: 3 SELECT EXTRACT(MONTH FROM INTERVAL '2 years 13 months'). milliseconds Das Sekundenfeld. multipliziert mit 1 000 000. Beinhaltet also auch ganze Sekunden. SELECT EXTRACT(MILLISECONDS FROM TIME '17:12:28. Ergebnis: 2 SELECT EXTRACT(MONTH FROM INTERVAL '2 years 3 months').

Kapitel 9 quarter Das Quartal (1-4) in dem sich der Tag innerhalb des Jahres befindet (nur für timestamp-Werte) SELECT EXTRACT(QUARTER FROM TIMESTAMP '2001-02-16 20:38:40').5 timezone_hour Der Stundenteil des Zeitzonenunterschieds timezone_minute Der Minutenteil des Zeitzonenunterschieds week Die Nummer der Woche. Ergebnis: 7 year Das Jahr SELECT EXTRACT(YEAR FROM TIMESTAMP '2001-02-16 20:38:40'). dass der Parameter feld ein Zeichenkettenwert sein muss. Die Funktion date_part ist der alten Funktion aus Ingres nachempfunden. einschließlich Bruchteile (0-59 2) SELECT EXTRACT(SECOND FROM TIMESTAMP '2001-02-16 20:38:40'). kein Name. in der sich der Tag befindet.und Zeitangaben für die Ausgabe zu formatieren. quelle) Beachten Sie. Ergebnis: 40 SELECT EXTRACT(SECOND FROM TIME '17:12:28. Januar dieses Jahres. Die gültigen Feldnamen für date_part sind dieselben wie bei extract. SELECT EXTRACT(WEEK FROM TIMESTAMP '2001-02-16 20:38:40'). schauen Sie in Abschnitt 9. innerhalb des Jahres. entspricht aber der Funktion extract aus dem SQL-Standard: date_part('feld'. Ergebnis: 1 second Das Sekundenfeld. Laut Definition (ISO 8601) enthält die erste Woche eines Jahres den 4. (Nach ISO 8601 fängt eine Woche am Montag an. Ergebnis: 28. Ergebnis: 16 2. Um Datums. Ergebnis: 2001 Die Funktion extract ist vornehmlich für Berechnungen gedacht.5'). ist der erste Donnerstag eines Jahres in der Woche Nummer 1 dieses Jahres (nur für timestamp-Werte). 60 wenn das Betriebssystem Schaltsekunden unterstützt 160 . TIMESTAMP '2001-02-16 20:38:40').) Anders ausgedrückt.7. SELECT date_part('day'.

) feld bestimmt. bei Tag und Monat). Ergebnis: 2001-01-01 00:00:00+00 9.19 zeigt ihre Varianten.Funktionen und Operatoren SELECT date_part('hour'.3 AT TIME ZONE Die Klausel AT TIME ZONE ermöglicht die Umrechnung von Zeitangaben in andere Zeitzonen. Gültige Werte für feld sind: microseconds milliseconds second minute hour day month year decade century millennium Beispiele: SELECT date_trunc('hour'.8. INTERVAL '4 hours 3 minutes'). Ergebnis: 2001-02-16 20:00:00+00 SELECT date_trunc('year'.2 date_trunc Die Funktion date_trunc entspricht in etwa der Funktion trunc für Zahlen. TIMESTAMP '2001-02-16 20:38:40'). Ergebnis: 4 9.8. die kleiner als das angegebene sind. TIMESTAMP '2001-02-16 20:38:40'). date_trunc('feld'.19: Varianten von AT TIME ZONE 161 . (Werte vom Typ date und time werden automatisch umgewandelt. quelle) quelle ist ein Wertausdruck vom Typ timestamp. Ausdruck timestamp without time zone AT TIME ZONE zone timestamp with time zone AT TIME ZONE zone time with time zone AT TIME ZONE zone Ergebnistyp timestamp with time zone timestamp without time zone time with time zone Beschreibung Ortszeit in angegebener Zeitzone in UTC umwandeln UTC in Ortszeit in angegebener Zeitzone umwandeln Ortszeit in andere Zeitzone übertragen Tabelle 9. wobei alle Felder. Der Rückgabewert ist vom Typ timestamp. Tabelle 9. auf welche Genauigkeit der Wert abgeschnitten werden soll. auf null gesetzt sind (oder eins.

timestamp) ist gleichbedeutend mit der Konstruktion timestamp AT TIME ZONE zone. der die Präzision angibt. 9. nimmt die Zeitzone MST (UTC-7) an.662522-05 SELECT CURRENT_DATE. Nach CURRENT_TIME. um die aktuelle Zeit und/oder das aktuelle Datum abzufragen: CURRENT_DATE CURRENT_TIME CURRENT_TIMESTAMP CURRENT_TIME ( präzision ) CURRENT_TIMESTAMP ( präzision ) LOCALTIME LOCALTIMESTAMP LOCALTIME ( präzision ) LOCALTIMESTAMP ( präzision ) Die Ergebnisse von CURRENT_TIME und CURRENT_TIMESTAMP sind mit Zeitzone. Ergebnis: 2001-02-16 18:38:40 Das erste Beispiel nimmt eine Zeit ohne Zeitzone. wodurch das Ergebnis auf die angegebene Zahl von Nachkommastellen im Sekundenfeld gerundet wird.Kapitel 9 In diesen Ausdrücken kann die gewünschte Zeitzone zone als Zeichenkettenkonstante (z. INTERVAL '-08:00') angegeben werden.B. Einige Beispiele: SELECT CURRENT_TIME.B. Die Funktion timezone(zone. Ergebnis: 2001-02-16 19:38:40-08 SELECT TIMESTAMP WITH TIME ZONE '2001-02-16 20:38:40-05' AT TIME ZONE 'MST'.4 Aktuelle Zeit Die folgenden Funktionen stehen zur Verfügung. 'PST') oder als interval-Wert (z. Letztere entspricht dem SQL-Standard. Das zweite Beispiel nimmt eine Zeit in der Zone EST (UTC-5) und wandelt sie in eine Ortszeit in der Zone MST (UTC-7) um.2 gab es die Präzisionsparameter nicht und das Ergebnis hatte immer nur ganzzahlige Sekunden. Anmerkung Vor PostgreSQL 7. 162 . Ergebnis: 14:39:53. Ohne den Präzisionsparameter enthält das Ergebnis die volle mögliche Präzision. die von LOCALTIME und LOCALTIMESTAMP sind ohne Zeitzone. CURRENT_TIMESTAMP.8. Beispiele (mit aktueller Zeitzone PST8PDT): SELECT TIMESTAMP '2001-02-16 20:38:40' AT TIME ZONE 'MST'. LOCALTIME und LOCALTIMESTAMP kann wahlweise ein Parameter stehen. berechnet die Zeit in UTC und rechnet sie dann in PST (UTC-8) zur Ausgabe um.

Funktionen und Operatoren Ergebnis: 2001-12-23 SELECT CURRENT_TIMESTAMP. dass diese Werte sich auch während einer Transaktion ändern. Das System wandelt now in timestamp um. Das Ergebnis von timeofday() ist allerdings die tatsächliche Zeit. Ergebnis: 2001-12-23 14:39:53. 163 . wenn der Vorgabewert verwendet wird. Alle Datums. SELECT TIMESTAMP 'now'. dass der Vorgabewert die Zeit des Einfügens der Zeile ergibt. Folglich haben alle drei dieser Befehle das gleiche Ergebnis: SELECT CURRENT_TIMESTAMP. die sich auch während einer Transaktion ändert. Daher bieten sie das gewünschte Verhalten. sobald die Konstante gelesen wird.662522 Die Funktion now() ist gleichbedeutend mit CURRENT_TIMESTAMP. Ergebnis: 2001-12-23 14:39:53. wenn Sie eine Tabelle erstellen. Ergebnis: 2001-12-23 14:39:53. Ferner gibt es die Funktion timeofday(). wenn der Vorgabewert benötigt wird. dass CURRENT_TIMESTAMP und die verwandten Funktionen die Startzeit der aktuellen Transaktion ergeben. die Zeit der Erzeugung der Tabelle herauskommen würde! Die ersten beiden Formen werden erst ausgewertet. um die aktuelle Zeit anzugeben.000126 2001 EST Es ist wichtig zu wissen. sodass. weil sie als Funktionsaufrufe zählen. Anmerkung In anderen Datenbanksystemen könnte es sein. Sie ist eine traditionelle.und Zeittypen akzeptieren außerdem die spezielle Konstante now als Eingabe. Anmerkung Die dritte Form sollten Sie höchstwahrscheinlich nicht in einer DEFAULT-Klausel verwenden.66-05 SELECT LOCALTIMESTAMP. ihre Ergebnisse ändern sich während einer Transaktion nicht. PostgreSQLspezifische Variante. Ergebnis: Sat Feb 17 19:07:32. welche aus historischen Gründen einen Wert vom Typ text anstatt timestamp zurückgibt: SELECT timeofday().662522-05 SELECT CURRENT_TIMESTAMP(2). SELECT now().

welche in Tabelle 9.2))' box '((0.(1.3))' &> box '((0.(3.20: Geometrische Operatoren 164 .2)' @@ circle '((0.point '(0.0))' ?# box '((-2.2))' / point '(2.1).0). line.0).(1.20. polygon und circle haben eine große Zahl zugehöriger Funktionen und Operatoren.0).(0.(2.1)' circle '((0.22 gezeigt werden.1))' ?-| lseg '((0.1)' lseg '((-1.0.(0.0))' ?|| lseg '((1.(2.0).1)' circle '((0.1))' && box '((0.(1.2))' point '(1.1))' .0).0)' lseg '((0.0).0).1)' >^ circle '((0.-1).1).0))' @-@ path '((0.0).0).0).1))' * point '(2.(0.(1.9 Geometrische Funktionen und Operatoren Die geometrischen Typen point.2))' point '(1.0).0)' box '((0.1)' ?| point '(0.(-1.21 und Tabelle 9.0).(0.10)' polygon '((0.0).0)' box '((0.1)' >> circle '((0.-1))' # '((1.1))' # '((1.0).(1.1)' circle '((5.0)' lseg '((-1.0))' point '(0.0).2).(1.0). Tabelle 9.0).(2.0)' box '((0.(1.1))' + point '(2.1)' <-> circle '((5.0)' ?.0).0)' ## lseg '((2.2).(-1.(1.1).(2.5).0))' Tabelle 9.5).0). path.0). lseg.0).0))' point '(0.0).2))' circle '((0.Kapitel 9 9.0).0).(-1.0).(1.2))' box '((0.0). Operator + * / # # ## && &< &> <-> << <^ >> >^ ?# ??-| @-@ ?| ?|| @ @@ ~= Beschreibung Verschiebung Verschiebung Dehnung/Drehung Dehnung/Drehung Schnittpunkt oder -rechteck Anzahl der Punkte in Pfad oder Polygon zu erstem Operanden nächstliegender Punkt auf zweitem Operanden liegt Überschneidung vor? liegt Überschneidung links vor? liegt Überschneidung rechts vor? Abstand liegt links von? liegt unterhalb von? liegt rechts von? liegt oberhalb von? schneidet? ist horizontal? steht senkrecht auf? Länge oder Umfang ist vertikal? sind parallel? liegt innerhalb oder darauf? Mittelpunkt identisch? Beispiel box '((0.1)' @ circle '((0.0.0.(1.0.(1.point '(2.1)' <^ circle '((0.1))' &< box '((0.(2.1))' ~= polygon '((1.0)' '((1.2))' box '((0. box.1)' circle '((0.1)' << circle '((5.0).0).

2.0).5. double precision) lseg(box) lseg(point.0)') point(lseg '((-1.(1.-2). 2.0)'.(1.2.0).0).(0.0).(2.(1.(1.(1.(1.1))') Pfad in geschlossenen umwandeln popen(path Pfad in offenen umwandeln Radius des Kreises Breite des Rechtecks Tabelle 9. point) path(polygon) point(circle) point(lseg.0).(1.(2.0).22: Geometrische Typumwandlungsfunktionen 165 . point) box(polygon) circle(box) circle(point.0.0))') Tabelle 9.(2.0))') circle(box '((0.0). point '(1.(1.2.0))') lseg(point '(-1.(1.(2.21: Geometrische Funktionen Funktion box(circle) box(point.1).0))') isopen(path '[(0.(2.1))') isclosed(path '((0.0).0).(2.(1.(2.0).0).0)'.0)') path(polygon '((0. lseg) point(polygon) Ergebnistyp box box box circle circle lseg lseg point point point point Beschreibung Kreis in Rechteck Punkte in Rechteck Polygon in Rechteck Rechteck in Kreis Punkt und Radius in Kreis Rechteckdiagonale in Strecke Punkte in Strecke Polygon in Pfad Mittelpunkt des Kreises Schnittpunkt Mittelpunkt des Polygons Beispiel box(circle '((0.0))') point(circle '((0.0).0))') radius(circle '((0.0)') width(box '((0.2))') center(box '((0.1).1))') circle(point '(0.(1.0).0))') '[(0.(2.0).0) lseg(box '((-1.1).0)]') npoints(polygon '((1.0)') height(box '((0.2))') point(polygon '((0.2.0))') npoints(path '[(0.1).1)') box(polygon '((0.1))') box(box '((0.2))') diameter(circle '((0.0)]') length(path '((1. point '(1. box) center(objekt) diameter(circle ) height(box) isclosed(path) isopen(path) length(objekt) npoints(path) npoints(polygon ) pclose(path) popen(path) radius(circle) width(box) Ergebnistyp double precision box point double precision double precision boolean boolean double precision integer integer path path double precision double precision Beschreibung Flächeninhalt Schnittrechteck Mittelpunkt Durchmesser des Kreises Höhe des Rechtecks geschlossener Pfad? offener Pfad? Länge Anzahl der Punkte Anzahl der Punkte Beispiele area(box '((0.1).0).Funktionen und Operatoren Funktion area(objekt) box(box.0).(1.0).0)]') popen(path '((0.box '((0.(1.0)'.1).1))'.(2.0).(1.(2. lseg '((-2.5).0).1).1).0))'.0)') box(point '(0.(1.1).(1.0).0).(1.

168.1.p eine Spalte vom Typ point ist.6' inet '192.1))') Kreis in 12-Punkte Polygon polygon(circle '((0.24 zeigt die Funktionen.) Es ist möglich.5' > inet '192. Die Operatoren <<.1..5/24') /24 host('192.5/ 24') 192. die für die Typen cidr und inet zur Verfügung stehen.22: Geometrische Typumwandlungsfunktionen (Forts.168. 9. als ob point ein Array mit Indizes 0 und 1 wäre.1/24' inet '192.0).1.0).1.1.1.0).168.168. Die Funktionen host.1. ob ein Subnetz in einem anderen Netz enthalten ist.1.168.(2.168. text und abbrev bieten in der Hauptsache alternative Ausgabeformate für Werte dieser Typen. Funktion broadcast(inet) host(inet) Ergebnistyp Beschreibung inet text Beispiel Ergebnis Broadcast-Adresse des Netzwerks IP-Adresse als Text auslesen broadcast('192.10 Funktionen für Netzwerkadresstypen Tabelle 9.1.1.23: Operatoren für cidr und inet Tabelle 9.1.1/24' <<= inet '192.24: Funktionen für cidr und inet 166 .0).1/24' inet'192.0)') Kreis in npkte-Punkte-Polygon polygon(12.168.1 192.5 Tabelle 9.1.1. >> und >>= überprüfen. ändert die Y-Koordinate. auf die beiden Zahlen in einem Wert des Typs point zuzugreifen..5' = inet '192.1.5' inet '192.168.5' inet '192.168. <<=.168. circle) polygon(path) Ergebnistyp polygon polygon polygon polygon Beschreibung Beispiel Rechteck in 4-Punkte-Polygon polygon(box '((0.1/24' >>= inet '192.168.168.4' inet '192.168.168.Kapitel 9 Funktion polygon(box) polygon(circle) polygon(npkte.5' << inet '192.1/24' Tabelle 9. die für die Typen cidr und inet zur Verfügung stehen.255 .5' < inet '192.1/24' >> inet '192. Operator < <= = >= > <> << <<= >> >>= Beschreibung ist kleiner als ist kleiner als oder gleich ist gleich ist größer als oder gleich ist größer als ist ungleich ist enthalten in ist enthalten in oder ist gleich enthält enthält oder ist gleich Beispiel inet '192.5' inet '192.1).168. dann ergibt SELECT p[0] FROM t die X-Koordinate und UPDATE t SET p[1] = . circle Pfad in Polygon polygon(path '((0.168.168.5' <= inet '192.5' >= inet '192.5' <> inet '192.168.4' inet '192.5' inet '192. Ebenso können Werte vom Typ box und lseg als Array zweier Werte vom Typ point behandelt werden.1. Sie können einen Textwert mit der normalen Umwandlungssyntax in inet umwandeln: inet(ausdruck) oder spaltennamen::inet.168.(1.2. Sie betrachten dafür nur den Netzwerkteil der beiden Adressen und ignorieren einen möglichen Host-Teil.168.168.2.0))') Tabelle 9.168. Wenn zum Beispiel t.23 zeigt die Operatoren.168.(1.1.0)') '((0.168.1.

Die Sequenzfunktionen.) Tabelle 9.1.25 zeigt die Funktionen.1.5/ . bigint.5') auslesen abbrev(inet) text abgekürztes Ausgabeformat als Text abbrev(cidr '10.168.) zur lexikographischen Sortierung.11 Funktionen zur Bearbeitung von Sequenzen Dieser Abschnitt beschreibt die Funktion von PostgreSQL zur Verwendung mit Sequenzobjekten.26: Sequenzfunktionen 167 .i nteger) netmask(inet) network(inet) text(inet) Ergebnistyp Beschreibung integer inet inet cidr text Beispiel Ergebnis Netzmaskenlänge auslesen Netzmaskenlänge für inet-Wert setzen masklen('192. Funktion trunc(macaddr) Ergebnistyp Beschreibung macaddr Beispiel trunc(macaddr '12:34:56:78:90:ab') Ergebnis 12:34:56:00:00:00 letzte 3 Bytes auf null setzen Tabelle 9.0. welche in Tabelle 9. der zuletzt durch nextval erzeugt wurde aktuellen Wert der Sequenz setzen aktuellen Wert der Sequenz und den Parameter is_called setzen Tabelle 9.0/16') Tabelle 9.1. um laufende Werte aus Sequenzobjekten zu erhalten.16) 16 Netzmaske des Netzwerks netmask('192.1. bieten einfache und für den Mehrbenutzerbetrieb geeignete Methoden.0 /24') ermitteln Netzwerkteil der Adresse auslesen network('192.168. Ein Sequenzobjekt wird normalerweise verwendet.255. Damit kann der übrig gebliebene Präfix mit einem Hersteller in Verbindung gebracht werden. Das Verzeichnis contrib/mac in der Quelltext-Distribution enthält einige Hilfsmittel.168 192.168.168.168. <= usw. Die Funktion trunc(macaddr) ergibt die MAC-Adresse mit den letzten 3 Bytes auf null gesetzt.26 gelistet sind.5/ 32 10. die mit dem Befehl CREATE SEQUENCE erzeugt werden.5 192.Funktionen und Operatoren Funktion masklen(inet) set_masklen(inet. bigint) setval(text. die für den Typ macaddr zur Verfügung stehen.1.168.25: Funktionen für macaddr Der Typ macaddr hat auch die normalen Vergleichsoperatoren (>.5 255.255.1. boolean) Ergebnistyp bigint bigint bigint bigint Beschreibung Sequenz erhöhen und neuen Wert zurückgeben Wert.1. Funktion nextval(text) currval(text) setval(text. um für die Zeilen einer Tabelle laufende Nummern zur eindeutigen Identifikation zu erzeugen.0/ /24') 24 192.1.168.1/16 text(inet IP-Adresse und Netzmaskenlänge als Text '192.5/24'. Sequenzobjekte (auch Sequenzgeneratoren oder einfach Sequenzen genannt) sind besondere Tabellen mit einer einzigen Zeile.1.24: Funktionen für cidr und inet (Forts.5 24 /24') set_masklen('192. 9. um eine solche Assoziierungstabelle zu erstellen und zu pflegen.

später abgebrochen wird. Also gilt: nextval('foo') betrifft die Sequenz foo nextval('FOO') betrifft die Sequenz foo nextval('"Foo"') betrifft die Sequenz Foo Der Sequenzname kann. Das heißt. erhält jede Sitzung einen unterschiedlichen Sequenzwert. dann ergibt der nächste Aufruf von nextval genau den angegebenen Wert und die Erhöhung der Sequenz beginnt erst mit den folgenden Aufruf von nextval. Das geschieht atomar: Selbst wenn mehrere Sitzungen nextval gleichzeitig aufrufen. die gleichzeitig Zahlen von einer Sequenz erhalten wollen. false). Das bedeutet. In der Form mit drei Argumenten kann is_called auf wahr oder falsch gesetzt werden. sich gegenseitig blockieren. Um eine gewisse Kompatibilität mit der Behandlung von normalen SQL-Namen zu erreichen. 42). wenn notwendig. dass das Ergebnis speziell für diese Sitzung gilt und auch noch gültig bleibt.Kapitel 9 Aus im Großen und Ganzen historischen Gründen wird die Sequenz. durch ein Textargument angegeben. true). Die Form mit zwei Argumenten setzt das Feld last_value (letzter Wert) der Sequenz auf den angegebenen Wert und setzt das Feld is_called auf logisch wahr.foo') ebenso nextval('foo') sucht im Pfad nach foo Natürlich kann das Textargument ein Ausdruck sein und nicht nur eine einfach Konstante.foo') betrifft meinschema. Wichtig Um zu verhindern. dass Transaktionen. (Ein Fehler wird ausgegeben. Wenn es auf falsch gesetzt wird. dass abgebrochene Transaktionen unbenutzte “Löcher” in der Reihe der erzeugten Werte verursachen können. der zuletzt in der aktuellen Sitzung von nextval für diese Sequenz zurückgegeben wurde. wenn zur selben Zeit in anderen Sitzungen nextval ausgerufen wird. Die verfügbaren Sequenzfunktionen sind: nextval Erhöhe die Sequenz zum nächsten Wert und gib diesen Wert zurück. werden nextval-Operationen nicht zurückgerollt. die durch eine Sequenzfunktion bearbeitet wird. selbst wenn die Transaktion. setval Stellt den Zähler für diese Sequenz zurück. Zum Beispiel: SELECT setval('foo'. wandeln die Sequenzfunktionen ihre Argumente in Kleinbuchstaben um. Das kann gelegentlich nützlich sein. SELECT setval('foo'. um einen Schemanamen ergänzt werden: nextval('meinschema. SELECT setval('foo'. currval Gib den Wert zurück. 168 . bevor ein Wert zurückgegeben wird. die nextval aufgerufen hatte. außer wenn die Zeichenkette in Anführungszeichen steht. dann wird er als verwendet betrachtet. wenn nextval für diese Sequenz in dieser Sitzung noch nie aufgerufen wurde. 42. wenn ein Wert einmal abgegeben wurde. Nächster nextval ergibt 43 ebenso Nächster nextval ergibt 42 Das Ergebnis von setval ist einfach der Wert des zweiten Arguments. 42.) Beachten Sie. was heißt. dass der nächste Aufruf von nextval den Sequenzwert erst erhöht. setval-Operationen werden auch nicht zurückgerollt.foo nextval('"meinschema".

ist das Ergebnis der NULL-Wert.. werden etwaige folgende WHERE-Klauseln auf dieselbe Art durchsucht. Wenn keine der Bedingungen in WHERE wahr ist. CASE WHEN a=1 THEN 'one' WHEN a=2 THEN 'two' ELSE 'other' 169 . ergeben Aufrufe von nextval aufeinander folgende Werte bei 1 beginnend. Wenn das Ergebnis logisch wahr ist. 9. welche auch dem SQL-Standard entsprechen. ähnlich if/else-Anweisungen in anderen Sprachen: CASE WHEN bedingung THEN ergebnis [WHEN .] [ELSE ergebnis] END CASE-Klauseln können überall verwendet werden. Tipp Wenn Ihre Anforderungen die von diesen konditionalen Ausdrücken gebotenen Fähigkeiten überschreiten. Wenn die ELSE-Klausel weggelassen wurde und keine Bedingung stimmt.Funktionen und Operatoren Wenn ein Sequenzobjekt mit den Vorgabewerten erstellt wurde. 9.12 Konditionale Ausdrücke Dieser Abschnitt beschreibt die in PostgreSQL verfügbaren konditionalen Ausdrücke. siehe die Referenzseite des Befehls für weitere Informationen. wo ein Ausdruck gültig ist. dann ist das Ergebnis des CASE-Ausdrucks das nach der Bedingung stehende ergebnis. a --1 2 3 SELECT a. Wenn das Ergebnis aber falsch ist.. dann ist das Ergebnis des CASE-Ausdrucks das ergebnis in der ELSE-Klausel. Ein Beispiel: SELECT * FROM test. der ein Ergebnis vom Typ boolean liefert. eine serverseitige Prozedur in einer ausdrucksfähigeren Sprache zu schreiben. Andere Verhalten können mit besonderen Parametern in dem Befehl CREATE SEQUENCE eingestellt werden. sollte Sie in Erwägung ziehen.1 CASE Der CASE-Ausdruck ist ein allgemeiner konditionaler Ausdruck. bedingung ist ein Ausdruck.12.

bis eine gefunden wird.2 COALESCE COALESCE(wert [.. Das kann oft nützlich sein. '(keine)') . 170 . Wenn keine Übereinstimmung gefunden wird. a | case ---+------1 | one 2 | two 3 | other Es muss möglich sein. Der folgende “einfache” CASE-Ausdruck ist eine spezialisierte Variante der oben beschriebenen Form: CASE ausdruck WHEN wert THEN ergebnis [WHEN . dann wird das ergebnis in der ELSEKlausel (bzw. CASE a WHEN 1 THEN 'one' WHEN 2 THEN 'two' ELSE 'other' END FROM test. Das obige Beispiel kann mit der einfachen CASE-Syntax geschrieben werden: SELECT a.12. kurzbeschreibung. .] [ELSE ergebnis] END ausdruck wird berechnet und mit allen wert-Angaben in den WHERE-Klauseln verglichen.. der NULL-Wert) zurückgegeben.. Siehe Abschnitt 10.Kapitel 9 END FROM test. zum Beispiel: SELECT COALESCE(beschreibung..]) Die Funktion COALESCE gibt das erste ihrer Argumente zurück. um bei der Ausgabe für NULL-Werte einen Vorgabewert einzusetzen. a | case ---+------1 | one 2 | two 3 | other 9. die Datentypen aller ergebnis-Ausdrücke in einen einzigen Ergebnistyp umzuwandeln..5 bezüglich Einzelheiten. Diese Konstruktion ist also mit der switch-Anweisung in C vergleichbar.. welches nicht NULL ist. die gleich ist.

das am Anfang des Suchpfads steht (oder den NULL-Wert. er ändert sich während der gesamten Verbindung nicht. Ansonsten wird wert1 zurückgegeben.Funktionen und Operatoren 9. current_schemas(boolean) ergibt ein 171 . der von der Funktion session_user ermittelt wird. wert2) Die Funktion NULLIF ergibt den NULL-Wert genau dann. Normalerweise sind beide Benutzer gleich. ist der Benutzer. 9.und Systeminformationen ermitteln. um die Umkehrung des COALESCEBeispiels von oben durchzuführen: SELECT NULLIF(wert.12. die sich auf CASE beziehen. Name current_database() current_schema() Ergebnistyp name name Beschreibung Name der aktuellen Datenbank Name des aktuellen Schemas Namen der Schemas in Suchpfad. wahlweise einschließlich der impliziten Schemas Benutzername der aktuellen Ausführungsumgebung Benutzername der Sitzung äquivalent mit current_user PostgreSQL-Versionsinformationen current_schemas(boolean) name[] current_user session_user user version() name name name text Tabelle 9. Anmerkung current_user.27 zeigt einige Funktionen. aber current_user ändert sich während der Ausführung von Funktionen mit dem Attribut SECURITY DEFINER.. Der Benutzer. Diese Funktion kann verwendet werden. die Sitzungs. Tipp COALESCE und NULLIF sind eigentlich nur Kurzformen von CASE-Ausdrücken. der für die Prüfung von Zugriffsrechten verwendet wird. wenn der Suchpfad leer ist). Eine fehlerhafte Verwendung von COALESCE oder NULLIF kann daher zu Fehlermeldungen führen.3 NULLIF NULLIF(wert1. current_schema gibt das Schema zurück.. wenn wert1 und wert2 gleich sind. Sie werden beim Parsen früh in CASE-Ausdrücke umgewandelt und in der folgenden Verarbeitung wird dann gedacht. session_user und user haben einen besonderen syntaktischen Status in SQL: Sie müs- sen ohne Klammern aufgerufen werden. in dem Tabellen oder andere Objekte angelegt werden. der die Datenbankverbindung eingeleitet hat. Im Unix-Jargon wäre session_user der “reale Benutzer” und current_user der “effektive Benutzer”. wenn bei deren Erzeugung kein Schema angegeben wird. der von der Funktion current_user zurückgegeben wird.27: Sitzungsinformationsfunktionen Der Benutzer. man hat es mit wirklichen CASE-Ausdrücken zu tun. Das ist das Schema. ist der Benutzer.13 Diverse Funktionen Tabelle 9. '(keine)') .

. set_config -----------off (1 row) Tabelle 9. Tabelle 9. im Ergebnis mit auftauchen. current_setting --------------------------------------ISO with US (NonEuropean) conventions (1 row) set_config setzt den Konfigurationsparameter parametername auf neuer_wert. die die Version des PostgreSQL-Servers beschreibt. . Ein Beispiel: SELECT set_config('show_statement_stats'. neuer_wert.schema . 'off'.] Die Funktion version() ergibt eine Zeichenkette. wie zum Beispiel pg_catalog. lokal) text Tabelle 9.Kapitel 9 Array mit den Namen aller Schemas. Sie entspricht dem SQL-Befehl SHOW. Die Funktion entspricht dem SQL-Befehl SET. privileg) has_table_privilege(tabelle.28 zeigt die Funktionen zur Abfrage und Veränderung von Konfigurationsparametern. Name has_table_privilege(benutzer.28: Funktionen zur Kontrolle von Konfigurationsparametern Die Funktion current_setting ergibt den aktuellen Wert des Konfigurationsparameters parametername als Teil eines Anfrageergebnisses. Name current_setting(parametername) Ergebnistyp Beschreibung text aktueller Wert des Parameters setzt Parameter und gibt neuen Wert zurück set_config(parametername.6. Der Befehl lautet: SET search_path TO schema [..29: Funktionen zur Abfrage von Zugriffsprivilegien 172 . Die boolean-Option bestimmt. tabelle. die Zugriffsprivilegien für Objekte programmatisch zu untersuchen. Anmerkung Der Suchpfad kann zur Laufzeit geändert werden. dann geben Sie logisch falsch an. Wenn lokal logisch wahr ist. Weitere Informationen über Privilegien finden Sie in Abschnitt 5. Ein Beispiel: SELECT current_setting('datestyle'). false). dann gilt der neue Wert nur für die aktuelle Transaktion. privileg) Ergebnistyp boolean boolean Beschreibung Benutzer hat Privileg für Tabelle aktueller Benutzer hat Privileg für Tabelle Tabelle 9.29 listet Funktionen. ob implizite Systemschemas. die gegenwärtig im Suchpfad sind. Wenn der neue Wert für die aktuelle Sitzung gelten soll. die es dem Benutzer ermöglichen.

sind die erlaubten Eingabewerte die gleichen wie beim Datentyp regprocedure. die feststellen. Gleichbedeutend heißt. privileg) boolean boolean boolean boolean boolean boolean boolean Tabelle 9. privileg) has_function_privilege(benutzer. wenn das Schema. wenn nötig.30 zeigt Funktionen. TEMPORARY oder TEMP (was äquivalent mit TEMPORARY ist) sein. schema. dann wird current_user angenommen. privileg) has_function_privilege(funktion. privileg) has_language_privilege(benutzer. datenbank. das sie enthält. Eine Tabelle wird als sichtbar bezeichnet. kann er.29: Funktionen zur Abfrage von Zugriffsprivilegien (Forts. um die Namen aller sichtbaren Tabellen anzuzeigen: 173 . durch ein Schema ergänzt werden. funktion. Die Tabelle kann als Name oder als OID angegeben werden. (Es gibt also eigentlich sechs Varianten von has_table_privilege. ob ein bestimmtes Objekt im aktuellen Schemasuchpfad sichtbar ist. (Groß.oder Kleinschreibung ist unerheblich. Die möglichen Argumente sind analog zu has_table_privilege. Das gewünschte Zugriffsprivileg muss gegenwärtig immer gleich USAGE sein. im Suchpfad steht und keine Tabelle mit dem gleichen Namen vorher im Suchpfads steht. privileg) has_schema_privilege(schema. Das gewünschte Zugriffsprivileg wird durch eine Zeichenkette angegeben. Wenn die Funktion als Zeichen- kette statt als OID angegeben wird. has_function_privilege prüft. RULE. ob ein Benutzer auf eine Tabelle auf eine bestimmte Art zugreifen darf.meinetabelle'. ohne einen Schemanamen anzugeben. Folgende Anfrage kann zum Beispiel verwendet werden. ob ein Benutzer auf eine Funktion auf eine bestimmte Art zugreifen darf. has_database_privilege prüft. Die möglichen Argumente sind analog zu has_table_privilege. ob ein Benutzer auf eine prozedurale Sprache auf eine bestimmte Art zugreifen darf. wenn das Argument ausgelassen wird. dass auf die Tabelle verwiesen werden kann. 'select').Funktionen und Operatoren Name Ergebnistyp Beschreibung Benutzer hat Privileg für Datenbank aktueller Benutzer hat Privileg für Datenbank Benutzer hat Privileg für Funktion aktueller Benutzer hat Privileg für Funktion Benutzer hat Privileg für Sprache aktueller Benutzer hat Privileg für Sprache Benutzer hat Privileg für Schema aktueller Benutzer hat Privileg für Schema has_database_privilege(benutzer. Das gewünschte Zugriffsprivileg muss gleich CREATE. UPDATE. ob ein Benutzer auf eine Datenbank auf eine bestimmte Art zugreifen darf. welche gleich einem der folgenden Werte sein muss: SELECT. ob ein Benutzer auf ein Schema auf eine bestimmte Art zugreifen darf. Die möglichen Argumente sind analog zu has_table_privilege. welche sich durch die Zahl und die Typen der Argumente unterscheiden. Das gewünschte Zugriffsprivileg muss gegenwärtig immer gleich EXECUTE sein.usesysid) angegeben werden.) has_table_privilege prüft. INSERT. privileg) has_language_privilege(sprache. privileg) boolean has_database_privilege(datenbank.) Ein Beispiel ist: SELECT has_table_privilege('meinschema. privileg) has_schema_privilege(benutzer.) Wenn ein Name angegeben wird. has_schema_privilege prüft. Das gewünschte Zugriffsprivileg muss gleich CREATE oder USAGE sein. has_language_privilege prüft. DELETE. sprache. Tabelle 9. Die möglichen Argumente sind analog zu has_table_privilege. REFERENCES oder TRIGGER. Der Benutzer kann als Name oder als ID (pg_user.

eines Index bzw. pg_get_indexdef bzw. eines Constraints erforderlich ist. dass es keinen Sinn macht. regtype.) pg_get_constraintdef nur mit Fremdschlüssel-Constraints.31: Systemkataloginformationsfunktionen Die in Tabelle 9. Operatorklassen aus. wenn es kein anderes Objekt mit dem gleichen Namen und den gleichen Argumentdatentypen vorher im Pfad gibt. einer Regel. die Informationen aus den Systemkatalogen herausholen. muss er auch sichtbar sein. 174 . um das zu überprüfende Objekt zu identifizieren. Bei Funktionen und Operatoren gilt. pg_get_constraintdef rekonstruie- ren den Befehl. zum Beispiel: SELECT pg_type_is_visible('myschema.widget'::regtype). pg_type_is_visible. einen unqualifizierten Namen auf diese Art zu überprüfen.31 listet Funktionen. dass dies eine Wiederzusammensetzung ist und nicht der Originaltext des Befehls. Ein NULL-Wert wird zurückgegeben. pg_function_is_visible. können Sie die OID-Aliastypen (regclass. der zur angegebenen Benutzernummer gehört. der zur Erzeugung einer Sicht. Funktionen. denn wenn der Name überhaupt erkannt würde. Beachten Sie. Operatoren bzw. Bei Operatorklassen wird sowohl der Name als auch die zugehörige Indexmethode betrachtet. pg_get_viewdef.30: Funktionen zur Überprüfung der Schemasichtbarkeit pg_table_is_visible führt die Überprüfung für Tabellen (oder Sichten oder andere Objekte mit Eintrag in pg_class) aus. pg_operator_ is_visible und pg_opclass_is_visible führen die gleiche Art von Sichtbarkeitsprüfung für Daten- typen. Tabelle 9. Wenn Sie ein Objekt dem Namen nach überprüfen wollen. wenn kein passender Kommentar für die angegebenen Parameter gefunden werden konnte.32 gezeigten Funktionen ermitteln Kommentare. Gegenwärtig funktioniert pg_get_userbyid ermittelt den Benutzernamen. welche vorher mit dem Befehl COMMENT erzeugt wurden. Alle diese Funktionen verlangen die OID. ein Objekt im Suchpfad ist sichtbar. pg_get_ruledef.Kapitel 9 SELECT relname FROM pg_class WHERE pg_table_is_visible(oid). (Beachten Sie. Name pg_table_is_visible(tabellen_oid) pg_type_is_visible(typ_oid) pg_function_is_visible(funktions_oid) pg_operator_is_visible(operator_oid) pg_opclass_is_visible(opklassen_oid) Ergebnistyp boolean boolean boolean boolean boolean Beschreibung ist Tabelle im Suchpfad sichtbar ist Typ im Suchpfad sichtbar ist Funktion im Suchpfad sichtbar ist Operator im Suchpfad sichtbar ist Operatorklasse im Suchpfad sichtbar Tabelle 9. Name pg_get_viewdef(sicht_name) pg_get_viewdef(sicht_oid) pg_get_ruledef(regel_oid) pg_get_indexdef(index_oid) pg_get_constraintdef(constraint _oid) pg_get_userbyid(benutzer_id) Ergebnistyp text text text text text name Beschreibung ermittle CREATE VIEW-Befehl für Sicht (veraltet) ermittle CREATE VIEW-Befehl für Sicht ermittle CREATE RULE-Befehl für Sicht ermittle CREATE INDEX-Befehl für Index ermittle Definition des Constraints ermittle Benutzername für Benutzernummer Tabelle 9. regprocedure oder regoperator) verwenden.

da es keine Garantie dafür gibt.2. der die angegebene OID hat und der im angegebenen Systemkatalog gespeichert ist. double precision oder numeric gleich dem Argumenttyp gleich dem Argumenttyp stddev(ausdruck) double precision für Fließkommaargumente. ansonsten gleich dem Argumentdatentyp bigint bigint count(*) count(ausdruck) Anzahl der Eingabewerte Anzahl der Eingabewerte. 9. bigint. da Spalten keine eigenen OIDs haben.33 zeigt die eingebauten Aggregatfunktionen. double precision Beschreibung Durchschnitt (arithmetisches Mittel) aller Eingabewerte für Fließkommaargumente. welche durch die OID ihrer Tabelle und der Spaltennummer angegeben wird. real. obj_description kann für Tabellenspalten nicht ver- wendet werden. Diese Form ist jetzt nicht mehr empfohlen. double precision. bigint. katalog_name) obj_description(objekt_oid) col_description(tabellen_oid. spaltennummer) Ergebnistyp text text text Beschreibung ermittle Kommentar für Datenbankobjekt ermittle Kommentar für Datenbankobjekt (veraltet) ermittle Kommentar für Tabellenspalte Tabelle 9. für die ausdruck nicht gleich dem NULL-Wert ist Maximalwert von ausdruck aus allen Eingabewerten Minimalwert von ausdruck aus allen Eingabewerten Standardabweichung der Eingabewerte egal max(ausdruck) min(ausdruck) numerisch. Zeichenkette oder Datum/Zeit numerisch. Die besonderen Syntaxanforderungen für Aggregatfunktionen werden in Abschnitt 4. integer. ansonsten numeric Tabelle 9.32: Funktionen zur Ermittlung von Kommentaren Die Form von obj_description mit zwei Parametern gibt den Kommentar des Datenbankobjekts zurück. real. Die Form von obj_description mit einem Parameter braucht nur die OID des Objekts. daher könnte der falsche Kommentar zurückgegeben werden.5 erklärt. In Teil I finden Sie weiteres einführendes Material dazu. dass OIDs über alle Systemkataloge eindeutig sind.33: Aggregatfunktionen 175 . Funktion avg(ausdruck) Argumenttyp smallint. Zum Beispiel würde obj_description(123456. Zeichenkette oder Datum/Zeit smallint.'pg_class') den Kommentar für die Tabelle mit der OID 123456 ermitteln. numeric oder interval Ergebnistyp numeric für ganzzahlige Argumente. Tabelle 9. col_description gibt den Kommentar für eine Tabellenspalte zurück. integer.Funktionen und Operatoren Name obj_description(objekt_oid.14 Aggregatfunktionen Aggregatfunktionen berechnen ein einzelnes Ergebnis aus einer Sammlung von Eingabewerten.

double precision oder numeric Fließkommaargumente. wenn keine Zeilen ausgewählt sind. 9. alle EXISTS-Prüfungen in der Form EXISTS(SELECT 1 WHERE . Es gibt von dieser Regel jedoch Ausnahmen. double precision. integer. Die Funktion coalesce kann verwendet werden. numeric für bigint-Argumente.B. Alle hier beschriebenen Ausdrücke haben einen Rückgabewert vom Typ boolean (wahr/falsch). ansonsten numeric Varianz der Eingabewerte (Quadrat der Standardabweichung) Tabelle 9. Es ist daher gebräuchlich. Die Unteranfrage wird ausgewertet. und nicht. ob sie irgendwelche Zeilen ergibt. Es ist nicht zu empfehlen. könnte schwer vorherzusagen sein. nicht bis zum Ende. wenn gewünscht. dass außer count all diese Funktionen den NULL-Wert zurückgeben.. Insbesondere ergibt sum ohne Zeilen den NULL-Wert und nicht numerisch null. real. SQL-konformen Ausdrücke mit Unteranfragen. welche sich dann bei jeder einzelnen Auswertung der Unteranfrage als Konstanten verhalten. 9. die Nebeneffekte hat (z. Da das Ergebnis nur davon abhängt. um NULL-Werte.Kapitel 9 Funktion sum(ausdruck) Argumenttyp smallint. bigint. Die Unteranfrage wird im Allgemeinen nur so weit ausgeführt. ansonsten gleich dem Argumenttyp double precision für variance(ausdruck) smallint.15 Ausdrücke mit Unteranfragen Dieser Abschnitt beschreibt die in PostgreSQL vorhandenen. ob irgendwelche Zeilen zurückgegeben werden. ob mindestens eine Zeile zurückgegeben wird. double precision für Beschreibung Summe von ausdruck für alle Eingabewerte Fließkommaargumente. die INTERSECT verwenden. das Aufrufen von Sequenzfunktionen). real. 176 . durch andere Werte zu ersetzen. um festzustellen. integer. ist das Ergebnis von EXISTS “falsch”. selbst wenn es mehrere passende Zeilen in tab2 gibt: SELECT col1 FROM tab1 WHERE EXISTS(SELECT 1 FROM tab2 WHERE col2 = tab1. aber es erzeugt höchstens eine Ergebniszeile für jede Zeile in tab1. ist die Ergebnismenge der Unteranfrage normalerweise uninteressant. was man vielleicht erwartet hätte.oder integer-Argumente.1 EXISTS EXISTS ( unteranfrage ) Das Argument von EXISTS ist ein beliebiger SELECT-Befehl oder eine Unteranfrage. bigint. wenn die Unteranfrage keine Zeilen liefert. ob die Nebeneffekte auftreten.15. Die Unteranfrage kann auf Variablen aus der übergeordneten Anfrage verweisen. Wenn Sie mindestens eine Zeile liefert.) zu schreiben. Dieses einfache Beispiel ist wie ein innerer Verbund über col2.) Es ist anzumerken.33: Aggregatfunktionen (Forts.col2). eine Unteranfrage zu schreiben. bis festgestellt werden kann. numeric oder interval Ergebnistyp bigint für smallint.. ist das Ergebnis von EXISTS “wahr”. wie zum Beispiel bei Unteranfragen. was der Inhalt der Zeilen ist.

dass dann das Ergebnis von IN nicht “falsch”. wenn der linke Ausdruck den NULL-Wert ergibt oder wenn es keinen gleichen Ausdruck auf der rechten Seite gibt und mindestens eine Zeile rechts den NULL-Wert ergibt.Funktionen und Operatoren 9. Der Ausdruck auf der linken Seite wird ausgewertet und mit jeder Zeile des Anfrageergebnisses verglichen.. Das Ergebnis von IN ist “wahr”.. werden NULL-Werte in den Ausdrücken und Anfragezeilen gemäß den normalen SQLRegeln für logische Ausdrücke kombiniert. dass dann das Ergebnis von IN nicht “falsch”. Beachten Sie. Das entspricht den normalen Regeln zur Kombinierung logischer Werte in SQL. dass die Unteranfrage keine Zeilen liefert). 9. Anmerkung Diese Form von IN ist eigentlich kein Ausdruck mit Unteranfrage. Das Ergebnis von IN ist “wahr”.. wenn das Ergebnis des Ausdrucks auf der linken Seite gleich irgendeinem Ausdruck auf der rechten Seite ist. aber es scheint besser. die genau eine Spalte ergeben muss...15.. Wie bei EXISTS sollte man nicht davon ausgehen. Das entspricht den normalen Regeln zur Kombinierung logischer Werte in SQL. Das Ergebnis ist “falsch”. (ausdruck [. wenn irgendeine übereinstimmende Zeile gefunden wird. dass die Unteranfrage komplett ausgewertet werden wird. welche genau so viele Zeilen ergeben muss. . wenn irgendwelche einander entsprechenden Elemente nicht NULL und ungleich sind. wenn alle ihre einander entsprechenden Elemente nicht NULL und gleich sind. ansonsten ist das Ergebnis des Zeilenvergleichs 177 . Das Ergebnis ist “wahr”. wenn keine übereinstimmende Zeile gefunden wird (einschließlich des Sonderfalls. Die Ausdrücke links werden ausgewertet und zeilenweise mit jeder Zeile des Anfrageergebnisses verglichen.]) IN (unteranfrage) Die rechte Seite dieser Form von IN ist eine Unteranfrage in Klammern. ausdruck . dass die Unteranfrage keine Zeilen liefert).3 IN (Unteranfrageform) ausdruck IN (unteranfrage) Die rechte Seite dieser Form von IN ist eine Unteranfrage in Klammern. Das Ergebnis ist “falsch”. wenn keine übereinstimmende Zeile gefunden wird (einschließlich des Sonderfalls. wenn der linke Ausdruck den NULL-Wert ergibt oder wenn es keinen gleichen Ausdruck auf der rechten Seite gibt und mindestens ein rechter Ausdruck den NULL-Wert ergibt. dass. Dies ist eine Abkürzung für ausdruck = wert1 OR ausdruck = wert2 OR . Zwei Zeilen gelten als gleich.15.]) Die rechte Seite dieser Form von IN ist eine Liste skalarer Ausdrücke in Klammern. die Zeilen sind ungleich. dass. wie es Ausdrücke in der Liste auf der linken Seite gibt. Wie gewohnt. Beachten Sie. sondern der NULL-Wert ist.2 IN (skalare Form) ausdruck IN (wert[. ihn in der Nähe des IN-Ausdrucks für Unteranfragen zu dokumentieren. wenn irgendeine übereinstimmende Zeile gefunden wird. sondern der NULL-Wert ist.

Das Ergebnis ist “falsch”.]) NOT IN (unteranfrage) Die rechte Seite dieser Form von NOT IN ist eine Unteranfrage in Klammern. . wenn nur nicht übereinstimmende Zeilen gefunden werden (einschließlich des Sonderfalls. wenn möglich.5 NOT IN (Unteranfrageform) ausdruck NOT IN (unteranfrage) Die rechte Seite dieser Form von NOT IN ist eine Unteranfrage in Klammern. Das Ergebnis ist “wahr”. positiv aus. Das Ergebnis von NOT IN ist “wahr”. und nicht “wahr”.15. (ausdruck [. 9. Die Ausdrücke links werden ausgewertet und zeilenweise mit jeder Zeile des Anfrageergebnisses verglichen. ausdruck . dann ist das Ergebnis von IN der NULL-Wert.15... Dies ist eine Abkürzung für ausdruck <> wert1 AND ausdruck <> wert2 AND . Wie bei EXISTS. Beachten Sie.4 NOT IN (skalare Form) ausdruck NOT IN (wert[. sondern der NULL-Wert ist. 9. Beachten Sie. NULL-Werte werden den Anfänger aber bei NOT IN viel wahrscheinlicher verwirren als bei IN.. welche genau so viele Zeilen ergeben muss. die genau eine Spalte ergeben muss. Das entspricht den normalen Regeln zur Kombinierung logischer Werte in SQL... Das entspricht den normalen Regeln zur Kombinierung logischer Werte in SQL. wenn das Ergebnis des Ausdrucks auf der linken Seite ungleich aller Ausdrücke auf der rechten Seite ist. dass. wenn irgendeine übereinstimmende Zeile gefunden wird. sollte man nicht davon ausgehen. dass. wie es Ausdrücke in der Liste auf der linken Seite gibt. Tipp x NOT IN y ist immer äquivalent mit NOT (x IN y). dass dann das Ergebnis von NOT IN nicht “wahr”.Kapitel 9 unbekannt (NULL). wie man naiverweise meinen könnte.. wenn der linke Ausdruck den NULL-Wert ergibt oder wenn es keinen gleichen Ausdruck auf der rechten Seite gibt und mindestens ein rechter Ausdruck den NULL-Wert ergibt. dass dann das Ergebnis der NOT IN-Konstruktion der NULL-Wert ist. dass die Unteranfrage komplett ausgewertet werden wird. wenn der linke Ausdruck den NULL-Wert ergibt oder wenn es keinen gleichen Ausdruck auf der rechten Seite gibt und mindestens eine Zeile rechts den NULL-Wert ergibt. dass die Unteranfrage keine Zeilen liefert). Der Ausdruck auf der linken Seite wird ausgewertet und mit jeder Zeile des Anfrageergebnisses verglichen. Wenn die Ergebnisse bei allen Zeilen ungleich oder unbekannt sind. mit mindestens einem unbekannt. wenn nur nicht übereinstimmende Zeilen gefunden werden (einschließlich des Sonderfalls. Drücken Sie Bedingungen daher am besten. Das Ergebnis von NOT IN ist “wahr”. dass 178 .]) Die rechte Seite dieser Form von NOT IN ist eine Liste von skalaren Ausdrücken in Klammern.

7 ALL ausdruck operator ALL (unteranfrage) 179 . sollte man nicht davon ausgehen. Das Ergebnis ist “falsch”.Funktionen und Operatoren die Unteranfrage keine Zeilen liefert). Wenn die Ergebnisse bei allen Zeilen ungleich oder unbekannt sind.. Die Ausdrücke links werden ausgewertet. wenn irgendwelche einander entsprechenden Elemente nicht NULL und ungleich sind. IN ist äquivalent mit = ANY. die genau eine Spalte ergeben muss. wenn keine solche Zeile gefunden wird (einschließlich des Sonderfalls.. wenn alle ihre einander entsprechenden Elemente nicht NULL und gleich sind. es wird wahr oder der NULL-Wert sein.. Das Ergebnis ist “falsch”. Das Ergebnis von ANY ist “wahr”. wenn irgendwelche einander entsprechenden Elemente nicht NULL und ungleich sind. sondern der NULL-Wert ist. Wie gewohnt. Beachten Sie. mit mindestens einem unbekannt. wenn irgendeine gleiche bzw.]) operator ANY (unteranfrage) (ausdruck [. wenn keine wahren Ergebnisse gefunden werden und mindestens eine Zeile auf der rechten Seite für den Operator den NULL-Wert ergibt. die Zeilen sind ungleich.15. und zeilenweise mit jeder Zeile des Anfrageergebnisses unter Verwendung von operator verglichen. Das entspricht den normalen Regeln zur Kombinierung logischer Werte in SQL.. dass die Unteranfrage komplett ausgewertet werden wird. 9. verglichen. Wie gewohnt. dann ist das Ergebnis von NOT IN der NULL-Wert. wenn irgendein wahres Ergebnis zurückgegeben wird.6 ANY/SOME ausdruck operator ANY (unteranfrage) ausdruck operator SOME (unteranfrage) Die rechte Seite dieser Form von ANY ist eine Unteranfrage in Klammern. dass. welche genau so viele Zeilen ergeben muss wie es Ausdrücke in der Liste auf der linken Seite gibt. dass die Unteranfrage keine Zeilen liefert). dass dann das Ergebnis der ANY-Konstruktion nicht falsch. ansonsten ist das Ergebnis des Zeilenvergleichs unbekannt (NULL). werden NULL-Werte in den Ausdrücken und Anfragezeilen gemäß den normalen SQLRegeln für logische Ausdrücke kombiniert. Das Ergebnis ist “falsch”. (ausdruck [. dass die Unteranfrage keine Zeilen liefert).15. Zwei Zeilen gelten als gleich. welcher ein Ergebnis des Typs boolean haben muss. 9. die Zeilen sind ungleich. Zwei Zeilen gelten als gleich. SOME ist ein Synonym für ANY. Gegenwärtig sind nur die Operatoren = und <> in zeilenweisen ANY-Konstruktionen erlaubt. Wie bei EXISTS. dann kann das Ergebnis von ANY nicht falsch sein. ungleiche Zeile gefunden wird. wenn alle ihre einander entsprechenden Elemente nicht NULL und gleich sind.]) operator SOME (unteranfrage) Die rechte Seite dieser Form von ANY ist eine Unteranfrage in Klammern. ansonsten ist das Ergebnis des Zeilenvergleichs unbekannt (NULL). Wenn das Ergebnis bei mindestens einer Zeile unbekannt ist. ausdruck . wenn irgendeine übereinstimmende Zeile gefunden wird. werden NULL-Werte in den Ausdrücken und Anfragezeilen gemäß den normalen SQLRegeln für logische Ausdrücke kombiniert. ausdruck . Das Ergebnis von ANY ist “wahr”. Der Ausdruck auf der linken Seite wird ausgewertet und mit jeder Zeile des Anfrageergebnisses unter Verwendung von operator. wenn kein wahres Ergebnis gefunden wird (einschließlich des Sonderfalls.

wenn für alle Zeilen ein wahres Ergebnis zurückgegeben wird (einschließlich des Sonderfalls. dann kann das Ergebnis von ALL nicht wahr sein..15. dass die Unteranfrage keine Zeilen liefert). gleich ist. 9.. werden NULL-Werte in den Ausdrücken und Anfragezeilen gemäß den normalen SQLRegeln für logische Ausdrücke kombiniert. wenn alle ihre einander entsprechenden Elemente nicht NULL und gleich sind. Das Ergebnis von ALL ist “wahr”. Gegenwärtig sind nur die Operatoren = und <> in zeilenweisen Vergleichen erlaubt. werden NULL-Werte in den Ausdrücken und Anfragezeilen gemäß den normalen SQLRegeln für logische Ausdrücke kombiniert. die Zeilen sind ungleich.. Wenn das Ergebnis bei mindestens einer Zeile unbekannt ist.]) operator ALL (unteranfrage) Die rechte Seite dieser Form von ALL ist eine Unteranfrage in Klammern. wenn irgendwelche einander entsprechenden Elemente nicht NULL und ungleich sind.]) operator (unteranfrage) (ausdruck [. wenn irgendein falsches Ergebnis gefunden wird. ausdruck .]) operator (ausdruck [. den Ausdrücken auf der rechten Seite verglichen. Gegenwärtig sind nur die Operatoren = und <> in zeilenweisen ALL-Konstruktionen erlaubt. aber mindestens eine Zeile auf der rechten Seite für den Operator den NULL-Wert ergibt. sondern der NULL-Wert ist. (ausdruck [. wenn die beiden Zeilen gleich bzw. NOT IN ist äquivalent mit <> ALL. Das Ergebnis ist “wahr”. dass dann das Ergebnis der ALL-Konstruktion nicht wahr.Kapitel 9 Die rechte Seite dieser Form von ALL ist eine Unteranfrage in Klammern.]) Die linke Seite ist eine Liste von skalaren Ausdrücken. wie es Ausdrücke in der Liste auf der linken Seite gibt. wenn alle ihre einander entsprechenden Elemente nicht NULL und gleich sind. Das Ergebnis ist “falsch”. wenn alle Zeilen gleich bzw. dass die Unteranfrage keine Zeilen liefert). gefunden wird. die genau eine Spalte ergeben muss.. Außerdem darf die Anfrage nicht mehr als eine Zeile ergeben. Die rechte Seite kann entweder eine gleich lange Liste von skalaren Ausdrücken sein oder eine Unteranfrage in Klammern. Beachten Sie. verglichen. welche genau so viele Zeilen ergeben muss. Das Ergebnis von ALL ist “wahr”. ungleich sind (einschließlich des Sonderfalls. wenn mindestens eine Zeile.8 Zeilenweiser Vergleich (ausdruck [. ungleich sind. es wird dann falsch oder der NULL-Wert sein. 180 . Zwei Zeilen gelten als gleich. ausdruck .) Die Ausdrücke links werden ausgewertet und zeilenweise mit der einzigen Ergebniszeile der Unteranfrage bzw. Wie bei EXISTS sollte man nicht davon ausgehen.. ausdruck . wie es Ausdrücke in der Liste auf der linken Seite gibt. (Wenn sie keine Zeilen ergibt. wenn irgendwelche einander entsprechenden Elemente nicht NULL und ungleich sind. Das Ergebnis ist “falsch”. Das entspricht den normalen Regeln zur Kombinierung logischer Werte in SQL. welcher ein Ergebnis des Typs boolean haben muss.. Wie gewohnt. Wie gewohnt. ausdruck . dass. die Zeilen sind ungleich.. Der Ausdruck auf der linken Seite wird ausgewertet und mit jeder Zeile des Anfrageergebnisses unter Verwendung von operator. ansonsten ist das Ergebnis des Zeilenvergleichs unbekannt (NULL).. welche genau so viele Zeilen ergeben muss. Die Ausdrücke links werden ausgewertet und zeilenweise mit jeder Zeile des Anfrageergebnisses unter Verwendung von operator verglichen. dann wird das Ergebnis als NULL-Wert interpretiert. wenn es keine falschen Ergebnisse gibt. die ungleich bzw. dass die Unteranfrage komplett ausgewertet werden wird. Zwei Zeilen gelten als gleich. ansonsten ist das Ergebnis des Zeilenvergleichs unbekannt (NULL).

Mehr Informationen über bestimmte Datentypen und die verfügbaren Funktionen und Operatoren finden Sie in Kapitel 8 bzw.0) (1 row) 181 . bezeichnung | wert -------------+------Ursprung | (0. Dieses Kapitel gibt eine Einführung in die Typumwandlungsmechanismen und -konventionen in PostgreSQL. die von PostgreSQL vorgenommen werden. damit Ausdrücke mit gemischten Datentypen auch mit benutzerdefinierten Typen funktionieren können. Namen und Schlüsselwörter. Kapitel 9. Die impliziten Umwandlungen. und damit kann man in PostgreSQL erreichen. 10. point '(0. dass allgemeiner und flexibler als in anderen SQL-Implementierungen ist. Zum Beispiel hat die Anfrage SELECT text 'Ursprung' AS "bezeichnung". In vielen Fällen müssen Endanwender die Einzelheiten der Typumwandlungsmechanismen nicht kennen. vorkommen. Das heißt.0)' AS "wert". dass man bei der Zeichenkette den Typ angeben kann. dass unterschiedliche Datentypen in einem Ausdruck auftreten. PostgreSQL hat ein erweiterbares Typensystem. Fließkommazahlen. Die Definition der SQL-Sprache erlaubt.10vdyfagds 10 Typumwandlung In SQL-Befehlen kann es. die allgemeingültig sind und nicht aus einer bestimmten Situation heraus aufgestellt wurden. der das Verhalten und die erlaubte Verwendung bestimmt. Zeichenketten. PostgreSQL hat diverse Mechanismen. um Ausdrücke mit gemischten Typen auszuwerten. dass der Parser gleich den korrekten Typ erfährt. können allerdings die Ergebnisse einer Anfrage beeinflussen. absichtlich oder nicht. Die meisten Erweiterungstypen werden am Anfang als Zeichenkette kategorisiert. Wenn es notwendig ist. Daher sollten die meisten Typumwandlungen in PostgreSQL von Regeln bestimmt werden. Der Parser in PostgreSQL kategorisiert lexikalische Elemente in eine von nur fünf allgemeinen Gruppen: ganze Zahlen. kann der Benutzer oder Programmierer diese Ergebnisse mit expliziten Umwandlungen kontrollieren. jedes Stück Daten hat einen zugehörigen Datentyp.1 Überblick SQL ist eine Sprache mit einem starken Typensystem.

Die Systemkatalogtabellen speichern Informationen darüber. wenn die Anfrage gut formuliert wurde und die Typen alle passen. string. der in späteren Phasen. Es gibt grundsätzlich vier SQL-Konstruktionen. Dafür wurden mehrere allgemeine Typenkategorien festgelegt: boolean. Da PostgreSQLPostgreSQL das Überladen von Funktionen erlaubt. aufgelöst wird. network und benutzerdefiniert.und CASE-Konstruktionen Da alle Anfrageergebnisse eines SELECT-Befehls mit Mengenoperationen in den selben Ergebnisspalten erscheinen müssen. 182 . ❏ Parser oder Executor sollten keine zusätzliche Arbeit haben. damit der gesamte CASE-Ausdruck einen vorhersehbaren Ergebnistyp haben kann. Funktionsaufrufe Ein Großteil des PostgreSQL-Typensystems ist um eine große Zahl Funktionen aufgebaut. Auf ähnliche Art müssen die Teilausdrücke eines CASE-Ausdrucks in einen einheitlichen Typ umgewandelt werden. bitstring. In Ausdrücken mit gemischten Typen sollten eingebaute Typen immer in benutzerdefinierte Typen umgewandelt werden (natürlich nur wenn eine Umwandlung nötig ist). ❏ Benutzerdefinierte Typen stehen in keinem Verhältnis zueinander. die sich aus vorhandenen Funktionen ergeben. timespan. Zweideutige Ausdrücke (mit mehreren möglichen Parse-Ergebnissen) können daher bei mehreren möglichen eingebauten Typen oft aufgelöst werden. numeric. Wertspeicherung Die SQL-Befehle INSERT und UPDATE speichern die Ergebnisse von Ausdrücken in einer Tabelle. (Das wird normalerweise in Verbindung mit der Erzeugung eines neuen Datentyps gemacht. Das heißt. geometric. kann die aufzurufende Funktion nicht allein durch den Funktionsnamen identifiziert werden. hat einen bevorzugten Typ. sowie binären (zwei Operanden) Operatoren. Funktionsaufrufe können ein oder mehrere Argumente haben.) Außerdem gibt es einige eingebaute Regeln im Parser. wenn eine Anfrage keine implizite Typumwandlung benötigt. welche Umwandlungen (englisch cast) zwischen Datentypen gültig sind und wie diese Umwandlungen durchzuführen sind. wo im PostgreSQL-Parser unterschiedliche Regeln zur Umwandlung von Typen vonnöten sind: Operatoren PostgreSQL erlaubt Ausdrücke mit Präfix. von denen der Parser von vornherein keine Kenntnis hat. In der Kategorie der benutzerdefinierten Typen ist jeder Typ sein eigener bevorzugter Typ. die Anfrage zu verarbeiten.Kapitel 10 zwei Konstanten. dann wird erstmal der Platzhaltertyp unknown zugewiesen. datetime. Zusätzliche Umwandlungen können vom Benutzer mit dem Befehl CREATE CAST bestimmt werden. aber bei mehreren möglichen benutzerdefinierten Typen gibt es eine Fehlermeldung. um das erwartete Verhalten von Typen aus dem SQL-Standard zu ermöglichen. dann sollte es möglich sein.und Postfix-Operatoren (unär/ein Operand). Wenn kein Typ für eine Zeichenkettenkonstante angegeben wurde. UNION. müssen die Ergebnistypen eines jeden SELECT angepasst und in einen jeweils einheitlichen Endergebnistyp umgewandelt werden. Gegenwärtig verfügt PostgreSQL über keine Informationen über Verhältnisse zwischen Typen. ❏ Benutzerdefinierte Typen. das System wählt die richtige Funktion auf Grundlage der Datentypen der angegebenen Funktionsargumente. außer den Regeln für eingebaute Typen und den Beziehungen. sollten “höher” in der Typenhierarchie stehen. welcher bevorzugt ausgewählt wird. mit Ausnahme der benutzerdefinierten Typen. ohne zusätzliche Zeit im Parser aufzubringen oder unnötige implizite Umwandlungsfunktionen anzuwenden. wie unten beschrieben. wenn es Unklarheiten gibt. Die Ausdrücke in dem Befehl müssen an die Datentypen der Zielspalten angepasst oder womöglich in diese umgewandelt werden. Jede Kategorie. mit den Typen text und point. Die Umwandlungsmöglichkeiten zwischen den eingebauten Typen wurden sehr sorgfältig ausgewählt und sollten nicht verändert werden. Alle Regeln zur Typumwandlung wurden aufgrund mehrerer Prinzipien entworfen: ❏ Implizite Umwandlungen sollten niemals überraschende oder unvorhersehbare Ergebnisse haben.

Verwerfe Kandidaten. Andere Fälle mit dem Typ unknown finden in diesem Schritt nie eine Lösung. dann wird nur der behalten. wo die Operandentypen nicht übereinstimmen und nicht entsprechend umgewandelt werden können (mit einer impliziten Umwandlung). weil eine Konstante vom Typ unknown wie ein String. Prüfe alle Kandidaten und behalte die mit den meisten exakten oder binärkompatiblen Übereinstimmungen bei den Operandentypen. Wenn kein Kandidat bevorzugte Typen akzeptiert. Prüfe alle Kandidaten und behalte die. Wenn ein qualifizierter Operatorname verwendet wurde. Suche nach der am besten passenden Lösung. Prüfe. kann es nur einen passenden geben). d. wenn alle übrigen Kandidaten die gleiche Kategorie akzeptieren. dass diese Prozedur indirekt vom Vorrang der betroffenen Operatoren beeinflusst wird. Wenn irgendeiner der angegebenen Operanden vom Typ unknown ist. Prüfe alle Kandidaten und behalte die mit den meisten exakten Übereinstimmungen bei den Operandentypen. Wenn nicht. Wenn ein Operandentyp eines binären Operatoraufrufs vom Typ unknown ist. Wähle die zu betrachtenden Operatoren aus der Systemtabelle pg_operator aus. prüfe die Typenkategorien. dann sollte der Parser diese neue Funktion verwenden und nicht mehr die alte Funktion mit der nötigen impliziten Umwandlung. die bevorzugte Typen auf den meisten Positionen. dann verwende ihn. dass sie in alles umgewandelt werden können. Typauflösung von Operanden 1. dann werden nur Operatoren im angegebenen Schema in Betracht gezogen. Beachten Sie. wenn ein Kandidat diese Kategorie akzeptiert. behalte alle Kandidaten. ansonsten gehe zum nächsten Schritt.3). dann wähle diese Kategorie. 3. ob es einen Operator mit den genauen Typen der Operanden gibt.6. Wenn nur ein Kandidat übrig bleibt. dann erzeuge einen Fehler.Typumwandlung Zusätzlich sollte gelten. Wenn nur ein Kandidat übrig bleibt. auf den Typumwandlungen erforderlich sein werden. verwende ihn. verwende ihn. a. 10. die in Betracht gezogen werden. Siehe auch Abschnitt 4.) Ansonsten. Wenn es einen gibt (in der Menge der Operatoren. dann nimm für diese Prüfung an. Bei Werten vom Typ unknown wird hier angenommen. c. Wenn nur ein Kandidat übrig bleibt. d. behalte alle. Wenn der Suchpfad mehrere Operatoren mitidentischen Operandentypen findet. a. Wenn ein unqualifizierter Operatorname verwendet wurde (der normale Fall). behalte alle. eine Zeichenkette.h. ansonsten gehe zum nächsten Schritt. ansonsten gehe zum nächsten Schritt. Wenn nur ein Kandidat übrig bleibt. Aber Operatoren mit verschiedenen Operandentypen werden unabhängig von ihrer Suchpfadposition in Betracht gezogen. weil die richtige Wahl 183 .2 Operatoren Die Operandentypen eines Operatoraufrufs werden nach der unten beschriebenen Prozedur aufgelöst. e. Wenn es keine exakten Übereinstimmungen gibt. dann werden die Operatoren ausgewählt. b. 2.7. verwende ihn. (Die Bevorzugung dieser Kategorie ist sinnvoll. verwende ihn. die den richtigen Namen und die richtige Anzahl Operanden haben und im Suchpfad sichtbar sind (siehe Abschnitt 5. dass er den gleichen Typ wie der andere Operand hat. a. der als erster im Pfad gefunden wurde.1. Wähle auf jeder Position die Kategorie string. akzeptieren. Wenn es keine Kandidaten mit exakten oder binärkompatiblen Übereinstimmungen gibt. aussieht. wenn eine Anfrage normalerweise für eine Funktion eine implizite Umwandlung nötig hat und der Benutzer dann eine neue Funktion mit den passenden Argumenttypen erzeugt. die von den übrig gebliebenen Kandidaten auf diesen Positionen akzeptiert werden. ansonsten gehe zum nächsten Schritt.

verwende ihn. Wenn kein oder mehr als ein Kandidat übrig bleibt. Einige Beispiele folgen. nimmt er an. dass der zweite Operand als Typ text interpretiert werden soll. die nicht die gewählte Typenkategorie akzeptieren. exp ----8 (1 row) Also führt das System eine Typumwandlung an beiden Operanden durch und die Anfrage wird gleichbedeutend mit SELECT CAST(2 AS double precision) ^ CAST(3 AS double precision) AS "exp". Wenn außerdem irgendein Kandidat einen bevorzugten Typ auf einer gegebenen Operandenposition akzeptiert. der den Typ text für beide Operanden akzeptiert. und er hat Operanden vom Typ double precision. Hier ist eine Verknüpfung ohne Typangaben: SELECT 'abc' || 'def' AS "unbekannt".1: Typauflösung beim Potenzierungsoperator Es gibt nur einen Potenzierungsoperator im Systemkatalog. Wenn nur ein Kandidat übrig bleibt. Ein Beispiel mit einem Operanden ohne ausdrücklichen Typ: SELECT text 'abc' || 'def' AS "text und unknown". Der Parser weist anfänglich beiden Operanden in dieser Anfrage den Typ integer zu: SELECT 2 ^ 3 AS "exp". Verwerfe jetzt die Kandidaten. f. Da das der Fall ist. unbekannt ----------abcdef (1 row) 184 . die nicht den bevorzugten Typ für diesen Operanden akzeptieren. dann erzeuge einen Fehler. ob es einen Operator gibt.Kapitel 10 nicht ohne weitere Hinweise getroffen werden kann. Beispiel 10.2: Typauflösung beim Zeichenkettenverknüpfungsoperator Eine zeichenkettenähnliche Syntax wird sowohl für Zeichenkettentypen als auch für komplexe Erweiterungstypen verwendet. text und unknown -----------------abcdef (1 row) In diesem Fall prüft der Parser. Zeichenketten ohne angegebenen Typ müssen mit möglichen Operatorkandidaten in Übereinstimmung gebracht werden. verwerfe Kandidaten. Beispiel 10.

wird den Konstanten mit unbekanntem Typ zugewiesen.und Fakultätsoperatoren Der PostgreSQL-Operatorkatalog hat mehrere Einträge für den Präfixoperator @. dass wirklich float8 und nicht ein anderer Typ verwendet wurde: SELECT @ '-4. welcher Typ zu verwenden ist. welcher der bevorzugte Typ in der Kategorie numeric ist. abs ----4. weil das System nicht entscheiden kann. welchen der möglichen Operatoren es bevorzugen soll.3 Funktionen Die Argumenttypen eines Funktionsaufrufs werden nach der unten beschriebenen Prozedur aufgelöst. Beispiel 10. Wir können mit einer ausdrücklichen Typumwandlung aushelfen: SELECT CAST('20' AS int8) ! AS "fakultät". die Operanden der Kategorie string und der Kategorie bitstring akzeptieren. Einer dieser Einträge ist für den Typ float8. fakultät --------------------2432902008176640000 (1 row) 10. Also sucht der Parser nach allen Kandidaten und stellt fest. erhalten wir: SELECT '20' ! AS "fakultät". Da die Kategorie string bevorzugt wird. text. dass es Kandidaten gibt. ERROR: Unable to identify a postfix operator '!' for type '"unknown"' You may need to add parentheses or an explicit cast Das passiert. die alle den Betrag von diversen numerischen Datentypen berechnen. Wenn wir also einen ähnlichen Fall mit ! versuchen. und der bevorzugte Typ dieser Kategorie.5' AS "abs".5e500' AS "abs". wenn ein nicht-numerischer Wert vorliegt: SELECT @ '-4. 185 . Wir können auch überprüfen. bevor der Operator angewendet wird. da in der Anfrage keine Typen angegeben sind.Typumwandlung In diesem Fall gibt es keine Anfangshinweise darüber.5 (1 row) Hier hat das System eine implizite Umwandlung von text in float8 vorgenommen.3: Typauflösung bei den Betrags.5e500' is out of range for float8 Andererseits gibt es den Postfixoperator ! (Fakultät) nur für Ganzzahltypen. ERROR: Input '-4. nicht für float8. Daher wird PostgreSQL diesen Eintrag verwenden. wird sie ausgewählt.

7. Suche nach der am besten passenden Lösung. Wenn es keine Kandidaten mit exakten oder binärkompatiblen Übereinstimmungen gibt. die nicht die gewählte Typenkategorie akzeptieren. die den richtigen Namen und die richtige Anzahl Argumente haben und im Suchpfad sichtbar sind (siehe Abschnitt 5. ansonsten gehe zum nächsten Schritt. b. die von den übrig gebliebenen Kandidaten auf diesen Positionen akzeptiert werden. die nicht den bevorzugten Typ für dieses Argument akzeptieren. f. ansonsten gehe zum nächsten Schritt. Verwerfe Kandidaten. Das ist der Fall. ob der Funktionsaufruf eine triviale Typumwandlung darstellt. Wenn ein unqualifizierter Funktionsname verwendet wurde. wähle diese Kategorie.h. Bei Werten vom Typ unknown wird hier angenommen. Wenn es eine gibt (in der Menge der Funktionen. aussieht.) Ansonsten. eine Zeichenkette. verwende ihn. Wenn diese Voraussetzungen erfüllt sind. erzeuge einen Fehler. (Die Bevorzugung dieser Kategorie ist sinnvoll. werden nur Funktionen im angegebenen Schema in Betracht gezogen. (Fälle mit dem Typ unknown finden in diesem Schritt nie eine Lösung. die in Betracht gezogen werden. Prüfe alle Kandidaten und behalte die. weil die richtige Wahl nicht ohne weitere Hinweise getroffen werden kann. prüfe die Typenkategorien. Aber Funktionen mit verschiedenen Argumenttypen werden unabhängig von ihrer Suchpfadposition in Betracht gezogen. 2. Wenn es keine exakten Übereinstimmungen gibt. a. dass sie in alles umgewandelt werden können. Prüfe alle Kandidaten und behalte die mit den meisten exakten oder binärkompatiblen Übereinstimmungen bei den Argumenttypen. dann prüfe. 186 .) 3. d. dann wird das Funktionsargument ohne tatsächlichen Funktionsaufruf in den Zieltyp umgewandelt. sein. c. die als erster im Pfad gefunden wurde. wenn alle übrigen Kandidaten die gleiche Kategorie akzeptieren. ob es eine Funktion mit den genauen Typen der Argumente gibt.3). akzeptieren. 4. verwende ihn. ansonsten gehe zum nächsten Schritt. Wenn kein Kandidat bevorzugte Typen akzeptiert. Wenn nicht. Verwerfe jetzt die Kandidaten. ansonsten gehe zum nächsten Schritt. Wenn nur ein Kandidat übrig bleibt. verwerfe Kandidaten. a. Wenn der Suchpfad mehrere Funktionen mit identischen Argumenttypen findet. verwende ihn. dann verwende sie. Außerdem muss das Funktionsargument entweder eine Konstante vom Typ unknown oder ein Typ. Wenn keine exakte Übereinstimmung gefunden wurde. werden die Funktionen ausgewählt. verwende ihn. kann es nur eine passende geben). erzeuge einen Fehler. Wenn ein qualifizierter Funktionsname verwendet wurde. Wenn außerdem irgendein Kandidat einen bevorzugten Typ auf einer gegebenen Argumentposition akzeptiert. Wenn nur ein Kandidat übrig bleibt. Wenn nur ein Kandidat übrig bleibt. Einige Beispiele folgen. verwende ihn. Wenn kein oder mehr als ein Kandidat übrig bleibt. Wenn irgendeiner der angegebenen Argumente vom Typ unknown ist. behalte alle. der mit dem ersten binärkompatibel ist. Prüfe alle Kandidaten und behalte die mit den meisten exakten Übereinstimmungen bei den Argumenttypen. auf denen Typumwandlungen erforderlich sein werden. Prüfe. d. Wenn nur ein Kandidat übrig bleibt. wenn der Funktionsaufruf ein Argument hat und der Funktionsname der gleiche ist wie der (interne) Name eines Datentyps. wenn ein Kandidat diese Kategorie akzeptiert. Wähle auf jeder Position die Kategorie string. wird nur die behalten. behalte alle.Kapitel 10 Typauflösung von Funktionsargumenten 1. die bevorzugte Typen auf den meisten Positionen. wo die Argumenttypen nicht übereinstimmen und nicht entsprechend umgewandelt werden können (mit einer impliziten Umwandlung). weil eine Konstante vom Typ unknown wie ein String. Wähle die zu betrachtenden Funktionen aus der Systemtabelle pg_proc aus. Wenn nur ein Kandidat übrig bleibt. e. behalte alle Kandidaten.

3). 3). SELECT substr('1234'. Beispiel 10. 3).0.0000 (1 row) Die Anfrage wird vom Parser quasi in folgende Anfrage umgewandelt: SELECT round(CAST (4 AS numeric). 4).Typumwandlung Beispiel 10. Da numerische Konstanten mit Nachkommastellen den Typ numeric zugewiesen bekommen. das zweite integer. 4). wird der Parser versuchen.5: Typauflösung bei der Funktion substr Es gibt mehrere Funktionen namens substr. die ein Argument der bevorzugten Kategorie string (nämlich Typ text) akzeptiert. 187 . substr -------34 (1 row) Wenn die Zeichenkette als Typ varchar ausgewiesen ist.) In der folgenden Anfrage wird also das erste Argument vom Typ integer automatisch in den Typ numeric umgewandelt: SELECT round(4. 4). wählt das System die Kandidatenfunktion. wenn sie aus einer Tabelle stammt. substr -------34 (1 row) Das wird vom Parser quasi in folgende Anfrage umgewandelt: SELECT substr(CAST (varchar '1234' AS text).4: Typauflösung bei der Rundungsfunktion Es gibt nur eine Funktion round mit zwei Argumenten. benötigt die folgende Anfrage keine Typumwandlung und könnte daher etwas effizienter sein: SELECT round(4. round -------4. was der Fall sein könnte. Wenn substr mit einer Zeichenkettenkonstante unbekannten Typs aufgerufen wird. wovon eine Argumente der Typen text und integer hat. (Das erste ist numeric. sie in den Typ text umzuwandeln: SELECT substr(varchar '1234'.

und hat den gleichen Ergebnistyp. dass der eine Typ einer Funktion übergeben werden kann. dass der Wert an die richtige Größe angepasst wird: CREATE TABLE vv (v character(20)). die als character(20) erzeugt wurde. INSERT INTO vv SELECT 'abc' || 'def'. Wenn der Zieltyp eine feste Länge hat (zum Beispiel char oder varchar mit Längenangabe). Typumwandlung bei der Wertspeicherung 1. das heißt. 10. 3). Wenn die Funktion mit einem Argument vom Typ integer aufgerufen wird. hat zwei Argumente. Wenn eine gefunden wurde. ohne dass eine tatsächliche Umwandlung vorgenommen werden muss. 2. ob eine exakte Übereinstimmung zwischen Wert und Zielspalte vorliegt. für den Zieltyp eine Funktion zur Größeneinstellung zu finden.Kapitel 10 Anmerkung Dem Parser ist bekannt. Beispiel 10. Ansonsten versuchen den Ausdruck in den Zieltyp umzuwandeln. Prüfe. dann wird sie angewendet. wenn es einen registrierten Umwandlungsweg (Cast) zwischen den Typen gibt. weil es einen impliziten Umwandlungsweg (Cast) von integer nach text gibt. Diese Transformation kann automatisch geschehen. substr -------34 (1 row) Das wird in Wirklichkeit so ausgeführt: SELECT substr(CAST (1234 AS text). dann wird der Inhalt der Zeichenkette der Eingaberoutine des Zieldatentyps übergeben. SELECT v. dies in den Typen text umzuwandeln: SELECT substr(1234. dann wird der Parser versuchen. 3). wobei die deklarierte Länge der Spalte als zweiter Parameter übergeben wird. v | length 188 . wird bei den folgenden Befehlen automatisch darauf geachtet.6: Typumwandlung bei der Speicherung beim Typ character Bei einer Zielspalte. wovon der erste der Zieldatentyp und der zweite vom Typ integer ist. dann wird er in den Typ der Zielspalte nach folgender Prozedur umgewandelt. 3. Ein solche Funktion hat den gleichen Namen wie der Datentyp. versuche. Wenn der Ausdruck den Typ unknown hat. Daher wird in diesem Fall keine wirkliche Typumwandlung eingefügt. length(v) FROM vv. dass text und varchar binärkompatibel sind.4 Wertspeicherung Wenn ein Wert in eine Tabelle eingefügt wird. Das ist erfolgreich. die eigentlich den anderen Typ verlangt.

3. 2. implizit umgewandelt werden können. nicht alle in derselben Typenkategorie sind. text -----a b (2 rows) Hier wird die Konstante 'b' mit unbekanntem Typ als Typ text aufgelöst. integer) im Systemkatalog gefunden und mit dem Ergebnis des Operators und der gespeicherten Spaltenlänge aufgerufen. Beispiel 10. war. Wähle den ersten der Eingabetypen.Typumwandlung ----------------------+-------abcdef | 20 (1 row) Was hier wirklich passierte.und CASE-Konstruktionen In UNION-Konstruktionen müssen möglicherweise verschiedene Typen aneinander angepasst werden. dass die beiden Zeichenkettenkonstanten als Typ text aufgelöst wurden. Diese typenspezifische Funktion führt dann entsprechende Längenprüfungen durch und füllt den Wert mit Leerzeichen auf. Wenn die Eingabewerte. für blankpadded char). 4. Danach wird das Ergebnis des Operators in den Typ bpchar umgewandelt (der interne Name des Typs character.8: Typauflösung in einer einfachen UNION-Konstruktion SELECT 1. wird zu dieser Umwandlung kein Funktionsaufruf benötigt. Einige Beispiele folgen.und CASE-Konstruktionen 1.) Schließlich wird die Funktion zur Größenanpassung bpchar(bpchar. dann erzeuge einen Fehler.5 UNION. der ein bevorzugter Typ in seiner Kategorie ist oder in den alle Eingabetypen. Der Auflösungsalgorithmus wird für jede Spalte einer solchen Anfrage getrennt angewendet. Beispiel 10. Ansonsten ignoriere die Werte vom Typ unknown bei der Ermittlung des Ergebnistyps. die nicht vom Typ unknown sind. wähle den Typ text (der bevorzugte Typ der Kategorie string). um aus den Teilausdrücken einen Ergebnistyp zu ermitteln. Wenn alle Eingabewerte den Typ unknown haben. 10. (Da die Typen text und bpchar binärkompatibel sind. um mit der Zielspalte übereinzustimmen. numeric 189 . In INTERSECT. Typauflösung bei UNION. Ein CASE-Ausdruck verwendet auch denselben Algorithmus.und EXCEPT-Klauseln werden unterschiedliche Typen genauso wie bei UNION aufgelöst. außer unknown. um eine einheitliche Ergebnismenge zu erzeugen.2 AS "numeric" UNION SELECT 1. wodurch der Operator || als Verknüpfung von text-Werten aufgelöst werden konnte. Wandle alle Eingabewerte in den gewählten Typ um. außer unknown.7: Typauflösung in einer UNION-Konstruktion mit fehlenden Typen SELECT text 'a' AS "text" UNION SELECT 'b'.

Beispiel 10.Kapitel 10 --------1 1. also wird numeric verwendet.9: Typauflösung in einer umgekehrten UNION-Konstruktion SELECT 1 AS "real" UNION SELECT CAST('2. integer kann implizit in numeric umgewandelt werden.2 (2 rows) Die Konstante 1.2 hat den Typ numeric und die Konstante 1 hat den Typ integer. Daher hat das Ergebnis den Typ real.2' AS REAL). real -----1 2.2 (2 rows) Hier kann der Typ real nicht implizit in integer umgewandelt werden. 190 . aber integer kann implizit in real gewandelt werden.

Zum Beispiel muss es vielleicht nur ein paar Ebenen in einem Suchbaum überprüfen. um eine relevante Stelle zu finden. die viele Anfragen der Form SELECT inhalt FROM test1 WHERE id = konstante. vorherzubestimmen. vorherzusehen. könnte es eine viel effizientere Methode verwenden. um die Notwendigkeit eines Index darzustellen. 11. Normalerweise müsste das System die gesamte Tabelle test1 Zeile für Zeile absuchen.1 Einführung Das klassische Beispiel. und einer Anwendung. inhalt varchar ). bestimmte Zeilen viel schneller zu finden und auszugeben. dass es einen Index für die Spalte id unterhalten soll. werden in einem alphabetischen Stichwortverzeichnis (auf Englisch: index) am Ende des Buchs zusammengestellt. die ein Leser am wahrscheinlichsten nachschlagen will. ist das ganz klar eine ineffiziente Methode. welche Indexe von Vorteil sein würden. er muss nicht das gesamte Buch durchlesen. Wenn dem System mitgeteilt worden wäre. erfordert. um die passenden Zeilen zu finden. Wenn die Anfrage nur wenige Zeilen als Ergebnis liefert (möglicherweise nur eine oder gar keine). In den meisten Sachbüchern gibt es einen ähnlichen Ansatz: Begriffe. die Leistung der Datenbank zu verbessern. die Begriffe. 191 . Aber Indexe erhöhen auch den Verwaltungsaufwand im Datenbanksystem und sollten daher nicht ohne Überlegung verwendet werden. Ein Index gestattet dem Datenbankserver. als es ohne Index möglich wäre. ist mit einer Tabelle wie dieser: CREATE TABLE test1 ( id integer. ist es die Aufgabe des Datenbankprogrammierers.11exe 11 Indexe Die Verwendung von Indexen ist eine häufig benutzte Möglichkeit. Ein Leser kann das Stichwortverzeichnis relativ schnell überfliegen und dann schnell die richtige Seite aufschlagen. welche die Leser oft nachschlagen wollen. Genauso wie es die Aufgabe des Buchautors ist. um alle passenden Einträge zu finden.

von einem Index nicht Gebrauch zu machen. Ein Index für eine Spalte. Folgender Befehl erzeugt einen Hash-Index: CREATE INDEX name ON tabelle USING HASH (spalte). verwenden Sie einen Befehl der Form CREATE INDEX name ON tabelle USING RTREE (spalte). an dem Sie später immer noch erkennen können. 192 . Dadurch wird der Aufwand bei Datenmanipulationsoperationen erhöht. HashIndexe zeigen auch einen schlechte Leistung bei vielen gleichzeitigen Zugriffen. und die Indexgröße und die Zeit zum Aufbauen des Index viel schlechter sind. Wenn nichts anderes angegeben wird. die Teil einer Verbundbedingung ist. Aber Sie müssen möglicherweise den Befehl ANALYZE regelmäßig ausführen.9. die nicht wichtig sind oder überhaupt nicht verwendet werden. >= . Um einen Index zu entfernen. wenn eine indizierte Spalte in einem Ausdruck mit folgenden Operatoren vorkommt: << . Der Name test1_id_index kann frei bestimmt werden. wenn eine indizierte Spalte in einem Vergleich unter Verwendung des Operators = vorkommt. Indexe können auch in UPDATE. dass eine Anfrage oder ein Datenmanipulationsbefehl nur höchstens einen Index pro Tabelle verwenden kann. <= . @ . kann also Anfragen mit Verbundoperationen erheblich beschleunigen. > R-Tree-Indexe sind besonders für räumliche Daten geeignet. >> . welcher für die am häufigsten vorkommenden Situationen geeignet ist. wenn eine indizierte Spalte in einem Vergleich unter Verwendung folgender Operatoren vorkommt: < . Indexe. sollten daher entfernt werden. verwenden Sie den Befehl DROP INDEX. GiST und Hash. dass Hash-Indexe in PostgreSQL ähnlich schnell oder langsamer als B-TreeIndexe sind. Um einen R-Tree-Index zu erzeugen.2 Indextypen In PostgreSQLPostgreSQL gibt es mehrere Indextypen: B-Tree. Jeder Indextyp ist wegen seines Algorithmus für bestimmte Arten von Anfragen am besten geeignet. Anmerkung In Tests hat es sich gezeigt. &> . Im Einzelnen heißt das.wie man herausfinden kann. ~= . = . && (Die Bedeutung dieser Operatoren finden Sie in Abschnitt 9. ist kein weiteres Eingreifen erforderlich: Das System wird den Index verwenden. dass der Anfrageplaner in PostgreSQLPostgreSQL einen B-Tree-Index in Betracht ziehen wird. Indexe können jederzeit zu einer Tabelle hinzugefügt oder entfernt werden. R-Tree. Wenn ein Index erzeugt wurde. ob ein Index verwendet wird und wann und warum der Planer auch manchmal zu dem Entschluss kommt. Der Anfrageplaner in PostgreSQL wird einen R-Tree-Index in Betracht ziehen. &< .und DELETE-Befehlen mit Suchbedingungen von Nutzen sein. Aus diesen Gründen wird die Verwendung eines Hash-Index nicht empfohlen.Kapitel 11 Der folgende Befehl wird verwendet. Beachten Sie. Wenn der Index einmal erzeugt worden ist. um die Statistiken zu aktualisieren. aber Sie sollten einen Namen wählen. Außerdem können Indexe auch in Verbundanfragen verwendet werden. 11.) Der Anfrageplaner wird einen Hash-Index in Betracht ziehen. die es dem Planer erlauben realitätsnahe Schätzungen abzugeben. wenn es denkt. Lesen Sie auch in Kapitel 13 . muss er vom System mit der Tabelle in Übereinstimmung gehalten werden. dass er effizienter als eine sequenzielle Suche durch die Tabelle ist. erstellt der Befehl CREATE INDEX einen B-Tree-Index. wofür der Index war. um den besprochenen Index für die Spalte id zu erzeugen: CREATE INDEX test1_id_index ON test1 (id).

verwendet (mit passenden Operatoren). Zum Beispiel: CREATE INDEX test2_mm_idx ON test2 (major. wenn Sie einen Index für die Spalten major und minor zusammen definieren. minor int..) Ein mehrspaltiger Index kann nur verwendet werden. dass alle Indexmethoden voll dynamisch sind und nicht regelmäßig optimiert werden müssen (wie es zum Beispiel bei statischen Hash-Methoden der Fall ist). um zu zeigen.h. wenn die Anfrage die in der Indexdefinition ganz links aufgezählte Spalte und beliebig viele weitere Spalten. Die R-Tree-Indexmethode ist eine Implementierung des normalen R-Trees mit dem quadratischen Split-Algorithmus von Guttman. (Er kann aber verwendet werden. Bis zu 32 Spalten können angegeben werden. aber nicht bei anderen Kombinationen. Meistens reicht ein Index für eine einzelne Spalte aus und spart Platz und Zeit. ausführen. 193 .) Mehrspaltige Indexe sollten sparsam verwendet werden. Sie speichern Ihr /dev Verzeichnis in einer Datenbank . die die indizierten Spalten enthalten. kann es angebracht sein. Wenn Sie zum Beispiel eine Tabelle dieser Form haben: CREATE TABLE test2 ( major int. c) kann verwendet werden. Gegenwärtig werden mehrspaltige Indexe nur von den B-Tree.. die rechts von ihr ohne Lücke gelistet wurden.in der Anfrage SELECT name FROM test2 WHERE major = konstante OR minor = konstante.) Der Anfrageplaner kann einen mehrspaltigen Index verwenden. den Index nur für a zu verwenden und c wie eine normale nichtindizierte Spalte zu behandeln. Die Hash-Indexmethode ist eine Implementierung des linearen Hashs von Litwin. Wir erwähnen die Algorithmen hier nur. bevor man PostgreSQL compiliert. 11. siehe die Datei pg_config. kann der oben definierte Index test2_mm_idx nicht für die Suche in beiden Spalten verwendet werden. mit AND verbunden wurde. (Diese Grenze kann verändert werden. (Nehmen wir an.) und Sie oft Anfragen der Form SELECT name FROM test2 WHERE major = konstante AND minor = konstante. wenn eine Anfrage a. b und c verwendet oder wenn sie a und b verwendet oder wenn sie nur a verwendet.und GiST-Implementierungen unterstützt. Zum Beispiel: Ein Index für (a. minor).Indexe Die B-Tree-Indexmethode ist eine Implementierung der hochparallelen B-Trees von Lehman und Yao. b. um nur in der Spalte major zu suchen.3 Mehrspaltige Indexe Ein Index kann auch für mehrere Spalten definiert werden. (In einer Anfrage mit a und c könnte der Anfrageplaner entscheiden. Zum Beispiel. name varchar ). wenn die Ausdrücke. Indexe mit mehr als drei Spalten sind fast immer unangebracht.

dass in der Tabelle keine Zeilen mit gleichen indizierten Werten auftreten können. 194 . Die Funktion in der Indexdefinition kann mehrere Argumente haben. Tipp Die im letzten Absatz erwähnten Beschränkungen kann man leicht umgehen. CREATE UNIQUE INDEX name ON tabelle (spalte [. 11. um Vergleiche ohne Beachten der Groß. Wenn ein Index als UNIQUE deklariert ist. wird dafür gesorgt. nicht aber Konstanten. dass ein Spaltenwert oder eine Gruppe von Werten in mehreren Spalten in einer Tabelle nur einmal vorkommt. die Funktion lower: SELECT * FROM test1 WHERE lower(spalte1) = 'wert'. NULL-Werte zählen nicht als gleich.. Die Tatsache. . könnte man als internes Implementierungsdetail betrachten. um auf Grundlage der Ergebnisse von Funktionsaufrufen schnell auf Daten zugreifen zu können.]).4 Indexe für Unique Constraints Indexe können auch verwendet werden. die auf eine oder mehrere Spalten einer Tabelle angewendet wird. Zum Beispiel verwendet man oft. ist ALTER TABLE . um Unique Constraints umzusetzen. wenn eine Tabelle erzeugt wird. um diesen Constraint umzusetzen. Funktionsindexe können verwendet werden. um sicherzustellen. Diese Anfrage kann einen Index verwenden. indem man selbst eine Funktion erzeugt. wenn nötig). die den Unique Constraint bzw. selbst wenn die Funktion mehr als eine Spalte verwendet. Funktionsindexe sind immer einspaltig (nämlich das Ergebnis der Funktion). aber diese müssen Spalten der Tabelle sein. Anmerkung Die bevorzugte Methode. Mehrspaltige Indexe mit Funktionsaufrufen sind nicht möglich. bilden die Spalten für den Index (ein mehrspaltiger Index. Gegenwärtig können nur B-Tree-Indexe als UNIQUE deklariert werden.und Kleinschreibung durchzuführen. auf dass man nicht direkt zugreifen sollte.. zu einer Tabelle einen Unique Constraint hinzuzufügen.. Ein solcher Index kann zu einer Tabelle auch später hinzugefügt werden.5 Funktionsindexe Ein Funktionsindex ist ein Index.. die einen Unique Constraint oder einen Primärschlüssel hat. definiert ist.Kapitel 11 11. ADD CONSTRAINT. wenn er für das Ergebnis des Ausdrucks lower(spalte1) erzeugt wurde: CREATE INDEX test1_lower_spalte1_idx ON test1 (lower(spalte1)). Die Spalten. PostgreSQL erzeugt automatisch einen solchen UNIQUE-Index. dass Indexe verwendet werden. den Primärschlüssel ausmachen. der über das Ergebnis einer Funktion. um einen Unique Constraint zu erzeugen. die das gewünschte Ergebnis intern berechnet.

um Fließkommafehler bei der Multiplikation. größer als etwas 20000 Quadrateinheiten ist. Sie kann auch erweitert werden um alle Operatoren in einer Klasse mit zu zeigen: SELECT am.7 Partielle Indexe Ein partieller Index wird über einen Teil einer Tabelle erstellt. opclass_operator. Da eine Anfrage.oprname AS opclass_operator FROM pg_am am. Ein Hauptanliegen der partiellen Indexe ist es. opc.opcname AS opclass_name FROM pg_am am.oid ORDER BY index_method. ist. sollten Sie bigbox_ops verwenden.amopopr = opr. gibt es auch keinen 195 . dass es für manche Datentypen mehrere sinnvolle Sortierreihenfolgen geben kann. warum es Operatorklassen gibt. opclass_name. pg_opclass opc WHERE opc.opcamid = am.oid AND amop. Es gibt auch eingebaute Operatorklassen neben den Standardklassen: ❏ Die Operatorklassen box_ops und bigbox_ops unterstützen beide R-Tree-Indexe für den Datentyp box.amname AS index_method. Zum Beispiel könnte man komplexe Zahlen nach Betrag oder nach dem reellen Teil sortieren.oid AND amop. die das Prädikat erfüllen. Die Operatorklasse bestimmt.. Ein B-Tree-Index für eine Spalte vom Typ int4 würde die Operatorklasse int4_ops verwenden. die nach einem häufig vorkommenden Wert sucht (einer. pg_opclass opc. . Der Hauptgrund. Der Index enthält nur Einträge für jene Tabellenzeilen. dass häufig vorkommende Werte indiziert werden. in dem Ihre Rechtecke liegen. pg_amop amop. Die folgende Anfrage zeigt alle vorhandenen Operatorklassen: SELECT am.opcamid = am. pg_operator opr WHERE opc. der mehr als ein paar Prozent aller Tabellenzeilen ausmacht). 11.]).opcname AS opclass_name. opr. wenn man den Index definiert. CREATE INDEX name ON table (spalte opklasse [.amname AS index_method.. welche Operatoren vom Index für diese Spalte verwendet werden sollen.amopclaid = opc.6 Operatorklassen Eine Indexdefinition kann für jede Spalte eines Index eine Operatorklasse angeben. Normalerweise reicht die vorgegebene Operatorklasse für den Datentyp der Spalte aus. opclass_name.Indexe 11. der Teil wird durch einen Bedingungsausdruck (das so genannte Prädikat des partiellen Index) bestimmt. indem man zwei Operatorklassen erzeugt und die passende wählt. opc.oid ORDER BY index_method. diese Operatorklasse enthält die Vergleichsfunktionen für Werte vom Typ int4. zu verhindern. den Index sowieso nicht verwenden wird. Das könnte man erreichen. Addition und Subtraktion von sehr großen Fließkommazahlen zu vermeiden. Der Unterschied zwischen beiden ist. Wenn der Bereich. dass bigbox_ops die Koordinaten der Rechtecke herunterskaliert.

100. aber einige sind von woandersher (sagen wir Angestellte. aber die Zeilen mit den meisten Zugriffen. wodurch Anfragen. ist folgende: SELECT * FROM access_log WHERE url = '/index. client_ip inet. kann das einen hohen Wartungsaufwand mit sich ziehen. Außerdem können dadurch viele Aktualisierungen der Tabelle beschleunigt werden. Beispiel 11. aber man verhindert dadurch..23'.168. die den Index tatsächlich benutzen.255'). dass man überhaupt mit einem Index auf die “uninteressanten” Werte zugreifen kann. . die diesen Index verwenden kann. Beispiel 11. verwenden Sie folgenden Befehl: CREATE INDEX access_log_client_ip_ix ON access_log (client_ip) WHERE NOT (client_ip > inet '192. der zu unserem Beispiel passt. um uninteressante Werte auszuschließen Nehmen wir an.168. beschleunigt werden. indem Sie einen Index nur für die Zeilen ohne Rechnung erstellen. diese Zeilen überhaupt im Index zu speichern.168. wovon für einige schon die Rechnung gestellt wurde und für andere nicht. Um einen partiellen Index zu erstellen. die sich von außerhalb einwählen).Kapitel 11 Grund. dass diese Art eines partiellen Index erfordert. ).100. die für die meisten Anfragen nicht von Interesse sind.2 gezeigt. Wenn die Verteilung der Werte sich aus der Anwendung ergibt oder sich nach einer Zeit nicht mehr verändert. dann ist das nicht schwer. Sie speichern die Zugriffsstatistiken eines Webservers in einer Datenbank. Nehmen wir weiter an. um häufige Werte auszuschließen Nehmen wir an. dass die häufigen Werte vorher ermittelt werden. das wird in Beispiel 11. Dann können Sie die Leistung verbessern..78. Sie haben eine Tabelle mit Bestellungen.32'.100. Beispiel 11. Werte aus dem Index auszuschließen. Daraus ergeben sich die gleichen Vorteile wie oben. 196 . Der Befehl um den Index zu erstellen. Nehmen wir folgende Tabelle an: CREATE TABLE access_log ( url varchar. ist: SELECT * FROM access_log WHERE client_ip = inet '192. wahrscheinlich gar nicht indizieren. Sie werden bemerken.10. Eine typische Anfrage. müssen Sie den IP-Bereich.2: Einrichtung eines partiellen Index.html' AND client_ip = inet '212. die Bestellungen ohne Rechnung sind ein kleiner Teil der Tabelle. Eine Anfrage.1 zeigt eine mögliche Anwendung dieser Idee. Dadurch wir die Größe des Index verringert. der dem Subnetz Ihrer Organisation entspricht. Wenn Ihren Suchanfragen nach IP-Adresse hauptsächlich die externen Zugriffe betreffen. dass ein partieller Index in diesem Szenario eine Menge Sorgfalt und Experimentierfreude voraussetzt.1: Einrichtung eines partiellen Index. Eine weitere Möglichkeit besteht darin. würde so aussehen: CREATE INDEX bestell_ohne_rechnung_index ON bestellungen (bestell_nr) WHERE rechnung is not true. selbst wenn eine Indexsuche in diesem Fall vorteilhaft wäre. Die meisten Zugriffe sind aus dem IP-Adressbereich Ihrer Organisation. aber wenn die häufigen Werte nur auf dem zufälligen Datenaufkommen beruhen. weil der Index nicht in jedem Fall mit aktualisiert werden muss. die den Index nicht verwenden kann.0' AND client_ip < inet '192. Es sollte klar sein.

wie in Beispiel 11. die mathematisch äquivalente Ausdrücke. dass das Prädikat mit den Suchbedingungen der Anfragen. soweit nur Spalten der zu indizierenden Tabelle verwendet werden.) Das System kann einfache Implikationen aus Ungleichungen erkennen. Sie haben eine Tabelle. So könnte man das machen: CREATE TABLE tests ( thema text. da das System den gesamten Index durchsuchen muss. Beispiel 11. die auf unterschiedliche Arten geschrieben wurde. dass aus “x < 1” folgt. Wir möchten sicherstellen.2 zeigt auch.. einen UNIQUE-Index über einen Teil einer Tabelle zu erzeugen. Das ist nicht so effizient wie ein partieller Index für die Spalte betrag wäre.3: Einrichtung eines partiellen UNIQUE-Index Nehmen wir an. (Eine solche Beweismaschine ist nicht nur sehr schwer herzustellen. die Testergebnisse speichert. dass die indizierte Spalte und die Spalte im Indexprädikat nicht die gleiche sein müssen.Indexe Eine mögliche Anfrage. dass der Index verwendet werden kann. Das ist eine besonders effiziente Art. PostgreSQL unterstützt partielle Indexe mit beliebigen Prädikaten. die diesen Index verwendet.00. wäre SELECT * FROM bestellungen WHERE rechnung is not true AND bestell_nr < 10000. dass “x < 2”. übereinstimmen muss. um diese Bestellungen zu finden trotzdem von Vorteil sein. Beispiel 11. Beachten Sie. erkennen kann. dass der Index überhaupt in Anfragen eingesetzt wird. Die Bestellung 3501 könnte unter den Bestellungen mit oder ohne Rechnung sein. Genau heißt das. dass das Indexprädikat logisch aus der WHERE-Bedingung der Anfrage folgt. testobjekt text. 197 . zum Beispiel. erreicht. ohne Auswirkungen auf andere Zeilen zu haben. aber es darf beliebig viele “erfolglose” Tests geben. in anderen Fällen muss das Indexprädikat genau mit der Bedingung in der WHERE-Klausel der Anfrage übereinstimmen. PostgreSQL enthält keine sonderlich schlaue Beweismaschine.3. ). dass es nur einen “erfolgreichen” Test für jede Kombination von Thema und Testobjekt gibt. diese Anforderungen umzusetzen. dass diese Anfrage den Index nicht verwenden kann: SELECT * FROM bestellungen WHERE bestell_nr = 3501. testobjekt) WHERE erfolg. sie wäre wahrscheinlich auch viel zu langsam für die Praxis. . ansonsten wird nicht erkannt werden. die bestell_nr gar nicht verwenden. Die Idee ist. besonders wenn es wenige erfolgreiche und viele nicht erfolgreiche Tests gibt. könnte die Verwendung dieses partiellen Index. Dadurch wird die Eindeutigkeit der Zeilen. ein partieller Index kann nur verwendet werden. erfolg boolean. zum Beispiel: SELECT * FROM bestellungen WHERE rechnung is not true AND betrag > 5000. Wenn es aber relativ wenige Bestellungen ohne Rechnung gibt. Beachten Sie aber. die das Indexprädikat erfüllen. Der Index kann allerdings auch in Anfragen verwendet werden. wenn das System erkennen kann.. Eine dritte Möglichkeit zur Verwendung eines partiellen Index verlangt gar nicht danach. die aus dem Index Nutzen ziehen sollen. CREATE UNIQUE INDEX tests_erfolg_constraint ON tests (thema.

um vorherzubestimmen. wenn ein häufiger Wert ausgelesen wird. abschaltet. dass er für die betroffene Anfrage nicht verwendet werden kann. wann ein Index von Nutzen sein kann. wenn Sie Testdaten erfinden. ohne ANALYZE ausgeführt zu haben. Es gibt Konfigurationsparameter. Wenn man zum Beispiel sequentielle Suchen (enable_seqscan) und Nested-Loop-Verbunde (enable_nestloop). um die Wahl der Anfragepläne im System zu übergehen. dass die Einrichtung eines partiellen Index aussagt. um die Verwendung des Index zu vermeiden). wenn die Anwendung noch nicht eingesetzt wird. werden Sie erfahren. In den meisten Fällen wird der Vorteil gegenüber einem normalen Index nicht viel sein. Diese Informationen sind notwendig. Ohne wirkliche Statistiken werden irgendwelche Vorgabewerte verwendet. wird das bei 1 aus 100 Zeilen kaum der Fall sein. wann ein Index verwendet wird und wann nicht (zum Beispiel wird ein Index nicht verwendet. Wenn das System trotzdem eine sequentielle Suche oder einen Nested-Loop-Verbund verwendet. Wenn Sie Testdaten verwenden. einen Index einzusetzen. dass Sie mindestens so viel wissen wie der Anfrageplaner. Es gibt eine Reihe typischer Fälle.8 Indexverwendung überprüfen Trotzdem Indexe in PostgreSQL nicht manuell gewartet oder eingestellt werden müssen.1 beschrieben. warum der Index nicht verwendet wird. welche Indexe von den tatsächlich anfallenden Anfragen wirklich verwendet werden. 11. die in den Beispielen der vorangegangenen Abschnitte gezeigt wurden.4). wie er zu diesem Zweck angewendet wird. die sehr ähnlich oder komplett zufällig sind oder in vorsortierter Reihenfolge eingefügt werden. Dieser Befehl erstellt Statistiken über die Verteilung der Werte in der Tabelle. Olson 1993 und Seshardri & Swami 1995 (siehe Literaturverzeichnis). Obwohl beispielsweise die Auswahl von 1000 Zeilen aus 100000 für einen Index geeignet sein könnte. In einem solchen Fall kann der Index so eingerichtet werden. welche die einfachsten Plantypen sind. ❏ Verwenden Sie echte Daten zum Ausprobieren. PostgreSQL trifft eigentlich vernünftige Einscheidungen darüber. Es ist besonders fatal. Der Rest dieses Abschnitts gibt dazu ein paar Hinweise. einen anderen Plan zu verwenden. Wenn man also die Indexverwendung einer Anwendung untersucht. muss das System versuchen. welche Indexe Sie für die Testdaten brauchen. können die Statistiken gegenüber praxisnahen Daten verfälschen. Es kann vorkommen. ihre Verwendung zu erzwingen. weil die 100 Zeilen wahrscheinlich in eine einzige Speicherseite auf der Festplatte passen und es keinen Plan gibt. zum Beispiel weil die Bedin- 198 . wie viele Zeilen eine Anfrage als Ergebnis haben wird. um jedem möglichen Anfrageplan einen realistische Kostenfaktor zuzuordnen. Der Erwerb dieses Wissens erfordert Erfahrung und ein Verständnis dafür. allgemeingültige Regeln aufzustellen. dass Datenmengen mit eigentümlicher Wertverteilung das System dazu bringen. Es ist sehr schwer. was oft nicht zu vermeiden ist. wann man einen Index einrichten sollte. der besser ist als sequenziell 1 Seite von der Festplatte zu laden. ist das ein hoffnungsloses Unterfangen. ist in Abschnitt 13. wenn es nicht von Vorteil ist. In den meisten Fällen wird man nicht um das Ausprobieren umhinkommen. Merken Sie sich. Weitere Informationen über partielle Indexe finden Sie in den Abhandlungen Stonebraker 1989.Kapitel 11 Schließlich kann man einen partiellen Index auch einsetzen. die ganz bestimmt ungenau sind. Die Verwendung der Indexe kann mit dem Befehl EXPLAIN betrachtet werden. was vom Planer benötigt wird. aber das war auch schon alles. ist es wichtig zu prüfen. kann es beim Testen von Nutzen sein. und grotesk falsche Planerentscheidungen sind auch ein guter Grund für einen Fehlerbericht an die Entwickler. proportional verkleinerte Datenmengen zu verwenden. wie Indexe in PostgreSQL funktionieren. gibt es wahrscheinlich ein grundlegenderes Problem. Seien Sie auch vorsichtig. sodass das Beispiel weiter oben wirklich nur an Indexgröße spart und nicht notwendig ist. insbesondere dass Sie wissen. mit denen die verschiedenen Plantypen ausgeschaltet werden können (beschrieben in Abschnitt 16. ❏ Wenn Indexe nicht verwendet werden. ❏ Führen Sie immer zuerst den Befehl ANALYZE aus. die bestimmen. Werte.

gibt es wiederum zwei Möglichkeiten. indem man die Parameter zur Statistikeinholung ändert (siehe Referenz von ALTER TABLE). dann werden Sie womöglich als letzten Ausweg die Verwendung der Indexe ausdrücklich erzwingen müssen. Die Gesamtkosten werden aus den Kosten pro Zeile jedes Planknotens multipliziert mit der Schätzung. die Parameter so einzustellen. Möglicherweise kann man da Abhilfe schaffen.) ❏ Wenn Sie die Verwendung des Index erzwungen haben und dadurch ein Index tatsächlich verwendet wird. Der Befehl EXPLAIN ANALYZE kann hier nützlich sein. dass die Kostenschätzungen realistisch werden. gibt es zwei Möglichkeiten: Entweder hat das System Recht und die Verwendung des Index ist tatsächlich nicht angebracht oder die Kostenschätzungen der Anfragepläne entsprechen nicht der Wirklichkeit. Vielleicht sollten Sie sich auch mit den PostgreSQL-Entwicklern in Verbindung setzen. Sie sollten also die Zeit Ihrer Anfrage mit und ohne Index messen. Die Kosten der Planknoten können mit Konfigurationsparametern eingestellt werden (beschrieben in Abschnitt 16. um die Angelegenheit zu untersuchen. Eine ungenaue Schätzung der Zeilenzahl kommt von unzureichenden Statistiken. Wenn es Ihnen nicht gelingt. wurde in den vorangegangenen Abschnitten erklärt. ❏ Wenn es sich herausstellt.4).Indexe gung in der Anfrage nicht auf den Index passt. (Welche Anfragen welche Arten von Index verwenden können. wie viele Zeilen der Planknoten ergeben wird (englisch selectivity estimate). 199 . dass die Kostenschätzungen falsch sind.

.

aber die Integrität der Daten strikt zu gewährleisten. um Konsistenz im Mehrbenutzerbetrieb zu gewährleisten. dass in MVCC die Sperren zum Lesen von Daten nicht mit Sperren zum Schreiben von Daten in Konflikt stehen. die zwischen gleichzeitigen Transaktionen verhindert werden müssen. die nicht leicht an das MVCC-Verhalten angepasst werden können. MVCC). Durch die richtige Verwendung von MVCC kann normalerweise aber eine bessere Leistung erzielt werden. sieht. Dadurch erhält jede Datenbanksitzung Transaktionsisolation. Das Ziel in dieser Situation ist. 201 . wenn zwei oder mehr Sitzungen versuchen. welche Sperren verwenden.12Konsistenzkontrolle im Mehrbenutzerbetrie 12 Konsistenzkontrolle im Mehrbenutzerbetrieb Dieses Kapitel beschreibt das Verhalten des PostgreSQL-Datenbanksystems. Die unerwünschten Phänomene sind: Dirty Read (Lesen ungültiger Daten) Eine Transaktion liest Daten.1 Einführung Im Gegensatz zu herkömmlichen Datenbanksystemen. die von anderen Transaktionen durch Änderung an denselben Datenzeilen erzeugt werden könnten. jeder Sitzung effizienten Zugriff zu ermöglichen. Sperren für Tabellen und Zeilen sind in PostgreSQLPostgreSQL auch vorhanden. Das bedeutet. aber noch nicht abgeschlossenen Transaktion geschrieben wurden. zur selben Zeit auf die selben Daten zuzugreifen. ungeachtet des aktuellen Zustands der zugrunde liegenden Daten. Das schützt eine Transaktion davor. Jeder Entwickler von Datenbankanwendungen sollte mit den Themen dieses Kapitels vertraut sein. und daher blockiert das Lesen niemals das Schreiben und das Schreiben niemals das Lesen. für Anwendungen. inkonsistente Daten zu lesen. 12. wie sie vor einiger Zeit waren. Der Hauptunterschied zwischen dem Multiversionsmodell und einem Sperrenmodell ist. verwendet PostgreSQL ein Multiversionsmodell (Multiversion Concurrency Control. 12. dass während einer Anfrage jede Transaktion einen Schnappschuss der Daten (eine Datenbankversion).2 Transaktionsisolation Der SQL definiert Transaktionsisolation in vier Graden durch drei Phänomene. die von einer gleichzeitigen.

Es kann aber sein. ansonsten wird die zweite versuchen. wenn andere Transaktionen während der Ausführung des ersten SELECT abgeschlossen wurden.2. die von Transaktionen stammen. dass zwei aufeinander folgende SELECT-Befehle unterschiedliche Daten sehen könnten.1: SQL-Transaktionsisolationsgrade PostgreSQL bietet die Isolationsgrade Read Committed und Serializable an. dann wird die Zeile von der zweiten Transaktion ignoriert.1 beschrieben. als die Ausführung des Befehls begann. war. Die Befehle UPDATE. die schon abgeschlossen waren. wenn sie von der ersten gelöscht wurde. die die Zeilen betref- 202 . Wenn die erste Transaktion zurückgerollt wird. wie sie in dem Moment.) Im Endeffekt sieht die SELECT-Anfrage einen Schnappschuss der Datenbank. obwohl die eigene Transaktion ja noch nicht abgeschlossen wurde. als die Anfrage mit der Ausführung begonnen hat. Wegen der obigen Regel ist es möglich. sind ihre Auswirkungen hinfällig und die zweite Transaktion kann fortfahren und die ursprünglich gefundene Zeile aktualisieren. dass eine solche Zielzeile. ehe sie gefunden wurde.1 Der Isolationsgrad Read Committed Read Committed ist der Standard-Isolationsgrad in PostgreSQL. Wenn ja. geändert hat. die die Suchbedingung erfüllen. dass sich die Gruppe der Zeilen. 12. DELETE und SELECT FOR UPDATE verhalten sich genauso wie SELECT. welche abgeschlossen wurden (commit). erneut und stellt fest. Isolationsgrad Read Uncommitted Read Committed Repeatable Read Serializable Dirty Read möglich nicht möglich nicht möglich nicht möglich Nonrepeatable Read möglich möglich nicht möglich nicht möglich Phantom Read möglich möglich möglich nicht möglich Tabelle 12. (Das SELECT sieht allerdings die Auswirkungen von vorherigen Aktualisierungen in der eigenen Transaktion. ihre Operation an der aktualisierten Zeile auszuführen.Kapitel 12 Nonrepeatable Read (nichtwiederholbares Lesen) Eine Transaktion liest Daten. schon von einer gleichzeitig laufenden Transaktion aktualisiert (oder gelöscht oder zur Aktualisierung markiert) worden ist. Beachten Sie aber. wiederholt aus und stellt fest. die seitdem abgeschlossen wurde. wegen einer anderen Transaktion. dass die Daten von einer anderen Transaktion (die seit dem ersten Lesen abgeschlossen wurde) verändert worden sind. dann fährt die zweite Transaktion mit ihrer Operation fort. sie sieht niemals Daten aus nicht abgeschlossenen Transaktionen oder aus Transaktionen. selbst wenn sie in derselben Transaktion ausgeführt werden. ob die erste Transaktion erfolgreich abgeschlossen (commit) oder zurückgerollt (rollback) wird (wenn sie überhaupt noch unabgeschlossen ist). Wenn die erste Transaktion erfolgreich abgeschlossen wird. ausgehend von der aktualisierten Version der Zeile. In diesem Fall wartet die zweite aktualisierende Transaktion. wenn es um das Suchen von Zielzeilen geht: Sie finden nur Zeilen. Wenn eine Transaktion in diesem Isolationsgrad läuft. dann sieht eine SELECT-Anfrage nur Daten aus Transaktionen. Die Suchbedingung der Anfrage (die WHERE-Klausel) wird erneut ausgewertet. um zu prüfen. bevor die Anfrage begann. Phantom Read (Lesen von Phantomdaten) Eine Transaktion führt eine Anfrage mit Suchbedingung. welche eine Gruppe von Zeilen ergibt. ob sie von der aktualisierten Version der Zeile immer noch erfüllt wird. die während der Ausführung der Anfrage abgeschlossen wurden. dass ein aktualisierender Befehl einen inkonsistenten Schnappschuss sieht: Er sieht die Auswirkungen von gleichzeitig ablaufenden Transaktionen. Die vier Transaktionsisolationsgrade und die sich daraus ergebenden Verhalten werden in Tabelle 12. welche sie vorher schon gelesen hat.

ehe sie gefunden wurde. die schon abgeschlossen waren. UPDATE konten SET kontostand = kontostand . Aber wenn die erste Transaktion erfolgreich abgeschlossen wird (und die Zeile tatsächlich aktualisiert oder gelöscht und nicht nur zur Aktualisierung ausgewählt wurde). er sieht niemals Daten aus nicht abgeschlossenen Transaktionen oder Änderungen aus Transaktionen. dann sieht ein SELECT-Befehl nur Daten aus Transaktionen. obwohl die eigene Transaktion ja noch nicht abgeschlossen wurde. die während der Ausführung der aktuellen Transaktion abgeschlossen wurden.2 Der Isolationsgrad Serializable Der Isolationsgrad Serializable bietet die strikteste Transaktionsisolation. Wenn die erste Transaktion zurückgerollt wird. welche abgeschlossen wurden. bevor die neue Transaktion begann. dass die zweite Transaktion die aktualisierten Daten sieht. aber er sieht nicht die Auswirkungen der gleichzeitigen Transaktionen auf andere Zeilen in der Datenbank. dass ein SELECT einen Schnappschuss vom Anfang der Transaktion sieht. dann sind ihre Auswirkungen hinfällig und die serialisierbare Transaktion kann fortfahren und die ursprünglich gefundene Zeile aktualisieren. UPDATE konten SET kontostand = kontostand + 100. welche der Befehl aktualisieren will. abgeschlossenen Transaktionen sowieso. Dieses Verhalten macht den Modus Read Committed für Befehle mit komplexen Suchbedingungen ungeeignet. wenn es um das Suchen von Zielzeilen geht: Sie finden nur Zeilen. dass wir innerhalb eines einzelnen Befehls einen absolut konsistenten Blick auf die Datenbank haben. welcher die Änderungen aus allen bis zu diesem Zeitpunkt abgeschlossenen Transaktionen enthält. Wenn zwei solche Transaktionen gleichzeitig versuchen. als die Ausführung der Transaktion begann. eine noch strengere Konsistenz der Datenbankansicht zu garantieren. wenn die “Serialisierung” fehlschlägt.00 WHERE kontonr = 7534. Da jeder Befehl nur eine vorherbestimmte Zeile bearbeitet.2. die von Transaktionen stammen. Es kann aber sein. müssen allerdings darauf vorbereitet sein. ist für viele Anwendungen ausreichend und ist auch schnell und leicht zu verwenden. Betrachten Sie zum Beispiel das Aktualisieren von Kontoständen mit Transaktionen wie BEGIN. Der Sinn und Zweck hier ist. Für einfachere Fälle ist er aber genau richtig. dann wollen wir zweifellos. In diesem Fall wartet die serialisierbare Transaktion. die durch den Modus Read Committed geboten wird. DELETE und SELECT FOR UPDATE verhalten sich genauso wie SELECT. den Kontostand von Konto 12345 zu ändern. Aufeinander folgende SELECT-Befehle innerhalb derselben Transaktion sehen also immer die gleichen Daten. sehen nachfolgende Befehle die Auswirkungen von gleichzeitig ablaufenden. Dieser Grad emuliert die serielle Ausführung von Transaktionen. Da im Modus Read Committed jeder neue Befehl mit einem neuen Schnappschuss anfängt. COMMIT.Konsistenzkontrolle im Mehrbenutzerbetrieb fen. (Das SELECT sieht allerdings die Auswirkungen von vorherigen Aktualisierungen in der eigenen Transaktion. die diesen Grad verwenden. wird die serialisierbare Transaktion mit der Meldung ERROR: Can't serialize access due to concurrent update 203 . als ob die Transaktionen nacheinander statt gleichzeitig ausgeführt worden wären. ergibt sich keine besorgniserregende Inkonsistenz daraus. 12. Anwendungen. dass die zweite Transaktion von der aktualisierten Version der Kontozeile ausgeht. In Anwendungen mit komplexen Anfragen und Aktualisierungen kann es allerdings notwendig sein. Die teilweise Transaktionsisolation.100. schon von einer gleichzeitig laufenden Transaktion aktualisiert (oder gelöscht oder zur Aktualisierung markiert) worden ist.) Das unterscheidet sich vom Modus Read Committed dadurch. Transaktionen neu zu versuchen. Die Befehle UPDATE. nicht vom Anfang des aktuellen Befehls innerhalb der Transaktion. ob die erste Transaktion erfolgreich abgeschlossen oder zurückgerollt wird (wenn sie überhaupt noch unabgeschlossen ist).00 WHERE kontonr = 12345. dass eine solche Zielzeile. Wenn eine Transaktion im Modus Serializable ist.

(Eine Transaktion kann allerdings nie mit sich selbst in Konflikt stehen. die einen identischen Blick auf die Datenbank haben müssen. mit welchen anderen Modi sie in Konflikt stehen. Transaktionen. Wenn eine Anwendung diese Fehlermeldung sieht. die von anderen Transaktionen nach Beginn der serialisierbaren Transaktion geändert wurden. Diese Modi können verwendet werden. 12. um Sperren von der Anwendung aus zu kontrollieren. die so komplex sind. komplexe Transaktionen zu wiederholen.3 Ausdrückliche Sperren PostgreSQL bietet verschiedene Sperrmodi. aber die Bedeutung ist bei allen Sperren die gleiche. Beachten Sie.1 Tabellensperren Die unten folgende Liste zeigt die vorhandenen Sperrmodi und in welchen Zusammenhängen die Sperren von PostgreSQL automatisch gesetzt werden. Sie kann zum Beispiel eine ACCESS EXCLUSIVE-Sperre setzen und später eine ACCESS-SHARE Sperre für dieselbe Tabelle. Um zu überprüfen. um sicherzustellen. Da es mit enormem Aufwand verbunden sein kann. Anwendungen müssen aber bereit sein. Der Modus Serializable gibt einem eine rigorose Garantie. um den gleichzeitigen Zugriff auf Tabellendaten zu kontrollieren. die in Konflikt zueinander stehen. die nicht in Konflikt miteinander stehen. wenn eine Transaktion mehrere aufeinander folgende Befehle ausführt. können Sie die Systemsicht pg_locks verwenden. In gewisser Weise spiegeln die Namen die typischen Verwendungssituationen eines Sperrmodus wider.3. weil eine serialisierbare Transaktion keine Zeilen ändern kann. selbst wenn der Name das Wort “row” (Zeile) enthält. (Zum Beispiel kann ALTER TABLE nicht gleichzeitig mit irgendeiner anderen Operation an der gleichen Tabelle ausgeführt werden. ist dieser Modus nur empfohlen. wenn gleichzeitige Änderungen es unmöglich machen. Wenn eine Sperre gesetzt wurde. dass die verwendeten Tabellen nicht entfernt oder auf nichtverträgliche Art verändert werden. Denken Sie daran. können von mehreren Transaktionen gleichzeitig gehalten werden.) Sperren. sollte sie die aktuelle Transaktion abbrechen und die ganze Transaktion von vorne versuchen. Im zweiten Versuch sieht die Transaktion die Auswirkungen der anderen Transaktion als Teil ihres anfänglichen Schnappschusses von der Datenbank. Die meisten PostgreSQL-Befehle setzen auch automatisch die passenden Sperren.Kapitel 12 zurückgerollt. dass jede Transaktion einen vollständig konsistenten Blick auf die Datenbank hat. Transaktionen zu wiederholen. Weitere Informationen. dass einige Sperrmodi mit sich selbst in Konflikt stehen (zum Beispiel kann eine ACCESS EXCLUSIVE-Sperre nicht von mehreren Transaktionen gleichzeitig gehalten werden). Zwei Transaktionen können nicht zur gleichen Zeit für die gleiche Tabelle Sperren innehaben. wie Sie das Sperrensystem überwachen können. wenn MVCC nicht das gewünschte Verhalten bietet. dass alle diese Sperren auf Tabellenebene wirken. 204 . bleibt sie bis zum Ende der Transaktion erhalten. Meistens ist der Modus Serializable notwendig. finden Sie in Kapitel 23. wenn aktualisierende Transaktionen Befehle enthalten. aber einige nicht (zum Beispiel kann eine ACCESS-SHARE Sperre von mehreren Transaktionen gehalten werden).) 12. während der Befehl ausgeführt wird. dass nur schreibende Transaktionen gelegentlich wiederholt werden müssen. haben niemals Serialisierungskonflikte. die nur lesen. sodass es keine logischen Widersprüche gibt. Beachten Sie auch besonders. Der einzige wirkliche Unterschied zwischen den Sperrmodi ist. die Illusion der aufeinander folgenden Ausführung aufrechtzuerhalten. welche Sperren gerade im Datenbankserver gehalten werden. die Namen der Sperrmodi sind historisch bedingt. wenn die neue Version der Zeile als Ausgangspunkt für die Aktualisierungen in der neuen Transaktion verwendet wird. dass sie im Modus Read Committed falsche Ergebnisse liefern könnten.

Der Befehl SELECT FOR UPDATE setzt Sperren dieses Modus für die Zieltabelle(n) (zusätzlich zu ACCESS SHARE-Sperren für alle anderen Tabellen. Dieser Modus schützt eine Tabelle gegen gleichzeitige Datenänderungen. 205 . aber nicht in der FOR UPDATE-Klausel stehen). Der Befehl SELECT setzt Sperren dieses Modus für alle verwendeten Tabellen. Generell setzt jeder Befehl. Dieser Modus erlaubt nur eine gleichzeitige ACCESS SHARE-Sperre. diesen Sperrmodus. SHARE UPDATE EXCLUSIVE. SHARE UPDATE EXCLUSIVE Steht in Konflikt mit den Sperrmodi SHARE UPDATE EXCLUSIVE. die auf diese Tabelle auf irgendeine Art zugreift. SHARE UPDATE EXCLUSIVE. Automatisch von VACUUM (ohne FULL) gesetzt. können nur Lesevorgänge in der Tabelle stattfinden. SHARE ROW EXCLUSIVE Steht in Konflikt mit den Sperrmodi ROW EXCLUSIVE. SHARE Steht in Konflikt mit den Sperrmodi ROW EXCLUSIVE. ROW EXCLUSIVE. diesen Sperrmodus.Konsistenzkontrolle im Mehrbenutzerbetrieb Tabellensperrmodi ACCESS SHARE Steht nur in Konflikt mit dem Sperrmodus ACCESS EXCLUSIVE. die verwendet werden. EXCLUSIVE und ACCESS EXCLUSIVE. ROW SHARE Steht in Konflikt mit den Sperrmodi EXCLUSIVE und ACCESS EXCLUSIVE. EXCLUSIVE und ACCESS EXCLUSIVE. Dieser Sperrmodus wird von keinem PostgreSQL-Befehl automatisch verwendet. SHARE ROW EXCLUSIVE. SHARE ROW EXCLUSIVE. Dieser Modus garantiert. SHARE. Generell setzt jede Anfrage. EXCLUSIVE und ACCESS EXCLUSIVE. SHARE. DELETE und INSERT setzen Sperren dieses Modus für die Zieltabelle (zusätzlich zu ACCESS-SHARE Sperren für alle anderen verwendeten Tabellen). DROP TABLE und VACUUM FULL gesetzt. Dieser Sperrmodus wird von keinem PostgreSQL-Befehl automatisch verwendet. Dieser Modus schützt eine Tabelle gegen gleichzeitige Schemaveränderungen oder VACUUM-Läufe. die diese Sperre hält. EXCLUSIVE und ACCESS EXCLUSIVE). SHARE ROW EXCLUSIVE. ACCESS EXCLUSIVE Steht in Konflikt mit allen Sperrmodi (ACCESS SHARE. SHARE UPDATE EXCLUSIVE. die einzige Transaktion ist. ROW SHARE. das heißt. Automatisch von CREATE INDEX gesetzt. die nur eineTabelle liest und nicht verändert. der die Daten in einer Tabelle verändert. Der Befehl UPDATE. EXCLUSIVE Steht in Konflikt mit den Sperrmodi ROW SHARE. wenn kein anderer Sperrmodus ausdrücklich angegeben wurde. ROW EXCLUSIVE Steht in Konflikt mit den Sperrmodi SHARE. SHARE ROW EXCLUSIVE. die diesen Sperrmodus hält. EXCLUSIVE und ACCESS EXCLUSIVE. ROW EXCLUSIVE. Wird automatisch von den Befehlen ALTER TABLE. SHARE. Dieser Modus wird auch vom Befehl LOCK TABLE verwendet. SHARE ROW EXCLUSIVE. dass die Transaktion. SHARE UPDATE EXCLUSIVE. SHARE. SHARE ROW EXCLUSIVE. gleichzeitig mit einer Transaktion. EXCLUSIVE und ACCESS EXCLUSIVE.

die eine Tabellen. PostgreSQL entdeckt Verklemmungen automatisch und löst sie. Wenn eine bestimmte Zeilensperre gesetzt wurde. ohne vor Konflikten Angst haben zu müssen. welche den Lese. hat. wenn die Zeile aktualisiert (oder gelöscht oder zur Aktualisierung markiert) wird. bis die Transaktion abgeschlossen oder zurückgerollt wird. die die anderen erlangen wollen.3 Verklemmungen Durch die Verwendung von expliziten Sperren können Verklemmungen (englisch deadlock) auftreten. wird eine Transaktion. Um eine Zeilensperre zu setzen. Außer Tabellen. eine exklusive Sperre für Tabelle B zu erlangen. kann eine Transaktion eine Zeile mehrfach aktualisieren.und Zeilensperren gibt es noch exklusive und nichtexklusive Sperren auf Speicherseitenebene. Transaktionen über längere Zeiträume offen zu lassen (z.3.3. wenn Transaktion 1 eine exklusive Sperre für Tabelle 1 setzt und danach versucht. indem eine der verwickelten Transaktionen abgebrochen wird.oder Zeilensperre angefordert hat. Wenn es nicht praktikabel ist. von einer anderen Transaktion zeitgleich überschrie- 206 . dann kann keine der beiden Transaktionen fortfahren. Die Sperre wird gehalten. Das bedeutet. den man für das Objekt benötigen wird. die für ein Objekt in einer Transaktion angefordert wird. dass es keine gute Idee ist. endlos darauf warten.und Schreibzugriff auf die Tabellenspeicherseiten im gemeinsamen Pufferpool kontrollieren. die wegen Verklemmungen abgebrochen wurden. wie viele Zeilen auf einmal gesperrt sein können.) Die beste Vorsorge gegen Verklemmungen ist im Allgemeinen. Anwendungsentwickler müssen sich in der Regel nicht mit diesen Sperren befassen. sobald eine Zeile gelesen oder aktualisiert wurde. Zeilensperren haben keine Auswirkungen auf das Anfragen von Daten.B. wenn zwei (oder mehr) Transaktionen jeweils Sperren halten. (Welche Transaktion genau abgebrochen wird. Eine Zeilensperre für eine bestimmte Zeile wird automatisch gesetzt. den höchsten Modus. indem man Transaktionen. Außerdem sollte man sicherstellen. sie blockieren nur Schreibvorgänge in der selben Zeile. Solange keine Verklemmung entdeckt wird. ein SELECT FOR UPDATE verändert die ausgewählten Zeilen zum Beispiel. neu startet. dass die erste Sperre. 12. dass alle Anwendungen in einer Datenbank Sperren für mehrere Objekte in einer einheitlichen Reihenfolge anfordern. ohne die Zeile wirklich zu verändern. können die Daten. aber wir erwähnen sie hier der Vollständigkeit halber. und dadurch muss auf die Festplatte geschrieben werden. dass man sie vermeidet. 12. PostgreSQL speichert keine Informationen über veränderte Zeilen im Hauptspeicher und hat daher keine Höchstgrenze. indem man darauf achtet. kann man Verklemmungen zur Laufzeit behandeln. die von einer Transaktion gelesen werden. Das sperren einer Zeile kann allerdings Schreibvorgänge auf die Festplatte verursachen. 12. ist schwer vorherzusagen und man sollte sich nicht darauf verlassen. Zum Beispiel. dass in Konflikt stehende Sperren aufgehoben werden.4 Konsistenzkontrolle auf der Anwendungsseite Da Lesevorgänge in PostgreSQL ungeachtet des Transaktionsisolationsgrads keine Daten sperren. während Transaktion 2 schon eine exklusive Sperre für Tabelle B hält und jetzt eine exklusive Sperre für Tabelle A möchte.Kapitel 12 Tipp Nur eine ACCESS EXCLUSIVE-Sperre blockiert einen SELECT-Befehl (ohne FOR UPDATE). Diese Sperren werden sofort wieder aufgehoben. dies vorher zu überprüfen. wählen Sie die Zeile mit SELECT FOR UPDATE aus. während man auf eine Eingabe des Anwenders wartet). wodurch die andere(n) fortfahren können.2 Zeilensperren Neben Tabellensperren gibt es Zeilensperren.

also ist es möglich. kann das zu einem ernsthaften Durcheinander führen. Selbst wenn die Zeile “jetzt” noch gültig ist. wogegen LOCK TABLE die ganze Tabelle sperrt. wenn man Anwendungen von anderen Umgebungen nach PostgreSQL übertragt. 207 . bevor die aktuelle Transaktion abgeschlossen oder zurückgerollt wird. Der Schnappschuss einer serialisierbaren Transaktion wird eingefroren. wenn man von PostgreSQL-Versionen vor 6. Aber es stellt sich die legitime Frage. wenn man ausdrückliche Sperren verwendet. die von einer serialisierbaren Transaktion gesetzt wurde. Wenn man die Summen in einer einzelnen serialisierbaren Transaktion berechnen lässt. aber wenn Clients über Kanäle außerhalb der Datenbank miteinander kommunizieren. bevor die serialisierbare begann. ob die Antwort. Das ist normalerweise kein großes Problem. Wenn die serialisierbare Transaktion selbst einige Änderungen vornimmt. dass man die Sperren setzt. Globale Datenprüfungen erfordern unter MVCC etwas mehr Überlegung. die nicht von der ersten mitgezählt wurden. In solchen Fällen könnte man. dann wird die Bedeutung des Prüfungsergebnisses noch fragwürdiger. wenn sie endlich ausgegeben wird. Um den aktuellen Zustand einer Zeile abzusichern und sie gegen gleichzeitig ablaufende Aktualisierungen zu schützen.h. bevor man Anfragen ausführt. bevor sie die Prüfung durchführt. Eine ausdrückliche Sperre. wobei beide Tabellen ständig aktualisiert werden. bevor der Schnappschuss eingefroren wird. wenn man sehr sorgfältig ist. UPDATE oder DELETE) ausgeführt wird. müssen Sie den Befehl SELECT FOR UPDATE oder einen passenden LOCK TABLE-Befehl verwenden. außer der eigenen.5 hat auch PostgreSQL Lesesperren verwendet. aber wenn der von der Transaktion gesehene Schnappschuss vor dem Setzen der Sperre gemacht wurde. dass keine anderen Transaktionen. wenn die Clientanwendungen voneinander getrennt sind. geändert oder gelöscht worden sein. dass es keine unabgeschlossene Transaktion. wenn eine Zeile von einem SELECT zurückgegeben wird. die aus seit dem abgeschlossenen Transaktionen stammen. noch am laufen sind. könnte sie geändert oder gelöscht werden. dass er auch vor einigen Änderungen gemacht wurde. garantiert. Das Vergleichen zweier aufeinander folgender SELECT sum(.Konsistenzkontrolle im Mehrbenutzerbetrieb ben werden. Daher gelten die obigen Überlegungen auch. irgendwann nachdem die Anfrage anfing) noch aktuell ist. wenn die erste Anfrage oder der erste Datenmodifikationsbefehl (SELECT. dann ist es möglich. (SELECT FOR UPDATE sperrt nur die Ergebniszeilen gegen gleichzeitige Aktualisierungen. dass jede Transaktion einen Schnappschuss des Datenbankinhalts sieht.) Das sollte man mit in die Überlegungen einfließen lassen. ob die Summe aller Soll-Beträge in einer Tabelle gleich der Summe aller Haben-Beträge in einer anderen Tabelle ist. die nach dieser abgeschlossen wurde.)-Anfragen würde im Isolationsgrad Read Committed nicht verlässlich sein. die die Tabelle verändern. Die Zeile könnte von einer Transaktion. Der ganze Begriff des “Jetzt” ist also sowieso etwas zweifelhaft. Beachten Sie auch. dass die Zeile im Moment der Rückgabe (d. die abgeschlossen wurden.. alle für die Prüfung notwendigen Tabellen sperren. INSERT. dann sollte man den Isolationsgrad Read Committed verwenden.. gibt. überhaupt noch relevant ist. ist. Anders ausgedrückt.5 kommt. die Daten in der gesperrten Tabelle verändert hat. da in die zweite Anfrage wahrscheinlich Ergebnisse von Transaktionen mit einfließen. um so ein unstrittiges Bild der gegenwärtigen Tatsachen zu erhalten. enthält. sich das vorzustellen. Anmerkung Vor Version 6. weil es jetzt einige. Eine andere Möglichkeit. heißt das nicht. um gleichzeitige Änderungen auszuschließen. und gleichzeitig ablaufende Transaktionen können sehr wohl unterschiedliche Schnappschüsse sehen. oder im Modus Serializable darauf achten. Eine Sperre im Modus SHARE (oder höher) garantiert. die nach dem Start der Transaktion getätigt wurden. dann erhält man ein genaues Bild über die Auswirkungen der Transaktionen. Eine Bankanwendung könnte zum Beispiel überprüfen wollen. aber nicht alle Änderungen. Sperren zu setzen.

208 . wenn der Befehl beendet ist.und Schreibsperren auf Seitenebene verwendet.5 Sperren und Indexe Obwohl PostgreSQL nicht blockierendes Lesen und Schreiben in Tabellen ermöglicht. Hash-Indexe Es werden Lese. wird nicht blockierendes Lesen und Schreiben gegenwärtig nicht für alle in PostgreSQL vorhandene Indextypen geboten. nachdem eine Indexzeile gelesen oder eingefügt wurde. Die verschiedenen Indextypen werden folgendermaßen behandelt: B-Tree-Indexe Es werden kurzzeitige Lese.und Schreibsperren auf Indexebene verwendet. sind aber für Verklemmungen anfällig. GIST. die ein hohes Maß an Parallelität erfordern. Die Sperren werden aufgehoben. nachdem die Seite verarbeitet worden ist. Die Sperren werden aufgehoben. Die Sperren werden sofort. B-Tree-Indexe bieten das beste Maß an gleichzeitigem Zugriff ohne Verklemmungsgefahr.Kapitel 12 12.und R-Tree-Indexe Es werden Lese. aufgehoben. Kurz gesagt sind B-Tree-Indexe empfohlen für Anwendungen. Seitensperren bieten bessere gleichzeitige Ausführung als Indexsperren.und Schreibsperren auf Seitenebene verwendet.

ist für eine gute Leistung absolut kritisch. (Die CPU-Bemühungen werden mit relativ willkürlichen Umrechnungsfaktoren in Diskseiten-Einheiten umgewandelt. aber vom Planer ignoriert wird. um die Ergebnisse an den Client zu schicken. wenn er ganz ausgeführt wird) ❏ geschätzte Breite (in Bytes) der Zeilen. 13. um zu sehen.) ❏ geschätzte Zahl der Zeilen. die ausgeführt werden soll. dass die Kosten eines übergeordneten Knotens die Kosten aller untergeordneten Knoten enthalten. die gegenwärtig von EXPLAIN ausgegeben werden. hoffen wir doch. z. die dieser Planknoten ausgibt Die Einheiten der Kostenwerte ist das Lesen (fetch) einer Diskseite (disk page).1 EXPLAIN verwenden PostgreSQLPostgreSQL entwirft für jede Anfrage. Sie können den Befehl EXPLAIN verwenden.B. welchen Anfrageplan das System für jede beliebige Anfrage erstellt. Das Lesen des Plans ist eine Kunst für sich.13 13 Tipps zur Leistungsverbesserung Die Leistung von Anfragen kann von vielen Dingen beeinflusst werden. um die sich der Planer/Optimierer kümmert. für die es eigentlich eine ausführliche Anleitung geben sollte. aber andere Faktoren sind fest im Design des Systems verankert.) 209 . Dieses Kapitel gibt einige Hinweise. Insbesondere beinhalten die Kosten nicht die Zeit. Es ist auch wichtig zu bedenken. was nicht sein muss: Eine Anfrage mit einer LIMIT-Klausel wird zum Beispiel nicht die gesamten Kosten verursachen. der der Struktur der Anfrage und den Eigenschaften der Daten entspricht. Wenn Sie mit diesen Faktoren experimentieren wollen. die benötigt wird. Einige davon können vom Benutzer verändert werden. ( Jeder korrekte Plan ergibt dieselbe Zeilenmenge. Die Zahlen.) Es ist wichtig anzumerken. die dieser Planknoten ausgeben wird (wiederum nur. weil es nicht durch Veränderung des Plans verbessert werden kann. was in der tatsächlich abgelaufenen Zeit ein ziemlich beherrschender Faktor sein könnte. sind: ❏ geschätzte Startkosten (Zeit. Die Wahl des richtigen Plans. einen Anfrageplan (englisch query plan). aber wir geben hier einige grundsätzliche Informationen. wie Sie die Leistungsfähigkeit von PostgreSQL verstehen und verbessern können. dass die Kosten nur die Vorgänge einberechnen.4 an. bis die Ausgabe anfangen kann. was dies hier nicht ist. die benötigt wird. dann schauen Sie sich die Liste der Laufzeiteinstellungen in Abschnitt 16. Zeit zum Sortieren in einem Sortierknoten) ❏ geschätzte Gesamtkosten (Wenn alle Zeilen zurückgegeben würden.

die von der Anfrage gelesen oder verarbeitet werden.) Wenn Sie die Anfrage SELECT * FROM pg_class WHERE relname = 'tenk1'.. QUERY PLAN ------------------------------------------------------------------------------Index Scan using tenk1_unique1 on tenk1 (cost=0. weswegen die Kosten nicht gefallen sind.333.0 pro Stück kosten.00.00. Die Kosten werden also berechnet aus 233 zu lesenden Seiten. sie ist normalerweise geringer. ausführen. die diese Anfrage liefert. weil sie nicht die Zahl der Zeilen darstellt. QUERY PLAN ------------------------------------------------------------- Seq Scan on tenk1 (cost=0. was es gibt. weil die geschätzten Effekte einer etwaigen Bedingung in einer WHERE-Klausel in diesem Knoten mit einfließen. werden Sie wahrscheinlich geringfügig andere Schätzungen sehen.00 rows=1033 width=148) Filter: (unique1 < 1000) Die Schätzung der Ergebniszeilen hat sich wegen der WHERE-Klausel verringert. was so ziemlich das einfachste ist. tatsächlich sind sie sogar ein bisschen gestiegen. mit den Entwicklungsquelltext von 7. dass tenk1 Diskseiten und 10000 Zeilen hat. um die Bedingung noch stärker einschränkend zu machen: EXPLAIN SELECT * FROM tenk1 WHERE unique1 < 50. Die tatsächliche Anzahl der Zeilen. da die von ANALYZE erstellten Statistiken aus einer zufälligen Auswahl aus der Tabelle erstellt werden.33 rows=49 width=148) Index Cond: (unique1 < 50) 210 . Wenn Sie versuchen. Hier sind einige Beispiele (aus der Regression-Test-Datenbank nach einem VACUUM ANALYZE. also eine Suche durch die Tabelle von Anfang bis Ende.179. um der gestiegenen CPU-Leistung vom Prüfen der WHERE-Bedingung Rechnung zu tragen. Allerdings muss immer noch die gesamte Tabelle mit 10000 Zeilen durchsucht werden. aktualisierten oder gelöschten Zeilen sein. Im Idealfall wird die Zeilenschätzung für den obersten Knoten in etwa gleich der Zahl der tatsächlich von dieser Anfrage ausgewählten. die per Definition 1. plus 10000 mal cpu_tuple_cost (CPU-Kosten pro Zeile).00.00 rows=10000 width=148) Das ist ein Sequential Scan.und Gesamtkosten. ist 1000. werden Sie feststellen. außerdem wird sich die Schätzung nach jedem ANALYZE-Befehl ändern.Kapitel 13 Die Zahl der ausgegebenen Zeilen ist etwas knifflig. Jetzt modifizieren wir die Anfrage und fügen eine WHERE-Klausel hinzu: EXPLAIN SELECT * FROM tenk1 WHERE unique1 < 1000. dieses Experiment selbst zu wiederholen. (cost sind die Start.01 ist (probieren Sie SHOW cpu_tuple_cost).. rows die Zeilenschätzung und width die Zeilenbreite.. Ändern Sie die Anfrage noch einmal.3): EXPLAIN SELECT * FROM tenk1. aber die Schätzung ist nur annähernd. was gegenwärtig 0.358. QUERY PLAN -----------------------------------------------------------Seq Scan on tenk1 (cost=0.

01) plus etwas CPU für die Bearbeitung der Verbundoperation.unique2 = t2. die wir im vorletzten Beispiel gesehen hatten.Tipps zur Leistungsverbesserung Sie sehen.00. ein Index Scan (eine Indexsuche) billiger ist als eine sequenzielle Suche.. weil wir immer noch die gleiche Menge von Zeilen durchsuchen müssen. um diese zusätzlichen Berechnungen mit einzuschließen. weil man im Allgemeinen WHERE-Klauseln haben kann..327. als eine Diskseite sequenziell zu lesen..179.45 rows=1 width=148) Index Cond: (unique1 < 50) Filter: (stringu1 = 'xxx'::name) Die zusätzliche Bedingung stringu1 = 'xxx' verringert die Schätzung der Ausgabezeilen. QUERY PLAN ------------------------------------------------------------------------------Index Scan using tenk1_unique1 on tenk1 (cost=0. weil wir die WHERE-Klausel unique1 < 50 in diesem Knoten anwenden. wird der Planer irgendwann entscheiden. Dieser Plan wird wegen des Index nur 50 Zeilen aufsuchen müssen und ist daher besser.unique2 ist noch nicht relevant und beeinflusst folglich die Zeilenzahl der äußeren Schleife nicht. obwohl das Aufsuchen jeder einzelnen Zeile teurer ist.hundred hinzufügen würden. die wir für. QUERY PLAN ---------------------------------------------------------------------------Nested Loop (cost=0. In diesem Beispiel ist die Ergebniszeilenzahl des Verbunds gleich dem Produkt der Zeilenzahlen aus den beiden Schleifen..unique2 = t2. wenn Sie die WHERE-Bedingung ausreichend restriktiv machen. aber das muss nicht immer der Fall sein. Wir sehen folglich den gleichen Plan und die gleichen Kosten.. dass die Bedingung mit stringu1 nicht als Suchbedingung für den Index verwendet werden kann (da der Index nur für die Spalte unique1 ist). Anstelle dessen wird sie als Filter für die Zeilen. Fügen Sie der WHERE-Klausel eine weitere Bedingung hinzu: EXPLAIN SELECT * FROM tenk1 WHERE unique1 < 50 AND stringu1 = 'xxx'. dass. nicht in einer der beiden Schleifen.00. Jetzt verbinden wir zwei Tabellen unter Verwendung der besprochenen Spalten: EXPLAIN SELECT * FROM tenk1 t1. die aus der Indexsuche kommen. Daher haben sich die Kosten ein bisschen erhöht.00. aber nicht die Kosten.3. verwendet. also sind die Kosten und Zeilenzahlen gleich.unique1 < 50 AND t1. 211 ..00. sagen wir EXPLAIN SELECT * FROM tenk2 WHERE unique2 = 42 sehen würden.unique2 = t2.hundred < t2. Die Kosten des Nested-Loop-Knotens werden dann berechnet aus den Kosten für die äußere Schleife plus einer Wiederholung der inneren Schleife für jede äußere Zeile (hier 49 * 3.unique2 = konstante.02 rows=49 width=296) -> Index Scan using tenk1_unique1 on tenk1 t1 (cost=0. Wenn wir zum Beispiel WHERE .01 rows=1 width=148) Index Cond: ("outer". Die Klausel t1. Beachten Sie. AND t1. dann würde dadurch die Zahl der Ergebniszeilen sinken.unique2.unique2) In diesem Nested-Loop-Verbund (geschachtelte Schleifen) verwendet die äußere Schleife die gleiche Indexsuche.179.33 rows=49 width=148) Index Cond: (unique1 < 50) -> Index Scan using tenk2_unique2 on tenk2 t2 (cost=0. tenk2 t2 WHERE t1. In der inneren Schleife wird der Wert von unique2 in der aktuellen Zeile der äußeren Schleife in die Indexsuche eingesetzt und erzeugt dadurch eine Indexbedingung wie t2. aber die beiden untergeordneten Schleifen bleiben gleich. die auf beide Tabellen verweisen und daher nur im Verbundknoten angewendet werden können.

) SET enable_nestloop = off.00. dass die Kosten nicht 10000 mal 179.29. tenk2 t2 WHERE t1.00. dass sie die beste wäre. Wir könnten zum Beispiel ein Ergebnis wie dieses erhalten: EXPLAIN ANALYZE SELECT * FROM tenk1 t1.179. (Das ist eine ziemlich primitive Methode.33.563..00. mithilfe der entsprechenden Laufzeiteinstellungen zu ignorieren.Kapitel 13 Eine Möglichkeit.3. ist..unique1 < 50 AND t1. um tenk1 zu lesen und die HashTabelle einzurichten.02 rows=49 width=296) (actual time=1. da wir keine Zeilen geliefert bekommen.179..unique1 < 50 AND t1.18.unique2 zu suchen. Dieser Befehl führt die Anfrage aus und zeigt dann die in jedem Planknoten gemessene Laufzeit zusammen mit den geschätzten Kosten.unique2 = "inner". gehören vollständig zu den Startkosten des Hash-Verbunds.unique2 = t2. QUERY PLAN ------------------------------------------------------------------------------Nested Loop (cost=0.91 rows=50 loops=1) Index Cond: (unique1 < 50) -> Index Scan using tenk2_unique2 on tenk2 t2 (cost=0.33 rows=49 width=148) -> Index Scan using tenk1_unique1 on tenk1 t1 (cost=0.33 rows=49 width=148) (actual time=0..29.32 rows=1 loops=50) Index Cond: ("outer". die Einrichtung der Hash-Tabelle findet bei diesem Plantyp nur einmal statt.33 betragen.. Man kann die Genauigkeit der vom Planer geschätzten Kosten mit dem Befehl EXPLAIN ANALYZE überprüfen. EXPLAIN SELECT * FROM tenk1 t1... den Planer zu zwingen.82 rows=50 loops=1) -> Index Scan using tenk1_unique1 on tenk1 t1 (cost=0.unique2) -> Seq Scan on tenk2 t2 (cost=0.00. tenk2 t2 WHERE t1. QUERY PLAN -------------------------------------------------------------------------Hash Join (cost=179. von der er dachte.00. um die Hash-Tabelle 10000 Mal zu prüfen. diese dann in einer Hash-Tabelle im Hauptspeicher abzulegen.60 msec 212 .45. Die Schätzung der Gesamtzeit für den Verbund enthält auch einen hohen Preis für den CPU-Aufwand.unique2.unique2..179.unique2 = t2. Siehe auch Abschnitt 13.8.unique2 = t2.unique2) Total runtime: 31.06 rows=49 width=296) Hash Cond: ("outer".3. um sich andere Pläne anzuschauen. bis wir mit dem Lesen von tenk2 anfangen.63.unique2 = t2.01 rows=1 width=148) (actual time=0. die Strategie. Die Kosten. die ein einfaches EXPLAIN zeigt... die 50 interessanten Zeilen aus tenk1 mit demselben guten alten Indexscan herauszusuchen. aber eine sehr nützliche. Beachten Sie aber. dann eine sequenzielle Suche durch tenk2 durchzuführen und für jede Reihe von tenk2 in der Hash-Tabelle nach möglichen Übereinstimmungen für t1.00 rows=10000 width=148) -> Hash (cost=179.333.33 rows=49 width=148) Index Cond: (unique1 < 50) Dieser Plan schlägt vor.0.327.

Diese Informationen werden in der Tabelle pg_class in den Spalten reltuples und relpages abgelegt. Dieser Abschnitt bietet einen kurzen Überblick über die Statistiken. Sie enthält nicht die Zeit zum Parsen. Es ist also unwahrscheinlich. damit die Zahlen leicht mit den Kostenschätzungen verglichen werden können. Die von EXPLAIN ANALYZE gezeigte Gesamtlaufzeit (Total runtime) enthält die Zeit. worauf Sie achten sollten. um die gesamte in dem Planknoten gebrauchte Zeit zu berechnen. 13. Bei diesen Befehlen ist die Zeit des obersten Planknoten. um die Tabelle zu verarbeiten. Multiplizieren Sie diese Ausführungszeit mit der loops-Angabe. um beim Anfrageplan eine gute Wahl treffen zu können. In solchen Fällen steht bei loops. relname | relkind | reltuples | relpages ---------------+---------+-----------+---------tenk1 | r | 10000 | 233 tenk1_hundred | i | 10000 | 30 tenk1_unique1 | i | 10000 | 30 tenk1_unique2 | i | 10000 | 30 (4 rows) 213 .und DELETE-Befehlen kann die Gesamtlaufzeit aber beträchtlich größer sein. um den Executor zu starten und zu beenden. dass die Ergebnisse von kleinen Testtabellen auch für große Tabellen gelten.2 Vom Planer verwendete Statistiken Wie wir im vorigen Abschnitt gesehen haben. dass die tatsächliche Laufzeit in Millisekunden Echtzeit ausgegeben wird. muss der Anfrageplaner die Zahl der von einer Anfrage zurückgegebenen Zeilen abschätzen können. Die Kostenschätzungen des Planers sind nicht linear und so könnte er sehr wohl für große und kleine Tabellen unterschiedliche Pläne auswählen. Ein Bestandteil der Statistiken ist die Gesamtzahl der Einträge in jeder Tabelle und in jedem Index sowie die Zahl der Diskblöcke. egal ob Indexe vorhanden sind oder nicht. Bei INSERT-. dass er so oder so eine Diskseite lesen muss. Wir können sie mit einer Anfrage wie dieser ansehen: SELECT relname. dass ein Subplan mehrmals ausgeführt wird. um die neuen Zeilen zu berechnen und/oder die alten zu finden. im Prinzip die Zeit. Im oben gesehenen Nested-Loop-Plan zum Beispiel. Das wird gemacht. aber sie enthält nicht die Zeit. und dass es also keine Sinn macht. wohingegen die Kostenschätzungen in willkürlichen Einheiten (Diskseiten-Fetch) sind. Der Planer erkennt. die das System für diese Schätzungen verwendet. Um ein extremes Beispiel zu nehmen: Bei einer Tabelle. um die Änderungen zu vollziehen. um in einen Index zu schauen. wird die innere Indexsuche einmal für jede Zeile in der äußeren Schleife ausgeführt. sind die Verhältnisse. die nur eine Diskseite belegt. reltuples.Tipps zur Leistungsverbesserung Beachten Sie. sowie die Zeit. Umschreiben oder Planen. UPDATE. um die Ergebniszeilen zu verarbeiten. die gebraucht wurde. dass die Ergebnisse von EXPLAIN nicht auf andere Situationen übertragen werden sollten. die von jeder Tabelle und von jedem Index belegt werden. die gebraucht wurde. Bei einer Anfrage mit SELECT wird die Gesamtlaufzeit normalerweise nur etwas größer sein als die vom obersten Planknoten berichtete Zeit. In einigen Anfrageplänen ist es möglich. relpages FROM pg_class WHERE relname LIKE 'tenk1%'. Man kann zum Beispiel nicht davon ausgehen. relkind. und die berichtete Ausführungszeit ist der Durchschnitt aus allen Läufen. zusätzliche Seiten zu lesen. Es sollte auch erwähnt werden. erhalten Sie fast immer einen Plan mit sequenzieller Suche. weil die Zeit zum Verarbeiten der Ergebniszeilen mitgerechnet wird. dass die Zahlen übereinstimmen. wie oft der Planknoten insgesamt ausgeführt wurde.

pg_stats wurde entworfen. Die Informationen."5th St ". da es nicht jede Zeile der Tabelle liest. Name der Spalte. (Dadurch wird verhindert. erzeugt einen annähernden Wert für reltuples. Aktualisiert werden sie von bestimmten Befehlen. in die die Spalte gehört.1 zeigt die Spalten. SELECT attname. die für diese Aufgabe verwendet werden.880 Ramp". sind in der Systemtabelle pg_statistic abgelegt. dass heißt.0886. Wenn kleiner als null. most_common_vals FROM pg_stats WHERE tablename = 'road'. Wenn eine Tabelle erzeugt wird. weil WHERE-Klauseln die Menge der Zeilen einschränken. dass nichtprivilegierte Benutzer durch die Statistiken etwas über den Inhalt der Tabellen anderer Benutzer erfahren.1: Spalten von pg_stats 214 . dass die Tabelle tenk1 10000 Zeilen enthält. er muss den Bruchteil der Zeilen schätzen.37. Die Sicht pg_stats zeigt nur Zeilen über Tabellen. dass die Zahl der verschiedenen Werte wahrscheinlich mit der Tabelle wächst. Außerdem ist pg_stats von allen lesbar. genauso wie ihre Indexe. die NULL sind. Anteil der Spalteneinträge. das nicht Teil eines VACUUM-Befehls ist. (Die negative Form wird verwendet."Sp Railroad "."I. die es in pg_stats gibt. attname | n_distinct | most_common_vals ---------+------------+---------------------------------------------------------name | -0.880 "} thepath | 20 | {"[(-122. um leichter lesbar zu sein. 10). ANALYZE und CREATE INDEX. gegenwärtig VACUUM.(-122. die positive Form wird verwendet."I. Der Planer muss daher eine Schätzung der Selektivität einer WHERE-Klausel abgeben. Name tablename attname null_frac avg_width n_distinct Datentyp name name real Beschreibung Name der Tabelle.467008 | {"I.580 Ramp".680 Ramp". Wenn man die Statistiken selbst untersuchen will."14th St ". wenn ANALYZE glaubt. integer Durchschnittliche Breite (Größe) in Bytes der Spalteneinträge. das Negative der Zahl der verschiedenen Werte geteilt durch die Zahl der Zeilen. sodass sie normalerweise nur annähernde Werte enthalten (was für den Planer ausreichend ist). n_distinct. Tabelle 13."I.) Zum Beispiel bedeutet -1 eine Spalte."I.) Wir könnten zum Beispiel Folgendes machen: Dieses Beispiel ist viel zu breit. Die Einträge in pg_statistic werden von den Befehlen ANALYZE und VACUUM ANALYZE aktualisiert und sind auch direkt nach der Aktualisierung immer Annäherungswerte. die die einzelnen Bedingungen in der WHERE-Klausel erfüllen.089."Mission Blvd". wenn die Spalte eine feste Zahl von möglichen Werten zu haben scheint. die von dieser Zeile beschrieben wird. werden sie mit willkürlichen Vorgabewerten gefüllt (gegenwärtig 1000 bzw.71). Aber die Indexe sind (nicht überraschend) viel kleiner als die Tabelle.37.80 Ramp". wo alle Werte unterschiedlich sind und die Zahl der verschiedenen Werte genauso groß ist wie die Zahl der Zeilen. aber ein besseres gibt's zur Zeit nicht. die geschätzte Zahl der voneinander verschiedenen Werte in der Spalte. Die meisten Anfragen lesen nur einen Teil der Zeilen in einer Tabelle aus."I. real Wenn größer als null. Ein alleinstehendes ANALYZE. ist es besser.711)]"} (2 rows) Tabelle 13. die Sicht pg_stats statt pg_statistic direkt anzuschauen. die der aktuelle Benutzer lesen kann. Aus Effizienzgründen werden reltuples und relpages nicht laufend aktualisiert.Kapitel 13 Hier sehen wir. wohingegen pg_statistic nur von einem Superuser lesbar ist.580 ".

der A und B unter Verwendung der WHERE-Bedingung a.1: Spalten von pg_stats (Forts. Oder er könnte A und C verbinden und dann das Ergebnis mit B. (Fällt weg.) Es ist wichtig anzumerken.) Eine Liste der Häufigkeiten der häufigsten Werte. (Diese Spalte wird nicht gefüllt. aber enorm unterschiedliche Ausführungskosten haben können. Wenn der Wert nahe -1 oder +1 ist. müssen wir erst etwas Hintergrundwissen besprechen. Reicht von -1 bis +1. weil es keine passende WHERE-Bedingung gibt. Eine Liste von Werten. um den Verbund optimieren zu können. 215 . d.id. Daher untersucht der Planer sie alle um den effizientesten Plan zu finden. also muss das Ergebnis auf eine dieser Arten aufgebaut werden.id = b. b. wenn keine Werte häufiger als andere zu sein scheinen. Oder er könnte B und C verbinden und dann das Ergebnis mit A. warum das wichtig sein kann. 13.id = b. die die Spaltenwerte in etwa gleich große Gruppen unterteilen (Histogrammgrenzen).ref = c. wenn der Datentyp der Spalte keinen Operator < hat oder wenn die Liste in most_common_vals schon alle Spaltenwerte abdeckt. dass etwas mehr Platz in pg_statistic gebraucht würde und das Berechnen der Schätzungen etwas länger dauern würde. aber das wäre ineffizient. Wenn Sie die Grenze erhöhen. kann der Planer die angegebenen Tabellen in beliebiger Reihenfolge verbinden. dann wird eine Indexsuche durch die Spalte als billiger eingeschätzt.) Die statistische Korrelation zwischen der physikalischen Reihenfolge der Zeilen und der logischen Reihenfolge der Spaltenwerte. weil die Verteilung der Festplattenzugriffe im ersten Fall weniger zufällig ist.h. besonders wenn die Daten sehr ungleichmäßig verteilt sind. wenn der Datentyp der Spalte keinen Operator < hat. als wenn er nahe null ist. dass diese unterschiedlichen Verbundmöglichkeiten alle semantisch äquivalente Ergebnisse liefern. den Anfrageplaner in einem gewissen Maß durch die Verwendung des expliziten JOINSyntax zu kontrollieren. werden von dieser Histogrammberechnung ausgeschlossen. kann der Planer unter Umständen genauere Schätzungen erstellen. da in dem Fall das volle Kreuzprodukt aus A und C errechnet werden müsste. falls vorhanden. Die Werte in most_common_vals.Tipps zur Leistungsverbesserung Name most_common_vals most_common_freq s histogram_bounds Datentyp text[] real[] text[] Beschreibung Eine Liste der häufigsten Werte in der Spalte.id AND b. In einer einfachen Verbundanfrage wie SELECT * FROM a. c WHERE a.id verbindet und dann das Ergebnis unter Verwendung der anderen WHERE-Bedingung mit C verbindet. Umgekehrt könnte eine niedrigere Grenze für Spalten mit einfacher Datenverteilung angebracht sein.) Die Höchstzahl der Einträge in den Arrays most_common_vals und histogram_bounds kann mit dem Befehl ALTER TABLE SET STATISTICS für jede Spalte individuell eingestellt werden. die Zahl der Vorkommen geteilt durch die Zahl der Zeilen.3 Den Planer mit expliziten JOIN-Klauseln kontrollieren Es ist möglich. Die Vorgabe ist gegenwärtig 10. (Alle Verbunde im PostgreSQLPostgreSQL-Executor geschehen zwischen zwei Eingabetabellen. Der Preis dafür wäre. Er könnte zum Beispiel einen Anfrageplan erstellen. (Diese Spalte wird nicht gefüllt. Um zu sehen.) correlation real Tabelle 13.

Das Beschränken der Suche des Planers auf diese Art ist eine nützliche Technik.. Obwohl die Bedingungen in dieser Anfrage oberflächlich gesehen dem vorangegangenen Beispiel ähnlich sind. Sie müssen die Verbundreihenfolge nicht vollständig einschränken um die Suchzeit zu verkürzen.) AS ss ON (. um die es sich zu kümmern gilt. 216 .id = b. Das heißt natürlich.. Das zwingt den Planer. Aber die Zahl der möglichen Verbundreihenfolgen steigt exponentiell mit der Zahl der Tabellen. dann hat der Planer viel weniger Freiheit als bei einfachen.id = b.ref = c. A und B zu verbinden. aber der Planer kann alle möglichen Verbundreihenfolgen zwischen A.id = b. aber die zweite und dritte kann schneller als die erste geplant werden. SELECT * FROM a CROSS JOIN b CROSS JOIN c WHERE a. Mit der JOIN-Syntax können Sie das nicht direkt machen. wechselt PostgreSQL von der erschöpfenden Suche zu einer genetischen Suche auf Wahrscheinlichkeitsbasis durch eine begrenzte Zahl von Möglichkeiten. Betrachten wir zum Beispiel SELECT * FROM a LEFT JOIN (b JOIN c ON (b. Wenn der Planer in der Standardeinstellung eine schlechte Verbundreihenfolge wählt. alle Möglichkeiten zu durchsuchen und auch bei sechs oder sieben Tabellen kann das Planen lästig lange dauern. können Sie eine bessere Reihenfolge mit der JOIN-Syntax erzwingen. d. um die Planzeit zu reduzieren auch auch den Planer zu einem guten Anfrageplan zu führen..ref = c.id)) ON (a. schränkt die Wahlmöglichkeiten aber nicht anderweitig ein. Wenn Sie in einer komplexen Anfrage eine Mischung aus inneren und äußeren Verbunden haben. findet aber nicht unbedingt den bestmöglichen Plan. Daher hat der Planer hier keine Wahl bezüglich der Verbundreihenfolge: Er muss B und C verbinden und dann A mit dem Ergebnis. wenn Sie eine bessere Reihenfolge kennen.. Sie können nämlich JOIN-Operatoren in einer normalen FROM-Liste verwenden.id = b. Jenseits von rund zehn Tabellen ist es nicht mehr praktikabel. Zum Beispiel: SELECT * FROM a CROSS JOIN b.ref = c.Kapitel 13 Wenn eine Anfrage nur zwei oder drei Tabellen verwendet.id.ref = c. (Die Schwelle für diesen Wechsel wird durch den Konfigurationsparameter geqo_threshold eingestellt. obwohl dies bei inneren Verbunden mathematisch nicht notwendig wäre. dass durch sie die Verbundreihenfolge festgelegt wird. ist doch die Bedeutung unterschiedlich. Dementsprechend dauert das Planen dieser Anfrage auch kürzer als bei der vorigen Anfrage. wollen Sie vielleicht die Suche des Planers nach einer guten Reihenfolge für die inneren Verbunde innerhalb der äußeren Verbunde nicht einschränken. Wenn die Anfrage einen äußeren Verbund enthält. Hier muss der Verbund mit D der letzte Schritt im Anfrageplan sein. bevor sie mit anderen Tabellen verbunden werden. Der PostgreSQL-Anfrageplaner behandelt alle ausdrücklichen JOIN-Syntaxen so.id)) ON (a. weil für jede Zeile von A. kann aber bei Anfragen mit vielen Tabellen ein Lebensretter sein. Wenn zu viele Tabellen angegeben wurden. c WHERE .. c WHERE a.).id. die keine passende Reihe im Verbund von B und C hat. zum Beispiel: SELECT * FROM d LEFT JOIN (SELECT * FROM a. eine Ergebniszeile erzeugt werden muss.id AND b. Dadurch wird in diesem Beispiel die Zahl der möglichen Verbundreihenfolgen um den Faktor 5 reduziert. b.) Die genetische Suche braucht weniger Zeit.id).id AND b. Dieser Effekt ist bei nur drei Tabellen nicht weiter beachtenswert.. gibt es nicht viele Verbundreihenfolgen. inneren Verbunden. Alle folgenden Anfragen ergeben daher das gleiche Ergebnis: SELECT * FROM a. SELECT * FROM a JOIN (b JOIN c ON (b. B und C in Betracht ziehen. b. e WHERE . Ausprobieren wird empfohlen. c. aber Sie können diese syntaktische Beschränkung mit Unteranfragen umgehen..id).

wenn der Index fehlt. ist es der schnellste Weg. einen Index für schon bestehende Daten zu erzeugen. 13. ANALYZE oder VACUUM ANALYZE immer dann auszuführen. also das automatische Abschließen einer Transaktion nach jedem Befehl.4.) Wenn Sie es zulassen. um das so effizient wie möglich zu machen. nicht durchgeführt wird. als ihn schrittweise mit jeder neuen Zeile aufzubauen.4. Es ist schneller. (Im normalen SQL machen Sie das.2 COPY FROM verwenden Verwenden Sie COPY FROM STDIN. dass die Bibliothek es macht. Das stellt sicher. 13.4 Danach ANALYZE ausführen Es ist empfehlenswert. dass wenn das Einfügen einer Zeile fehlschlagen sollte. wenn man viele Daten eingefügt oder aktualisiert hat. dass der Planer aktuelle Statistiken über die Tabelle hat. 13. Planen usw. weil es sowieso nur ein Befehl ist.1 Autocommit ausschalten Schalten Sie Autocommit. Manche Clientbibliotheken machen das vielleicht automatisch hinter Ihrem Rücken. 217 . die Tabelle zu erzeugen. wenn man alle Einfügeoperationen in einer Transaktion ausführt. führt. wenn Sie es wollen. aus und führen Sie nur ein COMMIT am Ende aus.4. die Daten laden und den Index erneut erzeugen. Während der Index fehlt.Tipps zur Leistungsverbesserung 13. die durch einen solchen Index geboten wird. was zu schlechter Leistung bei Anfragen. indem Sie ein BEGIN am Anfang und ein COMMIT am Ende ausführen. müssen Sie Autocommit nicht ausschalten. müssen Sie möglicherweise eine große Zahl von Einfügeoperationen vornehmen. Ohne Statistiken oder mit veralteten Statistiken könnte der Planer schlechte Anfragepläne auswählen. die Daten mit COPY zu laden und dann die benötigten Indexe zu erzeugen. um alle Zeilen mit einem Befehl zu laden. können Sie den Index entfernen. die die Tabelle verwenden. anstatt eine Reihe von INSERT-Befehlen zu verwenden. Wenn Sie eine bestehende Tabelle um viele Daten erweitern wollen.4 Eine Datenbank füllen Wenn Sie eine Datenbank am Anfang mit Daten füllen. dann alle bis dahin eingefügten Zeilen zurückgerollt werden und Sie nicht mit teilweise geladenen Daten sitzen bleiben.3 Indexe entfernen Wenn Sie Daten in eine frisch erzeugte Tabelle laden. Ein zusätzlicher Vorteil. Wenn Sie das tun. sehr verringert. 13. Man sollte sich das Entfernen eines Unique Index auch genau überlegen. nachdem man die Tabelle anfänglich mit Daten gefüllt hat.4. dann hat PostgreSQL bei jeder neuen Zeile eine Menge Arbeit. Dadurch wird die Zeit zum Parsen. einschließlich. Hier sind einige Tipps und Techniken. da die Fehlerprüfung. kann dadurch natürlich die Datenbankleistung für andere Benutzer negativ beeinflusst werden. dann müssen Sie schauen. dass nach jeder Einfügeoperation eine Transaktion abgeschlossen wird. ist.

.

219 .3 Teil III Server-Administration Dieser Teil behandelt Themen. in der ein neuer Anwender sie lesen sollte. sollte mit den in diesem Teil behandelten Themen vertraut sein. die eine vollständige Beschreibung eines bestimmten Befehls suchen. die ihren eigenen Server einrichten müssen. der einen PostgreSQL-Server betreibt. dass der Leser mit der allgemeinen Verwendung des PostgreSQL-Datenbanksystems vertraut ist. Der restlichen Kapitel dieses Teils. Die Kapitel sind aber selbstständig und können. Leser. Zusätzliche Informationen können in Teil I und in Teil II gefunden werden. die für Administratoren von PostgreSQL-Datenbanken von Interesse sind. Die Informationen in diesem Teil sind in etwa in der Reihenfolge angeordnet. In diesem Teil sind die Informationen erzählerisch in Themenbereichen aufbereitet. damit neue Anwender. Das beinhaltet die Installation der Software. die von der Feinabstimmung und der Wartung handeln. das Einrichten und Konfigurieren des Servers. dass sie ohne Vorkenntnisse verstanden werden können. sei es für den persönlichen Gebrauch oder besonders im Produktionsbetrieb. Die ersten paar Kapitel sind so geschrieben. ihre Erkundungen mit diesem Teil beginnen können. die Verwaltung von Benutzern und Datenbanken sowie Wartungsaufgaben. gehen davon aus. wenn gewünscht einzeln gelesen werden. Jeder. sollten in Teil VI nachschauen.

VAKAT VAKAT .

2 Voraussetzungen Generell sollte PostgreSQL auf allen modernen Unix-kompatiblen Plattformen laufen können.1 Kurzversion . in denen Sie nachschauen sollten. 14.postgres /usr/local/pgsql/bin/initdb -D /usr/local/pgsql/data /usr/local/pgsql/bin/postmaster -D /usr/local/pgsql/data >logfile 2>&1 & /usr/local/pgsql/bin/createdb test /usr/local/pgsql/bin/psql test Die lange Version ist der Rest dieses Dokuments.14 14 Installationsanweisungen Dieses Dokument Kapitel beschreibt die Installation von PostgreSQL von der Quellcodedistribution. Die Plattformen. wenn es Probleme gibt. 14. sind unten in Abschnitt 14. Im Unterverzeichnis doc in der Distribution gibt es mehrere plattformspezifische FAQ-Dokumente. auf denen zum Zeitpunkt der Veröffentlichung getestet wurde./configure gmake su gmake install adduser postgres mkdir /usr/local/pgsql/data chown postgres /usr/local/pgsql/data su . 221 .7 aufgezählt. Kapitels.

wenn libreadline gefunden wird. Während des Konfigurationsvorgangs von Perl verlangen Sie dann eine dynamische Bibliothek (shared library). dass Sie Ihre Python-Installation (oder einen Teil davon) neu bauen müssen. aber Sie sind nötig. dann ist alles in Ordnung.so oder ähnlich. aber eine brauchen. ob Sie GNU make haben. Das bedeutet. einschließlich der Headerdateien. Da PL/Python eine dynamische Bibliothek sein wird.1 zu verwenden. *** You might have to rebuild your Perl installation. müssen Sie Perl neu übersetzen und installieren. benötigen Sie die Pakete Cygwin und cygipc. dass das Bibliotheksobjekt für PL/Perl. um diese dynamische Bibliothek zur Verfügung zu stellen. Wenn Sie sie nicht benutzen wollen. Sie sind in der Standardeinstellung nicht erforderlich. taucht wahrscheinlich während des Übersetzungsprozesses eine Meldung wie die Folgende auf. Das scheint in den neueren Perl-Versionen die Voreinstellung zu sein. *** You might have to rebuild your Python installation. Refer to *** the documentation for details. benötigen Sie eine volle Perl-Installation. Neuere Versionen von GCC sind empfehlenswert. plperl. Wenn Sie nach dem Übersetzen und Installieren eine Datei namens plpython. muss libpython auf den meisten Plattformen auch eine dynamische Bibliothek sein. Da PL/Perl eine dynamische Bibliothek sein wird.) Um zu überprüfen. dann müssen Sie die Option --withoutreadline angeben. ❏ gzip wird benötigt. Einzelheiten finden Sie in der Datei doc/FAQ_MSWIN. muss libperl auf den meisten Plattformen auch eine dynamische Bibliothek sein. um Sie darauf hinzuweisen: *** Cannot build PL/Perl because libperl is not a shared library.so (möglicherweise eine andere Erweiterung) haben. Wenn Sie die dynamische Bibliothek nicht haben. nicht installiert sein wird. und generell ist es die Wahl desjenigen.Kapitel 14 Die folgenden Softwarepakete sind erforderlich.76. werden Sie nur feststellen. Dies ist bei einer Standardinstallation von Python nicht der Fall. (Wenn Sie die Ausgaben auf dem Bildschirm nicht verfolgen. um die Distribution zu entpacken. geben Sie ein: gmake --version Es wird empfohlen. ❏ Um die Python-Schnittstelle oder die Serverprogrammiersprache PL/Python bauen zu können. dieses Dokument wird diesen Namen durchweg verwenden. um PL/Perl bauen zu können. mindestens Version 3. einschließlich der libperl-Bibliothek und der Headerdateien. wenn bestimmte Optionen eingeschaltet werden. andere make-Programme funktionieren nicht. aber PostgreSQL kann mit vielen Compilern von verschiedenen Herstellern übersetzt werden. aber es war nicht so in früheren Versionen. Refer to *** the documentation for details. ❏ Sie benötigen einen ISO/ANSI-C-Compiler.) ❏ Um den Quellcode auf Windows NT oder Windows 2000 zu übersetzen. (Auf einigen Systemen ist GNU make das Standardwerkzeug mit dem Namen make. Die folgenden Pakete können wahlweise verwendet werden. ❏ Die GNU Readline-Bibliothek (zur bequemen Bearbeitung von Eingabezeilen) wird in der Voreinstellung verwendet. GNU make ist oft unter dem Namen gmake installiert.) Wenn Sie dies sehen. ❏ Um die Serverprogrammiersprache PL/Perl zu bauen. 222 . wie unten erklärt wird. (Auf NetBSD ist die Bibliothek libedit mit Readline kompatibel und wird verwendet. der Perl bei Ihnen installiert hat. um PostgreSQL zu bauen: ❏ GNU make ist erforderlich. Ansonsten sollten Sie eine Hinweismeldung ähnlich dieser vorbeilaufen gesehen haben: *** Cannot build PL/Python because libpython is not a shared library. benötigen Sie eine Python-Installation. wenn Sie configure ausführen.

Installationsanweisungen Der Haken ist. ❏ Wenn Sie Tcl. dann werden Sie vorübergehen weitere 90 MB benötigen. Andere Lex-Programme funktionieren definitiv nicht. den Treiber direkt durch das Aufrufen von ant oder gar javac zu bauen. Ant ist ein spezielles Werkzeug für das Bauen von Java-basierenden Paketen. Wenn Sie mehrere Java-Compiler installiert haben. können Sie es auf Ihrer örtlichen GNU Mirrorsite (siehe für eine Liste) oder auf finden. Datenbanken belegen etwa fünfmal so viel Platz. Wenn Sie sie benötigen. Schauen Sie sich die Makefile im Verzeichnis src/pl/plpython wegen Einzelheiten an. Sie können es von der Ant-Website herunterladen. Sie brauchen etwa 65 MB im Quellbaum während der Übersetzung und etwa 15 MB im Installationsverzeichnis. um einen CVS-Checkout zu bauen oder wenn Sie die eigentlichen Definitionsdateien von Scanner und Parser verändert haben. dann sollten Sie mindestens Flex 2. Andere Yacc-Programme können manchmal verwendet werden. um Konfigurationseinstellungen vorzunehmen. ❏ Um Native Language Support (NLS). Verwenden Sie den Befehl df. für andere Systeme können Sie sich hier ein Zusatzpaket herunterladen: .5. Das wird nicht funktionieren.30. benötigen Sie eine Implementierung der GettextSchnittstelle. Führen Sie gmake normal wie unten beschrieben aus. Um zum Beispiel eine andere JDK als die voreingestellte zu verwenden. um den Festplattenplatz zu überprüfen. Wenn Sie die Gettext-Implementierung aus der GNU C-Bibliothek verwenden. NetBSD. zu aktivieren.3 JAVACMD=$JAVA_HOME/bin/java Anmerkung Versuchen Sie nicht. dass sie ausreichend Platz auf der Festplatte haben.oder Tk-Komponenten (Clients oder die PL/Tcl-Sprache) bauen wollen. Solaris).4 und mindestens Bison 1. Linux. die Programmmitteilungen in einer anderen Sprache als Englisch anzuzeigen.antrc im Home-Verzeichnis des aktuellen Benutzers lesen. Wenn Sie die Regressionstests durchführen wollen. benötigen Sie Ant 1. ❏ Kerberos. benötigen Sie natürlich eine Tcl-Installation. Bei den anderen Implementierungen brauchen Sie es nicht. wie eine einfache Textdatei mit denselben Daten belegen würde. hängt es von der Ant-Konfiguration ab. Das beste. dass die Python-Distribution oder die Python-Entwickler dafür keine direkte Möglichkeit vorgesehen haben. aber dann müssen Sie das Buildsystem von PostgreSQL davon überzeugen. das heißt. benötigen Sie außerdem die folgenden Pakete: ❏ Flex und Bison werden benötigt.B. Ein leerer Datenbankcluster belegt etwa 25 MB.50 verwenden. 223 . die Fähigkeit.5 oder höher und ein JDK. ❏ Um den JDBC-Treiber zu bauen. aber das erfordert zusätzliche Anstrengungen und ist nicht zu empfehlen. Auf einigen Betriebssystemen müssen Sie eigentlich keine dynamische Bibliothek bauen. Wenn Sie mit einem CVS-Baum anstatt der veröffentlichten Quellpakete arbeiten oder selbst Entwicklungen tätigen wollen. dass sie eine Datei . Vorkompilierte Ant-Distributionen sind typischerweise so eingerichtet. Überprüfen Sie auch. Einige Betriebssysteme haben dies eingebaut (z. könnte dies hier funktionieren: JAVA_HOME=/usr/local/sun-jdk1. sind die Informationen in Python FAQ 3. wenn Sie Authentifizierung mit diesen Diensten unterstützen wollen. Wenn Sie ein GNU-Paket benötigen. was wir Ihnen anbieten können. OpenSSL oder PAM. welcher verwendet wird. benötigen Sie außerdem das Paket GNU Gettext für einige Hilfsprogramme.

dass Ihre bestehende Installation unter dem Verzeichnis /usr/local/pgsql ist und das Datenverzeichnis /usr/local/ pgsql/data ist. Wenn Sie die Datei erhalten haben. die Sie aktuell verwenden.pid` Versionen vor 7. zum Beispiel indem Sie ps ax | grep postmaster eingeben und sie an den Befehl kill übergeben. weil Sie die neue Version ja noch nicht installiert haben. die PostgreSQL beim Booten starten. 2. Wechseln Sie für den Rest des Installationsvorgangs in dieses Verzeichnis. Verwenden Sie. müssen Sie Ihre Daten wie hier gezeigt sichern und wiederherstellen.Kapitel 14 14.1. Bearbeiten Sie. 1. wenn nötig. aktualisieren wollen. Die Integrität der gesicherten Daten wird dadurch nicht beeinträchtigt. die Zugriffskontrolldatei /usr/ local/pgsql/data/pg_hba. welches die PostgreSQL-Quellen enthält. Wenn Sie die neue Version am gleichen Platz wie die alte installieren.x” hat. pg_dumpall sichert keine Large Objects. da diese Version Berichtigungen und Verbesserungen gegenüber älteren Versionen enthält.tar Dadurch wird ein Verzeichnis postgresql. pg_dumpall von PostgreSQL zu verwenden.unter dem aktuellen Verzeichnis erzeugt. einen Mirror.4 nach. In dem Fall können Sie die Installation normal durchführen und die Daten später übertragen. wenn Sie die neue Version parallel zur alten installieren wollen. Für die Datensicherung können Sie den pg_dumpall-Befehl von der Version nehmen. dass Ihre Datenbank während oder nach dem Sicherungsvorgang nicht verändert wird. die auch dazu verwendet werden kann. gibt es wahrscheinlich eine Startdatei. die nicht die Versionsnummer “. wenn Sie das tun müssen. wenn möglich. Auf einem Red-Hat-Linux-System könnte zum Beispiel 224 . dann fahren Sie den alten Server.tar. herunter: kill -INT `cat /usr/local/pgsql/data/postmaster. aber die veränderten Daten würden natürlich nicht enthalten sein. spätestens bevor Sie die neuen Dateien installieren. Für die besten Ergebnisse sollten Sie aber versuchen. Wenn Sie daher eine bestehende Installation. Versichern Sie sich. ist er aber zu empfehlen. geben Sie ein: pg_dumpall > ausgabedatei Wenn Sie die OIDs erhalten müssen (wenn Sie sie zum Beispiel als Fremdschlüssel verwenden). müssen Sie die Prozess-ID des Servers selbst herausfinden. entpacken Sie sie: gunzip postgresql-.gz tar xf postgresql-. Obwohl dieser Rat eigenartig zu sein scheint. müssen Sie die Option -o von pg_dumpall verwenden.pid nicht. Wenn Sie so eine Version verwenden.3 Die Quellen erhalten Die Quellen für PostgreSQL kann man durch anonymes FTP von erhalten. Ersetzen Sie Ihre Pfade entsprechend. 3. Schauen Sie in der Dokumentation in Abschnitt 22.4 Wenn Sie eine alte Version aktualisieren Das interne Datenformat ändert sich bei jeder Hauptversion von PostgreSQL. 14. Diese Anweisungen gehen davon aus. Dadurch senken Sie auch die Ausfallzeit.conf (oder das Äquivalent) um allen außer Ihnen den Zugriff zu verbieten. Um Ihre Datenbankinstallation zu sichern. Auf Systemen.0 haben diese Datei postmaster.

5 Installationsvorgang 1. was es gefunden hat.d/init. während Sie mit dem speziellen Datenbankbenutzerzugang angemeldet sind (den Sie schon haben. (Sie können configure auch in einem Verzeichnis außerhalb des Quellbaums ausführen. Wenn Sie auf dem gleichen Platz wie die alte Version installieren. 4. die alte Installation aus dem Weg zu verschieben. wenn Sie bereits eine Installation haben). keine Datei wird jemals direkt im Verzeichnis PRÄFIX installiert. Verwenden Sie einen Befehl wie diesen: mv /usr/local/pgsql /usr/local/pgsql. um aufzuzeichnen. die nur einen C-Compiler erfordern. Dazu führen Sie das Skript configure aus. falls Sie Probleme haben und die Installation rückgängig machen müssen.3 in weiteren Einzelheiten besprochen. ist es auch zu empfehlen. /usr/local/pgsql/bin/initdb -D /usr/local/pgsql/data /usr/local/pgsql/bin/postmaster -D /usr/local/pgsql/data Schließlich stellen Sie Ihre Daten wieder her.) Die voreingestellte Konfiguration baut den Server und Hilfsprogramme sowie alle Clientanwendungen und -schnittstellen. Denken Sie daran. Diese Themen werden in der Dokumentation in Abschnitt 22. Alle Dateien werden in der Voreinstellung unter /usr/local/pgsql installiert. 14. den Quellbaum für Ihr System zu konfigurieren und die gewünschten Optionen auszuwählen. Konfiguration Der erste Schritt des Installationsvorgangs ist es. 225 . Eine andere Möglichkeit ist pg_ctl stop. Um eine Installation mit allen Vorgabeeinstellungen durchzuführen. um das Buildverzeichnis getrennt zu halten. um Werte für verschiedene systemabhängige Variablen zu erraten und einige Macken Ihres Betriebssystems zu entdecken. indem Sie Folgendes ausführen: /usr/local/pgsql/bin/psql -d template1 -f ausgabedatei Verwenden Sie dazu das neue psql.old Nachdem Sie PostgreSQL installiert haben. und erzeugt abschließend einige Dateien unter dem aktuellen Verzeichnis. dass Sie diese Befehle ausführen müssen. geben Sie .Installationsanweisungen /etc/rc. Die eigentlichen Dateien werden in verschiedene Unterverzeichnisse installiert. Dieses Skript führt eine Reihe von Tests aus.d/postgresql stop funktionieren. Sie können den Build./configure ein.und Installationsprozess anpassen. indem Sie eine oder mehrere der folgenden Kommandozeilenoptionen für configure angeben: --prefix=PRÄFIX Installiert alle Dateien unter dem Verzeichnis PRÄFIX anstelle von /usr/local/pgsql. erzeugen Sie ein neues Datenbankverzeichnis und starten den Server.

was wahrscheinlich das ist. Beachten Sie. wie Sie die jeweils benötigten Headerdateien finden. in der Voreinstellung PRÄFIX/etc. --docdir=VERZEICHNIS Dokumentationsdateien. ohne den Namensraum des restlichen Systems zu stören. die der Liste. Die Voreinstellung ist PRÄFIX/share. installiert. wenn der voll ausgewertete Verzeichnisname nicht schon die Zeichenkette “postgres” oder “pgsql” enthält. Die Voreinstellung ist PRÄFIX/include. Wenn Sie diese Option weglassen. die mit PostgreSQL geliefert werden. werden in dieses Verzeichnis installiert. --bindir=VERZEICHNIS Gibt das Verzeichnis für ausführbare Programme an. durch Doppelpunkte getrennt. die der Compiler nach Headerdateien durchsucht. Anmerkung Es wurde Sorge getragen. wird die Dokumentation in /usr/ local/doc/postgresql installiert. --libdir=VERZEICHNIS Der Platz. was normalerweise /usr/local/pgsql/bin bedeutet. --mandir=VERZEICHNIS Die man-Seiten. --sysconfdir=VERZEICHNIS Das Verzeichnis für diverse Konfigurationsdateien. --includedir=VERZEICHNIS Das Verzeichnis für die Installation von Headerdateien für C und C++. Zum Beispiel. ein privates Unterverzeichnis unter libdir für dynamisch ladbare Module erzeugt. Das kann nützlich sein. um Bibliotheken und dynamisch ladbare Module zu installieren. um architekturunabhängige Dateien zwischen mehreren Maschinen zu teilen. in ihre entsprechenden manx-Unterverzeichnisse. installieren als PRÄFIX. Die internen Headerdateien und die Server-Headerdateien werde in private Verzeichnisse unter includedir installiert. Die öffentlichen C-Headerdateien der Clientschnittstellen werden in includedir installiert und respektieren den Namensraum des Systems. wenn angebracht. --exec-prefix=EXEC-PRÄFIX Sie können die architekturabhängigen Dateien unter einem anderen Präfix. können Sie auch die einzelnen Unterverzeichnisse mit den folgenden Optionen anpassen. wo die Datenbankdateien abgelegt werden sollen. dass PostgreSQL in geteilte Installationsverzeichnisse (wie /usr/local/ include) installiert werden kann. was Sie wollen. die von den installierten Programmen verwendet werden. In der Anleitung zu jeder Schnittstelle finden Sie Informationen. Die Voreinstellung ist EXEC-PRÄFIX/ bin. wird sie in /opt/ postgres/doc installiert. sysconfdir und docdir angehängt. hinzugefügt werden. wenn Sie /usr/local als Präfix wählen. außer “man”-Seiten. EXEC-PRÄFIX. werden unter diesem Verzeichnis. --with-includes=VERZEICHNISSE VERZEICHNISSE ist eine Liste von Verzeichnissen. Die Voreinstellung ist PRÄFIX/doc. Wenn Sie optio226 . Erstens wird die Zeichenkette “/postgresql” automatisch an datadir.Kapitel 14 Wenn Sie besondere Anforderungen haben. dass dies nichts damit zu tun hat. Die Voreinstellung ist PREFIX/man. Die Voreinstellung ist EXEC-PRÄFIX/lib. --datadir=VERZEICHNIS Setzt das Verzeichnis für nur lesbare Datendateien. aber wenn der Präfix /opt/postgres ist. wird EXEC-PRÄFIX gleich mit PRÄFIX gesetzt und architekturabhängige und unabhängige Dateien werden unter demselben Baum installiert. Schließlich wird auch.

3. SPRACHEN ist eine Liste von Kürzeln. die die nach Bibliotheken durchsucht werden sollen. die Tcl/Tk erfordern. für die Sprachen.y) installieren zu können. Sie werden diese Option (und die entsprechenden Option mit --with-includes) wahrscheinlich verwenden müssen. --enable-nls[=SPRACHEN] Schaltet Native Language Support (NLS) ein. benötigen Sie eine Implementierung der Gettext API. und wahrscheinlich auch die entsprechende Option mit --withlibraries. durch Doppelpunkte getrennt. Der Port kann immer noch später geändert werden. --without-tk Wenn Sie --with-tcl und diese Option angeben. Der einzige gute Grund. Beispiel: --with-includes=/opt/gnu/include:/usr/sup/include. --with-python Baut das Python-Schnittstellenmodul und die serverseitige Sprache PL/Python. --with-tcl Baut Komponenten. Die Standardeinstellung ist 5432. pgtksh und PL/ Tcl. müssen Sie diese Option verwenden. was sehr praktisch sein kann. pgtclsh. 227 . Beachten Sie. Beispiel: --with-libraries=/opt/gnu/lib:/usr/sup/lib. wird das Programm. werden alle vorhandenen Übersetzungen installiert. durch Leerzeichen getrennt. Weitere Informationen über diese Fähigkeit finden Sie in der Dokumentationin Abschnitt 20. das Tk benötigt (pgtksh). --with-perl Baut die serverseitige Sprache PL/Perl. um einen anderen Wert als den Standard zu wählen.) Wenn Sie keine Liste angeben. das heißt libpgtcl. wenn Sie Pakete an nicht standardisierten Orten installiert haben. zum Beispiel -enable-nls='de fr'. --enable-recode Schaltet Einzelbyte-Zeichensatzrekodierungs-Unterstützung ein. aber wenn Sie ihn hier angeben. das heißt. die Fähigkeit. werden Server und Clients die gleiche Voreinstellung eingebaut bekommen. dieses Feature ist obsolet. nicht mit installiert. Siehe aber unten über --without-tk. Sie müssen root-Zugang haben. --with-libraries=VERZEICHNISSE VERZEICHNISSE ist eine Liste von Verzeichnissen.Installationsanweisungen nale Pakete (wie GNU Readline) an nicht standardisierten Orten installiert haben. Um diese Option zu verwenden. siehe oben. ist normalerweise. um das Python-Modul an seinem normalen Platz (/usr/lib/ pythonx. --with-pgport=NUMMER Bestimmt NUMMER als die voreingestellte Portnummer für Server und Clients. wenn Sie mehrere PostgreSQL-Server auf einer Maschine laufen haben wollen. dass eine allgemeinere Form von Zeichensatzkonvertierung in der Standardkonfiguration verfügbar ist. die Sie unterstützt haben wollen. (Die Schnittmenge zwischen Ihrer Liste und den tatsächlich vorhandenen Übersetzungen wird automatisch berechnet. die Programmmitteilungen in einer anderen Sprache als Englisch anzuzeigen.

das zu ändern. 228 . um sicherzustellen. --with-pam Baut mit Unterstützung für PAM (Pluggable Authentication Modules). Die Debugsymbole sind allerdings äußerst hilfreich. /usr/athena ist die Voreinstellung. Aber wenn Sie Betaversionen verwenden oder selbst Entwicklungsarbeit tun. aber wenn Sie eine andere Version von Tcl oder Tk verwenden wollen. welche Konfigurationsinformationen enthalten. dass Sie Ihre Programme durch einen Debugger schicken können. Sie können Kerberos Version 4 oder 5 verwenden. können Sie das Argument weglassen. --with-java Baut den JDBC-Treiber und zugehörige Java-Pakete. ist also nicht zu empfehlen. müssen Sie zusätzlich zu dieser Option die Optionen --with-includes und --withlibraries verwenden. --with-tkconfig=VERZEICHNIS Tcl/Tk installiert die Dateien tclConfig. Wenn andererseits die erforderlichen Dateien an einem Ort liegen. um sicherzustellen. Diese Dateien werden normalerweise automatisch an den bekannten Orten gefunden. Diese Option ist nur für jene seltenen Systeme gedacht. der automatisch durchsucht wird (z.Kapitel 14 --with-tclconfig=VERZEICHNIS. wo diese Bibliothek nicht verfügbar ist. wo sie zu finden sind. und bei Compilern außer GCC schaltet es gewöhnlich die Optimierung ab und verlangsamt dadurch die Ausführung. configure überprüft die erforderlichen Headerdateien und Bibliotheken. configure prüft die erforderlichen Headerdateien und Bibliotheken. --without-zlib Verhindert die Verwendung der Zlib-Bibliothek. wenn Sie GCC verwenden. --with-krb4[=VERZEICHNIS] --with-krb5[=VERZEICHNIS] Baut mit Unterstützung für Authentifizierung mit Kerberos. die benötigt werden. --enable-debug Kompiliert alle Programme und Bibliotheken mit Debugsymbolen.sh und tkConfig. Gegenwärtig wird diese Option für Produktionsinstallationen nur empfohlen.sh. der Standardwert ist /usr/local/ssl. dann sollten Sie sie immer an haben.B. Das schaltet Komprimierungsunterstützung in pg_dump ab. Das bedeutet. aber nicht beide. dass Ihre OpenSSL-Installation ausreichend ist. Wenn die relevanten Headerdateien und Bibliotheken nicht unter einem gemeinsamen Verzeichnis installiert sind. --without-readline Verhindert die Verwendung der Readline-Bibliothek. um etwaige Probleme zu behandeln. Das Argument VERZEICHNIS gibt das Wurzelverzeichnis der Kerberos-Installation an. Das Argument VERZEICHNIS gibt das Wurzelverzeichnis der OpenSSL-Installation an.oder Tk-Module zu bauen. Dafür muss das Paket OpenSSL installiert sein. postgres ist der Standard. Das vergrößert die installierten Dateien beträchtlich. Das schaltet Kommandozeilenbearbeitung und -geschichte in psql ab. --with-openssl[=VERZEICHNIS] Baut mit Unterstützung für (verschlüsselte) SSL-Verbindungen. um Probleme zu analysieren. dass Ihre Kerberos-Installation ausreichend ist. können Sie die Verzeichnisse angeben. /usr/lib). Es gibt wahrscheinlich keinen Grund. um Tcl. --with-krb-srvnam=NAME Der Name des Service-Principals für Kerberos.

Sie können diesen Test auch später mit dem gleichen Befehl wiederholen. geben Sie gmake install ein. welche Bedingungen testen. außer wenn das für die Plattform unpassend ist. wie die Entwickler es beabsichtigt hatten. Übersetzung Um die Übersetzung des Quelltextes zu starten. Mit dieser Option werden die Makefiles so eingerichtet. ob PostgreSQL auf Ihrer Maschine so funktioniert. Wenn nichts anderes angegeben wird. die überprüfen. Gegenwärtig ist diese Option nicht für Produktionsanwendungen empfohlen.) Der Vorgang kann zwischen 5 Minuten und einer halben Stunde dauern. wenn eine Assertion-Prüfung fehlschlägt.Installationsanweisungen --enable-cassert Schaltet Assertion-Prüfungen im Server ein. wenn eine Headerdatei geändert wird. (Das funktioniert nicht als root. wie man die Testergebnisse zu verstehen hat. dass alle betroffenen Objektdateien neu kompiliert werden. Die Regressionstests sind eine Testsammlung. (Denken Sie daran. den configure auswählt. zum Beispiel: . können Sie die Umgebungsvariable CC auf das Programm Ihrer Wahl setzen.) Es kann vorkommen. aber die Tests verlangsamen alles ein wenig./configure CC=/opt/bin/gcc CFLAGS='-O2 -pipe' 2. --enable-depend Schaltet die automatische Verfolgung von Dateiabhängigkeiten ein. aber Sie sollten sie an haben. Geben Sie gmake check ein. die eigentlich nicht auftreten können sollten. aber nur unnötiger Ballast. Ready to install. abhängig von Ihrer Hardware. Das ist bei der Entwicklungsarbeit nützlich. wenn Sie nur einmal kompilieren und installieren wollen. wählt configure gcc. Die Datei src/test/regress/README und die Dokumentation enthalten Kapitel 26 enthält detaillierte Informationen. Die letzte ausgegebene Zeile sollte sein: All of PostgreSQL is successfully made. Wenn Sie einen anderen C-Compiler als den. Durch die Tests wird auch die Stabilität des Servers nicht unbedingt verbessert! Die Tests sind nicht nach Schwere kategorisiert. Das ist unschätzbar bei der Codeentwicklung. 3. dass einige Tests wegen unterschiedlichem Wortlaut von Fehlermeldungen oder Problemen mit Fließkommaberechnungen nicht erfolgreich sind. machen Sie es als unprivilegierter Benutzer. Regressionstests Wenn Sie den neu gebauten Server vor der Installation testen möchten. geben Sie gmake ein. GNU make zu verwenden. Ähnlich können Sie die Compileroptionen mit der Variable CFLAGS setzen. Sie können Umgebungsvariablen auf der Kommandozeile von configure angeben. wenn Sie selbst entwickeln oder eine Betaversion verwenden. können Sie an diesem Punkt die Regressionstests ausführen. Die Dateien installieren Um PostgreSQL zu installieren. 4. Zurzeit funktioniert diese Option nur mit GCC. also werden selbst relativ harmlose Fehler einen Serverneustart verursachen. bevorzugen. 229 .

Das vergrößert die Installation um ein oder zwei Megabyte und ist nur sinnvoll. wenn Sie nicht den Quellcodebaum behalten wollen. Normalerweise müssen Sie diesen Schritt als root machen. um jedes unnötige Byte aus einer Datei zu entfernen. wenn Sie Serversoftware bauen. dass Sie entsprechende Zugriffsrechte haben. geben Sie gmake install-all-headers ein. Sie können gmake install-strip anstelle von gmake install verwenden.Kapitel 14 Anmerkung Wenn Sie eine bestehende Installation aktualisieren und die neuen Dateien über die alten installieren. können Sie einfach die Headerdateien aus dem Quellbaum nehmen. aber es hat nicht das perfekte Wissen. verwenden Sie gmake distclean. Deinstallation: Sie können die Installation mit dem Befehl gmake Dadurch werden jedoch keine Verzeichnisse entfernt. ist als Hausaufgabe belassen. Wenn Sie mit Debugunterstützung kompiliert haben. Um den Quellbaum in den Zustand zurückzusetzen. aber wie das zu tun ist. Um das zu tun. Achten Sie darauf. 230 . sollten Sie spätestens jetzt Ihre Daten gesichert und den alten Server heruntergefahren haben. wie oben in Abschnitt 14. ein vernünftiges Maß an Platz zu sparen. wo Python sie finden kann. (Wenn ja. Wenn Sie keinen root-Zugang haben. angegebenen Verzeichnisse installiert. install-strip versucht. während sie installiert werden. Wenn Sie für mehrere Plattformen vom selben Quellbaum aus bauen wollen. indem Sie die gebauten Dateien aus dem Quellbaum mit dem Befehl gmake clean entfernen. Wenn Sie also so viel Festplattenplatz wie möglich sparen wollen. müssen Sie das für jede Plattform tun und neu konfigurieren. Wenn Sie die Python-Schnittstelle gebaut haben und Sie nicht der root-Benutzer waren. Das spart etwas Platz. Wenn Sie serverseitige Programmentwicklung planen (wie zum Beispiel eigene in C geschriebene Funktionen oder Datentypen). möchten Sie vielleicht komplett alle PostgreSQL-Headerdateien in das Zielverzeichnis installieren. Alternativ könnten Sie die Zielverzeichnisse vorher erzeugen und die passenden Rechte dafür erteilen. In diesem Fall sollten Sie sich als root anmelden und dann gmake -C src/interfaces/python install ausführen. um die Programmdateien und Bibliotheken zu “strippen”. können Sie diese Befehle verwenden: gmake gmake gmake gmake -C -C -C -C src/bin install src/include install src/interfaces install doc install uninstall rückgängig machen. Dadurch werden die Dateien in die in Schritt 1. dann müssen Sie von Hand nacharbeiten. sodass Sie später alles mit gmake neu bauen können. dann sind Sie auf sich allein gestellt: Sie können die benötigten Dateien in anderen Verzeichnissen ablegen. Säubern: Nach der Installation können Sie Platz schaffen. sollte also nur durchgeführt werden.4 beschrieben. wenn das Debuggen nicht mehr benötigt wird. Die Standardinstallation enthält nur die Headerdateien für die Entwicklung von Clientanwendungen. als Sie den obigen Befehl ausgeführt haben. um in diesen Bereich zu schreiben.) Clientinstallation: Wenn Sie nur die Clientanwendungen und Schnittstellenbibliotheken installieren wollen. in dem Sie ihn erhalten hatten. ist der Teil der Installation wahrscheinlich fehlgeschlagen. Dadurch behalten Sie die von configure erzeugten Dateien. entfernt das Strippen faktisch die Debugunterstützung.

Erledigen Sie ihn dann einfach später.so oder rld könnten von besonderem Interesse sein). vor der Neukonfiguration gmake distclean auszuführen und dann neu zu bauen. HP-UX. Linux.6 Einrichtung nach der Installation 14. gesetzt haben.bash_profile. NetBSD. wie es die neu installierten dynamischen Bibliotheken finden kann. Sie sollten diese Befehle in eine Shell-Startdatei eintragen. Auf Cygwin stellen Sie das Bibliotheksverzeichnis in den Pfad (PATH) oder verschieben die . dann können Sie /sbin/ldconfig /usr/local/pgsql/lib (oder entsprechendes Verzeichnis) nach der Installation ausführen. bash. Die Methoden. dann schauen Sie sich die Anleitung Ihres Systems an. FreeBSD. (Die Manualseiten von ld. Tru64 UNIX (ehemals Digital UNIX) und Solaris. Ansonsten kann es sein. die Umgebungsvariable LD_LIBRARY_PATH so zu setzen: in Bourne-Shells (sh. die dynamische Bibliotheken haben (was die meisten Systeme tun). IRIX.1 Dynamische Bibliotheken Auf einigen Systemen. Auf FreeBSD. 14.2. die Umgebungsvariable LD_RUN_PATH vor der Compilierung zu setzen. auf das Sie --libdir in Schritt 1. Linux oder SunOS 4 sind und root-Zugang haben. NetBSD und OpenBSD ist der Befehl stattdessen 231 . um dem Laufzeitlinker das schnellere Finden der dynamischen Bibliotheken zu ermöglichen. wie zum Beispiel /etc/profile oder ~/ . um den Suchpfad für dynamische Bibliotheken zu setzen. Auf einigen Systemen mag es besser sein. dass Ihre Änderungen bei den Konfigurationsoptionen nicht überall ankommen. oder wenn Sie etwas geändert haben. dass die configure-Optionen falsch waren. aber die am häufigsten brauchbare Methode ist es. Auf folgenden Systemen ist dies nicht notwendig: BSD/OS.dll-Dateien in das bin-Verzeichnis. müssen Sie Ihrem System mitteilen. Einige gute Informationen über mögliche Vorbehalte gegenüber dieser Methode können in gefunden werden. zsh) LD_LIBRARY_PATH=/usr/local/pgsql/lib export LD_LIBRARY_PATH oder in csh oder tcsh setenv LD_LIBRARY_PATH /usr/local/pgsql/lib Ersetzen Sie /usr/local/pgsql/lib mit dem. Wenn Sie auf BSD/OS.1: cannot open shared object file: No such file or directory war dieser Schritt notwendig. dann ist es zu empfehlen. Wenn Sie sich nicht sicher sind.Installationsanweisungen Wenn Sie einen Build durchgeführt haben und feststellen.so. OpenBSD. Weitere Informationen finden Sie in der Anleitung zu ldconfig.6. ksh. das von configure untersucht wird (zum Beispiel neue Software). Wenn Sie später eine Mitteilung sehen wie psql: error in loading shared libraries libpq. unterscheiden sich von Plattform zu Plattform.

müssen Sie Zeilen wie die folgenden in eine Shell-Startdatei einfügen. 232 . Anmerkung Wenn Sie Probleme mit der Installation auf unterstützten Plattformen haben. nehmen Sie diesen Befehl: set path = ( /usr/local/pgsql/bin $path ) Um Ihrem System zu ermöglichen. wie ~/. 14. dann sollten Sie /usr/local/pgsql/bin (oder auf was Sie --bindir in Schritt 1. ein: PATH=/usr/local/pgsql/bin:$PATH export PATH Wenn Sie csh oder tcsh verwenden. der die Datenbank verwenden will. müssen Sie die Einstellungen mit Kommandozeilenoptionen oder Ähnlichem vornehmen. Eine unterstützte Plattform bedeutet dabei in der Regel. die Dokumentation im man-Format zu finden. PGHOST setzt. Wenn Sie Clientanwendungen auf entfernten Hosts laufen lassen wollen. der normalerweise nicht nach Programmen durchsucht wird. außer wenn Sie an einem Ort installiert haben. schreiben Sie bitte an pgsql-bugs@postgresql. aber wenn Sie es nicht tun.org. Streng genommen ist das nicht notwendig. Fügen Sie also Folgendes in eine Ihrer Shell-Startdateien.org oder pgsql-ports@postgresql. 14. ist es praktisch. MANPATH=/usr/local/pgsql/man:$MANPATH export MANPATH Die Umgebungsvariablen PGHOST und PGPORT geben Clientanwendungen den Host und Port des Datenbankservers an und übergehen damit die eingebauten Vorgaben. der in der Standardeinstellung schon durchsucht wird.7 Unterstützte Plattformen PostgreSQL wurde von der Entwicklergemeinde auf den unten gelisteten Plattformen auf korrektes Funktionieren überprüft. nicht an die hier aufgelisteten Leute. aber es macht die Verwendung von PostgreSQL viel bequemer.bash_profile (oder /etc/profile.Kapitel 14 /sbin/ldconfig -m /usr/local/pgsql/lib Auf anderen Systemen ist ein entsprechender Befehl nicht bekannt. wenn jeder Benutzer.2 Umgebungsvariablen Wenn Sie in /usr/local/pgsql installiert haben oder an einem anderen Ort. Das ist nicht erforderlich. dass PostgreSQL entsprechend dieser Anleitung gebaut und installiert werden kann und dass die Regressionstests erfolgreich waren. wenn es auf alle Benutzer Auswirkung haben soll).6. gesetzt haben) in Ihren Suchpfad (PATH) einfügen.

pgh.00.3. Andrew Sullivan ( andrew@libertyrms. Sean Chittenden ( sean@chittenden.pa.pha. 3. 11. entferne slock_t typedef Linux Linux Linux Linux MacOS X PPC74xx 7.us) 2002-11-13.au) 2002-12-11.4. Tom Lane ( tgl@sss.0 2.us ).3 7.19-pre6 #undef HAS_TEST_AND_SET.net 2002-10-28.pgh. 4.3 5.com. 3. 10. Permaine Cheung pcheung@redhat.org) 2002-10-28.3 7.uk) 2002-11-19.net ).net) 2002-11-19.4.com.2 Christopher Kings-Lynne ( chriskl@familyhealth.pa.ac.3 7.com) Bemerkungen siehe auch doc/FAQ_AIX 4. Andreas Zeugswetter ( ZeugswetterA@spardat.au) 2002-10-29.3 7.Installationsanweisungen Betriebssystem AIX BSD/OS FreeBSD FreeBSD Prozessor Version Bericht RS6000 x86 Alpha x86 7. Apple G3 s390 und s390x (32 und 64 Bits) 3.3 1.co.2. Andrews ( nandrews@investsystems. 5. Patrick Welche ( prlw1@newn.cam. Magnus Naeslund ( mag@fbab.1 7.2 HP-UX PA-RISC 7.at 2002-10-25.2. 10.2 SCO OpenServer 5 Solaris x86 Sparc 7. siehe auch doc/FAQ_SCO Solaris 7 und 8.6 1.3 2002-11-12. Chris Kings-Lynne ( chriskl@familyhealth.3. Shibashish Satpathy ( shib@postmark.6 3.au) 2002-11-14.org) 2002-10-26.18.info) 2. Christopher Kings-Lynne ( chriskl@familyhealth.com.3 7.3 2002-10-26. gcc. Doug McNaught ( doug@mcnaught.ac.pa. Patrick Welche ( prlw1@newn.org ).11. 32 und 64 Bits.au 2002-10-27. Adam Witney ( awitney@sghms.cl) 2002-10-28. 3.1. Tom Lane ( tgl@sss.3 7. siehe auch doc/FAQ_HPUX IRIX Linux Linux MIPS Alpha PlayStati on 2 7. Alvaro Herrera ( alvherre@dcc.us ). siehe auch doc/FAQ_Solaris 233 .3 S/390 Sparc x86 PPC 7.7.uchile.3 7.0.com.us) 2002-11-22.pa.20 Tom Lane ( tgl@sss.cam. Nigel J. Ian Barwick ( barwick@gmx.0.uk) 2002-11-14. 10.4 NetBSD NetBSD OpenBSD OpenBSD arm32 x86 Sparc x86 7.3 7.net) 2002-10-28.3 gcc und cc. 11.3 7.3 7.ac.uk ). Permaine Cheung pcheung@redhat.uk) 2002-11-17.3 Irix64 Komma 6.1. Larry Rosenman ( ler@lerctr.pgh.com) 2002-10-26. Bruce Momjian ( pgman@candle.5 2.3 7. Giles Lean ( giles@nemeton.1 Magnus Naeslund ( mag@fbab.

um Ihnen zu zeigen. Jason Tishler ( jason@tishler.fr ) 1998-03-01. oder sie funktionierten in einer früheren Version einmal und wir haben keine ausdrückliche Bestätigung eines erfolgreichen Tests mit Version zum Zeitpunkt. Dave Page ( dpage@vale-housing. 7.org ) 2001-11-15.1 und 7.3 mit Cygwin. Martin Renters ( martin@datafax. Wir erwähnen sie hier.fr) 2002-10-29. Hisao Shibuya ( shibuya@alpha. als diese Liste zusammengestellt wurde.2 (8.1 braucht neue OSVersion? 1. dass diese Plattformen unterstützt werden könnten.0 NetBSD Alpha 7.1.2 NetBSD m68k 7.3 nativ nur clientseitig. siehe Dokumentation siehe Kapitel 15 Nicht unterstützte Plattformen: Die folgenden Plattformen funktionieren entweder dem letzten Kenntnisstand nach nicht.org ). Cobalt Qube2 7.11 Linux m88k 6. siehe auch doc/ FAQ_Solaris siehe auch doc/FAQ_SCO Windows x86 7. Henry B.nasa. Alessio Bragadini ( alessio@albourne.com ) 2000-04-10.2 2.2. siehe doc/ FAQ_MSWIN Windows x86 7.5.2 2.com) 2002-11-01. wenn sie etwas Aufmerksamkeit erfahren würden.co.uk) Bemerkungen 5.3 7. Warwick Hunter ( whunter@agile.x Linux MIPS 7. Tatsuo Ishii ( t-ishii@sra.0.3 2002-11-20.com) 2002-11-05.3 Larry Rosenman ( ler@lerctr.jp ) 2001-04-03.3 7.edu ) 2001-12-10.4R4. Brian E Gallew ( geek+@cmu.net) 2002-11-05.or.3 234 .2 2001-11-29.co. 7.velter@libertysurf.2.co.0.tv ) Bemerkungen benötigt neuen Semaphorcode keine neueren Berichte DG/UX 5.1.jp ) 2001-11-20. Betriebssystem Prozessor Version Bericht BeOS x86 7.0) Olivier Prenant ( ohp@pyrenet.0 Mac 8xx NetBSD MIPS 7. Mark Knox ( segfault@hardline.uk ).8.1. Dave Page ( dpage@vale-housing. Thomas Thai ( tom@minnesota. erhalten.Kapitel 14 Betriebssystem Solaris Tru64 UNIX UnixWare Prozessor Version Bericht x86 Alpha x86 7.3 armv4l 7.5W MkLinux DR1 PPC750 7.x. Hotz ( hotz@jpl.gov ) 2002-06-13.1 1. Cyril Velter ( cyril.

Bernd Tegge ( tegge@repas-aeg.Installationsanweisungen Betriebssystem Prozessor Version Bericht NetBSD PPC 7.2. Matthew Green ( mrg@eterna.4 Ultrix Ultrix MIPS VAX 7.co. Doug Winterburn ( dlw@seavme.5 NeXTSTEP x86 6.2 QNX RTOS v6 x86 7.com ) 2001-12-04. siehe auch doc/FAQ_QNX4 Patches im Archiv verfügbar.com.jp ) 1998-03-01.x Bitrot vermutet QNX 4 RTOS x86 7. Frank Ridderbusch ( ridderbusch. aber zu spät für 7.org ) 2001-12-03. Helbekkmo ( tih@kpnQwest.pad@sni.de ) 2001-12-10. Bill Studenmund ( wrstuden@netbsd.au ) 2001-03-30.de ) 2001-03-26 1998-03-01 Bemerkungen 1.1 benötigt neuen TASSpinlockcode keine neueren Berichte System V R4 MIPS 6.5 NetBSD Sparc 7.1 1.2 32 und 64 Bits NetBSD VAX 7.de ) 2001-11-20.2 System V R4 m88k 6.Kovalenko@motorola.no ) 1998-03-01.com ) 1998-10-28.2 2001-11-28.1 6.xroads.2 benötigt neuen Semaphorcode.2 SunOS 4 Sparc 7. Tom I. David Wetzel ( dave@turbocat. Igor Kovalenko ( Igor. Tatsuo Ishii ( t-ishii@sra.x TAS-Spinlockcode wird nicht entdeckt 235 .

Kapitel 14 236 .

Die folgenden Dateien werden gebaut werden: interfaces\libpq\Release\libpq.mak Hierbei wird davon ausgegangen.dll Die dynamisch linkbare Clientbibliothek interfaces\libpq\Release\libpqdll. zu bauen. wechseln Sie in das Verzeichnis src und geben Sie diesen Befehl ein: nmake /f win32. Um alles.exe Das interaktive Terminal von PostgreSQL Die einzige Datei. Tipp Wenn Sie Windows 98 oder neuer verwenden. dann sollte sie mit Versionsprüfung über die in der Datei enthaltene Ressource VERSIONINFO installiert werden.lib Statische Version der Clientbibliothek bin\psql\Release\psql. 237 . Es sollte aber möglich sein. um Ihre Programme mit libpq. Die make-Steuerdateien in der Quellendistribution sind für Microsoft Visual C++ gedacht und funktionieren wahrscheinlich nicht mit anderen Systemen. dass Visual C++ in Ihrem Pfad zu finden ist.15 15 Installation auf Windows Trotzdem PostgreSQL für Unix-ähnliche Betriebssystem geschrieben wurde. können die C-Clientbibliothek (libpq) und das interaktive Terminal (psql) als Windows-Anwendungen kompiliert werden. in anderen Fällen die Anwendungen von Hand zu kompilieren.dll. In diesem Fall finden Sie die Installationsanweisungen in Kapitel 14. wenn Sie zuerst das Cygwin-Toolkit installieren. was auf Windows möglich ist. Diese Datei sollte in den meisten Fällen im Verzeichnis WINNT\SYSTEM32 (oder WINDOWS\SYSTEM auf Windows 95/98/ME) abgelegt werden. ist die Bibliothek libpq.lib Importbibliothek. Wenn diese Datei mit einem Setup-Programm installiert wird.dll linken zu können interfaces\libpq\Release\libpq. damit eine neuere Version der Bibliothek nicht überschrieben wird. dann können Sie das gesamte PostgreSQL-Paket auf “Unix-Art” kompilieren und anwenden. die wirklich installiert werden muss.

Kapitel 15 Wenn Sie Anwendung mit libpq auf diesem Rechner entwickeln wollen. müssen Sie die Datei libpqdll. Um die Bibliothek zu verwenden.) 238 . (In Visual C++ rechtsklicken Sie einfach auf das Projekt und wählen Sie den Menüpunkt zum Hinzufügen aus.lib Ihrem Projekt hinzufügen. müssen Sie die Verzeichnisse src\include und src\interfaces\libpq im Quellbaum zum Suchpfad für Headerdateien Ihres Compilers hinzufügen.

auf die über einen einzigen laufenden Server zugegriffen werden kann. unter dem alle Daten gespeichert werden. das mit der Welt verbunden ist. Um einen Datenbankcluster zu initialisie- 239 .) Ein Datenbankcluster ist eine Sammlung von Datenbanken. wo Sie Ihre Daten speichern. wenn er läuft. Diese Datenbank wird als Vorlage (englisch template) für später erzeugte Datenbanken verwendet. aber Stellen wie /usr/local/pgsql/ data oder /var/lib/pgsql/data werden häufig verwendet. Dieser Benutzerzugang sollte nur die vom Server verwalteten Daten besitzen und sollte nicht mit anderen Daemons geteilt werden. Es gibt keine Voreinstellung. sie sollte nicht für die eigentliche Arbeit verwendet werden. wie der Datenbankserver eingerichtet wird. schauen Sie. Um einen Unix-Benutzerzugang in Ihrem System zu erzeugen.2 Einen Datenbankcluster erzeugen Bevor Sie irgendetwas tun können.16 16 Laufzeitverhalten des Servers Dieses Kapitel bespricht. Wir nennen das einen Datenbankcluster. ob Sie einen Befehl useradd oder adduser haben. 16.) Im Dateisystem ist ein Datenbankcluster ein einzelnes Verzeichnis. die Programmdateien unter diesem Benutzerzugang zu installieren. (Informationen über die Erzeugung von Datenbanken finden Sie in Kapitel 18. Der Benutzername postgres wird oft verwendet. müssen Sie einen Bereich zur Speicherung der Datenbank auf der Festplatte initialisieren. weil ein kompromittiertes System dann seine eigenen Programmdateien verändern könnte. aber es besteht dahingehend keinerlei Notwendigkeit. 16. ist es auch bei PostgreSQL empfehlenswert. Nach der Initialisierung enthält ein Datenbankcluster eine Datenbank namens template1. den Server unter einem getrennten Benutzerzugang laufen zu lassen. (SQL verwendet anstelle dessen den Begriff Katalogcluster. Wir nennen das das Datenverzeichnis oder den Datenbereich. Es ist vollkommen Ihnen überlassen.1 Der PostgreSQL-Benutzerzugang Wie bei jedem Serverprogramm. (Die Verwendung des Benutzers nobody wäre zum Beispiel keine gute Idee. was passiert. und welche Wechselwirkungen mit dem Betriebssystem dadurch entstehen.) Es ist nicht zu empfehlen.

jetzt die richtige Wahl zu treffen. If that is a concern.) initdb stellt auch die Locale des Datenbankclusters ein. This locale setting will prevent the use of indexes for pattern matching operations.conf und stellen Sie die Authentifizierungsmethode auf md5 oder password anstelle von trust. mit initdb --lc-collate=C. außer wenn Sie alle Daten sichern (mit pg_dump). wenn es so aussieht. Siehe Kapitel 19 für weitere Informationen. welcher mit PostgreSQL installiert wird. verwenden Sie den Befehl initdb. außer dem PostgreSQL-Benutzer. sind die Verwendung der Methode ident oder die Verwendung der Dateisystemzugriffsrechte.1. wenn Sie diesen Befehl ausführen. ist es von äußerster Wichtigkeit. empfehlen wir Ihnen. und dann alle Daten wiederherstellen. bevor Sie den Server das erste Mal starten. Dazu wird es wahrscheinlich nicht die Rechte haben (wenn Sie unserem Rat gefolgt sind und einen unprivilegierten Benutzer geschaffen haben). z. 240 . dass Sie mit dem im vorigen Abschnitt beschriebenen PostgreSQL-Benutzer angemeldet sein müssen. (Weitere Möglichkeiten. es zu erzeugen. die Zugriffsrechte für dieses Verzeichnis. Wenn Sie Ihren lokalen Benutzern nicht vertrauen. dass sie nicht für Suchen mit LIKE oder regulären Ausdrücken verwendet werden können. Es ist auch möglich. zum Beispiel $ initdb -D /usr/local/pgsql/data Beachten Sie. dass jeder lokale Benutzer mit der Datenbank verbinden kann und sogar ein Superuser werden kann. Tipp Als Alternative zu der Option -D können Sie die Umgebungsvariable PGDATA setzen. wird initdb versuchen. um dem Datenbank-Superuser ein Passwort zuzuweisen. initdb entzieht daher jedem. Wenn das von Ihnen angegebene Verzeichnis noch nicht existiert. In diesem Fall sollten Sie das Verzeichnis selbst erstellen (als root) und dann den PostgreSQL-Benutzer zum Eigentümer machen. eine andere Locale für die Datenbank anzugeben.Kapitel 16 ren. dass die aktuell eingestellte Locale Indexe so sortiert. Das soll Sie darauf hinweisen. Da das Datenverzeichnis alle in der Datenbank gespeicherten Daten enthält. initdb nochmal ausführen. Das gewünschte Verzeichnis für Ihr Datenbanksystem wird mit der Option -D angegeben. So könnte man das anstellen: root# mkdir /usr/local/pgsql/data root# chown postgres /usr/local/pgsql/data root# su postgres postgres$ initdb -D /usr/local/pgsql/data initdb wird abbrechen. Während der Verzeichnisinhalt sicher ist. rerun initdb with the collation order set to "C". dass Sie die Option -W oder -pwprompt in initdb verwenden. weitere Informationen dazu finden Sie in Abschnitt 20. Normalerweise nimmt es einfach die Locale-Ein- stellung aus der Umgebung und wendet Sie auf die initialisierte Datenbank an. For more information see the Administrator's Guide. Die in einem bestimmten Datenbankcluster verwendete Sortierreihenfolge wird von initdb festgesetzt und kann später nicht mehr verändert werden. um Verbindungen zu beschränken. Eine kleine Überraschung während der Ausführung von initdb könnte eine Meldung wie diese sein: The database cluster will be initialized with locale de_DE. Wenn Sie für solche Suchen eine guten Leistung haben wollen. dann sollten Sie die aktuelle Locale auf C setzen und initdb noch einmal ausführen. als wäre das Datenverzeichnis schon initialisiert worden. Verändern Sie nach initdb die Datei pg_hba.B. Es ist also wichtig. erlaubt die Voreinstellung der Clientauthentifizierung jedoch. dass es vor unerlaubtem Zugriff geschützt wird.

Daher gibt es das Wrapperprogramm pg_ctl. während Sie mit dem PostgreSQL-Benutzerzugang angemeldet sind. Normalerweise wollen Sie es sicher so einrichten. das einige Aufgaben vereinfachen kann. Die Shell-Syntax kann schnell ziemlich umständlich werden. Weitere Informationen darüber finden Sie auf der Referenzseite und unten in Abschnitt 16.local an: if [ -x /usr/local/pgsql/bin/pg_ctl -a -x /usr/local/pgsql/bin/postmaster ].' postgres enthalten.) Der postmaster hat auch eine Reihe von Kommandozeilenoptionen. wenn der Computer bootet. hängt stark vom Betriebssystem ab. wie hier gezeigt.local oder /etc/rc. Viele Systeme haben eine Datei /etc/rc. wird der Server nicht starten. Das wird mit der Option -D getan. die Umgebungsvariable PGDATA zu verwenden. müssen Sie den Datenbankserver starten. Die einfachste Art. wo er die Daten finden soll. Insbesondere müssen Sie.. den Server zu starten. (Ersetzen Sie immer die richtigen Installationsverzeichnisse und Benutzernamen. Um den postmaster im Hintergrund zu starten.. (Eine gründlichere Besprechung der Verwaltung von Logdateien finden Sie in Abschnitt 21.3. Diesen Befehl müssen Sie ausführen. Was auch immer Sie machen. Verschiedene Systeme haben verschiedene Methoden. verwenden Sie die übliche Shell-Syntax: $ postmaster -D /usr/local/pgsql/data > logdatei 2>&1 & Es ist wichtig. Das hilft bei der Kontrolle der Serveraktivität und um Probleme zu analysieren.Laufzeitverhalten des Servers 16. dass der Datenbankserver gestartet wird. Der postmaster muss wissen. root-Zugang wird wahrscheinlich vonnöten sein. Wenn die Option -D nicht angegeben wurde. ❏ Für OpenBSD fügen Sie folgende Zeilen der Datei /etc/rc. Die Option -D hat hier die gleiche Bedeutung wie bei postmaster. Das Datenbankserverprogramm heißt postmaster. Zum Beispiel: pg_ctl start -l logdatei Das startet den Server im Hintergrund und leitet die Ausgabe in die angegebene Logdatei um.d-Verzeichnisse. Mit pg_ctl kann man den Server auch wieder anhalten. Daher sollten Ihre Befehle wahrscheinlich so etwas wie su -c '. Wie das gemacht wird. Zum Beispiel: su -c 'pg_ctl start -D /usr/local/pgsql/data -l serverlog' postgres Hier sind ein paar konkretere Vorschläge für verschiedene Betriebssysteme. die Option -i verwenden. die er verwenden soll. sowohl stdout als auch stderr vom Server irgendwo hinzuleiten.4. dann wird der Server versuchen.d/rc. wenn der Server TCP/IP-Verbindungen akzeptieren soll (anstatt nur Unix-Domain-Socket-Verbindungen).) ❏ Für FreeBSD schauen Sie in die Datei contrib/start-scripts/freebsd in der PostgreSQL-Distribution. um Daemons beim Booten zu starten. Andere haben rc. ist also: $ postmaster -D /usr/local/pgsql/data Dadurch bleibt der Server im Vordergrund. then 241 .local. Einige Autostartskripts finden Sie in der PostgreSQL-Distribution im Verzeichnis contrib/start-scripts.3 Den Datenbankserver starten Bevor jemand auf die Datenbank zugreifen kann. Wenn das auch nicht funktioniert. der Server muss vom PostgreSQL-Benutzerzugang gestartet werden und nicht als root oder ein anderer Benutzer.

dass mehrere postmaster-Prozesse im selben Datenverzeichnis laufen.Kapitel 16 su . dass Ihr Kernel System-V Shared Memory gar nicht unterstützt. dass die Kernelgrenze für Shared Memory kleiner ist als der Pufferbereich. den PostgreSQL anlegen wollte (in diesem Beispiel 83918612 Bytes).d/postgresql mit der folgenden Zeile: su . Oder es kann andeuten. welche Fehlermeldungen ausgegeben werden. Diese Datei wird verwendet. was es aussagt: Sie haben versucht. FATAL: StreamServerPort: bind() failed: Address already in use Is another postmaster already running on port 5432? If not.d einen symbolischen Link dahin als S99postgresql. um zu verhindern. ❏ Für NetBSD verwenden Sie entweder das Startskript von FreeBSD oder das von Linux. wait a few seconds an retry.d/rc. Während der postmaster läuft. size=83918612. ist seine PID in der Datei postmaster. wo schon einer läuft. 01600) failed: Invalid argument FATAL 1: ShmemCreate: cannot create region bedeutet wahrscheinlich. und kann auch dazu verwendet werden. je nach Geschmack. wait a few seconds an retry. Als vorübergehenden Ausweg können Sie den Server mit 242 .pid im Datenverzeichnis gespeichert. 16. Wenn die Fehlermeldung des Kernels jedoch nicht Address already in use oder etwas Ähnliches ist.local ein oder schauen Sie in die Datei contrib/start-scripts/linux in der PostgreSQL-Distribution. Wenn man zum Beispiel den postmaster an einer reservierten Portnummer laufen lassen will. könnte es ein anderes Problem sein. könnte man Folgendes sehen: $ postmaster -i -p 666 FATAL: StreamServerPort: bind() failed: Permission denied Is another postmaster already running on port 666? If not.3.1 Fehler beim Starten des Servers Es gibt einige häufige Gründe. Prüfen Sie die Serverlogdatei oder starten Sie ihn von Hand (ohne die Ausgabeströme umzuleiten) und sehen Sie. warum der Server einmal nicht starten könnte. um den postmaster zu beenden. ❏ Für Solaris erzeugen Sie eine Datei namens /etc/init. einen postmaster an einem Port zu starten. Das bedeutet in der Regel genau das. Unten gehen wir auf einige der häufigsten Fehlermeldungen etwas genauer ein. Eine Meldung wie IpcMemoryCreate: shmget(key=5440001.postgres -c "/usr/local/pgsql/bin/pg_ctl start -l logfile -D /usr/local/ pgsql/data" ❏ Dann erzeugen Sie in /etc/rc3.-c '/usr/local/pgsql/bin/pg_ctl start -l /var/postgresql/log -s' postgres echo -n ' postgresql' fi ❏ Für Linux-Systeme fügen Sie entweder /usr/local/pgsql/bin/pg_ctl start -l logfile -D /usr/local/pgsql/data in /etc/rc.

num=16. zu vergessen. Wenn die Fehlermeldung illegal system call erwähnt. psql: could not connect to server: Connection refused Is the server running on host server. wie in Abschnitt 19.” So wie hier sieht es aus. Wenn da wirklich kein Server läuft. die besagt: “Ich konnte keinen Server finden.5432"? Die letzte Zeile ist nützlich.3. indem Sie die den Server mit einer verkleinerten Anzahl an erlaubten Verbindungen (Option -N) starten. Fehlerumstände außer den hier gezeigten werden bei der entsprechenden Anwendung beschrieben. Wenn Sie eine Verbindung zu einem lokalen Server über Unix-Domain-Sockets versuchen.4 gezeigt wird.com and accepting TCP/IP connections on port 5432? Das ist die allgemeine Fehlermeldung. wird die Fehlermeldung des Kernels entweder Connection refused oder No such file or directory sein. Sie könnten diese Mitteilung auch sehen. dass der Server Ihre Verbindungsanfrage erhalten hat und sie abgelehnt hat. dass die Kernelgrenze für die Anzahl von System-V-Semaphoren kleiner ist als die Zahl. den Kernel umzukonfigurieren und diese Einrichtungen einzuschalten.2 Probleme bei Client-Verbindungen Obwohl die möglichen Fehler auf der Clientseite sehr verschieden sind und von der Anwendung abhängen. die PostgreSQL erzeugen will.2.1. dass Connection refused in diesem Zusammenhang nicht bedeutet. Ein häufiger Fehler ist es. wenn eine TCP/IP-Verbindung versucht wurde. dass Sie keinen Platz mehr auf der Festplatte haben.s. um die Shared-Memory-Größe zu erhöhen. In diesem Fall ist es Ihre einzige Möglichkeit.joe. aber früher oder später sollten Sie Ihren Kernel umkonfigurieren. In dem Fall sieht die Fehlermeldung anders aus. den Server so zu konfigurieren. Früher oder später werden Sie Ihren Kernel aber umkonfigurieren müssen. Einzelheiten über die Konfiguration von System V IPC finden Sie in Abschnitt 16. Ein Fehler wie IpcSemaphoreCreate: semget(key=5440026. 01600) failed: No space left on device bedeutet nicht.Laufzeitverhalten des Servers weniger Puffern als normal starten (Option -B). dann würden Sie dies sehen: psql: could not connect to server: Connection refused Is the server running locally and accepting connections on Unix domain socket "/tmp/. (Wichtig ist. dass er TCP/IP-Verbindungen annehmen kann. Wie oben können Sie dieses Problem eventuell umgehen. Er bedeutet. wenn Sie mehrere Server auf derselben Maschine starten und diese zusammen die Kernelbeschränkungen ausreizen. stehen einige davon doch direkt damit in Verbindung. dass Ihr Kernel Shared Memory oder Semaphore gar nicht unterstützt.) Andere Fehlermeldungen wie Connection timed out zeigen womöglich grundlegendere Probleme an. wie der Server gestartet wurde. um zu überprüfen.5.PGSQL. ob der Client auch mit der richtigen Stelle verbinden will. 16. wie gezeigt. dann ist es wahrscheinlich so. 243 . wie zum Beispiel das Fehlen einer Netzwerkverbindung.

conf im Datenverzeichnis zu bearbeiten. Jeder Parameter hat einen der folgenden Datentypen: Boolean (an/aus). zum Beispiel: postmaster -c log_connections=yes -c syslog=2 Kommandozeilenoptionen heben etwaige widersprüchliche Einstellungen in postgresql. Einzelheiten zur Syntax finden Sie in der SQL-Befehlsreferenz. Das Gleichheitszeichen zwischen Name und Wert kann weggelassen werden. ist die Datei postgresql. Immer wenn eine Sitzung gestartet wird.conf auf. (Die Groß-/Kleinschreibung ist egal. nicht nur bei psql. Optionseinstellungen für einzelne Benutzer oder Datenbanken zu machen.und Kleinschreibung keine Rolle. TRUE. damit alle aktiven Sitzungen den neuen Wert erhalten. Leerzeichen können frei verwendet werden und leere Zeilen werden ignoriert. wie zum Beispiel die Portnummer. Kommentare können an jeder Stelle mit # anfangen. Einige Optionen können in einzelnen SQL-Sitzungen mit dem Befehl SET geändert werden. Die zweite Möglichkeit. Der postmaster-Prozess schickt dieses Signal dann auch an alle Serverkindprozesse weiter. Boolean-Werte sind ON. Benutzerspezifische Einstellungen haben wiederum noch höheren Vorrang. wenn der postmaster-Prozess das Signal SIGHUP erhält (was man am einfachsten mit pg_ctl reload auslösen kann). sollten zwischen Apostrophen stehen. Alternativ können Sie das Signal auch direkt an einen einzelnen Serverprozess schicken. ganze Zahl. Dazu kann die Umgebungsvariable PGOPTIONS auf der Clientseite verwendet werden: env PGOPTIONS='-c geqo=off' psql (Das funktioniert bei jeder Clientanwendung auf libpq-Basis. YES. werden die Voreinstellungen für den betroffenen Benutzer und die Datenbank geladen. zum Beispiel: SET enable_seqscan TO off. 1 für “an” sowie OFF.) Eine Möglichkeit. Manchmal kann es auch nützlich sein. log_connections = yes syslog = 2 search_path = '$user. wenn der Server gestartet wird. um diese Einstellungen vorzunehmen. die keine einfachen Bezeichner sind.) Ein einfaches Beispiel einer solchen Datei wäre: # Das ist ein Kommentar. die sich auf das Verhalten des Datenbanksystems auswirken.4 Laufzeit-Konfiguration Es gibt eine ganze Reihe von Konfigurationsparametern. sie als Kommandozeilenoptionen beim Aufruf von postmaster anzugeben. wie sie gesetzt werden. eine Kommandozeilenoption nur für eine bestimmte Sitzung zu verwenden. diese Konfigurationsparameter zu setzen. Hier beschreiben wir. Die Konfigurationsdatei wird neu gelesen. Die Befehle ALTER DATABASE bzw. und die folgenden Unterabschnitte beschreiben jeden Parameter im Einzelnen. 0 für “aus” oder ein eindeutiger Präfix von einem dieser Werte. Bei den Namen der Parameter spielt die Groß. Außerdem ist es möglich. 244 .Kapitel 16 16. (Ein Beispieldatei mit Voreinstellungen wird dort installiert. steht eine Option pro Zeile. dass das nicht für Optionen funktioniert.) Beachten Sie aber. die feststehen. Solche datenbankspezifischen Einstellungen haben Vorrang vor Einstellungen von der postmaster-Kommandozeile und der Konfigurationsdatei. Parameterwerte. ALTER USER werden verwendet. public' Wie Sie sehen. NO. Fließkommazahl oder Zeichenkette. diese Optionen zu setzen. FALSE. ist.

außer wenn ein weiterer UPDATE. Ein UPDATE in pg_settings ist gleichbedeutend mit der Ausführung des Befehls SET für den benannten Parameter. um ein Indextupel während eines Indexscans zu verarbeiten. ENABLE_MERGEJOIN (Boolean) Schaltet die Verwendung des Plantyps Merge-Verbund im Planer an oder aus. dass ANALYZE länger dauert. Diese Option kann zum Debuggen des Anfrageplaners verwendet werden. EFFECTIVE_CACHE_SIZE (Fließkommazahl) Setzt die Annahme des Planers über die effektive Größe des Diskcaches (das heißt des Teils des Diskcaches vom Kernel. um einen Operator in einer WHERE-Klausel zu verarbeiten. CPU_TUPLE_COST (Fließkommazahl) Setzt den vom Anfrageplaner geschätzten Aufwand. die später zurückgerollt wird. Diese Option kann zum Debuggen des Anfrageplaners verwendet werden.Laufzeitverhalten des Servers Die virtuelle Tabelle pg_settings ermöglicht das Anzeigen und Aktualisieren von Konfigurationsparametern. Größere Werte führen dazu. Das wird relativ zum Aufwand eines sequenziellen Zeilenlesevorgangs gemessen. Die Voreinstellung ist an. Diese Option kann zum Debuggen des Anfrageplaners verwendet werden. Diese Form ermöglicht es Ihnen. Die Voreinstellung ist an. ENABLE_INDEXSCAN (Boolean) Schaltet die Verwendung des Indexscan-Plantyps im Planer ein oder aus. Name name setting Datentyp text text Beschreibung der Name des Konfigurationsparameters der aktuelle Wert des Konfigurationsparameters Tabelle 16. der für die Datendateien von PostgreSQL verwendet wird). Das wird relativ zum Aufwand eines sequenziellen Zeilenlesevorgangs gemessen.und Optimierereinstellungen CPU_INDEX_TUPLE_COST (Fließkommazahl) Setzt den vom Anfrageplaner geschätzten Aufwand.1 gezeigten Spalten. die Konfigurationsdaten mit anderen Tabellen zu verbinden und Auswahlkriterien anzuwenden. Wenn ein UPDATE in einer Transaktion ausgeführt wird. DEFAULT_STATISTICS_TARGET (ganze Zahl) Setzt das voreingestellte Statistikziel für Tabellenspalten. Die Voreinstellung ist an. dann bleiben die Auswirkungen bis zum Ende der Sitzung bestehen. bei denen das Statistikziel nicht mit ALTER TABLE SET STATISTICS geändert wurde.4. Das wird relativ zum Aufwand eines sequenziellen Zeilenlesevorgangs gemessen.1 Planer.oder SET-Befehl die Einstellung wieder ändert.1: pg_settings Spalten 16. Das wird in Diskseiten gemessen. wird die Einstellung zurückgenommen. ENABLE_HASHJOIN (Boolean) Schaltet die Verwendung des Plantyps Hash-Verbund im Planer an oder aus. 245 . Wenn die umgebende Transaktion erfolgreich abgeschlossen wird. Sie enthält eine Zeile für jeden Parameter und die in Tabelle 16. um ein Tupel während einer Anfrage zu verarbeiten. aber können auch zu besseren Planerschätzungen beitragen. wenn die Tranaktion zurückgerollt wird. welche normalerweise 8 kB groß sind. CPU_OPERATOR_COST (Fließkommazahl) Setzt den vom Anfrageplaner geschätzten Aufwand. Die Veränderung gilt nur für die aktuelle Sitzung.

GEQO_EFFORT (ganze Zahl). Die Voreinstellung ist an. Die Voreinstellung ist an. aber wenn man diese Variable ausschaltet.) Die Voreinstellung ist 11. GEQO_SELECTION_BIAS ist der Auswahldruck in der Bevölkerung. GEQO_EFFORT wird verwendet. wie sehr der Optimierer versuchen wird. Die Laufzeit des Algorithmus ist in etwa proportional zur Summe von GEQO_POOL_SIZE und GEQO_GENERATIONS. ENABLE_SORT (Boolean) Schaltet die Verwendung von ausdrücklichen Sortierschritten im Planer an oder aus.50 bis 2. Man kann ausdrückliche Sortierschritte nicht vollständig unterdrücken. Diese Option kann zum Debuggen des Anfrageplaners verwendet werden. wobei 40 die Voreinstellung ist. Man kann Nested-Loop-Verbunde nicht vollständig unterdrücken. Diese Option kann zum Debuggen des Anfrageplaners verwendet werden. GEQO_SELECTION_BIAS (Fließkommazahl) Verschiedene Einstellungen für den genetischen Anfrageoptimierungsalgorithmus: 128 und 1024. dann wird Effort * Log2(PoolSize) verwendet. Die Voreinstellung ist an. wobei QS die Anzahl der FROM-Elemente in der Anfrage ist.Kapitel 16 ENABLE_NESTLOOP (Boolean) Schaltet die Verwendung des Plantyps Nested-Loop-Verbund im Planer an oder aus. Wenn es 0 ist (Voreinstellung). Die Voreinstellung ist an. GEQO (Boolean) Schaltet genetische Anfrageoptimierung (genetic query optimization). ENABLE_SEQSCAN (Boolean) Schaltet die Verwendung von sequenziellen Scans im Planer ein oder aus. hält das den Planer davon ab. dann verhält sich der Algorithmus nicht deterministisch. Gültige Werte sind zwischen 1 und 80. GEQO_THRESHOLD (ganze Zahl) GEQO_POOL_SIZE ist die Anzahl der Individien in der Bevölkerung. GEQO_RANDOM_SEED kann gesetzt werden. Man kann sequenzielle Scans nicht vollständig unterdrücken. Diese Option kann zum Debuggen des Anfrageplaners verwendet werden. Für einfachere Anfragen ist es normalerweise besser. wenn andere Methoden zur Verfügung stehen. dann wird 2QS+1 verwendet. einen zu verwenden. hält das den Planer davon ab. Wenn 0 angeben wird. an oder aus. aber wenn man diese Variable ausschaltet. (Eine JOIN-Konstruktion zählt als nur ein Element. 246 . GEQO_POOL_SIZE (ganze Zahl). GEQO_GENERATIONS (ganze Zahl). deterministischen Planer zu verwenden. der versucht. GEQO_GENERATIONS ist die Anzahl der Iterationen des Algorithmus. Anfragen ohne erschöpfende Suchen zu planen. Die Zahl muss eine positive ganze Zahl sein. dann hält das den Planer davon ab. wenn andere Methoden zur Verfügung stehen. Diese Option kann zum Debuggen des Anfrageplaners verwendet werden. ENABLE_TIDSCAN (Boolean) Schaltet die Verwendung des TID-Scan-Plantyps im Planer an oder aus. GEQO_RANDOM_SEED (ganze Zahl). Letzterer ist die Voreinstellung. Werte können von 1.00 gehen. aber wenn man diese Variable ausschaltet. um für GEQO_GENERATIONS einen Vorgabewert zu errechnen. um vom Algorithmus wiederholbare Ergebnisse zu erhalten. Gültige Werte sind zwischen Gibt an. einen zu verwenden. Dieser Parameter kontrolliert auch. wenn andere Methoden zur Verfügung stehen. Siehe auch bei den verschiedenen anderen GEQO_-Einstellungen. ein Algorithmus. FROM-Elemente mit Unteranfragen mit der übergeordneten Anfrage zusammenzuführen. wenn eine Anfrage mindestens so viele Elemente in der FROM-Liste hat. einen zu verwenden. Die Voreinstellung ist an. Wenn der Wert -1 ist. den normalen. dass genetische Anfrageoptimierung verwendet werden soll.

um ideale Werte zu ermitteln. wenn PostgreSQL damit kompiliert wurde. DEBUG1. Sehen Sie auch dort nach. diese Option in der Voreinstellung an ist. Das ist eine Debug-Hilfe. Die Voreinstellung ist NOTICE. Wir ermutigen Sie. Für jede ausgeführte Anfrage wird entweder der resultierende Parsebaum. Um diese Option benutzen zu können. Jeder Typ schließt alle ihm folgenden Typen mit ein. Wenn sonderbare Probleme auftreten oder der Server abstürzt. weil dadurch Programmierfehler entlarvt werden könnten. ob EXPLAIN VERBOSE das eingerückte oder das nicht eingerückte Format zur Ausgabe der Anfragebäume verwendet. Beachten Sie. zu experimentieren und Ihre Ergebnisse mit anderen zu teilen. WARNING und ERROR. das Ergebnis des Umschreibers oder der Ausführungsplan ausgegeben. DEBUG3. können Sie diese Option anschalten. Das wird relativ zum Aufwand eines sequenziellen Zeilenlesevorgangs gemessen. DEBUG_PRINT_PARSE (Boolean).4. dass. 16. Diese Option kann nur beim Start des Servers gesetzt werden. Anmerkung Leider gibt es für die Familie der eben beschriebenen COST-Variablen keine richtig gute Methode. Diese Option kann nur beim Start des Servers oder in der Datei postgresql.Laufzeitverhalten des Servers RANDOM_PAGE_COST (Fließkommazahl) Setzt den vom Anfrageplaner geschätzten Aufwand. um eine Diskseite außer der Reihe von der Festplatte zu lesen. um besser lesbar. DEBUG_PRETTY_PRINT (Boolean) Diese Optionen sorgen dafür. ist aber wahrscheinlich sehr nützlich. LOG_CONNECTIONS (Boolean) Schreibt für jede erfolgreiche Verbindung eine Zeile mit Einzelheiten in den Serverlog. Beachten Sie. 247 . DEBUG2. Gültige Werte sind DEBUG5.und Debug-Ausgabe CLIENT_MIN_MESSAGES (Zeichenkette) Kontrolliert. Das ist in der Voreinstellung aus. Durch DEBUG_PRETTY_PRINT wird die Ausgabe eingerückt. welche Meldungstypen an den Client geschickt werden. DEBUG4. dass bestimmte Debug-Ausgaben an den Serverlog geschickt werden. DEBUG_ASSERTIONS (Boolean) Schaltet diverse Assertion-Prüfungen ein. aber je nachdem. Je weiter hinten der Typ steht. muss das Makro USE_ASSERT_CHECKING bei der Compilierung definiert sein (am besten durch configure -enable-cassert erreicht). NOTICE. HOSTNAME_LOOKUP (Boolean) In der Voreinstellung zeigen die Verbindungslogs nur die IP-Adressen der Clienthosts. dann können Sie diese Option anschalten.conf eingestellt werden. um eine Beschreibung der verschiedenen Werte zu erhalten. DEBUG_PRINT_REWRITTEN (Boolean). dass LOG hier anders eingeordnet ist als bei SERVER_MIN_MESSAGES. Wenn Sie den Hostnamen auch anzeigen wollen.2 Log. EXPLAIN_PRETTY_PRINT (Boolean) Bestimmt. DEBUG_PRINT_PLAN (Boolean). wie Ihr DNS eingerichtet ist. aber auch wesentlich länger zu sein. kann das die Leistung nicht unerheblich beeinträchtigen. desto weniger Meldungen werden gesendet werden. LOG.

NOTICE. Beachten Sie. LOG_MIN_ERROR_STATEMENT (Zeichenkette) Kontrolliert. INFO Enthält Informationen.Kapitel 16 LOG_DURATION (Boolean) Wenn an. im Serverlog aufgezeichnet wird. DEBUG3. dann werden alle SQL-Befehle. Hier ist eine Liste der verschiedenen Meldungstypen: DEBUG[1-5] Enthält Informationen für Entwickler. WARNING. Gültige Werte sind DEBUG5. über Checkpoint-Aktivität. INFO. FATAL und PANIC. die für Benutzer hilfreich sein könnten. Die Voreinstellung ist NOTICE. welche Meldungen zu welcher Verbindung gehören. der den Abbruch der aktuellen Transaktion verursachte. LOG_STATEMENT (Boolean) Schreibt jeden SQL-Befehl in den Serverlog. LOG. DEBUG3. DEBUG1. Wir empfehlen Ihnen außerdem. DEBUG4. Je weiter hinten der Typ steht.B. der diese Meldung verursacht hat. Jeder Typ schließt alle ihm folgenden Typen mit ein. die eine Meldung des gesetzten Typs oder höher verursachen. ERROR. INFO. Dieser Parameter hat keine Auswirkung auf Meldungen. z. die mit Syslog geloggt werden. für welche Meldungstypen der SQL-Befehl. Die Voreinstellung ist aus. Die Voreinstellung ist PANIC (wodurch diese Funktion im Prinzip ausgeschaltet wird). desto weniger Meldungen werden in den Log geschrieben werden. WARNING.B bei VACUUM VERBOSE. NOTICE. DEBUG2. damit Sie die Befehle und die Dauer über die Prozess-ID in Verbindung setzen können. FATAL oder PANIC erzeugen. welche Meldungstypen in den Serverlog geschrieben werden. LOG_PID (Boolean) Schreibt vor jede Meldung im Serverlog die Prozess-ID des Serverprozesses. die implizit vom Benutzer angefordert wurden. damit Sie den fehlerhaften Befehl und die Fehlermeldung leichter in Verbindung bringen können. NOTICE Enthält Informationen. ERROR. Das ist nützlich. das Abschneiden langer Namen oder die Erzeugung eines Indexes als Teil eines Primärschlüssels. LOG Enthält Informationen für Administratoren. Wenn Sie die Option zum Beispiel auf ERROR setzen. DEBUG2. DEBUG1. Alle Befehle. geloggt. DEBUG4. da dort die Prozess-ID immer enthalten ist. Gültige Werte sind DEBUG5. ERROR Berichtet einen Fehler. z. die Meldungen der Typen ERROR. WARNING Enthält Warnhinweise für den Benutzer. COMMIT außerhalb eines Transaktionsblocks. z.B. LOG_TIMESTAMP (Boolean) Schreibt vor jede Serverlogmeldung die aktuelle Zeit. werden geloggt. LOG_PID anzuschalten. 248 . FATAL und PANIC. z. Die Voreinstellung ist aus. Wenn Sie diese Option verwenden. dass LOG hier anders eingeordnet ist als bei CLIENT_MIN_MESSAGES. sollten Sie auch LOG_STATEMENT und LOG_PID anschalten. dann wird die Dauer jedes abgeschlossenen Befehls geloggt. um herauszufinden.B. SERVER_MIN_MESSAGES (Zeichenkette) Kontrolliert.

LOCAL4. Diese Option kann nur beim Start des Servers eingestellt werden. SHOW_PLANNER_STATS (Boolean).) Die Voreinstellung ist 0. LOCAL7. wenn mit Syslog geloggt wird. Eine Erklärung dazu finden Sie in der Anleitung von Syslog auf Ihrem System. STATS_RESET_ON_SERVER_START (Boolean) Wenn an. sie ist aber unschätzbar zum Debuggen und um Feinabstimmungen zur Leistungsverbesserung vornehmen zu können. Diese Option kann nur beim Start des Servers eingestellt werden. LOCAL2. 249 . Wenn die Sammlung der Statistiken eingeschaltet ist. der den Abbruch der aktuellen Sitzung verursachte. SHOW_STATEMENT_STATS (Boolean). LOCAL5. um herauszufinden. kann aber ausgeschaltet werden. Die Voreinstellung ist aus. STATS_START_COLLECTOR (Boolean) Kontrolliert. In der Voreinstellung sind alle aus. Zus Auswahl stehen LOCAL0. STATS_ROW_LEVEL (Boolean) Diese Optionen bestimmen. PANIC Berichtet einen Fehler. SYSLOG (ganze Zahl) PostgreSQL kann Syslog zum Loggen verwenden. Statistiken über Aktivitäten auf Blockebene oder Statistiken über Aktivitäten auf Zeilenebene. die verwendet wird. wenn Sie kein Interesse an Statistiken haben. LOCAL3. Sie könnten diese Portnummer zurückverfolgen. kostet sie pro Anfrage ein wenig Zeit. Diese Option kann nur beim Start des Servers eingestellt werden. welcher Benutzer die Verbindung eingeleitet hat. LOCAL1. welche Informationen an den Statistikkollektor gesendet werden: aktueller Befehl. (Einige Meldungen gehen aber trotzdem an die Standardausgabe oder die Standardfehlerausgabe. Wenn diese Option 1 ist. gehen Meldungen an Syslog und die Standardausgabe. ob der Server den Statistikkollektor-Subprozess starten soll. womit Syslog aus ist. STATS_COMMAND_STRING (Boolean). SYSLOG_FACILITY (Zeichenkette) Diese Option bestimmt die Syslog-“Facility”. Wenn aus. werden die Statistiken nach einem Neustart weitergezählt. wenn der Server neu gestartet wird. STATS_BLOCK_LEVEL (Boolean). Die Einstellung 2 schickt die Ausgabe nur an Syslog. Das ist in der Voreinstellung angeschaltet. werden die gesammelten Statistiken zurückgesetzt. der den Abbruch aller Sitzungen verursachte. SHOW_SOURCE_PORT (Boolean) Zeigt die Nummer des ausgehenden Ports auf dem verbundenen Client in den Verbindungslogmeldungen. LOCAL6. die Voreinstellung ist LOCAL0. SHOW_PARSER_STATS (Boolean).Laufzeitverhalten des Servers FATAL Berichtet einen Fehler. SHOW_EXECUTOR_STATS (Boolean) Schreibt für jede Anfrage Leistungsstatistiken des entsprechenden Moduls in den Serverlog. Ansonsten ist diese Option ziemlich nutzlos und daher in der Voreinstellung aus. Das ist ein grobes Profiling-Instrument. Diese Option kann nur beim Start des Servers eingestellt werden.

3 Allgemeine Operation AUTOCOMMIT (Boolean) Wenn auf wahr gesetzt.4. US. Wenn auf falsch gesetzt. automatisch ein COMMIT ausführen. Das verhindert. testen Sie sorgfältig.conf eingestellt werden. AUSTRALIAN_TIMEZONES (Boolean) Wenn wahr. Um SET. Die Voreinstellung ist falsch. um mit dem bisherigen Verhalten von PostgreSQL kompatibel zu sein. Bevor Sie es in Ihrer Installation zur Voreinstellung machen. in Sekunden. Wenn ein potenzieller Client die Authentifizierung nicht in dieser Zeit abgeschlossen hat. wird durch SET.oder RESET-Befehle sind Teil des Transaktionsblocks. wenn ein COMMIT ausdrücklich ausgeführt wird. “Samstag” interpretiert. Um jedoch zu sehr wie möglich mit dem SQL-Standard kompatibel zu sein. wenn folgende Befehle Fehler verursachen. Anmerkung In PostgreSQL 7.5. sie könnten eventuell zurückgerollt werden. Einzelheiten finden Sie in Abschnitt 8. um PostgreSQL-Meldungen in den Syslog-Meldungen zu identifizieren. SHOW oder RESET am Anfang eines Transaktionsblocks auszuführen. den Zeichensatz der Datenbank zu verwenden. Die Voreinstellung ist postgres.3 wird autocommit auf falsch zu setzen noch nicht sehr gut unterstützt. DATESTYLE (Zeichenkette) Setzt das Ausgabeformat für Datums. bricht der Server die Verbindung ab. EST und SAT als australische Zeitzonen anstatt amerikanische Zeitzonen bzw. der nicht in einem ausdrücklichen Transaktionsblock ist (das heißt. das heißt. dann schließt PostgreSQL Transaktionen nur dann ab. Die Voreinstellung ist ISO. Die Voreinstellung ist. der verwendet wird. ein BEGIN ohne zugehöriges COMMIT wurde ausgeführt). wird PostgreSQL nach jedem erfolgreichen Befehl. Wenn erst ein anderer Befehl ausgeführt wird. setzen Sie die Option auf falsch. fängt ein Transaktionsblock an und etwaige folgende SET-. CLIENT_ENCODING (Zeichenkette) Setzt den auf dem Client verwendeten Zeichensatz. CST. TRACE_NOTIFY (Boolean) Erzeugt eine Menge Debug-Ausgaben für die Befehle LISTEN und NOTIFY. sie laufen in ihren eigenen Transaktionen. Die Voreinstellung ist wahr. Anmerkung Selbst wenn autocommit falsch ist.Kapitel 16 SYSLOG_IDENT (Zeichenkette) Wenn Loggen mit Syslog an ist. verwenden Sie zuerst BEGIN. Diese Option kann nur beim Start des Servers oder in der Datei postgresql. dass implizit ein BEGIN ausgeführt wird. AUTHENTICATION_TIMEOUT (ganze Zahl) Maximale Zeit.und Zeitangaben sowie die Regeln um zweideutige Datumseingaben zu interpretieren. 16. das noch nicht von allen Clientanwendungen und -bibliotheken unterstützt wird. wenn ein Befehl empfangen wird. dann werden ACST. dass festgefahrene Clients eine Verbindung endlos besetzen können. Es ist ein neues Feature. 250 . um die Clientauthentifizierung abzuschließen. der nicht schon in einem Transaktionsblock ist. bestimmt diese Option den Programmnamen. SHOW und RESET kein neuer Transaktionsblock gestartet. Man kann sich diesen Modus auch so vorstellen. SHOW.

der entweder read committed oder serializable ist. bis geprüft wird.) Der Wert von DYNAMIC_LIBRARY_PATH muss eine Liste von absoluten Verzeichnisnamen. (Verwenden Sie pg_config --pkglibdir. DEADLOCK_TIMEOUT (ganze Zahl) Dies ist die Zeit. Dieser Parameter kontrolliert den Isolationsgrad. aber es dauert länger. damit die Chancen besser stehen. getrennt durch Doppelpunkte. bis eine wirkliche Verklemmung erkannt wird. Weitere Informationen finden Sie in Kapitel 12 und auf Seite 776. können Sie immer noch normale globale Benutzer erzeugen. dann werden Sie den Benutzernamen in Anführungszeichen stellen müssen. Wenn ein verbindender Client benutzername übergibt. Wir nehmen (optimistischerweise?) an. sein. ehe die wartende Sitzung auf Verklemmung prüft. DEFAULT_TRANSACTION_ISOLATION (Zeichenkette) Jede SQL-Transaktion hat einen Isolationsgrad. Idealerweise sollte dieser Wert höher sein als die Dauer einer typischen Transaktion. und daher möchte der Server sie nicht jedes Mal. bevor der Server den Benutzernamen weiterverwendet. wenn Sie den Benutzernamen im Client angeben. den man in der Praxis verwenden sollte. wenn er auf eine Sperre wartet. (Der betrachtete Name ist der Name. der in CREATE FUNCTION or LOAD angegeben wurde.h. durchführen. und warten einfach ein bisschen auf die Sperre. Das @ wird entfernt. wird dafür der eingebaute Name des Verzeichnisses für PostgreSQL-Pakete eingesetzt. dass Verklemmungen in normalen Anwendungen nicht häufig vorkommen. Diese Option kann nur beim Start des Servers eingestellt werden. wird die automatische Pfadsuche abgestellt.Laufzeitverhalten des Servers DB_USER_NAMESPACE (Boolean) Hierdurch werden datenbank-lokale Benutzernamen ermöglicht. Beachten Sie: Wenn Sie in der SQL-Umgebung Benutzernamen mit @ erzeugen. ehe wir die Verklemmungsprüfung starten. Wenn dieser Wert erhöht wird. 251 . sucht das System im DYNAMIC_LIBRARY_PATH-Pfad nach der angegebenen Datei. ob eine Verklemmung vorliegt. Wenn diese Option an ist. die in nutzlosen Verklemmungsprüfungen verwendet wird. sollten Sie Ihre Benutzer als benutzername@dbname erzeugen. DieÜberprüfung auf Verklemmungen ist relativ langsam. Wenn die Option an ist. Die Voreinstellung ist aus. dass eine Sperre aufgegeben wird. Diese Option wird dann entfernt werden. eine Sekunde). um den Namen dieses Verzeichnisses auszugeben. Wenn ein Verzeichnisname mit dem besonderen Wert $libdir anfängt. in Millisekunden. Hängen Sie einfach @ an den Namen an. Die Voreinstellung ist 1000 (d. Anmerkung Dieses Feature ist als vorübergehende Maßnahme gedacht. Wenn der Wert eine leere Zeichenkette ist.) Zum Beispiel: dynamic_library_path = '/usr/local/lib/postgresql:/home/mein_projekt/ lib:$libdir' Der voreingestellte Wert für diesen Parameter ist '$libdir'. mit dem jede neue Transaktion anfängt. verringert sich die Zeit. die auf eine Sperre gewartet wird. bis eine komplette Lösung gefunden wird. DYNAMIC_LIBRARY_PATH (Zeichenkette) Wenn ein dynamisch ladbares Modul geöffnet werden muss und der angegebene Name keine Verzeichniskomponente hat (das heißt er enthält keinen Schrägstrich). Auf einem stark belasteten Server könnten Sie eine Erhöhung in Erwägung ziehen. was wahrscheinlich in etwa der niedrigste Wert ist. wird @ und der Datenbankname angehängt und dieser datenbankspezifische Benutzername vom Server verwendet. In diesem Verzeichnis sind die in der PostgreSQL-Distribution enthaltenen ladbaren Module installiert. Die Voreinstellung ist read committed.

Aus den oben genannten Gründen kann jeder selbst entscheiden.conf zu setzen.1 für weitere Informationen. Wenn Sie Ihrem Betriebssystem. zum Beispiel mit der Familie der to_charFunktionen. weil es da einen klaren Punkt zum Neuanfang gibt. Einige Administratoren lassen sie immer ausgeschaltet. wenn sie viele Daten auf einmal laden wollen. siehe Abschnitt 20. wird der Wert auf eine systemabhängige Weise aus der Umgebung des Servers ermittelt.1 für weitere Informationen. nur um auf der sicheren Seite zu sein. Man kann die Variable trotzdem setzen. FSYNC (Boolean) Wenn diese Option an ist. Wenn der Wert eine leere Zeichenkette ist (was die Voreinstellung ist). LC_MONETARY (Zeichenkette) Setzt die Locale zur Formatierung von Geldbeträgen. Ohne fsync steht es dem Betriebssystem frei. In dem Fall sehen Sie weiterhin die englischsprachigen Meldungen. können Sie sich überlegen. Wir sollten anmerken. in der Mitteilungen ausgegeben werden. Diese Option kann nur beim Start des Servers oder in der Datei postgresql.1 erheblich geringer ist. LC_NUMERIC (Zeichenkette) Setzt die Locale zur Formatierung von Zahlen. dass die Leistungsbeeinträchtigung durch fsync seit PostgreSQL Version 7. siehe Abschnitt 20. (Ein Absturz des Datenbankservers selbst hat damit nichts zu tun. aber eine solche Änderung hält nur bis zum Ende der Clientverbindung. In der Voreinstellung ist sie an. Daher sollte diese Methode nur bei der Entwicklung verwendet werden.oder Hardwareabsturz in einen konsistenten Zustand wiederhergestellt werden kann. wenn etwas schief geht. Gültige Werte sind systemabhängig. die Schreibvorgänge durch Zwischenspeichern. siehe Abschnitt 20. Es besteht außerdem die Möglichkeit. verwendet der PostgreSQL-Server an mehreren Stellen den Systemaufruf fsync() um sicherzustellen. dann sollten Sie diese Wahl jetzt überdenken.3 wegen Einzelheiten. damit Sie auf der sicheren Seite sind. wird der Wert auf eine systemabhängige Weise aus der Umgebung des Servers ermittelt. dass ein Datenbankcluster nach einem Betriebssystem. könnten die Ergebnisse der letzten paar abgeschlossenen Transaktionen ganz oder teilweise verloren gehen. Umsortieren und Verzögern zu optimieren. aber es wird sich nichts ändern. fsync abzustellen. dass Änderungen physikalisch auf die Festplatte geschrieben werden. LC_MESSAGES (Zeichenkette) Setzt die Sprache. diesen Parameter in der Konfigurationsdatei postgresql. Siehe Abschnitt 19. wodurch die Leistung erheblich verbessert werden kann. KRB_SERVER_KEYFILE (Zeichenkette) Setzt den Ort der Kerberos-Server-Schlüsseldatei.Kapitel 16 Dieser Parameter kann zur Laufzeit nur von einem Superuser geändert werden. wie er mit der Option fsync verfahren will. weil es beim Abschluss einer Transaktion darauf warten muss. Auf einigen Systemen gibt es diese Locale-Kategorie nicht. Wenn 252 . einige schalten sie nur aus. Wenn Sie früher fsync aus Leistungsgründen ausgeschaltet haben.1 für weitere Informationen. dass für die gewünschte Sprache keine übersetzten Meldungen vorliegen. Im schlimmsten Fall werden die Daten unwiederbringlich zerstört. dass das Betriebssystem den Write-Ahead-Log auf die Festplatte zurückschreibt. Empfohlen wird. einige lassen sie immer an. Gültige Werte sind systemabhängig.) Diese Operation verlangsamt PostgreSQL jedoch.2. Wenn das System jedoch abstürzt. zum Beispiel mit der Familie der to_char-Funktionen. Wenn der Wert eine leere Zeichenkette ist (was die Voreinstellung ist). Gültige Werte sind systemabhängig. Das versichert.conf eingestellt werden. Ihrer Hardware und Ihrem Stromversorger (oder besser Ihrem Notstromaggregat) vertrauen.

Wenn Sie des Öfteren Fehlermeldungen über zu viele offene Dateien sehen. Die Voreinstellung ist 1000. Die Voreinstellung ist 10000. Auf Systemen.Laufzeitverhalten des Servers der Wert eine leere Zeichenkette ist (was die Voreinstellung ist). Die Voreinstellung ist 64. (Wenn Sie sie aber zu hoch setzen.) Gültige Werte sind systemabhängig. bestimmt diese Option.und Zeitwerten. dass Ihr Server abstürzt. Wenn der Wert eine leere Zeichenkette ist (was die Voreinstellung ist). Aber auf einigen Plattformen (besonders BSD-Systemen) gibt sysconf einen Wert zurück. weil der Stack übergelaufen ist. Die Voreinstellung ist für alle normalen Anfragen hoch genug. die viele verschiedene Tabellen in einer einzelnen Transaktion verwenden. Diese Option kann nur beim Start des Servers eingestellt werden. riskieren Sie. wirkt sie sich nur auf Serverprozesse aus. MAX_FSM_PAGES (ganze Zahl) Setzt die maximale Anzahl der Diskseiten. MAX_EXPR_DEPTH (ganze Zahl) Setzt die vom Parser maximal zugelassene Verschachtelungstiefe von Ausdrücken. aber Sie können sie erhöhen. als was das System in Wirklichkeit unterstützen kann. siehe Abschnitt 20. PASSWORD_ENCRYPTION (Boolean) Wenn in CREATE USER oder ALTER USER ein Passwort ohne ENCRYPTED or UNENCRYPTED angegeben wird. LC_TIME (Zeichenkette) Setzt die Locale zur Formatierung von Datums. wird der Wert auf eine systemabhängige Weise aus der Umgebung des Servers ermittelt. wird der Wert auf eine systemabhängige Weise aus der Umgebung des Servers ermittelt. Wenn Sie aber Clients haben.1 für weitere Informationen. Die vom Code tatsächlich verwendete Grenze ist der kleinere Wert aus dieser Einstellung und dem Ergebnis von sysconf(_SC_OPEN_MAX). 253 . kann es sein. Dieser Parameter kann nur beim Start des Servers eingestellt werden. für die die Free-Space-Map den freien Platz verfolgt. (Gegenwärtig macht diese Einstellung gar nichts. Diese Option kann nur beim Start des Servers oder in der Datei postgresql. versuchen Sie. Die Voreinstellung ist ja (das Passwort verschlüsseln). MAX_LOCKS_PER_TRANSACTION (ganze Zahl) Die geteilte Sperrentabelle hat eine Große. Diese Option kann nur beim Start des Servers eingestellt werden. ob das Passwort verschlüsselt werden soll. diesen Wert zu verkleinern. die danach gestartet werden. wenn es notwendig ist. müssen Sie sich um diese Einstellung daher keine Gedanken machen. MAX_CONNECTIONS (ganze Zahl) Bestimmt die Maximalzahl gleichzeitiger Verbindungen zum Server. aber sie könnte in der Zukunft gebraucht werden. Diese Option kann nur beim Start des Servers eingestellt werden. Die Voreinstellung ist 32 (wenn nicht bei der Compilierung des Servers verändert). MAX_FSM_RELATIONS (ganze Zahl) Setzt die maximale Anzahl der Relationen (Tabellen).conf eingestellt werden. die auf der Annahme basiert. Wenn Sie in der Konfigurationsdatei gesetzt wird. wo sysconf vernünftige Werte liefert. für die die Free-Space-Map den freien Platz verfolgt. Die Voreinstellung ist 1000. dass Sie diesen Wert erhöhen müssen. die ein Serversubprozess gleichzeitig offen halten darf. was sich im Verlauf der Zeit als ausreichend herausgestellt hat. der viel größer ist.) MAX_FILES_PER_PROCESS (ganze Zahl) Setzt die maximale Anzahl an Dateien. wenn viele Prozesse auf einmal alle so viele Dateien zu öffnen versuchen. dass höchstens max_locks_per_transaction mal max_connections verschiedene Objekte auf einmal gesperrt werden müssen.

da current_schemas() zeigt. dann wird $user ignoriert. Wenn ein Element der Liste der besondere Wert $user ist. Beachten Sie. dann wird es im ersten Schema im Suchpfad abgelegt. Wenn diese Option gesetzt ist. Wenn ein Objekt erzeugt wird. wird es an der angegebenen Position durchsucht. aktiviert haben. private Schemas für jeden Benutzer und Kombinationen davon. pg_temp_nnn. in welcher Reihenfolge Schemas durchsucht werden. Es werden also keine Meldungen auf den Standardausgabe. automatisch vor allen diesen Schemas durchsucht. wenn ein Objekt (Tabelle. Wenn pg_catalog nicht im Pfad steht. Diese Option kann nur bei Start des Servers eingestellt werden. wenn der Suchpfad leer ist. Die Verwendung dieser Option wird nicht empfohlen. wird das zuerst im Suchpfad gefundene verwendet. Die Voreinstellung ist 5432. public' (wobei der zweite Teil ignoriert wird. SHARED_BUFFERS (ganze Zahl) Setzt die Anzahl der vom Datenbankserver verwendeten Puffer im Shared Memory. Außerdem wird das Schema für temporäre Tabellen. Weitere Informationen über die Schemaverwaltung finden Sie in Abschnitt 5. Die Voreinstellung ist 64.) Das Systemkatalogschema pg_catalog wird immer durchsucht.oder Standardfehlerstrom geschrieben (gleiche Wirkung wie die Option -S von postmaster). dann wird die Zeitmessung ausgeschaltet. Fehlermeldungen zu sehen. wenn Sie kein anderes Logsystem.und Hash-Vorgänge verwenden. ab. Datentyp. wie zum Beispiel Syslog. Das ist nicht ganz dasselbe wie den Wert von search_path anzuschauen. Andere Wirkungen können erzielt werden. Ein Objekt. Jeder Puffer ist normalerweise 8192 Bytes groß. SEARCH_PATH (Zeichenkette) Diese Variable gibt an.7. Funktion usw. Wenn es im Pfad steht. wird der Server automatisch im Hintergrund ausgeführt und von allen kontrollierenden Terminals getrennt. ohne dass ein bestimmtes Schema angegeben wird. weil es sonst unmöglich ist. Wenn es Objekte mit gleichen Namen in verschiedenen Schemas gibt. der länger als die angegebene Anzahl an Millisekunden dauert. wie die Elemente in search_path aufgelöst wurden. Das unterstützt die gemeinsame Verwendung einer Datenbank (wo keine Benutzer private Schemas haben und alle public verwenden). Wenn null. das in keinem der Schemas im Suchpfad ist. egal ob es im Pfad erwähnt wird oder nicht. auf dem der Server auf Verbindungen hört. wenn es kein Schema namens public gibt). SORT_MEM (ganze Zahl) Gibt an. STATEMENT_TIMEOUT (ganze Zahl) Bricht jeden Befehl. kann nur durch Angabe eines Namens mit Schemaqualifikation verwendet werden. SILENT_MODE (Boolean) Führt den Server im stillen Modus aus. dann steht das für das Schema mit dem durch SESSION_USER zurückgegebenen Namen (also der Sitzungsbenutzer).Kapitel 16 PORT (ganze Zahl) Der TCP-Port. indem der Pfad global oder für jeden Benutzer eingestellt wird. Der Wert von search_path muss eine Liste von Schemas sein durch Kommas getrennt. wie viel Speicher interne Sortier. Der aktuelle effektive Wert des Suchpfads kann mit der SQL-Funktion current_schemas() untersucht werden. Der voreingestellte Wert für diesen Parameter ist '$user. dass bei komplexen Anfragen mehrere Sortiervorgänge parallel ablaufen kön- 254 . Der Wert wird in Kilobyte angegeben und die Voreinstellung ist 1024 (also 1 MB). (Wenn nicht.) mit einfachem Namen ohne Schemateil verwendet wird: der Suchpfad. bevor sie auf temporäre Dateien ausweichen. wenn es so ein Schema gibt. Diese Option kann beim Start des Servers eingestellt werden. Ein Fehler wird ausgegeben. dann wird es vor allen anderen Schemas im Pfad durchsucht.

Daten in temporäre Dateien auszulagern. Sortiervorgänge werden von ORDER BY. Das korrekte Verhalten von ausdruck = NULL ist immer den NULL-Wert (für unbekannt) zurückzugeben. können Sie diese Option ausschalten. Es scheint jedoch. wenn das Ergebnis von ausdruck der NULL-Wert ist. Beachten Sie. um Untertabellen auszuschließen. Einzelheiten finden Sie in Abschnitt 8. bevor er anfängt. TRANSFORM_NULL_EQUALS (Boolean) Wenn an. dann werden Ausdrücke der Form ausdruck = NULL (oder NULL = ausdruck) wie ausdruck IS NULL behandelt. Die Voreinstellung ist die im Betriebssystem eingestellte Zeitzone.1 war das nicht der Fall.Laufzeitverhalten des Servers nen und dass dann jeder Einzelne so viel Speicher verwenden kann.7. Wenn die max_connections minus Anzahl der aktiven Verbindungen superuser_reserved_connections erreicht oder überschreitet. um nach NULL-Werten zu suchen. sie ergeben wahr. Höchstens max_connections-Verbindungen können gleichzeitig aktiv sein. Wenn Anfragen also grundsätzlich falsch programmiert worden sind. SQL_INHERITANCE (Boolean) Diese Option kontrolliert das Verhalten der Tabellenvererbung. kann diese Option auch nicht weiterhelfen. die für PostgreSQL-Superuser reserviert werden sollen. Daher ist diese Option in der Voreinstellung aus. bevor Sie dies verwenden. TCPIP_SOCKET (Boolean) Wenn dies wahr ist.und Zeitangaben verwendet wird. und ansonsten falsch.2. Die Voreinstellung ist aus. Weitere Informationen über Vererbung finden Sie in Teil II. wie dieser Wert angibt. das heißt. die ausdruck = NULL verwenden. Wenn Sie das alte Verhalten benötigen. Aber weil neue Benutzer häufig Schwierigkeiten beim Verstehen von Ausdrücken mit NULL-Werten haben. ist diese Option in der Voreinstellung abgeschaltet. insbesondere ob Untertabellen von verschiedenen Befehlen automatisch mit einbezogen werden. Vor Version 7. Die Voreinstellung ist 2. die zur Ausgabe und Eingabe von Datums. SSL (Boolean) Ermöglicht SSL-Verbindungen. SUPERUSER_RESERVED_CONNECTIONS (ganze Zahl) Bestimmt die Anzahl der möglichen Verbindungen. aber auf lange Sicht sollten Sie Ihre Anwendungen ändern und das Schlüsselwort ONLY verwenden. Da Ausdrücke der Form expr = NULL immer den NULL-Wert ergeben (nach der korrekten Interpretation). Der Wert muss kleiner als der Wert von max_connections sein.5. sind sie nicht besonders nützlich und tauchen in normalen Anwendungen selten auf. dass diese Option sich nur auf den Operator = auswirkt. Außerdem könnten mehrere Sitzungen Sortiervorgänge gleichzeitig ausführen. werden neue Verbindungen nur für Superuser angenommen. dass gefilterte Formulare in Microsoft Access Anfragen erzeugen. und daher verursacht diese Option in der Praxis kaum Probleme. Ansonsten werden nur Verbindungen über Unix-Domain-Sockets angenommen. Bitte lesen Sie Abschnitt 16. Der tatsächlich verwendete Speicher könnte also ein Vielfaches von SORT_MEM sein. TIMEZONE (Zeichenkette) Setzt die Zeitzone. Wenn Sie also diese Anwendung verwenden. Die Voreinstellung ist aus. Dieser Parameter kann nur beim Start des Servers eingestellt werden. Weitere Informationen über verwandte Themen finden Sie in Abschnitt 9. um die Verwirrung zu reduzieren. um auf Ihre Datenbank zuzugreifen. Merge-Verbunden und CREATE INDEX durchgeführt. 255 . die irgendeinem Ausdruck mit dem Vergleichsoperator mathematisch gleichgestellt sind (wie zum Beispiel IN). Diese Option kann nur beim Start des Servers eingestellt werden. können Sie diese Option anschalten. dann nimmt der Server TCP/IP-Verbindungen entgegen. nicht aber auf andere Vergleichsoperatoren oder auf andere Ausdrücke.

ist immer der. in Sekunden. CHECKPOINT_TIMEOUT (ganze Zahl) Maximale Zeit zwischen automatischen WAL-Checkpoints.conf eingestellt werden. UNIX_SOCKET_PERMISSIONS (ganze Zahl) Setzt die Zugriffsrechte der Unix-Domain-Sokket. COMMIT_DELAY (ganze Zahl) Zeitverzögerung zwischen dem Schreiben eines Commit-Eintrags in den WAL-Puffer und dem Zurückschreiben des Puffers auf die Festplatte. Diese Option kann nur beim Start des Servers eingestellt werden. dass für eine Unix-Domain-Socket eigentlich nur die Schreibrechte von Bedeutung sind und das Setzen oder Entziehen der Lese. Größere Werte können die VACUUM-Zeit bei großen Tabellen mit vielen gelöschten Zeilen verbessern. kann aber beim Compilieren geändert werden.und Ausführrechte keinen Unterschied macht. auf der der Server auf Clientverbindungen hören soll. Die Voreinstellung ist eine leere Zeichenkette. wodurch die Standardgruppe des aktuellen Benutzers verwendet wird.4 WAL Einzelheiten zur Konfiguration von WAL finden Sie in Abschnitt 25.3. muss die Zahl mit 0 (einer Null) anfangen.conf eingestellt werden. auf der der Server auf Verbindungen von Clientanwendungen hören soll. Diese Option kann nur beim Start des Servers oder in der Datei postgresql. VACUUM_MEM (ganze Zahl) Gibt die maximale Speichermenge an. 16. der Eigentümer ist. siehe auch unter UNIX_SOCKET_GROUP) und 0700 (nur Benutzer). dass mehrere Transaktionen mit nur einem fsync-Systemaufruf abgeschlossen werden 256 . Die Voreinstellung ist normalerweise /tmp.4. Der Wert ist in Kilobytes und die Voreinstellung ist 8192.) Zusammen mit UNIX_SOCKET_PERMISSIONS kann das als zusätzlicher Zugriffskontrollmechanismus für diesen Sockettyp verwendet werden. (Der Benutzer. dass jeder verbinden kann. Der Wert dieser Option muss ein numerischer Wert in der von den Systemaufrufen chmod und umask verwendeten Form sein. der den Server gestartet hat. Unix-Domain-Sockets verwenden die üblichen Zugriffsrechte für Unix-Dateien. Diese Option kann nur beim Start des Servers oder in der Datei postgresql. (Beachten Sie. Diese Option kann nur beim Start des Servers eingestellt werden. VIRTUAL_HOST (Zeichenkette) Gibt den Hostnamen oder die IP-Adresse an. Eine Verzögerung höher als null ermöglicht. in Logdateisegmenten (jedes normalerweise 16 Megabyte groß). die VACUUM verwenden darf. die Eigentümer der Unix-Domain-Socket sein soll.) Dieser Zugriffskontrollmechanismus ist unabhängig von dem in Kapitel 19 beschriebenen. (Um das gebräuchliche Oktalformat zu verwenden.Kapitel 16 UNIX_SOCKET_DIRECTORY (Zeichenkette) Gibt das Verzeichnis für die Unix-Domain-Socket an. was bedeutet. um sich freizugebende Zeilen zu merken. CHECKPOINT_SEGMENTS (ganze Zahl) Maximaler Abstand zwischen automatischen WAL-Checkpoints. In der Voreinstellung wird auf allen konfigurierten Adressen (einschließlich localhost) gehört.) Die Voreinstellung für die Zugriffsrechte ist 0777. in Mikrosekunden. UNIX_SOCKET_GROUP (Zeichenkette) Setzt die Gruppe. Sinnvolle Alternativen sind 0770 (nur Benutzer und Gruppe.

-fn. WAL_DEBUG (ganze Zahl) Wenn verschieden von null.Laufzeitverhalten des Servers können. dass genug weitere Transaktionen in der angegebenen Zeitspanne zum Ende kommen könnten. -fm. enable_mergejoin=off. werden WAL-bezogenen Debuginformationen in den Serverlog geschrieben. COMMIT_SIBLINGS (ganze Zahl) Anzahl gleichzeitiger Transaktionen. Sie sind in Tabelle 16. OPEN_SYNC (WAL-Dateien mit der open()-Option O_SYNC schreiben) und OPEN_DATASYNC (WAL-Dateien mit der open()-Option O_DSYNC schreiben).4. Aber die Verzögerung ist Verschwendung. enable_hashjoin=off. enable_seqscan=off.5 Kurze Optionen Der Bequemlichkeit halber gibt es für einige Parameter auch äquivalente Kommandozeilenoptionen aus einem Buchstaben. enable_tidscan=off show_statement_stats = on -s Tabelle 16. dass zumindest eine weitere Transaktion während der Verzögerungsspanne zum Abschluss bereit wird. -fs. bevor die COMMIT_DELAY-Verzögerung eingelegt wird.conf eingestellt werden. die aktiv sein müssen. WAL_SYNC_METHOD (Zeichenkette) Die Methode. Kurze Option -B x -d x -F -h x -i -k x -l -N x -p x -fi. Mögliche Werte sind FSYNC (nach jeder Transaktion fsync() aufrufen).2: Kurze Optionen 257 . Ein größerer Wert erhöht die Wahrscheinlichkeit. enable_nestloop=off. Nicht alle diese Werte stehen auf allen Plattformen zur Verfügung. FDATASYNC (nach jeder Transaktion fdatasync() aufrufen). da der Serverprozess seinen Commit-Eintrag schreibt.2 beschrieben. -fh. Diese Option kann nur beim Start des Servers eingestellt werden. WAL_BUFFERS (ganze Zahl) Anzahl Diskseitenpuffer für WAL im Shared Memory. wenn mindestens COMMIT_SIBLINGS weitere Transaktionen in dem Moment. wenn die Systembelastung hoch genug ist. aktiv sind. Daher wird die Verzögerung nur eingelegt. -fta Äquivalente Einstellung shared_buffers = x server_min_messages = DEBUGx fsync = off virtual_host = x tcpip_socket = on unix_socket_directory = x ssl = on max_connections = x port = x enable_indexscan=off. 16. um WAL-Änderung auf die Festplatte zu zwingen. Diese Option kann nur beim Start des Servers oder in der Datei postgresql. wenn keine weiteren Transaktion zum Abschluss bereit stehen.

aber nicht alle haben sie in der Standardkonfiguration eingeschaltet oder groß genug eingestellt.) a. um diese Einstellungen zu ändern.3 gibt einen Überblick.2: Kurze Optionen (Forts. Wenn PostgreSQL eine der verschiedenen harten IPC-Grenzen überschreitet.) Wenn Sie auf ein derartiges Problem gestoßen sind. 16. Tabelle 16.1. dass sich nicht einmal eine wirklich “große” Installation brauchen. -te Äquivalente Einstellung sort_mem = x show_parser_stats=on. wenn der Server gestartet wird. dann ceil(SHMMAX/PAGE_SIZE) nur 1 Segment wird benötigt. show_executor_stats=on Tabelle 16.2 kB * max_connections bis unendlich 1 wenn Bytes. als Ihren Kernel umzukonfigurieren. 16. Die Methoden. Aus historischen Gründen müssen diese Optionen mit der postmaster-Option -o an die einzelnen Serverprozesse übergeben werden. zum Beispiel $ postmaster -o '-S 1024 -s' oder wie oben beschrieben mit PGOPTIONS von der Clientseite. show_planner_stats=on. dann lesen Sie weiter. (Für QNX und BeOS hat PostgreSQL eigene Ersatzimplementierungen dieser Schnittstellen. Seien Sie aber gewarnt. wenn Seiten.) Die betroffenen Kernelparameter werden auf den verschiedenen Systemen ziemlich einheitlich bezeichnet. um sie einzustellen variieren jedoch sehr. -tpl. In diesem Fall bleibt Ihnen nichts anderes übrig.Kapitel 16 Kurze Option -S x -tpa. PostgreSQL kann ohne sie nicht arbeiten. (Siehe auch Abschnitt 16.) Das komplette Fehlen dieser Einrichtungen offenbart sich normalerweise durch einen Illegal-system call-Fehler. besonders Systeme mit BSD-Erbe.3: System V IPC-Parameter 258 . dass es oft notwendig ist. dann gleich SHMMAX.5. die das Problem beschreibt und erklärt. (Auf einigen Systemen sind die Fabrikeinstellungen so niedrig. die für PostgreSQL keine Relevanz haben). Fast alle modernen Betriebssysteme bieten diese Fähigkeiten an. Name SHMMAX SHMMIN SHMALL SHMSEG SHMMNI Beschreibung maximale Größe eines Shared-MemorySegments (Bytes) minimale Größe eines Shared-MemorySegments (Bytes) Gesamtgröße des verfügbaren Shared Memory (Bytes oder Seiten) maximale Anzahl von Shared-MemorySegmenten pro Prozess maximale Anzahl von Shared-MemorySegmenten im ganzen System Vernünftige Werte 250 kB + 8.2 kB * shared_buffers + 14. Vorschläge für einige Plattformen finden Sie unten.5 Verwaltung von Kernelressourcen Eine große PostgreSQL-Installation kann schnell verschiedene Ressourcen des Betriebssystems ausreizen. wie man es ausräumen kann. aber die Voreinstellung ist viel höher wie SHMSEG plus Platz für andere Anwendungen Tabelle 16.1 Shared Memory und Semaphore Shared Memory und Semaphore werden zusammenfassend als “System V IPC” bezeichnet (zusammen mit Message Queues. wird der Server sich weigern zu starten und sollte eine detaillierte Fehlermeldung ausgeben.3. Ihre Maschine neu zu booten oder eventuell sogar den Kernel neu zu kompilieren.

Die Maximalzahl für Semaphore in einen System wird von SEMMNS gesetzt.3). Bei Fehlern. Semaphor. dass dieses Limit überschritten wurde. In manchen Fällen kann es auch notwendig sein. Die Größe des erforderlichen Segments hängt sowohl von der Zahl der gewünschten Puffer (Option -B) und der Zahl der erlaubten Verbindungen (Option -N) ab. was folglich mindestens so hoch wie die Verbindungseinstellung sein muss plus einen zusätzlichen pro 16 erlaubte Verbindungen (siehe Formel in Tabelle 16. der bestimmt. PostgreSQL verwendet einen Semaphor pro erlaubte Verbindung (Option -N).h. eines SharedMemory-Segments. Die Fragmentierung des Semaphorraums kann also mit der Zeit dazu führen. welcher eine “magische Zahl” enthält. wird die Fehlermeldung auch die Größe des angeforderten Segments zur Information enthalten. die Konflikte mit von anderen Anwendungen verwendeten Semaphoren verhindern soll. Einige Systeme haben auch eine Grenze für die Gesamtgröße des Shared Memory in einem System. mehr dazu finden Sie in den plattformspezifischen Anweisungen unten. wie SEMMNU und SEMUME. -gruppen) maximale Anzahl von Semaphoren im ganzen System maximale Anzahl von Semaphoren pro Gruppe Anzahl Einträge in Semaphorkarte Maximalwert eines Semaphors Vernünftige Werte mindestens ceil(max_connections / 16) ceil(max_connections / 16) * 17 plus Platz für andere Anwendungen mindestens 17 siehe Text mindestens 255 (Der Standard ist oft 32767. 256 kB sein sollte (normalerweise ist sie einfach 1). SEMMAP so zu erhöhen. Daher muss dieser Parameter mindestens ceil(max_connections / 16) sein. wie viele Semaphorgruppen auf einmal im System existieren können. Ein weniger wahrscheinlicher Problemgrund ist die Minimalgröße eines Shared-Memory-Segments (SHMMIN). hinzugefügt oder sie wird unter einem neuen Eintrag registriert. außer wenn Ihr System sie auch null gesetzt hat. Jede solche Gruppe enthält darüber hinaus einen 17. Der Parameter SEMMSL. nicht ändern. dass weniger Semaphore zur Verfügung stehen als eigentlich sollten. Der Parameter SEMMNI bestimmt. Wenn Sie von shmget eine Fehlermeldung ähnlich Invalid argument sehen. welche für PostgreSQL höchstens ca. Die Maximalzahlen für Segmente im ganzen System (SHMMNI) und pro Prozess (SHMSEG) sollten keine Probleme verursachen können. sind für PostgreSQL nicht von Bedeutung. Verschiedene Einstellungen. in der jeder zusammenhängende Block aus freien Semaphoren einen Eintrag benötigt. der an den freigegebenen Block angrenzt. (Sie können als vorübergehende Maßnahme diese Einstellungen verringern. um die Fehler abzuschalten. wie viele Semaphore in einer Gruppe sein können. in Gruppen von 16. sind die freigegebenen Semaphore verloren (bis zum Reboot). wenn nicht nötig. dass es etwa auf Höhe von SEMMNS ist. muss für PostgreSQL mindestens 17 sein. wird sie entweder zu einem bestehenden Eintrag. die Maximalgröße. obwohl Ersteres überwiegt. Wenn die Karte voll ist.) Tabelle 16. in Bytes.) Als grobe Schätzung zur Größe des erforderlichen Segments können Sie die Zahl der Puffer mit der Blockgröße (Standard 8 kB) multiplizieren und reichlich Extraplatz (mindestens ein halbes Megabyte) dazu addieren.) Der wichtigste Shared-Memory-Parameter ist SHMMAX.3: System V IPC-Parameter (Forts. Dieser Parameter bestimmt die Größe der Semaphorressourcenkarte. die sich auf Semaphore Undo beziehen. Wenn eine Semaphorgruppe freigegeben wird.Laufzeitverhalten des Servers Name SEMMNI SEMMNS SEMMSL SEMMAP SEMVMX Beschreibung maximale Anzahl von Semaphorbezeichnern (d. dann ist es möglich. 259 . Wenn das Anlegen eines Segments scheitert. kann als Ausweichlösung die Zahl der erlaubten Verbindungen heruntergesetzt werden. die meistens die verwirrende Formulierung No space left on device verwenden und von der Funktion semget kommen.

kompilieren Sie den Kernel neu und booten Sie. wenn der Kernel kompiliert wird. zum Beispiel: options "SEMMNI=40" options "SEMMNS=240" FreeBSD. Folgendes erhöht den maximalen Shared-Memory-Bereich auf 32 MB: options "SHMALL=8192" options "SHMMAX=\(SHMALL*PAGE_SIZE\)" Wenn Sie Version 4. Semaphore. Wenn Sie 1 addieren. Der wird beim Booten dynamisch berechnet. $ bpatch -r sysptsize 0x9 = 9 Als Nächstes fügen Sie einen fixen SYSPTSIZE-Wert in die Kernelkonfigurationsdatei ein. fügen Sie Folgendes zu Ihrer Kernelkonfigurationsdatei hinzu. dass Shared Memory nicht pagebar ist. Bedenken Sie.1 oder später haben. options "SYSPTSIZE=16" sysptsize kann nicht mit sysctl geändert werden. es sitzt fest im RAM. Wenn Sie frühere Versionen haben. was über die Hälfte des Systemvorrats von 60 ist.Kapitel 16 BSD/OS Shared Memory. Setzen Sie die gewünschten Werte in Ihrer Kernelkonfigurationsdatei. NetBSD. fügen Sie jeweils 4 MB Shared Memory hinzu. führen Sie obige Änderungen durch.) Die Maximalgröße des Shared Memory wird von der Option SHMMAXPGS (in Seiten) bestimmt.) 260 . Ein SHMALL-Wert von 1024 ergibt 4 MB Shared Memory. Folgendes ist ein Beispiel. In der Voreinstellung benötigt PostgreSQL 34 Semaphore. OpenBSD Die Optionen SYSVSHM und SYSVSEM müssen angeschaltet sein. Sie müssen eventuell die Zahl der Semaphore erhöhen. wie die verschiedenen Parameter gesetzt werden: options options options options options options options options SYSVSHM SHMMAXPGS=4096 SHMSEG=256 SYSVSEM SEMMNI=256 SEMMNS=512 SEMMNU=256 SEMMAP=256 (Auf NetBSD und OpenBSD ist das Schlüsselwort option in der Einzahl. In der Voreinstellung werden nur 4 MB Shared Memory unterstützt. (In der Voreinstellung ist das der Fall. Erhöhen Sie den mit bpatch gefundenen Wert. um den sysptsize-Wert im aktuellen Kernel zu finden. Um die vom System unterstützte Shared-Memory-Größe zu erhöhen. verwenden Sie bpatch.

Um die Einstellung zu ändern. Auf HP-UX 10 ist die Voreinstellung von SEMMNS 128. um diese Parameter zu kontrollieren./configure SHMMAX=wert 261 .shmmax = 134217728 Diese Datei wird üblicherweise beim Booten verarbeiten. IPC-Parameter können im System Administration Manager (SAM) unter Kernel ConfigurationConfigurable Parameters eingestellt werden.shmall In der Voreinstellung werden nur 512 kB Shared Memory unterstützt. was etwa für -B 24 -N 12 reicht.h.shmmax kern. Die anderen Parameter sind für alle Anwendungen ausreichend dimensioniert. führen Sie aus: .shmmni kern. dass es ausgeswappt wird.sysv. wechseln Sie zuerst in das Verzeichnis /etc/conf/cf. um das Shared Memory im RAM festzuhalten und zu verhindern.sysv.Laufzeitverhalten des Servers Sie können auch sysctl verwenden.d. wenn Sie fertig sind.sysv. MacOS X Bearbeiten Sie die Datei /System/Library/StartupItems/SystemTuning/SystemTuning und ändern Sie die folgenden Werte: sysctl sysctl sysctl sysctl sysctl SCO OpenServer -w -w -w -w -w kern.shmseg kern. aber sysctl kann auch später noch aufgerufen werden. sysctl verwenden. was für größere Datenbanken zu niedrig sein könnte. Wenn Sie selbst nachsehen wollen. Alternativ können Sie. führen Sie aus: . Linux Die voreingestellte Shared-Memory-Grenze (sowohl SHMMAX als auch SHMALL) ist 32 MB in Kernels der Serie 2.h und / usr/src/linux/include/linux/sem. HP-UX Die Voreinstellungen reichen für normale Installationen. Um den aktuellen Wert von SHMMAX anzuzeigen. wenn vorhanden.conf und fügen Sie diese oder ähnliche Zeilen ein: kernel. schauen Sie in /usr/src/linux/include/asm-xxx/shmpara m.sysv./configure -y SHMMAX Um einen neuen Wert für SHMMAX zu setzen.sysv. Wählen Sie Create A New Kernel.2. Suchen Sie die Datei /etc/sysctl.shmall = 134217728 kernel. Um zum Beispiel 128 MB zu erlauben: $ echo 134217728 >/proc/sys/kernel/shmall $ echo 134217728 >/proc/sys/kernel/shmmax Sie könnten diese Befehle in ein Skript stellen.shmmin kern. das beim Booten ausgeführt wird. aber sie kann im proc-Dateisystem geändert werden (ohne Reboot).

UnixWare Auf UnixWare 7 ist die Maximalgröße für Shared-Memory-Segmente in der Standardeinstellung 512 kB. Das harte Limit kann nur vom root-Benutzer verändert werden. bauen Sie den Kernel neu: /etc/conf/bin/idbuild -B und booten Sie neu. Um einen neuen Wert für SHMMAX zu setzen. In finden Sie Informationen über Shared Memory auf Solaris. Besonders wichtig sind die Begrenzungen der Anzahl der Prozesse pro Benutzer.5.Kapitel 16 wo wert der neue Wert. müssen Sie neu booten. 16. den voreingestellten. Der Systemaufruf setrlimit ist für des Setzen 262 . den Sie verwenden wollen. den minimalen und den maximalen Wert ausgibt. aber es kann vom Benutzer bis zum harten Limit hoch gesetzt werden. bauen Sie den Kernel neu: . Um den aktuellen Wert von SHMMAX anzuzeigen. führen Sie aus: /etc/conf/bin/idtune SHMMAX wert wo wert der neue Wert. Das reicht etwa für -B 24 -N 12. den Sie verwenden wollen. Solaris Zumindest in Version 2. ist (in Bytes). zum Beispiel: set set set set set set set set shmsys:shminfo_shmmax=0x2000000 shmsys:shminfo_shmmin=1 shmsys:shminfo_shmmni=256 shmsys:shminfo_shmseg=256 semsys:seminfo_semmap=256 semsys:seminfo_semmni=512 semsys:seminfo_semmns=512 semsys:seminfo_semmsl=32 Um die Änderungen zu aktivieren. führen Sie aus: /etc/conf/bin/idtune -g SHMMAX was den aktuellen.2 Ressourcenbegrenzungen Unix-ähnliche Betriebssysteme haben verschiedene Arten von Ressourcenbegrenzungen. die den Betrieb Ihres PostgreSQL-Servers stören könnten. der Anzahl der offenen Dateien pro Prozess und des für jeden Prozess zur Verfügung stehenden Speichers. Nachdem Sie SHMMAX gesetzt haben.6 ist die voreingestellte Maximalgröße eines Shared-Memory-Segments zu niedrig für PostgreSQL./link_unix und booten Sie neu. Nachdem Sie SHMMAX gesetzt haben. Die relevanten Einstellungen können in der Datei /etc/system geändert werden. Das weiche Limit ist das wirklich geltende Limit. Jeder dieser Werte hat ein “hartes” und ein “weiches” Limit. ist (in Bytes).

Wenn Sie viele Server auf einer Maschine haben. aber wenn Sie mehrere Server auf einer Maschine laufen haben. ❏ Auf Linux bestimmt /proc/sys/fs/file-max. Die relevanten Parameter sind maxproc. Das nennt sich Fast Shutdown. Die Höchstgrenze für Dateien pro Prozess wird beim Compilieren des Kernels festgelegt. Einzelheiten finden Sie in der Betriebssystemdokumentation. Man kann den Wert verändern. Sie kontrollieren die Art des Herunterfahrens. Das ist normalerweise kein Problem. indem Sie unterschiedliche Signale an den Serverprozess senden. dann könnte es eng werden. dass viele Benutzer eine Maschine nebeneinander verwenden können. dass diese die aktuelle Transaktionen abbrechen und zügig beenden. ohne einen ungebührlich hohen Anteil der Systemressourcen zu verbrauchen. Die Voreinstellung für die Höchstzahl offener Dateien ist oft ein “sozialverträglicher” Wert. Das nennt sich Smart Shutdown. Dann wartet der Server. um den Verbrauch von offenen Dateien einzuschränken. nachdem alle Sitzungen normal beendet wurden.conf macht. Die Kehrseite der Medaille ist. dann kann die systemweite Grenze leicht überschritten werden. Der PostgreSQL-Server verwendet einen Prozess pro Verbindung.txt. Wenn Ihnen das passiert und Sie das systemweite Limit nicht ändern wollen. wie sie Verbindungen zulassen. Auf Systemen aus der BSD-Familie kontrolliert die Datei /etc/login. können Sie in PostgreSQL den Konfigurationsparameter max_files_per_process setzen.6 Den Server herunterfahren Man kann den Datenbankserver auf verschiedene Arten herunterfahren. der es ermöglicht.. dass einige Systeme einzelnen Prozessen erlauben. und fährt dann herunter. um das harte Limit zu setzen. bis alle Serverprozesse beendet sind. eine große Anzahl von Dateien zu öffnen. :datasize-cur=256M:\ :maxproc-cur=256:\ :openfiles-cur=256:\ . Er fährt erst herunter. also sollten Sie für mindestens so viele Prozesse Platz schaffen. 16.conf die Ressourcenbegrenzungen beim Login. neben dem. aber bei dedizierten Servern sollten Sie die Begrenzung vielleicht erhöhen. was dazu führt. SIGTERM Nach Erhalt von SIGTERM erlaubt der Server keine neuen Verbindungen.. aber bestehenden Sitzungen.) Kernel können für einige Ressourcen auch systemweite Begrenzungen haben. Zum Beispiel: default:\ . und wenn mehr als ein paar Prozesse das tun. SIGINT Der Server erlaubt keine neuen Verbindungen und sendet an alle bestehenden Serverprozesse das Signal SIGTERM. limit (csh) wird zur Kontrolle dieser Ressourcenbegrenzungen auf der Kommandozeile verwendet. ihre Arbeit normal zu beenden.. 263 . was Sie für den Rest des Systems brauchen.. Der eingebaute Shell-Befehl ulimit (Bourne-Shells) bzw. (-cur ist das weiche Limit. wie viele offene Dateien der Kernel maximal unterstützen kann. Hängen Sie -max an.Laufzeitverhalten des Servers dieser Parameter verantwortlich. openfiles und datasize. Weitere Einzelheiten finden Sie in /usr/src/ linux/Documentation/proc. indem man einen neuen Wert in die Datei schreibt oder in dem man einen Eintrag in der Datei /etc/sysctl. dann wollen Sie das vielleicht so.

pid` Das Programm pg_ctl ist ein Shell-Skript. Das Programm erzeugt einen Schlüssel. nach denen openssl fragt. das Passwort kann leer gelassen werden.key und server. Einzelheiten. damit der Client die Identität des Servers überprüfen kann. Das erfordert.Kapitel 16 SIGQUIT Dies ist der Immediate Shutdown. wie Sie für Ihren Server einen privaten Schlüssel und Zertifikate erzeugen. Wenn er im SSL-Modus gestartet wird. wie ein Server die Verwendung von SSL auf bestimmten Verbindungen erzwingen kann.conf auf an gesetzt wird. 16. um die Client/Server-Kommunikation für verbesserte Sicherheit zu verschlüsseln. Die Kindprozesse beenden gleichermaßen sofort nach dem Erhalt von SIGQUIT. Um zum Ausprobieren einen Einstieg zu erhalten. kann der PostgreSQL-Server mit SSL-Unterstützung gestartet werden. bevor ein Server im SSL-Modus gestartet werden kann. Um schnell ein selbstsigniertes Zertifikat zu erzeugen. Das verhindert. der daraus besteht. aus. Das ist nur in Notfällen zu empfehlen.7 Sichere TCP/IP-Verbindungen mit SSL PostgreSQL hat eingebaute Unterstützung für SSL-Verbindungen. indem der Parameter ssl in postgresql.t und akzeptiert keine Passphrase. das Zertifikat des Servers enthalten sollten. dass Sie den lokalen Hostnamen als “Common Name” eingeben.und Serversystemen installiert ist und dass die Unterstützung in PostgreSQL beim Compilieren angeschaltet wurde (siehe Kapitel 14). dass der Server Shared Memory und Semaphore freigibt. Das führt beim Neustart zu einem Wiederherstellungsdurchlauf (indem der WAL-Log abgespielt wird).crt im Datenverzeichnis. dass OpenSSL auf den Client.pid im Datenverzeichnis gefunden werden. Wenn der private Schlüssel durch eine Passphrase geschützt ist. Der Server wartet auf normale und auf SSL-Verbindungen auf demselben TCP-Port und verhandelt mit verbindenden Clients. wenn sie eingegeben wurde. aber im richtigen Betrieb sollte ein von einer Certificate Authority (CA) (entweder eine der globalen CAs oder eine lokale) signiertes Zertifikat verwendet werden. Achten Sie darauf. Wenn die SSL-Unterstützung vorhanden ist. dass der postmaster-Prozess an alle Serverprozesse das Signal SIGQUIT sendet und sich dann selbst sofort beendet (ohne selbst ordentlich herunterzufahren). dass das Herunterfahren des Servers vereinfacht.req Füllen Sie die Informationen. Wichtig Man sollte am besten SIGKILL nicht zum Herunterfahren des Servers verwenden. wird der Server um Eingabe der Passphrase bitten und erst starten. Die PID des postmaster-Prozesses kann mit dem Programm ps herausgefunden oder in der Datei postmaster. kann man ein einfaches selbstsigniertes Zertifikat verwenden. Diese Dateien müssen eingerichtet werden. sucht der Server die Dateien server. der mit einer Passphrase geschützt is. verwenden Sie folgenden OpenSSL-Befehl: openssl req -new -text -out server. In Kapitel 19 wird beschrieben. die kürzer 264 . was man dann selbst machen müsste. welche den privaten Schlüssel bzw. finden Sie in der Anleitung zu OpenSSL. Um also zum Beispiel einen Fast Shutdown zu machen: $ kill -INT `head -1 /usr/local/pgsql/data/postmaster. ob SSL verwendet werden soll.

Laufzeitverhalten des Servers als vier Zeichen ist. genauso. Jetzt machen Sie openssl req -x509 -in server. dann verbinden Sie mit Port 3333 auf der lokalen Maschine: psql -h localhost -p 3333 template1 Für den Datenbankserver sieht es dann so aus.key um aus dem Zertifikat ein selbstsigniertes zu machen und Schlüssel und Zertifikat dorthin zu kopieren. Damit die Tunneleinrichtung erfolgreich sein kann. um den bestehenden Schlüssel zu entsperren.pem -out server.key rm privkey.com Die erste Zahl im -L-Argument. mit dem Sie verbinden wollen. Geben Sie die alte Passphrase ein.com:5432 joe@foo. ist das entfernte Ende des Tunnels: die Portnummer. und er wird dann die für diesen Benutzer eingerichtete Authentifizierungsprozedur anwenden. 16. als ob Sie in Wirklichkeit der Benutzer joe@foo.crt chmod og-rwx server.req -text -key server. ist die Portnummer von Ihrem Tunnelende. Die zweite Zahl. Wenn Sie durch diesen Tunnel mit dem Datenbankserver verbinden wollen.8 Sichere TCP/IP-Verbindungen mit SSH-Tunneln Man kann SSH verwenden. die der Server verwendet. eine Terminalsitzung einzurichten. 265 .com sind. mit denen sichere Tunnel auf eine ähnliche Art und Weise wie die eben beschriebene eingerichtet werden können. mit ssh als joe@foo.key -out server. Wenn das richtig gemacht wird. um die Netzwerkverbindung zwischen Clients und einem PostgreSQL-Server zu verschlüsseln.pem aus. sie kann frei gewählt werden.com zu verbinden. 5432. 3333. muss es Ihnen möglich sein. führen Sie die Befehle openssl rsa -in privkey. führt es zu einer ausreichend sicheren Netzwerkverbindung. Der Name oder die Adresse zwischen den Portnummern ist der Host mit dem Datenbankserver. Dann können Sie von der Clientmaschine mit einem Befehl wie diesem einen sicheren Tunnel erzeugen: ssh -L 3333:foo. Um die Passphrase zu entfernen (was Sie müssen. wo der Server danach suchen wird. Tipp Es gibt auch andere Programme. Als Erstes sorgen Sie dafür. als ob Sie mit ssh versuchen würden. dass auf der Maschine mit dem PostgreSQL-Server ein SSH-Server läuft und dass Sie sich mit ssh als irgendein Benutzer einloggen können. wenn Sie den Server automatisch starten lassen wollen).

Kapitel 16 266 .

Um einen bestehenden Benutzer zu entfernen. wer auf welches Objekt Zugriff hat. Dieser Benutzer hat die festgelegte ID 1 und hat in der Voreinstellung (wenn nicht durch initdb geändert) den gleichen Namen wie der Betriebssystembenutzer. verwaltet. auf dem der Server läuft. und führt Sie in das Privilegiensystem ein.1 Datenbankbenutzer Datenbankbenutzer sind vollständig getrennt von Betriebssystembenutzern. die vom Betriebssystem aus aufgerufen werden können und im Prinzip nur die entsprechenden SQL-Befehle ausführen: createuser name dropuser name Um das Datenbanksystem überhaupt starten zu können. Dieses Kapitel beschreibt. Um einen Benutzer zu erzeugen. 17. aber das ist nicht erforderlich. verwenden Sie den SQL-Befehl CREATE USER: CREATE USER name. verwenden Sie den analogen Befehl DROP USER: DROP USER name. Diese Benutzer sind getrennt von den Benutzern. die das Betriebssystem. Datenbankbenutzer gelten global in der gesamten Datenbankclusterinstallation (und nicht nur in einzelnen Datenbanken). Es mag praktisch sein. Weitere Informationen über die verschiedenen Arten von Datenbankobjekten und die Auswirkungen von Privilegien können Sie in Kapitel 5 finden. Der Bequemlichkeit halber gibt es die Programme createuser und dropuser. der den 267 . name folgt den Namen für SQL-Bezeichner: entweder ohne Verzierung und Sonderzeichen oder in Anführungszeichen. um zu kontrollieren. wie man Benutzer erzeugt und verwaltet. eine Übereinstimmung zu erhalten. enthält ein frisch initialisiertes System immer einen vordefinierten Benutzer. Benutzer sind die Eigentümer von Datenbankobjekten (zum Beispiel Tabellen) und können anderen Benutzern Privilegien für diese Objekte zuweisen.17 17 Datenbankbenutzer und Privilegien Jeder Datenbankcluster enthält Datenbankbenutzer.

17. sie ist nur die Vorgabe. dass der Benutzer beim Verbinden zur Datenbank ein Passwort angibt. dass SET enable_indexscan TO off. ausdrücklich erteilt werden (außer bei Superusern. ist es wichtig. verwenden Sie CREATE USER name CREATEDB. dies in einer Mehrbenutzerumgebung richtig zu konfigurieren. Sie können die Einstellung auch während der Sitzung noch ändern. verwenden Sie CREATE USER name CREATEUSER. da diese alle Rechteprüfungen umgehen). Um ein Passwort bei der Benutzererzeugung anzugeben. dann können Sie folgenden Befehl verwenden: ALTER USER meinname SET enable_indexscan TO off. der für eine bestimmte Datenbankverbindung verwendet werden soll.. wenn die Clientauthentifizierungs-Methode verlangt. Traditionell heißt dieser Benutzer postgres. Um eine solche Einstellung rückgängig zu machen. genauso wie der Betriebssystemname nicht mit dem richtigen Namen einer Person übereinstimmen muss. wie in Kapitel 19 beschrieben. wird von der Konfiguration der Client-Authentifizierung bestimmt. Auf jeder Verbindung zum Datenbankserver ist genau eine Benutzeridentität aktiv. Um einen Datenbank-Superuser zu erzeugen. Viele Anwendungen nehmen den Namen des aktuellen Betriebssystembenutzers als Vorgabe für den Namen des gewünschten Datenbankbenutzers (einschließlich createuser und psql). wird von dem Client. Außerdem kann nur ein Superuser neue Benutzer erzeugen. direkt vor Beginn der Sitzung ausgeführt wurde. Die Attribute eines Benutzers können nach der Erzeugung mit ALTER USER geändert werden. Datenbanken erzeugen zu dürfen. md5 und crypt verwenden Passwörter. Um einen solchen Benutzer zu erzeugen. Passwort Ein Passwort ist nur von Bedeutung. (Ein Client muss also nicht mit dem gleichen Namen wie dem Betriebssystembenutzernamen verbinden. Wenn Sie zum Beispiel aus irgendeinem Grund Indexscans immer abschalten wollen.) Da die Benutzeridentität das Ausmaß der dem verbundenen Client zur Verfügung stehenden Privilegien bestimmt. Superuser Ein Datenbank-Superuser umgeht alle Rechteprüfungen. Daher kann es praktisch sein. verwenden Sie CREATE USER name PASSWORD 'zeichenkette'. Die Authentifizierungsmethoden password. Das speichert die Einstellung (aber aktiviert sie nicht sofort) und bei den folgenden Verbindungen wird es den Anschein haben. Sehen Sie sich die Referenzseiten von CREATE USER und ALTER USER wegen Einzelheiten an. Erzeugung von Datenbanken Einem Benutzer muss die Erlaubnis. Datenbankpasswörter sind getrennt von Betriebssystempasswörtern. Um weitere Benutzer zu erzeugen. Der Benutzername.4 beschriebenen Konfigurationseinstellungen machen. die seine Privilegien bestimmen und Auswirkung auf das Clientauthentifizierungs-System haben. der die Verbindungsanfrage einleitet. Welche Datenbankbenutzer ein bestimmter Client bei der Verbindung verwenden darf. Ein Benutzer kann auch persönliche Voreinstellungen für die in Abschnitt 16. müssen Sie sich erst mit diesem Benutzer anmelden. Zum Beispiel wird beim Programm psql der Benutzer mit der Option -U angegeben.2 Benutzerattribute Ein Datenbankbenutzer kann eine Anzahl von Attributen haben. wenn es eine Namensübereinstimmung zwischen diesen beiden Benutzerwelten gibt. 268 .Kapitel 17 Datenbankcluster initialisierte. je nach Art der Anwendung angegeben. wenn Sie verbinden (Tipp: keine gute Idee). verwenden Sie ALTER USER benutzername RESET varname.

dann wird ihm ein Eigentümer zugewiesen.3 Gruppen Wie in Unix können durch Gruppen Benutzer logisch zusammengefasst werden. um zum Beispiel zu verhindern. auszuführen) liegt immer automatisch beim Eigentümer und können nicht weitergegeben oder entzogen werden. muss Eigentümer der Tabelle sein. RULE.. 269 . ein Objekt zu verändern oder zu löschen.. Um ein Privileg einer Gruppe zu gewähren. Aber der Tabelleneigentümer kann sich seine eigenen normalen Privilegien entziehen.. so gewährt werden: GRANT UPDATE ON konten TO joe. um ein Privileg allen Benutzern im System zu gewähren. werden alle Privilegien gewährt. Um Benutzer einer Gruppe hinzuzufügen. Um eine Gruppe zu erzeugen. ist immer nur das Privileg des Eigentümers. Es gibt mehrere verschiedene Privilegien: SELECT. das Recht DROP. kann das Privileg. . eines Index. Weitere Informationen über die verschiedenen von PostgreSQL unterstützen Privilegientypen finden Sie auf der Seite für GRANT in Teil VI. verwenden Sie CREATE GROUP name. EXECUTE. verwenden Sie ALTER GROUP name ADD USER bname1. . 17. der den Befehl zur Erzeugung ausgeführt hat. verwenden Sie den Befehl REVOKE: REVOKE ALL ON konten FROM PUBLIC. TEMPORARY. dass er selbst aus Versehen in die Tabelle schreibt. REFERENCES. REVOKE usw. Das Recht. müssen Privilegien gewährt werden. Der Benutzer. Um den Eigentümer einer Tabelle. ALTER GROUP name DROP USER bname1.Datenbankbenutzer und Privilegien 17. verwenden Sie den Befehl ALTER TABLE. Wenn also joe ein bestehender Benutzer ist und konten eine bestehende Tabelle.4 Privilegien Wenn ein Datenbankobjekt erzeugt wird. die Tabelle aktualisieren zu dürfen (update). der diesen Befehl ausführt. Der spezielle “Benutzername” PUBLIC kann verwendet werden. CREATE. um die Verwaltung von Privilegien zu vereinfachen: Privilegien können einer Gruppe als Ganzes gewährt oder entzogen werden. TRIGGER.. In der Voreinstellung kann nur der Eigentümer (oder ein Superuser) etwas mit dem Objekt anstellen. INSERT. GRANT. einer Sequenz oder einer Sicht zu ändern. verwenden Sie GRANT SELECT ON konten TO GROUP mitarbeiter. DELETE. Um es anderen Benutzern zu erlauben. . das Objekt zu benutzen. . UPDATE. Um ein Privileg zu entziehen. Um Privilegien zuzuweisen wird der Befehl GRANT benutzt. Wenn man ALL anstelle eines spezifischen Privilegs schreibt. Die besonderen Privilegien des Tabelleneigentümers (d.h. USAGE und ALL PRIVILEGES. Der Eigentümer ist der Benutzer.

wer Funktionen erzeugen darf. 270 . die in einer Sprache außer SQL geschrieben wurden. ohne es zu wissen.Kapitel 17 17. Dieses Problem liegt in der Natur von C-Funktionen. laufen im Serverprozess mit den Betriebssystemzugriffsrechten des Datenbankservers. Folglich können Benutzer auf beide Arten relativ ungestraft “Trojanische Pferde” erzeugen. Der einzige richtige Schutz ist eine scharfe Kontrolle darüber. Funktionen. den andere Benutzer ausführen könnten.5 Funktionen und Trigger Durch Funktionen und Trigger können Benutzer in den Server Code einfügen. Beliebige Funktionen könnten also die internen Datenstrukturen des Servers verändern. Sie könnten also unter anderem die Zugriffskontrollen des Systems umgehen.

271 . Datenbank. ihnen getrennte Datenbanken zu geben. Wenn eine PostgreSQL-Serverinstanz Projekte oder Benutzer beherbergen soll. (Aber eine Anwendung hat keine Beschränkung hinsichtlich der Zahl der Verbindungen. Generell gehört jedes Datenbankobjekt (Tabellen.) Es ist jedoch möglich. Datenbanken sind daher das oberste hierarchische Niveau für die Organisation von SQL-Objekten (“Datenbankobjekten”). Eine Anwendung. die zum gesamten Cluster gehören und auf die man von jeder Datenbank des Clusters zugreifen kann. die sie zur selben oder zu anderen Datenbanken öffnen kann. wo die Zugriffsrechte durch das Privilegiensystem geregelt werden. (Es gibt aber einige Systemkataloge. Schemas sind eine rein logische Struktur. Tabelle (oder etwas anderes anstatt Tabelle). mit der sie verbinden will. die getrennt sind und im Großen und Ganzen die anderen nicht sehen sollen. Es ist nicht möglich. 18.7.1 Überblick Eine Datenbank ist eine benannte Sammlung von SQL-Objekten (“Datenbankobjekten”). zum Beispiel pg_database.) Genauer gesagt ist eine Datenbank eine Sammlung von Schemas und diese enthalten die Tabellen. ist es daher empfehlenswert. gibt in ihrem Verbindungsgesuch den Namen der Datenbank an. aber möglicherweise getrennte Schemas verwenden. Datenbanken sind physikalisch getrennt und die Zugriffsrechte werden auf der Verbindungsebene geregelt. aber das macht in der Praxis keinen Unterschied. Dieses Kapitel beschreibt die Eigenschaften von Datenbanken und wie sie erzeugt. Wenn die Projekte oder Benutzer zusammenhängen und die Ressourcen der anderen mitbenutzen sollen. Schema. Anmerkung SQL nennt Datenbanken “Kataloge”.) in genau eine Datenbank. verwaltet und zerstört werden. die mit dem Datenbankserver verbindet. Funktionen usw.18 18 Datenbanken verwalten Jede Instanz eines laufenden PostgreSQL-Servers verwaltet eine oder mehrere Datenbanken. Weitere Informationen über die Verwaltung von Schemas finden Sie in Abschnitt 5. Funktionen usw. auf mehrere Schemas von derselben Verbindung aus zuzugreifen. Die gesamte Hierarchie ist also: Server. dann sollten Sie dieselbe Datenbank. auf mehrere Datenbanken mit einer Verbindung zuzugreifen.

Die Referenzseite zu createdb enthält Einzelheiten.3). aber bei vernünftiger Verwendung kann dieses Klonen ziemlich nützlich sein. wie die erste Datenbank eines Clusters erzeugt werden kann. Beachten Sie. muss der PostgreSQL-Server gestartet sein und laufen (siehe Abschnitt 16. in der SQL-Umgebung oder createdb -O benutzername dbname Sie müssen ein Superuser sein.Kapitel 18 18. sodass er sie selbst konfigurieren und verwalten kann. bleibt die Frage. wie man es aufruft. um den Befehl CREATE DATABASE auszuführen.) Diese Datenbank heißt template1.2. die Datenbank später wieder entfernen zu können (wodurch alle darin enthaltenen Objekte mit entfernt werden. Die erste Datenbank wird immer mit dem Befehl initdb erzeugt. wo name den normalen Regeln für SQL-Bezeichner folgt. Der aktuelle Benutzer wird automatisch der Eigentümer der neuen Datenbank. wer mit einer bestimmten Datenbank verbinden kann. Der Name template1 ist kein Zufall (template = Vorlage): Wenn eine neue Datenbank erzeugt wird.3. Daraus folgt. finden Sie in Abschnitt 17. wie Sie die Erlaubnis dafür erteilen können. Es ist das Privileg des Eigentümers.2 Eine Datenbank erzeugen Um eine Datenbank erzeugen zu können. Um also die erste “richtige” Datenbank zu erzeugen. Datenbanken werden mit dem SQL-Befehl CREATE DATABASE erzeugt: CREATE DATABASE name. genau wie oben beschrieben. auch wenn sie einen anderen Eigentümer haben). wenn der Bereich zur Datenspeicherung initialisiert wird. Manchmal wollen Sie eine Datenbank für jemanden anders erzeugen. Um das zu erreichen. dann wird die Templatedatenbank im Prinzip geklont. Informationen. Es verbindet mit der Datenbank template1 und führt den Befehl CREATE DATABASE aus. (Siehe Kapitel 16.2. die Sie in template1 vornehmen. Weitere Einzelheiten finden Sie in Abschnitt 18. wie man einschränken kann. createdb. das Sie von der Shell aus ausführen können. um eine Datenbank für jemanden anders erzeugen zu dürfen. Anmerkung Kapitel 19 enthält Informationen darüber. Intern verwendet es dazu das Programm psql. verwenden Sie einen der folgenden Befehle: CREATE DATABASE dbname OWNER benutzername. können Sie mit template1 verbinden. Als zusätzliche Annehmlichkeit gibt es auch ein Programm. createdb dbname createdb kann auch nicht zaubern. Das bedeutet. was Sie vielleicht beabsichtigen oder auch nicht. dass Änderungen. Die Erzeugung von Datenbanken ist eine beschränkte Operation. dass createdb ohne Argumente eine Datenbank mit dem Namen des aktuellen Benutzers erzeugt. Da man mit dem Datenbankserver verbunden sein muss. dass Sie die Templatedatenbank nicht für die eigentliche Arbeit verwenden sollten. an alle danach erzeugten Datenbanken weitergegeben werden. um neuen Datenbanken zu erzeugen. Jener Benutzer sollte der Eigentümer der Datenbank werden. 272 .

Datenbanken verwalten

18.3 Template-Datenbanken
CREATE DATABASE funktioniert eigentlich, indem es eine bestehende Datenbank kopiert. Wenn nichts anderes angegeben wurde, kopiert es die Systemdatenbank template1. Diese Datenbank ist also das “Template” (englisch für Vorlage), aus dem neue Datenbanken erzeugt werden. Wenn Sie in template1 Objekte erzeugt haben, werden diese Objekte in anschließend erzeugte Benutzerdatenbanken kopiert. Durch dieses Verhalten können Datenbankadministratoren weitere Objekte zu den in allen Datenbanken vorhandenen Systemobjekten hinzufügen. Wenn Sie zum Beispiel die prozedurale Sprache PL/pgSQL in template1 installieren, wird sie automatisch in allen Benutzerdatenbanken verfügbar sein, ohne dass man noch etwas tun muss, wenn diese Datenbanken erzeugt werden.

Es gibt eine zweite Systemdatenbank: template0. Diese Datenbank hat am Anfang den gleichen Inhalt wie template1, das heißt nur die von Ihrer PostgreSQL-Version vordefinierten Standardobjekte. template0 sollte nach initdb nicht verändert werden. Wenn Sie CREATE DATABASE anweisen, template0 statt template1 zu kopieren, erzeugen sie quasi eine jungfräuliche Datenbank, die keine der lokalen Veränderungen in template1 enthält. Das ist besonders hilfreich, wenn Sie eine mit pg_dump erzeugte Sicherungsdatei wiederherstellen: Die gesicherte Datenbank sollte in eine unveränderte “leere” Datenbank wiederhergestellt werden, damit man nicht mit eventuellen Modifikationen in template1 Konflikte erzeugt. Um eine Datenbank durch Kopieren von template0 zu erzeugen, verwenden Sie
CREATE DATABASE dbname TEMPLATE template0;

in der SQL-Umgebung, oder
createdb -T template0 dbname

aus der Shell. Man kann auch weitere Templatedatenbanken erzeugen, und in der Tat kann man auch eine beliebige Datenbank eines Clusters kopieren, indem man ihren Namen bei CREATE DATABASE als Template angibt. Man muss allerdings unbedingt verstehen, dass das (noch) keine generell anwendbare Methode zum Kopieren von Datenbanken ist. Insbesondere ist es unerlässlich, dass die Quelldatenbank während des gesamten Kopiervorgangs unbenutzt ist (keine datenverändernden Transaktionen aktiv). CREATE DATABASE prüft, ob am Anfang des Vorgangs keine andere Sitzung (außer die eigene) mit der Quelldatenbank verbunden ist, aber das kann nicht ausschließen, dass während des Kopiervorgangs irgendwelche Änderungen getätigt werden, wodurch die kopierte Datenbank inkonsistent würde. Daher empfehlen wir, dass die Datenbanken, die als Template verwendet werden sollen, als nicht beschreibbar behandelt werden. Es gibt für jede Datenbank zwei nützliche Einstellmöglichkeiten in pg_database: die Spalten datistemplate und datallowconn. datistemplate können gesetzt werden, um anzuzeigen, dass diese Datenbank als Template für CREATE DATABASE vorgesehen ist. Wenn es gesetzt ist, dann kann die Datenbank von jedem Benutzer mit CREATEDB-Privileg geklont werden; wenn nicht, können nur Superuser und der Datenbankeigentümer die Datenbank klonen. Wenn datallowconn falsch ist, werden keine neuen Verbindungen zu dieser Datenbank erlaubt (aber bestehende Sitzungen werden durch das einfache Ändern der Spalte nicht angebrochen). Bei der Datenbank template0 ist normalerweise datallowconn = false, um zu verhindern, dass sie verändert wird. Bei sowohl template0 als auch template1 sollte immer datistemplate = true sein. Nachdem Sie eine Templatedatenbank vorbereitet haben oder nachdem Sie eine verändert haben, ist es empfehlenswert, VACUUM FREEZE oder VACUUM FULL FREEZE in dieser Datenbank auszuführen. Wenn Sie dies tun, während es keine weiteren offenen Transaktionen in der selben Datenbank gibt, wird garantiert, dass alle Zeilen in der Datenbank “eingefroren” sind und keine Probleme mit dem Überlauf von Transaktionsnummern haben werden. Dies ist besonders wichtig in Datenbanken, bei denen Sie datallowconn auf falsch setzen wollen, da es dann unmöglich sein wird, die Routinewartung mit VACUUM in dieser Datenbank durchzuführen. Siehe Abschnitt 21.1.3 für weitere Informationen.

273

Kapitel 18

Anmerkung
template1 und template0 haben keinen Sonderstatus im System, außer dass der Name template1 der voreingestellte Quelldatenbankname für CREATE DATABASE und bei einigen Programmen, wie createdb, die voreingestellte Datenbank zum Verbinden ist. Man könnte zum Beispiel template1 ohne Probleme löschen und aus template0 neu erzeugen. Das kann in der Tat ratsam sein, wenn man zu sorglos war und einen Haufen Unsinn in template1 erzeugt hat.

18.4 Datenbankkonfiguration
In Abschnitt 16.4 haben wir beschrieben, dass der PostgreSQL-Server eine große Zahl von Konfigurationsparametern bietet. Sie können für viele dieser Parameter datenbankspezifische Vorgabewerte setzen. Wenn Sie zum Beispiel aus irgendwelchen Gründen in einer bestimmten Datenbank den GEQO-Optimierer abschalten wollen, müssten Sie ihn entweder für alle Datenbanken abschalten oder Sorge tragen, dass jeder verbundene Client SET geqo TO off; ausführt. Um diese Voreinstellung zu machen, können Sie folgenden Befehl ausführen:
ALTER DATABASE meinedb SET geqo TO off;

Das speichert die Einstellung (aber aktiviert sie nicht sofort), und bei den folgenden Verbindungen wird es den Anschein haben, dass SET geqo TO off; direkt vor Beginn der Sitzung ausgeführt wurde. Beachten Sie, dass die Benutzer diese Einstellung während der Sitzung ändern können; sie ist nur die Vorgabe. Um eine solche Einstellung rückgängig zu machen, verwenden Sie ALTER DATABASE dbname RESET varname;.

18.5 Alternativer Speicherplatz
Man kann eine Datenbank an einer anderen Stelle auf der Festplatte als der von der Installation vorgegebenen erzeugen. Bedenken Sie aber, dass alle Datenbankzugriffe durch den Server gehen und jeder Speicherplatz also vom Server erreichbar sein muss. Alternative Speicherplätze werden durch eine Umgebungsvariable, die den absoluten Pfad der gewünschten Stelle enthält, angegeben. Diese Umgebungsvariable muss in der Umgebung des Servers stehen, muss also gesetzt gewesen sein, als der Server gestartet wurde. (Die Menge der verfügbaren alternativen Plätze steht damit unter der Kontrolle des Administrators und kann von einfachen Benutzern nicht verändert werden.) Jede beliebige Umgebungsvariable kann verwendet werden, um alternative Speicherplätze zu bezeichnen, aber der Verwendung von Variablennamen mit dem Präfix PGDATA wird empfohlen, um Verwirrung und Konflikte mit anderen Variablen zu vermeiden. Um eine Variable in der Umgebung des Serverprozesses zu erzeugen, müssen Sie erst den Server herunterfahren, die Variable definieren, den Datenbereich initialisieren und schließlich den Server neu starten. (Siehe auch Abschnitt 16.6 und Abschnitt 16.3.) Um eine Umgebungsvariable zu setzen, geben Sie ein
PGDATA2=/home/postgres/data export PGDATA2

in Bourne-Shells oder
setenv PGDATA2 /home/postgres/data

274

Datenbanken verwalten

in csh oder tcsh. Sie müssen sicherstellen, dass diese Umgebungsvariable immer in der Serverumgebung definiert ist, ansonsten werden Sie auf die Datenbank nicht zugreifen können. Daher sollten Sie sie vielleicht in einer Startdatei der Shell oder dem Startskript des Servers setzen. Um den Datenbereich in PGDATA2 zu erzeugen, achten Sie darauf, dass das übergeordnete Verzeichnis (hier /home/postgres) existiert und von dem Benutzerzugang, unter dem der Server läuft (siehe Abschnitt 16.1), beschreibbar ist. Dann geben Sie auf der Kommandozeile ein:
initlocation PGDATA2

(nicht initlocation $PGDATA2). Danach können Sie der Server neu starten. Um eine Datenbank an dem neuen Speicherplatz zu erzeugen, verwenden Sie den Befehl
CREATE DATABASE name WITH LOCATION 'platz';

wo platz die verwendete Umgebungsvariable, in diesem Beispiel PGDATA2, ist. Der Befehl createdb hat zu diesem Zweck die Option -D. Datenbanken an alternativen Speicherplätzen können wie andere Datenbanken verwendet und entfernt werden.

Anmerkung
Es kann auch ermöglicht werden, absolute Pfade direkt in CREATE DATABASE anzugeben, ohne Umgebungsvariablen definieren zu müssen. Das ist in der Voreinstellung verboten, weil es eine Sicherheitslücke wäre. Um es zu erlauben, müssen Sie, wenn Sie PostgreSQL compilieren, das C-Präprozessormakro ALLOW_ABSOLUTE_DBPATHS definieren. Ein Möglichkeit, dies zu tun, ist, den Compilierungsschritt so auszuführen:
gmake CPPFLAGS=-DALLOW_ABSOLUTE_DBPATHS all

18.6

Eine Datenbank zerstören

Datenbanken werden mit dem Befehl DROP DATABASE zerstört:
DROP DATABASE name;

Nur der Eigentümer einer Datenbank (d.h. der Benutzer, der sie erzeugt hat) oder ein Superuser kann eine Datenbank löschen. Das Löschen einer Datenbank entfernt alle Objekte, die in der Datenbank enthalten waren. Die Zerstörung einer Datenbank kann nicht rückgängig gemacht werden. Sie können DROP DATABASE nicht ausführen, während Sie mit der Opferdatenbank verbunden sind. Sie können jedoch mit einer beliebigen anderen Datenbank, einschließlich template1, verbunden sein. template1 wäre die einzige Wahl, um die letzte Benutzerdatenbank eines Clusters zu löschen. Der Bequemlichkeit halber gibt es auch ein Programm, das Sie in der Shell ausführen können, um Datenbanken zu entfernen:
dropdb dbname

(Im Gegensatz zu createdb entfernt dropdb nicht als Vorgabe die Datenbank mit den Namen des aktuellen Benutzers.)

275

19

19

Clientauthentifizierung

Wenn sich eine Clientanwendung mit dem Datenbankserver verbindet, gibt sie an, unter welchem PostgreSQL-Benutzernamen sie verbinden will, ähnlich wie man sich in einem Unix-Computer als ein bestimmter Benutzer anmeldet. Innerhalb der SQL-Umgebung bestimmt der aktive Datenbankbenutzername die Zugriffsprivilegien für Datenbankobjekte; siehe Kapitel 17 für weitere Informationen. Daher ist es wichtig, die Menge der Benutzer, die verbinden können, einzuschränken. Authentifizierung ist der Vorgang, in dem der Datenbankserver die Identität des Clients feststellt und im erweiterten Sinne bestimmt, ob die Clientanwendung (oder der Benutzer, der sie ausführt) unter dem angegebenen Benutzernamen verbinden darf. PostgreSQL bietet eine Reihe verschiedener Clientauthentifizierungs-Methoden. Die Methode, die zur Authentifizierung einer bestimmten Clientverbindung verwendet wird, kann auf Basis der Hostadresse des Clients, der Datenbank und des Benutzernamens ausgewählt werden. PostgreSQL-Benutzernamen sind von den Benutzernamen des Betriebssystems, auf dem der Server läuft, logisch getrennt. Wenn alle Benutzer eines bestimmten Servers auch Zugänge auf der Servermaschine haben, macht es Sinn, die Datenbankbenutzernamen so zu wählen, dass sie mit den Betriebssystembenutzernamen übereinstimmen. Ein Server, der Verbindungen von anderen Maschinen akzeptiert, kann allerdings viele Datenbankbenutzer haben, die keinen Betriebssystemzugang auf dem Server haben, und dann muss keine Verbindung zwischen den Benutzernamen auf Datenbank- und auf Betriebssystemebene bestehen.

19.1 Die Datei pg_hba.conf
Clientauthentifizierung wird durch die Datei pg_hba.conf im Datenverzeichnis, z.B. /usr/local/ pgsql/data/pg_hba.conf, kontrolliert. (HBA steht für host-based authentication, also Authentifizierung auf Host-Basis.) Eine voreingestellte pg_hba.conf-Datei wird von initdb im Datenverzeichnis eingerichtet, wenn der Datenbereich initialisiert wird. Generell besteht die Datei pg_hba.conf aus einer Reihe von Datensätzen, einem pro Zeile. Leere Zeilen werden ignoriert, genauso wie gesamte Text nach dem Kommentarzeichen #. Ein Datensatz besteht aus einer Anzahl von Feldern, die durch Leerzeichen oder Tabs getrennt sind. Felder können Leerzeichen enthalten, wenn der Wert in Anführungszeichen steht. Ein Datensatz kann sich nicht über mehrere Zeilen erstrecken. Jeder Satz besteht aus einem Verbindungstyp, einem IP-Adressbereich für Clients (falls für den Verbindungstyp von Bedeutung), einem Datenbanknamen, einem Benutzernamen und einer Authentifizierungs-

277

Kapitel 19

methode, die für Verbindungen, die mit diesen Parametern übereinstimmen, verwendet wird. Der erste Satz, bei dem der Verbindungstyp, die Clientadresse, die gewünschte Datenbank und der Benutzername übereinstimmen, wird für die Authentifizierung angewendet. Wenn ein Satz ausgewählt wurde und die Authentifizierung nicht erfolgreich ist, werden die folgenden Sätze trotzdem nicht mehr in Erwägung gezogen. Wenn kein Datensatz mit den Verbindungsparametern übereinstimmt, wird der Zugriff verweigert. Ein Datensatz kann eines dieser drei Formate haben:
local datenbank benutzer authentifizierungs-methode [authentifizierungs-option] host datenbank benutzer IP-adresse IP-maske authentifizierungs-methode [authentifizierungs-option] hostssl datenbank benutzer IP-adresse IP-maske authentifizierungs-methode [authentifizierungs-option]

Die Bedeutung der Felder ist wie folgt:
local

Dieser Satz gilt für Verbindungsversuche über Unix-Domain-Sockets. Ohne Sätze dieses Typs werden keine Verbindungen über Unix-Domain-Sockets zugelassen.
host

Dieser Satz gilt für Verbindungsversuche über TCP/IP-Netzwerke. Beachten Sie, dass TCP/IPVerbindungen nur möglich sind, wenn der Server mit der Option -i gestartet wurde oder der Konfigurationsparameter tcpip_socket in postgresql.conf eingeschaltet ist.
hostssl

Dieser Satz gilt für Verbindungen mit SSL über TCP/IP. host-Sätze gelten für SSL- und NichtSSL-Verbindungen, aber hostssl erfordert eine SSL-Verbindung. Um diese Option verwenden zu können, muss der Server mit SSL-Unterstützung kompiliert worden sein. Außerdem muss SSL mit der Option ssl in postgresql.conf angeschaltet sein (siehe Abschnitt 16.4).
datenbank

Gibt an, für welche Datenbank der Satz gilt. Der Wert all passt auf alle Datenbanken. Der Wert sameuser gibt an, dass der Satz gilt, wenn die gewünschte Datenbank den gleichen Namen hat wie der gewünschte Benutzer. Der Wert samegroup gibt an, dass der gewünschte Benutzer ein Mitglied der Gruppe mit dem gleichen Namen wie die gewünschte Datenbank sein muss. Ansonsten ist dies der Name einer bestimmten PostgreSQL-Datenbank. Man kann mehrere Datenbanknamen angeben, indem man sie durch Kommas trennt. Eine Datei mit Namen von Datenbanken kann angegeben werden, indem vor den Dateinamen ein @ gestellt wird. Die Datei muss im gleichen Verzeichnis wie pg_hba.conf liegen.
benutzer

Gibt an, für welche PostgreSQL-Benutzer der Eintrag gilt. Der Wert all passt auf alle Benutzer. Ansonsten ist dies der Name eines bestimmten PostgreSQL-Benutzers. Man kann mehrere Benutzernamen angeben, indem man sie durch Kommas trennt. Gruppennamen können angegeben werden, indem man vor den Namen ein + stellt. Eine Datei mit Namen von Benutzern kann angegeben werden, indem vor den Dateinamen ein @ gestellt wird. Die Datei muss im gleichen Verzeichnis wie pg_hba.conf liegen.
IP-adresse IP-maske

Diese zwei Felder enthalten IP-Adressen und -Masken in der normalen Schreibweise aus Dezimalzahlen und Punkten. (IP-Adressen können nur numerisch angegeben werden, nicht als Domain-

278

Clientauthentifizierung

oder Hostnamen.) In Kombination geben sie an, für welche Client-IP-Adressen dieser Satz gilt. Genau gesagt ist es so, dass
(tatsächliche-IP-adresse xor IP-adresse-feld) and IP-maske-feld

null sein muss, damit der Satz gilt. (Natürlich kann man IP-Adressen verfälschen, aber das liegt nicht im Einflussbereich von PostgreSQL.) Diese Felder können nur in host- und hostssl-Sätzen verwendet werden.
authentifizierungs-methode

Gibt an, welche Authentifizierungsmethode verwendet werden soll, wenn dieser Satz auf die Verbindungsparameter passt. Die Wahlmöglichkeiten sind hier kurz zusammengefasst; Einzelheiten finden Sie in Abschnitt 19.2.
trust

Die Verbindung wird bedingungslos zugelassen. Diese Methode erlaubt jedem, der mit dem PostgreSQL-Datenbankserver verbinden kann, sich mit jedem beliebigen PostgreSQL-Benutzernamen anzumelden, ohne ein Passwort zu benötigen. Einzelheiten stehen in Abschnitt 19.2.1.
reject

Die Verbindung wird bedingungslos angelehnt. Das ist nützlich, um bestimmte Hosts aus einer Gruppe “herauszufiltern”.
md5

Verlangt, dass der Client zur Authentifizierung ein mit MD5 verschlüsseltes Passwort schickt. Dies ist die einzige Methode, die verschlüsselte Passwörter in pg_shadow ermöglicht. Einzelheiten stehen in Abschnitt 19.2.2.
crypt

Wie die md5-Methode, aber verwendet die ältere Verschlüsselung mit crypt(), welche für Clients vor Version 7.2 benötigt wird. md5 sollte für Clients aus Version 7.2 und später bevorzugt werden. Einzelheiten stehen in Abschnitt 19.2.2.
password

Wie md5, aber das Passwort wird unverschlüsselt über das Netzwerk geschickt. Dies sollte in unvertraulichen Netzwerken nicht verwendet werden. Einzelheiten stehen in Abschnitt 19.2.2.
krb4

Verwendet Kerberos V4, um den Benutzer zu authentifizieren. Dies ist nur bei TCP/IPVerbindungen möglich. Einzelheiten stehen in Abschnitt 19.2.3,
krb5

Verwendet Kerberos V5, um den Benutzer zu authentifizieren. Dies ist nur bei TCP/IPVerbindungen möglich. Einzelheiten stehen in Abschnitt 19.2.3.
ident

Ermittelt den Betriebssystembenutzernamen des Clients (bei TCP/IP-Verbindungen, indem der Ident-Server auf dem Client kontaktiert wird, bei lokalen Verbindungen vom Betriebssystem selbst) und prüft, ob der Benutzer unter dem gewünschten Datenbankbenutzernamen verbinden darf. Dazu wird die hinter dem Schlüsselwort ident angegebene Map verwendet.

279

Kapitel 19

Wenn Sie den Map-Namen sameuser verwenden, müssen die Benutzernamen gleich sein. Wenn nicht, wird der Map-Name in der Datei pg_ident.conf im selben Verzeichnis wie pg_hba.conf gesucht. Die Verbindung wird akzeptiert, wenn diese Datei einen Eintrag für den Map-Namen enthält, der den Betriebssystembenutzernamen und den gewünschten PostgreSQL-Benutzernamen verbindet. Bei lokalen Verbindungen funktioniert dies nur auf Maschinen, die für Unix-DomainSockets Credentials unterstützen (gegenwärtig Linux, FreeBSD, NetBSD und BSD/OS). Einzelheiten stehen in Abschnitt 19.2.4.
pam

Verwendet den vom Betriebssystem angebotenen PAM-Dienst (Pluggable Authentication Modules) zur Authentifizierung. Einzelheiten stehen in Abschnitt 19.2.5.
authentifizierungs-option

Die Bedeutung dieses Felds hängt von der gewählten Authentifizierungsmethode ab und wird im nächsten Abschnitt beschrieben. Da die Datensätze in pg_hba.conf bei jedem Verbindungsversuch hintereinander geprüft werden, ist die Reihenfolge der Sätze von Bedeutung. Normalerweise haben die oberen Einträge enger gefasste Verbindungsparameter und schwächere Authentifizierungsmethoden, während unteren die Einträge weiter gefasste Verbindungsparameter und strengere Authentifizierungsmethoden verwenden. Man könnte zum Beispiel für lokale TCP/IP-Verbindungen trust verwenden, aber für andere TCP/IP-Verbindungen Passwörter verlangen. In dem Fall würde der Eintrag, der trust für Verbindungen von 127.0.0.1 angibt, vor dem Eintrag, der Passwortauthentifizierung für einen größeren Bereich von IP-Adressen wählt, stehen.

Wichtig
Verhindern Sie nicht, dass der Superuser auf die Datenbank template1 zugreifen kann. Diverse Hilfsprogramme benötigen den Zugriff auf template1. Die Datei pg_hba.conf wird beim Start des Servers und wenn der Hauptserverprozess (postmaster) das Signal SIGHUP erhält gelesen. Wenn Sie die Datei in einem aktiven System bearbeiten, müssen Sie das dem postmaster-Prozess signalisieren (mit pg_ctl reload oder kill -HUP), damit er die Datei neu liest. Ein Beispiel für eine pg_hba.conf-Datei wird in Beispiel 19.1 gezeigt. Einzelheiten über die verschiedenen Authentifizierungsmethoden finden Sie im nächsten Abschnitt.

Beispiel 19.1: Ein Beispiel für pg_hba.conf
# Erlaube jedem Benutzer auf dem lokalen System, über # Unix-Domain-Sockets (Standard für lokale Verbindungen) mit jeder # Datenbank unter jedem Benutzernamen zu verbinden. # # TYP DATENBANK BENUTZER IP-ADRESSE IP-MASKE local all all # Das gleiche für lokale Verbindungen über TCP/IP-Loopback. # # TYP DATENBANK BENUTZER IP-ADRESSE IP-MASKE host all all 127.0.0.1 255.255.255.255

METHODE trust

METHODE trust

# Erlaube jedem Benutzer von einem Host mit IP-Adresse 192.168.93.x mit

280

Clientauthentifizierung

# der Datenbank "template1" unter dem Benutzernamen, den Ident für die # Verbindung ermittelt hat (normalerweise der Unix-Benutzername), zu # verbinden. # # TYP DATENBANK BENUTZER IP-ADRESSE IP-MASKE METHODE host template1 all 192.168.93.0 255.255.255.0 ident sameuser # Erlaube einem Benutzer von Host 192.168.12.10 mit der Datenbank # "template1" zu verbinden, wenn das richtige Passwort angegeben wird. # # TYP DATENBANK BENUTZER IP-ADRESSE IP-MASKE METHODE host template1 all 192.168.12.10 255.255.255.255 md5 # Ohne die vorangegangenen "host"-Zeilen, verhindern diese beiden Zeilen # alle Verbindungen von 192.168.54.1 (da dieser Eintrag zuerst kommt), # aber erlauben Kerberos-V-Verbindungen vom Rest des Internets. Die # Nullmaske bedeutet, dass keine Bits der Host-IP-Adresse betrachtet # werden, so dass sie auf alle Hosts passt. # # TYP DATENBANK BENUTZER IP-ADRESSE IP-MASKE METHODE host all all 192.168.54.1 255.255.255.255 reject host all all 0.0.0.0 0.0.0.0 krb5 # Erlaube Benutzern von 192.168.x.x-Hosts zu verbinden, wenn sie die # Ident-Prüfung bestehen. Wenn zum Beispiel Ident sagt, dass der # Benutzer "bryanh" ist und er als PostgreSQL-Benutzer "guest1" # verbinden will, dann wird die Verbindung erlaubt, wenn in # pg_ident.conf ein Eintrag für ein Map "omicron" ist, der sagt, dass # "bryanh" als "guest1" verbinden darf. # # TYP DATENBANK BENUTZER IP-ADRESSE IP-MASKE METHODE host all all 192.168.0.0 255.255.0.0 ident omicron # Wenn dies die einzigen drei Zeilen für lokale Verbindunge sind, dann # erlauben Sie lokalen Benutzern, nur mit ihren eigenen Datenbanken # (Datenbanken mit den gleichen Namen wie der Benutzername) zu # verbinden, außer Administratoren und Mitglieder der Gruppe # "support", die mit allen Datenbanken verbinden dürfen. Die Datei # $PGDATA/admins enthält eine Liste mit Benutzernamen. In allen # Fällen werden Passwörter verlangt. # # TYP DATENBANK BENUTZER IP-ADRESSE IP-MASKE METHODE local sameuser all md5 local all @admins md5 local all +support md5

281

Kapitel 19

# Die letzten zwei Zeilen können zu einer einzigen Zeile # zusammengefasst werden: local all @admins,+support

md5

# Die Datenbankspalte kann auch Listen und Dateinamen enthalten, aber # keine Gruppen: local db1,db2,@demodbs all md5

19.2 Authentifizierungsmethoden
Im Folgenden werden die Authentifizierungsmethoden im Einzelnen beschrieben.

19.2.1 Freier Zugang
Wenn trust-Authentifizierung angegeben ist, dann nimmt PostgreSQL an, dass jeder, der mit dem Server verbinden kann, als jeder beliebiger Benutzer auf die Datenbank zugreifen darf (einschließlich als Datenbank-Superuser). Diese Methode sollte nur verwendet werden, wenn Verbindungen zum Server auf Betriebssystemebene ausreichend geschützt werden.
trust-Authentifizierung ist für lokale Verbindungen auf Einzelbenutzerarbeitsplätzen angebracht und bequem. Für Mehrbenutzermaschinen ist sie alleine in der Regel nicht angebracht. Sie können jedoch trust auch auf einer Mehrbenutzermaschine verwenden, wenn Sie den Zugang zur Unix-DomainSocket-Datei des Servers auf Dateisystemebene einschränken. Um das zu tun, setzen Sie den Parameter unix_socket_permissions (und eventuell unix_socket_group) in postgresql.conf, wie in Abschnitt 16.4.3 beschrieben. Oder Sie könnten unix_socket_directory verändern, um die Socketdatei in ein entsprechend beschränktes Verzeichnis zu verlegen.

Die Dateisystemzugriffsrechte helfen nur bei Verbindungen über Unix-Domain-Sockets. Auf lokale TCP/ IP-Verbindungen haben Sie keine Auswirkung. Wenn Sie also die Dateisystemzugriffsrechte verwenden wollen, um lokale Verbindungen zu kontrollieren, müssen Sie die Zeile host ... 127.0.0.1 ... aus pg_hba.conf entfernen oder das trust in eine andere Methode ändern.
trust-Authentifizierung ist für TCP/IP-Verbindungen nur sinnvoll, wenn Sie allen Benutzern auf allen Maschinen, die mit dem Server über trust-Zeilen in pg_hba.conf verbinden können, vertrauen. Es ist selten vernünftig, trust für TCP/IP-Verbindungen außer denen von localhost (127.0.0.1) zu verwenden.

19.2.2 Passwort-Authentifizierung
Die Authentifizierungsmethoden mit Passwörtern sind md5, crypt und password. Die Methoden funktionieren ganz ähnlich, unterscheiden sich aber durch die Art, wie das Passwort über die Verbindung geschickt wird. Wenn Sie sich Sorgen um Passwort-“Sniffing” machen, sollten Sie md5 verwenden, wobei crypt die zweite Wahl wäre, wenn sie Clients aus Versionen vor 7.2 unterstützen müssen. Die Methode password sollte insbesondere bei Verbindungen über das offene Internet vermieden werden (es sei denn, Sie verwenden SSL, SSH oder andere Vorrichtungen um die Verbindung zu sichern). PostgreSQL-Datenbankpasswörter sind getrennt von den Passwörtern im Betriebssystem. Das Passwort jedes Datenbankbenutzers wird in der Systemtabelle pg_shadow gespeichert. Passwörter können mit den SQL-Befehlen CREATE USER und ALTER USER verwaltet werden, zum Beispiel CREATE USER foo WITH PASSWORD 'geheim';. In der Voreinstellung, das heißt, wenn kein Passwort eingerichtet wurde, ist das gespeicherte Passwort der NULL-Wert, wodurch die Passwortauthentifizierung für den Benutzer nie erfolgreich sein kann.

282

Clientauthentifizierung

Um zu beschränken, welche Benutzer mit bestimmten Datenbanken verbinden können, können Sie die Benutzer in der Spalte benutzer in der Datei pg_hba.conf wie im vorigen Abschnitt beschrieben aufführen.

19.2.3 Kerberos-Authentifizierung
Kerberos ist ein etabliertes, sicheres Authentifizierungssystem für verteilte Dienste in öffentlichen Netzwerken. Eine Beschreibung des Kerberos-Systems würde den Rahmen dieses Dokuments sprengen; das ganze System kann ziemlich komplex (aber mächtig) sein. Die Kerberos FAQ oder MIT Project Athena können als Ausgangspunkte für Erforschungen dienen. Es gibt verschiedene Quellen für Kerberos-Produkte. Um Kerberos benutzen zu können, muss die Unterstützung beim Compilieren eingeschaltet worden sein. Weitere Informationen darüber finden Sie in Kapitel 14. Kerberos 4 und 5 werden angeboten, aber nur eine Version kann von jeder Installation unterstützt werden. PostgreSQL funktioniert wie ein normaler Kerberos-Dienst. Der Name des Service-Principals ist servicename/hostname@realm, wobei servicename gleich postgres ist (außer wenn ein anderer Servicename konfiguriert wurde, mit ./configure -with-krb-srvnam=irgendwas). hostname ist der voll qualifizierte Hostname der Servermaschine. Das Realm des Service-Principals ist das bevorzugte Realm der Servermaschine. Client-Principals haben den PostgreSQL-Benutzernamen als ersten Teil, zum Beispiel pgbenutzer/ andereszeug@realm. Das Realm wird gegenwärtig von PostgreSQL nicht überprüft; wenn Sie also Cross-Realm-Authentifizierung eingeschaltet haben, werden alle Principals in allen Realms, die mit Ihrem kommunizieren können, akzeptiert. Achten Sie darauf, dass die Serverschlüsseldatei vom PostgreSQL-Server lesbar (und bevorzugt nur lesbar) ist. (Siehe auch Abschnitt 16.1.) Der Ort der Schlüsseldatei wird vom Konfigurationsparameter krb_server_keyfile bestimmt. (Siehe auch Abschnitt 16.4.) Die Voreinstellung ist /etc/srvtab für Kerberos 4 und FILE:/usr/local/pgsql/etc/krb5.keytab (je nachdem, welches Verzeichnis bei der Compilierung als sysconfdir angegeben wurde) für Kerberos 5. Um eine Keytab-Datei zu erzeugen, verwenden Sie zum Beispiel (mit Version 5):
kadmin% ank -randkey postgres/server.my.domain.org kadmin% ktadd -k krb5.keytab postgres/server.my.domain.org

Einzelheiten finden Sie in der Dokumentation zu Kerberos. Wenn Sie mit der Datenbank verbinden, müssen Sie ein Ticket haben, dass dem gewünschten Datenbankbenutzernamen entspricht. Beispiel: Für den Datenbankbenutzernamen fred können die Principals fred@EXAMPLE.COM oder fred/users.example.com@EXAMPLE.COM zur Authentifizierung mit dem Datenbankserver verwendet werden. Wenn Sie mod_auth_krb und mod_perl auf Ihrem Apache-Webserver verwenden, können Sie AuthType KerberosV5SaveCredentials mit einem mod_perl-Skript verwenden. Dadurch erhalten Sie sicheren Datenbankzugriff über das Web ohne zusätzliche Passwörter.

19.2.4 Ident-Authentifizierung
Das Ident-Authentifizierungssystem prüft den Betriebssystembenutzernamen des Clients und ermittelt dann die erlaubten Datenbankbenutzernamen, indem es eine Map-Datei verwendet, die die erlaubten Benutzernamenpaare auflistet. Der sicherheitskritische Aspekt ist die Bestimmung des Benutzernamens des Clients, und wie das funktioniert, hängt vom Verbindungstyp ab.

283

Kapitel 19

Ident-Authentifizierung über TCP/IP
Das Identification Protocol ist in RFC 1413 (siehe Literaturverzeichnis) beschrieben. Praktisch jedes Unixähnliche Betriebssystem hat einen Ident-Server, der in der Voreinstellung auf TCP-Port 113 hört. Die grundsätzliche Funktion des Ident-Servers ist es, Fragen wie diese zu beantworten: “Welcher Benutzer startete die Verbindung, die aus deinem Port X kommt und bei meinen Port Y ankommt?” Da PostgreSQL sowohl X als auch Y kennt, wenn die Verbindung physikalisch eingerichtet ist, kann es den Ident-Server auf dem Host des verbindenden Client befragen und könnte so theoretisch den Betriebssystembenutzer zu jeder beliebigen Verbindung ermitteln. Der Nachteil dieses Vorgehens ist, dass es sich auf die Integrität des Clients verlässt: Wenn die Clientmaschine nicht vertrauenswürdig ist oder kompromittiert wurde, könnte ein Angreifer so ziemlich jedes Programm an Port 113 laufen lassen und Benutzernamen nach Belieben zurückgeben. Diese Authentifizierungsmethode ist daher nur in geschlossenen Netzwerken angebracht, wo jede Clientmaschine streng kontrolliert wird und die Verwalter von Datenbank und System eng zusammenarbeiten. Anders ausgedrückt müssen Sie der Maschine mit dem Ident-Server vertrauen können. Beachten Sie die Warnung: RFC 1413 The Identification Protocol is not intended as an authorization or access control protocol.

Ident-Authentifizierung über lokale Sockets
Auf Systemen, die auf Unix-Domain-Sockets SO_PEERCRED-Anfragen unterstützen (gegenwärtig Linux, FreeBSD, NetBSD und BSD/OS), kann Ident-Authentifizierung auch bei lokalen Verbindungen angewendet werden. In diesem Fall erzeugt die Verwendung von Ident keine weiteren Sicherheitsprobleme; in der Tat ist Ident auf solchen Systemen die bevorzugte Methode für lokale Verbindungen. Auf Systemen ohne SO_PEERCRED-Anfragen steht Ident-Authentifizierung nur für TCP/IP-Verbindungen zur Verfügung. Als Ausweg kann man als Verbindungsziel die localhost-Adresse 127.0.0.1 angeben.

Ident-Maps
Wenn Ident-basierte Authentifizierung verwendet wird und der Name des Betriebssystembenutzers, der die Verbindung eingeleitet hat, ermittelt wurde, prüft PostgreSQL, ob dieser Benutzer als der Datenbankbenutzer, den er gewünscht hat, verbinden darf. Das wird durch das Ident-Map-Argument kontrolliert, das in der Datei pg_hba.conf nach dem Schlüsselwort ident steht. Es gibt eine vordefinierte Ident-Map namens sameuser, welche es jedem Betriebssystembenutzer erlaubt, als der Datenbankbenutzer mit dem gleichen Namen (falls dieser existiert) zu verbinden. Andere Maps müssen selbst erzeugt werden. Andere Ident-Maps neben sameuser werden in der Datei pg_ident.conf im Datenverzeichnis definiert, die Zeilen mit folgender allgemeinen Form hat:
map-name ident-benutzername database-benutzername

Kommentare und Leerzeichen werden auf die übliche Art behandelt. Der map-name ist ein beliebiger Name, der verwendet wird, um in pg_hba.conf auf diese Map zu verweisen. Die anderen beiden Felder geben an, welcher Betriebssystembenutzer als welcher Datenbankbenutzer verbinden darf. Der gleiche map-name kann mehrfach verwendet werden, um mehrere Benutzerpaare in einer Map zu definieren. Es gibt keine Einschränkungen darüber, wie viele Datenbankbenutzer einem Betriebssystembenutzer oder umgekehrt entsprechen dürfen. Die Datei pg_ident.conf wird beim Start des Servers und wenn der Hauptserverprozess (postmaster) das Signal SIGHUP erhält gelesen. Wenn Sie die Datei in einem aktiven System bearbeiten, müssen Sie das dem postmaster-Prozess signalisieren (mit pg_ctl reload oder kill -HUP), damit er die Datei neu liest. Eine pg_ident.conf-Datei, die zusammen mit der pg_hba.conf-Datei aus Beispiel 19.1 verwendet werden könnte, wird in Beispiel 19.2 gezeigt. In dieser Beispielkonfiguration würde jemandem aus dem

284

Clientauthentifizierung

192.168-Netzwerk nur der Zugriff gewährt, wenn er den Unix-Benutzernamen bryanh, ann oder robert hat. Darüber hinaus würde dem Unix-Benutzer robert der Zugriff nur gewährt, wenn er als PostgreSQLBenutzer bob, nicht als robert oder jemand anders, verbindet. ann dürfte nur als ann verbinden. Der Benutzer bryanh könnte entweder als bryanh selbst oder als guest1 verbinden.

Beispiel 19.2: Ein Beispiel für pg_ident.conf
# MAPNAME IDENT-BENUTZER PG-BENUTZER

omicron bryanh bryanh omicron ann ann # bob heißt auf dieser Maschine robert omicron robert bob # bryanh kann auch als guest1 verbinden omicron bryanh guest1

19.2.5 PAM-Authentifizierung
Diese Authentifizierungsmethode funktioniert ähnlich wie password, verwendet aber PAM (Pluggable Authentication Modules) als Mechanismus. Der voreingestellte PAM-Servicename ist postgresql. Wahlweise können Sie selbst einen Servicenamen nach dem Schlüsselwort pam in der Datei pg_hba.conf eingeben. Für weitere Informationen über PAM lesen Sie bitte die Linux-PAM Page und die Solaris PAM Page.

19.3 Authentifizierungsprobleme
Echte Authentifizierungsprobleme äußern sich im Allgemeinen durch Fehlermeldungen wie die folgende.
No pg_hba.conf entry for host 123.123.123.123, user andym, database testdb

Das sehen Sie am wahrscheinlichsten, wenn Sie den Server erfolgreich kontaktiert haben, aber er mit Ihnen nicht reden will. Wie die Meldung andeutet, hat der Server die Verbindung abgelehnt, weil er keinen passenden Eintrag in seiner Konfigurationsdatei pg_hba.conf gefunden hat.
Password authentication failed for user 'andym'

Meldungen wie diese zeigen an, dass Sie den Server kontaktiert haben und er mit Ihnen reden will, aber erst, wenn Sie die in der Datei pg_hba.conf angegebene Authentifizierungsmethode durchlaufen haben. Überprüfen Sie das angegebene Passwort oder prüfen Sie Ihre Kerberos- oder Ident-Software, wenn sich die Meldung auf diese Authentifizierungstypen bezieht.
FATAL 1: user "andym" does not exist

Der angegebene Benutzer wurde nicht gefunden.
FATAL 1: Database "testdb" does not exist in the system catalog.

Die Datenbank, mit der Sie zu verbinden versuchen, existiert nicht. Beachten Sie, das wenn Sie keinen Benutzernamen angeben, der Benutzername als Datenbankname verwendet wird, was Sie vielleicht nicht beabsichtigt hatten.

285

Kapitel 19

Der Serverlog kann unter Umständen mehr Informationen über einen gescheiterten Authentifizierungsversuch enthalten als das, was an den Client geschickt wird. Wenn Sie also bei Authentifizierungsproblemen verwirrt sind, prüfen Sie den Log.

286

20

20

Lokalisierung

Dieses Kapitel beschreibt die verfügbaren Features zur Lokalisierung aus Sicht des Administrators. PostgreSQL unterstützt Lokalisierung mit drei Ansätzen: ❏ mit den Locale-Fähigkeiten des Betriebssystems, um sprachspezifische Sortierreihenfolgen, Zahlenformatierung, übersetzte Meldungen und andere Aspekte anzubieten ❏ durch eine Reihe verschiedener im PostgreSQL-Server definierter Zeichensätze, einschließlich Mehrbyte-Zeichensätze, um Text in allen möglichen Sprachen abspeichern zu können, und durch Konvertierung zwischen Zeichensätzen zwischen Client und Server ❏ Zeichensatzkonvertierung zwischen Einbyte-Zeichensätzen als effizientere Lösung für Benutzer, für die das ausreicht.

20.1

Locale-Unterstützung

Locale-Unterstützung bezieht sich darauf, dass Anwendungen die von einer bestimmten Kultur bevorzugten Bräuche für das Alphabet, die Sortierreihenfolge, Zahlenformate usw. respektieren. PostgreSQL verwendet die vom Serverbetriebssystem bereitgestellten Locale-Vorrichtungen entsprechend dem ISO-Cbzw. POSIX-Standard. Weitere Informationen dazu finden Sie auch in der Dokumentation Ihres Betriebssystems.

20.1.1 Überblick
Die Locale-Unterstützung wird automatisch initialisiert, wenn ein Datenbankcluster mit initdb erzeugt wird. initdb initialisiert den Datenbankcluster mit den Locale-Einstellungen aus seiner Umgebung; wenn also Ihr System schon die Locale verwendet, die Sie in Ihrem Datenbankcluster verwenden wollen, müssen Sie nichts weiter tun. Wenn Sie eine andere Locale verwenden wollen (oder Sie sich nicht sicher sind, welche Ihr System verwendet), können Sie initdb mit der Option --locale genau sagen, welche Locale Sie verwenden wollen. Zum Beispiel:
initdb --locale=sv_SE

Dieses Beispiel setzt die Locale auf Schwedisch (sv) wie es in Schweden (SE) gesprochen wird. Weitere Beispiele sind de_DE (Deutsch, Deutschland), en_US (Englisch, USA) oder fr_CA (Französisch, Kanada). Wenn mehr als ein Zeichensatz für eine Locale verwendet werden kann, sieht die Angabe so aus: 287

Kapitel 20

cs_CZ.ISO8859-2. Welche Locales auf Ihrem System vorhanden sind, hängt davon ab, was vom Hersteller zur Verfügung gestellt und installiert wurde.

Gelegentlich kann es nützlich sein, die Regeln aus mehreren Locales zu kombinieren, zum Beispiel englische Sortierreihenfolge aber spanische Meldungen. Um das zu ermöglichen, gibt es mehrere Locale-Subkategorien, die nur bestimmte Aspekte der Locale-Regeln kontrollieren.
LC_COLLATE LC_CTYPE

Zeichenketten-Sortierreihenfolge Zeichenklassifizierung (Was ist ein Buchstabe? Was ist der entsprechende Großbuchstabe?) Sprache der Meldungen Format für Geldbeträge Format für Zahlen Format für Datum und Zeit

LC_MESSAGES LC_MONETARY LC_NUMERIC LC_TIME

Aus den Kategorienamen ergeben sich die Namen von Kommandozeilenoptionen für initdb, die die Locale-Wahl für eine bestimmte Kategorie einstellen. Um zum Beispiel die Locale auf Kanada/Französisch zu setzen, aber die Regeln von USA/Englisch zur Formatierung von Geldbeträgen auszuwählen, verwenden Sie initdb --locale=fr_CA --lc-monetary=en_US. Wenn Sie wollen, dass sich Ihr System so verhält, als hätte es keine Locale-Unterstützung, dann setzen Sie die Locale auf C oder POSIX. Bei einigen Locale-Kategorien steht der Wert für die gesamte Lebensdauer des Datenbankclusters fest. Das heißt, nachdem initdb ausgeführt wurde, können Sie ihn nicht mehr verändern. Diese Kategorien sind LC_COLLATE und LC_CTYPE. Sie beeinflussen die Sortierreihenfolge der Indexe und müssen daher konstant gehalten werden oder Indexe für Textspalten werden verfälscht und ungültig werden. PostgreSQL sorgt dafür, dass die Locale-Werte konstant bleiben, indem die von initdb gesehenen Werte von LC_COLLATE und LC_CTYPE gespeichert werden. Der Server stellt diese beiden Werte dann automatisch ein, wenn er gestartet wird. Die anderen Locale-Kategorien können, während der Server läuft, immer geändert werden, indem die Konfigurationsparameter mit den gleichen Namen wie die Locale-Kategorien eingestellt werden (siehe Abschnitt 16.4 wegen Einzelheiten). Die durch initdb gewählten Voreinstellungen werden nur in die Konfigurationsdatei postgresql.conf geschrieben, wo sie als Voreinstellungen dienen, wenn der Server gestartet wird. Wenn Sie die Zuweisungen aus postgresql.conf löschen, dann übernimmt der Server die Einstellungen aus der Umgebung. Beachten Sie, dass das Locale-Verhalten des Servers von den vom Server gesehenen Umgebungsvariablen abhängt und nicht von der Umgebung irgendeines Clients. Daher müssen Sie darauf achten, dass Sie die Locale-Einstellungen tätigen, bevor Sie den Server starten. Daraus folgt auch, wenn der Server und der Client verschiedene Locales verwenden, können Meldungen in verschiedenen Sprachen erscheinen, je nachdem, woher sie stammen. Wenn wir davon reden, dass die Locale aus der Umgebung übernommen wird, bedeutet das auf den meisten Betriebssystemen Folgendes: Für eine gegebene Locale-Kategorie, sagen wir die Sortierreihenfolge, werden die folgenden Umgebungsvariablen in dieser Reihenfolge untersucht, bis eine gefunden wird, die gesetzt ist: LC_ALL, LC_COLLATE (die Variable, die der Kategorie entspricht) und LANG. Wenn keine dieser Umgebungsvariablen gesetzt ist, ist die voreingestellte Locale C. Manche Bibliotheken zur Übersetzung von Programmmeldungen betrachten auch die Umgebungsvariable LANGUAGE, welche alle anderen Locale-Einstellungen für die Sprache von Programmmeldungen übergeht. Wenn Sie sich nicht sicher sind, dann schauen Sie bitte in der Dokumentation Ihres Betriebssystems nach, insbesondere in der Anleitung zu Gettext.

288

Lokalisierung

Um Mitteilungen in der vom Benutzer bevorzugten Sprache anzeigen zu können, muss NLS beim Compilieren angeschaltet worden sein. Diese Wahl ist unabhängig von der anderen Locale-Unterstützung.

20.1.2 Nutzen
Locale-Unterstützung hat insbesondere Auswirkung auf die folgenden Aspekte: ❏ Sortierreihenfolge in Anfragen mit ORDER BY ❏ die Funktionsfamilie to_char ❏ die Operatoren LIKE und ~ für Mustervergleiche Der einzige schwerwiegende Nachteil der Locale-Unterstützung in PostgreSQL ist die Geschwindigkeit. Also verwenden Sie Locales nur, wenn Sie sie wirklich benötigen. Man sollte anmerken, dass die Auswahl einer anderen Locale außer C die Verwendung eines Index für die Operatoren LIKE und ~ verhindert, was für die Geschwindigkeit von Anfragen, die diese Operatoren verwenden, einen gewaltigen Unterschied machen kann.

20.1.3 Probleme
Wenn die Locale-Unterstützung trotz der Erklärung oben nicht funktioniert, überprüfen Sie, ob die Locale-Unterstützung in Ihrem Betriebssystem richtig läuft. Um zu sehen, welche Locales auf Ihrem System installiert sind, können Sie den Befehl locale -a verwenden, wenn Ihr Betriebssystem ihn zur Verfügung stellt. Überprüfen Sie, ob PostgreSQL tatsächlich die Locale verwendet, die Sie denken. Die Einstellungen von LC_COLLATE und LC_CTYPE werden von initdb gemacht und können später nicht geändert werden ohne initdb zu wiederholen. Die anderen Locale-Kategorien werden anfänglich von der Umgebung, in der der Server gestartet wird, bestimmt. Die Einstellungen von LC_COLLATE und LC_CTYPE können Sie mit dem Hilfsprogramm pg_controldata einsehen. Das Verzeichnis src/test/locale in der Quellendistribution enthält einige Tests für die Locale-Unterstützung in PostgreSQL. Clientanwendungen, die Serverfehler verarbeiten, indem Sie den Text der Meldung analysieren, werden natürlich Probleme haben, wenn die Meldungen des Servers in einer anderen Sprache sind. Wenn Sie so eine Anwendung entwickeln, müssen Sie einen Plan aufstellen, um mit dieser Situation fertig zu werden. Die Schnittstelle ECPG (eingebettetes SQL) ist von diesem Problem auch betroffen. Wenn ein Server mit ECPG-Anwendungen kommunizieren muss, wird gegenwärtig empfohlen, dass er so konfiguriert wird, dass er Meldungen auf Englisch schickt. Die Pflege von Katalogen mit Übersetzungen der Programmmeldungen erfordert die andauernden Bemühungen vieler Freiwilliger, die wollen, dass PostgreSQL ihre bevorzugte Sprache gut sprechen kann. Wenn die Meldungen in einer Sprache gegenwärtig nicht angeboten werden oder nicht vollständig übersetzt sind, würde Ihre Hilfe sehr geschätzt werden. Wenn Sie helfen wollen, schreiben Sie an die Entwicklermailingliste.

20.2 Zeichensatz-Unterstützung
Die Zeichensatzunterstützung in PostgreSQL ermöglicht Ihnen, Text in vielfältigen Zeichensätzen zu speichern, einschließlich Einbyte-Zeichensätze wie die ISO-8859-Serie und Mehrbyte-Zeichensätze wie EUC (Extended Unix Code), Unicode und Mule Internal Code. Alle Zeichensätze können transparent im ganzen Server verwendet werden. (Wenn Sie Erweiterungsfunktionen aus anderen Quellen verwenden, hängt es davon ab, ob die Autoren ihren Code richtig geschrieben haben.) Der Standardzeichensatz wird

289

Kapitel 20

gewählt, wenn der PostgreSQL-Datenbankcluster mit initdb initialisiert wird. Er kann übergangen werden, wenn eine Datenbank mit createdb oder dem SQL-Befehl CREATE DATABASE erzeugt wird. Sie können also mehrere Datenbanken mit jeweils einem anderen Zeichensatz haben.

20.2.1 Unterstützte Zeichensätze
Tabelle 20.1 zeigt die im Server zur Verfügung stehenden Zeichensätze. Server-Zeichensätze
Name
SQL_ASCII EUC_JP EUC_CN EUC_KR JOHAB EUC_TW UNICODE MULE_INTERNAL LATIN1 LATIN2 LATIN3 LATIN4 LATIN5 LATIN6 LATIN7 LATIN8 LATIN9 LATIN10 ISO-8859-5 ISO-8859-6 ISO-8859-7 ISO-8859-8 KOI8 WIN ALT WIN1256 TCVN WIN874

Beschreibung ASCII Japanischer EUC Chinesischer EUC Koreanischer EUC Koreanischer EUC (Basis-Hangul) Taiwanischer EUC Unicode (UTF-8) Mule Internal Code ISO 8859-1/ECMA 94 (Lateinisches Alphabet Nr.1) ISO 8859-2/ECMA 94 (Lateinisches Alphabet Nr.2) ISO 8859-3/ECMA 94 (Lateinisches Alphabet Nr.3) ISO 8859-4/ECMA 94 (Lateinisches Alphabet Nr.4) ISO 8859-9/ECMA 128 (Lateinisches Alphabet Nr.5) ISO 8859-10/ECMA 144 (Lateinisches Alphabet Nr.6) ISO 8859-13 (Lateinisches Alphabet Nr.7) ISO 8859-14 (Lateinisches Alphabet Nr.8) ISO 8859-15 (Lateinisches Alphabet Nr.9) ISO 8859-16/ASRO SR 14111 (Lateinisches Alphabet Nr.10) ISO 8859-5/ECMA 113 (Lateinisch/Kyrillisch) ISO 8859-6/ECMA 114 (Lateinisch/Arabisch) ISO 8859-7/ECMA 118 (Lateinisch/Griechisch) ISO 8859-8/ECMA 121 (Lateinisch/Hebräisch) KOI8-R(U) Windows CP1251 Windows CP866 Windows CP1256 (Arabisch) TCVN-5712/Windows CP1258 (Vietnamesisch) Windows CP874 (Thai)

Tabelle 20.1: Server-Zeichensätze

290

Lokalisierung

Wichtig
Vor PostgreSQL 7.2 stand LATIN5 fälschlicherweise für ISO 8859-5. Seit 7.2 bedeutet LATIN5 richtig ISO 8859-9. Wenn Sie eine mit Version 7.1 oder früher erzeugte Datenbank in LATIN5 haben und auf 7.2 oder später umsteigen wollen, sollten Sie auf diese Änderung achten. Nicht alle Schnittstellen unterstützen alle aufgelisteten Zeichensätze. Der JDBC-Treiber von PostgreSQL unterstützt zum Beispiel nicht MULE_INTERNAL, LATIN6, LATIN8 oder LATIN10.

20.2.2 Den Zeichensatz einstellen
initdb bestimmt den Standardzeichensatz eines PostgreSQL-Datenbankclusters. Zum Beispiel: initdb -E EUC_JP

Das setzt den Standardzeichensatz (die Kodierung) auf EUC_JP (Extenden Unix Code für Japanisch). Sie können --encoding anstatt -E verwenden, wenn Sie lieber die langen Optionen eingeben. Wenn weder -E noch --encoding angegeben wird, dann wird SQL_ASCII verwendet. Sie können eine Datenbank mit einem anderen Zeichensatz erzeugen:
createdb -E EUC_KR korean

Das erzeugt eine Datenbank namens korean, die den Zeichensatz EUC_KR verwendet. Das Gleiche kann man auch mit diesem SQL-Befehl erreichen:
CREATE DATABASE korean WITH ENCODING 'EUC_KR';

Die Kodierung der Datenbank wird im Systemkatalog pg_database gespeichert. Sie können sich diese Informationen zum Beispiel mit der Option -l oder dem Befehl \l in psql ansehen.
$ psql -l List of databases Database | Owner | Encoding ---------------+---------+--------------euc_cn | t-ishii | EUC_CN euc_jp | t-ishii | EUC_JP euc_kr | t-ishii | EUC_KR euc_tw | t-ishii | EUC_TW mule_internal | t-ishii | MULE_INTERNAL regression | t-ishii | SQL_ASCII template1 | t-ishii | EUC_JP test | t-ishii | EUC_JP unicode | t-ishii | UNICODE (9 rows)

291

WIN874. MULE_INTERNAL LATIN8. UNICODE. BIG5. GB18030. UNICODE. EUC_KR. MULE_INTERNAL EUC_CN. UNICODE. MULE_INTERNAL ISO_8859_5. UNICODE TCVN. WIN. UNICODE MULE_INTERNAL KOI8 WIN ALT WIN1256 TCVN WIN874 Tabelle 20. ALT. WIN1250. MULE_INTERNAL ISO_8859_5. MULE_INTERNAL LATIN9. KOI8. UNICODE ISO_8859_7. Die Konvertierungsinformationen werden im Systemkatalog pg_conversion gespeichert. UNICODE. ISO_8859_7. UNICODE WIN874. LATIN1 to LATIN5. BIG5. WIN1250 EUC_JP.2 aufgeführt. MULE_INTERNAL WIN1256. WIN. UHC.2. ISO_8859_6. MULE_INTERNAL ISO_8859_5. WIN. UNICODE. Neuen Konversionen können Sie mit dem SQL-Befehl CREATE CONVERSION erzeugen. SJIS.2: Client/Server-Zeichensatzkonversionen 292 . UNICODE. ISO_8859_5. KOI8. UNICODE. WIN1256. GBK. UNICODE EUC_TW. EUC_KR. UNICODE. MULE_INTERNAL. MULE_INTERNAL LATIN10. UNICODE. ALT. UNICODE. KOI8. MULE_INTERNAL LATIN7. ALT. UNICODE MULE_INTERNAL LATIN2. KOI8 ISO_8859_6. UNICODE LATIN6. MULE_INTERNAL EUC_KR. UNICODE. UNICODE EUC_JP. MULE_INTERNAL LATIN3. UNICODE. KOI8 ISO_8859_5. ISO_8859_8. ALT. UNICODE. EUC_CN. EUC_TW. UNICODE. EUC_CN. WIN. UNICODE. WIN. JOHAB.Kapitel 20 20. MULE_INTERNAL LATIN1. KOI8. Diese sind in Tabelle 20. LATIN1 to LATIN10. TCVN. UNICODE. ALT. EUC_TW. SJIS. MULE_INTERNAL EUC_JP. MULE_INTERNAL LATIN4. MULE_INTERNAL LATIN5. SJIS.3 Automatische Zeichensatzkonvertierung zwischen Client und Server PostgreSQL unterstützt die automatische Zeichensatzkonvertierung zwischen Client und Server für bestimmte Zeichensätze. BIG5. ALT. WIN. ISO_8859_5. BIG5. UNICODE ISO_8859_8. WIN1250. Server-Zeichensatz SQL_ASCII EUC_JP EUC_CN EUC_KR JOHAB EUC_TW LATIN1 LATIN2 LATIN3 LATIN4 LATIN5 LATIN6 LATIN7 LATIN8 LATIN9 LATIN10 ISO_8859_5 ISO_8859_6 ISO_8859_7 ISO_8859_8 UNICODE Verfügbare Client-Zeichensätze SQL_ASCII. MULE_INTERNAL JOHAB. UNICODE. PostgreSQL enthält einige vordefinierte Konversionen.

Wenn die Umgebungsvariable PGCLIENTENCODING in der Umgebung des Clients gesetzt ist.) Wenn die Konvertierung eines bestimmten Zeichens nicht möglich ist – nehmen wir an. (Nachher kann Sie mit einer der oben genannten Methoden geändert werden. geben Sie ein: \encoding SJIS ❏ Mit libpq-Funktionen. Wenn der Parameter client_encoding in postgresql. nicht einen Namen wie EUC_JP.Lokalisierung Um die automatische Zeichensatzkonvertierung zu ermöglichen. wird diese Kodierung automatisch ausgewählt. (Nachher kann Sie mit einer der oben genannten Methoden geändert werden. Um zur Standardkodierung zurückzukehren. Um die aktuelle Kodierung anzuzeigen. ansonsten -1. Beachten Sie. müssen Sie PostgreSQL mitteilen. Wenn die Funktion den Zeichensatz erfolgreich gesetzt hat. ❏ Mit SET CLIENT_ENCODING TO. dass diese Funktion die interne Nummer des Zeichensatzes zurückgibt. 293 . Sie können dafür auch die etwas SQL-konformere Syntax SET NAMES verwenden: SET NAMES 'wert'. welchen Zeichensatz (welche Kodierung) Sie im Client verwenden wollen. Um die Nummer in einen Zeichensatznamen umzuwandeln. const char *encoding). ❏ Mit PGCLIENTENCODING. wird das Zeichen durch seine hexadezimalen Bytewerte in Klammern dargestellt. Um zum Beispiel die Kodierung auf SJIS zu setzen. Der aktuelle Zeichensatz einer Verbindung kann mit der Funktion ermittelt werden: int PQclientEncoding(const PGconn *conn). können Sie diese Funktion verwenden: char *pg_encoding_to_char(int encoding_id). verwenden Sie: SHOW CLIENT_ENCODING. verwenden Sie: RESET CLIENT_ENCODING. \encoding selbst ruft intern PQsetClientEncoding() auf. zum Beispiel (826C). Mit \encoding können Sie die Clientkodierung jederzeit ändern. Es gibt mehrere Möglichkeiten.) ❏ Mit dem Konfigurationsparameter client_encoding. Sie wählen EUC_JP für den Server und LATIN1 für den Client. wenn eine Verbindung zum Server aufgebaut wird. wenn eine Verbindung zum Server aufgebaut wird. wobei conn eine Verbindung zum Server ist und encoding der gewünschte Zeichensatz. Die Clientkodierung kann mit diesem SQL-Befehl gesetzt werden: SET CLIENT_ENCODING TO 'wert'. wird diese Clientkodierung automatisch ausgewählt. können einige japanische Zeichen nicht in LATIN1 übertragen werden. dies zu erreichen: ❏ Mit dem Befehl \encoding in psql.conf gesetzt ist. ergibt sie 0. int PQsetClientEncoding(PGconn *conn.

inf In Abschnitt 3.2. was aber nicht ihre vollen Fähigkeiten beschreibt. Drei Schlüsselwörter mit folgender Syntax werden erkannt: BaseCharset server_zeichensatz RecodeTable quell_zeichensatz ziel_zeichensatz dateiname HostCharset host_angabe host_zeichensatz BaseCharset definiert den Zeichensatz des Datenbankservers. http://www. Diese ist eine übliche Text-Konfigurationsdatei.1. HostCharset-Sätze legen die Client-Zeichensätze nach IP-Adresse fest. Es wird auch unbequem. Diese Methode verwendet eine Datei charset.ora.0. um über die verschiedenen Zeichensatzsysteme etwas zu erfahren. Sie können eine einzelne IPAdresse.conf und ein paar Konvertierungstabellen finden.20-192.unicode. so dass Sie einfach Ausnahmen von vorangehenden Regeln bestimmen können. Diese Option wurde früher als “Kyrillische Rekodierungs-Unterstützung” bezeichnet. wenn Sie auf einem Client mehrere Betriebssysteme booten. Es gibt keine Schlüsselwörter. Sie können also tippfreundliche Namen wählen. eine IP-Maske über eine Adresse oder eine Spanne von IP-Adressen verwenden (z.2 gibt es detaillierte Beschreibungen von EUC_JP.1. Wenn diese Einschränkungen Sie aber nicht stören und Sie keine Mehrbyte-Zeichen benötigen. Der Dateiname ist relativ zum Datenverzeichnis. gibt es offensichtlich auch einige Einschränkungen. Hier wird UTF-8 definiert. und Zeichenkonversionen werden durch ein Paar dezimaler oder hexadezimaler (mit vorgestelltem 0x) Werte auf einzelnen Zeilen dargestellt: zeichenwert konvertierter_zeichenwert Im Verzeichnis src/data/ in der Quellendistribution können Sie ein Beispiel für die Datei charset. EUC_KR und EUC_TW. Da diese Lösung auf den IP-Adressen der Clients aufbaut. RecodeTable-Sätze bestimmen Konvertierungstabellen zwischen Server und Client. 20. Man kann damit alle Einbyte-Zeichensätze konvertieren lassen. Alle Zeichensatznamen werden nur intern in charset.168. dann ist dies eine einfache und effektive Lösung.100/24. 127.0.org/ Die Website des Unicode Consortium RFC 2044.3 Einbyte-Zeichensatz-Konvertierung Dieses Feature können Sie mit der configure-Option --enable-recode einschalten. 192.168. 294 . in der Leerzeichen und Newlines Felder und Datensätze trennen und mit # ein Kommentar anfängt.4 Weitere Informationsquellen Hier sind ein paar gute Quellen. 192. ftp://ftp.1.1. Sie können nicht auf einem Host zur gleichen Zeit mehrere Zeichensätze verwenden. Die Datei charset.B.conf wird immer bis zum Ende verarbeitet.168.conf im Datenverzeichnis zur Konfiguration.com/pub/examples/nutshell/ujip/doc/cjk. Das Format der Tabellendatei ist sehr einfach.conf verwendet.Kapitel 20 20.40). EUC_CN.

die auf dem letzten Stand ist. nach einer Katastrophe (Festplattenausfall. Ohne eine Sicherungskopie. um sich gegen den Verlust sehr alter Daten durch Überlauf der Transaktionsnummern zu schützen. Das wird in Abschnitt 21. um die vom PostgreSQL-Anfrageplaner verwendeten Datenstatistiken zu aktualisieren 3. Die in PostgreSQL verfügbaren Datensicherungs. Einzelheiten der Befehlssyntax und so weiter finden Sie auf der VACUUM-Referenzseite.1 Routinemäßiges Vacuum In PostgreSQL muss aus mehreren Gründen regelmäßig der Befehl VACUUM ausgeführt werden: 1. damit ein PostgreSQL-Server problemlos laufen kann. dass sie erfolgreich ausgeführt werden. ist die Verwaltung der Logdateien. das regelmäßige Aufmerksamkeit erfordert. die passenden Skripts einzurichten und zu überwachen. um den von aktualisierten oder gelöschten Zeilen belegten Speicherplatz wiederzugewinnen 2. 21. Dieser Abschnitt konzentriert sich auf das Erklären der allgemeinen Problematik. aus Versehen eine wichtige Tabelle gelöscht usw. Die Häufigkeit und das Ausmaß der aus jedem dieser Gründe ausgeführten VACUUM-Operationen hängt von der individuellen Situation ab. haben Sie keine Chance. dann werden Sie dadurch Ihre Arbeit mit dem System angenehmer und produktiver gestalten. Noch etwas. Feuer. die durchgeführt werden müssen. Aber es liegt in der Verantwortung des Datenbankadministrators. Dieses Thema wird in Abschnitt 21.) Ihre Daten wiederherstellen zu können.und wiederherstellungsmechanismen werden ausführlich in Kapitel 22 besprochen. Wenn Sie den sich stellenden Aufgaben nichtsdestoweniger die angebrachte Aufmerksamkeit widmen. 295 . Die hier beschriebenen Aufgaben müssen regelmäßig wiederholt werden und können leicht mit normalen Unix-Werkzeugen wie cron automatisiert werden. Die andere Hauptaufgabe der Wartung ist das regelmäßige Vacuum (zu Deutsch “Staubsaugen”) der Datenbank.1 besprochen. Verglichen mit anderen Datenbankprodukten hat PostgreSQL einen geringen Wartungsaufwand. Eine offensichtliche Wartungsaufgabe ist die regelmäßige Erstellung von Sicherungskopien der Daten.21 21 Routinemäßige Datenbankwartungsaufgaben Es gibt einige wenige routinemäßige Wartungsaufgaben. Datenbankadministratoren müssen daher diese Angelegenheiten verstehen und eine passende Wartungsstrategie entwickeln.3 besprochen.

wenn nötig. Festplattenplatz an das Betriebssystem zurückzugeben. wenn Sie wissen. muss also offensichtlich öfter “gevacuumt” werden als Tabellen. anstatt DELETE gefolgt von VACUUM zu verwenden. Aktualisieren. dass die Speicherplatzanforderungen ins Unendliche wachsen. für routinemäßiges Vacuum zur Platzwiedergewinnung. Diese Statistiken werden vom Befehl ANALYZE zusammengetragen. das mit TRUNCATE zu tun. wenn wenig Betrieb ist. sollten Sie in Erwägung ziehen. um sich darüber Gedanken zu machen. können Sie VACUUM FULL verwenden – aber welchen Sinn hat es. Häufiges Aktualisieren der Statistiken ist. das Programm vacuumdb kann da hilfreich sein.1 Speicherplatz wiedergewinnen In PostgreSQL wird bei einem UPDATE oder DELETE einer Zeile die alte Zeilenversion nicht sofort entfernt. nicht VACUUM FULL. aber sie versucht nicht zu sehr die Tabellendatei zu verkürzen und den Platz an das Betriebssystem zurückzugeben. solange sie potenziell noch in anderen Transaktionen sichtbar ist. der nur in ausgewählten Tabellen VACUUM ausführt und Tabellen. Einfügen. Aber irgendwann wird sich keine Transaktion mehr für eine alte oder gelöschte Zeilenversion interessieren. einigermaßen genaue Statistiken zu haben. Der davon belegte Platz muss für die Wiederverwendung durch neue Zeilen wiedergewonnen werden.2 Planerstatistiken aktualisieren Der PostgreSQL-Anfrageplaner benötigt statistische Informationen über den Inhalt der Tabellen. Aber das ist wahrscheinlich nur sinnvoll. wenn sich die statistische Verteilung kaum ver- 296 . die selten verändert werden. auslässt. Es ist wichtig. einen relativ stabilen Festplattenplatzverbrauch zu erhalten. Für die meisten Anwender wird empfohlen. dass Sie die Mehrzahl der Zeilen in einer Tabelle gelöscht haben. der sowieso bald wieder verwendet werden muss? Einigermaßen häufige VACUUM-Läufe in der Standardform sind für oft aktualisierte Tabellen ein besserer Ansatz als seltene VACUUM FULL-Läufe. es an Tageszeiten mit niedriger Belastung auszuführen.1.2 kann die Standardform von VACUUM parallel mit normalen Datenbankoperationen (Anfragen. wenn Sie große oft aktualisierte und große selten aktualisierte Tabellen haben. VACUUM FULL ist zu empfehlen. Die Standardform vom VACUUM wird am besten mit dem Ziel angewendet. Wenn Sie eine Tabelle haben. VACUUM für die ganze Datenbank auszuführen und als Ergänzung. Löschen. Eine Tabelle. ist nicht groß genug. einmal am Tag. Routinemäßiges Vacuum ist daher kein so großer Einschnitt in die Datenbankoperation mehr. Dieses Verhalten ist notwendig um das Multiversionssystem für den Mehrbenutzerbetrieb zu ermöglichen (siehe Kapitel 12): Die Zeilenversion darf nicht gelöscht werden. von denen bekannt ist. vergessen Sie nicht. sodass die stabile Größe der Tabelle mit dem aggressiveren Ansatz von VACUUM FULL erheblich verringert werden kann. um VACUUM in einer kleinen Tabelle auszuführen. Aber selbst bei oft aktualisierten Tabellen muss es nicht unbedingt notwendig sein.) Verwenden Sie das einfache VACUUM. um gute Pläne für Anfragen erzeugen zu können. ansonsten kann die schlechte Wahl von Plänen die Datenbankleistung beeinträchtigen. 21. aber nicht Änderungen an der Tabellendefinition) laufen. deren Inhalt ab und zu komplett gelöscht wird. wie es in früheren Versionen war. VACUUM in jeder einzelnen auszuführen. denn der zusätzliche Aufwand.Kapitel 21 Seit PostgreSQL 7. in der oft aktualisiert oder gelöscht wird. um zu verhindern. wie beim Vacuum zur Platzgewinnung. Das wird von VACUUM erledigt. für oft aktualisierte Tabellen nützlicher als für selten aktualisierte. 21. dass sie sich nicht oft ändern.1. und es ist auch nicht mehr so wichtig. Die Standardform findet alte Zeilenversionen und macht deren Platz für die Wiederverwendung in der Tabelle verfügbar. häufigeres Vacuum von oft aktualisierten Tabellen. Es könnte hilfreich sein. die Statistiken zu aktualisieren. einen cron-Auftrag zu registrieren. Wenn Sie Platz an das Betriebssystem zurückgeben wollen. der alleine oder als zusätzlicher Schritt in VACUUM aufgerufen werden kann. (Wenn Sie mehrere Datenbanken in einem Cluster haben.

kann es sehr wohl sinnvoll sein. gibt.und Maximalwerte in den Tabellenspalten ändern.Routinemäßige Datenbankwartungsaufgaben ändert. dass der Server endlos laufen kann. eine Spalte. In der Praxis ist der Nutzen dieser Fähigkeit allerdings zweifelhaft. Für die meisten Anwender wird empfohlen. wenn wenig Betrieb ist. um den Datenbankadministratoren zu helfen.2 ist ANALYZE sogar bei großen Tabellen ziemlich schnell. Das bedeutet. sagen wir. anstatt jede einzelne Zeile zu lesen. Anwender mit Tabellenstatistiken. weil es nur eine zufällige Auswahl der Tabellenzeilen verwendet. aber die statistische Verteilung der Werte ändert sich wahrscheinlich nur sehr langsam. das kann am besten mit einem nächtlichen VACUUM verbunden werden. kompletter Datenverlust sein kein (nicht nur verschwendeter Speicherplatz oder schlechte Leistung). Spalten. aber da die Konsequenz. dass deren Ergebnisse unsichtbar werden. In der Praxis ist das keine besonders umständliche Forderung.) Vor PostgreSQL 7. Sehen Sie bei ALTER TABLE SET STATISTICS nach. könnten jedoch zu der Feststellung gelangen. Kurz gesagt würden Sie die totale Datenverlustkatastrophe erleben. anders ausge- 297 . Eine timestamp-Spalte. ANALYZE kann man auch für bestimmte Tabellen und sogar nur für bestimmte Spalten einer Tabelle aus- geführt werden. Der neue Ansatz erlaubt es. Es ist also wahrscheinlich viel einfacher. Diese beiden XIDs werden immer als älter als alle anderen XIDs betrachtet. dass man mindestens alle 4 Milliarden Transaktionen initdb neu ausführt. ANALYZE einmal am Tag.2 war die einzige Verteidigung gegen Transaktionsnummernüberlauf. dass das übertrieben ist und dass weniger häufige ANALYZE-Läufe ausreichend sind. zum Beispiel. wenn es die Anwendung erfordert. wenn man sich nicht daran hält. ohne initdb oder irgendeinen Neustart. Am einfachsten ist es. Der Rest dieses Abschnitts gibt dazu Einzelheiten. Da aber Transaktionsnummern eine begrenzte Größe haben (gegenwärtig 32 Bits). die speichert. 21. und zwei Milliarden. welche URLs einer Website abgerufen wurden. aber das ist sicherlich nicht sehr beruhigend. wenn man nicht auf sie zugreifen kann. Dieser Weg war für Anwendungen mit viel Betrieb nicht zufriedenstellend und daher wurde eine bessere Lösung erdacht. sodass man einige Statistiken öfter als andere aktualisieren kann. die oft in WHERE-Klauseln verwendet werden und sehr unregelmäßige Datenverteilungen haben. zum Transaktionsnummernüberlauf kommen: Der XIDZähler fängt wieder bei null an und plötzlich werden Transaktionen aus der Vergangenheit so aussehen. das Ausmaß der gesammelten Statistiken einzustellen. wurden einige besondere Vorkehrungen errichtet.1. die “älter”. es einfach ab und zu für die ganze Datenbank auszuführen. könnten ein detaillierteres Datenhistogramm gebrauchen als andere. sich zu überlegen. (Die Daten sind eigentlich noch da. wie sehr sich die Minimal. Tipp Obwohl ein verschieden häufiges ANALYZE für verschiedene Spalten in der Regel nicht sehr produktiv ist. Die URL-Spalte mag sich vielleicht genauso oft ändern. Seit PostgreSQL 7. die größer als die XID der aktuellen Transaktion ist. Normale XIDs (die größer als 2) werden mit Arithmetik modulo 231 verglichen. ist “in der Zukunft” und sollte für die aktuelle Transaktion nicht sichtbar sein. kann es in einem Cluster. so eine Spalte benötigt wahrscheinlich häufigeres Aktualisieren der Statistik als. die “neuer” sind. was bedeutet. die Zeit seit dem letzten VACUUM zu verfolgen. Der neue Ansatz beim XID-Vergleich kennt zwei besondere XIDs.3 Transaktionsnummernüberlauf verhindern Im MVCC-System von PostgreSQL spielt das Vergleichen von Transactionsnummern (XID) eine wichtige Rolle: Eine Zeilenversion mit einer Einfügungs-XID. Der Preis dafür ist diese Wartungsanforderung: Jede Tabelle in der Datenbank muss mindestens einmal alle eine Milliarde Transaktionen gevacuumt werden. Nummer 1 und 2 (BootstrapXID und FrozenXID). die die Zeit der letzten Zeilenaktualisierung enthält. der eine lange Zeit läuft (mehr als 4 Milliarden Transaktionen). die sich relativ langsam verändern. dass es für jede normale XID zwei Milliarden XIDs. hat einen ständig steigenden Maximalwert. als ob sie in der Zukunft wären. für die ganze Datenbank auszuführen.

(Natürlich wird sie nach weiteren zwei Milliarden Transaktionen wieder auftauchen. ist garantiert. Mit der Standardstrategie fängt die Spalte age in einer Datenbank direkt nach einem VACUUM bei einer Milliarde an. Better vacuum them within 533713463 transactions. ohne jemals “eingefroren” zu werden. scheint sie für die nächsten zwei Milliarden Transaktionen als “in der Vergangenheit”. dass eine Tabelle eine ganze Milliarde Transaktionen in diese nicht mit einbezogen würde. Um Datenverlust zu vermeiden. muss sie auch nicht mehr gevacuumt werden. Die Spalte age misst die Anzahl der Transaktionen von jenem Grenzwert bis zur XID der aktuellen Transaktion. wenn sie alt genug sind. die beim letzten Mal noch nicht alt genug war. speichert VACUUM Transaktionsnummernstatistiken in der Systemtabelle pg_database. Wenn daher eine Zeilenversion mit einer bestimmten XID erzeugt worden ist.5 Milliarden Transaktionen zeigt. Insbesondere wird die Spalte datfrozenxid der zu einer Datenbank gehörigen pg_database-Zeile am Ende jeder datenbankweiten VACUUMOperation (d. sind in jener Datenbank garantiert durch FrozenXID ersetzt worden. Ein bequemer Weg. dieser Regel zu folgen. wie lange das sein wird. dann werden Sie für alle normalen Transaktionen als “in der Vergangenheit” erscheinen. um umnummeriert zu werden.Kapitel 21 drückt ist der Raum der normalen XIDs kreisförmig ohne Endpunkte. Wenn age sich zwei Milliarden nähert.h. ungeachtet der Überlaufproblematik. egal. (Die meisten Zeilenversionen werden wahrscheinlich entstehen und verschwinden. egal welche normale XID es ist. zum Beispiel: play=# VACUUM. bis sie wahrscheinlich nicht mehr von Interesse ist. folgende Anfrage auszuführen: SELECT datname. VACUUM. aber das hilft Ihnen sicher nicht weiter. um Problemen mit Transaktionsnummernüberlauf zu begegnen. bevor Sie zwei Milliarden Transaktionen alt werden. WARNING: Some databases have not been vacuumed in 1613770184 transactions. Insbesondere gilt. Um aber Administratoren zu helfen. kann es sein. Dadurch wird die originale EinfügungsXID so lange erhalten.) Da regelmäßige VACUUM-Läufe aus den schon beschriebenen Gründen sowieso nötig sind.) Mit dieser Strategie ist der höchste sichere Zeitraum zwischen VACUUM-Läufen für eine Tabelle genau eine Milliarde Transaktionen: Wenn Sie länger warten. gibt jedes datenbankweite VACUUM automatisch eine Warnung aus. Wenn dann die Datenbank nicht weiter verändert wird. wenn VACUUM FREEZE in einer ansonsten gerade unbenutzten Datenbank durchgeführt wird. age(datfrozenxid) FROM pg_database. Wir empfehlen. sie ist für Sie verloren. deren XID mehr als eine Milliarde Transaktionen in der Vergangenheit liegt. um in allen offenen Transaktionen gültig zu sein. dann erscheint sie plötzlich in der Zukunft zu sein. sich diese Information anzusehen. wenn irgendein pg_database-Eintrag für age mehr als 1. damit reichlich Sicherheitsspielraum bleibt. die älter als der Grenzwert sind. Diese Technik wird von initdb verwendet. jetzt zu alt ist und in der Zukunft liegt. das keine bestimmte Tabelle benennt) aktualisiert. or you may have a wraparound failure. Diese Neuzuweisung der XID wird von VACUUM erledigt. dass eine Zeilenversion. dass diese Beschränkung eingehalten wird. in jeder Datenbank mindestens alle halbe Milliarde (500 Millionen) Transaktionen VACUUM auszuführen. muss VACUUM bald wieder ausgeführt werden. Um Ihnen zu helfen. VACUUM VACUUM mit der Option FREEZE verfolgt eine aggressivere Strategie beim Einfrieren: Zeilenversionen werden eingefroren. ist. um Überlaufprobleme zu vermeiden. Die normale Strategie von VACUUM ist es. die FrozenXID jeder Zeilenversion zuzuweisen. Wenn die Zeilenversion nach mehr als zwei Milliarden Transaktionen noch existiert. Das hieße. Wenn ihnen einmal diese besondere XID zugewiesen wurde. dass alle Zeilenversionen in dieser Datenbank eingefroren werden. Der in diesem Feld gespeicherte Wert ist quasi die vom letzten VACUUM verwendete Einfriergrenze: Alle normalen XIDs. und daher werden sie bis zum Löschen gültig bleiben. um die Datenbank 298 . ist es unwahrscheinlich. muss alten Zeilenversionen irgendwann die XID FrozenXID zugewiesen werden (sie müssen also quasi “eingefroren” werden).

damit für solche Datenbanken keine falschen Warnungen ausgegeben werden. besonders bei großen Logmeldungen. Beachten Sie. Die Logausgabe kann jedoch ziemlich umfangreich werden (besonders bei einer Einstellung mit viel Debugausgaben) und man will sie in der Regel nicht endlos lange aufbewahren. Um das zu veranlassen. Wenn Sie einfach den stderr von postmaster in eine Datei umleiten. bei denen in pg_database datallowconn = false gesetzt wird. Außerdem gibt es contrib/reindexdb. In solchen Fällen wächst der von dem Index belegte Platz auf der Festplatte ins Endlose. 21. wenn Sie wollen. wenn Sie stderr von postmaster per Pipe mit einem Logrotierprogramm verbinden. was die ganze Datenbank reindizieren kann. wird stderr von postmaster automatisch an stdout umgeleitet. sie an Syslog zu schicken und die Dateirotierung Syslog zu überlassen. anstatt sie einfach an /dev/null zu schicken. dass VACUUM für Datenbanken mit datallowconn = false keine automatischen Warnungen über einen zu langen Zeitraum seit dem letzten VACUUM ausgibt. Dann ist es vielleicht angebrachter. B-Tree-Indexseiten wiederzuverwenden. selbst wenn häufig VACUUM ausgeführt wird. Wenn Sie den Server mit pg_ctl starten. Meldungen könnten gerade dann abgeschnitten oder fallen gelassen werden. Sie sollte auch für Datenbanken verwendet werden.conf auf 2 (um nur mit Syslog zu loggen).3 Logdateiverwaltung Es ist ratsam.Routinemäßige Datenbankwartungsaufgaben template0 vorzubereiten. zum Beispiel gibt es in der Apache-Distribution eins. dass der eine neue Logdatei anfängt. die Logausgabe des Servers irgendwo zu speichern.2 Routinemäßiges Reindizieren In bestimmten Fällen ist PostgreSQL unfähig. damit neue Logdateien angefangen und alte ab und zu weggeworfen werden. Solche neuen Zeilen müssen vielmehr in neuen Indexseiten abgelegt werden. indem Sie den Server anhalten und wieder neu starten. dass solche Datenbanken ordnungsgemäß eingefroren werden. können diese Indexseiten nur von Zeilen mit ähnlichen Werten wiederverwendet werden. auch kein VACUUM ausführen kann. aber einen Produktionsserver sollten Sie so nicht laufen lassen. Der Log ist unschätzbar. Die einfachste Lösung zur Verwaltung der Logausgabe ist. Daher müssen Sie die Logdateien “rotieren”. wenn man Sie sie am meisten benötigt. Wenn zum Beispiel indizierte Zeilen gelöscht werden und die neu eingefügten/ aktualisierten Zeilen viel höhere Werte haben. können die neuen Zeilen den von den gelöschten Zeilen freigegebenen Platz im Index nicht verwenden. da man in Datenbanken. Auf vielen Systemen ist Syslog jedoch nicht sehr zuverlässig. wenn indizierte Zeilen gelöscht werden. aber im Internet werden Sie eine Auswahl finden. um von gelöschten Zeilen belegte Seiten freizugeben. sodass Sie nur einen einfachen Pipe-Befehl benötigen: pg_ctl start | logrotate Die PostgreSQL-Distribution enthält kein passendes Logrotierprogramm. 299 . Das Problem ist. mit denen man nicht verbinden kann. wenn man Probleme diagnostizieren muss. Als Lösung können Sie regelmäßig den Befehl REINDEX ausführen. daher müssen Sie selbst darauf achten. können Sie die Logdatei nur verkürzen. Dann können Sie an den Syslog-Daemon das Signal SIGHUP schicken. setzen Sie den Konfigurationsparameter Syslog in postgresql. 21. Das mag für Entwicklungsumgebungen ausreichend sein.

.

(Günstigerweise hat der Server normalerweise den gleichen eingebauten Vorgabewert. wenn nichts anderes angegeben wird. Um anzugeben. Sie müssen insbesondere Leseerlaubnis für alle Tabellen haben. es es wichtig. wenn kein anderer angegeben wird. verwendet. mit der Datenbank. Ähnlich wird der Port durch die Umgebungsvariable PGPORT oder den eingebauten Vorgabewert bestimmt. die SQL-Befehle enthält.22 22 Datensicherung und wiederherstellung PostgreSQL-Datenbanken sollten. eine Textdatei zu erzeugen. wie nützlich das sein kann. die. die Sie sichern wollen. in der Praxis müssen Sie fast immer ein Datenbank-Superuser sein. schreibt pg_dump seine Ergebnisse auf den Standardausgabestrom. Unten werden wir sehen. Wenn nichts angegeben wird. Obwohl das Verfahren eigentlich ganz einfach ist. dass pg_dump keine besonderen Zugriffsrechte hat. dass Sie die Datensicherung von einer beliebigen Maschine im Netzwerk ausführen können. wie sie zum Zeitpunkt der Sicherung war. wie alles. die Datenbank wieder so erzeugen. verwenden Sie die Kommandozeilenoptionen -h host und -p port. 301 . welchen Datenbankserver pg_dump kontaktieren soll. pg_dump ist eine normale PostgreSQL-Clientanwendung (wenn auch eine ziemlich schlaue). PostgreSQL bietet zu diesem Zweck das Hilfsprogramm pg_dump an. dass Sie die zugrunde liegenden Techniken und Annahmen verstehen. wenn diese Zugriff auf die Datenbank hat. geben Sie entweder die Option -U an oder setzen Sie die Umgebungsvariable PGUSER. Aber bedenken Sie. um eine PostgreSQL-Datenbank zu sichern: ❏ SQL-Dump ❏ Archivierung auf Dateisystemebene 22. den die Umgebungsvariable PGHOST angibt.1 SQL-Dump Die Idee der SQL-Dump-Methode ist es. die den gleichen Namen wie der aktuelle Betriebssystembenutzer hat. Es gibt zwei grundlegend verschiedene Ansätze. was wertvolle Daten enthält. Dieser Befehl wird generell so verwendet: pg_dump dbname > ausgabedatei Wie Sie sehen. Das bedeutet. Um das zu übergehen. regelmäßig gesichert werden.) Wie jede andere PostgreSQL-Clientanwendung verbindet pg_dump. wenn man Sie an den Server zurückschickt. dann wird der lokale Host oder der.

dass Sie die Clientauthentifizierungseinstellungen vorübergehend etwas lockern. (Ausnahmen sind Operationen.. 22.2 pg_dumpall verwenden Der oben beschriebene Mechanismus ist umständlich und unangebracht. psql hat ähnliche Optionen wie pg_dump.1. wie zum Beispiel VACUUM FULL. ist psql dbname < eingabedatei wobei eingabedatei die Datei ist. dass Verbindungen mit pg_dump den normalen Clientauthentifizierungsmechanismen unterworfen sind (welche in Kapitel 19 beschrieben sind). dass Sie die Erlaubnis haben müssen. Die Datenbank dbname wird von diesem Befehl nicht erzeugt. Das bedeutet jedoch auch. pg_dumpall sichert alle Datenbanken in einem Cluster und sorgt auch dafür. die zu template1 hinzugefügt wurden. wird der Dump psql anweisen.Kapitel 22 Bedenken Sie. dass Aktualisierungen. Aufgerufen wird pg_dumpall einfach so: pg_dumpall > ausgabedatei 302 . zum Beispiel: pg_dump -h host1 dbname | psql -h host2 dbname Wichtig Die von pg_dump erzeugten Dumps sind auf template0 basierend. kann man eine Datenbank direkt von einem Server zu einem anderen übertragen. um einen Dump zurückzuspielen. wenn Sie Large Objects verwenden. der Reihe nach als jeden Benutzer zu verbinden und dann die entsprechenden Objekte zu erzeugen. Wenn die Objekte in der ursprünglichen Datenbank verschiedene Eigentümer hatten. wenn man einen ganzen Datenbankcluster sichern will. Mit pg_dump erzeugte Dumps sind intern konsistent. während pg_dump läuft. die in der Datenbank vorgenommen werden. Da pg_dump und psql in Pipes schreiben bzw. dass globale Daten. Es kann daher notwendig sein.1. wie im Beispiel oben. die Sie oben bei pg_dump als ausgabedatei angegeben hatten. Das bedeutet. müssen Sie die leere Datenbank aus template0 erzeugen. Auf der Referenzseite finden Sie weitere Informationen. 22. Dazu verwenden Sie die Kommandozeilenoption -o. dass all diese Benutzer schon vorhanden sein müssen.1 Den Dump wiederherstellen Die von pg_dump erzeugten Textdateien sind dafür gedacht. wie Benutzer und Gruppen. während es läuft. aus Pipes lesen können. dass Sprachen. um den Namen des Datenbankservers und den Benutzernamen zu kontrollieren.) Wichtig Wenn Ihr Datenbankschema OIDs verwendet (zum Beispiel als Fremdschlüssel). “Large Objects” werden auch ohne weiteres Zutun nicht ausgegeben. Schauen Sie auf die Referenzseite von pg_dump. Sie müssen sie aus template0 selbst erzeugen. Dadurch werden die Eigentumsverhältnisse richtig wiederhergestellt. nicht im Dump sein werden. Die generelle Form eines Befehls. pg_dump blockiert keine anderen Operationen in der Datenbank. Prozeduren usw. die OIDs mit zu sichern. Daher gilt. bevor Sie psql ausführen (zum Beispiel mit createdb -T template0 dbname). wenn Sie bei der Wiederherstellung eine selbst angepasste template1-Datenbank haben. erhalten werden. das heißt. als jeder dieser Benutzer zu verbinden. mit dem Programm psql gelesen zu werden. müssen Sie pg_dump anweisen. Aus diesem Grund steht das Programm pg_dumpall zur Verfügung. von pg_dump mit ausgegeben werden. und ferner. die zur Ausführung eine exklusive Sperre benötigen.

da das zur Wiederherstellung der Benutzer. wenn Funktionen in Spaltenvorgabewerten verwendet werden. Komprimierte Dumps verwenden. pg_dump dbname | gzip > dateiname. die mit gzip erreicht wird. können Sie Unix-Standardwerkzeuge verwenden. Das Programm split ermöglicht Ihnen. die größer als die maximale Dateigröße auf Ihrem System sind.gz Die Wiederherstellung geht mit createdb dbname gunzip -c dateiname. 22. Wenn PostgreSQL auf einem System mit der Komprimierungsbibliothek zlib kompiliert wurde. Der folgende Befehl sichert eine Datenbank in diesem speziellen Format: pg_dump -Fc dbname > dateiname Einzelheiten finden Sie auf den Referenzseiten zu pg_dump und pg_restore. kann es problematisch sein. wird noch mehr Arbeit auf Sie zukommen.und Gruppeninformationen erforderlich ist. Das kann zum Beispiel zu Problemen führen. Insbesondere ist die Reihenfolge. welche daher rühren. kann das Dump-Format “custom” die Daten beim Schreiben in die Ausgabedatei komprimieren. zum Beispiel gzip.Datensicherung und wiederherstellung Die sich daraus ergebenden Dumps können mit psql wie oben beschrieben wiederhergestellt werden.1. die eine für das Dateisystem akzeptable Größe haben. Aber in diesem Fall müssen Sie auf jeden Fall Superuser-Rechte haben. da die daraus resultierende Datei wahrscheinlich größer als die von Ihrem System erlaubte Dateigröße sein würde. um 1 Megabyte große Stücke zu erzeugen: pg_dump dbname | split -b 1m . so eine Tabelle in eine Datei zu sichern.gz | psql dbname oder cat dateiname. die Ausgabe in Stücke zu teilen.1. Die einzige Lösung ist. in der pg_dump die Objekte ausgibt. Da pg_dump in den Standardausgabestrom schreiben kann.gz | gunzip | psql dbname split verwenden. 303 . dass es schwierig ist. den Dump von Hand richtig zu sortieren.3 Große Datenbanken Da PostgreSQL Tabellen zulässt. 22.4 Vorbehalte pg_dump (und als Konsequenz auch pg_dumpall) hat ein paar Beschränkungen. Für große Datenbanken ergibt das eine Ausgabedatei mit etwa der Größe. Wenn Sie zwischen Objekten gegenseitige Abhängigkeiten erzeugt haben. die aber den zusätzlichen Vorteil hat. Zum Beispiel. bestimmte Informationen aus den Systemkatalogen wieder zusammenzusetzen. dass die Tabellen selektiv wiederhergestellt werden können. nicht sonderlich intelligent. um dieses mögliche Problem zu umgehen. Sie können Ihr Lieblingskomprimierungsprogramm verwenden.dateiname Die Wiederherstellung geht mit createdb dbname cat dateiname* | psql dbname Das Dump-Format “custom” verwenden.

In Abschnitt 16.2 Archivierung auf Dateisystemebene Eine alternative Datensicherungsstrategie ist es. da immer irgendwelche Daten in einem Zwischenspeicher sind.1 und 7. Ansonsten müssen Sie Ihre Daten mit pg_dump sichern und dann auf dem neuen Server wiederherstellen. Im Gegenteil. Das Verzeichnis contrib/pg_dumplo im PostgreSQL-Quellbaum enthält ein Programm. bevor Sie die Daten wiederherstellen. Wenn Sie zwischen kompatiblen Versionen wechseln. können Sie einfach den Datenbereich auf der Festplatte mit den neuen Programmdateien verwenden. 2. Eine Tabellendatei ist nur mit diesen Informationen brauchbar. nur einzelne Tabellen oder Datenbanken zu sichern oder wiederherzustellen.tar /usr/local/pgsql/data Es gibt allerdings zwei Einschränkungen. die behaupten.Kapitel 22 Wegen der Rückwärtskompatibilität gibt pg_dump in der normalen Einstellung keine Large Objects aus. Die andere Hälfte ist in den Commit-Log-Dateien pg_clog/*. Um Large Objects mit zu sichern. Das betrifft nicht die unterschiedlichen “Patch-Level” innerhalb einer Hauptversion. muss der Datenbankserver gestoppt werden.2 sind es. indem Sie nur die entsprechenden Dateien oder Verzeichnisse kopieren. nur eine Tabelle und die zugehörigen pg_clog-Daten wiederherzustellen. Teilmaßnahmen. weil das alle anderen Tabellen im Cluster unbrauchbar machen würde. Dateisystemen zu vertrauen. die diese Methode unpraktisch oder zumindest der pg_dumpMethode unterlegen machen: 1. Natürlich ist es auch nicht möglich.2 und 7. dass Sie nichts falsch machen. mit der Sie auch sonst Ihr Dateisystem sichern. (pg_dump muss zum Beispiel den Inhalt der Indexe nicht sichern. diese haben immer kompatible Speicherformate. die dafür sorgen. weil die in diesen Dateien enthaltenen Informationen nur die halbe Wahrheit darstellen. Einzelheiten finden Sie auf der Referenzseite. Es bedarf keiner Erwähnung. wo diese Dateien sich befinden.6. sondern nur die Befehle. Sie können also nichts kaputt machen. dass eine Kopie der Dateistruktur auch nicht unbedingt kleiner als ein SQL-Dump sein wird. haben Sie sie sicher schon selbst gefunden. direkt zu kopieren. Bitte machen Sie sich mit der Referenzseite zu pg_dump vertraut.1. Daher wird auch nicht empfohlen. die PostgreSQL zum Speichern der Daten in der Datenbank verwendet. können Sie jede Methode verwenden. Wenn Sie findig waren und Einzelheiten über die Dateisystemstruktur der Daten herausgefunden haben. das Large Objects auch sichern kann.1. Um eine brauchbare Sicherungsdatei zu erhalten.1. Informationen. sie wird höchstwahrscheinlich größer sein.) 22. dass Sie den Server auch herunterfahren müssen. die Dateien. Um diese Dateien zu sichern. funktionieren nicht. Zum Beispiel sind die Versionen 7. 7. welche den Status aller Transaktionen (abgeschlossen/abgebrochen/weder noch) enthalten. (Es gibt mehrere Kontrollmechanismen.2 wurde beschrieben. müssen Sie entweder das “custom” oder das TAR-Dumpformat und die Option -b von pg_dump verwenden. um sie neu zu erzeugen.3 Umstieg zwischen PostgreSQL-Versionen Generell ändert sich das interne Datenformat bei jeder neuen Hauptversion von PostgreSQL. aber 7. wie Sie den Server anhalten können. wie alle Verbindungen zu unterbinden. aber wenn Sie sich für diese Methode interessieren. Bedenken Sie auch.1. finden Sie in Abschnitt 16.0. wenn Sie 304 . sind Sie vielleicht versucht.2 nicht kompatibel. “konsistente Schnappschüsse” zu ermöglichen. 22. zum Beispiel: tar -cf backup. Das funktioniert nicht.

Oder wenn Sie wollen. wie Sie den Zugriff verbieten können. verschieben die alte Version woandershin. Anmerkung Wenn Sie die alte Version “woandershin” verschieben. mit verschiedenen Portnummern. In jedem Fall können Sie dann den alten Server herunterfahren und den neuen am Port des alten starten. Die Installationsanweisungen sagen Ihnen die richtigen Stellen. Dann können Sie einen Befehl wie pg_dumpall -p 5432 | psql -d template1 -p 6543 verwenden. wo die anderen Teile sich befinden. um Ihre Daten zu übertragen. aber wenn Sie beide Installationen noch eine Weile verwenden wollen. dass die Datenbank nicht mehr verändert wird. Zum Beispiel: pg_dumpall > backup pg_ctl stop mv /usr/local/pgsql /usr/local/pgsql. ansonsten verlieren Sie logischerweise diese Daten. Sie sollten sich versichern.) Der genaue Installationsvorgang wird in diesem Abschnitt nicht beschrieben. um diese Schritte auszuführen. dann können Sie den Datensicherungsschritt ausführen. indem Sie den neuen Server in ein anderes Verzeichnis installieren und den alten und den neuen Server parallel. 305 . Die geringste Ausfallzeit können Sie erreichen. dann sollten Sie ihnen wie vorgesehen bei der Installation unterschiedliche Verzeichnisse zuweisen. Einige Teile der Installation enthalten Informationen darüber. Das ist normalerweise kein großes Problem. Einzelheiten dazu finden Sie in Kapitel 14. In der Praxis sollten Sie Ihre Clientanwendungen mit der neuen Serverversion testen. Wenn Sie keine zwei Server parallel laufen haben wollen oder können. nachdem Sie pg_dumpall ausgeführt haben.Datensicherung und wiederherstellung etwas durcheinander bringen. installieren Sie die neue Version und starten den neuen Server. ist sie nicht mehr voll gebrauchsfähig. können Sie eine Zwischendatei verwenden.old cd ~/postgresql. bevor die neue Version installieren. dann halten Sie den Server an. ausführen. Schauen Sie in Kapitel 19 nach.gmake install initdb -D /usr/local/pgsql/data postmaster -D /usr/local/pgsql/data psql template1 < backup In Kapitel 16 finden Sie Informationen. bevor Sie den Wechsel vollziehen. wie Sie den Server starten und stoppen können und andere Einzelheiten.

.

Die nächsten zwei Prozesse implementieren den Statistikkollektor.1 gibt es eine ausführliche Beschreibung von EXPLAIN und anderer Methoden. (Wenn Sie das System so eingestellt haben. 23.1 2.1 6152 1512 pts/1 process postgres 998 0.) Der erste hier aufgeführte Prozess ist der Postmaster.1 idle postgres 1003 0.1 6104 1480 pts/1 postgres 963 0. damit einzelne Serverprozesse leicht identifiziert werden können. werden diese Prozesse nicht vorhanden sein. nicht vernachlässigen.0.0.1 Unix-Standardwerkzeuge Auf den meisten Plattformen verändert PostgreSQL den von ps angezeigten Prozesstitel.4 6532 3128 pts/1 [local] SELECT waiting postgres 1016 0.0 2.3 6532 2992 pts/1 127. wie Sie das herausfinden können. Der Großteil dieses Kapitels ist der Beschreibung des Statistikkollektors von PostgreSQL gewidmet. In Abschnitt 13. muss man eventuell weitere Nachforschungen mit dem PostgreSQL-Befehl EXPLAIN anstellen. um das Verhalten einzelner Anfragen zu verstehen.0 1.0 1.23 23 Überwachung der Datenbankaktivität Ein Datenbankadministrator fragt sich häufig: “Was macht das System gerade?” Dieses Kapitel bespricht. als der Befehl ausgeführt wurde. Es gibt mehrere Werkzeuge.) Jeder 307 . ebenso wie das Format der ausgegebenen Informationen.0 1. Wenn man eine zu langsame Anfrage gefunden hat. um die Datenbankaktivität zu überwachen und die Datenbankleistung zu analysieren. der Hauptserverprozess. Dieses Beispiel ist von einem neueren Linux-System. wie ps und top. welcher im nächsten Abschnitt beschrieben wird. die angegeben wurden. dass der Statistikkollektor nicht gestartet wird.0 2.1 7084 1472 pts/1 process postgres 965 0. Hier ist eine Beispielausgabe: $ ps auxww | grep ^postgres postgres 960 0. aber man sollte normale Unix-Befehl zur Überwachung.4 6532 3080 pts/1 [local] idle in transaction SN SN SN SN SN SN 13:17 13:17 13:17 13:18 13:19 13:19 0:00 postmaster -i 0:00 postgres: stats buffer 0:00 postgres: stats collector 0:00 postgres: tgl runbug 0:00 postgres: tgl regression 0:00 postgres: tgl regression (Die Syntax von ps ist auf verschiedenen Plattformen unterschiedlich. Die dahinter gezeigten Argumente sind dieselben.

idle in transaction.) 308 .) Beachten Sie. Das ist die Voreinstellung und auch empfohlen. Tipp Solaris erfordert eine besondere Behandlung. der eine Clientverbindung bearbeitet. (Siehe Abschnitt 16.conf gesetzt werden. aber es ist möglich. dass Prozess 1003 darauf wartet. wenn die Sitzung auf einen Befehl vom Client wartet.Kapitel 23 der übrigen Prozesse ist ein Serverprozess. können nur Superuser diese Parameter mit SET ändern. Sie ist idle. stats_block_level und stats_row_level kontrollieren. (Damit gewöhnliche Benutzer ihre Aktivitäten nicht vor dem Administrator verstecken können. um über diese zu berichten. kontrolliert. Das wird von Konfigurationsparametern. wie sehr die Leistung beeinträchtigt wird. Im obigen Beispiel können wir ableiten. ansonsten der Name eines Befehlstyps.) Der Parameter stats_start_collector muss auf true gesetzt sein. aber Sie können diesen Parameter ausschalten. Außerdem kann er den genauen Befehl. Gegenwärtig kann der Kollektor Tabellen. Jeder dieser Prozesse setzt die angezeigte Kommandozeile auf das Format postgres: benutzer datenbank host aktivität Der Benutzer. Normalerweise werden diese Parameter in postgresql. Sie müssen /usr/ucb/ps anstatt /bin/ps verwenden und zweimal die Option w angeben.2. wie man Konfigurationsparameter setzt. bestimmen.4 für Einzelheiten. aber die Aktivitätsanzeige verändert sich.und Indexzugriff in Diskblöcken und Zeilen zählen. 23. wenn der Client in einem BEGIN-Block ist. dass Prozess 1016 seine Transaktion abschließt und dadurch irgendeine Sperre aufgehoben wird. der gerade von einem anderen Serverprozess ausgeführt wird. Zugriffsstatistiken auf Zeilenebene an den Kollektor schickt. ob ein Serverprozess seinen aktuellen Befehlstext. wie etwa SELECT.oder auszuschalten. kann die Sammlung von Informationen ein. das Informationen über die Serveraktivität sammelt und Schnittstellen bietet. Die Parameter bestimmen. die von einem anderen Serverprozess gehalten wird. dass diese Option nicht geändert werden kann. (Die Verbesserung wird allerdings gering sein. sie mit dem Befehl SET für einzelne Sitzungen an. welche Informationen tatsächlich an den Kollektor geschickt werden.1 Konfiguration des Statistikkollektors Da die Sammlung von Statistiken die Leistung der Anfrageausführung leicht beeinträchtigt. Wenn Sie eine dieser Voraussetzungen nicht erfüllen. wenn der Serverprozess augenblicklich auf eine Sperre wartet.conf gesetzt. die normalerweise in postgresql. Zugriffsstatistiken auf Diskblock-Ebene bzw. damit Sie für alle Serverprozesse gelten. 23. und damit auch. Außerdem muss die ursprüngliche Befehlszeile von postmaster eine kürzere ps-Anzeige haben als die von jedem Serverprozess eingestellte. Außerdem wird waiting angehängt. die Datenbank und der Host der Verbindungsquelle bleiben für die gesamte Lebensdauer der Clientverbindung gleich. ist die Ausgabe für jeden Serverprozess die ursprüngliche Befehlszeile von postmaster. wenn Sie kein Interesse an Statistiken haben und jedes Quäntchen Leistung aus Ihrem Server herauspressen wollen. während der Server läuft. nicht nur einmal.und ausgeschaltet werden. damit der Statistikkollektor überhaupt gestartet wird. Die Parameter stats_command_string.2 Der Statistikkollektor Der Statistikkollektor in PostgreSQL ist ein Subsystem.

Ein weiterer wichtiger Punkt ist. Das ist Absicht und kein Fehler. dass diese Informationen nicht sofort aktualisiert werden. aber nur für Indexe von Systemtabellen.1 gelistet sind. dass die aktuelle Anfrage wegen der Verzögerung der Kollektorergebnisse nur bei lange laufenden Anfragen auf dem richtigen Stand ist. Außerdem ermittelt der Kollektor selbst höchstens alle pgstat_stat_interval Millisekunden (500 in der Voreinstellung) neue Gesamtwerte. müssen Sie bedenken. Wie pg_stat_all_indexes. aktualisierter und gelöschter Tupel. stats_block_level und stats_row_level in der Voreinstellung falsch sind. für andere ist sie der NULL-Wert. eine noch in der Ausführung befindliche Anfrage hat also keine Auswirkungen auf die angezeigten Ergebnisse. dass sich die Zahlen gleichzeitig ändern könnten. Blockleseversuche. gibt es einige vordefinierte Sichten. solange Sie die aktuelle Transaktion fortsetzen. weil der Block im Cache war). Sichtname pg_stat_activity Beschreibung Eine Zeile pro Serverprozess. wenn ein Serverprozess eine dieser Statistiken anzeigen soll. Gesamtzahl abgeschlossener und zurückgerollter Transaktionen in der Datenbank. denn dadurch können Sie mehrere Anfragen über die Statistiken ausführen und die Ergebnisse zueinander in Beziehung setzen. pg_stat_database pg_stat_all_tables pg_stat_sys_tables pg_stat_user_tables pg_stat_all_indexes pg_stat_sys_indexes pg_stat_user_indexes Tabelle 23. Wenn Sie mit jeder Anfrage neue Ergebnisse sehen wollen. Datenbankbenutzer und aktueller Anfrage. (Das kann weniger sein. Alternativ kann man sich mit den zugrunde liegenden Statistikfunktionen eigene Sichten bauen. 23. Für jede Tabelle in der aktuellen Datenbank. mit Prozessnummer. Gesamtzahl der sequenziellen und Indexscans.2 Ansehen der gesammelten Statistiken Um die Ergebnisse der Statistiksammlung zu zeigen. wenn Indexeinträge auf abgelaufene Heap-Tupel zeigen.) Wie pg_stat_all_indexes. Wenn Sie die Statistiken verwenden. Gesamtzahl gelesener Diskblöcke und Gesamtzahl der Puffertreffer (d. mit der Anzahl aktiver Serverprozesse. Die angezeigten Ergebnisse hinken der tatsächlichen Aktivität also hinterher. damit Sie brauchbare Ergebnisse von den Auswertungsfunktionen erhalten.Überwachung der Datenbankaktivität Anmerkung Da die Parameter stats_command_string. führen Sie die Anfragen außerhalb eines Transaktionsblocks aus. Sie müssen einen oder mehrere dieser Parameter anschalten. Die Statistiken werden sich also nicht ändern.2. um die aktuellen Aktivitäten zu überwachen.) Eine Zeile pro Datenbank. bevor er auf einen neuen Befehl vom Client wartet. Für jeden Index in der aktuellen Datenbank.1: Standard-Statistiksichten 309 . Wie pg_stat_all_tables.h. Gesamtzahl der von jeder Scan-Art zurückgegebenen Tupel und die Gesamtzahl eingefügter. werden in der Ausgangskonfiguration keine Statistiken gesammelt. Jeder Serverprozess übermittelt neue Zugriffszählungen an den Kollektor. aber nur für Benutzertabellen. aber nur für Systemtabellen. aber nur für Indexe von Benutzertabellen. (Beachten Sie. die vermieden wurden. ohne sich Sorgen zu machen. Wie pg_stat_all_tables. welche in Tabelle 23. die Gesamtzahl gelesener Indextupel und die Gesamtzahl erfolgreich gelesener Heap-Tupel. die Gesamtzahl der Indexscans mit diesem Index. dass. Die aktuelle Anfrage ist nur für Superuser zugänglich. er zuerst die zuletzt vom Kollektorprozess ermittelten Gesamtwerte holt und diesen Schnappschuss dann für alle Statistiksichten und -funktionen bis zum Ende seiner aktuellen Transaktion verwendet.

dann erfüllt der Cache die meisten Leseanfragen ohne einen Kernelaufruf zu benötigen. aber nur für Benutzertabellen. (Beachten Sie.1: Standard-Statistiksichten (Forts. Diese Funktionen sind in Tabelle 23. (Gegenwärtig sind ces keine Systemsequenzen definiert. aber nur mit Benutzersequenzen. haben die Datenbank-OID als Argument.) Die indexspezifischen Statistiken sind nützlich. die Anzahl der gelesenen Diskblöcke und Puffertreffer für die zugehörige TOAST-Tabelle dieser Tabelle (falls vorhanden) und die Anzahl der gelesenen Diskblöcke und Puffertreffer für den Index der TOAST-Tabelle. Tabelle 23. aber nur für Indexe von Systemtabellen. die die selben Statistikfunktionen verwenden. Wie pg_statio_all_indexes. die den Standardsichten zugrunde liegen. können Sie selbst Anfragen schreiben. welche von eins bis zur Anzahl der aktiven Serverprozesse zählen.) pg_statio_user_seque nces Wie pg_statio_all_sequences. Wenn Sie die Statistiken auf andere Weise betrachten wollen. also ist diese Sicht immer leer.2 aufgelistet.Kapitel 23 Sichtname pg_statio_all_tables Beschreibung Für jede Tabelle in der aktuellen Datenbank. aber nur mit Systemsequenzen.) Die Funktionen. Wie pg_statio_all_tables. Wie pg_statio_all_tables. Die Funktionen für Tabellen. die Anzahl gelesener Diskblöcke ces und Puffertreffer in dieser Sequenz.2: Statistikfunktionen 310 . aber nur für Indexe von Benutzertabellen.und Indexstatistiken verlangen die OID einer Tabelle oder eines Index. um zu ermitteln. Die pg_statio_-Sichten sind hauptsächlich nützlich. die Gesamtzahl der aus dieser Tabelle gelesenen Diskblöcke. die Anzahl der gelesenen Diskblöcke und s Puffertreffer für diesen Index. Wenn die Anzahl der tatsächlich gelesenen Diskblöcke wesentlich kleiner ist als die Anzahl der Puffertreffer. um die Effektivität des Puffercache zu ermitteln. pg_statio_sys_tables pg_statio_user_table s pg_statio_all_indexe Für jeden Index in der aktuellen Datenbank. pg_statio_all_sequen Für jedes Sequenzobjekt in der aktuellen Datenbank. aber nur für Systemtabellen. die über Serverprozesse berichten. die Anzahl der gelesenen Diskblöcke und Puffertreffer für alle Indexe dieser Tabelle. die Datenbankstatistiken berichten. Die Funktionen. verlangen die laufende Nummer eines Serverprozesses als Argument. pg_statio_sys_indexe s pg_statio_user_index es Wie pg_statio_all_indexes. Funktion pg_stat_get_db_numbackends(oid) pg_stat_get_db_xact_commit(oid) pg_stat_get_db_xact_rollback(oid) Ergebnistyp integer bigint bigint Beschreibung Anzahl aktiver Serverprozesse für die Datenbank Anzahl erfolgreich abgeschlossener Transaktionen in der Datenbank Anzahl zurückgerollter Transaktionen in der Datenbank Anzahl angeforderter Diskblock-Lesevorgänge für die Datenbank Anzahl im Cache gefundener Diskblöcke für die Datenbank pg_stat_get_db_blocks_fetched(oid) bigint pg_stat_get_db_blocks_hit(oid) bigint Tabelle 23. pg_statio_sys_sequen Wie pg_statio_all_sequences. welche Indexe verwendet werden und wie effektiv sie sind. die Anzahl der Puffertreffer. dass diese Funktionen nur über Tabellen und Indexe in der aktuellen Datenbank berichten können.

wenn es ein Index ist. pg_stat_get_tuples_returned(oid) bigint pg_stat_get_tuples_fetched(oid) bigint pg_stat_get_tuples_inserted(oid) pg_stat_get_tuples_updated(oid) pg_stat_get_tuples_deleted(oid) pg_stat_get_blocks_fetched(oid) pg_stat_get_blocks_hit(oid) pg_stat_get_backend_idset() bigint bigint bigint bigint bigint set of integer integer integer oid pg_backend_pid() pg_stat_get_backend_pid(integer) pg_stat_get_backend_dbid(integer) pg_stat_get_backend_userid(integer oid ) pg_stat_get_backend_activity (integer) pg_stat_reset() text boolean Tabelle 23. eine Zeile für jeden aktiven Serverprozess zu erzeugen. den Index oder die Datenbank. wenn es ein Index ist.Überwachung der Datenbankaktivität Funktion pg_stat_get_numscans(oid) Ergebnistyp bigint Beschreibung Wenn das Argument eine Tabelle ist. Prozessnummer des zu dieser Sitzung gehörenden Serverprozesses Prozessnummer des angegebenen Serverprozesses Datenbank-OID des angegebenen Serverprozesses Benutzer-ID des angegebenen Serverprozesses Aktiver Befehl des angegebenen Serverprozesses (NULL-Wert. wenn es ein Index ist. weil der Kernel auch noch einen Cache hat.2: Statistikfunktionen (Forts. die Anzahl der von sequenziellen Scans gelesenen gültigen (nicht abgelaufenen) Tabellentupel. können Sie folgende Anfrage verwenden: SELECT pg_stat_get_backend_pid(s. wenn der aktuelle Benutzer kein Superuser ist) Setzt alle gesammelten Statistiken zurück.backendid) AS current_query FROM (SELECT pg_stat_get_backend_idset() AS backendid) AS s. pg_stat_get_backend_activity(s. die Anzahl der von Indexscans gelesenen gültigen Tabellentupel Anzahl der in die Tabelle eingefügten Tupel Anzahl der in der Tabelle aktualisierten Tupel Anzahl der aus der Tabelle gelöschten Tupel Anzahl angeforderter Diskblock-Lesevorgänge für die Tabelle oder den Index Anzahl im Cache gefundener Diskblöcke für die Tabelle oder den Index Menge der aktuell aktiven Serverprozessnummern (von 1 bis zur Anzahl der aktiven Serverprozesse). die Anzahl ausgeführter Indexscans Wenn das Argument eine Tabelle ist. 311 . aber die Anzahl der eigentlichen physikalischen Lesevorgänge ist normalerweise niedriger.) Anmerkung pg_stat_get_db_blocks_fetched minus pg_stat_get_db_blocks_hit ergibt die Anzahl der vom Kernel ausgeführten read()-Aufrufe für die Tabelle. die Anzahl der von Indexscans gelesenen Indextupel Wenn das Argument eine Tabelle ist.backendid) AS procpid. die Anzahl ausgeführter sequentieller Scans. Um zum Beispiel die PID und die aktuelle Anfrage für jeden Serverprozess anzuzeigen. Die Funktion pg_stat_get_backend_idset bietet einen praktische Möglichkeit. Siehe Verwendungsbeispiel im Text. die Anzahl der von sequenziellen Scans gelesenen Tupel.

3 Ansehen der Sperren Ein weiteres nützliches Werkzeug.3: Spalten von pg_locks 312 . Jede Transaktion hält für ihre gesamte Dauer eine exklusive Sperre für ihre Transaktionsnummer. Das kann erst erfolgreich sein. wenn das sperrbare Objekt eine Relation ist. Beachten Sie jedoch. ist die Systemtabelle pg_locks. Diese Spalte kann mit der Spalte oid der Systemtabelle pg_class verbunden werden. eine geteilte Sperre für die Nummer der anderen Transaktion zu erhalten. dass eine Transaktion speziell auf eine andere warten muss. um weitere Informationen über die Tabelle zu erhalten. eine Tabelle) oder eine Transaktionsnummer. oder der NULLWert. Anmerkung Wenn auf die Sicht pg_locks zugegriffen wird. Mit ihr können Datenbankadministratoren Informationen über die aktuell ausstehenden Sperren ansehen. Die Nummer der Transaktion oder der NULL-Wert. ohne die Sperrenverwaltung länger als notwendig zu blockieren. dass diese Transaktion auf die Transaktionnummer der Transaktion wartet. erscheint in der Sicht. (Beachten Sie. dass die Sicht konsistente Ergebnisse liefert.Kapitel 23 23. bei denen die Spalte database gleich der OID der aktuellen Datenbank oder null ist) funktioniert. Dieses Spalte kann mit der Spalte oid der Systemtabelle pg_database verbunden werden. wenn das sperrbare Objekt eine Transaktionsnummer ist. um die Datenbankaktivität zu überwachen. Tabelle 23. wenn das sperrbare Objekt eine Transaktionsnummer ist. die die Sperre gerade hält. Die OID der Datenbank. in dem sie versucht. nicht aber auf Zeilenebene enthält. um: ❏ alle aktuell ausstehenden Sperren. dass das nur für Relationen in der aktuellen Datenbank (jene. Wenn es sich ergibt.) Spaltenname relation Datentyp oid Beschreibung Die OID der gesperrten Relation oder der NULL-Wert.B. ❏ die Tabelle in der aktuellen Datenbank mit den meisten nicht gewährten Sperren (welche eine Quelle möglicher Konflikte zwischen Clients sein könnten) zu ermitteln. um weitere Informationen über die Datenbank des sperrbaren Objekts zu erhalten. tut sie das. dass diese Sicht nur Sperren auf Tabellenebene. dann ist dieses Feld 0. Die Sicht pg_locks enthält eine Zeile pro sperrbares Objekt und angeforderten Sperrmodus. Wenn die Sperre für eine globale Tabelle ist. Weitere Informationen über Sperren und Mehrbenutzerbetrieb in PostgreSQL finden Sie in Kapitel 12. database oid transaction xid Tabelle 23. Nichtsdestotrotz könnte es sich auf die Leistung der Datenbank auswirken. ❏ Die Auswirkung von Sperrkonflikten auf die Gesamtleistung der Datenbank sowie das Ausmaß des Zusammenhangs zwischen der Konflikthäufigkeit und dem Datenbankverkehr zu ermitteln. Das versichert. wenn diese Sicht oft angeschaut wird. in der das sperrbare Objekt liegt. wenn mehrere Transaktionen Sperren halten oder auf solche warten. werden die internen Datenstrukturen der Sperrenverwaltung einen Augenblick lang gesperrt und es wird davon für die Sicht eine Kopie gemacht. Ein sperrbares Objekt kann also mehrfach auftauchen. Diese Fähigkeit kann zum Beispiel verwendet werden. alle Sperren für eine bestimmte Tabelle oder alle von einer bestimmten PostgreSQL-Sitzung gehaltenen Sperren zu sehen. Wenn eine Transaktion auf eine Zeilensperre wartet.3 zeigt die Definition der Spalten von pg_locks. alle Sperren in einer bestimmten Datenbank. wenn die andere Transaktion zu Ende geht und ihre Sperren freigibt. Ein sperrbares Objekt ist entweder eine Relation (z.

3: Spalten von pg_locks (Forts. Die wartende Sitzung schläft. Wenn Sie den Statistikkollektor angeschaltet haben.Überwachung der Datenbankaktivität Spaltenname pid Datentyp integer Beschreibung Die Prozess-ID des PostgreSQL-Serverprozesses. dass eine andere Sitzung für dasselbe sperrbare Objekt eine Sperre hält. mode isgranted text boolean Tabelle 23. die mit der gewünschten in Konflikt steht. zu erhalten. die die Sperre gesetzt hat oder versucht.) 313 . kann diese Spalte mit der Sicht pg_stat_activity verbunden werden. um weitere Informationen über die Sitzung. diese Sperre setzen zu können. sie zu setzen. bis die andere Sperre aufgehoben wird (oder eine Verklemmung entdeckt wird). Eine einzelne Sitzung kann zu jeder Zeit nur auf höchstens eine Sperre warten. wenn die Sperre von dieser Sitzung gehalten wird. der zu der Sitzung gehört. woraus folgt. Ist wahr. dass diese Sitzung gegenwärtig darauf wartet. Falsch zeigt an. Weitere Informationen über die unterschiedlichen Sperrmodi in PostgreSQL finden Sie in Kapitel 12. die die Sperre hält oder darauf wartet. Der Modus der gewünschten oder gehaltenen Sperre.

.

verwenden Sie eine Anfrage wie die folgende. Um lange Spaltenwerte zu speichern gibt es außerdem eine zur Tabelle gehörende TOAST-Tabelle. In einer Datenbank.relfilenode) gebildet wird. Außerdem kann es Indexe für die eigentliche Tabelle geben.) Um den von TOAST-Tabellen belegten Platz anzuzeigen. In der aktuellen Version hat der Datenbankadministrator nicht viel Kontrolle über die Struktur und die Verteilung der Datenbankdateien und daher ist dieses Kapitel eher informativ und kann Ihnen einige Ideen geben. 315 . relfilenode | relpages -------------+---------16806 | 60 (1 row) Jede Seite (page) ist normalerweise 8 kB groß.24 24 Überwachung des Festplattenplatzverbrauchs Dieses Kapitel bespricht. Sie können den Festplattenplatzverbrauch auf dreierlei Arten überwachen: mit psql auf Basis von VACUUMInformationen. wobei Sie die relfilenode-Nummer des Heaps einsetzen müssen (welche mit obiger Anfrage ermittelt wird): SELECT relname.1 Ermittlung des Festplattenplatzverbrauchs Zu jeder Tabelle gehört eine Heap-Datei. in der neulich VACUUM oder ANALYZE ausgeführt wurde. wie Sie den Speicherplatzverbrauch mit Betriebssystemwerkzeugen verwalten können. und einen Index für die TOASTTabelle. 24. (Erinnern Sie sich. wo die meisten Daten gespeichert sind. relpages FROM pg_class WHERE relname = 'customer'. können Sie mit psql durch Anfragen den Platzverbrauch einer jeden Tabelle sehen: SELECT relfilenode. deren. relpages FROM pg_class WHERE relname = 'pg_toast_16806' OR relname = 'pg_toast_16806_index' ORDER BY relname. Name aus der OID der Tabelle (genau gesagt eigentlich pg_class. mit psql und den Werkzeugen in contrib/dbsize sowie von der Kommandozeile mit den Werkzeugen in contrib/oid2name. wie Sie den Festplattenplatzverbrauch eines PostgreSQL-Datenbanksystems überwachen können. dass relpages nur von VACUUM und ANALYZE aktualisiert wird.

nicht aber der Tabellen selbst. die Größe einer Tabelle oder Datenbank aus psql zu ermitteln. Weitere Informationen dazu finden Sie in der Dokumentation zu initdb und in Abschnitt 18. In der Datei README. Aber beachten Sie. relname | relpages ----------------------+---------customer_id_indexdex | 26 Mit diesen Informationen können Sie leicht Ihre größten Tabellen und Indexe finden: SELECT relname. Um zu verhindern.relname. Ein Skript. dass die Festplatte nicht voll wird.indexrelid ORDER BY c2.oid = i.relpages FROM pg_class c. indem Sie andere Sachen löschen. können Sie einige der Datenbankdateien auf andere Dateisysteme verschieben und von der ursprünglichen Stelle einen symbolischen Link erzeugen. die es Ihnen erlauben. eine Wiederherstellung würde alles wieder an einer einzigen Stelle ablegen.Kapitel 24 relname | relpages ----------------------+---------pg_toast_16806 | 0 pg_toast_16806_index | 1 Sie können ganz leicht auch Indexgrößen anzeigen: SELECT c2. Dieser fehlerhafte Zustand würde entdeckt werden und der Datenbankserver würde sich weigern zu starten. bevor Sie etwas unternehmen. bis die Festplatte voll ist. um den Festplattenplatzverbrauch anzuzeigen. pg_index i WHERE c. Wenn Sie keinen zusätzlichen Platz auf der Festplatte schaffen können.relname = 'customer' AND c. pg_class c2. kann das zur Verfälschung der Datenbankindexe. Sie können auch contrib/oid2name verwenden. 24.oid = i.relname. 316 . Wenn die Festplatte voll ist. führen. dass pg_dump in solchen Situationen die Verteilung der Dateien nicht sichern kann.5.2 Verhalten bei voller Festplatte Die wichtigste Aufgabe für den Datenbankadministrator bei der Überwachung des Festplattenplatzverbrauchs ist. Also warten Sie nicht. können Sie WAL-Dateien und Datenbanken bei der Erzeugung gleich an andere Stellen verlegen. das für jede Datenbank den Platzverbrauch anzeigt. wenn sie fast voll sind. dann kann eine volle Festplatte bei der Datenbankinitialisierung zu verfälschten oder unvollständigen WAL-Dateien führen. Wenn die WAL-Dateien auf der gleichen Festplatte sind (was in der Standardeinstellung der Fall ist). ist dort enthalten. Tipp Einige Dateisysteme haben eine enorm verschlechterte Leistungsfähigkeit. relname | relpages ----------------------+---------bigtable | 3290 customer | 3144 contrib/dbsize lädt Funktionen in Ihre Datenbank.indrelid AND c2. relpages FROM pg_class ORDER BY relpages DESC.oid2name in diesem Verzeichnis finden Sie Beispiele. ohne VACUUM oder ANALYZE ausführen zu müssen. c2. sicherzustellen. dass Ihnen der Festplattenplatz ausgeht.

in Mehrbenutzerumgebungen können die Commits vieler Transaktionen mit einem einzigen fsync()-Aufruf für die Logdatei erledigt werden. Der nächste Nutzen ist die Konsistenz der Datenseiten. 25. Indexzeilen. Die Wahrheit ist. Eine detaillierte Beschreibung davon kann in den meisten (wenn nicht gar allen) Büchern über die Transaktionsverarbeitung gefunden werden. Vor WAL konnte ein Absturz beim Schreiben folgende Konsequenzen haben: 1. werden zuerst aus den Logaufzeichnungen wiederhergestellt (das ist Vorwärts-Wiederherstellung. total zerstörter Inhalt von Tabellen. da nur die Logdatei am Ende jeder Transaktion auf die Festplatte zurückgeschrieben werden muss.1 Nutzen aus WAL Der erste offensichtliche Nutzen aus WAL ist. um die Konsistenz der Seite für den Fall einer Wiederherstellung nach einem Absturz zu garantieren. dass PostgreSQL vor WAL die Konsistenz im Falle eines Absturzes nicht garantieren konnte. WAL sichert den gesamten Datenseiteninhalt im Log. die auf nicht existierende Tabellenzeilen zeigen 2. wenn das notwendig ist. Wenn man so vorgeht. Zusammengefasst ist das zentrale Konzept von WAL. UNDO). weil man weiß. muss man die Datenseiten nicht nach jeder Transaktion auf die Festplatte zurückschreiben. auch REDO genannt) und dann werden Änderungen aus nicht abgeschlossenen Transaktionen aus den Datenseiten entfernt (Rückwärts-Wiederherstellung. die noch nicht auf die Datenseiten übertragen wurden. dass die Anzahl der Schreibvorgänge auf die Festplatte erheblich verringert wird. bei Splitoperationen verlorene Indexzeilen 3. dass Änderungen in Datendateien (wo Tabellen und Indexe abgelegt sind) erst geschrieben werden dürfen.oder Indexseiten wegen unvollständig geschriebener Datenseiten Probleme mit den Indexen (Probleme 1 und 2) könnten möglicherweise durch zusätzliche fsync()-Aufrufe behoben werden. wenn diese Änderungen geloggt wurden. wodurch das Synchronisieren der Logdatei viel effizienter wird als das Rückschreiben der Datenseiten. das heißt. 317 . Außerdem wird die Logdatei sequenziell geschrieben. nachdem Sie im Log aufgezeichnet wurden und die Logeinträge auf ein permanentes Speichermedium geschrieben wurden. wie der letzte Fall ohne WAL zu ausgeräumt werden kann. aber es ist nicht klar.25 25 Write-Ahead Logging (WAL) Write-Ahead Logging (WAL) ist eine Standardtechnik für das Aufzeichnen (Loggen) von Transaktionen. dass man im Falle eines Absturzes die Datenbank mit dem Log wiederherstellen kann: Änderungen.

3 WAL-Konfiguration Es gibt mehrere WAL-Konfigurationsparameter. an denen es garantiert ist. Um diese Methode zu verwenden. Einfügen von doppelten Primärschlüsseln usw. um den Transaktionsstatus aufzuzeichnen. wenn die Datenbankdateien kopiert würden.) Mit UNDO wird es auch möglich sein. da die Einträge nur für ein oder zwei Checkpoint-Intervalle aufbewahrt werden müssen. Sicherungspunkte zu implementieren. die auf die Leistung der Datenbank Auswirkung haben. wenn Transaktions-UNDO gewünscht wird). Zum Zeitpunkt des Checkpoints werden alle schmutzigen Datenseiten auf die Festplatte zurückgeschrieben. muss pg_clog nicht mehr permanent sein. Gegenwärtig macht jeder Fehler die ganze Transaktionen ungültig und erfordert.2 Zukünfiger Nutzen Die UNDO-Operation ist nicht implementiert. Dieser Abschnitt beschreibt die Verwendung. (Wenn Datensicherung und -wiederherstellung auf WAL-Basis implementiert ist. 25. Schauen Sie in Abschnitt 16.Kapitel 25 25. schon auf der Festplatte sind. Eine Schwierigkeit. alte pg_clog-Einträge ewig zu behalten. da es viele Schnappschüsse von Diskseiten enthält. so lang wie die längstmögliche Transaktion. man müsste auch eine Methode zum Kopieren der Datendateien entwickeln (die Kopierbefehle im Betriebssystem sind nicht ausreichend). es wird beim Herunterfahren des Servers gelöscht werden können. werden alle Segmente vor dem Redo-Eintrag nicht mehr benötigt und können wiederverwendet oder entfernt werden. Um diese Methode zu implementieren müssten das Erzeugen und das Löschen von Datendateien und Indexen geloggt werden. wird irgendeine Form von komprimiertem WAL-Format benötigt werden. WAL bietet die Möglichkeit für eine neue Methode für online Datenbanksicherung und wiederherstellung. bei welchem Eintrag im Log (der so genannte Redo-Eintrag) die REDO-Operation starten soll. dass WAL-Einträge für beträchtliche Zeiträume gespeichert werden (z. Jedes Mal. müsste man in regelmäßigen Abständen die Datendateien auf eine andere Festplatte. könnten die alten Logdateien entfernt werden. Das ist gegenwärtig kein ernsthaftes Problem. Das gegenwärtige Format der WAL-Einträge ist ziemlich umfangreich. aber um diese zukünftigen Nutzen zu erreichen. ist. Checkpoints sind Punkte in der Folge von Transaktionen. nach.) Der Server startet in regelmäßigen Abständen einen besonderen Prozess. dass die Transaktion abgebrochen wird. die davor an Datendateien gemacht wurden. die der Umsetzung dieser möglichen Nutzen im Weg steht. dann würden die Logsegmente vor dem Wiederverwenden oder Entfernen archiviert werden. (Die Dringlichkeit dieser Angelegenheit wurde aber durch die Einführung einer segmentierten Speichermethode für pg_clog enorm verringert: Es ist nicht mehr notwendig. dass von abgebrochenen Transaktionen verursachte Änderungen immer noch Speicherplatz verbrauchen und dass immer noch eine permanente pg_clog-Datei benötigt wird.4 wegen Einzelheiten. um ungültige Transaktionsoperationen (Syntaxfehler durch Tippfehler in Befehlen. dass sie erfordern. dass alle Datendateien mit den vor dem Checkpoint geloggten Informationen aktualisiert wurden. und es wird ein besonderer Checkpoint-Eintrag in den Log geschrieben. wie man Konfigurationsparameter setzt. da Transaktionsnummern nicht wiederverwendet werden können. wie bei einer Wiederherstellung nach einem Absturz.B. Wenn UNDO implementiert ist. Das bedeutet. ein Bandlaufwerk oder einen anderen Rechner kopieren und außerdem die WALLogdateien archivieren. Nachdem ein Checkpoint erzeugt wurde. Die Kopie der Datenbankdateien und die archivierten Logdateien könnten zur Wiederherstellung verwendet werden. um den nächsten Checkpoint zu erzeugen.) teilweise zurückrollen zu können und gleichzeitig die in der Transaktion vor dem Fehler durchgeführten Operationen fortführen oder die Transaktion abschließen zu können. Ein Checkpoint wird alle checkpoint_segments Logsegmente oder alle checkpoint_ 318 . da alle Änderungen. Im Fall eines Absturzes kann man daher wissen.

Beachten Sie. WAL-Änderungen auf die Festplatte zurückzuschreiben. aber es ist ziemlich plattformabhängig. dass die Daten der Transaktion auf einem permanenten Speichermedium angekommen sind. in den Kernelcache verschieben). was hieße. je nachdem. damit sichergestellt wird. Beachten Sie. Auf Systemen mit großem Logausgabevolumen kann es sein. das vermeidet die Verzögerung. um einen neuen Eintrag in die WAL-Puffer im Shared Memory zu stellen. wenn WAL-Puffer geschrieben werden. was genau der Wert ist. wie viele Mikrosekunden ein Serverprozess nach dem Schreiben eines Commit-Eintrags mit LogInsert. werden die unbenötigten Segmentdateien nicht wiederverwendet. dass ein neues Logsegment erzeugt werden muss. damit sie alle mit einer einzigen Operation zurückgeschrieben werden können. Die Standardeinstellung ist 3 Segmente bzw. um die Konsistenz der Datenseiten sicherzustellen. um die schmutzigen Datenseiten häufiger zurückzuschreiben. 319 . um die nächsten Segmente in der durchnummerierten Reihe zu werden). Diese Verzögerung erlaubt es anderen Serverprozessen. daher muss diese Operation so schnell wie möglich sein. indem man den Konfigurationsparameter wal_buffers verändert. Außerdem wird. werden Checkpoints häufiger gemacht. Damit können Sie die Speicherplatzanforderungen von WAL abschätzen. weil LogInsert bei jeder Datenbankoperation auf unterster Ebene (zum Beispiel das Einfügen einer Zeile) verwendet wird. Der Parameter commit_delay bestimmt. Wenn man den Parameter wal_debug auf einen Wert verschieden von null setzt. was eher kommt. Wenn es.Write-Ahead Logging (WAL) timeout Sekunden. dass weitere Sitzungen ihre Transaktionen in Kürze abschließen werden. ihre Commit-Einträge zum Log hinzuzufügen. Das ist aber nicht wünschenswert. welche im Großen und Ganzen jeweils beim erfolgreichen Abschluss einer Transaktion ausgeführt wird. Diese Einstellung könnte in der Zukunft durch einen allgemeineren Mechanismus ersetzt werden. Ein kleineres Checkpoint-Intervall erhöht folglich die in den Log geschriebene Datenmenge. Man kann auch mit dem SQL-Befehl CHECKPOINT einen Checkpoint direkt erzwingen. wenn fsync nicht angeschaltet ist oder wenn weniger als commit_siblings andere Sitzungen gegenwärtig in aktiven Transaktionen sind.und Ausgabeaktivität auf der Festplatte erhöht wird. durch eine kurzzeitige Spitze bei der Logausgabe. mehr als 2 * checkpoint_segments + 1 Segmentdateien gibt. Der Parameter wal_sync_method bestimmt. Wenn es keinen Platz für einen neuen Eintrag gibt. LogInsert wird verwendet. 300 Sekunden. wird jede LogInsertund LogFlush-Operation im Serverlog vermerkt. aber vor der LogFlush-Operation schlafen wird. erzeugt. sondern gelöscht. wir ermutigen Sie. bis das System wieder unter die Grenze kommt. nicht mehr benötigte Logsegmente wiederverwendet (umbenannt. dass. Wenn man checkpoint_segments und/oder checkpoint_timeout verringert. Die Optionen sollten in Sachen Zuverlässigkeit gleichwertig sein. was noch mehr Zeit in Anspruch nimmt. dass WAL-Puffer von LogInsert geschrieben werden müssen. Das ermöglicht schnellere Wiederherstellung nach einem Absturz (da weniger Arbeit wiederhergestellt werden muss). Und noch schlimmer ist. Normalerweise sollten WAL-Puffer von einer LogFlush-Operation zurückgeschrieben werden. dass LogFlush nicht oft genug ausgeführt wird. Ein höherer Wert erfordert entsprechend mehr Shared Memory. Gute Werte für diese Parameter sind noch nicht ganz klar. Es gibt immer mindestens eine Segmentdatei zu 16 MB und normalerweise gibt es höchstens 2 * checkpoint_segments + 1 Dateien. Es gibt zwei häufig verwendete WAL-Funktionen: LogInsert und LogFlush. wenn es unwahrscheinlich ist. welche die schnellste ist. Die voreingestellte Zahl der WAL-Puffer ist 8. um zu verhindern. Man muss das jedoch abwägen gegen die erhöhten Kosten. Dieses Schlafen wird nicht durchgeführt. dass die Genauigkeit einer Schlafoperation auf den meisten Plattformen zehn Millisekunden ist. dass dieser Parameter irrelevant ist. muss LogInsert einige gefüllte WAL-Puffer zurückschreiben (bzw. wenn fsync ausgeschaltet wurde. zu experimentieren. Gegenwärtig macht es keinen Unterschied. bei der ersten Modifikation einer Datenseite nach einem Checkpoint der gesamte Seiteninhalt geloggt. Auf solchen Systemen sollte man die Anzahl der WAL-Puffer erhöhen. dass jeder Wert für commit_delay zwischen 1 und 10000 Mikrosekunden die gleiche Wirkung haben würde. während auf den betroffenen Datenseiten eine exklusive Sperre liegt. das dann auch dazu führen kann. wodurch teilweise das Ziel eines kleineren Intervalls zunichte gemacht wird und auf jeden Fall die Eingabe. Gewöhnlich werden alte. wie PostgreSQL den Kernel darum bittet.

4 Interna WAL ist automatisch angeschaltet. Das ist noch nicht implementiert. Die Verwendung von pg_control. aber es sollte sehr lange dauern.h beschrieben. außer für zusätzlichen Festplattenplatz für die WAL-Logs zu sorgen und die nötigen Feinabstimmungen vorzunehmen (siehe Abschnitt 25. Es ist von Vorteil. jede 16 MB groß. Der Verbrauch an Shared Memory hängt von der Anzahl der Puffer ab. indem man das Verzeichnis pg_xlog an eine andere Stelle verschiebt (natürlich während der Server nicht läuft) und einen symbolischen Link von der ursprünglichen Stelle in $PGDATA an die neue Stelle erzeugt. obwohl sie tatsächlich die Daten nur in den Cache gestellt und nicht wirklich auf die Platte geschrieben haben. wenn der Log auf einer anderen Festplatte als die anderen Datenbankdateien ist. WAL-Logs werden im Verzeichnis $PGDATA/pg_xlog gespeichert. Das Ziel von WAL. als ein Satz Segmentdateien. bevor Datenbanksätze geändert werden. liest der Server daher zuerst pg_control und dann den Checkpoint-Eintrag. Segmentdateien erhalten stetig steigende Nummern als Namen. Wenn eine Wiederherstellung ansteht. die für PostgreSQL die WAL-Logdateien speichern. sollten wir eigentlich die existierenden Logsegmente in umgekehrter Reihenfolge – vom neusten zum ältesten – lesen und so den letzten Checkpoint finden. die fälschlicherweise Schreibvorgänge an den Kernel als erfolgreich melden. sie werden durch leichtgewichtige Sperren geschützt. Ein Stromausfall kann in solchen Fällen immer noch zu Datenzerstörung ohne Chance auf Wiederherstellung führen.3). Die voreingestellte Größe der WAL-Puffer ist 8 Puffer zu je 8 kB. Administratoren sollten sich versichern. Nachdem ein Checkpoint erzeugt und der Log zurückgeschrieben wurde. sicherzustellen. kann von Festplattenlaufwerken untergraben werden. aber um mit einer möglichen Verfälschung von pg_control fertig zu werden. dass der Log geschrieben wird. Der Kopf eines Logeintrags ist in access/ xlog. keine solchen falschen Ergebnisse liefern. dann führt er die REDO-Operation aus. bis die verfügbaren Nummern aufgebraucht sind. Da bei der ersten Seitenveränderung nach einem Checkpoint der gesamte Inhalt einer Datenseite im Log gesichert wird. können alle Änderungen nach dem Checkpoint in einen konsistenten Zustand wiederhergestellt werden. Das kann man erreichen. Die Nummern haben keine Überlaufvorrichtung. wird die Position des Checkpoints in der Datei pg_control gesichert. dass die Festplatten. beschleunigt den Wiederherstellungsvorgang. der Administrator muss nichts weiter unternehmen. der Inhalt des Eintrags hängt vom Typ des geloggten Ereignisses ab. indem er von der im Checkpoint-Eintrag angegebenen Logposition vorwärts verfährt. um die Checkpoint-Position zu ermitteln.Kapitel 25 25. Die WAL-Puffer und -Kontrollstrukturen sind im Shared Memory und werden von den Serverkindprozessen verwaltet. also insgesamt 64 kB. Jedes Segment ist in 8 kB große Seiten aufgeteilt. 320 . beginnend mit 0000000000000000.

und dann das Testskript ausgeführt. Dadurch werden erst ein paar Hilfsdateien gebaut. dass jemand anders hinter Ihrem Rücken die Testergebnisse verändern könnte. dass die Interprozesskommunikation und die Sperren richtig arbeiten. 26. geben Sie ein gmake check während Sie sich im obersten Verzeichnis (oder in src/test/regress) befinden. wohingegen die parallele Methode mehrere Serverprozesse startet. um Tests in Gruppen gleichzeitig laufen zu lassen. (Das einzige mögliche “Sicherheitsproblem” hier ist. Am Ende sollten Sie etwas wie ====================== All 77 tests passed. Sie testen standardisierte Operationen und auch die erweiterten Fähigkeiten von PostgreSQL.1 Die Tests ausführen Die Regressionstests können mit einem schon installierten Server ausgeführt werden oder mit einer temporären Installation im Quelltextverzeichnis. Siehe Abschnitt 26. Um die Regressionstests nach dem Compilieren aber vor der Installation auszuführen. Außerdem gibt es eine “parallele” und eine “sequenzielle” Methode. 321 . Das parallele Testen gibt Vertrauen. Die sequenzielle Methode führt jedes Testskript nacheinander aus. welchen Tests fehlgeschlagen sind. Verwalten Sie also Ihre Zugriffsrechte weise. ====================== sehen oder ansonsten eine Mitteilung darüber.3 unten für mehr. Aus historischen Gründen werden die sequenziellen Tests normalerweise mit einer bestehenden Installation ausgeführt und die parallele Methode mit einer temporären Installation.) Alternativ können Sie die Tests nach der Installation ausführen. aber dafür gibt es keine technischen Gründe.1 sind die Regressionstests für jede offizielle Version aktuell. wie einige Triggerfunktionen als Beispiel. um die Tests durchzuführen.26 26 Regressionstests Die Regressionstests sind eine umfassende Testsammlung für die SQL-Implementierung in PostgreSQL. Seit PostgreSQL 6.

joeuser joeuser$ cd oberstes build verzeichnis joeuser$ gmake check Tipp Die parallelen Tests starten eine ganze Zahl von Prozessen unter Ihrem Benutzerzugang. Machen Sie stattdessen das Testverzeichnis durch einen anderen Benutzer schreibbar. dass sie den Server auf der lokalen Maschine mit der Standardportnummer kontaktieren können. ansonsten erhalten Sie in den Tests willkürlich scheinende Misserfolge.2 Testauswertung Auf einigen ordnungsgemäß installierten und voll funktionsfähigen PostgreSQL-Installationen könnten trotzdem einige Tests nicht “erfolgreich” sein. wenn sie zu viele Kindprozesse gleichzeitig zu verwalten hat. ein psql und einen Shell-Elternprozess für psql für jedes Testskript. Wenn ein Test als nicht bestanden berichtet wird. sollten Sie immer die Unterschiede zwischen den erwarteten und den tatsächlichen Ergebnissen betrachten. dann können Sie die Datei src/test/regress/parallel_schedule bearbeiten. Gegenwärtig ist das Höchste 20 parallele Tests. Tipp Auf einigen Systemen wird die Bourne-kompatible Shell verwirrt. dann müssen Sie nicht nochmal ganz von vorne anfangen. Um die Tests nach der Installation (siehe Kapitel 14) auszuführen. 26. können Sie wie oben beschrieben den Testplan der parallelen Tests verändern. initialisieren Sie das Datenverzeichnis und starten den Server. wodurch die Ergebnisse empfindlich für kleine Unterschiede sind. melden Sie sich als der Benutzer an und starten Sie die Tests. Wenn Ihr System eine Begrenzung der Prozesse pro Benutzer hat. Dadurch kann es vorkommen. was 60 Prozesse bedeutet: ein Serverprozess. um die großen Paralleltestgruppen in kleinere Gruppen aufzuteilen. Sie 322 . falls nicht die Umgebungsvariablen PGHOST und PGPORT anderes aussagen. dass die Tests sich festfahren oder abbrechen. und geben Sie dann ein gmake installcheck Die Tests erwarten. Die Tests werden gegenwärtig mit einem einfachen diff-Vergleich mit den auf einem Bezugssystem erzeugten Ausgaben ausgewertet. Zum Beispiel: root# chmod -R a+w src/test/regress root# chmod -R a+w contrib/spi root# su .Kapitel 26 Anmerkung Weil diese Testmethode einen vorübergehenden Testserver startet. Wenn Sie die Grenze nicht erhöhen können. zum Beispiel: gmake SHELL=/bin/ksh check Wenn keine funktionierende Shell zur Verfügung steht. dann achten Sie darauf. dass diese Grenze mindestens um 75 liegt. In diesem Fall sollten Sie eine andere Bourne-kompatible Shell auf der Befehlszeile angeben. wegen plattformabhängigen Umständen wie die Darstellung von Fließkommazahlen oder Zeitzonenunterstützung. wie in Kapitel 16 erklärt. funktioniert Sie nicht als root (der Server startet nicht als root). Wenn Sie schon den Rest des Builds als root gemacht haben.

) 26. die aber durch manuelle Inspektion abgetan werden können. für alle Plattformen genaue Bezugsdateien zur Verfügung zu stellen.2. geben Sie Folgendes ein: env TZ=PST8PDT date 323 .) Wenn die bestehenden erwarteten Dateien eine Locale aus irgendwelchen Gründen nicht verarbeiten können. Diese Anfragen gehen davon aus.3 beschriebene Technik verwenden. ob Ihr System diese Unterstützung hat. was normalerweise ausreicht. ob das Ergebnis für die eingestellte Locale angebracht ist. dass der Zeitabstand zwischen gestern Mitternacht. kann es Unterschiede wegen der Sortierreihenfolge und eventuelle Folgefehler geben.diffs zum Anschauen gespeichert. indem sie alternative Ausgabedateien haben. heute Mitternacht und morgen Mitternacht jeweils genau 24 Stunden ist. wenn zwischendurch die Sommerzeit angefangen oder aufgehört hat. wenn er auf Erfolg prüft oder bei Misserfolg die Unterschiede berechnet. was nicht der Fall ist.2. dass der Testtreiber alle solche Dateien als gleichermaßen gültiges Testergebnis betrachtet. Das Testskript verwendet diff. Die Bezugsdateien wurden für die Zeitzone PST8PDT (Kalifornien) erzeugt und wenn die Tests nicht mit dieser Zeitzoneneinstellung durchgeführt werden. Das Namensschema ist testname_ziffer.out. Der Testtreiber wählt automatisch die am besten passende Datei aus. Die Tests suchen sich einfach die Ergebnisdatei. Der Testtreiber setzt die Umgebungsvariable PGTZ auf PST8PDT. Aber Ihr Betriebssystem muss die Zeitzone PST8PDT unterstützen oder die zeitzonenabhängigen Tests werden nicht bestehen. Irgendwelche Unterschiede werden für Sie in der Datei src/ test/regress/regression.Regressionstests könnten feststellen. 26. Denken Sie aber daran. dass die Regressionstests nicht entdecken können. Die Regressionstests sind darauf vorbereitet. Die eigentlichen Ausgabedateien der Tests sind im Verzeichnis src/test/regress/results.2 Unterschiede durch Locales Wenn Sie die Tests auf einem bestehenden Server ausführen. Nichtsdestotrotz versuchen wir.und Zeitergebnisse hängen von der Zeitzone ab.3 Unterschiede bei Datum und Zeit Einige Anfragen im Test horology schlagen fehl.out bewältigt viele andere Locales. Um zu überprüfen. Die eigentliche Ziffer ist unerheblich. (Oder wenn Sie wollen. Wenn die Testergebnisse plattformabhängig sind.2. der mit einer anderen Sortierreihenfolge als C initialisiert wurde. Fehlermeldungen kommen entweder vom PostgreSQL-Code oder aus dem Betriebssystem. können Sie diff auch selbst ausführen. um jede Ausgabedatei mit den erwarteten Ergebnissen in Verzeichnis src/ test/regress/expected zu vergleichen. sollten Sie stattdessen die in Abschnitt 26. dass alle Tests erfolgreich sind.1 Unterschiede bei Fehlermeldungen Einige der Regressionstests beinhalten absichtlich ungültige Eingabewerte. sollten aber ähnliche Informationen darstellen. die zusammen eine große Zahl von Locales abdecken. Die meisten Datums. ist die erwartete Ausgabedatei char. wird es zu Abweichungen kommen. Im letzteren Fall könnten die Fehlertexte zwischen verschiedenen Plattformen variieren. Diese Unterschiede verursachen scheinbar gescheiterte Tests. wenn Sie die Tests an einem Tag der Sommer/Winterzeitumstellung oder einen Tag davor oder danach ausführen. (Das bedeutet.out für die Locales C und POSIX und die Datei char_1. können Sie eine neue Datei hinzufügen. also können Sie erwarten. Beim Test char zum Beispiel. dass die Unterschiede nicht erheblich sind. die am besten passt. 26.

einzuschätzen.M10. da müssen Sie womöglich einen anderen Wert für PGTZ verwenden. 26. Dadurch gibt es stellenweise Unterschiede in den Testergebnissen. die zwei Tabellen mit dem Polygonschnittoperator (##) verbinden. 26. um die Zeitzonenregeln selbst einzustellen. wo diese Probleme auftreten. oder selbst bei unterschiedlichen Compiler-Optimierungsoptionen. die die empfohlene Syntax. Die Kartendaten sind als Polygone dargestellt. oder 3. SELECT * from iexit. export PGTZ Es scheint einige Systeme zu geben. Wenn die Zeitzone PST8PDT fehlt.2. dann ist das kein Anlass zur Sorge. dann werden einige Sichten erzeugt. sind die folgenden: SELECT * from street. (Sortierunterschiede können auch von Locale-Einstellungen verursacht werden.01. Am Anfang werden einige Tabellen erzeugt und mit geografischen Daten geladen. Kalifornien. Wenn man die Ergebnisse unterschiedlicher Plattformen vergleicht. Einige Anfragen zeigen aber doch Unterschiede bei der Sortierreihenfolge auf unterschiedlichen Plattformen. Einige Systeme mit älteren Zeitzonenbibliotheken wenden die Sommerzeitumstellung nicht auf Daten vor 1970 an. und dann wird eine Anfrage mit der Sicht ausgeführt. hat Ihr System die Zeit vielleicht in GMT ausgegeben. 26. Stelle nach dem Komma. Einige Systeme signalisieren Fehler bei den Funktionen pow() und exp().2. das die Anfrage nicht beachtet.4 Unterschiede bei Fließkommaberechnungen Einige Tests beinhalten die Berechnung von 64-bittigen Fließkommazahlen (double precision) aus Tabellenspalten. nicht akzeptieren.) Wenn Sie also einen Unterschied bei der Sortierreihenfolge sehen. um die tatsächliche Erheblichkeit dieser Unterschiede.0. erhalten wird normalerweise die gleiche Ergebnisreihenfolge auf allen Plattformen und daher ist das fehlende ORDER BY kein Problem. können Sie die Zeitzonenregeln selbst einstellen: PGTZ='PST8PDT7. In den meisten Fällen ist das streng genommen kein Programmfehler.6 Unterschiede bei der Zeilenreihenfolge Die könnte einige Unterschiede sehen. deren Eckpunkte ein Paar Zahlen vom Typ double precision (geografische Länge und Breite) sind. Wenn die Zeitzone PST8PDT nicht verfügbar ist. Da wird aber in der Praxis die gleichen Anfragen ausgeführt mit den gleichen Daten auf der gleichen Software sehen. außer wenn die Anfrage ein ORDER BY hat. Die SQL-Befehle. Aber sagen Sie uns trotzdem 324 . anders als von PostgreSQL gegenwärtig erwartet. welche meistens 10 Stellen nach dem Komma sind. Es sind Unterschiede bei den Ergebnissen mathematischer Funktionen mit Spalten vom Typ double precision beobachtet worden.5 Unterschiede bei Polygonen Einige Tests beinhalten geografische Daten über die Straßenkarte von Oakland/Berkeley. ergeben sich Unterschiede an der 2. Ein Vergleich mit dem menschlichen Auge ist vonnöten.05. Die Tests float8 und geometry sind besonders anfällig für kleine Unterschiede zwischen Plattformen.03'.M04. wodurch Zeiten in der Zeitzone PDT (entspricht Sommerzeit) vor 1970 als PST (Normalzeit) ausgegeben werden. und daher ist die Reihenfolge der Ergebniszeilen nach dem SQL-Standard nicht definiert.2.Kapitel 26 Dieser Befehl sollte die aktuelle Systemzeit in der Zeitzone PST8PDT ausgeben. Die meisten Regressionstests sind nicht so pedantisch und verwenden ORDER BY nicht bei jedem einzelnen SELECT. bei denen die gleichen Zeilen in anderer Reihenfolge als in der erwarteten Datei ausgegeben werden.

guess ausgegebenen Plattformnamen. je nach dem. die angibt. die keine sortierten Ergebnisse liefern. wo es einen Unterschied gibt). bei denen die Ausgabe von config. um plattformspezifische Ergebnisvergleichsdateien anzugeben. es sei denn.Regressionstests Bescheid.out erstellt. enthält resultmap horology/hppa=horology-no-DST-before-1970 was für alle Maschinen angewendet wird.2. Sie müssen sich keine Sorgen machen. Um die falschen Fehlermeldungen auf HPPA-Plattformen auszuschalten. Häufig passt die gleiche Variation für mehrere Plattformen. Das verursacht ein paar Unterschiede im Regressionstest horology. Dadurch fällt der Test ab und zu (vielleicht einmal alle fünf bis zehn Versuche) durch. damit wir das ORDER BY hinzufügen können und damit die falschen Fehlerberichte in der Zukunft verhindern können. bieten wir eine Methode. gefolgt von :gcc oder :cc. warum wir die Testanfragen nicht alle ausdrücklich sortieren lassen und damit das Problem ein für alle Mal aus dem Weg räumen. der Test ist auch nach wiederholten Versuchen nie erfolgreich. sollten Sie sich vielleicht doch Sorgen machen. Daher haben wir eine alternative Vergleichsdatei horology-no-DST-before-1970. gibt es eine Datei. testen würden und solche. dass das die Regressionstests weniger nützlich machen würde. Zum Beispiel: Einige Systeme mit älteren Zeitzonenbibliotheken wenden die Sommerzeitumstellung nicht auf Daten vor 1970 an. wodurch Zeiten vor 1970 in der Zeitzone PDT als PST erscheinen. da sie dann hauptsächlich Anfrageplantypen. müssen Sie eine alternative Ergebnisdatei wählen oder erstellen und dann eine Zeile zur Steuerdatei resultmap hinzufügen. der zufällige Ergebnisse liefern soll.out expected/random. Sie fragen sich vielleicht. 26. die sortierte Ergebnisse liefern. (Wenn der Test andererseits auch in vielen Versuchen immer erfolgreich ist. 325 . welche Vergleichsdatei für jede Plattform zu verwenden ist. Der Vergleichsdateiname ist der Name der Ersatzvergleichsdatei. anstatt eine getrennte Vergleichsdatei für jede Plattform anzugeben.7 Der Test random Es gibt mindestens einen Testfall im Test random. Der Grund ist. Wenn Sie eingeben diff results/random.3 Plattformspezifische Vergleichsdateien Da einige Tests der Natur der Sache wegen plattformspezifische Ergebnisse produzieren. Andere Zeilen in resultmap wählen alternative Ergebnisdateie für andere Plattformen. die die auf diesen Systemen zu erwartenden Ergebnisse enthält. Jede Zeile der Steuerdatei hat die Form testname/plattformmuster=vergleichsdateiname Der Testname ist einfach der Name des bestimmten Regressionstestmoduls. vernachlässigen würden. Das Plattformmuster ist ein Muster im Stile des Unix-Werkzeugs expr (das heißt ein regulärer Ausdruck mit einem impliziten ^ am Anfang).out sollten Sie nur einige wenige Zeilen Unterschied sehen. ob Sie den GNU-Compiler oder den Systemcompiler verwenden (auf den Systemen.) 26. wenn nötig.guess mit hppa anfängt. Um also fälschlicherweise fehlgeschlagene Tests zu eliminieren. Es wird verglichen mit dem von config.

.

die getrennt erhältlich sind und ihre eigene Dokumentation enthalten. Jedes dieser Kapitel kann einzeln gelesen werden. um die Datenbank zu bearbeiten und abzufragen (siehe Teil II). Leser dieses Teils sollten wissen.3 Teil IV Client-Schnittstellen Dieser Teil beschreibt die mit PostgreSQL gelieferten Client-Programmierschnittstellen. 327 . und natürlich sollten sie die von der Schnittstelle verwendete Programmiersprache kennen. dass es viele andere Programmierschnittstellen für Clientprogramme gibt. Beachten Sie. wie man SQL-Befehle verwendet.

VAKAT VAKAT .

ob die Verbindung erfolgreich aufgebaut wurde. Die Funktion PQstatus sollte verwendet werden. Einige Aspekte über das Verhalten von libpq sind daher auch für Sie von Bedeutung. die libpq verwenden.h einbinden und die libpq-Bibliothek einlinken. Clientprogramme.1 Funktionen zur Datenbankverbindung Die folgenden Funktionen dienen zum Aufbau einer Verbindung mit dem PostgreSQL-Server. die es Clientprogrammen erlauben. Anfragen an den PostgreSQL-Server zu schicken und die Ergebnisse dieser Anfragen zu erhalten. Im Gegensatz zu PQsetdbLogin unten kann die Parametersammlung erweitert werden. PGconn *PQconnectdb(const char *conninfo).13) finden Sie drei kurze Programme. auf mehrere Datenbanken zuzugreifen. müssen die Headerdatei libpq-fe. um zu prüfen. wie man Programme schreibt. Am Ende dieses Kapitels (Abschnitt 27. libpq wird auch als Fundament für mehrere andere PostgreSQL-Anwendungsschnittstellen verwendet. Beachten Sie. libpgtcl (Tcl). das zu tun. wenn Sie eines dieser anderen Pakete verwenden. dass diese Funktionen nie einen Null-Zeiger ergeben. welches von der Funktion PQconnectdb oder PQsetdbLogin erhalten wurde. 329 . libpq ist eine Sammlung von Bibliotheksfunktionen. 27. außer wenn womöglich selbst für das PGconn-Objekt zu wenig Speicher vorhanden ist. Diese Funktion öffnet eine neue Datenbankverbindung mit den Parametern. Daher ist die Verwendung dieser Routine oder der nicht blockierenden Analoga PQconnectStart und PQconnectPoll bei neuen Anwendungen zu bevorzugen. (Ein Grund. PQconnectdb Baut eine neue Verbindung mit dem Datenbankserver auf. Mehrere komplette Beispiele von libpq-Anwendungen finden sich außerdem im Verzeichnis src/test/examples in der Quelltext-Distribution. ohne die Signatur der Funktion zu ändern. Ein Anwendungsprogramm kann mehrere Serververbindungen zur gleichen Zeit offen halten. die in der Zeichenkette conninfo stehen. die zeigen. ist.27 27 libpq: Die C-Bibliothek libpq ist die Schnittstelle zu PostgreSQL für Anwendungsprogrammierung in C. einschließlich libpq++ (C++). die libpq verwenden. bevor Anfragen durch das Verbindungsobjekt geschickt werden. Perl und ECPG.) Jede Verbindung wird durch ein Objekt vom Typ PGconn repräsentiert.

setzen Sie Apostrophe darum. wenn Kerberos verwendet wird. Apostrophe und Backslashes müssen von einem Backslash eingeleitet werden. (Um einen leeren Wert oder einen Wert mit Leerzeichen zu schreiben. mit der auf dem Server verbunden werden soll. die Dateierweiterung bei Verbindungen über Unix-Domain-Sockets. Beachten Sie. Der Vorgabewert ist eine Unix-Domain-Socket in /tmp. der nicht der wirkliche Name der Maschine mit der Adresse hostaddr ist. das der Verbindungsfunktion gegeben wird. Wenn der Wert mit einem Schrägstrich anfängt. dann wird dadurch eine umgekehrte Namensauflösung verursacht. Der Wert sollte in der Standardform aus Zahlen und Punkten bestehen. um alle Vorgabeparameter zu verwenden. dann wird eine TCP/IP-Verbindung verwendet. Null oder nicht gesetzt heißt unendlich.Kapitel 27 Die angegebene Zeichenkette kann leer sein. Wenn sowohl host als auch hostaddr angegeben werden. Die gegenwärtig erkannten Parameterschlüsselwörter sind: host Name des Servers.) Leerzeichen um das Gleichheitszeichen sind wahlfrei. wenn Sie libpq einen Hostnamen übergeben. user Der Benutzername für die Verbindung. options 330 . Folgendes gilt daher: Wenn host ohne hostaddr angegeben wird. zum Beispiel schlüssel = 'ein wert'. connect_timeout Das Zeitfenster in Sekunden. password Das Passwort. dann wird der Hostname aufgelöst. Wenn weder Hostname noch Hostadresse angegeben sind. der Wert für host wird ignoriert. der Wert ist das Verzeichnis. verbindet libpq über eine lokale UnixDomain-Socket. port Die Portnummer. Authentifizierung mit Kerberos erfordert allerdings einen Hostnamen. bestimmt der Wert für hostaddr die Serveradresse. in dem sich die Socketdatei befindet. \\. Jede Parametereinstellung hat die Form schlüssel = wert. Wenn ein nicht leerer Wert angegeben wird. dass der Server Authentifizierung mit Passwörtern fordert. bestimmt der Wert für hostaddr die Serveradresse. das heißt \' bzw. dass die Authentifizierung wahrscheinlich fehlschlagen wird. hostaddr Die IP-Adresse der Servers. mit dem verbunden werden soll. außer wenn Kerberos verwendet wird. Wenn hostaddr ohne host angegeben wird. bzw. dann wird der Wert für die Authentifizierung mit Kerberos verwendet. oder sie kann mehrere durch Whitespace getrennte Parametereinstellungen enthalten. was in Anwendungen mit Zeitvorgaben wichtig sein könnte. Durch die Verwendung von hostaddr statt host können Anwendungen die Auflösung von Hostnamen vermeiden. für den Fall. dbname Der Datenbankname. dann wird eine Verbindung über Unix-Domain-Sockets statt TCP/IP verwendet.

wenn der Server kein SSL anbietet. ohne dass die Anwendung während der Eingabe. PostgresPollingStatusType PQconnectPoll(PGconn *conn). *pgoptions. Dies ist der Vorgänger von PQconnectdb mit einer festen Zahl von Parametern. *dbName. *pgport. werden die eingebauten Vorgaben verwendet. ohne zu blockieren. *dbName). PGconn *PQsetdb(char char char char char *pghost. wird eine SSL-Verbindung mit dem Server verlangt. *pgtty.9) untersucht. wird die entsprechende Umgebungsvariable (siehe Abschnitt 27. PQconnectStart. 331 . aber mit der gleichen Funktionalität. Diese zwei Funktionen werden verwendet. PGconn *PQconnectStart(const char *conninfo). *pwd).oder Ausgabeoperationen blockiert wird. Das ist ein Makro. requiressl Wenn 1. PGconn *PQsetdbLogin(const const const const const const const char char char char char char char *pghost. Wenn ein Parameter nicht angegeben wurde. *pgoptions. das PQsetdbLogin mit Null-Zeigern für die Parameter login und pwd aufruft. libpq verweigert dann die Verbindung. PQconnectPoll Baut eine neue Verbindung mit dem Datenbankserver auf. um eine Verbindung mit dem Datenbankserver zu öffnen. tty Eine Datei oder ein TTY für Debug-Ausgaben vom Server. Wenn 0 (Vorgabe). *login. *pgport. PQsetdb Baut eine neue Verbindung mit dem Datenbankserver auf. die an den Server geschickt werden. PQsetdbLogin Baut eine neue Verbindung mit dem Datenbankserver auf. wird libpq den Verbindungstyp mit dem Server aushandeln. *pgtty. Es ist hauptsächlich wegen der Kompatibilität mit alten Programmen vorhanden. Wenn die Umgebungsvariable auch nicht gesetzt ist.libpq: Die C-Bibliothek Konfigurationsoptionen.

Wenn der Status gleich CONNECTION_BAD ist. ❏ Wenn Sie PQtrace aufrufen. Die Zeichenkette hat das gleiche Format wie unter PQconnectdb beschrieben. Wenn dies CONNECTION_BAD ergibt. warten Sie mit select() auf Schreibfreigabe auf der gleichen Socket. Zu jedem beliebigen Zeitpunkt während des Verbindungsaufbaus kann der Zustand der Verbindung mit PQstatus geprüft werden. Weder PQconnectStart noch PQconnectPoll blockieren. Beide dieser Zustände können genauso durch das Ergebnis der Funktion PQconnectPoll erkannt werden. dass die Socket bereit ist. Wenn andere Möglichkeiten.h. Diese Zustände sind: CONNECTION_STARTED Wartet auf die Erstellung der Verbindung. ist die Verbindungsprozedur fehlgeschlagen. erstellt. rufen Sie zuerst conn = PQconnectStart("verbindungs_parameter") auf. verhalten Sie sich. rufen Sie PQconnectPoll(conn) noch einmal auf. nur ein (wahrscheinliches) Beispiel ist. Diese geben dann den aktuellen Fortschritt der Verbindungsprozedur an und können zum Beispiel nützlich sein. dann ist PQconnectStart fehlgeschlagen. ist die Verbindungsprozedur fehlgeschlagen. nach dem AufPQconnectStart. Es sei angemerkt. Nachdem PQconnectStart zurückkehrt. ❏ Bringen Sie die Socket selbst in den passenden Zustand. rufen Sie status = PQstatus(conn) auf. Auch andere Zustände können während einer asynchronen Verbindungsprozedur (und nur) auftreten. betrachten Sie sie stattdessen als “aktiv”. CONNECTION_MADE Verbindung in Ordnung. um die Socket zu prüfen. d. warten Sie mit select() auf lesbare Daten auf der durch PQsokket(conn) ermittelten Socket. dass die Verbindung “aktiv” ist. Wenn es zuletzt PGRES_POLLING_WRITING ergab. Führen Sie folgende Schleife aus: Betrachten Sie eine Verbindung anfangs als “inaktiv”. dass die Verwendung von select(). wurde die Verbindung erfolgreich aufgebaut. Wenn der Aufruf PGRES_POLLING_OK ergibt. betrachten Sie sie als “aktiv”. die PQconnectStart übergeben wird. konnte libpq nicht genug Speicher für eine neue PGconn-Struktur vergeben. zum Beispiel mit poll().Kapitel 27 Die Datenbankverbindung wird mit den Parametern in der Zeichenkette conninfo. wenn es CONNECTION_OK ergibt. können diese natürlich auch verwendet werden. Um eine nicht blockierende Verbindung aufzubauen. ist die Verbindung bereit. Wenn select() anzeigt. Wenn PQconnectStart erfolgreich war. um Rückmeldungen an den Benutzer zu erzeugen. als ob das letzte Ergebnis ruf von PGRES_POLLING_WRITING gewesen wäre. Wenn dieser Aufruf PGRES_POLLING_FAILED ergibt. Wenn Sie PQconnectPoll noch nicht ausgeführt haben. Wenn PQconnectPoll(conn) zuletzt PGRES_POLLING_READING ergab. in das der Datenstrom geschrieben wird. wie oben beschrieben. achten Sie darauf. fahren Sie mit der Verbindungsprozedur fort und achten dabei auf die Statusmeldungen. wartet auf Senden. Wenn conn dann ein Null-Zeiger ist. nicht blockieren kann. CONNECTION_AWAITING_RESPONSE 332 . Wenn PQconnectPoll zuletzt PGRES_POLLING_ACTIVE ergab. Wenn entschieden wurde. bevor Sie PQconnectPoll wie unten beschrieben aufrufen. zur Verfügung stehen. wenn bestimmte Voraussetzungen erfüllt sind: ❏ Die Parameter hostaddr und host werden entsprechend verwendet um Hostnamenauflösungen zu vermeiden. Ansonsten erhalten Sie einen gültigen PGconn-Zeiger zurück (der aber noch keine gültige Verbindung zur Datenbank darstellt). dass das Objekt. Schauen Sie in der Dokumentation dieser Parameter oben unter PQconnectdb wegen Einzelheiten nach.

wenn PQconnectStart oder PQconnectPoll nicht erfolgreich waren. Eine Anwendung kann Folgendes machen: switch(PQstatus(conn)) { case CONNECTION_STARTED: feedback = "Verbinde. wenn libpq mit SSL-Unterstützung compiliert wurde. wenn Sie fertig sind. break. Diese Einschränkung wird möglicherweise in der Zukunft entfernt werden. dann beachten Sie. eine Anwendung sich niemals darauf verlassen sollte. *compiled. dass sie in einer bestimmten Reihenfolge oder überhaupt auftreten oder dass der Zustand immer einer dieser beschriebenen Werte sein wird. case CONNECTION_MADE: feedback = "Mit Server verbunden.. Beachten Sie. um die Verbindungsstruktur und zugehörige Speicherblöcke freizugeben. PQconnectPoll blockiert gegenwärtig.libpq: Die C-Bibliothek Wartet auf Antwort vom Server. dass Sie PQfinish aufrufen müssen.".. . Schließlich belassen diese Funktionen die Socket im nicht blockierenden Zustand. dass obwohl diese Konstanten bleiben werden (um Kompatibilität zu erhalten). CONNECTION_AUTH_OK Authentifizierung erhalten. } Wenn PQconnectStart einen gültigen Zeiger (nicht Null) zurückgibt.".. .". Das muss auch getan werden. als ob PQsetnonblocking aufgerufen worden wäre. typedef { char char char struct *keyword. break. default: feedback = "Verbinde.... . PQconndefaults Gibt die Vorgabeverbindungseinstellungen zurück. /* Schlüselwort */ /* Name der Umgebungsvariable */ /* eingebauter Vorgabewert */ 333 . wartet auf Fortsetzung des Verbindungsaufbaus. PQconninfoOption *PQconndefaults(void). CONNECTION_SETENV Aushandlung der Umgebung (Teil des Verbindungsaufbaus). *envvar.

um alle möglichen Parameter für PQconnectdb und ihre aktuellen Vorgabewerte zu ermitteln. int PQresetStart(PGconn *conn). dass die Anwendung PQfinish auch dann aufrufen sollten. Wenn Sie das nicht tun. /* Feldgröße in Zeichen für Dialogfenster */ } PQconninfoOption.Kapitel 27 /* aktueller Vorgabewert. char *val. Der letzte Eintrag des Arrays hat einen Null-Zeiger im Feld keyword. oder NULL */ /* Feldbeschriftung in Dialogfenster */ /* Darstellung des Feldes in einem Dialogfenster: "" normale Darstellung "*" Passwort . char *label. Beachten Sie. wenn eine funktionierende Verbindung verloren gegangen ist. PQreset Setzt den Kommunikationskanal zum Server zurück. char *dispchar. Das war nicht Thread-sicher und wurde deswegen geändert. PostgresPollingStatusType PQresetPoll(PGconn *conn). Gibt außerdem den vom PGconn-Objekt belegten Speicher frei. um den vom PGconn-Objekt belegten Speicher freizugeben. eine neue Verbindung zum selben Server mit den gleichen Parametern aufzubauen. In das Ergebnis sollte nicht geschrieben werden. wenn der Verbindungsversuch mit dem Server fehlgeschlagen ist (durch PQstatus erkennbar). verursachen Sie mit jedem Aufruf von PQconndefaults ein kleines Speicherleck. 334 . PQresetStart. Ergibt ein Array mit Verbindungsparametern vom Typ PQconninfoOption. Das kann zur Fehlerbehandlung nützlich sein. anstelle eines dynamisch angelegten Arrays. sollten Sie es mit PQconninfoFree freigeben. void PQfinish(PGconn *conn). Das kann verwendet werden.normalerweise nicht anzeigen */ int dispsize. Wenn Sie mit dem Parameterarray fertig sind. PQresetPoll Setzen den Kommunikationskanal zum Server zurück. Diese Funktion schließt die Verbindung zum Server und versucht. Beachten Sie. In PostgreSQL-Versionen vor 7. PQfinish Schließt die Verbindung mit dem Server. Das kann zur Fehlerbehandlung nützlich sein. eine neue Verbindung zum selben Server mit den gleichen Parametern aufzubauen.0 gab PQconndefaults einen Zeiger in ein statisches Array zurück.nicht darstellen "D" Debugoption . Der PGconn-Zeiger sollte nach dem Aufruf von PQfinish nicht mehr verwendet werden. Diese Funktionen schließen die Verbindung zum Server und versuchen. dass die aktuellen Vorgabewerte (in val) von Umgebungsvariablen und anderen Faktoren abhängen. void PQreset(PGconn *conn). ohne zu blockieren.

PQtty Ergibt das TTY für Debugausgaben der Verbindung. die bei der Verbindung festgestellt werden. char *PQtty(const PGconn *conn).h einbinden. um auf den Inhalt von PGconn zuzugreifen. dass sie auf eine nicht blockierende Art und Weise vorgehen. PQport Ergibt den Port der Verbindung. Verwenden Sie die folgenden Zugriffsfunktionen. Um einen Verbindungs-Reset einzuleiten. char *PQhost(const PGconn *conn). char *PQport(const PGconn *conn). char *PQdb(const PGconn *conn). Sie haben dabei die gleichen Einschränkungen wie PQconnectStart und PQconnectPoll. ist er fehlgeschlagen. char *PQpass(const PGconn *conn). Wenn Sie alten Code haben. weil diese sich in der Zukunft ändern könnten. die Abstraktion von PGconn zu bewahren. der auf die Felder von PGconn direkt zugreift. Wenn es 0 ergibt. überwachen Sie den Reset mit PQresetPoll auf genau die gleiche Art.4 ist die Definition des struct hinter PGconn nicht mehr in der Datei libpq-fe. libpq-Anwendungsprogrammierer sollten darauf achten. PQhost Ergibt den Serverhostnamen der Verbindung.h vorhanden. (Seit PostgreSQL 6. aber Sie sollten Ihren Code sehr bald ausbessern. Sie unterscheiden sich von PQreset (siehe oben) dadurch. können Sie ihn weiter verwenden. wenn Sie zusätzlich die Datei libpq-int. rufen Sie PQresetStart auf. PQuser Ergibt den Benutzernamen der Verbindung. PQpass Ergibt das Passwort der Verbindung.libpq: Die C-Bibliothek wenn eine funktionierende Verbindung verloren gegangen ist. char *PQuser(const PGconn *conn).) PQdb Ergibt den Datenbanknamen der Verbindung. PQdb und die nächsten paar Funktionen ergeben die Werte. PQoptions 335 . direkt auf die Felder der PGconn-Struktur zuzugreifen. Vermeiden Sie es. Wenn es 1 ergibt. Die Werte sind während der Lebenszeit des PGconn-Objekts unveränderlich. als ob Sie die Verbindung über PQconnectPoll aufbauen.

dass ein nicht leeres PQerrorMessage-Ergebnis ein abschließendes Newline-Zeichen enthält. dass die PID zu einem Prozess auf der Datenbankservermaschine und nicht auf der lokalen Maschine gehört! PQgetssl Ergibt die SSL-Struktur für die Verbindung oder einen Null-Zeiger. um Verschlüsselungsgrade zu ermitteln. PQbackendPID Ergibt die Prozesskennung (PID) des Serverprozesses. dass der Status vorzeitig auf CONNECTION_BAD wechselt. Der Status kann einer aus einer Reihe von Werten sein.Kapitel 27 Ergibt die Konfigurationsoptionen.h von OpenSSL eingebunden. PQsocket Ermittelt die Dateideskriptor-Nummer der mit dem Server verbundenen Socket. Informationen über diese Struktur finden Sie in der Anleitung zu OpenSSL. das Ergebnis -1 sagt aus. int PQbackendPID(const PGconn *conn). int PQsocket(const PGconn *conn). PQstatus Ergibt den Status der Verbindung. Eine Verbindung. Die PID kann zum Debuggen nützlich sein und um NOTIFY-Mitteilungen zuzuordnen (da diese die PID des Ursprungsprozesses enthalten). SSL *PQgetssl(const PGconn *conn). der diese Verbindung bearbeitet. Beachten Sie. Ein gescheiterter Verbindungsversuch wird vom Status CONNECTION_BAD signalisiert. Nur zwei davon werden allerdings außerhalb einer asynchronen Verbindungsprozedur auftreten: CONNECTION_OK und CONNECTION_BAD. char *PQerrorMessage(const PGconn* conn). Schauen Sie im Eintrag für PQconnectStart und PQconnectPoll bezüglich der anderen möglichen Statuscodes nach. die zuletzt durch eine Operation auf dieser Verbindung verursacht wurde. ConnStatusType PQstatus(const PGconn *conn). In diesem Fall könnte die Anwendung versuchen. Beachten Sie. aber ein Kommunkationsfehler kann dazu führen. Serverzertifikate zu prüfen und mehr. Um den Prototyp für diese Funktion sichtbar zu machen. Ein gültiger Deskriptor ist größer oder gleich 0. 336 . die Verbindung mit PQreset zu erneuern. wenn ein Fehler auftritt. bleibt er normalerweise so bis zu PQfinish. Dadurch wird auch automatisch ssl. Fast alle libpq-Funktionen setzen eine Meldung für PQerrorMessage. Diese Struktur kann verwendet werden. wenn SSL nicht verwendet wird. char *PQoptions(const PGconn *conn). die in Ordnung ist. die in der Verbindungsanfrage übergeben wurden. hat den Status CONNECTION_OK. PQerrorMessage Ergibt die Fehlermeldung. müssen Sie USE_SSL definieren. Wenn der Status in Ordnung ist. dass aktuell keine Verbindung offen ist.

Verwenden Sie die folgenden Zugriffsfunktionen. wie zum Beispiel.2 Funktionen zur Ausführung von Befehlen Wenn eine Verbindung mit dem Datenbankserver erfolgreich aufgebaut wurde. der auf die Felder von PGresult direkt zugreift. der keine Daten liefert.4 ist die Definition des struct hinter PGresult nicht mehr in der Datei libpq-fe.libpq: Die C-Bibliothek 27. Wenn Sie alten Code haben.h vorhanden. Die Struktur PGresult enthält das vom Server geschickte Ergebnis. dann werden die hier beschriebenen Funktionen verwendet. außer wenn der Speicher knapp ist oder bei ernsthaften Fehlern. die Abstraktion von PGresult zu bewahren. können Sie ihn weiter verwenden. libpq-Anwendungsprogrammierer sollten darauf achten. Vermeiden Sie es. Die Funktion ergibt einen Zeiger auf ein PGresult oder möglicherweise einen Null-Zeiger. um SQL-Anfragen und -Befehle auszuführen. 27. um auf den Inhalt von PGresult zuzugreifen. um mehr Informationen über den Fehler zu erhalten. PGRES_COMMAND_OK Erfolgreicher Abschluss eines Befehls. wenn Sie zusätzlich die Datei libpq-int. Verwenden Sie PQerrorMessage.2.h einbinden. (Seit PostgreSQL 6. weil diese sich in der Zukunft ändern könnten. PGresult *PQexec(PGconn *conn.1 Hauptfunktionen PQexec Schickt einen Befehl an den Server und wartet auf das Ergebnis. Das Ergebnis von PQresultStatus ist einer der folgenden Werte: PGRES_EMPTY_QUERY Die an den Server gesendete Zeichenkette war leer. const char *command). PGRES_TUPLES_OK Die Anfrage wurde erfolgreich ausgeführt. direkt auf die Felder der PGresult-Struktur zuzugreifen. PGRES_COPY_OUT Ausgehender COPY-Datentransfer (vom Server) gestartet. PGRES_COPY_IN 337 . Wenn das Ergebnis ein Null-Zeiger ist. ExecStatusType PQresultStatus(const PGresult *res).) PQresultStatus Ergibt den Status des Befehls. Normalerweise wird ein gültiger Zeiger zurückgegeben. wenn der Befehl nicht an den Server geschickt werden konnte. aber Sie sollten Ihren Code sehr bald ausbessern. sollte es wie ein Ergebnis mit Status PGRES_FATAL_ERROR behandelt werden.

um die von der Anfrage gelieferten Zeilen auszulesen. Wenn Sie das nicht tun. Direkt nach einem Aufruf von PQexec oder PQgetResult ergibt PQerrorMessage (aufgerufen mit der Verbindung als Argument) das gleiche Resultat wie PQresultErrorMessage (aufgerufen mit dem Ergebnis als Argument). Beachten Sie. Um es zu entfernen. PGRES_NONFATAL_ERROR Ein nicht fataler Fehler trat auf. dass ein SELECT-Befehl. bis es zerstört wird. Wenn die Antwort PGRES_EMPTY_QUERY ist. char *PQresStatus(ExecStatusType status). wenn kein Fehler vorliegt. PQmakeEmptyPGresult 338 . verursachen Sie Speicherlecks in ihrer Clientanwendung. trotzdem PGRES_TUPLES_OK anzeigt. dann deutet das oft auf einen Fehler in der Clientsoftware hin. PGRES_BAD_RESPONSE Die Antwort des Servers wurde nicht verstanden. können die unten beschriebenen Funktionen verwendet werden. es bleibt auch gültig. PQresStatus Wandelt den von PQresultStatus ermittelten Statuscode in eine Textkonstante um. PQresultErrorMessage Ergibt die von dem Befehl verursachte Fehlermeldung oder eine leere Zeichenkette. Ein PGresult behält allerdings die Fehlermeldung. Verwenden Sie PQresultErrorMessage. Wenn das Ergebnis PGRES_TUPLES_OK ist. void PQclear(PQresult *res). PGRES_FATAL_ERROR Ein fataler Fehler trat auf. die den Statuscode beschreibt. wenn ein neuer Befehl ausgeführt wird oder gar wenn die Verbindung geschlossen wird. PGRES_COMMAND_OK ist für Befehle.). char *PQresultErrorMessage(const PGresult *res). wenn Sie den Status der letzten Operation auf einer Verbindung wissen wollen. wenn Sie den Status eines bestimmten PGresult-Objekts wissen wollen. Sie können ein PGresult-Objekt so lange behalten. der zufällig null Zeilen im Ergebnis hat. wohingegen die Fehlermeldung im Verbindungsobjekt bei der nächsten Operation geändert wird. wie sie wollen. müssen Sie PQclear aufrufen. wenn es nicht mehr benötigt wird. UPDATE usw. die niemals Zeilen als Ergebnis haben (INSERT. PQclear Gibt den zu einem PGresult-Objekt gehörenden Speicherplatz frei. und verwenden Sie PQerrorMessage.Kapitel 27 Eingehender COPY-Datentransfer (zum Server) gestartet. Jedes Befehlsergebnis sollte mit PQclear freigegeben werden.

) to muss auf einen Puffer zeigen. sollten Sie diese aus Sicherheitsgründen nicht direkt in einen SQL-Befehl einbauen. Vielmehr sollten Sie bestimmte Zeichen. Weitere Informationen finden Sie in Abschnitt 8. Beachten Sie.4. wenn Sie in einer bytea-Konstante in einem SQL-Befehl verwendet werden. unsigned char *PQescapeBytea(unsigned char *from. PGresult* PQmakeEmptyPGresult(PGconn *conn. PQescapeBytea führt diese Operation aus und wandelt nur die Bytes um. (Ein Null-Byte am Ende ist weder notwendig. die dem Bytewert entspricht. die vom SQL-Parser besonders behandelt werden. ohne das abschließende Null-Byte. weil manche Anwendungen es praktisch finden. Die Apostrophe. size_t PQescapeString (char *to. in der Sonderzeichen durch Fluchtfolgen ersetzt worden sind. ExecStatusType status). noch wird es mitgezählt. der mindestens ein Zeichen mehr als zweimal der Wert von length aufnehmen. dass von libpq selbst erzeugt wurde.libpq: Die C-Bibliothek Konstruiert eine leeres PGresult-Objekt mit dem angegebenen Status. (Ein abschließendes Null-Byte ist we- 339 . wenn die Parameter to und from sich überschneiden. Der Apostroph (') und der Backslash (\) haben besondere Fluchtfolgen. Der Parameter from zeigt auf das erste Byte der Kette. Ergebnisobjekte (besonders solche mit Fehlerstatus) selbst zu erzeugen. Sie ist öffentlich. ansonsten ist das Verhalten undefiniert. die von libpq intern verwendet wird. Das Ergebnis von PQescapeString ist die Anzahl der nach to geschriebenen Zeichen. size_t *to_length). genauso wie bei einem PGresult. indem bestimmte Zei- chen durch Fluchtfolgen ersetzt werden.2. size_t length).2. sind nicht Teil des Ergebnisses. und einen vorangestellten Backslash ersetzt. sodass sie kein Unheil anrichten können. wird die aktuelle Fehlermeldung der angegebenen Verbindung in das PGresult-Objekt kopiert. die aus nicht vertrauenswürdigen Quellen stammen (zum Beispiel weil irgendein wahlloser Benutzer sie eingegeben hat). Wenn conn kein Null-Zeiger ist und status einen Fehler anzeigt. PQescapeString führt diese Operation aus. Bestimmte Bytewerte müssen durch Fluchtfolgen ersetzt werden (aber alle Bytewerte dürfen durch Fluchtfolgen ersetzt werden). die um eine Zeichenkettenkonstante in PostgreSQL gehören. durch Fluchtfolgen ersetzen. und fügt ein abschließendes Null-Byte an. die bearbeitet werden soll. size_t from_length. bei denen es nötig ist. dass das Ergebnis mit PQclear freigegeben werden muss. Generell wird bei einer solchen Umwandlung ein Byte durch eine dreistellige Oktalzahl. 27. const char *from. Das Verhalten ist nicht definiert. 27. Das ist die Funktion.2 Zeichenketten für SQL-Befehle vorbereiten PQescapeString bereitet Zeichenketten zur Verwendung in SQL-Befehlen vor. Der Parameter from zeigt auf das erste Zeichen des Textes.3 Binäre Daten für SQL-Befehle vorbereiten PQescapeBytea Bereitet binäre Daten zur Verwendung in SQL-Befehlen mit dem Typ bytea vor. Ein Aufruf von PQescapeString schreibt eine Version der Zeichenkette from in den Puffer to. der bearbeitet werden soll. und der Parameter from_length gibt die Anzahl der Bytes in dieser Datenkette an. und der Parameter length zählt die Zeichen im Text. Wenn Sie Zeichenketten verwenden wollen. um ein leeres PGresult-Objekt anzulegen.

Die Länge des Ergebnis schließt das abschließende Null-Byte im Ergebnisses mit ein. wie sie zum Beispiel von PQgetvalue zurückgegeben werden. unsigned char *PQunescapeBytea(unsigned char *from. sodass sie vom Zeichenkettenparser und von der bytea-Eingabefunktion ordnungsgemäß verarbeitet werden können. PQftype 340 . Ein abschließendes Null-Byte wird angehängt.) Der Parameter to_length zeigt auf eine Variable. in der alle Sonderzeichen durch Flucht- folgen ersetzt wurden. Der Parameter from zeigt auf eine Zeichenkette mit bytea-Fluchtfolgen. oder bei einem Fehler ein Null-Zeiger. Der Ausgabepuffer wird mit malloc() angelegt. const char *field_name). PQfnumber Ergibt die Spaltennummer zum angegebenen Spaltennamen. PQunescapeBytea Wandelt eine Zeichenkettendarstellung mit Fluchtfolgen von binären Daten in binäre Daten um – die Umkehrung von PQescapeBytea. PQescapeBytea ergibt eine Version der Binärdaten in from. int spalten_nummer). wenn es auf eine bytea-Spalte angewendet wird.2. int PQfnumber(const PGresult *res. Die Apostrophe. die die Länge der umgewandelten Datenkette aufnimmt.4 Ermittlung von Informationen über Anfrageergebnisse PQntuples Ergibt die Anzahl der Zeilen (Tupel) im Anfrageergebnis. PQfname Ergibt den Spaltennamen der Spalte mit der angegebenen Nummer. Das Ergebnis ist ein Zeiger in einem mit malloc() angelegten Puffer. int PQnfields(const PGresult *res). Das Ergebnis ist -1. sind nicht Teil des Ergebnisses. Spaltennummern beginnen bei 0. size_t *to_length). wenn keine Spalte den angegebenen Namen hat. die Länge des Puffers wird in to_length abgelegt. die um eine Zeichenkettenkonstante in PostgreSQL gehören. PQnfields Ergibt die Anzahl der Spalten (Felder) in jeder Zeile des Anfrageergebnisses. PQunescapeBytea wandelt diese Zeichendarstellung in die entsprechende binäre Darstellung um. 27.Kapitel 27 der notwendig noch wird es mitgezählt. char *PQfname(const PGresult *res. int PQntuples(const PGresult *res).

char* PQgetvalue(const PGresult *res. PQfsize ergibt. wenn das PGresult binäre Zeilendaten enthält. 341 . int spalten_nummer). Spaltennummern beginnen bei 0. wenn der Typ eine variable Länge hat). int spalten_nummer). int PQfmod(const PGresult *res. Es liegt dann in der Verantwortung des Programmierers. und 0. wenn die Spalte eine variable Größe hat. int PQbinaryTuples(const PGresult *res). der die interne OID-Nummer des Typs darstellt. int zeilen_nummer. Aber wenn PQbinaryTuples 1 ergibt. Bei den meisten Anfragen ist der von PQgetvalue zurückgegebene Wert eine Zeichenkettendarstellung. die Daten in den korrekten C-Typ umzuwandeln. int spalten_nummer). int PQfsize(const PGresult *res. int spalten_nummer). Gegenwärtig können binäre Zeilendaten nur von einer Anfrage erzeugt werden. PQbinaryTuples Ergibt 1.5 Auslesen von Anfrageergebnissen PQgetvalue Liest einen einzelnen Spaltenwert aus einer Zeile aus einem PGresult. mit einem abschließenden Null-Byte.2. Spaltennummern beginnen bei 0. Oid PQftype(const PGresult *res. PQfsize Ergibt die Größe in Bytes der Spalte mit der angegebenen Nummer.und Spaltennummern beginnen bei 0. Die OIDs der eingebauten Datentypen sind in der Datei src/include/catalog/pg_type. Zeilen. wie viel Speicher die Spalte in einer Datenbankzeile belegt. Das Ergebnis ist ein ganzzahliger Typ.libpq: Die C-Bibliothek Ergibt den Datentyp der Spalte mit der angegebenen Nummer. Das Ergebnis ist -1. 27. also die Größe in der internen Darstellung des Servers. Spaltennummern beginnen bei 0. PQfmod Ergibt die typenspezifischen Modifikationsdaten der Spalte mit der angegebenen Nummer. die Daten aus einem binären Cursor ausliest.h im Quelltextbaum definiert. wenn es Textdaten enthält. um Namen und Eigenschaften der verschiedenen Datentypen zu erfahren. dann ist der von PQgetvalue zurückgegebene Wert in der internen binären Darstellung des Typs wie im Server (aber ohne das Größenwort. Sie können die Systemtabelle pg_type abfragen.

und 0. das heißt die Größe des durch PQgetvalue erhaltenen Objekts. um Anfrageergebnisse auszugeben. (Beachten Sie. ob eine Spalte den NULL-Wert enthält. int spalten_nummer). zurückgibt. char **fieldName. der zur PGresult-Struktur gehört. 342 . Zeilen. /* /* /* /* /* /* /* /* /* /* Kopfzeilen und Zeilenzahl ausgeben */ Felder mit Leerzeichen ausrichten */ altes blödes Format */ HTML-Tabellen ausgeben */ erweitertes Format */ Pager wenn nötig verwenden */ Feldtrennzeichen */ Attribute für table-Element in HTML */ Caption in HTML-Tabellen */ Ersatzfeldnamen (Array mit NULL abgeschlossen) */ Diese Funktion wurde früher von psql verwendet.) PQgetlength Ergibt die Länge eines Spaltenwerts in Bytes. wenn die Spalte den NULL-Wert enthält. pqbool align. char *tableOpt.und Spaltennummern beginnen bei 0. dass bei Daten in Textformat dies wenig mit der von PQfsize ermittelten binären Größe zu tun hat. int zeilen_nummer. Diese Funktion ergibt 1. wenn man sie über die Lebensdauer der PGresult-Struktur hinaus verwenden will. dass PQgetvalue bei NULL-Werten eine leere Zeichenkette. const PQprintOpt *po). pqbool html3. nicht verändern. Dies ist die wirkliche Länge des Datenwerts. int PQgetisnull(const PGresult *res.Kapitel 27 Der von PQgetvalue erhaltene Zeiger zeigt in einen Speicherbereich. Zeilen. int PQgetlength(const PGresult *res. Beachten Sie. pqbool pager. int zeilen_nummer. auf die er zeigt. char *fieldSep. int spalten_nummer). /* Ausgabestrom */ const PGresult *res. char *caption. wenn nicht. typedef struct { pqbool header. pqbool expanded. Man sollte die Daten. keinen Null-Zeiger. } PQprintOpt. pqbool standard. und man muss die Daten selbst in einen anderen Speicher kopieren.und Spaltennummern beginnen bei 0. PQprint Gibt alle Zeilen und wahlweise die Spaltennamen im angegebenen Ausgabestrom aus. PQgetisnull Testet. void PQprint(FILE* fout. aber das ist nicht mehr der Fall und die Funktion wird nicht mehr aktiv betreut.

Wenn der SQL-Befehl. bis der Befehl abgeschlossen ist. char * PQcmdStatus(PGresult *res). die eine Zahl enthält. ❏ Da die Ausführung der Clientanwendung angehalten ist. Sie ist auch nicht Thread-sicher. wenn das INSERT nicht genau eine Zeile eingefügt oder die Zieltabelle keine OIDs hat. UPDATE oder DELETE war. Sie hat allerdings ein paar Mängel. dann ergibt die Funktion eine leere Zeichenkette. (Die Zeichenkette ist 0.6 Ermittlung von Ergebnissen anderer Befehle PQcmdStatus Ergibt die Statuszeichenkette des SQL-Befehls. INSERT. Die Anwendung hat möglicherweise andere Dinge zu tun (zum Beispiel eine Benutzerschnittstelle zu bedienen) und kann nicht blockieren. dann werden alle PGresult-Ergebnisse außer dem letzten von PQexec verworfen. (Es geht mit einem Signalhandler. der das PGresult geschaffen hat. Wenn die gesendete Befehlszeichenkette mehrere SQL-Befehle enthält. ergibt dies eine leere Zeichenkette.) ❏ PQexec kann nur eine PGresult-Struktur zurückgeben. wenn die SQL-Anweisung ein INSERT war. aber nicht anders. die für einige Benutzer von Bedeutung sein können: ❏ PQexec wartet. dass sie den aktiven Befehl abbrechen möchte. char * PQoidStatus(const PGresult *res). 343 . PQcmdTuples Ergibt die Anzahl der Zeilen. der dieses PGresult geschaffen hat. während sie auf das Ergebnis wartet. PQoidValue Ergibt die OID der eingefügten Zeile. auf die der SQL-Befehl Auswirkung hatte. Dieser Funktion sollte PQoidValue vorgezogen werden. synchronen Anwendungen. Ansonsten ergibt es InvalidOid. wenn die SQL-Anweisung ein INSERT war. Der Typ Oid und die Konstante InvalidOid sind definiert. das genau eine Zeile eingefügt hat. PQoidStatus Ergibt eine Zeichenkette mit der OID der eingefügten Zeile.libpq: Die C-Bibliothek 27.) Wenn der Befehl kein INSERT war.2. ergibt dies eine Zeichenkette. 27. char * PQcmdTuples(PGresult *res). Wenn der Befehl ein anderer war.3 Asynchrone Befehlsverarbeitung Die Funktion ist angemessen für das Absenden von Befehlen in normalen. die die Anzahl der betroffenen Zeilen angibt. Beide sind ein ganzzahliger Typ. und die Zieltabelle OIDs hat. Oid PQoidValue(const PGresult *res). ist es schwer für die Anwendung zu entscheiden. wenn Sie die libpq-Headerdatei eingebunden haben. während sie auf das Ergebnis wartet.

dass in der Zukunft weitere Teile von libpq für den nicht blockierenden Modus bereitgemacht werden. wenn der Befehl erfolgreich gesendet wurde. und blokkierend. und -1 bei einem Fehler. Daten an den Server zu schicken. PQsendQuery Schickt einen Befehl an den Server. PQisnonblocking Ergibt den Blockierzustand der Datenbankverbindung. PQsetnonblocking Stellt den Blockierzustand der Verbindung ein. wenn arg 0 ist. die diese Funktionalität sowie PQputline und PQputnbytes benutzen. wenn alles in Ordnung ist. int PQsendQuery(PGconn *conn. Wenn eine Datenbankverbindung sich im nicht blockierenden Modus befindet und PQexec aufgerufen wird. wenn arg 1 ist. welcher anzeigt. können blockieren. und 0. wurde die Funktion PQsetnonblocking hinzugefügt. Ältere Anwendungen können PQsetnonblokking weiterhin vernachlässigen und erhalten eine möglicherweise blockierende Verbindung. ehe PQgetResult einen Null-Zeiger zurückgegeben hat. wenn die Verbindung im nicht blockierenden Modus ist. während sie darauf warten. Der Zustand wird auf nicht blockierend gesetzt. sondern einen Fehler zurückgeben. Gibt 0 zurück. int arg). Der Rückgabewert ist 1. Nach einem erfolgreichen Aufruf von PQsendQuery rufen Sie PQgetResult einmal oder mehrmals auf. Neuere Programme können PQsetnonblocking verwenden. Ältere Programme. PQsendQuery und PQendcopy nicht blockieren. ohne auf das Ergebnis zu warten. int PQisnonblocking(const PGconn *conn).Kapitel 27 Anwendungen. PQsendQuery kann nicht erneut (auf derselben Verbindung) aufgerufen werden. können die Funktionen verwenden. PGresult *PQgetResult(PGconn *conn). um eine vollständig blockierungsfreie Verbindung mit dem Server zu erreichen. Ergibt 1. 344 . const char *query). bis der PQexec-Aufruf vorbei ist. die diese Beschränkungen nicht mögen. die auch PQexec zugrunde liegen: PQsendQuery und PQgetResult. PQgetResult Wartet auf das nächste Ergebnis eines vorangegangenen PQsendQuery-Aufrufs und gibt es zurück. wird ein Null-Zeiger zurückgegeben. int PQsetnonblocking(PGconn *conn. und 0 im blockierenden Modus. dass der Befehl beendet ist. Es ist zu erwarten. dann wird der Zustand der Verbindung vorübergehend auf blockierend gestellt. Um diesem Problem zu begegnen. wenn sie nochmal aufgerufen werden müssen. Im nicht blockierenden Zustand werden Aufrufe von PQputline. Wenn der Befehl beendet ist und es keine weiteren Ergebnisse gibt. wenn nicht (in dem Fall können Sie mit PQerrorMessage Informationen über den Fehler erhalten). um die Ergebnisse zu erhalten. PQputnbytes.

Ergibt 0. Wenn 0 zurückgegeben wird. während der Server noch an den folgenden Befehlen in derselben Befehlszeichenkette arbeitet. kann PQgetResult mit der Versicherung aufgerufen werden. PQisBusy liest selbst keine Daten vom Server. wenn ein Befehl beschäftigt ist. PQconsumeInput ergibt normalerweise 1. wenn ein Befehl aktiv ist und die notwendigen Antwortdaten noch nicht von PQconsumeInput gelesen wurden. PQconsumeInput kann auch aufgerufen werden. ob ihr Status sich geändert hat. dass keine Daten zwischengespeichert sind. int PQisBusy(PGconn *conn). (Wenn es aufgerufen wird und kein Befehl aktiv ist. wenn es erfolgreich war (oder keine Daten zwischengespeichert waren). die noch an den Server geschickt werden müssen. wenn kein Fehler vorliegt. haben dies nötig. dann ist sichergestellt. wenn es passt. PQisBusy Ergibt 1. das heißt. (Das ermöglicht übrigens eine einfache Form der überschneidenden Verarbeitung: Der Client kann die Ergebnisse eines Befehls verarbeiten. bis der Server den nächsten SQL-Befehl abgeschlossen hat. dass es nicht blockieren wird. int PQconsumeInput(PGconn *conn). Die Verwendung von PQsendQuery und PQgetResult löst eins der Probleme von PQexec: Wenn eine Befehlszeichenkette mehrere SQL-Befehle enthält. um den select()-Zustand sofort zu löschen. wenn PQgetResult beim Warten auf Daten blockieren würde. und kann die Ergebnisse dann untersuchen. wenn irgendein Problem auftrat (dann kann PQerrorMessage verwendet werden). falls vorhanden. Die Anwendung kann also PQconsumeInput verwenden. bis es einen Null-Zeiger zurückgibt. um zu prüfen. können die Ergebnisse dieser Befehle einzeln ausgelesen werden. aber 0. wenn Sie damit fertig sind. wodurch die Anzeige von lesbaren Daten in select() verschwindet. flush). int PQflush(PGconn *conn). Nach dem Aufruf von PQconsumeInput kann die Anwendung PQisBusy und/oder PQnotifies aufrufen. bevor select() ver- wendet wird. die PQsetnonblocking verwendet haben. Das kann durch die richtige Verwendung dreier weiterer Funktionen vermieden werden: PQconsumeInput Konsumiert Daten vom Server. 345 . oder der beschäftigte Zustand wird niemals enden. wel- cher anzeigt.) Jedes Ergebnis von PQgetResult (außer Null-Zeiger) sollte mit denselben.libpq: Die C-Bibliothek PQgetResult muss so lange wiederholt aufgerufen werden. Beachten Sie. ergibt PQgetResult sofort einen Null-Zeiger. jedes Ergebnisobjekt mit PQclear freizugeben. wenn ein Fehler auftrat. PQflush muss auf einer nicht blockierenden Verbindung aufgerufen werden. um zu überprüfen. wenn die Anwendung noch nicht bereit ist. PQflush Versucht etwaige zwischengespeicherte Daten an den Server zu schicken (sog. ein Er- gebnis oder eine Nachricht zu verarbeiten. oben beschriebenen Zugriffsfunktionen für PGresult verarbeitet werden. dass der Befehl beendet ist. oder EOF.) Durch einen Aufruf von PQgetResult wird die Clientanwendung allerdings nach wie vor blockieren. dass das Ergebnis nicht aussagt. dass PQgetResult nur blockiert. Vergessen Sie auch nicht. daher muss zuerst PQconsumeInput aufgerufen werden. ob eine Antwort angekommen ist. Beachten Sie. Wenn 0 zurückgegeben wird. Die Funktion liest die verfügbaren Daten und speichert sie in einem Puffer. Nur Anwendungen. ob irgendwelche Daten angesammelt wurden.

wenn nicht. Wenn der Abbruch Erfolg hatte. und 0. int fnid. wenn die Abbruchanfrage erfolgreich abgeschickt wurde. die ganze Transaktion abgebrochen wird. 27. die diese Funktionen verwendet. Nicht blockierende Verbindungen (solche. um die Daten zu lesen. Eins dieser Ereignisse wird sein. die Bearbeitung des aktuellen Befehls abzubrechen. sollten select() erst aufrufen. Der Rückgabewert ist 1. wenn PQflush 0 zurückgegeben hat. wenn PQisBusy 0 ergab. Die Funktion PQfn fordert die Ausführung einer Serverfunktion über die Fast-Path-Schnittstelle an: PGresult* PQfn(PGconn* conn. um auf alle Ereignisse zu warten. typedef struct { 346 . die es mit PQexec ausführt. was für select() bedeutet. Beachten Sie. int *result_len. dass vom Server Daten zum Lesen vorhanden sind.) Das erfolgreiche Abschicken gibt allerdings keine Gewähr dafür. PQrequestCancel kann ohne Probleme von einem Signalhandler aus aufgerufen werden. Wenn der Abbruchversuch scheitert (vielleicht weil die Bearbeitung des Befehls schon beendet war). um NOTIFY-Nachrichten zu entdecken (siehe Abschnitt 27. abzubrechen. (Wenn nicht. auf die sie reagieren muss. Ein Client. wenn der aktuelle Befehl Teil eines Transaktionsblocks ist. an den Server geschickt zu werden. der noch vom Server bearbeitet wird. warum nicht. was anzeigt. die select() aufruft. wird der aktuelle Befehl vorzeitig beendet und liefert ein Ergebnis mit einer Fehlermeldung. Ungeachtet des Rückgabewerts von PQrequestCancel muss die Anwendung mit der normalen Folge von PQgetResult-Aufrufen fortfahren.Kapitel 27 Eine typische Anwendung. Sie kann außerdem PQnotifies aufrufen. was ein mögliches Sicherheitsloch darstellen kann. PQrequestCancel Bittet den Server. hat eine Hauptschleife. Man kann die Funktion also auch in Verbindung mit dem normalen PQexec verwenden. der PQsendQuery/PQgetResult verwendet. Dadurch wird direkter Zugriff auf Systeminterna gegeben. kann auch versuchen. dann sollte sie PQconsumeInput aufrufen. int *result_buf.ruft PQrequestCancel im Signalhandler für SIGINT auf und ermöglicht dadurch das interaktive Abbrechen von Befehlen. wird im Client keine Auswirkung zu erkennen sein. einen Befehl. Wenn die Hauptschleife das entdeckt. Sie kann dann PQisBusy aufrufen.5). um Funktionsaufrufe an den Server zu schicken. gefolgt von PQgetResult. dass auf dem durch PQsokket ermittelten Dateideskriptor Daten zum Lesen bereitstehen. int result_is_int. psql zum Beispiel. die PQsetnonblocking verwendet haben). dann gibt PQerrorMessage Auskunft. dass die Anfrage irgendeine Auswirkung haben wird. dass keine zwischengespeicherten Daten noch darauf warten. dass. int nargs). const PQArgBlock *args. Fastpath. wenn der Abbruchversuch in einem Signalhandler ausgelöst wird.4 Die Fastpath-Schnittstelle PostgreSQL bietet eine besondere Schnittstelle. Die meisten Benutzer werden diese Fähigkeit nicht benötigen. int PQrequestCancel(PGconn *conn).

die auf eine bestimmte Benachrichtigung warten. Der Status des Ergebnisses sollte überprüft werden. sollte es mit free() freigegeben werden. Die Funktion PQnotifies gibt die nächste unbearbeitete Benachrichtigung aus der Liste der vom Server empfangenen Benachrichtigungen zurück.) args und nargs geben die der Funktion zu übergebenden Argumente an.libpq: Die C-Bibliothek int len. union { int *ptr. 347 . Der Name der Benachrichtigung ist oft der Name der zugehörigen Tabelle. in dem das Ergebnis abgespeichert wird. Wenn eine Benachrichtigung von PQnotifies einmal zurückgegeben wurde. abgelegt. typedef struct pgNotify { char *relname. PQfn ergibt immer einen gültigen PGresult-Zeiger. ansonsten auf 0. (Wenn Sie result_is_int auf 1 setzen. /* Benachrichtigungsname */ int be_pid. int isint. dann gibt sie einen Null-Zeiger zurück. /* PID des Serverprozesses */ } PGnotify. um Speicherlecks zu vermeiden. die eigentlich übermittelt werden sollen. sodass er als für die Clientmaschine passender intWert ankommt. Das Argument fnid ist die OID der auszuführenden Funktion. Keine weiteren Informationen werden vom Sender zum Empfänger übertragen. bevor das Ergebnis verwendet wird. werden daher typischerweise über eine Datenbanktabelle verbreitet. wird sie als bearbeitet erachtet und aus der Liste der Benachrichtigungen entfernt. Sie müssen darin ausreichend Platz für das Ergebnis vorgesehen haben. Wenn eine 4-Byte-Ganzzahl als Ergebnis erwartet wird. (Es gibt keine Überprüfung!) Die Länge des tatsächlichen Ergebnisses wird in der Variablen. PGnotify* PQnotifies(PGconn *conn). Wenn es keine anstehenden Benachrichtigungen gibt. wird libpq den Wert automatisch an die richtige Bytereihenfolge anpassen. wenn ein NOTIFY-Befehl mit dem Namen der Benachrichtigung von irgendeiner Sitzung ausgeführt wird.5 Asynchrone Benachrichtigung PostgreSQL bietet asynchrone Benachrichtigungen mit den Befehlen LISTEN und NOTIFY. setzen Sie result_is_int auf 1. Wenn result_is_int 0 ist. Es liegt in der Verantwortung der Anwendung. Alle Sitzungen. Eine serverseitige Sitzung meldet ihr Interesse an einer bestimmten Benachrichtigung mit dem Befehl LISTEN an (und kann sich mit UNLISTEN wieder abmelden). Die Daten. int integer. Das Eintreffen einer NOTIFY-Nachricht kann danach durch Aufrufen von PQnotifies entdeckt werden. Nachdem ein von PQnotifies zurückgegebenes PGnotify-Objekt verarbeitet wurde. wird die vom Server kommende Bytefolge unverändert zurückgegeben. } PQArgBlock. } u. wenn sie nicht mehr benötigt wird. dass die Verwendung der asynchronen Benachrichtigung erläutert. In Beispiel 27.2 finden Sie ein Beispielprogramm. werden asynchron informiert. aber eine zugehörige Tabelle muss es nicht geben. result_buf ist der Puffer. die PGresult-Struktur mit PQclear freizugeben. 27. libpq-Anwendungen schicken die Befehle LISTEN und UNLISTEN als normale SQL-Befehle. auf die result_len zeigt.

dann muss besondere Sorgfalt angewendet werden. um von dieser Möglichkeit Gebrauch zu machen. und auch. int length). andauernd Befehle abzuschicken. wenn Sie keine sinnvollen Befehl zum Ausführen haben. Der Code in der Datei src/bin/psql/copy. wenn Sie Befehle mit PQsendQuery/PQgetResult verschicken. aber das Zeilenende noch nicht gelesen wurde.4 ist be_pid die PID des Prozesses. was bedeutet. wenn nichts zu tun ist. Diese Funktion kopiert bis zu length-1 Zeichen in den Puffer und wandelt die abschließende Newline in ein Null-Byte um. Diese Funktionen sollten nur ausgeführt werden. um auf Daten vom Server zu warten. ist aber nicht mehr empfohlen. dass die Anwendung überprüfen muss. Der Rückgabewert von PQgetline ist EOF am Ende des Eingabestroms. die länger als length-1 Zeichen sind. die auf die Netzwerkverbindung direkt zugreifen können. aber in früheren Versionen war es die PID des eigenen Serverprozesses. Sie können select() verwenden. der die Benachrichtigung ausführte. Das funktioniert immer noch. PQgetline Liest eine vom Server geschickte Zeile. ob eine neue Zeile aus den zwei Zeichen \. besteht. nachdem von PQexec oder PQgetResult ein Ergebnisstatus PGRES_COPY_OUT oder PGRES_COPY_IN erhalten wurde. nach jedem PQgetResult oder PQexec PQnotifies() aufzurufen. die während der Verarbeitung des Befehls hereinkamen. Wenn eine Anwendung Zeilen empfangen könnte. Eine bessere Möglichkeit. um sicherzustellen. wenn die ganze Zeile gelesen wurde. Daher gibt es Funktionen. und nach jedem PQexec()-Aufruf mit PQnotifies() nachzuschauen. dass der Server mit der Übertragung des Ergebnisses des COPY-Befehls fertig ist.Kapitel 27 Anmerkung Seit PostgreSQL 6. wenn der Puffer voll ist. Sie sollten sich aber merken. ist PQconsumeInput() aufzurufen und dann PQnotifies() zu prüfen.) Das funktioniert. die als Beispiel einer korrekten Behandlung des COPYProtokolls dienen können. sondern liefert nur Benachrichtigungen. die vorher von einer anderen libpq-Funktion empfangen wurden. dass sie die Zeile mit \. und verbrauchen dabei keine Rechenleistung. aus der von libpq erstellten Netzwerkverbindung zu lesen bzw. In früheren Versionen vom libpq war die ein- zige Möglichkeit. in sie zu schreiben. Beachten Sie.c enthält Funktionen. char *buffer. den rechtzeitigen Empfang einer Benachrichtung sicherzustellen. um nach NOTIFY-Nachrichten Ausschau zu halten. und 1. int PQgetline(PGconn *conn. PQnotifies() empfängt keine Daten vom Server. 27. (Den Dateideskriptor für select() erhalten Sie von PQsokket(). weil es Rechnerleistung verschwendet. selbst leere. mit Newline abgeschlossen. 0. PQgetlineAsync 348 . richtig erkennt (und sie zum Beispiel nicht mit dem Ende einer langen Datenzeile verwechselt). in den Puffer der Größe length.6 Funktionen für den COPY-Befehl Der COPY-Befehl in PostgreSQL hat die Möglichkeit. wenn Sie einfach PQexec verwenden. um Benachrichtigungen zu erhalten.

Bei jedem Aufruf gibt PQgetlineAsync Daten zurück. den Sie tatsächlich haben. PQputnbytes Sendet eine Zeichenkette. bis der Rest der Zeile angekommen ist. muss als nächstes PQendcopy aufgerufen werden und dann kann normal fortgefahren werden. außer dass der Puffer nicht durch ein Null-Byte abgeschlossen sein muss. 349 . Ansonsten werden keine Daten zurückgegeben. in der letzten Zeile senden müssen. achten Sie darauf. Das ist das Gleiche wie PQputline. Diese Funktion ist der Funktion PQgetline ähnlich. int PQgetlineAsync(PGconn *conn. const char *buffer. die die Anzahl der Bytes in den zurückgegebenen Daten angibt. an den Server. Wenn das Ergebnis -1 war. wird die ganze Zeile auf einmal zurückgegeben. das heißt ohne zu blockieren. Ergibt 0. Wenn der angebotene Puffer zu klein ist. bis das Ende der Daten signalisiert wird. int nbytes). int PQendcopy(PGconn *conn). oder wenn die Datenzeile zu lang ist. um die vom Server geschickte Zeile aufzunehmen. dass sie mit dem Senden von Daten fertig sind. wenn die Markierung am Datenende erkannt wurde.) PQputline Sendet eine Zeichenkette. in einen Puffer. ob das letzte Byte im Ergebnis \n ist.wenn ein Fehler auftrat. wenn alles in Ordnung ist. int PQputline(PGconn *conn. um anzuzeigen. mit Null-Byte abgeschlossen. dass der Parameter length. nicht mit Null-Byte abgeschlossen.libpq: Die C-Bibliothek Liest eine vom Server geschickte Zeile. (Wenn Sie eins anfügen wollen. sollte die Anwendung PQconsumeInput und PQgetlineAsync aufrufen. da die Anzahl der zu sendenden Bytes direkt angegeben wird. Ergibt 0. die COPY-Daten asynchron. Das kann erkannt werden. und EOF . dass Anwendungen die zwei Zeichen \. Beachten Sie. PQendcopy Synchronisiert den Client mit dem Server. int PQputnbytes(PGconn *conn. wenn ein Fehler auftrat. Die Ergebniszeichenkette hat kein Null-Byte am Ende. wenn eine vollständige Datenzeile mit Newline im Zwischenspeicher von libpq vorhanden ist. Wenn möglich. Die Funktion ergibt -1. int length). oder 0. indem man prüft. aber sie kann von Anwendungen verwendet werden. um eins kleiner ist als der Platz. wird ein Teil der Zeile zurückgegeben. um in den angebotenen Puffer zu passen. mit Newline abgeschlossen. wenn alles in Ordnung ist. Nachdem der Befehl COPY ausgeführt und das Ergebnis PGRES_COPY_OUT erhalten wurde. const char *string). und EOF. an den Server. wenn keine Daten verfügbar sind oder eine positive Zahl. Im Gegensatz zu PQgetline entdeckt diese Funktion das Ende der Daten selbst. Die zurückgegebenen Daten enden spätestens mit dem Newline-Zeichen. ohne zu blockieren. lesen müssen. char *buffer. den Sie übergeben.

bis der Server den COPY-Vorgang abgeschlossen hat. Der Rückgabewert ist 0 bei Erfolg und ansonsten verschieden von null. bis die Abschlusszeile erkannt wird und danach PQendcopy aufruft. "CREATE TABLE foo (a integer. "4\tTschüss. Wenn PQgetResult verwendet wird. Ein Beispiel: PQexec(conn. Sie muss ausgeführt werden. . 350 ."). wenn COPY der einzige SQL-Befehl in der Befehlszeichenkette ist.. PQputline(conn. "COPY foo FROM STDIN. void PQuntrace(PGconn *conn). der mitten in einer Reihe von SQL-Befehlen steht. Nach der Ausführung dieses Befehls ist der Server bereit.11\n"). ordnungsgemäß ausgeführt wird. nachdem die letzten Daten vom Server mit PGgetline empfangen wurden. b varchar(16). ansonsten verlieren Client und Server die Synchronisation. indem sie PQgetline wiederholt ausführt.und Warnmeldungen verarbeitet werden. Danach sollte sie zur PQgetResult-Schleife zurückkehren. sollte eine Anwendung auf ein PGRES_COPY_OUT-Ergebnis reagieren. Welt\t7. PQputline(conn. Ältere Anwendungen schicken den COPY-Befehl wahrscheinlich mit PQexec ab und gehen davon aus. Ähnlich wird ein PGRES_COPY_IN-Ergebnis verarbeitet. PQexec(conn. Das funktioniert aber nur.5\n"). Sie sollte aufgerufen werden. "3\tHallo. indem man eine Reihe von PQputline-Aufrufen. tätigt und dann zur PQgetResult-Schleife zurückkehrt. PQendcopy(conn).Kapitel 27 Diese Funktion wartet. gefolgt von PQendcopy. den nächsten SQL-Befehl zu empfangen. PQputline(conn.7 Funktionen zur Nachverfolgung PQtrace Schaltet die Nachverfolgung (englisch tracing) des Client/Server-Kommunikationsverkehrs in einen Datenstrom ein.\n"). dass ein COPY-Befehl. 27. Welt\t4. "\\. dass die Transaktion nach PQendcopy vorbei ist. bis PQgetResult einen Null-Zeiger ergibt. void PQtrace(PGconn *conn FILE *stream).. d double precision). 27. nachdem die letzte Zeichenkette mit PQputline an den Server geschickt wurde bzw. wie vom Server erzeugte Hinweis. Dadurch wird sichergestellt. PQuntrace Schaltet die durch PQtrace eingeschaltete Nachverfolgung wieder aus.8 Verarbeitung von Hinweismeldungen Die Funktion PQsetNoticeProcessor kontrolliert.").

❏ PGPORT setzt die vorgegebene TCP-Portnummer bzw.9 Umgebungsvariablen Die folgenden Umgebungsvariablen können verwendet werden. die Erweiterung des Unix-Domain-Socket-Namen für die Kommunikation mit dem PostgreSQL-Server. In der Voreinstellung gibt libpq Hinweismeldungen vom Server sowie einige Fehlermeldungen. versuchen libpq-Anwendungen die Authentifizierung mit Servern dieses Realms 351 . "%s". dass in einfachen Anwendungen der Datenbankname direkt in den Code geschrieben werden muss. der PQsetNoticeProcessor übergeben wurde. Bei der Erzeugung eines PGresult-Objekts wird die aktuelle Rückruffunktion des PGconn-Objekts kopiert. rufen Sie PQsetNoticeProcessor gleich nach der Erzeugung eines neuen PGconn-Objekts auf. ❏ PGPASSWORD setzt das Passwort. auf stderr aus. um Vorgabewerte für Verbindungsparameter zu setzen. Sie sind zum Beispiel nützlich. in dem sich die Socketdatei befindet (Vorgabe /tmp). Wenn der übergebene Zeiger ein Null-Zeiger ist.) Die voreingestellte Rückruffunktion ist einfach static void defaultNoticeProcessor(void * arg. verwendet werden.libpq: Die C-Bibliothek typedef void (*PQnoticeProcessor) (void *arg. falls der Server Authentifizierung mit Passwörtern fordert. indem eine Rückruffunktion eingetragen wird. ❏ PGHOST setzt den vorgegebenen Servernamen. Dieses Verhalten kann geändert werden. void *arg). die mit den Meldungen etwas anderes macht. verwenden Sie stattdessen die Datei $HOME/. wie der. dann wird eine Unix-Domain-Socket statt TCP/IP verwendet.10). Wenn Sie eine Funktion zur Verarbeitung von Hinweismeldungen eingesetzt haben. const char * message) { fprintf(stderr. wird nichts gemacht. wenn es nicht das lokale Realm ist. die es selbst erzeugt. Diese Umgebungsvariable wird aus Sicherheitsgründen nicht empfohlen. PQnoticeProcessor PQsetNoticeProcessor(PGconn *conn. Der Rückgabewert ist der Zeiger auf die vorher registrierte Rückruffunktion. message). solange das PGconn-Objekt oder daraus erzeugte PGresultObjekte existieren.pgpass (siehe Abschnitt 27. Wenn er mit einem Schrägstrich anfängt. der der gleiche ist. ❏ PGUSER setzt den vorgegebenen Benutzernamen für Datenbankverbindungen. um Funktionen wie PQgetvalue zur Verfügung zu stehen. 27. ❏ PGREALM setzt das Kerberos-Realm für PostgreSQL. PQnoticeProcessor proc. aber der Zeiger auf die aktuelle Funktion wird zurückgegeben. um zu vermeiden. ❏ PGDATABASE setzt den vorgegebenen PostgreSQL-Datenbanknamen. Wenn PGREALM gesetzt ist. der Wert ist das Verzeichnis. um auf anwendungsspezifische Daten zuzugreifen. welche von PQconnectdb oder PQsetdbLogin verwendet werden. const char *message). } Um eine selbstgeschriebene Funktion zur Verarbeitung von Hinweismeldungen zu verwenden. dass sie aufgerufen werden kann. wenn kein anderer Wert im Funktionsaufruf angegeben wird. müssen Sie davon ausgehen. wenn nötig. (Dieser Zeiger kann. Diese Funktion erhält den Text der Hinweismeldung (welcher ein abschließendes Newline-Zeichen enthält) sowie einen typlosen Zeiger.

.. wenn die Verbindung ein Passwort erfordert (und anderweitig kein Passwort angegeben wurde). (Wenn Sie Befehle gleichzeitig ausführen müssen. Es ist besser. die verwendet werden. solange nicht zwei Threads dasselbe PGconn-Objekt zu gleichen Zeit bearbeiten. wird die Datei ignoriert. also stellen Sie spezifischere Einträge an den Anfang. Insbesondere kann man nicht von zwei Threads gleichzeitig Befehle durch dasselbe Verbindungsobjekt schicken. Das kann mit dem Befehl chmod 0600 . verlassen sich auf die Betriebssystemfunktion crypt().) ❏ PGCLIENTENCODING setzt die vorgegebene Zeichensatzkodierung im Client. Die Datei sollte Zeilen mit folgendem Format haben: hostname:port:datenbank:benutzername:passwort Jedes dieser Felder kann eine Konstante sein oder *.pgpass im jeweiligen Home-Verzeichnis ist eine Datei.11Thread-Verhalten Seit PostgreSQL 7. Einträge mit : oder \ müssen ein vorangestelltes Fluchtzeichen \ haben. um Vorgabewerte für jede PostgreSQLSitzung einzustellen. 352 .) ❏ PGTZ setzt die Zeitzone.und Weltzugriff verbieten...und Zeitangaben.. (Entspricht SET geqo TO . Wenn die Zugriffsrechte weniger strikt sind. welche auf allen Plattformen Thread-sicher ist. wenn der Server Authentifizierung mit Kerberos fordert. ❏ PGDATESTYLE setzt den vorgegebenen Ausgabestil für Datums. die Methode md5 zu verwenden. welche oft nicht Thread-sicher ist. öffnen sie mehrere Verbindungen.0 ist libpq Thread-sicher. Die erste Übereinstimmung wird verwendet.. ❏ PGOPTIONS setzt zusätzliche Konfigurationsoptionen.. (Entspricht SET client_encoding TO . die die Authentifizierungsmethode crypt verwenden. 27. Die Zugriffsrechte für . PQoidStatus kann durch PQoidValue ersetzt werden. Die folgenden Umgebungsvariablen können verwendet werden.pgpass erreicht werden. Diese Umgebungsvariable wird nur verwendet. es aufzurufen...) ❏ PGGEQO setzt den Vorgabemodus des genetischen Anfrageoptimierers.Kapitel 27 und verwenden getrennte Ticketdateien.10Die Passwortdatei Die Datei . die an den PostgreSQL-Server geschickt werden.) Informationen über die korrekten Werte für diese Umgebungsvariablen finden Sie beim SQL-Befehl SET. was auf alles passt.. libpq-Anwendungen. die Passwörter enthält. Für fe_setauthsvc gibt es überhaupt keinen guten Grund. um Konflikte mit lokalen Ticketdateien zu vermeiden.. (Entspricht SET datestyle TO . Die nicht mehr empfohlenen Funktionen PQoidStatus und fe_setauthsvc sind nicht Thread-sicher und sollten nicht in Multithread-Programmen verwendet werden.pgpass müssen Gruppen. 27. (Entspricht SET timezone TO .) PGresult-Objekte werden nach der Erstellung nicht mehr verändert und können daher beliebig zwischen Threads umhergereicht werden. ❏ PGTTY setzt die Datei oder das TTY für Debug-Ausgaben vom Server..

um herauszufinden.c:68: foo. sowie die Option -Lverzeichnis.c:54: foo. müssen Sie sämtliche hier genannte Schritte befolgen: ❏ Binden Sie die Headerdatei libpq-fe. wo die Headerdateien auf dem lokalen System sind: $ pg_config --includedir /usr/local/include Wenn Sie nicht die richtige Compileroption angegeben haben. (In einigen Fällen wird der Compiler im fraglichen Verzeichnis automatisch suchen. indem Sie bei Ihrem Compiler die Option -Iverzeichnis angeben. um dem Compiler das Verzeichnis zu zeigen. (Wiederum wird der Compiler einige Verzeichnisse automatisch durchsuchen. in dem die libpq-Bibliothek abgelegt ist. in welchem Verzeichnis die PostgreSQL-Headerdateien installiert sind. Zum Beispiel: cc -o testprog testprog1. geben Sie die Option -lpq an.c:35: foo.c:95: function `main': `PGconn' undeclared (first use in this function) `PGresult' undeclared (first use in this function) `CONNECTION_BAD' undeclared (first use in this function) `PGRES_COMMAND_OK' undeclared (first use in this function) `PGRES_TUPLES_OK' undeclared (first use in this function) ❏ Zeigen Sie Ihrem Compiler.c: In foo.h ein: #include <libpq-fe.c:34: foo. Sie können stattdessen das Programm pg_config verwenden.c Wenn Sie make-Steuerdateien (makefiles) verwenden.) Die Befehlszeile zum Compilieren könnte zum Beispiel so aussehen: cc -c -I/usr/local/pgsql/include testprog. erhalten Sie eine Fehlermeldung wie diese: testlibpq.c:8:22: libpq-fe. sollten Sie die Verzeichnisnamen nicht auf diese Art festschreiben. erhalten Sie von Ihrem Compiler normalerweise Fehlermeldungen ähnlich dieser: foo. compilieren und linken).h. um die libpq-Bibliothek einzubinden.12libpq-Programme bauen Um Ihre libpq-Programme zu bauen (d.) Für maximale Portierbarkeit stellen Sie die -L-Option vor die Option -lpq. sodass Sie diese Option dann auslassen können.libpq: Die C-Bibliothek 27.h> Wenn Sie das versäumt haben. fügen Sie die Option an die Variable CPPFLAGS an: CPPFLAGS += -I/usr/local/pgsql/include Wenn die Möglichkeit besteht.o testprog2.h: No such file or directory ❏ Wenn Sie das fertige Programm linken. dass Ihr Programm auch von anderen Benutzern compiliert werden könnte.o -L/usr/local/pgsql/lib -lpq 353 .

27.o(. *pgtty. exit(1). the PostgreSQL frontend * library. Wenn Ihr Code die Headerdatei libpq-int. testlibpq.c * * Test the C version of libpq. 354 .o(. die auf Probleme in diesem Bereich hinweisen.text+0x60): testlibpq. dass Sie -lpq vergessen haben.h.text+0x71): testlibpq.13Beispielprogramme Beispiel 27.h> void exit_nicely(PGconn *conn) { PQfinish(conn).text+0xa4): `main': undefined reference to `PQsetdbLogin' undefined reference to `PQstatus' undefined reference to `PQerrorMessage' Dies bedeutet. *pgoptions.o: In function testlibpq.2 in includedir/postgresql/internal/libpq-int. /usr/bin/ld: cannot find -lpq Dies bedeutet.o(. dann befindet sich diese Datei seit PostgreSQL 7. */ #include <stdio. Sie müssen also die entsprechende -I-Option zur Compilerbefehlszeile hinzufügen. könnten folgendermaßen aussehen.h> #include <libpq-fe. } main() { char *pghost.Kapitel 27 Das Bibliotheksverzeichnis können Sie auch mit pg_config herausfinden: $ pg_config --libdir /usr/local/pgsql/lib Fehlermeldungen.1: libpq-Beispielprogramm 1 /* * testlibpq. Ihren Code zu ändern und sie nicht benutzen. dass Sie die -L-Option vergessen oder nicht das richtige Verzeichnis angegeben haben. *pgport.h verwendet und Sie sich weigern.

/* * begin. "Connection to database '%s' failed. by setting the parameters for a backend connection if the * parameters are null. /* host name of the backend server */ pgport = NULL. dbName). /* make a connection to the database */ conn = PQsetdb(pghost. dbName). /* port of the backend server */ pgoptions = NULL. */ /* start a transaction block */ res = PQexec(conn. * using hardwired constants */ pghost = NULL. exit_nicely(conn).out". /* debugging tty for the backend server */ dbName = "template1". pgoptions. debug). nFields. 355 . pgtty.libpq: Die C-Bibliothek char int int *dbName. */ PGconn PGresult *conn. } /* debug = fopen("/tmp/trace.\n". PQerrorMessage(conn)). /* FILE *debug. "BEGIN command failed\n"). failing that. exit_nicely(conn)."w"). */ /* PQtrace(conn. *res. if (!res || PQresultStatus(res) != PGRES_COMMAND_OK) { fprintf(stderr. /* * check to see that the backend connection was successfully made */ if (PQstatus(conn) == CONNECTION_BAD) { fprintf(stderr. "%s". then the system will try to use reasonable * defaults by looking up environment variables or. pgport. j. PQclear(res). i. fprintf(stderr. "BEGIN"). /* special options to start up the backend * server */ pgtty = NULL.

Kapitel 27 } /* * should PQclear PGresult whenever it is no longer needed to avoid * memory leaks */ PQclear(res). /* close the cursor */ res = PQexec(conn. PQclear(res). j)). 356 . "CLOSE mycursor"). "FETCH ALL in mycursor"). the system catalog of * databases */ res = PQexec(conn. "DECLARE CURSOR command failed\n"). if (!res || PQresultStatus(res) != PGRES_COMMAND_OK) { fprintf(stderr. j++) printf("%-15s". printf("\n\n"). print out the attribute names */ nFields = PQnfields(res). i)). "FETCH ALL command didn't return tuples properly\n"). res = PQexec(conn. } PQclear(res). } PQclear(res). exit_nicely(conn). i++) printf("%-15s". printf("\n"). print out the rows */ for (i = 0. "DECLARE mycursor CURSOR FOR SELECT * FROM pg_database"). exit_nicely(conn). i++) { for (j = 0. PQclear(res). PQfname(res. i < PQntuples(res). j < nFields. for (i = 0. i < nFields. } /* first. i. /* * fetch rows from the pg_database. PQgetvalue(res. /* next. PQclear(res). if (!res || PQresultStatus(res) != PGRES_TUPLES_OK) { fprintf(stderr.

if you want to get fancy. then from psql in another window do * NOTIFY TBL2. * */ #include <stdio.libpq: Die C-Bibliothek /* commit the transaction */ res = PQexec(conn. "COMMIT"). /* close the connection to the database and cleanup */ PQfinish(conn). try this: * Populate a database with the following: * * CREATE TABLE TBL1 (i int4). */ return 0. * * CREATE TABLE TBL2 (i int4). } Beispiel 27.2: libpq-Beispielprogramm 2 /* * testlibpq2.h" void exit_nicely(PGconn *conn) { PQfinish(conn). NOTIFY TBL2).c * Test of the asynchronous notification interface * * Start this program.h> #include "libpq-fe. } 357 . exit(1). /* fclose(debug).i). * * CREATE RULE r1 AS ON INSERT TO TBL1 DO * (INSERT INTO TBL2 values (new. * * Or. PQclear(res). * * and do * * INSERT INTO TBL1 values (10).

\n". *conn. /* debugging tty for the backend server */ dbName = getenv("USER"). /* special options to start up the backend * server */ pgtty = NULL. *res. 358 . by setting the parameters for a backend connection if the * parameters are null. i. pgport. PQerrorMessage(conn)).Kapitel 27 main() { char char int int *pghost. exit_nicely(conn). * using hardwired constants */ pghost = NULL. *notify. *dbName. /* host name of the backend server */ pgport = NULL. /* change this to the name of your test * database */ /* make a connection to the database */ conn = PQsetdb(pghost. *pgport. /* * check to see that the backend connection was successfully made */ if (PQstatus(conn) == CONNECTION_BAD) { fprintf(stderr. *pgtty. nFields. failing that. PGconn PGresult PGnotify /* * begin. } res = PQexec(conn. then the system will try to use reasonable * defaults by looking up environment variables or. "%s". j. fprintf(stderr. "LISTEN command failed\n"). *pgoptions. dbName). pgtty. "Connection to database '%s' failed. pgoptions. if (!res || PQresultStatus(res) != PGRES_COMMAND_OK) { fprintf(stderr. /* port of the backend server */ pgoptions = NULL. "LISTEN TBL2"). dbName).

notify->be_pid).libpq: Die C-Bibliothek PQclear(res). notify->relname. return 0. exit_nicely(conn). the PostgreSQL frontend library. waiting with select() * would be more efficient. /* check for asynchronous notify messages */ while ((notify = PQnotifies(conn)) != NULL) { fprintf(stderr. d real. while (1) { /* * wait a little bit between checks. } Beispiel 27. */ sleep(1).3: libpq-Beispielprogramm 3 /* * * * * * * * * testlibpq3.c Test the C version of Libpq. p polygon). 359 . free(notify). tests the binary cursor interface populate a database by doing the following: CREATE TABLE test1 (i int4. } /* * should PQclear PGresult whenever it is no longer needed to avoid * memory leaks */ PQclear(res). /* collect any asynchronous backend messages */ PQconsumeInput(conn). } } /* close the connection to the database and cleanup */ PQfinish(conn). "ASYNC NOTIFY of '%s' from backend pid '%d' received\n".

d_fnum.0. * * the expected output is: * * tuple 0: got i = (4 bytes) 1.000000.000000. 3. * * INSERT INTO test1 values (2.0)').567000.0.000000) * * */ #include <stdio.0)'). 2. p_fnum. d = (4 bytes) * 89. *conn. 4.000000) tuple 1: got i = (4 bytes) 2. p = (4 bytes) 2 points boundbox = * (hi=4. then the system will try to use reasonable * defaults by looking up environment variables or. *pgport. *dbName.h> #include "libpq-fe.2.0.0. polygon '(3. } main() { char char int int int PGconn PGresult *pghost.000000/4.567. 1. /* * begin.000000. failing that. j. 89. 2. lo = * 1.000000.050003. d = (4 bytes) 3. exit(1). by setting the parameters for a backend connection if the * parameters are null.Kapitel 27 * * INSERT INTO test1 values (1. i_fnum.h" #include "utils/geo_decls. 360 .05.h" /* for the POLYGON type */ void exit_nicely(PGconn *conn) { PQfinish(conn).1. nFields. 1.0. *pgoptions. p = (4 * bytes) 2 points boundbox = (hi=3. *res.000000/3. 3.0. i. polygon '(4. lo = 2. *pgtty.

libpq: Die C-Bibliothek * using hardwired constants */ pghost = NULL. PQclear(res). } /* * should PQclear PGresult whenever it is no longer needed to avoid * memory leaks */ PQclear(res). if (!res || PQresultStatus(res) != PGRES_COMMAND_OK) { 361 . "BEGIN command failed\n"). /* * fetch rows from the pg_database. pgoptions. dbName). "Connection to database '%s' failed. "%s". host name of the backend server */ port of the backend server */ special options to start up the backend server */ debugging tty for the backend server */ /* change this to the name of your test * database */ /* make a connection to the database */ conn = PQsetdb(pghost. /* * pgtty = NULL. "DECLARE mycursor BINARY CURSOR FOR SELECT * FROM test1"). exit_nicely(conn). exit_nicely(conn). } /* start a transaction block */ res = PQexec(conn. fprintf(stderr. pgtty. dbName). "BEGIN"). pgport. if (!res || PQresultStatus(res) != PGRES_COMMAND_OK) { fprintf(stderr. PQerrorMessage(conn)). /* dbName = getenv("USER"). /* * check to see that the backend connection was successfully made */ if (PQstatus(conn) == CONNECTION_BAD) { fprintf(stderr. /* pgport = NULL. the system catalog of * databases */ res = PQexec(conn. /* pgoptions = NULL.\n".

362 . PQgetlength(res. i). i. "d"). /* we hard-wire this to the 3 fields we know about */ ival = (int *) PQgetvalue(res. i++) { int *ival. "i"). PQfsize(res. d_fnum = PQfnumber(res. /* * plen doesn't include the length field so need to * increment by VARHDSZ */ pval = (POLYGON *) malloc(plen + VARHDRSZ). plen). PQftype(res. p_fnum). i. i_fnum). } i_fnum = PQfnumber(res.Kapitel 27 fprintf(stderr. d_fnum). i < 3. p_fnum). PQgetvalue(res. size[%d] = %d\n". printf(" i = (%d bytes) %d. if (!res || PQresultStatus(res) != PGRES_TUPLES_OK) { fprintf(stderr. "FETCH ALL in mycursor"). POLYGON *pval. memmove((char *) &pval->npts. p_fnum = PQfnumber(res. "p"). i. PQclear(res). "DECLARE CURSOR command failed\n"). i < PQntuples(res). float *dval. dval = (float *) PQgetvalue(res. i. i_fnum). int plen. exit_nicely(conn). printf("tuple %d: got\n". "FETCH ALL command didn't return tuples properly\n"). PQclear(res). res = PQexec(conn. i)). i). i. } for (i = 0. for (i = 0. i. i. *ival). i++) { printf("type[%d] = %d. exit_nicely(conn). plen = PQgetlength(res.\n". } PQclear(res). pval->size = plen.

pval->boundbox. pval->npts. *dval). printf(" p = (%d bytes) %d points \tboundbox = (hi=%f/%f. /* close the cursor */ res = PQexec(conn. } PQclear(res). i. /* close the connection to the database and cleanup */ PQfinish(conn).yh. i.yl). d_fnum). PQclear(res).xl.libpq: Die C-Bibliothek printf(" d = (%d bytes) %f. lo = %f.\n".xh.%f)\n". } 363 . d_fnum). pval->boundbox. pval->boundbox. return 0. /* commit the transaction */ res = PQexec(conn. PQgetlength(res. "CLOSE mycursor"). PQgetlength(res. PQclear(res). pval->boundbox. "COMMIT").

.

eine Large-Object-Schnittstelle. als externe Dateien.1 werden alle Large-Object-Daten in einer Systemtabelle namens pg_largeobject abgespeichert. wohingegen TOAST nur 1 GB verarbeiten kann.1 Geschichte POSTGRES 4. Diese Schnittstelle bietet dateiähnlichen Zugriff auf Benutzerdaten. bietet es striktere Datenintegrität.) Seit PostgreSQL 7. Als Ergebnis gibt es in PostgreSQL nur noch Unterstützung für Large Objects als Daten in der Datenbank. (Gelegentlich werden Sie den Begriff Inversion als Synonym für Large Object verwendet sehen. war die Obergrenze für die Größe eines Datenwerts ziemlich niedrig. Ein bleibender Vorteil der Large-Object-Schnittstelle ist. Wir verwenden die C-Bibliothek libpq für die Beispiele in diesem Kapitel. und als Daten in der POSTGRES-Datenbank. der es ermöglicht.2. PostgreSQL 7. bot drei eingebaute Implementierungen von Large Objects: als Dateien außerhalb des POSTGRES-Servers. Dieses Kapitel beschreibt die Implementierung und die Programmier. Obgleich der Zugriff darauf langsamer ist. welcher bis auf 32768 erhöht werden kann). und bietet immer noch. Andere Schnittstellen verwenden möglicherweise die Large-Object-Schnittstelle intern. dass sie Werte bis 2 GB Größe erlaubt. Dadurch wird die Large-Object-Schnittstelle teilweise obsolet.28 28 Large Objects In PostgreSQL vor Version 7. Dies wird hier nicht beschrieben. 365 . die vom POSTGRES-Server verwaltet wurden. bot PostgreSQL.1 konnte die Größe eine Zeile in der Datenbank die Größe einer Datenseite nicht überschreiten. aber die meisten PostgreSQL-spezifischen Programmierschnittstellen bieten die gleiche Funktionalität. um allgemeine Unterstützung für große Werte anzubieten. der mittelbare Vorgänger von PostgreSQL. Da die Größe einer Datenseite 8192 Bytes ist (der Vorgabewert. Um die Speicherung von größeren atomaren Werten zu unterstützen. Aus historischen Gründen wird dieses Speichersystem als Inversion large object bezeichnet. dass Datenzeilen viel größer als einzelne Datenseiten sein können. Das verursachte beträchtliche Verwirrung unter den Benutzern.1 führte einen Mechanismus (mit dem Spitznamen “TOAST”) ein. 28.und SQL-Schnittstellen für LargeObject-Daten in PostgreSQL. die in einer besonderen Large-Object-Struktur gespeichert sind.

Clientanwendungen. Die hier beschriebenen symbolischen Konstanten sind in der Headerdatei libpq/ libpq-fs. 28. Der Rückgabewert ist die dem neuen Large Object zugewiesene OID. 28. zu identifizieren. auf. filename gibt den Betriebssystemnamen der Datei an. int mode). um den Speichermanager. Der Zugriffstyp (schreiben. um auf Large-Object-Daten zuzugreifen. die von PostgreSQL-Clientbibliotheken angeboten werden. die die Large-Object-Schnittstelle in libpq verwenden. die diverse Attribute des neuen Objekts beschreibt. (Diese Anforderung wird seit PostgreSQL 6. lesen oder beides) wird durch die Bits INV_READ und INV_WRITE. auf dem das Large Object abgelegt werden soll. Der Parameter mode ist eine Bitmaske. write (schreiben). Alle Manipulationen von Large Objects mit diesen Funktionen müssen in einem SQL-Transaktionsblock stattfinden. sollten die Headerdatei libpq/libpq-fs.5 strikt durchgesetzt. erzeugt eine neues Large Object. 366 . kontrolliert. lseek (suchen) usw.2 Ein Large Object importieren Um eine Datei aus dem Betriebssystem als Large Object zu importieren. die bei Vernachlässigung in Fehlverhalten resultierte. rufen Sie Oid lo_import(PGconn *conn. mit Analoga von open (öffnen). Ein B-Tree-Index ermöglicht schnellen Zugriff auf das korrekte Stück.2 Implementierungsmerkmale Die Large-Object-Implementierung zerlegt Large-Object-Werte in “Stücke” und speichert die Stücke in Zeilen in der Datenbank.1 Ein Large Object erzeugen Die Funktion Oid lo_creat(PGconn *conn. Die niedrigeren 16 Bits der Maske wurden früher in Berkeley verwendet. const char *filename). obwohl sie schon in vorherigen Versionen eine unausgesprochene Anforderung war. Diese Bits sollten jetzt null sein.3. die als Large Object importiert werden soll. Der Rückgabewert ist die dem neuen Large Object zugewiesene OID. Ein Beispiel: inv_oid = lo_creat(INV_READ|INV_WRITE). read (lesen). 28. mit “oder” verknüpft.3.3 Clientschnittstellen Dieser Abschnitt beschreibt die Schnittstellen. wenn beliebige Datenteile gelesen und geschrieben werden.h definiert.h einbinden und die libpq-Bibliothek einlinken.Kapitel 28 28.) Die Large-Object-Schnittstelle in PostgreSQL wurde der Dateisystemschnittstelle in UNIX nachempfunden.

367 . lo_lseek.3. auf. 28. Die Anzahl der Bytes.4 Ein bestehendes Large Object öffnen Um ein bestehendes Large Object zu öffnen. Das Argument fd muss vorher von lo_open erhalten worden sein. wird zurückgegeben. der später mit lo_read.3. lo_open gibt einen Large-Object-Deskriptor zurück.3. int offset. Schreiben (INV_WRITE) oder zu beidem geöffnet wird. lo_write. Im Falle eines Fehlers ist der Rückgabewert negativ. ob das Objekt zum Lesen (INV_READ). rufen Sie int lo_lseek(PGconn *conn. Oid lobjId. Das Argument fd muss vorher von lo_open erhalten worden sein. die tatsächlich gelesen wurden. size_t len). wird zurückgegeben. 28. Die Anzahl der Bytes. char *buf.7 In einem Large Object suchen Um die aktuelle Lese. rufen Sie int lo_export(PGconn *conn. Im Falle eines Fehlers ist der Rückgabewert negativ.oder Schreibposition in einem Large Object zu ändern.3 Ein Large Object exportieren Um ein Large Object in eine Betriebssystemdatei zu exportieren. schreibt len Bytes aus buf in das Large Object fd. int fd. rufen Sie int lo_open(PGconn *conn. Das Argument lobjId ist die OID des zu öffnenden Large Object. int fd.6 Daten aus einem Large Object lesen Die Funktion int lo_read(PGconn *conn. 28. size_t len). const char *buf. bevor es erzeugt worden ist. int fd. Ein Large Object kann nicht geöffnet werden.3. Die Bits in mode kontrollieren.5 Daten in ein Large Object schreiben Die Funktion int lo_write(PGconn *conn. lo_tell und lo_close verwendet werden kann. 28. auf. int whence). const char *filename).Large Objects 28. Oid lobjId. auf . int mode).3. Das Argument lobjId ist die OID des zu exportierenden Large Object und das Argument filename gibt den Betriebssystemnamen der Datei an. liest len Bytes aus dem Large Object fd in buf. die tatsächlich geschrieben wurden.

SEEK_CUR (von der aktuellen Position zählen) und SEEK_END (vom Objektende zählen). Bei einem Fehler ist der Rückgabewert negativ. lo_import('/etc/motd')). Im Falle eines Fehlers ist der Rückgabewert negativ. Bei einem Fehler ist der Rückgabewert negativ. rufen Sie int lo_unlink(PGconn *conn.3. 368 . wobei fd der von lo_open erhaltene Large-Object-Deskriptor ist. 28. raster oid ). 28. rufen Sie int lo_tell(PGconn *conn.3. Bei Erfolg gibt lo_close null zurück. Das Argument lobjId gibt die OID des zu löschenden Large Object an. Oid lobjId).10 Ein Large Object entfernen Um ein Large Object aus der Datenbank zu entfernen. lo_import und lo_export.3. auf. welche zur Verwendung in SQL-Befehlen gedacht sind. die von offset angegeben wird. INSERT INTO image (name.Kapitel 28 Diese Funktion bewegt den aktuellen Positionszeiger des von fd identifizierten Large Object an die neue Position.8 Die aktuelle Schreibposition eines Large Object ermitteln Um die aktuelle Lese. Die gültigen Werte für whence sind SEEK_SET (vom Objektanfang zählen). int fd). auf . wie sie verwendet werden: CREATE TABLE image ( name text.4 Serverseitige Funktionen Für den Zugriff auf Large Objects gibt es zwei eingebaute serverseitige Funktionen.9 Einen Large-Object-Deskriptor schließen Ein Large Object kann mit int lo_close(PGconn *conn. geschlossen werden. raster) VALUES ('beautiful image'.oder Schreibposition in einem Large Object zu erhalten. 28. 28. Hier ist ein Beispiel. int fd). Der Rückgabewert ist die neue aktuelle Position.

int lobj_fd. '/tmp/motd') FROM image WHERE name = 'beautiful image'. char buf[BUFSIZE]. int fd.h> #include "libpq-fe.1: Beispielprogramm für Large Objects mit libpq /*-------------------------------------------------------------* * testlo.c-* test using large objects with libpq * * Copyright (c) 1994. das zeigt. tmp. 28.Large Objects SELECT lo_export(image.h" #define BUFSIZE 1024 /* * importFile * import file "in_filename" into database as large object "lobjOid" * */ Oid importFile(PGconn *conn. aber im Quellcode belassen um dem Leser zu helfen. char *filename) { Oid lobjId.1 ist ein Beispielprogramm. /* * open the file to be read in 369 .c in der Quelltext-Distribution gefunden werden.h" #include "libpq/libpq-fs.raster. int nbytes.5 Beispielprogramm Beispiel 28. Dieses Programm kann auch in src/test/examples/testlo. wie die Large-Object-Schnittstelle in libpq verwendet werden kann. Beispiel 28. Teile des Programms sind auskommentiert. Regents of the University of California * *-------------------------------------------------------------*/ #include <stdio.

INV_READ). O_RDONLY. lobjId. if (lobjId == 0) fprintf(stderr. "can't open large object %d\n". lobj_fd = lo_open(conn. return lobjId. BUFSIZE)) > 0) { tmp = lo_write(conn. INV_WRITE). if (fd < 0) { /* error */ fprintf(stderr.Kapitel 28 */ fd = open(filename. } void pickout(PGconn *conn. "error while reading large object\n"). "can't create large object\n"). buf. lobjId). int len) { int lobj_fd. Oid lobjId. lobjId. int nbytes. lobj_fd). lobj_fd = lo_open(conn. int start. /* * read in from the Unix file and write to the inversion file */ while ((nbytes = read(fd. buf. char *buf. if (tmp < nbytes) fprintf(stderr. } 370 . "can't open unix file %s\n". filename). 0666). } /* * create the large object */ lobjId = lo_creat(conn. nbytes). } (void) close(fd). if (lobj_fd < 0) { fprintf(stderr. lobj_fd. int nread. INV_READ | INV_WRITE). (void) lo_close(conn.

lobj_fd. int i. lo_close(conn. lobj_fd. i++) buf[i] = 'X'. lobj_fd. start. nread = 0. SEEK_SET). i < len.nread > 0) { nbytes = lo_read(conn.nread). int start. lobjId. for (i = 0. char *buf. buf. } 371 . SEEK_SET). "\n"). ">>> %s". buf + nwritten. lobj_fd. int nbytes. nwritten = 0. Oid lobjId. int len) { int lobj_fd. while (len . lobjId). } lo_lseek(conn. while (len . } void overwrite(PGconn *conn. lobj_fd = lo_open(conn.nwritten). fprintf(stderr. if (lobj_fd < 0) { fprintf(stderr. nread += nbytes. start.nwritten > 0) { nbytes = lo_write(conn. buf = malloc(len + 1). buf[nbytes] = ' '. nwritten += nbytes. buf). int nwritten. fprintf(stderr. buf[i] = ' '. INV_READ). lobj_fd). buf = malloc(len + 1). "can't open large object %d\n". } free(buf). len .Large Objects lo_lseek(conn. len .

Kapitel 28 free(buf). lobj_fd). Oid lobjId. buf. filename). if (tmp < nbytes) { 372 . "can't open unix file %s\n". } /* * read in from the Unix file and write to the inversion file */ while ((nbytes = lo_read(conn. lo_close(conn. nbytes). /* * create an inversion "object" */ lobj_fd = lo_open(conn. int fd. lobjId). lobj_fd. 0666). "can't open large object %d\n". O_CREAT | O_WRONLY. if (fd < 0) { /* error */ fprintf(stderr. "\n"). if (lobj_fd < 0) { fprintf(stderr. INV_READ). lobjId. } /* * open the file to be written to */ fd = open(filename. char buf[BUFSIZE]. BUFSIZE)) > 0) { tmp = write(fd. int nbytes. char *filename) { int lobj_fd. } /* * exportFile * export large object "lobjOid" to file "out_filename" * */ void exportFile(PGconn *conn. buf. tmp. fprintf(stderr.

char *database. (void) close(fd). argv[0]). "Usage: %s database_name in_filename out_filename\n". PGresult *res. if (argc != 4) { fprintf(stderr. Oid lobjOid. "error while writing %s\n". lobj_fd). } int main(int argc. filename). *out_filename. exit(1). return. in_filename = argv[2]. NULL. } database = argv[1]. /* * set up the connection */ conn = PQsetdb(NULL. /* check to see that the backend connection was successfully made */ if (PQstatus(conn) == CONNECTION_BAD) 373 . char **argv) { char *in_filename. NULL. exit(1).Large Objects fprintf(stderr. } void exit_nicely(PGconn *conn) { PQfinish(conn). NULL. PGconn *conn. out_filename = argv[3]. database). } } (void) lo_close(conn.

lobjOid. */ lobjOid = lo_import(conn. */ printf("exporting large object to file %s\n". out_filename). PQclear(res). lobjOid. printf("overwriting bytes 1000-2000 of the large object with X's\n"). in_filename). PQerrorMessage(conn)). PQfinish(conn). lobjOid. printf("picking out bytes 1000-2000 of the large object\n"). out_filename). 1000. /* /* /* } 374 . lobjOid = importFile(conn. pickout(conn. printf("as large object %d. printf("importing file %s\n". "%s". "Connection to database '%s' failed. "begin"). exit_nicely(conn). lobjOid. in_filename). database). PQclear(res). overwrite(conn. out_filename).\n". "end"). } res = PQexec(conn. res = PQexec(conn. in_filename). fprintf(stderr. 1000. 1000). exportFile(conn. exit(0).\n". */ lo_export(conn. 1000).Kapitel 28 { fprintf(stderr. lobjOid).

1 gibt einen Überblick über die in pgtcl verfügbaren Befehle.29 29 pgtcl: Die TclBindungsbibliothek pgtcl ist ein Tcl-Paket.1 Überblick Tabelle 29. Diese Befehle sind im Einzelnen auf den folgenden Seiten beschrieben.1: pgtcl-Befehle 375 . 29. mit dem Clientprogramme mit dem PostgreSQL-Server kommunizieren können. Es stellt die meisten Funktionen von libpq für Tcl-Skripts zur Verfügung. Befehl pg_connect pg_disconnect pg_conndefaults pg_exec pg_result pg_select pg_execute pg_listen pg_on_connection_loss pg_lo_creat pg_lo_open pg_lo_close pg_lo_read pg_lo_write pg_lo_lseek Beschreibung eine Verbindung zum Server öffnen eine Verbindung zum Server schließen Verbindungsparameter und ihre Vorgabewerte ermitteln einen Befehl an den Server senden Informationen über ein Befehlsergebnis ermitteln eine Schleife über ein Anfrageergebnis ausführen eine Anfrage senden und wahlweise eine Schleife über das Ergebnis ausführen einen Befehl für asynchrone Benachrichtigungsmitteilungen einsetzen oder ändern einen Befehl für unerwarteten Verbindungsverlust einsetzen oder ändern ein Large Object erzeugen ein Large Object öffnen ein Large Object schließen aus einem Large Object lesen in ein Large Object schreiben den Positionszeiger eines Large Object setzen Tabelle 29.

Diese Funktionen wurden den analogen Funktionen in der Unix-Dateisystemschnittstelle nachempfunden. In der Praxis ist das selten ein Problem.so oder .) Die pg_lo_*-Befehle sind Schnittstellen zur Large-Object-Funktionalität PostgreSQL. weil die von pg_lo_open zurückgegebenen Deskriptoren nur in der aktuellen Transaktion gültig sind. müssen Sie libpgtcl in Ihre Tcl-Anwendung laden. die Umgebungsvariable LD_LIBRARY_PATH setzen oder eine ähnliche Methode auf Ihrer Plattform finden.sl direkt in die Anwendung zu schreiben. aber in einigen Konfigurationen könnte dies eine Hürde sein.Kapitel 29 Befehl pg_lo_tell pg_lo_unlink pg_lo_import pg_lo_export Beschreibung den aktuellen Positionszeiger eines Large Object zurückgeben ein Large Object löschen ein Large Object aus einer Datei importieren ein Large Object in eine Datei exportieren Tabelle 29. da beide diese Bibliotheken normalerweise im selben Verzeichnis abgelegt sind.eine Verbindung zum Server öffnen 376 .1: pgtcl-Befehle (Forts. Der Befehl load wird fehlschlagen. Das wird normalerweise mit dem Tcl-Befehl load gemacht. libpgtcl hängt wiederum von libpq ab. Die pg_lo_*Befehle sollten innerhalb eines BEGIN /COMMIT-Transaktionsblocks verwendet werden. anstatt . wo es nach der dynamischen Bibliothek libpgtcl suchen soll.3 pgtcl-Befehlsreferenz pg_connect Name pg_connect -. Sehen Sie sich die PostgreSQL-Installationsanweisungen an. Hier ist ein Beispiel: load libpgtcl[info sharedlibextension] Es wird empfohlen. Wenn Sie eine eigene Programmdatei für Ihre Anwendung bauen. könnten Sie libpgtcl auch statisch in die Programmdatei einbinden und so den load-Befehl und die ganzen möglichen Probleme beim dynamischen Linken vermeiden. um weitere Informationen zu erhalten. Schauen Sie sich den Quellcode von pgtclsh als Beispiel an. wenn das dynamische Ladeprogramm des System nicht weiß. Sie müssen womöglich mit ldconfig arbeiten. Die Befehle pg_lo_import und pg_lo_export müssen in einem BEGIN /COMMIT-Transaktionsblock verwendet werden. 29. also muss das Ladeprogramm auch die dynamische Bibliothek libpq finden können. info sharedlibextension zu verwenden. 29.2 pgtcl in eine Anwendung laden Bevor Sie pgtcl-Befehle verwenden können.

In der älteren hat jeder mögliche Parameter einen getrennten Optionsschalter im pg_connect-Befehl. mit der verbunden werden soll. -tty tty Eine Datei oder ein TTY für zusätzliche Debugausgaben vom Server. jeder in der Form schlüssel = wert geschrieben. Zwei Syntaxen stehen zur Verfügung. -host hostname Der Hostname des Datenbankservers. die mehrere Parameterwerte enthalten kann. Argumente Neuer Stil verbindungsparameter Eine Zeichenkette mit Verbindungsparametern. wird eine Handle für die Datenbankverbindung zurückgegeben. mit dem verbunden werden soll. Alter Stil dbName Der Name der Datenbank. Eine Liste der gültigen Parameter kann in der Beschreibung der libpq-Funktion PQconnectdb gefunden werden. pg_conndefaults kann verwendet werden. -options serveroptionen Zusätzliche. mit dem verbunden werden soll. um Informationen über die in der neueren Syntax verfügbaren Optionen zu erhalten.Bindungsbibliothek Synopsis pg_connect -conninfo verbindungsparameter pg_connect dbName ?-host hostname? ?-port portnummer? ?-tty tty? ?-options serveroptionen? Beschreibung pg_connect öffnet eine Verbindung zum PostgreSQL-Server. -port portnummer Die TCP-Portnummer des Datenbankservers.pgtcl: Die Tcl. an den Server zu übergebende Konfigurationsoptionen. Rückgabewert Wenn erfolgreich. 377 . Handles haben den Präfix pgsql. In der neueren Form wird eine einzige Zeichenkette angegeben.

Argumente Keine 378 .eine Verbindung zum Server schließen Synopsis pg_disconnect verbindung Beschreibung pg_disconnect schließt eine Verbindung zum PostgreSQL-Server. Rückgabewert Keiner pg_conndefaults Name pg_conndefaults -. Argumente verbindung Die Handle der zu schließenden Verbindung.Verbindungsparameter und ihre Vorgabewerte ermitteln Synopsis pg_conndefaults Beschreibung pg_conndefaults gibt Informationen über die für pg_connect -conninfo zur Verfügung stehenden Verbindungsparameter und deren aktuelle Vorgabewerte zurück.Kapitel 29 pg_disconnect Name pg_disconnect -.

Beachten Sie. befehlstext Der auszuführende SQL-Befehl. Ein Tcl-Fehler wird erzeugt. auf der der Befehl ausgeführt werden soll. Die Handles für Befehlsergebnisse bestehen aus der Verbindungshandle gefolgt von einem Punkt und der Ergebnisnummer. aber keinen Tcl-Fehler in pg_exec.Bindungsbibliothek Rückgabewert Das Ergebnis ist eine Liste. Jeder Eintrag ist wiederum eine Liste im folgenden Format: {name beschriftung ausgzeichen ausggröße wert} wobei name als Parameter in pg_connect -conninfo verwendet werden kann. dass der SQL-Befehl erfolgreich war. Argumente verbindung Die Handle der Verbindung. 379 . Ansonsten wird ein Ergebnisobjekt erzeugt und eine Handle dafür zurückgegeben. die die möglichen Verbindungsparameter und deren aktuelle Vorgabewerte beschreibt. Rückgabewert Eine Ergebnishandle. um die Ergebnisse des Befehls zu ermitteln. Eine vom Server zurückgegebene Fehlermeldung ergibt ein Ergebnisobjekt mit einem Fehlerstatus. wenn pgtcl keine Antwort vom Server erhalten konnte.pgtcl: Die Tcl.einen Befehl an den Server senden Synopsis pg_exec verbindung befehlstext Beschreibung pg_exec schickt einen Befehl an den PostgreSQL-Server und gibt ein Ergebnis zurück. dass das Wegbleiben eines Tcl-Fehlers nicht anzeigt. Diese Handle kann an pg_result übergeben werden. pg_exec Name pg_exec -.

solange Sie wollen. dann die OID der eingefügten Zeile. dass Sie zu viele Ergebnisobjekte erzeugt haben.Kapitel 29 pg_result Name pg_result -. auf der dieses Ergebnis erzeugt wurde. -conn Die Verbindung. ansonsten 0. aber wenn Sie damit fertig sind. wenn der Status einen Fehler anzeigt. -error Die Fehlermeldung. ansonsten eine leere Zeichenkette. -numAttrs Die Anzahl der Spalten (Attribute) in jeder Zeile. sollten Sie es mit pg_result -clear freigeben. die angibt. Sie können das Befehlsergebnis behalten. Argumente ergebnishandle Die Handle des Befehlsergebnisses.Informationen über ein Befehlsergebnis ermitteln Synopsis pg_result ergebnishandle ergebnisoption Beschreibung pg_result gibt Informationen aus einem Befehlsergebnisobjekt zurück. welches vorher durch pg_exec erzeugt wurde. ergebnisoption Eine der folgenden Optionen. -numTuples Die Anzahl der von der Anfrage zurückgegebenen Zeilen (Tupel). -assign arrayname 380 . -oid Wenn der Befehl ein INSERT war. Ansonsten haben Sie ein Speicherleck und pgtcl wird sich irgendwann beschweren. welcher Teil der Ergebnisinformationen zurückgegeben werden soll: -status Der Status des Ergebnisses.

-assignbyidx arrayname [anhang] Legt die Ergebnisse in einem Array ab. alles andere ist ein Fehler. mit den Spaltennamen als Arrayindizes. mit Indizes der Form (ersterSpaltenwert. -getTuple zeilennummer Gibt die Spalten der angegebenen Zeile als Liste zurück. Die Variable arrayvar ist ein Arrayname. pg_select Name pg_select – eine Schleife über ein Anfrageergebnis ausführen Synopsis pg_select verbindung befehlstext arrayvar prozedur Beschreibung lpg_select schickt eine Anfrage (SELECT-Befehl) an den PostgreSQL-Server und führt für jede Zeile im Ergebnis ein angegebenes Stück Code aus. 381 . indiziert nach Spaltennamen. Zeilennummern beginnen bei null. spaltennummer). -attributes Gibt eine Liste der Namen der Spalten im Ergebnis zurück. mit den Werten der ersten Spalte und den Namen der übrigen Spalten als Indizes. werden alle Spalten außer der ersten in jeder Zeile im Array gespeichert.Bindungsbibliothek Legt die Ergebnisse in einem Array ab. Zeilennummern beginnen bei null. Für jede Zeile wird arrayvar mit den Spaltenwerten gefüllt. -lAttributes Gibt eine Liste von Listen der Form {name typoid typgröße} für jede Spalte zurück. der in der Schleife verwendet wird. wie oben beschrieben. -tupleArray zeilennummer arrayname Speichert die Spalten der Zeile im Array arrayName. Der befehlstext muss ein SELECT-Befehl sein. spaltennameAnhang). dann wird es an jeden Indexwert angehängt. -clear Gibt das Ergebnisobjekt wieder frei. Kurz gesagt. mit Indizes der Form (zeilennummer. Dann wird die prozedur ausgeführt. Rückgabewert Das Ergebnis hängt von der gewählten Option ab.pgtcl: Die Tcl. Wenn anhang angegeben wird.

" array { puts [format "%5d %s" $array(nummer) $array(name)] } pg_execute Name pg_execute -. arrayvar Eine Arrayvariable für die Ergebniszeilen. .tupno Die aktuelle Zeilennummer. dass die Tabelle tabelle1 Spalten namens nummer und name (und möglicherweise weitere) hat: pg_select $pgconn "SELECT * FROM tabelle1. prozedur Eine Prozedur. die für jede Ergebniszeile ausgeführt wird. Rückgabewert Keiner Beispiele Dieses Beispiel geht davon aus.Kapitel 29 Zusätzlich zu den Spaltenwerten werden die folgenden besonderen Einträge in das Array eingefügt: . befehlstext Die auszuführende SQL-Anfrage.headers Eine Liste der von der Anfrage zurückgegebenen Spaltennamen. auf der die Anfrage ausgeführt werden soll.numcols Die Anzahl der von der Anfrage zurückgegebenen Spalten. . beginnend bei null und bei jedem Schleifendurchlauf um eins erhöht.eine Anfrage senden und wahlweise eine Schleife über das Ergebnis ausführen 382 . Argumente verbindung Die Handle der Verbindung.

Wenn der Befehl kein SELECT ist. die von dem Befehl betroffen oder zurückgegeben wurden. Das erste Element ist ein Fehlercode. werden.) Die Anzahl der Zeilen. dann wird diese Option ignoriert. Die prozedur kann die Tcl-Befehle break. wird pg_execute einen Tcl-Fehler erzeugen und nur den Fehlertext zurückgeben. continue und return mit dem zu erwartenden Verhalten verwenden. pg_execute nicht die Anzahl der betroffenen Zeilen zurückgibt. die prozedur ausgeführt. wenn angegeben. 383 . in die die OID aus einem INSERT-Befehl gespeichert werden wird. Wenn der Befehl ein SELECT ist. mit den Spaltennamen als Arrayindizes. Wenn der Befehl ein INSERT ist und eine einzige Zeile eingefügt wird. (prozedur wegzulassen ist wahrscheinlich nur sinnvoll. Für Fehler vom Server wird pg_execute einen Tcl-Fehler erzeugen und eine Liste mit zwei Elementen zurückgeben. und dann wird. ansonsten in nach den Spalten benannten Variablen. Argumente -array arrayvar Gibt den Namen einer Arrayvariablen an. Beachten Sie. wenn kein Zugriff auf die Ergebnishandle benötigt wird. befehlstext Der auszuführende SQL-Befehl. pg_execute ist eine neuere Funktion. wenn die Anfrage nur eine einzige Zeile ergibt. Rückgabewert Die Anzahl der Zeilen. indiziert nach Spaltennamen. die die Anfrage liefert. wenn prozedur return ausführt. wird die Anzahl der von dem Befehl betroffenen Zeilen zurückgegeben. die mehr Fähigkeiten als pg_select bietet und in vielen Fällen pg_exec ersetzen kann. prozedur Eine Prozedur. -oid oidvar Gibt den Namen einer Variable an. wie zum Beispiel einen Fehler bei der Kommunikation mit dem Server. für jede Zeile im Ergebnis. verbindung Die Handle der Verbindung. wird zurückgegeben.pgtcl: Die Tcl. und das zweite Element ist der Fehlertext vom Server. die für jede Ergebniszeile eines SELECT-Befehls ausgeführt wird. Wenn befehlstext kein SELECT ist. auf der der Befehl ausgeführt werden soll. wenn angegeben. dann wird die OID der eingefügten Zeile in der Variable oidvar gespeichert. wo die Ergebniszeilen abgelegt werden. wie zum Beispiel PGRES_FATAL_ERROR. die Zeilenwerte in der Variable arrayvar gespeichert.Bindungsbibliothek Synopsis pg_execute ?-array arrayvar? ?-oid oidvar? verbindung befehlstext ?prozedur? Beschreibung pg_execute schickt einen Befehl an den PostgreSQL-Server. Bei ernsthafteren Fehlern. dass. wenn die wahlfreie Option -oid angegeben wurde.

und Minimalwerte und speichere sie in $s(max) und $s(min): pg_execute -array s $pgconn "SELECT max(value) AS max. Der eingesetzte Befehl wird in der Idle-Schleife von Tcl ausgeführt. der bei Ankunft einer asynchronen Benachrichtigungsmitteilung vom PostgreSQL-Server aufgerufen werden soll. um in die Idle-Schleife einzutreten.Kapitel 29 Beispiele In den folgenden Beispielen wurde die Fehlerprüfung mit catch weggelassen." Finde die Maximal. um die Klarheit zu bewahren. Nachdem ein Befehl mit pg_listen registriert worden ist." { puts "Nummer=$d(nummer) Wert=$d(wert)" } Finde die Maximal. min(value) AS min FROM meinetabelle. Mit dem Parameter befehl wird ein Befehl eingesetzt oder der Text eines bestehenden Befehls ersetzt. In anderen Tcl-Shells können Sie update oder vwait aufrufen. min(value) AS min FROM meinetabelle. Ohne den Parameter befehl wird ein schon registrierter Befehl widerrufen. 384 .und Minimalwerte und speichere sie in $max und $min: pg_execute $pgconn "SELECT max(value) AS max. wert FROM meinetabelle." pg_listen Name pg_listen -.einen Befehl für asynchrone Benachrichtigungsmitteilungen einsetzen oder ändern Synopsis pg_listen verbindung notifyName ?befehl? Beschreibung pg_listen setzt einen Befehl ein. Das geschieht. Bei einer mit Tk geschriebenen Anwendung wird diese Schleife im Leerlauf automatisch aufgerufen. wird der angegebene Befehlstext immer ausgeführt. Füge eine Zeile ein und speichere die OID in result_oid: pg_execute -oid result_oid $pgconn "INSERT INTO meinetabelle VALUES (1). wenn eine Benachrichtigungsmitteilung mit dem angegebenen Namen vom Server eintrifft. wenn eine beliebige PostgreSQL-Clientanwendung den Befehl NOTIFY mit Verweis auf den entsprechenden Namen ausführt." Gebe die Spalten nummer und wert aus jeder Zeile aus: pg_execute -array d $pgconn "SELECT nummer.

Rückgabewert Keiner pg_on_connection_loss Name pg_on_connection_loss -. notifyName Der Name der Benachrichtigung . Der eingesetzte Befehl wird in der Idle-Schleife von Tcl ausgeführt. pgtclübernimmt das für Sie.auf die geachtet werden soll. bei der auf Verbindungsverlust geachtet werden soll. der aufgerufen werden soll. der ausgeführt werden soll.einen Befehl für unerwarteten Verbindungsverlust einsetzen oder ändern Synopsis pg_on_connection_loss verbindung ?befehl? Beschreibung pg_on_connection_loss setzt einen Befehl ein. um in die Idle-Schleife einzutreten. Argumente verbindung Die Handle. befehl Wenn angegeben. sollten Sie die SQL-Befehle LISTEN und UNLISTEN nicht direkt aufrufen.Bindungsbibliothek Wenn Sie pg_listen verwenden.pgtcl: Die Tcl. 385 . Bei einer mit Tk geschriebenen Anwendung wird diese Schleife im Leerlauf automatisch aufgerufen. Ohne den Parameter befehl wird ein schon registrierter Befehl widerrufen. bei der auf Benachrichtigungen geachtet werden soll. wenn ein unerwarteter Verlust der Verbindung geschieht. In anderen Tcl-Shells können Sie update oder vwait aufrufen. dann führen Sie den SQL-Befehl NOTIFY mit pg_exec aus. wenn eine passende Benachrichtigung eintrifft. Argumente verbindung Die Handle. Aber wenn Sie selbst eine Benachrichtigungsmitteilung senden wollen. der Befehlstext. Mit dem Parameter befehl wird ein Befehl eingesetzt oder der Text eines bestehenden Befehls wird ersetzt.

ein Large Object öffnen 386 . der Befehlstext.ein Large Object erzeugen Synopsis pg_lo_creat verbindung modus Beschreibung pg_lo_creat erzeugt ein Large Object. Zum Beispiel: [pg_lo_creat $conn "INV_READ|INV_WRITE"] Rückgabewert Die OID des erzeugten Large Object. Er kann INV_READ (lesen) oder INV_WRITE (schreiben) oder beides mit “oder” verknüpfen. in der das Large Object erzeugt werden soll. modus Der Zugriffsmodus für das Large Object. Der Verknüpfungsoperator ist |. Argumente verbindung Die Handle einer Datenbankverbindung. wenn ein Verbindungsverlust entdeckt wird. pg_lo_open Name pg_lo_open -.Kapitel 29 befehl Wenn angegeben. Rückgabewert Keiner pg_lo_creat Name pg_lo_creat -. der ausgeführt werden soll.

ein Large Object schließen Synopsis pg_lo_close verbindung deskriptor Beschreibung pg_lo_close schließt ein Large Object. modus Gibt den Zugriffsmodus für das Large Object an. Der Modus kann sein: r (lesen). w (schreiben) oder rw (beides). 387 . Rückgabewert Ein Deskriptor zur späteren Verwendung in Large-Object-Befehlen. pg_lo_close Name pg_lo_close -.pgtcl: Die Tcl. Argumente verbindung Die Handle einer Datenbankverbindung.Bindungsbibliothek Synopsis pg_lo_open verbindung loid modus Beschreibung pg_lo_open öffnet ein Large Object. Argumente verbindung Die Handle einer Datenbankverbindung. in der das zu öffnende Large Object liegt. in der das Large Object liegt. loid Die OID des Large Object.

in der das Large Object liegt. Argumente verbindung Die Handle einer Datenbankverbindung. deskriptor Ein Deskriptor für das Large Object von pg_lo_open. Rückgabewert Keiner 388 . bufVar Der Name einer Puffervariablen. Rückgabewert Keiner pg_lo_read Name pg_lo_read – aus einem Large Object lesen Synopsis pg_lo_read verbindung deskriptor bufVar länge Beschreibung pg_lo_read liest höchstens länge Bytes aus einem Large Object in eine Variable namens bufVar. die das Large-Object-Segment enthalten soll. länge Die Höchstzahl der zu lesenden Bytes.Kapitel 29 deskriptor Ein Deskriptor für das Large Object von pg_lo_open.

länge Die Höchstzahl der zu schreibenden Bytes.pgtcl: Die Tcl.in ein Large Object schreiben Synopsis pg_lo_write verbindung deskriptor buf länge Beschreibung _pg_lo_write schreibt höchstens länge Bytes aus der Variablen buf in ein Large Object. deskriptor Ein Deskriptor für das Large Object von pg_lo_open.Bindungsbibliothek pg_lo_write Name pg_lo_write -. Rückgabewert Keiner pg_lo_lseek Name pg_lo_lseek – den Positionszeiger eines Large Object setzen Synopsis pg_lo_lseek verbindung deskriptor offset whence 389 . in der das Large Object liegt. Argumente verbindung Die Handle einer Datenbankverbindung. die die zu schreibenden Daten enthält. buf Eine Zeichenkette (kein Variablenname).

und Schreibposition offset Bytes von der durch whence ange- gebenen Position. deskriptor Ein Deskriptor für das Large Object von pg_lo_open.Kapitel 29 Beschreibung pg_lo_lseek bewegt die aktuelle Lese. SEEK_END (vom Ende) oder SEEK_SET (vom Start). deskriptor Ein Deskriptor für das Large Object von pg_lo_open. Argumente verbindung Die Handle einer Datenbankverbindung. Argumente verbindung Die Handle einer Datenbankverbindung. in der das Large Object liegt. offset Die neue Position in Bytes. 390 . Rückgabewert Keiner pg_lo_tell Name pg_lo_tell -. von wo die neue Position berechnet werden soll: SEEK_CUR (von der aktuellen Position). whence Gibt an.den aktuellen Positionszeiger eines Large Object zurückgeben Synopsis pg_lo_tell verbindung deskriptor Beschreibung pg_lo_tell gibt die aktuelle Lese. in der das Large Object liegt.und Schreibposition in Bytes vom Anfang des Large Objects zurück.

ein Large Object löschen Synopsis pg_lo_unlink verbindung loid Beschreibung pg_lo_unlink löscht das angegebene Large Object. geeignet zur Übergabe an pg_lo_lseek. Argumente verbindung Die Handle einer Datenbankverbindung.Bindungsbibliothek Rückgabewert Der aktuelle Positionszeiger in Bytes. loid Die OID des Large Object. pg_lo_unlink Name pg_lo_unlink -. Rückgabewert Keiner pg_lo_import Name pg_lo_import -. in der das Large Object liegt.ein Large Object aus einer Datei importieren Synopsis pg_lo_import verbindung dateiname 391 .pgtcl: Die Tcl.

Kapitel 29 Beschreibung pg_lo_import liest die angegebene Datei und legt den Inhalt in einem neuen Large Object ab. in der das Large Object erzeugt werden soll. Hinweise pg_lo_import muss in einem BEGIN /COMMIT-Transaktionsblock aufgerufen werden. Argumente verbindung Die Handle einer Datenbankverbindung. in der das Large Object liegt. dateiname Gibt an. loid Die OID des Large Object. Rückgabewert Die OID des erzeugten Large Objects. pg_lo_export Name pg_lo_export -. Argumente verbindung Die Handle einer Datenbankverbindung. aus welcher Datei die Daten importiert werden sollen. dateiname 392 .ein Large Object in eine Datei exportieren Synopsis pg_lo_export verbindung loid dateiname Beschreibung pg_lo_export schreibt das angegebene Large Object in eine Datei.

Bindungsbibliothek Gibt an."] set ntups [pg_result $res -numTuples] for {set i 0} {$i < $ntups} {incr i} { lappend datnames [pg_result $res -getTuple $i] } pg_result $res -clear pg_disconnect $conn return $datnames } 393 . in welche Datei die Daten exportiert werden sollen.1: pgtcl-Beispielprogramm # getDBs : # get the names of all the databases at a given host and port number # with the defaults being the localhost and port 5432 # return them in alphabetical order proc getDBs { {host "localhost"} {port "5432"} } { # datnames is the list to be result set conn [pg_connect template1 -host $host -port $port] set res [pg_exec $conn "SELECT datname FROM pg_database ORDER BY datname. wie die pgtcl-Befehle verwendet werden.pgtcl: Die Tcl.4 Beispielprogramm Beispiel 29. Rückgabewert Keiner Hinweise pg_lo_export muss in einem BEGIN /COMMIT-Transaktionsblock aufgerufen werden.1 zeigt ein kleines Beispiel. 29. Beispiel 29.

.

30 10 3 ECPG: Eingebettetes SQL in C Dieses Kapitel beschreibt das PostgreSQL-Paket für eingebettetes SQL.. Eingebettetes SQL hat Vorteile gegenüber anderen Methoden zum Umgang mit SQL-Befehlen in C-Programmen. die für normalen SQL-Code gelten. Die folgenden Abschnitte beschreiben alle eingebetteten SQL-Befehle. normale CProgramme mit besonderem Code.und Kleinschreibung.. Erstens wird das lästige Umherreichen von Informationen an und von Variablen aus dem CProgramm übernommen. der Datenbankaktionen durchführt.. Wie angedeutet. Eingebettete SQL-Befehle folgen den Regeln zur Groß. und nicht denen von C. Es ist beabsichtigt. welcher ihn in ein gewöhnliches C-Programm umwandelt. 395 . Um das Programm zu bauen. Dieser besondere Code hat die Form EXEC SQL . dass die Implementierung in PostgreSQL diesem Standard soweit wie möglich entspricht. in diesem Fall C. wird der Quellcode zuerst dem Präprozessor für eingebettetes SQL übergeben. für andere Datenbanken geschriebene eingebettete SQL-Programme relativ einfach auf PostgreSQL zu portieren. vermischt mit SQL-Befehlen in besonders markierten Abschnitten. 30. Diese Dokumentation ist zugegebenermaßen ziemlich unvollständig. Je nach dem Befehl im Einzelnen können sie im globalen Kontext oder innerhalb einer Funktion auftreten. Es funktioniert mit C und C++. und nachher kann er mit den C-Compilerwerkzeugen verarbeitet werden. die für die eingebettete SQL-Schnittstelle geschrieben sind. Zweitens ist in C eingebettetes SQL im SQL-Standard definiert und wird von vielen anderen SQL-Datenbanken unterstützt. Aber da diese Schnittstelle standardisiert ist. können weitere Informationen in vielen Quellen über SQL gefunden werden. und es ist normalerweise möglich.1 Das Konzept Ein Eingebettetes-SQL-Programm besteht aus Code in einer gewöhnlichen Programmiersprache. sind Programme. Die Befehle nehmen syntaktisch den Platz einer C-Anweisung ein.

Unten sind einige Beispiele dafür. Die verbindung kann auf folgende Arten angegeben werden: ❏ ❏ ❏ ❏ verbindungsname DEFAULT CURRENT ALL 30. ascii char(16)).3 Eine Verbindung schließen Um eine Verbindung zu schließen. 396 . Eine Tabelle erzeugen: EXEC SQL CREATE TABLE foo (number integer. um mehrere Verbindungen in einem Programm zu verwalten. Das ziel kann auf folgende Arten angegeben werden: ❏ ❏ ❏ ❏ ❏ ❏ ❏ ❏ ❏ ❏ dbname[@hostname][:port] tcp:postgresql://hostname[:port][/dbname][?optionen] unix:postgresql://hostname[:port][/dbname][?optionen] zeichenvariable zeichenkette DEFAULT Es gibt auch verschiedene Arten. dann kann er ausgelassen werden. EXEC SQL CREATE UNIQUE INDEX num1 ON foo(number). 30. Wenn ein Programm nur eine Verbindung verwendet. den Benutzernamen anzugeben: benutzername benutzername/passwort benutzername IDENTIFIED BY passwort benutzername USING passwort Der benutzername und das passwort können SQL-Namen.4 SQL-Befehle ausführen Jeder beliebige SQL-Befehl kann aus einer eingebetteten SQL-Anwendung ausgeführt werden.Kapitel 30 30. verwenden Sie den folgenden Befehl: EXEC SQL DISCONNECT [verbindung]. Zeichenkettenvariablen oder Zeichenkonstanten sein.2 Zum Datenbankserver verbinden Man verbindet zu einer Datenbank mit dem folgenden Befehl: EXEC SQL CONNECT TO ziel [AS verbindungsname] [USER benutzername]. Der verbindungsname wird verwendet.

EXEC SQL COMMIT. Zeilen einfügen: EXEC SQL INSERT INTO foo (number. auch bekannt von anderen Schnittstellen. in speziell markierten Abschnitten deklariert werden. ascii FROM foo ORDER BY ascii.ECPG: Eingebettetes SQL in C EXEC SQL COMMIT. zum Beispiel als Parameter in einer Anfrage. damit der SQL-Präprozessor sie erkennen kann.. Zeilen löschen: EXEC SQL DELETE FROM foo WHERE number = 9999. müssen die C-Variablen. EXEC SQL COMMIT. das heißt. EXEC SQL COMMIT. wenn EXEC SQL COMMIT ausgeführt wird. EXEC SQL FETCH foo_bar INTO :FooBar. 30. Aktualisieren: EXEC SQL UPDATE foo SET ascii = 'foobar' WHERE number = 9999. sie verweisen auf Variablen im C-Programm. In der Standardeinstellung werden Transaktionen nur abgeschlossen. EXEC SQL COMMIT. EXEC SQL CLOSE foo_bar. Dieser Modus kann mit EXEC SQL SET AUTOCOMMIT TO OFF ausdrücklich ausgeschaltet werden. Im Autocommit-Modus wird die automatische Transaktion um jeden Befehl automatisch abgeschlossen. außer wenn ein expliziter Transaktionsblock verwendet wird. Tokens der Form :irgendwas sind Hostvariablen. DooDad.5 Daten übergeben Um Daten aus dem Programm an die Datenbank zu übergeben. ascii) VALUES (9999. Sie werden im nächsten Abschnitt erklärt.. Auswählen mit einem Cursor: EXEC SQL DECLARE foo_bar CURSOR FOR SELECT number. oder um Daten aus der Datenbank zurück an das Programm zu übergeben. Eine Zeile auswählen: EXEC SQL SELECT foo INTO :FooBar FROM table1 WHERE ascii = 'doodad'. Die eingebettete SQL-Schnittstelle unterstützt auch das automatische Abschließen von Transaktionen (Autocommit). 'doodad'). mit der Kommandozeilenoption -t von ecpg (siehe unten) oder dem Befehl EXEC SQL SET AUTOCOMMIT TO ON. die diese Daten enthalten sollen. . 397 .

Diese Fehlerbehandlung bleibt im gesamten Programm eingeschaltet. Siehe im vorigen Abschnitt für Beispiele. an und endet mit EXEC SQL END DECLARE SECTION. wo ein Ausdruck erwartet wird. bar[16]. Variablen. char arr[180]. schreiben Sie :varname. Zum Beispiel: EXEC SQL WHENEVER sqlerror sqlprint. Weitere Beispiele finden Sie in SQL-Büchern. wenn eine bestimmte Voraussetzung eintritt. char foo[16]. 398 . Die besonderen Typen VARCHAR und VARCHAR2 werden für jede Variable in ein benanntes struct umgewandelt. Die erste Methode gibt eine Nachricht aus. Anmerkung Dies ist kein erschöpfendes Beispiel der Verwendung des Befehls EXEC SQL WHENEVER. Zwischen diesen Zeilen müssen normale C-Variablendeklarationen stehen. } var. oder EXEC SQL WHENEVER not found sqlprint. können noch einmal außerhalb dieser speziellen Abschnitte deklariert werden. Um eine ordnungsgemäß deklarierte C-Variable in einem SQL-Befehl zu verwenden. Die Definition einer Struktur oder Union muss ebenso innerhalb eines DECLARE-Abschnitts stehen. Eine Deklaration wie VARCHAR var[180]. 30. Ansonsten kann der Präprozessor diese Typen nicht verarbeiten.Kapitel 30 Dieser Abschnitt fängt mit EXEC SQL BEGIN DECLARE SECTION. Die Deklarationen werden in die Ausgabedatei als normale C-Variablen übertragen und müssen also nicht nochmal deklariert werden. wird umgewandelt in struct varchar_var { int len.6 Fehlerbehandlung Die eingebettete SQL-Schnittstelle bietet einen einfachen und einen komplexen Weg. bei denen keine Verwendung mit SQL-Befehlen beabsichtigt ist. Diese Struktur ist passend als Schnittstelle zu SQL-Werten vom Typ varchar. wie zum Beispiel int x. weil er die Definition nicht kennt. um Ausnahmebedingungen in einem Programm zu behandeln.

) Wenn beim letzten SQL-Befehl kein Fehler auftrat. char sqlerrp[8]. 399 . der den Fehler beschreibt. UPDATE /* oder DELETE Befehl /* 3: leer /* 4: leer /* 5: leer char sqlwarn[8]. /* 0: 'W' wenn mindestens ein weiteres Feld 'W' ist /* 1: wenn 'W' dann wurde mindestens eine Zeichen/* kette beim Speichern in eine Hostvariable /* abgeschnitten /* 2: leer /* 3: leer /* 4: leer /* 5: leer /* 6: leer /* 7: leer char sqlext[8]. char sqlerrmc[70]. sqlca. die nicht mit der Anfrage übereinstimmt. ist das ein normaler Fehler. als wenn eine Tabelle die gewünschte Zeile nicht enthält. Der Text endet mit der Zeilennummer in der Quelldatei.sqlerrmc wird den Text enthalten.sqlcode 0 sein (ECPG_NO_ERROR). long sqlabc. */ */ */ */ */ */ */ */ */ */ */ */ */ */ */ */ */ (Viele der leeren Felder könnten in einer zukünftigen Version verwendet werden.sqlcode kleiner als null ist. } sqlca. wird sqlca. wie eine Datenbankdefinition. wenn angebracht /* 2: Anzahl betroffener Zeilen bei INSERT. Wenn sqlca. Wenn es größer als null ist.ECPG: Eingebettetes SQL in C Für eine mächtigere Fehlerbehandlung bietet die eingebettete SQL-Schnittstelle ein struct und eine Variable namens sqlca wie folgt: struct sqlca { char sqlcaid[8].sqlerrm. long sqlerrd[6]. struct { int sqlerrml. /* 0: leer /* 1: OID der aktuellen Zeile. } sqlerrm. ist das ein ernster Fehler. long sqlcode.

dass der Server mehr Argumente zurückgegeben hat. als wir passende Variablen haben. die auftreten können: -12: Out of memory in line %d. -210 (ECPG_NO_ARRAY): Variable is not an array in line %d. Sollte normalerweise nicht auftreten. wo ein Array erforderlich ist. der nicht als float interpretiert werden kann. -220 (ECPG_NO_CONN): No such connection %s in line %d. Ein NULL-Wert wurde zurückgegeben und keine NULL-Indikatorvariable angegeben.) -209 (ECPG_MISSING_INDICATOR): NULL value without indicator in line %d. -200 (ECPG_UNSUPPORTED): Unsupported type %s on line %d. Vielleicht haben Sie zu viele Hostvariablen in der Liste INTO :var1. (Das kann in einem eingebetteten SQL-Programm normalerweise nicht passieren und könnte daher einen internen Fehler aufzeigen. -206 (ECPG_FLOAT_FORMAT): Not correctly formatted floating-point type: %s line %d. -203 (ECPG_TOO_MANY_MATCHES): Too many matches line %d. Dies bedeutet. -202 (ECPG_TOO_FEW_ARGUMENTS): Too few arguments line %d. dass die Hostvariable vom Typ bool ist und das Feld in der PostgreSQL-Datenbank weder 't' noch 'f' ist. Dies bedeutet. Die Bibliothek verwendet strtoul() für diese Umwandlung. aber die angegebenen Variablen keine Arrays sind. -207 (ECPG_CONVERT_BOOL): Unable to convert %s to bool on line %d. Dies bedeutet. dass die Hostvariable vom Typ float ist und das Feld in der PostgreSQL-Datenbank einen anderen Typ hat und einen Wert enthält. wo ein Array erforderlich ist. Die Datenbank gab eine normale Variable zurück. -208 (ECPG_EMPTY): Empty query line %d. dass der Präprozessor etwas erzeugt hat. dass der Server weniger Argumente zurückgegeben hat. Dies bedeutet. Dies bedeutet. Der SELECT-Befehl sollte nur eine Zeile ergeben. dass die Hostvariable vom Typ unsigned int ist und das Feld in der PostgreSQLDatenbank einen anderen Typ hat und einen Wert enthält. Eine normale Variable wurde verwendet. Vielleicht haben Sie ein paar Hostvariablen in der Liste INTO :var1. Gibt an. -204 (ECPG_INT_FORMAT): Not correctly formatted int type: %s line %d. Die Bibliothek verwendet strtod() für diese Umwandlung. Das Programm versuchte auf eine Verbindung zuzugreifen. Zeigt an. -211 (ECPG_DATA_NOT_ARRAY): Data read from backend is not an array in line %d. dass die Bibliothek nicht kennt. Sollte normalerweise nicht auftreten. Die Bibliothek verwendet strtol() für diese Umwandlung. -201 (ECPG_TOO_MANY_ARGUMENTS): Too many arguments line %d. der nicht als int interpretiert werden kann. Dies bedeutet. dass die Anfrage mehrere Zeilen ergab. Vielleicht haben Sie inkompatible Versionen von Präprozessor und Bibliothek verwendet. :var2. die nicht existiert. 400 . :var2 vergessen. -205 (ECPG_UINT_FORMAT): Not correctly formatted unsigned type: %s line %d. Die Anfrage war leer. als wir Hostvariablen haben. Dies bedeutet.Kapitel 30 Dies sind die Fehler. der nicht als unsigned int interpretiert werden kann. dass der virtuelle Speicher aufgebraucht ist. dass die Hostvariable vom Typ int ist und das Feld in der PostgreSQL-Datenbank einen anderen Typ hat und einen Wert enthält.

dass das. -230 (ECPG_INVALID_STMT): Invalid statement name %s in line %d. Beachten Sie.t aber nicht geöffnet ist. Der Verbindungsversuch zur Datenbank ist fehlgeschlagen. wurde nicht vorbereitet. Natürlich können Sie die CDirektive #include weiterhin für andere Headerdateien verwenden. Der PostgreSQL-Server hat signalisiert. Das Programm versuchte auf eine Verbindung zuzugreifen. Der angegebene Deskriptor wurde nicht gefunden. Der Befehl. abschließen oder zurückrollen können. 401 . -240 (ECPG_UNKNOWN_DESCRIPTOR): Descriptor %s not found in line %d. nicht gefunden werden kann oder dass Sie am Ende des Cursors sind. dass dies nicht das Gleiche ist wie #include <dateiname. dass wir die Transaktion nicht starten. 30. was sie abfragen wollen. -244 (ECPG_VAR_NOT_CHAR): Variable is not a character type in line %d. Der angegebene Deskriptorindex ist außerhalb des gültigen Bereichs. -242 (ECPG_UNKNOWN_DESCRIPTOR_ITEM): Unknown descriptor item %s in line %d. verwenden Sie: EXEC SQL INCLUDE dateiname.h suchen. Eingebettete SQL-Befehle in der eingebundenen Datei werden also richtig verarbeitet. wurde nicht vorbereitet. -402 (ECPG_CONNECT): Could not connect to database %s in line %d.7 Dateien einbinden Um eine externe Datei in Ihr eingebettetes SQL-Programm einzubinden. Die Datenbank gab einen numerischen Wert zurück und die Variable war nicht numerisch. Der angegebene Deskriptor wurde nicht gefunden. -243 (ECPG_VAR_NOT_NUMERIC): Variable is not a numeric type in line %d. Dies ist ein “normaler” Fehler. Die Datenbank gab einen nichtnumerischen Wert zurück und die Variable war numerisch. -400 (ECPG_PGSQL): '%s' in line %d. Der Befehl. Der Präprozessor für das eingebettete SQL wird nach einer Datei namens dateiname.h> weil diese Datei nicht vom SQL-Präprozessor verarbeitet werden würde. den Sie versuchen zu verwenden. den Sie versuchen zu verwenden.ECPG: Eingebettetes SQL in C -221 (ECPG_NOT_CONN): Not connected in line %d. Der Text enthält die Fehlermeldung vom PostgreSQL-Server. die existier. der aussagt. den Sie versuchen zu verwenden. 100 (ECPG_NOT_FOUND): Data not found line %d. -241 (ECPG_INVALID_DESCRIPTOR_INDEX): Descriptor index out of range in line %d. sie verarbeiten und das Ergebnis in die C-Ausgabe einfügen. Der Befehl. -401 (ECPG_TRANS): Error in transaction processing line %d. Irgendein PostgreSQL-Fehler. wurde nicht vorbereitet.

Diese Funktionen holen sich Informationen aus den Argumenten. müssen Sie eine Option wie -I/usr/local/pgsql/include zur Kommandozeile bei der Compilierung hinzufügen. Nach dem Compilieren müssen Sie eine besondere Bibliothek einlinken. -lecpg Wiederum müssen Sie vielleicht eine Option wie -L/usr/local/pgsql/lib zur Kommandozeile hinzufügen.pgc. Die verarbeitete Datei kann normal compiliert werden.c erzeugen.8 Eingebettete SQL-Programme verarbeiten Jetzt. Wenn Sie eine Programmdatei namens prog1. führen den SQL-Befehl mit der libpq-Schnittstelle aus und legen die Ergebnisse in den zur Ausgabe bestimmten Argumenten ab. zum Beispiel: cc -c prog1. welcher die SQL-Befehle. in besondere Funktionsaufrufe umwandelt.pgc $(ECPG) $< Die komplette Syntax von ecpg steht auf Seite 801.und Kleinschreibung folgt.c: %.. Vor dem Compilieren schicken Sie die Datei durch den Präprozessor für eingebettetes SQL in C. müssen Sie die Bibliothek libecpg einbinden.o prog2. Wenn Ihre Eingabedateien nicht dem empfohlenen Namensmuster folgen. also wenn Sie PostgreSQL an einem Ort installiert haben. die die benötigten Funktionen enthält. kann es praktisch sein.pgc haben.Kapitel 30 Anmerkung Beim Namen der eingebundenen Datei wird auf Groß. etwa so: cc -o meinprog prog1.c Die erzeugte C-Quelldatei verwendet Headerdateien aus der PostgreSQL-Installation. obwohl der Rest des Befehls EXEC SQL INCLUDE den normalen SQL-Regeln für Groß. die Sie verwendet haben. wie Sie sie compilieren sollen. Eingebettete SQL-Programme haben typischerweise die Erweiterung . Wenn Sie den Bauvorgang eines größeren Projekts mit make verwalten..pgc verarbeiten. wollen Sie sicher wissen. wie C-Programme mit eingebettetem SQL geschrieben werden. Um ein eingebettetes SQL-Programm zu linken.o .und Kleinschreibung geachtet. 402 . können Sie die Ausgabedatei ausdrücklich mit der Option -o angeben. 30. folgende implizite Regel in die make-Steuerdateien einzufügen: ECPG = ecpg %. dann können Sie sie einfach mit ecpg prog1. da Sie eine Vorstellung haben. Das wird eine Datei mit Namen prog1. der normalerweise nicht durchsucht wird. Das Präprozessorprogramm heißt ecpg und ist in einer normalen PostgreSQL-Installation enthalten.

um die Schnittstelle zur Bibliothek herzustellen. greift er ein und ändert ihn. Alles dazwischen wird als SQL-Befehl behandelt und nach Variablen. Normalerweise wird einfach alles unverändert an die Ausgabe weitergeleitet. 30. aber in den Befehl eingesetzt werden sollen. Er wird durch die Eingabevariablen verändert. ❏ ECPGdebug(int an. Die ersten vier Zeilen.) ECPGt_EOIT Ein enum. wenn das erste Argument von null verschieden ist. wenn man mit der Datenbank verbunden ist. Dies kann nützlich sein. Die wichtigste Bibliotheksfunktion ist ECPGdo. wie man ECPG verwendet. Sie hat eine variable Zahl von Argumenten. FILE *strom) schaltet das Debugloggen ein.ECPG: Eingebettetes SQL in C 30. die verwendet werden. um die Funktionalität der eingebetteten SQL-Befehle umzusetzen. wenn nicht. die Variablen. stehen fest. gesucht.. der das Ende der Variablen anzeigt.h. Danach liest der Präprozessor die Datei und schreibt die Ausgabe. eine Zeichenkette Dies ist der SQL-Befehl. Die Argumente sind: eine Zeilennummer Dies ist die Zeilennummer der ursprünglichen Zeile. 403 . wie ECPG intern funktioniert. dass das Ihren Code unportierbar macht. Diese Informationen können gelegentlich helfen. sie übernimmt die Ausführung der meisten Befehle. Variablenersetzung tritt auf. die bei der Compilierung noch nicht feststanden. Eingabevariablen Für jede Eingabevariable werden zehn Argumente erzeugt. Die Variable mit diesem Namen wird unter den Variablen. Zwei sind Kommentare und zwei binden Headerdateien ein. die von ecpg in die Ausgabe geschrieben werden.10 Interna Dieser Abschnitt erklärt. Der Log wird in den angegebenen Strom geschrieben. d. Der Log enthält alle SQLBefehle mit den eingesetzten Eingabevariablen und die Ergebnisse vom PostgreSQL-Server. ECPGt_EORT Ein enum. Aber es gibt einige Funktionen. Wenn er einen EXEC SQL-Befehl sieht. wo die Variablen hin sollen.) Diese Variablen werden von der Funktion gefüllt. Der Befehl beginnt mit EXEC SQL und endet mit .9 Bibliotheksfunktionen Die Bibliothek libecpg enthält hauptsächlich “versteckte” Funktionen. (Siehe unten. der das Ende der Eingabevariablen anzeigt. der ausgeführt werden soll. Dort. die ersetzt werden müssen. um Fehler in Ihren SQL-Befehlen zu suchen. steht im Text ein ?. (Siehe unten. und falsch. damit Benutzer besser verstehen. Ausgabevariablen Für jede Ausgabevariable werden zehn Argumenet erzeugt. und hoffentlich ist das kein Problem auf irgendeiner Plattform. Beachten Sie. nur für Fehlermeldungen. Das kann leicht 50 oder mehr Argumente ergeben. die auch direkt aufgerufen werden können. wenn ein Symbol mit einem Doppelpunkt (:) anfängt. die zuvor in EXEC SQL DECLARE-Abschnitten deklariert wurden. durchsucht. ❏ ECPGstatus() ergibt wahr.

(Die Einrückung hier wurde der Lesbarkeit halber hinzugefügt und stammt nicht vom Präprozessor. Der Typ der Indikatorvariable als spezielles Symbol.Kapitel 30 Für jede Variable. /* exec sql begin declare section */ #line 1 "foo. int index. 2. EXEC SQL SELECT res INTO :result FROM mytable WHERE index = :index.h>. Beachten Sie. 0L. Der Offset zum nächsten Element im Indikatorarray (für Arraydaten). 4. 5. dass nicht alle SQL-Befehle so behandelt werden. 3. ECPGt_NO_INDICATOR. 0 Die Anzahl der Elemente im Indikatorarray (für Arraydaten).pgc" ". 0L.pgc" int index. wird umgewandelt in: /* Processed by ecpg (2.h>. ECPGt_EORT).. NULL .&(result). NULL .1L. .pgc beschreibt (Einzelheiten könnten je nach der genauen Version des Präprozessors variieren): EXEC SQL BEGIN DECLARE SECTION. falls sie ein char oder varchar ist. int result. wird nicht in die Ausgabe kopiert. 0L. 7. ECPGt_int.0) */ /* These two include files are added by the preprocessor */ #include <ecpgtype. #include <ecpglib. Ein Zeiger auf den Wert oder ein Zeiger auf den Zeiger. ECPGt_NO_INDICATOR. 8. 0L. Anstelle dessen wird der DECLARE-Befehl des Cursors verwendet.6. Ein Zeiger auf die Indikatorvariable. 6. 10.1L.1L. int result.1L. Der Typ als spezielles Symbol. Hier ist ein vollständiges Beispiel. erhält die Funktion zehn Argumente: 1. Zum Beispiel ein OPEN-Befehl wie EXEC SQL OPEN cursor.&(index).sizeof(int). die Teil eines SQL-Befehls ist.. 0L. Die Anzahl der Elemente im Array (für Arraydaten). das die Ausgabe des Präprozessors bei einer Datei foo. Der Offset zum nächsten Element im Array (für Arraydaten). ECPGt_EOIT. EXEC SQL END DECLARE SECTION.. NULL.. 9. ECPGdo(__LINE__. /* exec sql end declare section */ .sizeof(int). Die Größe der Variable.) 404 . #line 147 "foo. 0L. "SELECT res FROM mytable WHERE index = ? ECPGt_int. weil er den Cursor auch mit öffnet.

Nach der Installation finden Sie den Treiber in PRÄFIX/share/java/ postgresql. entweder.31 31 Die JDBC-Schnittstelle Die JDBC-API ist ein fester Bestandteil der Java-Plattform seit Version 1. muss das JAR-Archiv in den Klassenpfad (classpath) eingefügt werden.1. kann er auf jedem beliebigen System verwendet werden. schreiben oder ausführen können. Wenn Sie mit einer JDK der Version 1. Der Treiber wird für die Java-Version gebaut. die Sie bewältigen müssen. die die JDBCSchnittstelle verwenden. Andererseits können Sie den Treiber selbst aus den Quellen bauen.2 Den Klassenpfad einrichten Um den Treiber verwenden zu können. wenn Sie am Quellcode Veränderungen vorgenommen haben. Typ 4 heißt. aber es sollte Ihnen beim Einstieg helfen können. JDK 1. der die JDBC-1-Spezifikation unterstützt.jar. indem man die Umgebungsvariable CLASSPATH anpasst oder die entsprechende Kom405 .1 Einrichtung des JDBC-Treibers Dieser Abschnitt beschreibt die Schritte.3). 31. Dieses Kapitel ist keine vollständige Anleitung zum Programmieren mit JDBC. Der Quellcode enthält auch einige Beispiele.2 oder JDK 1. PostgreSQL stellt einen JDBC-Treiber vom Typ 4 zu Verfügung. die Sie gerade verwenden.1.B. der die JDBC-2-Spezifikation unterstützt. aber das müssen Sie eigentlich nur. bevor Sie Programme. wenn er einmal kompiliert wurde. Einzelheiten dazu finden Sie in den PostgreSQL-Installationsanweisungen. 31.1 bauen.1 Den Treiber besorgen Vorkompilierte Versionen des Treibers können von der PostgreSQL JDBC Website heruntergeladen werden. Sie bietet eine standardisierte Schnittstelle für den Zugriff auf SQL-kompatible Datenbanken. dass der Treiber in reinem Java geschrieben ist und über das datenbankeigene Netzwerkprotokoll mit dem Datenbanksystem kommuniziert. Daher ist der Treiber plattformunabhängig. 31. erhalten Sie einen Treiber.1. wenn Sie mit einer Java-2-JDK bauen (z. erhalten Sie einen Treiber. Weitere Informationen finden Sie in der offiziellen Dokumentation zur JDBCAPI.

Der PostgreSQLJDBC-Treiber ist als /usr/local/pgsql/share/java/postgresql.conf müssen möglicherweise ebenfalls konfiguriert werden. Wenn Sie es doch tun. Einzelheiten dazu finden Sie in Kapitel 19. Um das zu erreichen. Die Clientauthentifizierungs-Einstellungen in der Datei pg_hba.1. steht in Abschnitt 31. muss das Paket java. ansonsten wahrscheinlich jdbc-1. Welche davon die bessere ist. die JDBC verwendet.jar oder jdbc-1.jar installiert.conf tcpip_socket = true setzen oder die Option -i angeben.java MyApp Wie Sie den Treiber innerhalb der Anwendung laden. password. weil der Compiler verwirrt sein wird. 31. werden Sie Ihre Quellen nicht kompilieren können.forName("org.1.postgresql.bzw. wenn Sie postmaster starten.sql. Anmerkung Importieren Sie nicht das Paket org.2 Den Treiber laden Bevor Sie mit einer Datenbank verbinden können. Um die Anwendung auszuführen. 31.jar. 31. um auf eine Datenbank zuzugreifen. dass er TCP/IP-Verbindungen annimmt. würden wir die folgenden Befehle verwenden: export CLASSPATH=/usr/local/lib/myapp.Driver"). Der JDBC-Treiber unterstützt die Authentifizierungsmethoden trust. muss der PostgreSQL-Server so konfiguriert werden. und diese Anwendung ist als /usr/local/lib/myapp.sql importieren: import java.Kapitel 31 mandozeilenoption beim Programm java verwendet.2. wenn Sie es selbst gebaut haben. hängt von Ihrem Code ab. (Das JAR-Archiv heißt postgresql.) Nehmen wir an. Für den PostgreSQL-Treiber würden Sie Folgendes verwenden: Class.3 Den Datenbankserver auf JDBC vorbereiten Weil Java nur TCP/IP-Verbindungen verwendet. die JDBC-2-Version.2. Es gibt zwei mögliche Methoden.jar:/usr/local/pgsql/share/java/ postgresql. wir haben eine Anwendung. die den JDBC-Treiber verwendet. müssen Sie den Treiber laden.jar:.forName(). md5 und crypt.jar installiert. 31. Bei der ersten Methode lädt Ihr Code den Treiber implizit mit der Methode Class.2.jar für die JDBC1.*. 406 . wie Sie den JDBC-Treiber in Ihren Programmen laden und initialisieren können.1 JDBC importieren Jede Quellcodedatei.2 Initialisierung des Treibers Dieser Abschnitt beschreibt.postgresql. können Sie in der Datei postgresql. ident.2.

und zwar mit der Option -D. passwort). Das Einzige. Eine Sache noch zum Schluss: Wenn Ihr Code eine neue Verbindung (Klasse Connection) öffnet und Sie eine SQLException mit der Fehlermeldung No driver available erhalten. Danach wird ImageViewer gestartet. dann liegt das wahrscheinlich daran. benutzername.Die JDBC-Schnittstelle Damit wird der Treiber geladen und beim Laden automatisch im JDBC-System registriert.drivers=org.postgresql. Dazu rufen Sie die Methode DriverManager.Driver example.3 Mit der Datenbank verbinden Innerhalb JDBC wird eine Datenbank durch eine URL (Uniform Resource Locator) dargestellt. port Die Portnummer auf der der Server auf Verbindungen wartet.ImageViewer In diesem Beispiel wird die JVM versuchen. welche als nächstes besprochen wird. Bei der zweiten Methode wird der Treiber als Parameter übergeben. wenn der Treiber nicht verfügbar ist. aber damit legen Sie Ihren Code auf PostgreSQL fest. Anmerkung Die Methode forName() kann die Exception ClassNotFoundException erzeugen. was Sie noch ändern müssten. müssen die eine Instanz der Klasse Connection von JDBC erhalten. datenbank Der Datenbankname. weil Ihr Code damit andere Datenbanksysteme verwenden kann. Zum Beispiel: java -Djdbc.getConnection() auf: Connection db = DriverManager. Diese Methode ist die am häufigsten verwendete. ist die Verbindungs-URL. den Treiber bei ihrer Initialisierung zu laden. Wenn Ihr Code in der Zukunft eventuell auch auf ein anderes Datenbanksystem zugreifen soll und Sie keine PostgreSQL-spezifische Funktionalität verwenden. wenn die JVM gestartet wird. Um zu verbinden. Diese Methode ist besser. In PostgreSQL nimmt diese eine der folgenden Formen an: ❏ jdbc:postgresql:datenbank ❏ jdbc:postgresql://host/datenbank ❏ jdbc:postgresql://host:port/datenbank Die Parameter haben die folgenden Bedeutungen: host Der Hostname des Servers. 31. ohne neu kompiliert werden zu müssen. Die Voreinstellung ist localhost. Die Voreinstellung ist die Standardportnummer von PostgreSQL (5432). 407 .getConnection(url. dann ist die zweite Methode zu empfehlen. dass der Treiber nicht im Klassenpfad ist oder der übergebene Parameter nicht richtig war.2.

Beispiel 31.println(rs.setInt(1. while (rs.getString(1)).print("Spalte 1 ergab ").next()) { System. PreparedStatement st = db. wenn Sie einen SQL-Befehl an die Datenbank schicken wollen.2. st. ResultSet rs = st.getString(1)).close(). Als Ergebnis erhalten Sie eine Instanz der Klasse ResultSet. um eine einfache Anfrage auszuführen. } rs. benötigen Sie eine Instanz der Klasse Statement oder PreparedStatement. Beispiel 31. und gibt die erste Spalte jeder Zeile aus.close().out.close().Kapitel 31 31.executeQuery(). rufen Sie einfach die Methode close() des ConnectionObjekts auf: db.print("Spalte 1 ergab "). wert). 408 . st. welche das komplette Ergebnis enthält.out.3 Ausführung von Anfragen und Verarbeitung der Ergebnisse Jedes Mal. ResultSet rs = st. Dieses Beispiel führt die gleiche Anfrage wie oben aus. int wert = 500. } rs.out.4 Die Verbindung schließen Um die Datenbankverbindung zu schließen. System.close().out.1 illustriert diesen Vorgang.1: Eine einfache Anfrage mit JDBC verarbeiten Dieses Beispiel verwendet die Klasse Statement. aber verwendet PreparedStatement und bindet einen Wert in die Anfrage ein. 31. Wenn Sie eine Instanz von Statement oder PreparedStatement haben. System.close().createStatement().prepareStatement("SELECT * FROM meinetabelle WHERE x = ?"). können Sie eine Anfrage ausführen. while (rs. st. Statement st = db.next()) { System.println(rs.executeQuery("SELECT * FROM meinetabelle WHERE x = 500").

Am sichersten ist es. Sie könnten eine erzeugen. wenn Sie diese Regel befolgen. sollten Sie es schließen. zurück. mit der wir den SELECTBefehl ausgeführt haben. Aber Sie müssen bedenken. ❏ Wenn Sie ein Statement oder PreparedStatement nicht mehr benötigen.2 Verwenden des Interface ResultSet Folgendes muss bei dem Verwenden des Interface ResultSet beachtet werden: ❏ Bevor Sie irgendwelche Werte lesen können. DELETE betroffen waren. und.setInt(1. was noch wichtiger ist. Beispiel 31. aber sie gibt kein ResultSet zurück. ❏ Wenn Sie eine Anfrage ausführen müssen. stattdessen gibt sie die Anzahl der Zeilen. int wert = 500. während Sie ein ResultSet verarbeiten. dass Treiber aktualisierbare Ergebnismengen anbieten müssen. Das ergibt true. können Sie einfach ein neues Statement-Objekt erzeugen und verwenden. Das ist in Übereinstimmung mit der JDBC-Spezifikation. Threads zu verwenden.Die JDBC-Schnittstelle 31. die vom INSERT. UPDATE oder DELETE auszuführen). ❏ Wenn Sie ein ResultSet nicht mehr benötigen. muss jeder Thread ein eigenes Statement-Objekt verwenden. verwenden Sie die Methode executeUpdate(). Diese Methode ist ähnlich der Methode executeQuery(). wert).7. wenn Sie darüber nachdenken. Wenn Sie Daten aktualisieren wollen. es bereitet die Zeile auf die Verarbeitung vor.2 illustriert die Verwendung. ❏ Wenn Sie mit dem Statement-Objekt. aus dem das ResultSet erzeugt wurde.1 Verwendung der Interfaces Statement oder PreparedStatement Folgendes muss bei der Verwendung der Interfaces Statement und PreparedStatement beachtet werden: ❏ Sie können eine Instanz von Statement so oft verwenden. obwohl der PostgreSQL-Treiber Ihnen gegenwärtig erlaubt. 409 . wie Sie wollen. Sie können durch ein ResultSet keine Daten aktualisieren. Beispiel 31.prepareStatement("DELETE FROM meinetabelle WHERE x = ?").3. müssen Sie es mit close() schließen. 31. welche nicht verlangt. UPDATE bzw. müssen Sie es auf die normale Art und Weise mit dem SQL-Befehl UPDATE tun.3. auf jedes Feld so oft Sie wollen zuzugreifen. weil dort einige wichtige Punkte besprochen werden. Lesen Sie auch Abschnitt 31. PreparedStatement st = db. st.2: Zeilen löschen mit JDBC Dieses Beispiel führt einen einfachen DELETE-Befehl aus und gibt die Anzahl der gelöschten Zeilen aus. und sie für die Dauer der Verbindung verwenden. ❏ Laut JDBC-Spezifikation sollten Sie auf jedes Feld nur einmal zugreifen. wenn ein Ergebnis vorhanden ist. wird die aktuelle Instanz von ResultSet automatisch geschlossen. müssen Sie next() aufrufen. eine neue Anfrage ausführen. sobald Sie die Verbindung geöffnet haben. dass pro Statement oder PreparedStatement nur ein ResultSet auf einmal existieren kann. 31. ❏ ResultSet ist gegenwärtig eine Konstante.4 Ausführung von Aktualisierungen Um Daten zu verändern (ein INSERT. ❏ Wenn Sie Threads verwenden und mehrere Threads die Datenbank verwenden.

out. verwenden Sie die Methode execute(). setBytes(). aber sie gibt kein Ergebnis zurück. Version 7. sollten Sie einfach die Methoden getBytes().1 setzen. weil jeder. Um zu entscheiden. Diese Methode ist ähnlich der Methode executeQuery(). Statement st = db. Die LargeObjects-Methode ist besser geeignet. die auf Large Objects verwiesen haben. müssen Sie die Beschränkungen jeder Methode verstehen. In und vor 7. setBytes(). Um den Datentyp bytea zu verwenden. System. Large Objects haben auch einige Sicherheitsprobleme. dass er sich wieder wie in Version 7. Beispiel 31.createStatement(). 31. wenn man sehr große Mengen binärer Daten speichern will. st. Der Datentyp bytea ist nicht besonders gut geeignet. jedes Large Object ansehen oder verändern kann. um sehr große Werte zu speichern.3: Eine Tabelle mit JDBC löschen Dieses Beispiel wird eine Tabelle löschen. Sie können den Treiber so einstellen. Insbesondere wird beim Löschen einer Zeile mit einem Verweis auf ein Large Object nicht das Large Object selbst gelöscht.5 Erzeugung und Modifizierung von Datenbankobjekten Um Datenbankobjekte wie Tabelle oder Sichten zu erzeugen. modifizieren oder löschen. die den Datentyp bytea unterstützt hat. Man kann binäre Daten in einer Tabelle mit dem Datentypen bytea speichern oder die Large-Objects-Funktionalität verwenden. wodurch binäre Daten in einer getrennten Tabelle gespeichert werden und wobei man auf diese Daten durch einen Wert des Typs oid zugreifen kann. selbst wenn er keinen Zugriff auf die Zeile mit dem Verweis auf das Large Object hat. st.executeUpdate().execute("DROP TABLE meinetabelle"). Obwohl eine Spalte vom Typ bytea bis zu 1 GB Daten speichern kann. Seit 7.2 verarbeiten die Methoden getBytes(). Bei der Einführung dieser Funktionalität in 7. st.3 illustriert die Verwendung. würde man eine riesige Menge Arbeitsspeicher benötigen.1 verhält. Das Löschen des Large Objects muss als separate Operation durchgeführt werden.6 Speicherung binärer Daten PostgreSQL bietet zwei verschiedene Methoden.2 wurden einige Verhaltensweisen gegenüber früheren Versionen verändert. um binäre Daten zu speichern. hat aber ihre eigenen Beschränkungen. der mit der Datenbank verbunden ist.println(rowsDeleted + " Zeilen gelöscht"). indem Sie die Eigenschaft (property) compatible im ConnectionObjekt auf den Wert 7.1 verarbeiteten diese Methoden Werte des Datentyps oid.close(). 410 . welche Methode für Sie passend ist.2 war die erste Version des JDBC-Treibers. Beispiel 31.Kapitel 31 int rowsDeleted = st. 31. getBinaryStream() und setBinaryStream() Werte des Datentyps bytea. getBinaryStream() oder setBinaryStream() anwenden.close(). um einen so großen Wert zu verarbeiten.

bild bytea). FileInputStream fis = new FileInputStream(file).prepareStatement("INSERT INTO bilder VALUES (?. wenn die Bilddaten bereits in einem byte[]-Array vorliegen.next()) { byte[] imgBytes = rs.close(). file. wie Sie mit dem PostgreSQL-JDBC-Treiber binäre Daten verarbeiten können.4: Binäre Daten mit JDBC verarbeiten Nehmen wir zum Beispiel an. Wichtig Zugriffe auf Large Objects müssen innerhalb eines SQL-Transaktionsblocks geschehen.prepareStatement("SELECT bild FROM bilder WHERE name = ?"). wenn Sie Large Objects verwenden wollen. Hier überträgt setBinaryStream() die angegebene Anzahl von Bytes aus dem Datenstrom in die Spalte vom Typ bytea. Es ist also zu empfehlen.setBinaryStream(2. Einen Transaktionsblock können Sie mit setAutoCommit(false) starten.Die JDBC-Schnittstelle Um die Large-Objects-Funktionalität zu verwenden. sondern dann mit dem Datentyp bytea. könnten Sie folgenden Code verwenden: File file = new File("meinbild. Anmerkung In einer zukünftigen Version des JDBC-Treibers könnte es sein. PreparedStatement ps = conn.executeQuery().gif"). fis. Das Auslesen des Bilds ist noch einfacher.getName()).) PreparedStatement ps = con. file. // verwenden Sie die Daten hier irgendwie } rs. Beispiel 31.getBytes(1).executeUpdate().close(). Beispiel 31. if (rs != null) { while (rs. oder die Methoden getBLOB() ud setBLOB( ). Sie haben eine Tabelle. (Wir verwenden hier die Klasse PreparedStatement. ps.close(). fis.setString(1. ps.setString(1. ps. die vom PostgreSQL-JDBC-Treiber zur Verfügung gestellt wird. Um ein Bild einzufügen. können Sie entweder die Klasse LargeObject verwenden.4 enthält einige Beispiele.gif"). Sie könnten das auch mit der Methode setBytes() machen. ps. 411 . ps. dass Sie die LargeObject-Schnittstelle verwenden. ?)"). dass die Methoden getBLOB() und setBLOB() nicht mehr mit Large Objects funktionieren. ResultSet rs = ps.length()). "meinbild. aber Statement könnte genauso gut verwendet werden. die die Namen von Bilddateien enthält und Sie wollen das Bild in einer Spalte vom Typ bytea speichern: CREATE TABLE bilder (name text.

s).PGConnection)conn). file.setInt(2. // Kopiere die Daten aus der Datei in das Large Object byte buf[] = new byte[2048]. Hier haben wir die Daten als byte[] ausgelesen. fis. while ((s = fis.gif").READ | LargeObjectManager. tl += s. // Erzeuge ein neues Large Object int oid = lobj. könnten Sie Folgendes machen: CREATE TABLE bilder (name text.close(). ps. 2048)) > 0) { obj.Kapitel 31 } ps.getName()). int s.read(buf. // Füge die Zeile in die Tabelle ein PreparedStatement ps = conn. Stattdessen könnten Sie auch ein InputStream-Objekt verwenden.postgresql. tl = 0.close(). 412 . // Öffne das Large Object zum Schreiben LargeObject obj = lobj. ?)"). Um das Bild einzufügen. 0.getLargeObjectAPI().WRITE). LargeObjectManager.setAutoCommit(false). 0. FileInputStream fis = new FileInputStream(file). // Erzeuge einen Large-Object-Manager LargeObjectManager lobj = ((org. Wenn Sie eine sehr große Datei speichern müssen und die LargeObject-Schnittstelle verwenden wollen. // Öffne die Datei File file = new File("myimage.close().open(oid.close(). ps.create(LargeObjectManager.setString(1. verwenden Sie: // Alle LargeObject-Aufrufe müssen in einem Transaktionsblock stehen conn.executeUpdate(). bildoid oid). ps. ps. oid). } // Schließe das Large Object obj.write(buf.WRITE).prepareStatement("INSERT INTO bilder VALUES (?.

size()]. obj. besteht die Operation aus dem Senden des Befehls und dem Empfangen des vollständigen ResultSet. 0. Wenn ein Thread versucht. // Verwenden Sie die Daten hier irgendwie // Schließe das Objekt obj. ps. LargeObject obj = lobj. Wenn sie ein Fastpath-Aufruf ist (zum Beispiel das Lesen eines Blocks aus einem Large Object).READ).close(). Wenn die Operation ein normaler SQL-Befehl ist.getInt(1). die Verbindung zu verwenden.7 Verwendung des Treibers in einer Multithreadoder Servlet-Umgebung Ein Problem bei vielen JDBC-Treibern ist.Die JDBC-Schnittstelle Zum Auslesen des Large Objects aus der Datenbank könnten Sie folgenden Code verwenden: // Alle LargeObject-Aufrufe müssen in einem Transaktionsblock stehen conn. während ein anderer gerade Ergebnisse empfängt.setString(1. // Erzeuge einen Large-Object-Manager LargeObjectManager lobj = ((org. Sie müssen in Ihre Anwendungen also keine komplexen Algorithmen einbauen.next()) { // Öffne das Large Object zum Schreiben int oid = rs.close(). ResultSet rs = ps. 31.size()). dann wartet er. LargeObjectManager. besteht sie aus dem Senden und Empfangen der entsprechenden Daten. während sie gerade von einem anderen verwendet wird.gif"). bis der andere seine aktuelle Operation abgeschlossen hat.executeQuery(). // Lese die Daten byte buf[] = new byte[obj. ansonsten könnte ein Thread eine Anfrage senden. obj.PGConnection)conn). PreparedStatement ps = con. dass nur ein Thread ein Connection-Objekt auf einmal verwenden kann.close(). if (rs != null) { while (rs.postgresql. Der PostgreSQL-JDBC-Treiber ist Thread-sicher. dass mehr als ein Thread auf einmal auf die Datenbank zugreift. } rs.getLargeObjectAPI().prepareStatement("SELECT bildoid FROM bilder WHERE name = ?").read(buf. } ps.open(oid. und das könnte ziemlich große Verwirrung stiften.setAutoCommit(false). "meinbild. um zu verhindern. 413 .

wenn nicht. kann aber bei Servlets Leistungsprobleme verursachen. Der PostgreSQL-JDBC-Treiber unterstützt diese Funktionalität.jdbc2. gibt er sie dem Verwalter zurück.DataSource.3.8.0 Optional Package.jdbc3. hängt von den Anforderungen Ihrer Anwendungen ab. diese Implementierungen sollten nicht in einer Anwendungsserverumgebung verwendet werden. Die Clientschnittstelle ist javax.1 Überblick JDBC bietet eine Client. Für eine Umgebung ohne Anwendungsserver bietet PostgreSQL zwei Implementierungen von DataSource.0 Optional Package (auch bekannt unter dem Namen JDBC 2. Die meisten Anwendungsserver enthalten das JDBC 2.sql.8. um auf den PostgreSQL-JDBCTreiber zuzugreifen. Wenn keine freie Verbindung zur Verfügung steht. ob die Verbindung noch fehlerfrei ist. während der Anwendungscode die DataSource-Implementierung des Anwendungsservers (nicht die von PostgreSQL) verwendet. Wie Sie sich entscheiden. sie wird von den meisten Anwendungsservern verwendet.1 gezeigt. 31. oder mit JDK 1. Der Verwalter übergibt dem Thread eine freie Verbindung und markiert sie als in Benutzung. 31.2 Anwendungsserver: ConnectionPoolDataSource PostgreSQL enthält eine Implementierung von ConnectionPoolDataSource für JDBC 2 und eine für JDBC 3. die von einer Anwendung direkt verwendet werden können. Die Serverschnittstelle ist javax. und würde Sie schließen. dann wird eine neue geöffnet. wie in Tabelle 31.1: Implementierungen von ConnectionPoolDataSource 414 . Der Nachteil eines Verbindungspools ist.Kapitel 31 Dieses Verhalten ist vertretbar in normalen Anwendungen und Applets. Der Verwalter würde auch prüfen. dann bittet er eine Verwaltungsklasse um ein Connection-Objekt. weil für jedes Connection-Objekt eine neue Sitzung gestartet wird.8 Verbindungspools und Data Sources In JDBC 2 wurde ein standardisierter Verbindungspoolmechanismus in einer Zusatz-API namens JDBC 2.optional. Nochmal sei gesagt.und eine Server-Schnittstelle für Verbindungspools. Wenn der Thread mit der Verbindung fertig ist. dass es die Belastung des Servers vergrößert.postgresql. die Anfragen ausführen. Um dieses Problem zu lösen.4 oder höher ( JDBC 3) kompiliert wurde.ConnectionPoolDataSource. Eine Implementierung richtet einen Verbindungspool ein und die andere bietet einfach einen Zugang zu einer normalen Datenbankverbindung ohne Pool durch das DataSource-Interface.ConnectionPool org.Jdbc3ConnectionPool Tabelle 31.0 Standard Extension) eingeführt. sie wird in der Regel von normalem Anwendungscode verwendet um eine gepoolte Datenbankverbindung zu erhalten. der sie entweder schließt oder im Pool speichert.0 Optional Package aber man kann es auch separat von Sun über die JDBC Download-Site beziehen. 31.postgresql. ist zu empfehlen einen Verbindungspool zu erzeugen. Seit JDBC 3 ist diese Funktionalität fester Bestandteil der JDBC-Schnittstelle. Wenn Sie mehrere Threads haben.x in Kombination mit dem JDBC 2.sql. In einer Anwendungsserverumgebung wird die Konfiguration des Anwendungsservers normalerweise auf die ConnectionPoolDataSource-Implementierung von PostgreSQL verweisen. dann werden alle außer einem warten müssen. JDBC 2 3 Implementierungsklasse org. es sei denn der Anwendungsserver unterstützt das ConnectionPoolDataSource-Interface nicht. Wenn ein Thread die Datenbank verwenden will. wenn er mit JDK 1.

um den Standardport zu verwenden) Benutzername für Datenbankverbindungen Passwort für Datenbankverbindungen Ob Autocommit auf Verbindungen an oder aus sein soll. Daher ist es nicht ungewöhnlich.8. 415 . könnte es so aussehen: serverName=localhost. Viele Anwendungsserver bieten eine bessere Verbindungspool-Funktionalität und verwenden dafür stattdessen die Implementierung von ConnectionPoolDataSource. dass ConnectionPoolDataSource-Objekte über JavaBean-Propertys konfiguriert werden. diese Propertys als einen Textblock einzugeben. nicht durch das Pool bedient. um diese Einstellungen zu konfigurieren.2 gezeigt werden.2: Konfigurations-Propertys von ConnectionPoolDataSource Viele Anwendungsserver verwenden eine Syntax im Property-Stil. wenn der Client die Methode close aufruft. Die hier angebotene Verbindungspool-Implementierung hat nicht besonders viele Funktionen. dass eine großen Anzahl von Clients eine kleine Anzahl von Datenbankverbindungen unter sich aufteilen. wie in Tabelle 31.und eine Set-Methode. Die Pool-Varianten schließen eine Verbindung nicht. welche in Tabelle 31. die nicht den eingestellten Standardbenutzer verwenden. also gibt es für jede dieser Propertys eine Get. wenn Sie an ein Programm übergeben werden. könnte das so aussehen: serverName=localhost databaseName=test user=testbenutzer password=testpasswort Oder wenn Semikolons anstelle von Zeilenumbrüchen als Trennzeichen verwendet werden. Unter anderem werden Verbindungen erst geschlossen. man kann das Pool nicht schrumpfen lassen. Dadurch wird vermieden.user=testbenutzer.3 gezeigt wird. also kein Autocommit. wenn das Pool selbst geschlossen wird.3 Anwendungen: DataSource PostgreSQL enthält zwei Implementierungen von DataSource für JDBC 2 und zwei für JDBC 3.Die JDBC-Schnittstelle Beide Implementierungen verwenden das gleiche Konfigurationsschema. Außerdem werden Verbindungen. Property serverName databaseName portNumber user password defaultAutoCommit Typ String String int String String boolean Beschreibung Hostname des PostgreSQL-Datenbankservers PostgreSQL-Datenbankname TCP-Port des PostgreSQL-Datenbankservers (oder 0. Tabelle 31. JDBC verlangt.databaseName=test. wo sie auf die Verwendung durch andere Clients wartet. sondern direkt aufgebaut.password=testpasswort 31. sondern speichern die Verbindung im Pool. Die Voreinstellung ist false. Wenn der Anwendungsserver alle Propertys in einem einzigen Bereich eingeben lässt. dass ständig Verbindungen geöffnet und geschlossen werden müssen und es ermöglicht.

wenn das Pool initialisiert wird.jdbc2.setMaxConnections(10).jdbc3.Jdbc3SimpleDataSource org. wird das Programm so lange blockiert.SimpleDataSource org.3: Implementierungen von DataSource Alle Implementierungen verwenden das gleiche Konfigurationsschema.setDataSourceName("Test-DataSource"). JDBC verlangt. Die Anzahl der zu erzeugenden Datenbankverbindungen.optional.Kapitel 31 JDBC 2 2 3 3 Pool Nein Ja Nein Ja Implementierungsklasse org.postgresql. also gibt es für jede dieser Propertys eine Get. source.setDatabaseName("test").postgresql. die eine DataSource-Implementierung mit Poolfunktion verwendet.postgresql.setServerName("localhost").setUser("testbenutzer"). Property serverName databaseName portNumber user password Typ String String int String String Beschreibung PostgreSQL-Datenbankname PostgreSQL-Datenbankname TCP-Port des PostgreSQL-Datenbankservers (oder 0 um den Standardport zu verwenden) Benutzername für Datenbankverbindungen Passwort für Datenbankverbindungen Tabelle 31. Property dataSourceName initialConnectio ns maxConnections Typ String int int Beschreibung Jede DataSource mit Poolfunktion muss einen eindeutigen Namen haben.jdbc3. source.4: Konfigurations-Propertys von DataSource Die Pool-Implementierungen haben einige zusätzliche Konfigurations-Propertys. 416 . Beispiel 31.postgresql.5: DataSource-Codebeispiel Der Code zum Initialisieren der DataSource mit Poolfunktion könnte so aussehen: Jdbc3PoolingDataSource source = new Jdbc3PoolingDataSource().5 zeigt ein Beispiel einer typischen Anwendung. welche in Tabelle 31. bis eine Verbindung an das Pool zurückgegeben wird. source. Wenn mehr Verbindungen verlangt werden.PoolingDataSource org.4 gezeigt werden. source.setPassword("testpasswort").optional.5: Zusätzliche Pool-Konfigurations-Propertys von DataSource Beispiel 31. welche in Tabelle 31. Tabelle 31.jdbc2. source. source.5 gezeigt werden.und eine Set-Methode. Die erlaubte Höchstzahl offener Datenbankverbindungen.Jdbc3PoolingDataSource Tabelle 31. dass DataSource-Objekte über JavaBean-Propertys konfiguriert werden.

8.4 Data Sources und JNDI Alle Implementierungen von ConnectionPoolDataSource und DataSource können im JNDI-System gespeichert werden. Beachten Sie. try { con = source. source. Ansonsten wird das Pool Verbindungen verlieren und früher oder später alle Clients blockieren. der eine DataSource-Instanz mit Poolfunktion initialisiert und sie im JNDI-System ablegt. Connection con = null.setDatabaseName("test"). könnte so aussehen: Jdbc3PoolingDataSource source = new Jdbc3PoolingDataSource(). könnte wie folgt aussehen. source. source. Beispiel 31. der dann eine Verbindung aus dem Pool verwendet. Der Code. source. In einer Anwendungsserverumgebung wird normalerweise die DataSource-Instanz des Anwendungsservers im JNDI gespeichert. dass alle Verbindungen irgendwann geschlossen werden.6: DataSource-Codebeispiel mit JNDI Anwendungscode.Die JDBC-Schnittstelle Der Code. new InitialContext(). nicht die ConnectionPoolDataSource-Implementierung von PostgreSQL.setDataSourceName("Test-DataSource").6 gezeigt. } catch (SQLException e) {} } 31. 417 . Bei Implementierungen mit Poolfunktion wird die selbe Instanz so lange verwendet.rebind("DataSource". dass es äußert wichtig ist. die ihn benötigen. wie sie verfügbar ist (so lange zum Beispiel keine andere JVM das Pool aus dem JNDI abruft). source.getConnection(). der eine Verbindung aus dem Pool verwendet. source).getConnection().close(). try { DataSource source = (DataSource)new InitialContext(). con = source.setPassword("testpasswort").setServerName("localhost"). eine neue Instanz erzeugt. source. ansonsten wird eine neue Instanz mit den gleichen Einstellungen erzeugt. // Verbindung verwenden } catch (SQLException e) { // Fehler loggen } finally { if (con != null) { try { con. könnte so aussehen: Connection con = null. wenn ein Objekt aus dem JNDI abgerufen wird. damit sie den Verweis auf die DataSource nicht für alle Anwendungskomponenten.setUser("testbenutzer"). verfügbar machen muss. In einer Anwendungsumgebung kann die Anwendung die DataSource-Instanz im JNDI speichern.setMaxConnections(10). welche dieselben Einstellungen hat wie die gespeicherte Instanz. Ein Beispiel dafür wird in Beispiel 31. Im Falle einer Implementierung ohne Poolfunktionen wird jedes Mal.lookup("DataSource").

sollten Sie unbedingt die JDBC-API-Dokumentation (in der JDK von Sun enthalten) und die JDBC-Spezifikation lesen.9 Weitere Informationsquellen Fall Sie sie noch nicht gelesen haben.postgresql.com/products/jdbc/ index. und bietet außerdem vorkompilierte Treiber an. } catch (SQLException e) {} } } 31. Beide sind von http://java. 418 .sun.org enthält aktuelle Informationen.Kapitel 31 // Verbindung verwenden } catch (SQLException e) { // Fehler loggen } catch (NamingException e) { // DataSource wurde nicht im JNDI gefunden } finally { if (con != null) { try { con.close(). die noch nicht in diesem Kapitel enthalten sind. http://jdbc.html erhältlich.

0. 419 .)open SEEK_SET. wo Sie unten auf der Seite eine Verknüpfung zum eigentlichen PythonCode der Seite finden werden. welche dem von der Python DB-SIG-Gruppe entwickelten DB-API 2. welches Anfrageergebnisse verwaltet.com/lj-issues/issue49/2605. ❏ pglargeobject. INV_WRITE Zugriffsmodi für Large Objects. SEEK_CUR.1 Das pg-Modul Das Modul pg definiert drei Objekte: ❏ pgobject.0 Standard entspricht. Diese sind dazu gedacht.html finden.32 32 PyGreSQL: Die Python-Schnittstelle PyGreSQL bietet eine alte. Weitere Informationen über sie finden Sie in der Anleitung zu libpq (Kapitel 27).org/topics/database/DatabaseAPI-2. und ❏ pgqueryobject. Eine Tutorial-ähnliche Einführung in DBAPI können Sie auf der Seite http://www2. Konstanten Im Dictionary des pg-Moduls sind einige Konstanten definiert. Hier wird nur die ältere pg-Schnittstelle beschrieben. ausgereifte Schnittstelle im Modul pg und eine neuere Schnittstelle im Modul pgdb. schauen Sie sich die Seite http://www. verwendet von (pgobject.linuxjournal.net/rides an. als Parameter für Methodenaufrufe verwendet zu werden. welches Zugriffe auf PostgreSQL-Large-Objects verwaltet.html. 32.)locreate und (pglarge. Informationen über DB-API finden Sie auf der Seite http://www. Diese Konstanten sind: INV_READ. welches Verbindungen mit der Datenbank verwaltet.python. Wenn Sie einige einfache Beispiele für die Verwendung dieses Moduls sehen wollen.druid.

dass die Umgebungsvariablen verwendet werden sollen. sind mit [DV] markiert.)seek version. [passwd]) Parameter dbname Name der Datenbank. connect Name connect – öffnet eine Verbindung zum Datenbankserver Synopsis connect([dbname]. damit Sie in Ihrem Code die Verbindungsparameter einfacher handhaben können. Die Unterstützung dieser Vorgabewerte kann beim Compilieren mit der Option DNO_DEF_VAR in der Datei Setup abgeschaltet werden. was heißt. Die Methoden. die von dieser Einstellung abhängig sind. __version__ Konstanten. um mit der Datenbank zu verbinden und um einige Vorgabewerte einzustellen.Kapitel 32 SEEK_END Positionszeiger für (pglarge. [opt]. ebenso müssen Sie nicht Ihre Umgebungsvariablen verändern.2 Funktionen im pg-Modul Das Modul pg definiert nur ein paar Methoden. mit der Verbunden werden soll (Zeichenkette/None) host Name des Serverhosts (Zeichenkette/None) port Port des Datenbankservers (ganze Zahl/-1) opt Optionen für den Server (Zeichenkette/None) 420 . die die aktuelle Version enthalten 32. die Eingabe im Vorgabewert ablegen und müssen sich danach nicht mehr darum kümmern. [host]. die die von PostgreSQL verwendeten Umgebungsvariablen übergehen. [tty]. [user]. [port]. Diese Vorgabewerte wurden entworfen. Sie können den Benutzer nach einem Wert fragen. Alle Vorgabewerte werden bei der Initialisierung des Moduls auf None gesetzt.

die in der Syntaxzeile stehen. 'bob'.connect('testdb'. 'myhost'. das eine Handle für die Datenbankverbindung ist. user='bob') get_defhost Name get_defhost – ermittelt den Standardhostnamen [DV] 421 . (zuzüglich aller Exceptions.error Ein Fehler geschah während des Verbindungsaufbaus durch pg. Beispiele import pg con1 = pg. host='localhost'.connect(dbname='testdb'. Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente.PyGreSQL: Die Python-Schnittstelle tty Datei oder TTY für Debugausgaben vom Server (Zeichenkette/None) user PostgreSQL-Benutzer (Zeichenkette/None) passwd Passwort des Benutzers (Zeichenkette/None) Rückgabetyp pgobject Wenn erfolgreich. SyntaxError Doppelt angegebenes Argument. pg. 5432. dann wird ein Objekt zurückgegeben. Die Argumente können auch mit Schlüsselwörtern angegeben werden. None. Eine Beschreibung der genauen Bedeutung der Parameter finden Sie in Kapitel 27. die beim Alloziieren eines Objekts auftreten können) Beschreibung Diese Methode öffnet eine Verbindung zur angegebenen Datenbank auf dem angegebenen PostgreSQLServer. Die Namen der Schlüsselwörter sind die. None. None) con2 = pg.

Kapitel 32 Synopsis get_defhost() Parameter __¨`y_keine Rückgabetyp Zeichenkette oder None Standardhostangabe Exceptions SyntaxError Zu viele Argumente. set_defhost Name set_defhost – setzt den Standardhostnamen [DV] Synopsis set_defhost(host) Parameter host Neuer Standardhost (Zeichenkette/None). Rückgabetyp Zeichenkette oder None Vorheriger Standardhost. wenn Umgebungsvariab- len verwendet werden sollen. Beschreibung get_defhost() gibt den aktuell eingestellten Standardhost zurück. Umgebungsvariablen werden bei der Ermittlung des Rückgabewerts nicht untersucht. oder None. 422 . Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente.

Beschreibung get_defport() gibt den aktuell eingestellten Standardport zurück oder None. get_defport Name get_defport – ermittelt den Standardport [DV] Synopsis get_defport() Parameter keine Rückgabetyp ganze Zahl oder None Standardportangabe Exceptions SyntaxError Zu viele Argumente. Wenn None als Parameter angegeben wird. Der vorherige Standardhost wird zurückgegeben. werden für zukünfige Verbindungen Umgebungsvariablen verwendet. set_defport Name set_defport – setzt den Standardport [DV] 423 . Umgebungsvariablen werden bei der Ermittlung des Rückgabewerts nicht untersucht.PyGreSQL: Die Python-Schnittstelle Beschreibung set_defhost() setzt den Standardhost für neue Verbindungen. wenn Umgebungsvariab- len verwendet werden sollen.

Kapitel 32 Synopsis set_defport(port) Parameter port Neuer Standardport (ganze Zahl/-1). Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente. dann werden für zukünfige Verbindungen Umgebungsvariablen verwendet. Beschreibung set_defport() setzt den Standardport für neue Verbindungen. get_defopt Name get_defopt – ermittelt die Standardoptionsangabe [DV] Synopsis get_defopt() Parameter Keine Rückgabetyp Zeichenkette oder None Standardoptionsangabe Exceptions SyntaxError Zu viele Argumente. Der vorherige Standardport wird zurückgegeben. Wenn -1 als Parameter angegeben wird. 424 . Rückgabetyp Ganze Zahl oder None Vorheriger Standardport.

wenn Umgebungsvariablen verwendet werden sollen. set_defopt Name set_defopt – setzt die Standardoptionsangabe [DV] Synopsis Parameter options Die neue Standardoptionen-Zeichenkette (Zeichenkette/None). Die vorherigen Standardoptionen werden zurückgegeben. Beschreibung set_defopt() setzt die Standardoptionen für neue Verbindungen. Rückgabetyp Zeichenkette oder None Vorherige Standardoptionsangabe. get_deftty Name get_deftty – ermittelt das Standardterminal für Debugausgaben [DV] 425 . werden für zukünftige Verbindungen Umgebungsvariablen verwendet.PyGreSQL: Die Python-Schnittstelle Beschreibung get_defopt() gibt die aktuell eingestellten Standardoptionen zurück oder None . Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente. Umgebungsvariablen werden bei der Ermittlung des Rückgabewerts nicht untersucht. Wenn None als Parameter angegeben wird.

set_deftty Name set_deftty – setzt das Standardterminal für Debugausgaben [DV] Synopsis set_deftty(terminal) Parameter terminal Neues Standard-Debug-Terminal (Zeichenkette/None) Rückgabetyp Zeichenkette oder None Vorheriges Standard-Debug-Terminal. 426 . Umgebungsvariablen werden bei der Ermittlung des Rückgabewerts nicht untersucht. Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente.Kapitel 32 Synopsis get_deftty() Parameter Keine Rückgabetyp Zeichenkette oder None Standard-Debug-Terminal Exceptions SyntaxError Zu viele Argumente. Beschreibung get_deftty() gibt das aktuell eingestellte Standard-TTY für Debugausgaben zurück. oder None wenn Umgebungsvariablen verwendet werden sollen.

wenn Umgebungsva- riablen verwendet werden sollen.PyGreSQL: Die Python-Schnittstelle Beschreibung set_defhost() setzt das Standard-Debug-TTY für neue Verbindungen. Wenn None als Parameter angegeben wird. Umgebungsvariablen werden bei der Ermittlung des Rückgabewerts nicht untersucht. Das vorherige Standard-TTY wird zurückgegeben. set_defbase Name set_defbase – setzt die Standarddatenbank [DV] 427 . Beschreibung get_defbase() gibt die aktuell eingestellte Standarddatenbank zurück oder None . dann werden für zukünftige Verbindungen Umgebungsvariablen verwendet. get_defbase Name get_defbase – ermittelt die Standarddatenbank [DV] Synopsis get_defbase( Parameter Keine Rückgabetyp Zeichenkette oder None Standarddatenbankname Exceptions SyntaxError Zu viele Argumente.

Beschreibung set_defbase() setzt die Standarddatenbank für neue Verbindungen. setzen Sie beim Compilieren die Option -DNO_DIRECT in der Datei Setup. 32.Kapitel 32 Synopsis set_defbase(database) Parameter database Neuer Standarddatenbankname (Zeichenkette/None).3 Verbindungsobjekt: pgobject Das Objekt pgobject verwaltet eine Verbindung mit einer PostgreSQL-Datenbank. Die vorherige Standarddatenbank wird zurückgegeben. Rückgabetyp Zeichenkette oder None Vorheriger Standarddatenbankname Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente. port Der Port des Servers (ganze Zahl). Einige andere Methoden bieten Zugriff auf Large Objects. dann werden für zukünftige Verbindungen Umgebungsvariablen verwendet. Jedes pgobject-Objekt definiert einige konstante Attribute. Es enthält und versteckt alle Parameter dieser Verbindung und erlaubt nur durch Funktionen Zugriff auf die wichtigen Parameter. Diese Methoden sind mit [LO] markiert. Diese sind mit [DA] markiert. options 428 . was Sie tun. dann setzen Sie die Option -DNO_LARGE in der Datei Setup. Einige Methoden geben Ihnen direkten Zugriff auf die Verbindungssocket. Wenn Sie den Zugriff auf diese Methoden vom Modul aus verbieten wollen. Diese Attribute sind: host Der Hostname des Servers (Zeichenkette). db Die gewählte Datenbank (Zeichenkette). Verwenden Sie diese Methoden nur. wenn Sie ganz genau wissen. Wenn Sie diese Methoden lieber deaktivieren wollen. Wenn None als Parameter angege- ben wird. die den Status der Verbindung beschreiben.

pg. ValueError Leerer SQL-Befehl.oder Fehlermeldung vom Server (Zeichenkette). 429 .error Ein Fehler bei der Verarbeitung des Befehls oder eine ungültige Verbindung. user Der Datenbankbenutzername (Zeichenkette). status Der Zustand der Verbindung (ganze Zahl: 1 = in Ordnung. query Name query – führt einen SQL-Befehl aus Synopsis query(command) Parameter command Der SQL-Befehl (Zeichenkette). Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente.PyGreSQL: Die Python-Schnittstelle Die Verbindungsoptionen (Zeichenkette). tty Das Terminal für Debugausgaben (Zeichenkette). 0 = fehlerhaft). Rückgabetyp pgqueryobject oder None Ergebnis des Befehls. error Die letzte Warn.

Wenn der Befehl ein anderer ist. reset Name reset – setzt die Verbindung zurück Synopsis reset( Parameter Keine Rückgabetyp Keiner Exceptions TypeError Zu viele Argumente. Wenn der Befehl ein INSERT-Befehl ist. dann wird None zurückgegeben. Ansonsten wird ein Objekt vom Typ pgqueryobject zurückgegeben. close Name close – schließt die Datenbankverbindung 430 . kein SELECT).h. aus dem man die Anfrageergebnisse mit dem Methoden getresult() oder dictresult() abrufen kann oder das man einfach ausdrucken kann. der kein Ergebnis liefert (d.Kapitel 32 Beschreibung Die Methode query() sendet einen SQL-Befehl an die Datenbank. Beschreibung Die Methode reset() setzt die aktuelle Verbindung zur Datenbank zurück. ist der Rückgabewert die OID der neu eingefügten Zeile.

wenn das Verbindungsobjekt gelöscht wird. Beschreibung Die Methode close() schließt die Datenbankverbindung. aber mit dieser Methode können Sie sie ausdrücklich schließen. Die Verbindung wird sowieso geschlossen. 431 . über die mit der Datenbank verbunden wurde. damit die DB-SIG-Schnittstelle ihre entsprechende close-Funktion implementieren kann. Exceptions TypeError Zu viele Argumente. Hauptsächlich ist diese Funktion vorhanden.PyGreSQL: Die Python-Schnittstelle Synopsis close() Parameter keine Rückgabetyp Keiner Exceptions TypeError Zu viele Argumente. fileno Name fileno – gibt die Socketnummer der Datenbankverbindung zurück Synopsis fileno() Parameter Keine Rückgabetyp Socketnummer Die Socketnummer.

wobei name der Name der Benachrichtigung ist und pid die Prozess-ID der Sitzung. Diese Information kann zum Beispiel für select verwendet werden.error Ungültige Verbindung.) Wenn der Server keine Benachrichtigung liefert. Beschreibung Die Methode getnotify() versucht vom Server eine Benachrichtigung abzuholen. None Die letzte Benachrichtigung vom Server. pid). Denken Sie daran. weil ansonsten getnotify immer None zurückgibt. Ansonsten ergibt Sie ein Tupel (ein Paar) (name. inserttable Name inserttable – fügt eine Liste in eine Tabelle ein 432 . getnotify Name getnotify – gibt die letzte Benachrichtigung vom Server zurück Synopsis getnotify( Parameter Keine Rückgabetyp Tupel. pg. Exceptions TypeError Zu viele Argumente. dass zuerst LISTEN ausführen müssen. (Benachrichtigungen werden mit dem SQL-Befehl NOTIFY erzeugt. über die mit der Datenbank verbunden wurde. die die Benachrichtigung ausgelöst hat.Kapitel 32 Beschreibung Die Methode fileno() gibt die Socketnummer zurück. gibt die Methode None zurück.

ob die Felder mit der Tabellendefinition übereinstimmen. integer. values) Parameter table Der Tabellenname (Zeichenkette). 433 . sie prüft nur. Die Liste ist eine Liste von Tupeln oder Listen. die die Werte jeder einzufügenden Zeile bestimmen. ob sie selbst die Typen verarbeiten kann. Beschreibung Mit der Methode inserttable() können Sie schnell große Mengen Daten in eine Tabelle einfügen: Sie fügt die gesamte Werteliste in die Tabelle ein. Achtung: Diese Methode prüft nicht. putline Name putline – schreibt eine Zeile für die Serversocket [DA] Synopsis putline(line) Parameter line Zu schreibende Zeile (Zeichenkette). Die Zeilenwerte können vom Typ string. pg. Rückgabetyp Keiner Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente.error Ungültige Verbindung. values Die Liste der einzufügenden Zeilenwerte (Liste). long oder double sein.PyGreSQL: Die Python-Schnittstelle Synopsis inserttable(table.

Beschreibung Mit der Methode putline() können Sie eine Zeichenkette direkt zur Serversocket schreiben.Kapitel 32 Rückgabetyp keiner Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente. getline Name getline – liest eine Zeile von der Serversocket [DA] Synopsis getline() Parameter Keine Rückgabetyp Zeichenkette Die gelesene Zeile.error Ungültige Verbindung. 434 . Beschreibung Mit der Methode getline() können Sie eine Zeichenkette direkt von der Serversocket lesen. Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente. pg.error Ungültige Verbindung. pg.

die direkt auf die Socket zugreifen. könnten Client und Server desynchronisiert werden. pg. Beschreibung Durch die Verwendung der Methoden. Mit dieser Methode wird die Synchronisierung zwischen Client und Server wiederhergestellt. locreate Name locreate – erzeugt ein Large Object in der Datenbank [LO] Synopsis locreate(mode) Parameter mode Erzeugungsmodus 435 .PyGreSQL: Die Python-Schnittstelle endcopy Name endcopy – synchronisiert Client und Server [DA] Synopsis endcopy() Parameter Keine Rückgabetyp Keiner Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente.error Ungültige Verbindung.

pg.Kapitel 32 Rückgabetyp pglarge Ein Objekt. Beschreibung Die Methode locreate() erzeugt ein Large Object in der Datenbank.error Ungültige Verbindung oder Fehler bei der Erzeugung des Objekts. 436 . pg. getlo Name getlo – öffnet ein Large Object [LO] Synopsis getlo(oid) Parameter oid OID eines bestehenden Large Object (ganze Zahl) Rückgabetyp pglarge Eine Handle für das Large Object Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente.error Ungültige Verbindung. Der Modus kann durch eine “Oder”-Verknüpfung der im Modul pg definierten Konstanten INV_READ (lesen) und INV_WRITE (schreiben) angegeben werden. das eine Handle für ein PostgreSQL-Large-Object darstellt. Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente.

PyGreSQL: Die Python-Schnittstelle Beschreibung Mit der Methode getlo() können Sie auf ein früher erzeugtes Large Object durch die Klasse pglarge zugreifen. 32. Die beste Art und Weise. die die Daten enthält.4 Datenbank-Wrapper-Klasse: DB Das Modul pg enthält eine Klasse namens DB. Beschreibung Mit der Methode loimport() können Sie ein Large Object ganz einfach erzeugen. Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente. Rückgabetyp pglarge Eine Handle für das Large Object.error Ungültige Verbindung oder Fehler beim Importieren. diese Klasse zu verwenden. wenn Sie die OID kennen. pg. ist wie folgt: import pg 437 . Geben Sie einfach den Namen der Datei an. Alle Methoden der Klasse pgobject sind auch in diesem Objekt enthalten. die Sie verwenden wollen. loimport Name loimport – importiert ein Large Object aus einer Datei [LO] Synopsis loimport(filename) Parameter filename Der Name der zu importierenden Datei (Zeichenkette). Eine Reihe zusätzlicher Methoden wird unten beschrieben.

. wenn die Tabelle keinen Primärschlüssel hat.connect() tut. get_databases Name get_databases – ermittelt eine Liste der Datenbanken im System 438 .) for r in db.connect. Beachten Sie. Die Initialisierung der Klasse DB erfolgt mit den gleichen Argumenten wie die Methode pg. Rückgabetyp Zeichenkette Name der Spalte.DB(. Die Anweisung db = DB() öffnet eine Verbindung zu einem lokalen Datenbankserver mit allen Vorgabeeinstellungen. genau wie es pg.dictresult(): print '%(foo)s %(bar)s' % r Im Folgenden werden die Methoden und Variablen dieser Klasse beschrieben. Außerdem werden dabei einige interne Variablen initialisiert.query("SELECT foo. Beschreibung Die Methode pkey() gibt den Primärschlüssel einer Tabelle zurück. pkey Name pkey – gibt den Primärschlüssel einer Tabelle zurück Synopsis pkey(table) Parameter table Name der Tabelle. bar FROM foo_bar_table WHERE foo !~ bar.. dass diese Methode eine Exception auslöst."). die der Primärschlüssel der Tabelle ist.Kapitel 32 db = pg.

ist die Verwendung dieser Methode bequemer.PyGreSQL: Die Python-Schnittstelle Synopsis get_databases() Parameter Keine Rückgabetyp Liste Liste der Datenbanken im System . 439 . Beschreibung Obwohl Sie diese Informationen auch mit einer direkten Anfrage ermitteln können. Beschreibung Obwohl Sie diese Informationen auch mit einer direkten Anfrage ermitteln können. get_tables Name get_tables – ermittelt eine Liste aller Tabellen in der aktuellen Datenbank Synopsis get_tables() Parameter Keine Rückgabetyp Liste Liste aller Tabellen in der aktuellen Datenbank. ist die Verwendung dieser Methode bequemer.

arg.Kapitel 32 get_attnames Name get_attnames – gibt die Spaltennamen einer Tabelle zurück Synopsis get_attnames(table) Parameter tabelle Name der Tabelle. [keyname]) Parameter table Name der Tabelle. get Name get – liest eine Zeile aus einer Datenbanktabelle Synopsis get(table. die als Schlüssel verwendet werden soll (optional). der gesucht werden soll. keyname Name einer Spalte. 440 . Beschreibung Diese Methode ermittelt für die angegebene Tabelle die Namen der Spalten und deren Typen. arg Ein Dictionary oder ein Wert. Rückgabetyp Dictionary Die Schlüssel des Dictionary sind die Spaltennamen. die Werte sind die Typennamen der Spalten.

Der Suchschlüssel muss eine eindeutige Zeile auswählen. Danach lädt es die Werte aus der Datenbank zurück in das Dictionary. Um dieses Problem zu überwinden. Rückgabetyp ganze Zahl Die OID der neu eingefügten Zeile. dass sie sehr groß werden könnte. um ihn eindeutig zu machen: Er besteht aus der Zeichenkette oid_ gefolgt vom Namen der Tabelle. Beschreibung Diese Methode ist ein einfacher Mechanismus. Dadurch wird das Dictionary aktuell gehalten. um eine einzelne Zeile zu lesen. Trigger usw. Wenn arg ein Dictionary ist. verändert worden sind. aber damit man das Dictionary mit mehreren Tabellen verwenden kann. je größer die Tabelle wird. wird daraus der Wert des Schlüssels entnommen und es wird um die gelesenen Werte ergänzt. Beschreibung Diese Methode fügt Werte aus dem Dictionary in die angegebene Tabelle ein. wenn nötig durch Ersetzen der alten Werte. werden Sie feststellen. von der Sie denken. erzeugen Sie einfach einen Index für die OID-Spalte jeder Tabelle. dass die Einfügeoperationen länger und länger dauern. wird der Spaltenname verändert.PyGreSQL: Die Python-Schnittstelle Rückgabetyp Dictionary Ein Dictionary mit Spaltennamen als Schlüssel und Zeilenwerten als Werte. a) Parameter table Name der Tabelle. wie diese Funktion implementiert ist. Die OID wird ebenso in das Dictionary aufgenommen. wenn die Werte durch Regeln. a Ein Dictionary mit Werten. wird der Primärschlüssel der Tabelle verwendet. insert Name insert – fügt eine Zeile in eine Datenbanktabelle ein Synopsis insert(table. 441 . Wenn keyname nicht angegeben ist. Wegen der Art.

Beschreibung Ähnlich wie insert. wobei der Name der OID-Spalte wie bei get verändert wird. clear Name clear – setzt die Werte einer Datenbanktabelle zurück Synopsis clear(table. Regeln. aber aktualisiert eine vorhandene Zeile. a Ein Dictionary mit Werten. a) Parameter table Name der Tabelle.Kapitel 32 update Name update – aktualisiert eine Datenbanktabelle Synopsis update(table. [a]) Parameter table Name der Tabelle. mit eventuellen Veränderungen durch Trigger. Die Aktualisierung wird auf Basis der OID vorgenommen. Vorgabewerte usw. Das zurückgegebene Dictionary ist das gleiche wie das übergebene. 442 . Rückgabetyp ganze Zahl Die OID der aktualisierten Zeile.

Die Löschoperation verwendet die OID aus dem Dictionary. a Ein Dictionary mit Werten. Wenn das DictionaryArgument vorhanden ist. Beschreibung Diese Methode setzt die Spalten einer Tabelle auf typabhängige Werte zurück. [a]) Parameter table Name der Tabelle. Datumstypen auf 'today'. wie oben beschrieben. alles andere auf eine leere Zeichenkette. werden nur die Spalten zurückgesetzt. Rückgabetyp Keiner Beschreibung Diese Methode löscht eine Zeile aus einer Tabelle.PyGreSQL: Die Python-Schnittstelle a Ein Dictionary mit Werten. und alle anderen werden nicht verändert. Numerische Typen werden auf 0 gesetzt. die im Dictionary vorkommen. Rückgabetyp Dictionary Ein Dictonary mit einer leeren Zeile. 443 . delete Name delete – löscht eine Zeile aus einer Datenbanktabelle Synopsis delete(table.

fieldname und fieldnum ermittelt werden.Kapitel 32 32. pg. Objekte dieses Typs werden von der Methode pgobject. Exceptions SyntaxError Zu viele Argumente.5 Anfrageergebnisobjekt: pgqueryobject Das Objekt pgqueryobject enthält ein Anfrageergebnis und bietet Methoden um dieses Anfragergebnis auszuwerten. dictresult Name dictresult – gibt die von einer Anfrage ermittelten Werte als Dictionary zurück 444 .error Das Anfrageergebnis ist ungültig. getresult Name getresult – gibt die von einer Anfrage ermittelten Werte zurück Synopsis getresult() Parameter Keine Rückgabetyp Liste Eine Liste von Tupeln. Weitere Informationen über das Anfrageergebnis können mit den Methoden listfields. Beschreibung Die Methode getresult() gibt eine Liste von Werten zurück.query() erzeugt. die durch die Anfrage ausgewählt wurden.

listfields Name listfields – gibt die Spaltennamen des Anfrageergebnisses zurück Synopsis listfields() Parameter Keine Rückgabetyp Liste Liste der Spaltennamen Exceptions SyntaxError 445 . wobei jede Zeile als Dictionary mit den Spaltennamen als Schlüssel dargestellt wird.error Das Anfrageergebnis ist ungültig. Beschreibung Die Methode dictresult() gibt eine Liste der von der Anfrage ermittelten Werte zurück. pg.PyGreSQL: Die Python-Schnittstelle Synopsis dictresult() Parameter Keine Rückgabetyp Liste Eine Liste von Dictionaries. Exceptions SyntaxError Zu viele Argumente.

Beschreibung Die Methode listfields() ergibt eine Liste der Spaltennamen im Anfrageergebnis. pg. Die Spalten sind in derselben Reihenfolge wie die Ergebniswerte. wenn Sie die Ergebnisse tabellarisch darstellen wollen.Kapitel 32 Zu viele Argumente. pg. Das kann zum Beispiel nützlich sein. Die Spaltennamen sind in derselben Reihenfolge wie die Ergebniswerte. 446 .error Ungültiges Anfrageergebnis oder ungültige Verbindung. ValueError Ungültige Spaltennummer. fieldname Name fieldname – ermittelt den Spaltennamen für eine Spaltennummer Synopsis fieldname(i) Parameter i Spaltennummer (ganze Zahl) Rückgabetyp Zeichenkette Spaltenname Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente. Beschreibung Mit der Methode fieldname() können Sie den Spaltennamen aus einer Spaltennummer ermitteln.error Ungültiges Anfrageergebnis oder ungültige Verbindung.

ValueError Unbekannter Spaltenname. Beschreibung Die Methode fieldnum() ermittelt die Spaltennummer für einen Spaltennamen.error Ungültiges Anfrageergebnis oder ungültige Verbindung. Damit kann man zum Beispiel eine Funktion schreiben. die die Werte eines Anfrageergebnisses anhand einer dem Programm bekannten Tabellendefinition in ihre korrekten Typen umwandelt.PyGreSQL: Die Python-Schnittstelle fieldnum Name fieldnum – ermittelt die Spaltennummer für einen Spaltennamen Synopsis fieldnum(name) Parameter name Spaltenname (Zeichenkette) Rückgabetyp ganze Zahl Spaltennummer Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente. Die zurückgegebene Nummer zählt in der Reihenfolge der Ergebniswerte. pg. ntuples Name ntuples – gibt die Anzahl der Ergebniszeilen in einem Ergebnisobjekt zurück 447 .

Beschreibung Die Methode ntuples() gibt die Anzahl der von der Anfrage ermittelten Zeilen zurück. Jede Veränderung am pgobject-Objekt wirkt sich daher auf das pglarge-Objekt aus. Es speichert einen Verweis auf das pgobject-Objekt. wodurch nur die wichtigen Parameter in Funktionsaufrufen angegeben werden müssen. Diese Attribute sind: oid Die OID des Objekts. egal. aus dem es erzeugt wurde. 448 . 32. weil Sie damit später ein pglarge-Objekt mit der Methode getlo() der Klasse pgobject erzeugen können.Kapitel 32 Synopsis ntuples() Parameter Keine Rückgabetyp ganze Zahl Anzahl der Zeilen im Ergebnisobjekt. Exceptions SyntaxError Zu viele Argumente. Weitere Informationen über die Large-Object-Schnittstelle in PostgreSQL finden Sie in Kapitel 28. Alle Funktionen geben bei einem Fehler eine allgemeine Fehlermeldung zurück. pgcnx Das zugehörige pgobject-Objekt. was der genaue Fehler war. Das Attribut error des Objekts enthält die genaue Fehlermeldung. die Informationen über das Objekt enthalten. Es speichert und versteckt alle “wiederkehrenden” Variablen (Objekt-ID und Verbindung). Das OID-Attribut ist sehr interessant. und leitet die eigenen Aufrufe an dieses weiter. genauso wie pgobject-Objekte es tun.6 Large Object: pglarge Das Objekt pglarge verwaltet alle Operationen mit PostgreSQL-Large-Objects. pglarge-Objekte definieren einige konstante Attribute. Python gibt den Speicher des pgobject-Objekts erst frei.oder Fehlermeldung auf der Verbindung. error Die letzte Warn. wenn alle daraus erzeugten pglarge-Objekte auch freigegeben wurden.

Beachten Sie. Der Modus kann durch eine “Oder”-Verknüpfung der im Modul pg definierten Konstanten INV_READ (lesen) und INV_WRITE (schreiben) angegeben werden. der dasselbe pgobject-Objekt verwendet. IOError Schon geöffnet oder Fehler beim Öffnen. pg. 449 .error Ungültige Verbindung. müssen Sie selbst Sperren einrichten. Rückgabetyp Keiner Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente. ähnlich wie die Unix-Funktion open(). Beschreibung Die Methode open() öffnet ein Large Object zum Lesen oder Schreiben. verändert werden.PyGreSQL: Die Python-Schnittstelle Wichtig In Multithread-Umgebungen kann error durch einen anderen Thread. open Name open – öffnet das Large Object Synopsis open(mode) Parameter mode Zugriffsmodus (ganze Zahl). wenn Sie in solchen Situationen die Fehlermeldung prüfen wollen. dass diese Objekte geteilt sind und nicht dupliziert werden.

ähnlich wie die Unix-Funktion close().Kapitel 32 close Name close – schließt das Large Object Synopsis close() Parameter Keine Rückgabetyp Keiner Exceptions SyntaxError Zu viele Argumente. Beschreibung Die Methode close() schließt ein vorher geöffnetes Large Object. IOError Objekt ist nicht geöffnet oder Fehler beim Schließen.error Ungültige Verbindung. read Name read – liest aus dem Large Object 450 . pg.

Rückgabetyp Keiner 451 . ausgehend von der aktuellen Position. pg.error Ungültige Verbindung oder ungültiges Objekt. Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente.PyGreSQL: Die Python-Schnittstelle Synopsis read(size) Parameter size Maximal zu lesende Daten (ganze Zahl). Beschreibung Die Methode read() liest Daten aus dem Large Object. IOError Objekt ist nicht geöffnet oder Fehler beim Schreiben. write Name write – schreibt in das Large Object Synopsis write(string) Parameter string Zu schreibende Daten (Zeichenkette). Rückgabetyp Zeichenkette Die gelesenen Daten.

whence Ausgangspunkt für die neue Position (ganze Zahl). pg.error Ungültige Verbindung oder ungültiges Objekt. Rückgabetyp ganze Zahl Die neue aktuelle Position im Objekt. IOError Objekt ist nicht geöffnet oder Fehler beim Schreiben. whence) Parameter offset Neue Position (ganze Zahl).error Ungültige Verbindung oder ungültiges Objekt. seek Name seek – ändert die aktuelle Position im Large Object Synopsis seek(offset. IOError Objekt ist nicht geöffnet oder Fehler beim Positionieren. Beschreibung Die Methode write() schreibt Daten in das Large Object. 452 .Kapitel 32 Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente. pg. ausgehend von der aktuellen Position. Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente.

IOError Objekt ist nicht geöffnet oder Fehler beim Positionieren. Exceptions SyntaxError Zu viele Argumente.PyGreSQL: Die Python-Schnittstelle Beschreibung Die Methode seek() bewegt die aktuelle Lese. Beschreibung Die Methode tell() gibt die aktuelle Lese. 453 .error Ungültige Verbindung oder ungültiges Objekt. pg.und Schreibposition im Large Object zurück. Der Parameter whence kann durch eine der im Modul pg definierten Konstanten SEEK_SET (zählt vom Anfang des Objekts). SEEK_CUR (zählt von der aktuellen Position aus) und SEEK_END (zählt vom Ende des Objekts) angegeben werden.und Schreibposition im Large Object. tell Name tell – gibt die aktuelle Position im Large Object zurück Synopsis tell() Parameter Keine Rückgabetyp ganze Zahl Aktuelle Position im Objekt.

IOError Objekt ist nicht geschlossen oder Fehler beim Löschen. size Name size – gibt die Größe des Large Object zurück Synopsis size() Parameter Keine 454 . pg.error Ungültige Verbindung oder ungültiges Objekt.Kapitel 32 unlink Name unlink – löscht das Large Object Synopsis unlink() Parameter Keine Rückgabetyp Keiner Exceptions SyntaxError Zu viele Argumente. Beschreibung Die Methode unlink() löscht ein Large Object.

IOError Objekt ist nicht geschlossen oder Fehler beim Exportieren. Exceptions SyntaxError Zu viele Argumente.PyGreSQL: Die Python-Schnittstelle Rückgabetyp Ganze Zahl Die Größe des Large Object. Beschreibung Mit der Methode size() können Sie die Größe des Large Objects ermitteln. pg. Sie wurde implementiert. IOError Objekt ist nicht geöffnet oder Fehler beim Positionieren. pg.error Ungültige Verbindung oder ungültiges Objekt. export Name export – speichert das Large Object in einer Datei Synopsis export(filename) Parameter filename Name der zu erzeugenden Datei. weil Sie für Web-Anwendungen sehr nützlich ist. Rückgabetyp Keiner Exceptions TypeError Falscher Argumenttyp oder zu viele Argumente.error 455 . Gegenwärtig müssen Sie das Large Object erst öffnen.

Beschreibung Mit der Methode export() können Sie den Inhalt eines Large Objects auf eine ganze einfache Art und Weise in einer Datei abspeichern. nicht auf dem Serverrechner. erzeugt. Die Exportdatei wird auf dem Rechner des Programms. 456 .Kapitel 32 Ungültige Verbindung oder ungültiges Objekt.

wenn Sie die gesamte restliche Benutzerdokumentation zu PostgreSQL verstanden haben. 457 . Dieser Teil beschreibt auch die in der PostgreSQL-Distribution verfügbaren serverseitigen Programmiersprachen und allgemeine einige allgemeine Themen über Serverprogrammiersprachen. die zumindest die ersten paar Kapitel dieses Teils gelesen haben. Das sind fortgeschrittene Themen. denen Sie sich wahrscheinlich erst widmen sollten. Trigger usw.3 Teil V Server-Programmierung In diesem Teil geht es um die Erweiterung der Serverfunktionalität durch benutzerdefinierte Funktionen. Datentypen. Diese Informationen sind wahrscheinlich nur für die Leser nützlich.

VAKAT VAKAT .

33 33 SQL erweitern In den folgenden Abschnitten besprechen wir.13) 33. und PostgreSQL wird diese bei Bedarf laden. die einen neuen Typ oder eine neue Funktion implementiert. indem der Quellcode selbst verändert wird oder indem spezielle Module vom DBMS-Hersteller geladen werden. Der PostgreSQL-Server kann außerdem Anwendercode durch dynamisches Laden aufnehmen. Im Gegensatz dazu können herkömmliche Datenbanksysteme nur erweitert werden.3) Datentypen (ab Abschnitt 33. Zugriffsmethoden und so weiter. Das heißt. Diese Tabellen können vom Benutzer verändert werden. der Benutzer kann eine Objektdatei (zum Beispiel eine dynamische Bibliothek) angeben. aber das Datenbanksystem speichert darin seine internen Informationen.) Die Kataloge erscheinen für den Benutzer als normale Tabellen.1 Wie die Erweiterbarkeit funktioniert PostgreSQL ist erweiterbar. Code.11) Aggregatfunktionen (ab Abschnitt 33. Spalten in so genannten Systemkatalogen speichern. dass PostgreSQL von Benutzern erweitert werden kann. Ein wichtiger Unterschied zwischen PostgreSQL und normalen relationalen Datenbanksystemen ist. weil seine Operation von Systemkatalogen gesteuert wird. sondern auch Informationen über Datentypen. Tabellen. dass PostgreSQL viel mehr Informationen in seinen Katalogen speichert: nicht nur Informationen über Tabellen und Spalten. kann sogar noch einfacher in den Server integriert werden. macht PostgreSQL auf einzigartige Weise geeignet für schnelles Prototyping von neuen Anwendungen und Speicherstrukturen. (Manche Systeme nennen dies auch Data Dictionary. der in SQL geschrieben ist.10) Operatoren (ab Abschnitt 33. die Operation im laufenden Betrieb verändern zu können. und zwar mit benutzerdefinierten ❏ ❏ ❏ ❏ Funktionen (ab Abschnitt 33. Funktionen. und da die Operation von PostgreSQL von diesen Tabellen gesteuert wird. wie man die SQL-Sprache in PostgreSQL erweitern kann. bedeutet das. Diese Fähigkeit. Wenn Sie sich mit normalen relationalen Datenbanksystemen auskennen. 459 . dass diese die Informationen über Datenbanken. wissen Sie.

5) ❏ interne Funktionen (Abschnitt 33. Auf die Argumente einer SQL-Funktion kann im Funktionskörper mit der Syntax $n verwiesen werden: $1 ist das erste Argument. Beachten Sie. Während Sie dies lesen. wenn der Benutzer eine Tabelle erzeugt.6) ❏ in C geschriebene Funktionen (Abschnitt 33. Wenn ein Argument einen zusammengesetzten Typ hat. Die Beispiele in diesem Abschnitt finden Sie auch in funcs. ist das Ergebnis der Funktion der NULLWert. Am einfachsten sind in SQL geschriebene Funktionen. dass die Syntax von CREATE FUNCTION erfordert. Diese entsprechen im Allgemeinen so genannten abstrakten Datentypen.B.7) Jede Art von Funktion kann Basistypen. Andererseits kann eine SQL-Funktion auch eine Ergebnismenge zurückgeben.c im Tutorialverzeichnis. daher fangen wir mit denen an. um auf die Attribute des Arguments zuzugreifen.4) ❏ in einer prozeduralen Sprache geschriebene Funktionen (zum Beispiel PL/Tcl oder PL/pgSQL) (Abschnitt 33. zusammengesetzte Typen oder beide als Argumente haben.sql und funcs.name. (Bedenken Sie. Der Körper einer SQL-Funktion sollte eine Liste aus einem oder mehreren SQL-Befehlen. wenn Sie ORDER BY verwenden. $1. kann es nützlich sein. Der Benutzer kann auf die Attribute dieser Typen durch die Anfragesprache zugreifen. kann die Punktschreibweise.4 SQL-Funktionen SQL-Funktionen führen eine beliebige Liste von SQL-Befehlen aus und geben das Ergebnis der letzten Anfrage in der Liste zurück. wenn der Rückgabetyp der Funktion als SETOF typ angegeben wurde. Einzelheiten dazu folgen weiter unten. Basistypen sind die.oder ein zusammengesetzter Typ. 33. $2 ist das zweite und so weiter. 460 . um die Beispiele besser verstehen zu können. wie der Benutzer es beschreibt.2 Das PostgreSQL-Typensystem Ein Datentyp ist entweder ein Basis.) Im einfachen Fall (ohne Ergebnismenge) wird die erste Zeile aus dem Ergebnis der letzten Anfrage zurückgegeben. sein. entweder durch zwei Apostrophe ('') oder einen Backslash vor dem Apostroph (\'). PostgreSQL kann mit diesen Typen nur durch vom Benutzer zur Verfügung gestellte Methoden umgehen und versteht das Verhalten dieser Typen nur so weit.3 Benutzerdefinierte Funktionen PostgreSQL stellt vier Arten von Funktionen zur Verfügung: ❏ in SQL geschriebene Funktionen (Abschnitt 33.) Wenn die letzte Anfrage zufällig keine Zeilen zurückgibt. durch Semikolons getrennt. 33.Kapitel 33 33. dass “die erste Zeile” eines mehrzeiligen Ergebnisses nur genau bestimmbar ist. Zusammengesetzte Typen entstehen immer. (Die Anfrage muss ein SELECT-Befehl sein. dass der Körper der Funkt